JPH07281753A - Moving robot - Google Patents

Moving robot

Info

Publication number
JPH07281753A
JPH07281753A JP6076236A JP7623694A JPH07281753A JP H07281753 A JPH07281753 A JP H07281753A JP 6076236 A JP6076236 A JP 6076236A JP 7623694 A JP7623694 A JP 7623694A JP H07281753 A JPH07281753 A JP H07281753A
Authority
JP
Japan
Prior art keywords
mobile robot
data
robot
plant
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6076236A
Other languages
Japanese (ja)
Inventor
Satoshi Okada
敏 岡田
Etsuro Igarashi
越郎 五十嵐
Riyoko Haneda
里代子 羽田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP6076236A priority Critical patent/JPH07281753A/en
Publication of JPH07281753A publication Critical patent/JPH07281753A/en
Pending legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E30/00Energy generation of nuclear origin
    • Y02E30/30Nuclear fission reactors

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Monitoring And Testing Of Nuclear Reactors (AREA)
  • Manipulator (AREA)

Abstract

PURPOSE:To provide the moving robot improved in the exactness of self-position identifying processing and further able to be processed at high speed even in a complicated environment by providing the self-position identifying processing unnecessitated with processing for complicated teaching or a plant by adopting an external sensor instead of visual information without exerting an adverse effect upon the plant. CONSTITUTION:Concerning the moving robot having a mobile truck, mounted with a check sensor, equipped with a moving mechanism for moving the robot back and forth and turning it while moving inside the building of the plant to inspect and monitor the status of the plant equipment, moving amount detecting means 14 and 15 for detecting the amounts of horizontal, vertical and turning moving of the moving robot 1 and a self-position identifying means 23 for identifying a present position based on the moving amount data obtd. from these moving amount detecting means 14 and 15 in correspondence with CAD data showing the arrangement of instruments inside the building of the plant.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は自律制御する移動ロボッ
トに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a mobile robot for autonomous control.

【0002】[0002]

【従来の技術】一般に、原子力プラントやその他悪環境
下の各種プラントでは、プラント内に設置されている機
器や配管に加熱や漏洩等の異常が発生した場合に、早期
に発見できるように作業員が移動して点検を行ってい
る。また、固定の点検センサによるモニタリングではわ
かりづらい場所等の監視や必要に応じて詳細な点検を行
うため、作業員が移動して巡視点検を行っている。この
巡視点検作業は、人体への危害やコスト、さらに最近で
は作業員の確保の面などで問題があり、作業員に代替す
る移動式の点検装置への要求が強い。
2. Description of the Related Art Generally, in a nuclear power plant or other various plants in a bad environment, when an abnormality such as heating or leakage occurs in equipment or piping installed in the plant, a worker can detect the abnormality early. Is moving and inspecting. In addition, in order to monitor places that are difficult to understand by fixed inspection sensors and to perform detailed inspections as needed, workers move around to perform inspection inspections. This inspection inspection work has problems such as damage to the human body and cost, and more recently, the problem of securing workers, and there is a strong demand for a mobile inspection device that replaces workers.

【0003】特に、巡回点検用のロボットには、異常と
思われる現象が発生した場合の詳細な点検作業や、異常
となる原因の究明のための関連する系統の部品や箇所の
詳細な点検作業などが容易にできるものが期待されてい
る。従って、決まった移動経路以外の任意な場所へ移動
できる移動ロボットへの要求が強い。また、操作が一人
ででき容易なものが望まれている。
In particular, for a robot for patrol inspection, a detailed inspection work is carried out when a phenomenon considered to be abnormal occurs, and a detailed inspection work is carried out on parts and locations of related systems for investigating the cause of the abnormality. It is expected that something can be done easily. Therefore, there is a strong demand for a mobile robot that can move to an arbitrary place other than a fixed movement route. Further, it is desired that the operation can be performed by one person and is easy.

【0004】このため、これらの要求に答えるべき、現
在各方面において、雲台にテレビカメラやマイクロフォ
ン等の点検用センサを取り付けた種々の移動ロボットが
開発されている。これまでに、オペレータが直接駆動機
構を遠隔操作する操縦方式のものや、予めロボットの移
動するコースを取り決めておき、そのコースに誘導線を
取り付けたり、目印となるものを備え付けたりしてお
き、教示して移動させるテーチングプレイバック方式の
ものが開発されている。しかし、操縦方式は遠隔操縦の
困難でオペレータへの負担が大きい。また、テーチング
プレイバック方式は教示が複雑かつ困難で、任意の場所
への移動ができない。これらの移動ロボットでは、巡視
点検用ロボットの要求機能を満足するものではない。そ
こで最近では要求に答える移動ロボットとして、移動範
囲の拡大と操作性の向上を目指した自律的に制御するワ
イヤレスの移動ロボットの開発が進められている。
For this reason, various mobile robots in which inspection sensors such as a television camera and a microphone are attached to a platform are currently being developed in various fields in order to meet these demands. So far, the operator directly operates the drive mechanism by remote control, or decide in advance the course to which the robot will move, attach a guide wire to that course, or equip it with a mark. A teaching playback system that teaches and moves has been developed. However, the control method makes remote control difficult and imposes a heavy burden on the operator. Further, the teaching playback method is complicated and difficult to teach, and cannot be moved to an arbitrary place. These mobile robots do not satisfy the required functions of the patrol inspection robot. Therefore, recently, as a mobile robot that responds to demands, development of a wireless mobile robot that autonomously controls with the aim of expanding a moving range and improving operability has been advanced.

【0005】[0005]

【発明が解決しようとする課題】上述の従来の移動ロボ
ットにおいては、原子力プラントやその他悪環境下の各
種プラントの非常に複雑でかつ広いエリア等の使用条件
において機能を満足させことが困難であった。移動ロボ
ットを自律的に移動制御を行って、目的位置まで確実に
移動させるには、移動する環境を把握し、常にロボット
自身の位置や向きを求める機能(以下自己位置同定処理
という)が必要となる。しかも、移動ロボットをスムー
ズに移動させるには、高速に自己位置同定処理を行う必
要がある。人間の場合、目にとらえた映像すなわちパッ
シブな視覚情報から、短時間で容易に自己位置同定処理
を行っている。一方、ロボットにパッシブな視覚情報で
自己位置同定処理を行う場合は、人間の目に相当するテ
レビカメラを取り付けて、画像認識を行う必要がある
が、視覚認識機能が人に比べて非常に劣る。そのため、
短時間で正確な自己位置同定することが困難である。現
状の認識技術は単純背景での単純物体に対しては、ある
程度まで短時間で正確な認識が可能となってきている
が、複雑環境では認識率が極端に低くなり、かつ10秒
以上と長時間を必要とするなど、実用レベルには程遠
い。複雑環境での認識技術が実用レベルに到達するまで
には、今後かなりの年月がかかると思われる。このた
め、現状では複雑環境を移動させるロボットにはパッシ
ブな視覚情報による自己位置同定処理は実現性に乏し
い。
In the above-mentioned conventional mobile robot, it is difficult to satisfy the function under the operating conditions such as a very complicated and wide area of a nuclear power plant or other various plants under bad environment. It was In order to autonomously control the movement of a mobile robot and reliably move it to the target position, it is necessary to have a function to grasp the moving environment and constantly find the position and orientation of the robot itself (hereinafter referred to as self-position identification processing). Become. Moreover, in order to move the mobile robot smoothly, it is necessary to perform self-position identification processing at high speed. In the case of human beings, self-position identification processing is easily performed in a short time from an image captured by the eyes, that is, passive visual information. On the other hand, when performing a self-location identification process on the robot using passive visual information, it is necessary to attach a TV camera equivalent to human eyes to perform image recognition, but the visual recognition function is very inferior to humans. . for that reason,
It is difficult to perform accurate self-localization in a short time. The current recognition technology is capable of accurately recognizing a simple object in a simple background in a short time to some extent, but the recognition rate becomes extremely low in a complicated environment, and the recognition rate is as long as 10 seconds or more. It takes time and is far from a practical level. It will take quite a while before recognition technology in a complex environment reaches a practical level. For this reason, at present, it is not feasible for a robot that moves in a complicated environment to perform a self-position identification process using passive visual information.

【0006】本発明は係る従来の事情に対処してなされ
たものであり、その目的は、プラントに悪影響を及ぼさ
ず、視覚情報に代わる外界センサの採用を行い、複雑な
教示やプラントに対する加工処理の不要な自己位置同定
処理を構築し、複雑環境下で自己位置同定処理の正確さ
を向上させ、しかも高速に処理可能な移動ロボットを提
供するものである。
The present invention has been made in consideration of the above conventional circumstances, and an object thereof is to adopt an external sensor instead of visual information without adversely affecting the plant, and to perform complicated teaching and processing for the plant. The object of the present invention is to provide a mobile robot capable of constructing unnecessary self-position identification processing of (1), improving the accuracy of self-position identification processing in a complex environment, and capable of high-speed processing.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するた
め、本発明の移動ロボットは、請求項1記載の発明では
プラント建屋内を移動し、前後進および旋回を行う移動
機構を備えた移動台車に点検センサを搭載してプラント
機器の状態を点検・監視する移動ロボットにおいて、移
動ロボットの水平、上下、旋回の移動量を検出する移動
量検出手段と、この移動量検出手段から得られる移動量
データをプラント建屋内の機器配置を示すCADデータ
に対応付けて現在位置の同定を行う自己位置同定手段と
を有する移動ロボットを提供するものである。
In order to achieve the above object, the mobile robot of the present invention is, in the invention described in claim 1, a mobile trolley equipped with a moving mechanism for moving in a plant building to perform forward and backward and turning. In a mobile robot that is equipped with an inspection sensor to inspect and monitor the state of plant equipment, a movement amount detection means for detecting the movement amount of the mobile robot in horizontal, vertical, and turning, and the movement amount obtained from this movement amount detection means. Provided is a mobile robot having self-position identifying means for identifying a current position by associating data with CAD data indicating a device layout in a plant building.

【0008】また、請求項2記載の発明では、プラント
建屋内を移動し、前後進および旋回を行う移動機構を備
えた移動台車に点検センサを搭載してプラント機器の状
態を点検・監視する移動ロボットにおいて、移動ロボッ
トの水平、上下、旋回の移動量を検出する移動量検出手
段と、周囲構造物との距離を計測する距離計測手段と、
この距離測定手段から得られる測距データと前記移動量
検出手段から得られる移動量データの相関演算を行う相
関演算手段と、この相関演算結果を用いて移動ロボット
の現在位置の同定を行う自己位置同定手段とを有する移
動ロボットを提供するものである。
According to the second aspect of the present invention, an inspection sensor is mounted on a movable carriage having a moving mechanism for moving in the plant building to perform forward and backward movements and turns. In the robot, movement amount detection means for detecting the movement amount of the mobile robot in horizontal, vertical, and turning directions, and distance measurement means for measuring the distance to the surrounding structure,
Correlation calculation means for performing a correlation calculation between the distance measurement data obtained from the distance measurement means and the movement amount data obtained from the movement amount detection means, and a self position for identifying the current position of the mobile robot using the correlation calculation result. A mobile robot having an identification means.

【0009】さらに、請求項3記載の発明では、距離計
測手段は、所定の移動時間毎に測距データを複数回採取
するスキャンニング手段を有し、スキャンニング毎に随
時切り換えて複数の記憶手段に記憶させ、これらの記憶
手段に記憶された測距データを任意の累積回数で平均化
する平均化処理手段を有して距離を計測する請求項2記
載の移動ロボットを提供するものである。
Further, in the invention according to the third aspect, the distance measuring means has a scanning means for collecting the distance measurement data a plurality of times at every predetermined moving time, and the plurality of storage means are switched at every scanning. 3. The mobile robot according to claim 2, further comprising: averaging processing means for averaging the distance measurement data stored in these storage means to an arbitrary number of accumulations to measure the distance.

【0010】[0010]

【作用】上記構成の移動ロボットにおいては、請求項1
記載の発明では移動量検出手段により水平、上下、旋回
の移動量を検出しプラントの機器配置を表示するのに用
いるプラントCADデータに対応させて移動ロボットの
自己位置を同定する。また、請求項2記載の発明では、
移動量検出手段により水平、上下、旋回の移動量を検出
し、さらに距離計測手段によって周囲構造物との距離を
計測し測距データを求める。一方、移動量検出手段によ
って移動ロボットの移動量を検出する。この移動量と測
距データについて相関演算手段によって相関演算を行い
移動ロボットの自己位置同定を行う。
According to the first aspect of the invention, there is provided a mobile robot having the above structure.
In the invention described above, the moving amount detecting means detects the moving amount of horizontal, vertical and turning, and identifies the self-position of the mobile robot in correspondence with the plant CAD data used for displaying the equipment arrangement of the plant. In the invention according to claim 2,
The movement amount detecting means detects horizontal, vertical and turning movement amounts, and the distance measuring means measures the distance to the surrounding structure to obtain distance measurement data. On the other hand, the moving amount detecting means detects the moving amount of the mobile robot. Correlation calculation is performed on the movement amount and the distance measurement data by the correlation calculation means to identify the position of the mobile robot.

【0011】さらに、請求項3記載の発明では、測距デ
ータをスキャンニング手段によって移動時間毎に複数回
採取し、それぞれを記憶手段に記憶させて、平均化処理
手段によって任意の累積回数で平均化して測距データを
求める。一方、移動量検出手段によって移動ロボットの
移動量を検出する。この移動量と測距データについて相
関演算手段によって相関演算を行い移動ロボットの自己
位置同定を行う。
Further, in the invention of claim 3, the distance measuring data is sampled a plurality of times at each moving time by the scanning means, stored in the memory means, and averaged by the averaging processing means at any cumulative number of times. Convert to obtain distance measurement data. On the other hand, the moving amount detecting means detects the moving amount of the mobile robot. Correlation calculation is performed on the movement amount and the distance measurement data by the correlation calculation means to identify the position of the mobile robot.

【0012】[0012]

【実施例】以下に本発明に係る移動ロボットの第1の実
施例を図1乃至図3に基づき説明する。図1は本発明に
係る移動ロボットの第1の実施例における移動ロボット
の外形図を示しており、移動ロボット1は移動量検出用
の回転角度センサ15を有する車輪50で駆動する移動
台車7に、点検用センサ9を設けた雲台8,点検用セン
サ信号処理装置21を備えている。また、無線伝送装置
10,通信制御装置20,ロボット用の前述の視覚情報
に代わる外界センサであるスキャン式レーザ距離計1
2,超音波センサ13a,13b,ジャイロ14,ロボ
ットコントローラ19を搭載している。この移動ロボッ
ト1は、操作室2にある操作盤3からの指令に基づい
て、プラント内に設置された点検対象物まで移動し、点
検用センサ9を用いて点検を行うものである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment of a mobile robot according to the present invention will be described below with reference to FIGS. FIG. 1 shows an outline view of a mobile robot in a first embodiment of the mobile robot according to the present invention. The mobile robot 1 is mounted on a mobile carriage 7 driven by wheels 50 having a rotation angle sensor 15 for detecting a movement amount. , A camera platform 8 provided with an inspection sensor 9, and an inspection sensor signal processing device 21. Further, the wireless transmission device 10, the communication control device 20, the scan type laser rangefinder 1 which is an external sensor for the robot in place of the above visual information.
2, ultrasonic sensors 13a and 13b, a gyro 14, and a robot controller 19 are mounted. The mobile robot 1 moves to an inspection object installed in the plant based on a command from the operation panel 3 in the operation room 2 and performs inspection using the inspection sensor 9.

【0013】本実施例で用いた雲台8は、下部にはスキ
ャン式レーザ距離計12を搭載し、ロボットコントロー
ラ19の姿勢制御指令に基づいて旋回駆動、ふ仰駆動を
行うものである。無線伝送装置10は通信制御装置20
からの要求および制御で、地上局とロボット制御に必要
となる制御信号、状態信号の送受と、点検用センサ9の
送信を無線で行うものである。ジャイロ14は、ロボッ
トの旋回角度と傾き角度と検出するものである。
The platform 8 used in this embodiment has a scan type laser range finder 12 mounted on the lower part thereof, and performs a turning drive and an elevation drive based on a posture control command from a robot controller 19. The wireless transmission device 10 is the communication control device 20.
In response to the request and control from the control station, the control signals and status signals necessary for controlling the ground station and the robot and the inspection sensor 9 are wirelessly transmitted. The gyro 14 detects the turning angle and the tilt angle of the robot.

【0014】スキャン式レーザ距離計12はレーザ光を
発光してから被測定物から反射してくるまでの時間を計
測することで、被測定物までの距離を求めるものであ
る。スキャンニングは水平方向に270度で1秒間に1
0回程度行うものである。
The scan type laser range finder 12 obtains the distance to the object to be measured by measuring the time from the emission of the laser beam to the reflection from the object to be measured. Scanning is 270 degrees horizontally and 1 per second
It is performed about 0 times.

【0015】超音波センサ13a,13bは超音波を発
信するトランスデゥーサ13bと被測定物から反射して
くる超音波を受信するレシーバ13aとが独立に設けら
れたもので、発信から受信までの時間を計測することで
被測定物までの距離を求める。
The ultrasonic sensors 13a and 13b are respectively provided with a transducer 13b for transmitting ultrasonic waves and a receiver 13a for receiving ultrasonic waves reflected from the object to be measured. The distance to the object to be measured is obtained by measuring.

【0016】図2(a)は移動ロボット1の操作室2内
の模式図であり、図2(b)は移動ロボット1の模式図
を示している。図2(a)において、操作室2は操作盤
3の他に診断装置6、ロボット統括制御装置5及び通信
制御装置4を備えている。
FIG. 2A is a schematic diagram of the inside of the operation room 2 of the mobile robot 1, and FIG. 2B is a schematic diagram of the mobile robot 1. In FIG. 2A, the operation room 2 is provided with a diagnosis device 6, a robot integrated control device 5, and a communication control device 4 in addition to the operation panel 3.

【0017】また、通信制御装置4からの通信制御信号
を無線で移動ロボット1に伝送あるいは受信するための
追尾装置付き無線伝送装置11が設けられている。操作
盤3は移動台車7や点検用センサ9の遠隔操作を行う操
作器17、点検結果や移動ロボット1の状態を表示する
状態表示モニタ16、これらを制御するマンマシンイン
ターフェイス用制御装置18から構成されている。
A wireless transmission device 11 with a tracking device for wirelessly transmitting or receiving a communication control signal from the communication control device 4 to the mobile robot 1 is provided. The operation panel 3 is composed of an operating device 17 for remotely operating the moving carriage 7 and the inspection sensor 9, a status display monitor 16 for displaying the inspection result and the status of the mobile robot 1, and a man-machine interface controller 18 for controlling these. Has been done.

【0018】オペレータは操作器17を用いて目的位置
と方向に関する移動要求を入力する。ロボット統括制御
装置5はオペレータからの移動要求を受けて、プラント
CAD(コンピュータ支援による設計)データを用いて
現在位置から目的地までの経路生成を行う機能を有し、
さらに操作盤3と移動ロボット1間の通信管理を行う。
このプラントCADデータは、機器の配置設計を行うた
めのものであり、データの内容としてはポンプ、弁、熱
交換器等の機器の配置、配管の設置位置等を示す座標
が、機器、配管等の占める容積全体の部分で3次元的に
与えられる。
The operator inputs a movement request regarding the target position and direction using the operation device 17. The robot integrated control device 5 has a function of receiving a movement request from an operator and generating a route from a current position to a destination using plant CAD (computer-aided design) data,
Further, it manages communication between the operation panel 3 and the mobile robot 1.
This plant CAD data is for designing the layout of equipment, and the content of the data is such that the layout of equipment such as pumps, valves, heat exchangers, and the coordinates indicating the installation position of piping are Is given three-dimensionally in the entire volume occupied by.

【0019】通信制御装置4は移動ロボット1の走行コ
ントローラ24,雲台コントローラ25,点検用センサ
信号処理装置21からの状態信号および点検用センサ9
からのセンサ信号を入力し、ロボット統括制御装置5,
診断装置6へ送信する機能を有する。また、逆にロボッ
ト統括制御装置5,診断装置6からの要求信号を入力
し、移動ロボット1の走行コントローラ24,雲台コン
トローラ25,点検用センサ信号処理装置21へ送信す
る機能および追尾装置付き無線伝送装置11の制御を行
う機能も有している。
The communication control device 4 is a state signal from the traveling controller 24 of the mobile robot 1, the platform controller 25, the inspection sensor signal processing device 21, and the inspection sensor 9.
Input the sensor signal from the robot integrated control device 5,
It has a function of transmitting to the diagnostic device 6. On the contrary, a function for inputting request signals from the robot integrated control device 5 and the diagnostic device 6 and transmitting them to the traveling controller 24, the platform controller 25, and the inspection sensor signal processing device 21 of the mobile robot 1 and a wireless device with a tracking device. It also has a function of controlling the transmission device 11.

【0020】診断装置6は、点検箇所において検出され
るセンサ信号を入力し、内蔵されたデータベースに追記
するとともに、予め記憶された正常時でのセンサ信号と
の比較、時間的な変動状態の検出を行い、基準値に対し
て大きいか否かを判定し、大きい場合には異常が発生し
た可能性があると診て、詳細な点検方法(新たな点検箇
所と点検手段)を立案し、ロボット統括制御装置5に点
検要求を出力する。また、詳細な点検結果が得られる
と、異常の判定と異常箇所および異常原因の推定を行
う。これらの処理結果は、逐次状態表示モニタ16を介
してオペレータに伝えるものである。
The diagnostic device 6 inputs the sensor signal detected at the inspection point, adds it to the built-in database, compares it with the sensor signal stored in advance at the normal time, and detects the temporal fluctuation state. If it is larger than the reference value, it is judged that an abnormality may have occurred, and a detailed inspection method (new inspection location and inspection means) is planned, and the robot is An inspection request is output to the integrated control device 5. Further, when the detailed inspection result is obtained, the abnormality is judged and the abnormal place and the cause of the abnormality are estimated. These processing results are transmitted to the operator via the sequential status display monitor 16.

【0021】追尾装置付き無線伝送装置11は、大容量
で高速性が要求されるテレビカメラの映像信号などのセ
ンサ信号を正確に伝送する指向性を持った無線信号を伝
送させるため追尾装置を備えた無線伝送装置としてい
る。また、移動ロボット1に設けられた無線伝送装置1
0は追尾装置を備えると大型化するため、複数の発信
器、受信機で構成されている。
The wireless transmission device 11 with a tracking device is provided with a tracking device for transmitting a wireless signal having directivity for accurately transmitting a sensor signal such as a video signal of a television camera which has a large capacity and requires high speed. Wireless transmission device. In addition, the wireless transmission device 1 provided in the mobile robot 1
0 has a large size when equipped with a tracking device, and is therefore composed of a plurality of transmitters and receivers.

【0022】図2(b)において、移動ロボット1は、
点検用センサ9としてテレビカメラ27、マイクロフォ
ン28、レーザ振動計29、赤外線カメラ30、臭いセ
ンサ31を備えている。これらの点検用センサ9は上述
のとおり、操作器17を用いて雲台8を遠隔操作するこ
とによって、任意の点検する向きへ向けることが可能と
なっている。
In FIG. 2B, the mobile robot 1 is
The inspection sensor 9 includes a television camera 27, a microphone 28, a laser vibrometer 29, an infrared camera 30, and an odor sensor 31. As described above, these inspection sensors 9 can be oriented in any inspection direction by remotely operating the platform 8 using the operation device 17.

【0023】操作室2と移動ロボット1との制御信号、
点検用センサ9の信号伝送はワイヤレス化を図るため、
ケーブル類を有さず、従って電源ケーブルも備えていな
いため、移動ロボット1にはバッテリ26が搭載されて
いる。
Control signals for the operating room 2 and the mobile robot 1,
In order to make the signal transmission of the inspection sensor 9 wireless,
Since the mobile robot 1 does not have cables and therefore does not have a power cable, the mobile robot 1 is equipped with a battery 26.

【0024】ロボットコントローラ19は、図2(b)
に示すようにロボット用センサ信号処理回路22、位置
同定コントローラ23、走行コントローラ24、雲台コ
ントローラ25から構成されている。
The robot controller 19 is shown in FIG.
As shown in FIG. 3, the robot sensor signal processing circuit 22, the position identification controller 23, the traveling controller 24, and the platform controller 25 are included.

【0025】ロボット用センサ信号処理回路22は、ス
キャン式レーザ距離計12,超音波センサ13,ジャイ
ロ14および回転角度センサ15からの検出信号を同時
に入力し、デジタル信号に変換する入力回路(図示せ
ず)と、入力したデータを記憶するバッファメモリ(図
示せず)と、位置同定コントローラ23の指令に基づい
て出力する出力回路(図示せず)から構成される。
The robot sensor signal processing circuit 22 inputs the detection signals from the scanning laser range finder 12, the ultrasonic sensor 13, the gyro 14, and the rotation angle sensor 15 at the same time, and converts them into digital signals (not shown). No.), a buffer memory (not shown) for storing input data, and an output circuit (not shown) for outputting based on a command from the position identification controller 23.

【0026】位置同定コントローラ23の構成について
は図3に示す。ジャイロ14と移動量検出用の回転角度
センサ15のデータはロボット用センサ信号処理回路2
2を介して、ロボットの概略位置を検出するための概略
位置検出回路34に入力される。この回路で得られた概
略位置はセンサシミュレーション回路37に入力され、
センサシミュレーション回路37内に格納されたプラン
トCADデータを用いてセンサシミュレーションされ
て、そのプラントCADデータ上の位置データとして画
像メモリ36aに記憶される。
The structure of the position identification controller 23 is shown in FIG. The data of the gyro 14 and the rotation angle sensor 15 for detecting the amount of movement are the sensor signal processing circuit 2 for robot.
2 is input to the rough position detection circuit 34 for detecting the rough position of the robot. The approximate position obtained by this circuit is input to the sensor simulation circuit 37,
Sensor simulation is performed using the plant CAD data stored in the sensor simulation circuit 37, and the result is stored in the image memory 36a as position data on the plant CAD data.

【0027】ここで、センサシミュレーションとは、移
動ロボット1が点検走行する建屋内部の位置データから
構成されるプラントCADデータを用いて、移動ロボッ
ト1の移動に基づくジャイロ14および回転角度センサ
15の変化量を追跡し、プラントCADデータ上での現
在位置を求める操作をいう。
Here, the sensor simulation is a change of the gyro 14 and the rotation angle sensor 15 based on the movement of the mobile robot 1, using the plant CAD data composed of the position data of the inside of the building where the mobile robot 1 inspects and travels. It is the operation of tracking the quantity and obtaining the current position on the plant CAD data.

【0028】一方、スキャン式レーザ距離計12,超音
波センサ13a,13bによって測定される距離データ
は、実測された距離を示している。この距離データは座
標変換回路35を用いてセンサ座標系からロボット座標
系に座標変換される。ここで、センサ座標系とは、スキ
ャン式レーザ距離計12あるいは超音波センサ13a,
13bを中心とした相対的な極座標系をいい、ロボット
座標系とは移動ロボット1を中心とした相対的な直交座
標系をいう。このロボット座標系に変換されたデータは
画像メモリ36b,36cに記憶される。
On the other hand, the distance data measured by the scanning laser range finder 12 and the ultrasonic sensors 13a and 13b indicate the actually measured distances. This distance data is coordinate-converted from the sensor coordinate system to the robot coordinate system using the coordinate conversion circuit 35. Here, the sensor coordinate system means the scanning laser range finder 12 or the ultrasonic sensor 13a,
13b means a relative polar coordinate system centered on 13b, and the robot coordinate system means a relative orthogonal coordinate system centered on the mobile robot 1. The data converted into the robot coordinate system is stored in the image memories 36b and 36c.

【0029】さらに、上記センサシミュレーション結果
のデータと実測したセンサデータの分布の対応づけを画
素相関回路38を用いて行い、差分を求める。また、位
置同定回路39でその差分を上記概略位置検出回路34
で得られた概略位置に加えることによってロボットの自
己位置を決定する。
Further, the distribution of the sensor simulation result data and the distribution of the actually measured sensor data are associated with each other using the pixel correlation circuit 38 to obtain the difference. In addition, the position identification circuit 39 calculates the difference using the above-mentioned rough position detection circuit 34.
The self-position of the robot is determined by adding it to the approximate position obtained in.

【0030】また、センサシミュレーション回路37で
は、プラントCADデータに属性データとして、スキャ
ン式レーザ距離計12、超音波センサ13の距離に対す
る反射係数、反射可能角度データおよび検出可能レベル
を持たせている。これらの属性データは、概略位置検出
回路34で得たロボットの位置において、スキャン式レ
ーザ距離計12、超音波センサ13a,13bを用いて
距離を実測する場合に、その実測された距離に与える影
響を示すものである。
Further, in the sensor simulation circuit 37, the plant CAD data is provided with the reflection coefficient with respect to the distance of the scanning laser range finder 12 and the ultrasonic sensor 13, the relatable angle data and the detectable level as attribute data. When the distance is actually measured using the scanning laser range finder 12 and the ultrasonic sensors 13a and 13b at the position of the robot obtained by the rough position detection circuit 34, these attribute data have an influence on the measured distance. Is shown.

【0031】例えば、反射係数とはレーザ光を直交する
対象物へ投光し、反射してくるレーザ光の量の割合をい
う。また、反射可能角度とは、この対象物とレーザ光と
の投光角度が鋭くなると反射してくるレーザ光の量が減
少し、ある角度を越えると反射が全くなくなるが、この
角度のことをいう。検出可能レベルとは、距離検出は、
あるスレッショルドレベル(しきいレベル)を越した反
射量になると処理をおこなうが、このスレッショルドレ
ベルを検出可能レベルという。
For example, the reflection coefficient means the ratio of the amount of laser light reflected by projecting laser light onto an orthogonal object. In addition, the reflectable angle means that when the projection angle of the object and the laser beam becomes sharp, the amount of the reflected laser beam decreases, and when the angle exceeds a certain angle, the reflection is completely lost. Say. What is the detectable level?
Processing is performed when the amount of reflection exceeds a certain threshold level (threshold level), and this threshold level is called a detectable level.

【0032】これらの属性データは、プラント建屋内に
おける被測定物の構造、材質などによって変化するもの
であり、従ってプラントCADデータ上の各々の位置に
対応して格納されるものである。
These attribute data change depending on the structure, material, etc. of the object to be measured in the plant building, and are therefore stored corresponding to each position on the plant CAD data.

【0033】画素相関回路38におけるセンサシミュレ
ーション結果とセンサデータの分布の対応づけでは、画
像メモリ36b,36cからのセンサデータをまず、こ
の属性データで判断した上で、差分を求める。
In associating the sensor simulation result in the pixel correlation circuit 38 with the distribution of the sensor data, the sensor data from the image memories 36b and 36c is first judged by this attribute data, and then the difference is obtained.

【0034】一方、正確なプラントCADデータが用意
されていない箇所で用いるには、予め移動する箇所でス
キャン式レーザ距離計12と超音波センサ13を用いて
形状データと属性データ(反射係数と反射可能角度)を
持つプラントCADデータを作成してもよい。
On the other hand, in order to use it in a place where accurate plant CAD data is not prepared, the shape data and the attribute data (reflection coefficient and reflection) are used by using the scan type laser range finder 12 and the ultrasonic sensor 13 in a previously moved place. Plant CAD data having a possible angle may be created.

【0035】図2に戻って、走行コントローラ24は、
目標位置までの軌道データと上記自己位置同定結果か
ら、走行モードと移動ロボット1の車輪50に対するス
テアリング角度、走行速度を算出する演算回路(図示せ
ず)と、算出した結果を走行用ドライバ33への出力と
制御状態や自己位置情報を通信制御装置20へ出力する
出力回路(図示せず)からなる。ここで、走行モードに
は、移動ロボット1の直進・後進や、その場旋回、平行
移動などがある。
Returning to FIG. 2, the traveling controller 24 is
From the trajectory data up to the target position and the self-position identification result, an arithmetic circuit (not shown) for calculating the traveling mode, the steering angle with respect to the wheels 50 of the mobile robot 1, and the traveling speed, and the calculated result to the traveling driver 33. Output and a control state and self-position information to the communication control device 20 (not shown). Here, the traveling modes include straight / backward movement of the mobile robot 1, turning on the spot, and parallel movement.

【0036】モータ32は、車輪50の旋回駆動および
ステアリング軸の旋回駆動の動力供給源である。また、
走行用ドライバ33はこのモータ32を駆動制御するも
ので、走行コントローラ24から送信される速度指令デ
ータ,旋回角度指令データ,起動・停止指令データを入
力し、モータ32の回転速度および旋回角度が指定どお
りになるような駆動電流をモータ32に供給するもので
ある。
The motor 32 is a power supply source for the turning drive of the wheels 50 and the turning drive of the steering shaft. Also,
The driving driver 33 drives and controls the motor 32, and inputs speed command data, turning angle command data, start / stop command data transmitted from the driving controller 24, and specifies the rotation speed and the turning angle of the motor 32. The drive current is supplied to the motor 32 so as to be as described above.

【0037】雲台コントローラ25は、移動ロボットの
上記自己位置同定結果とプラントCADデータから、点
検対象物への点検用センサの向きを算出する演算回路
(図示せず)と、算出した向きデータか、もしくは、操
作盤3の操作器17からの指令に基づいて、駆動指令を
雲台8に設けられた雲台ドライバへ出力する出力回路
(図示せず)から成る。
The platform controller 25 uses an arithmetic circuit (not shown) for calculating the orientation of the inspection sensor toward the inspection object from the self-position identification result of the mobile robot and the plant CAD data. Alternatively, it comprises an output circuit (not shown) that outputs a drive command to a camera platform driver provided on the camera platform 8 based on a command from the operation device 17 of the operation panel 3.

【0038】次に、本実施例の作用について説明する。
移動ロボット1は図4に示す手順で点検箇所まで移動
し、所定の点検を行う。この点検の手順について以下に
説明する。
Next, the operation of this embodiment will be described.
The mobile robot 1 moves to the inspection location according to the procedure shown in FIG. 4 and performs a predetermined inspection. The procedure of this inspection will be described below.

【0039】移動ロボット1を点検箇所まで移動させ、
所定の点検を行わせるには、まず、移動ロボット1に対
して目標位置、作業要求を入力する処理、すなわち点検
ルートの決定(S1)が必要である。この処理は操作盤
3の操作器17を用いてオペレータが入力する。入力さ
れた目標位置、作業要求はマンマシンインターフェイス
用制御装置18を介してロボット統括制御装置5に入力
される。ロボット統括制御装置5は、入力された目標位
置、作業要求データからプラント機器配置用のプラント
CADデータを用いて、目標位置までの経路および点検
する時の雲台8の姿勢を求める。また、この処理はオペ
レータが操作器17から直接、目標位置までの経路およ
び点検するときの雲台8の姿勢を指示することとしても
よい。
Move the mobile robot 1 to the inspection location,
In order to perform a predetermined inspection, first, it is necessary to input a target position and a work request to the mobile robot 1, that is, to determine an inspection route (S1). This processing is input by the operator using the operation device 17 of the operation panel 3. The input target position and work request are input to the robot integrated control device 5 via the man-machine interface control device 18. The robot integrated control device 5 obtains the route to the target position and the posture of the platform 8 at the time of inspection using the input target position and the work CAD data for plant equipment arrangement from the work request data. Further, in this processing, the operator may directly instruct the route to the target position and the posture of the platform 8 at the time of inspection from the operation device 17.

【0040】目標位置までの経路および点検するときの
雲台8の姿勢が得られたら、目標位置までの経路生成結
果を通信制御装置4,追尾装置付き無線伝送装置11,
無線伝送装置10,通信制御装置20を介して移動ロボ
ット1上の走行コントローラ24へ送信する。上記走行
コントローラ24は、目標位置までの経路生成結果を受
信すると移動ロボット1を駆動させて、経路に沿うよう
に走行制御(移動速度制御およびステアリング角度制
御)を行って、目標位置まで移動させる処理を行う。
When the route to the target position and the posture of the platform 8 at the time of inspection are obtained, the route generation result to the target position is obtained by the communication control device 4, the wireless transmission device 11 with the tracking device,
It is transmitted to the traveling controller 24 on the mobile robot 1 via the wireless transmission device 10 and the communication control device 20. When the traveling controller 24 receives the route generation result to the target position, the traveling controller 24 drives the mobile robot 1 to perform traveling control (moving speed control and steering angle control) along the route to move to the target position. I do.

【0041】この処理は、移動ロボット1上に搭載した
走行コントローラ24,走行用ドライバ33,回転角度
センサ15,モータ32,スキャン式レーザ距離計12
を用いて目標位置まで図4に示されるA(S2〜S5)
の処理ルーチンを繰り返して行う。
This processing is performed by the traveling controller 24 mounted on the mobile robot 1, the traveling driver 33, the rotation angle sensor 15, the motor 32, and the scanning laser range finder 12.
To the target position using A (S2 to S5) shown in FIG.
This processing routine is repeated.

【0042】以下に、Aの処理ルーチンの各々について
説明する。自己位置同定処理(S2)は、前述のとお
り、位置同定コントローラ23を用いて行われる。
Each of the processing routines A will be described below. The self-position identification process (S2) is performed using the position identification controller 23 as described above.

【0043】目標軌道とのずれ算出(S3)は、走行コ
ントローラ24で行う。走行コントローラ24は地上局
にあるロボット統括制御装置5で算出した目標軌道デー
タを通信制御装置4,追尾装置付き無線伝送装置11を
介して入力するとともに、前記位置同定コントローラ2
3で算出する現在の移動ロボット1の位置および向きデ
ータとからずれを算出する。
The travel controller 24 calculates the deviation from the target trajectory (S3). The travel controller 24 inputs the target trajectory data calculated by the robot integrated control device 5 at the ground station via the communication control device 4 and the wireless transmission device 11 with a tracking device, and at the same time, the position identification controller 2
The deviation is calculated from the current position and orientation data of the mobile robot 1 calculated in 3.

【0044】走行コントローラ24はずれの算出を行う
と次に走行モードを決定、各車輪50のステアリング角
度および走行速度算出処理(S4)を行う。地上局にあ
るロボット統括制御装置5から新たな指令や大幅なずれ
が発生しない限り現状の走行モードを維持する。ロボッ
ト統括制御装置5から新たな指令があると、その指令に
基づいた走行モードに切り替える。また、大幅なずれが
発生し、現状の走行モードでは対応できない、あるいは
ずれが増加していくような場合には、例えば一度移動ロ
ボット1を停止させて、その場旋回、平行移動などのモ
ードで目標軌道に戻し、再び元の走行モードに切り替え
て走行を再開させるなどの操作も可能である。
After the travel controller 24 calculates the deviation, it determines the travel mode, and executes the steering angle and travel speed calculation processing of each wheel 50 (S4). The current traveling mode is maintained unless a new command or a large deviation is generated from the robot integrated control device 5 in the ground station. When there is a new command from the robot integrated control device 5, the mode is switched to the traveling mode based on the command. In addition, when a large deviation occurs and the current traveling mode cannot cope with the deviation or the deviation increases, for example, the mobile robot 1 is once stopped and then the turning or parallel movement is performed. It is also possible to return to the target track, switch to the original traveling mode again, and resume traveling.

【0045】走行モードが決定すると、各車輪50のス
テアリング角度および走行速度を決定する。ずれがない
場合は、ずれ量と速度からどの地点で目標軌道に一致さ
せるか経路を決め、一致させる地点までの各車輪50の
ステアリング角度および走行速度を算出し、そのデータ
を走行用ドライバ33に出力する。
When the traveling mode is determined, the steering angle and traveling speed of each wheel 50 are determined. When there is no deviation, a route is determined from the deviation amount and speed at which point the target trajectory is matched, the steering angle and running speed of each wheel 50 up to the matched point are calculated, and the data is sent to the running driver 33. Output.

【0046】ステアリング駆動制御、速度制御処理(S
5)は、各車輪50にそれぞれ備えている走行用ドライ
バ33で行う。走行用ドライバ33は走行コントローラ
24から送られてくる各車輪50のステアリング角度お
よび走行速度データを入力し、各車輪50のモータ32
がそのデータになるようサーボ制御する。
Steering drive control, speed control processing (S
5) is performed by the traveling driver 33 provided on each wheel 50. The traveling driver 33 inputs the steering angle and traveling speed data of each wheel 50 sent from the traveling controller 24, and the motor 32 of each wheel 50 is input.
The servo is controlled so that becomes the data.

【0047】以上の処理ルーチンAを繰り返し行うこと
で移動ロボット1を目標軌道に沿って移動させ、目標位
置に到達させる。この処理の状態は、常に走行コントロ
ーラ24で送信用データに変換し、通信制御装置20,
無線伝送装置10,通信制御装置4を介してロボット統
括制御装置5へ送信される。ロボット統括制御装置5
は、移動ロボット1の処理状態データを受信し、移動ロ
ボット1の制御状態を記録するとともに、オペレータに
わかりやすい表示データに変換してマンマシンインター
フェイス用制御装置18を介して状態表示モニタ16に
表示する。
By repeating the above processing routine A, the mobile robot 1 is moved along the target trajectory to reach the target position. The state of this processing is always converted into transmission data by the traveling controller 24, and the communication control device 20,
It is transmitted to the robot integrated control device 5 via the wireless transmission device 10 and the communication control device 4. Robot integrated control device 5
Receives the processing state data of the mobile robot 1, records the control state of the mobile robot 1, converts it into display data that is easy for the operator to display on the state display monitor 16 via the man-machine interface control device 18. .

【0048】移動ロボット1が目標位置に到達すると、
ロボット統括制御装置5は雲台8の姿勢を算出する(S
6)。雲台コントローラ25は、この算出結果を受信
し、雲台8を制御する(S7)。
When the mobile robot 1 reaches the target position,
The robot integrated control device 5 calculates the attitude of the platform 8 (S
6). The camera platform controller 25 receives the calculation result and controls the camera platform 8 (S7).

【0049】ロボット統括制御装置5は雲台8の制御が
終了したことを、状態データによって受信すると、点検
制御を行う。点検制御は、点検用センサ信号処理装置2
1を介して行う。点検用センサ9で検出したデータは無
線伝送装置10を介して操作室2側に伝送され、診断装
置6へ入力される。診断装置6はセンサデータから機器
の異常を診断し、異常がないことをロボット統括制御装
置5へ伝える。異常の疑いがあると判断すると、詳細な
点検計画を生成し、その結果をロボット統括制御装置5
に伝送する。ロボット統括制御装置5は診断装置6から
の診断処理結果に基づいて、次の点検箇所への移動計画
を作成する(S8)。
When the robot integrated control device 5 receives the fact that the control of the camera platform 8 is completed from the state data, it performs inspection control. Inspection control is performed by the inspection sensor signal processing device 2
Through 1. The data detected by the inspection sensor 9 is transmitted to the operation room 2 side via the wireless transmission device 10 and input to the diagnostic device 6. The diagnostic device 6 diagnoses an abnormality of the device from the sensor data and informs the robot integrated control device 5 that there is no abnormality. When it is determined that there is a suspicion of an abnormality, a detailed inspection plan is generated, and the result is set to the robot integrated control device 5
To transmit. The robot integrated control device 5 creates a movement plan to the next inspection location based on the diagnosis processing result from the diagnosis device 6 (S8).

【0050】移動ロボット1が複雑環境下でスムーズな
移動を可能にするには、図4の自己位置同定処理(S
2)からステアリング駆動制御、速度制御(S5)まで
の処理を高速にかつ確実に実行できるものでなければな
らない。本実施例は、従来のテレビカメラ等のポジティ
ブな外界センサを用いた方式のように自己位置同定処理
する時に停止することなく、高速にかつ確実に実行でき
る。
In order to enable the mobile robot 1 to move smoothly in a complicated environment, the self-position identification process (S
The processes from 2) to steering drive control and speed control (S5) must be able to be executed at high speed and reliably. The present embodiment can be executed at high speed and reliably without stopping during the self-position identification processing as in the method using a positive external sensor such as a conventional TV camera.

【0051】次に、高速にかつ確実に実行する自己位置
同定処理方法を詳しく述べる。本実施例では、前述のと
おり、ジャイロ14および回転角度センサ15の変化量
をプラントCADデータで追跡して得られるセンサシミ
ュレーション結果(測距データ)と実測した距離とのず
れを求めることで自己位置同定を行う。
Next, the self-position identification processing method that is executed at high speed and reliably will be described in detail. In the present embodiment, as described above, the self-position is obtained by obtaining the deviation between the sensor simulation result (distance measurement data) obtained by tracking the variation of the gyro 14 and the rotation angle sensor 15 with the plant CAD data and the actually measured distance. Identify.

【0052】複雑背景下では、レーザ距離計で検出でき
ない箇所が多々存在する。例えば、被測定面が黒い面や
表面状態が鏡面に近いもの、スキャン式レーザ距離計1
2,超音波センサ13a,13bと被測定面との交差す
る角度が平行に近い場合等がある。このため、本実施例
ではスキャン式レーザ距離計と超音波センサを併用す
る。
Under a complicated background, there are many places that cannot be detected by the laser rangefinder. For example, the surface to be measured is a black surface or the surface condition is close to a mirror surface, the scanning laser rangefinder 1
2. In some cases, the angles at which the ultrasonic sensors 13a and 13b and the surface to be measured intersect are nearly parallel. Therefore, in this embodiment, the scanning laser range finder and the ultrasonic sensor are used together.

【0053】また、スキャンニング範囲の広いスキャン
式レーザ距離計12を採用する。超音波センサ13をロ
ボット周囲に複数個取り付ける。図5(a),(b)に
スキャン式レーザ距離計12および超音波センサ13
a,13bの配置例と計測範囲を示す。
Further, the scanning type laser range finder 12 having a wide scanning range is adopted. A plurality of ultrasonic sensors 13 are attached around the robot. 5A and 5B, the scanning laser range finder 12 and the ultrasonic sensor 13 are shown.
The arrangement example of a and 13b and the measurement range are shown.

【0054】スキャン式レーザ距離計12の計測範囲
は、図中Bで示されるように±135°,0.5m〜5
0mである。計測範囲は、広いほうが多くの距離データ
が得られ、対応付けが多くできるので信頼性を高めるこ
とができる。一定の高さでは、均一な壁が存在するな
ど、対象物が変化しないために対応付けが困難となるた
め、任意に上下移動や傾斜移動の可能な機構を有してい
る。
The measuring range of the scanning laser range finder 12 is ± 135 °, 0.5 m to 5 as shown by B in the figure.
It is 0m. The wider the measurement range, the more distance data can be obtained, and the more correspondence can be made, the higher the reliability can be. At a certain height, the object does not change, such as the presence of a uniform wall, which makes it difficult to associate the objects. Therefore, it has a mechanism that allows arbitrary vertical movement and tilt movement.

【0055】一方、超音波センサ13a,13bの計測
範囲は図中Cで示されるように、±15゜,0.1m〜
10mである。取付数は多いほうが、対応付けが多くで
きるが、互いの干渉(別のセンサから超音波が入力され
誤検出すること)や、制御の複雑化、高価格化などの制
限もあるので、それらを考慮して適当な配置とする。
On the other hand, the measurement range of the ultrasonic sensors 13a and 13b is ± 15 °, 0.1 m-, as shown by C in the figure.
It is 10 m. The larger the number of attachments, the more correspondence can be made, but there are restrictions such as mutual interference (ultrasonic waves are input from another sensor and erroneous detection), control complexity, and cost increase. Considering this, the layout is appropriate.

【0056】配置によっては、外界センサであるスキャ
ン式レーザ距離計12と超音波センサ13a,13bに
よっても距離計測できない箇所が存在する場合が考えら
れるが、この場合には図6に示される処理手順によっ
て、内界センサであるジャイロ14および回転角度セン
サ15から得られる概略位置をそのまま位置情報として
採用する。
Depending on the arrangement, there may be a location where the distance cannot be measured even by the scanning laser rangefinder 12 and the ultrasonic sensors 13a and 13b which are external sensors. In this case, the processing procedure shown in FIG. 6 is performed. Accordingly, the approximate position obtained from the gyro 14 and the rotation angle sensor 15, which are inner sensors, is directly used as the position information.

【0057】スキャン式レーザ距離計と超音波センサの
ための属性データは前述のとおり、プラントに機器配置
を表示するプラントCADデータに格納されている。実
際のセンサで実測できるか否かは、この属性データを用
いた上で判断する。この属性データによる判断は、スキ
ャン式レーザ距離計12のビーム幅と測定範囲を決め
て、予め被測定面を抽出しておくことが可能なため、デ
ータ数が削減でき、高速な処理が実現できる。
As described above, the attribute data for the scanning laser range finder and the ultrasonic sensor are stored in the plant CAD data for displaying the equipment layout on the plant. Whether or not it can be actually measured by an actual sensor is determined by using this attribute data. In the determination based on this attribute data, it is possible to determine the beam width and measurement range of the scanning laser rangefinder 12 and extract the surface to be measured in advance, so that the number of data can be reduced and high-speed processing can be realized. .

【0058】ロボット移動時にセンサシミュレーション
する場合、ロボットがプラントCAD上のどの位置にい
るかは、ロボットの向きとふ仰角度を検出するジャイロ
14のデータとロボットの移動量を検出する回転角度セ
ンサ15のデータから算出する概略位置を用いる。
When performing a sensor simulation during robot movement, the position of the robot on the plant CAD is determined by the data of the gyro 14 for detecting the orientation and elevation angle of the robot and the rotation angle sensor 15 for detecting the movement amount of the robot. The rough position calculated from the data is used.

【0059】ジャイロセンサで検出するふ仰角度は、移
動ロボットが段差のある通路の移動時などの通常水平に
スキャンニングが変動した場合の補正用として用いる。
本実施例での補正方法は、被測定物が垂直に立っている
と仮定して、測定距離データをふ仰角で余弦演算し、水
平面の距離に変換する。時間が多少かかるが、ふ仰角を
考慮したセンサシミュレーションを行う方法もある。シ
ミュレーションで求めた測距データは移動ロボット1を
中心を原点とする直交座標に変換し、画像メモリ36a
へ記録する。
The elevation angle detected by the gyro sensor is used for correction when the scanning is normally horizontal when the mobile robot is moving in a passage having steps.
In the correction method of the present embodiment, it is assumed that the object to be measured is standing vertically, and the measured distance data is cosine-calculated at the elevation angle and converted into a horizontal distance. Although it takes some time, there is also a method of performing a sensor simulation considering the elevation angle. The distance measurement data obtained by the simulation is converted into Cartesian coordinates with the center of the mobile robot 1 as the origin, and image data 36a
Record to.

【0060】実測で得るスキャン式レーザ距離計12と
超音波センサ13の測距データは、上記センサシミュレ
ーションの座標系と合わせた座標変換及び画像メモリ3
6b,36cへ記憶される。
The distance measurement data of the scan type laser range finder 12 and the ultrasonic sensor 13 obtained by actual measurement are coordinate conversion and the image memory 3 combined with the coordinate system of the sensor simulation.
It is stored in 6b and 36c.

【0061】メモリ上に記憶されたセンサシミュレーシ
ョンと実測の分布データは、同スケール(パターンの大
きさが同じ)で、相互の位置がずれたものである。両者
の対応付けは、画像メモリ画像メモリ36a,36b,
36c間の画素相関演算を行うことで容易に求まる。こ
の処理は特殊なハードウェアを用いることなくソフトウ
ェアによる相関演算で、数ミリ秒で実行できる。
The sensor simulation and the actually measured distribution data stored in the memory have the same scale (the size of the pattern is the same) and their positions are deviated from each other. The correspondence between the two is based on image memory image memories 36a, 36b,
It can be easily obtained by performing pixel correlation calculation between 36c. This processing is a correlation calculation by software without using special hardware, and can be executed in a few milliseconds.

【0062】本実施例の移動ロボットによれば、複数の
センサで広範囲に測定し、移動量と測距データの対応つ
けを行うため、複雑背景下においても確実に自己位置同
定処理が可能である。万一、スキャン式レーザ距離計1
2、超音波センサ13a,13bという外界センサで計
測不可能な箇所が存在しても、内界センサであるジャイ
ロ14、回転角度センサ15で自己位置同定を行う構成
としており、移動ロボットの信頼性が高い。
According to the mobile robot of the present embodiment, a plurality of sensors measure a wide range and the movement amount and the distance measurement data are associated with each other, so that the self-position identification processing can be reliably performed even in a complicated background. . In the unlikely event that a scanning laser rangefinder 1
2. Even if the ultrasonic sensors 13a and 13b exist at locations that cannot be measured by the external sensors, the gyro 14, which is an internal sensor, and the rotation angle sensor 15 perform self-position identification, and the reliability of the mobile robot is improved. Is high.

【0063】また、プラントの機器配置を表示するため
のプラントCADデータを用いるため、オペレータは、
目的位置を地図上にプロットする操作のみで、移動ロボ
ットは自動的に構造物と干渉しないで目的位置へ移動で
きる軌道を生成し、移動するため、操作が非常に容易で
ある。
Since the plant CAD data for displaying the equipment arrangement of the plant is used, the operator
The operation is very easy because the mobile robot automatically generates and moves a trajectory that can move to the target position without interfering with the structure only by the operation of plotting the target position on the map.

【0064】尚、本実施例においては、スキャン式レー
ザ距離計12、超音波センサ13a,13bなどの距離
計測手段によって求められる測距データと、ジャイロ1
4や回転角度センサ15によって得られる移動ロボット
の移動量との相関演算を行ったが、移動量のみで位置同
定を行ってもよい。その場合には、図3においてスキャ
ン式レーザ距離計12,超音波センサ13a,13b,
座標変換回路35,画像メモリ36b,36c,画素相
関回路38のない構成となる。よって、画像メモリ36
aからの出力は直接、位置同定回路39に入力される。
In this embodiment, the distance measurement data obtained by the distance measuring means such as the scanning laser range finder 12, the ultrasonic sensors 13a and 13b, and the gyro 1 are used.
4 and the movement amount of the mobile robot obtained by the rotation angle sensor 15 are calculated, the position may be identified only by the movement amount. In that case, in FIG. 3, the scanning laser range finder 12, the ultrasonic sensors 13a, 13b,
The configuration does not include the coordinate conversion circuit 35, the image memories 36b and 36c, and the pixel correlation circuit 38. Therefore, the image memory 36
The output from a is directly input to the position identification circuit 39.

【0065】次に、本発明に係る移動ロボットの第2の
実施例を図7を参照して説明する。第1の実施例におい
ては、スキャン式レーザ距離計12を用いていることか
ら、移動しながら自己位置同定を行うと、測定する距離
データに時間ずれによる誤差が発生する。また、レーザ
距離計は、測定データにばらつきがあり、平均化しない
とばらつき誤差が約20〜100mmを持つ。但し、平
均化すれば、この誤差は10mm以下に抑えることがで
きる。これらの誤差が大きいと対応つけが困難となった
り、大きい同定誤差となり、走行制御に支障をきたす。
Next, a second embodiment of the mobile robot according to the present invention will be described with reference to FIG. In the first embodiment, since the scanning laser range finder 12 is used, if the self-position identification is performed while moving, an error due to time lag occurs in the measured distance data. Further, the laser range finder has variations in measured data, and a variation error of about 20 to 100 mm occurs unless averaged. However, if averaged, this error can be suppressed to 10 mm or less. If these errors are large, it becomes difficult to match them, or a large identification error occurs, which hinders travel control.

【0066】そこで、本実施例では移動時に図7に示す
平均化処理を行ってばらつき誤差を減少させる。平均化
する手段として、座標変換した検出距離データを記憶す
る画像メモリ36を例えば8個設ける。スキャン式レー
ザ距離計12からの検出距離データを画像メモリ36へ
記憶させる場合に、移動ロボット1の移動量を加えた座
標変換を座標変換回路35を介して行い、マルチプレク
サ40を用いて、スキャンニング毎に随時切り換えて、
1〜8の画像メモリ36に記憶する。従って、画像メモ
リ36には、常に現時点の検出距離データと、それ以前
の7回分の検出距離データが記憶されている。平均化は
総和平均処理回路45を用い、これら8回分の検出距離
データの総和をとり、空間フィルタ処理で分布のピーク
を求めることで行う。
Therefore, in this embodiment, the variation error is reduced by performing the averaging process shown in FIG. 7 during movement. As a means for averaging, for example, eight image memories 36 for storing coordinate-converted detection distance data are provided. When the detected distance data from the scanning laser range finder 12 is stored in the image memory 36, coordinate conversion including the movement amount of the mobile robot 1 is performed via the coordinate conversion circuit 35, and scanning is performed using the multiplexer 40. Switch every time,
It is stored in the image memories 36 of 1 to 8. Therefore, the image memory 36 always stores the detected distance data at the present time and the detected distance data for seven times before that. The averaging is performed by using the sum total averaging circuit 45, obtaining the sum of these eight detection distance data, and obtaining the peak of the distribution by spatial filter processing.

【0067】これによって、1回のスキャンニングで、
時間遅れなく、8回分のデータの平均がとれ、この平均
回数は8回に限定されない。スキャンニング速度が速い
レーザ距離計で、画像メモリ数を増加すれば、同じ期間
で平均回数が増すため、さらにばらつきを減少させるこ
とが可能となる。
As a result, in one scanning,
The data of eight times can be averaged without time delay, and the average number of times is not limited to eight times. With a laser rangefinder having a high scanning speed, if the number of image memories is increased, the average number is increased in the same period, so that it is possible to further reduce the variation.

【0068】以上、位置同定コントローラ23で得られ
た移動ロボット1の位置データは走行制御用データとし
て図2(a)に示される走行コントローラ24に取り込
まれる。
As described above, the position data of the mobile robot 1 obtained by the position identification controller 23 is taken into the traveling controller 24 shown in FIG. 2A as traveling control data.

【0069】走行コントローラ24では、目的位置まで
も経路と上記位置データから、走行モードと、各ステア
リングの駆動角度と、速度を算出し、走行用ドライバ3
3を制御する。
The travel controller 24 calculates the travel mode, the drive angle of each steering wheel, and the speed from the path to the target position and the position data, and the travel driver 3
Control 3

【0070】本実施例の移動ロボット1は、第1の実施
例の効果に加えて、実施例上記で述べた自己位置同定処
理を走行中に行うことで、スムーズな自律移動を実現す
る。以上の本実施例においては自己位置同定用コントロ
ーラに画像メモリを用いているが、座標変換した距離デ
ータを2次元配列でメモリに記憶させる方式でもよい。
また、対応つけを画素間の相関演算でなく、特徴点の対
応でも可能である。例えば、レーザ距離計からのデータ
が連続的につながる長さや、プラント建屋のコーナ部と
の距離、コーナ部の角度値、曲率などを対応つけても成
り立つ。
In addition to the effects of the first embodiment, the mobile robot 1 of the present embodiment realizes smooth autonomous movement by performing the self-position identification processing described in the above embodiment during traveling. Although the image memory is used as the self-position identification controller in the above-described embodiment, the distance data obtained by coordinate conversion may be stored in the memory in a two-dimensional array.
Further, the correspondence can be made not only by the correlation calculation between pixels but also by correspondence of feature points. For example, it can be established by associating the length of continuous data from the laser rangefinder, the distance from the corner of the plant building, the angle value of the corner, and the curvature.

【0071】さらに、上記実施例では、ロボットコント
ローラ部を移動ロボットに搭載した構成であるが、上記
ロボットコントローラ部を操作室へ備えて、通信制御装
置、無線伝送装置を介して通信すれば、上記実施例の機
能を持つことは言うまでもない。
Further, in the above-mentioned embodiment, the robot controller section is mounted on the mobile robot. However, if the robot controller section is provided in the operation room and communication is performed via the communication control device and the wireless transmission device, It goes without saying that it has the functions of the embodiment.

【0072】[0072]

【発明の効果】以上説明したように本発明の移動ロボッ
トにおいては、テレビカメラを用いる方式のような、照
明などの影響を受けることがなく、複雑な教示を必要と
せず、しかもプラントCADデータを用いるため、操作
が容易となり、高速に自己位置同定処理が可能である。
また、距離計測手段と相関演算手段を有する移動ロボッ
トにおいては、プラント内の複雑な環境、背景下におい
ても精度よく自己位置同定ができる。さらに、スキャン
ニング手段、記憶手段、平均化処理手段を備える距離計
測手段を有する移動ロボットにおいては、移動中におい
ても精度よく自己位置同定処理が可能である。
As described above, the mobile robot of the present invention is not affected by lighting or the like as in the system using a television camera, does not require complicated teaching, and can output plant CAD data. Since it is used, the operation becomes easy and the self-position identification processing can be performed at high speed.
Further, in the mobile robot having the distance measuring means and the correlation calculating means, the self position can be accurately identified even in a complicated environment and background in the plant. Furthermore, in the mobile robot having the distance measuring means including the scanning means, the storage means, and the averaging processing means, the self-position identification processing can be performed accurately even during movement.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る移動ロボットの第1の実施例の構
成を示す模式図。
FIG. 1 is a schematic diagram showing the configuration of a first embodiment of a mobile robot according to the present invention.

【図2】(a)は本発明に係る移動ロボットの操作室内
の模式図、(b)は本発明の第1の実施例の構成を詳細
に示す模式図。
FIG. 2A is a schematic diagram of an operation room of a mobile robot according to the present invention, and FIG. 2B is a schematic diagram showing in detail the configuration of the first embodiment of the present invention.

【図3】第1の実施例の移動ロボットの位置同定コント
ローラの構成を示す模式図。
FIG. 3 is a schematic diagram showing the configuration of a position identification controller of the mobile robot of the first embodiment.

【図4】点検処理の手順を示す流れ図。FIG. 4 is a flowchart showing a procedure of inspection processing.

【図5】第1の実施例における移動ロボットのスキャン
式レーザ距離計と超音波センサの配置を示し、(a)は
平面図、(b)は側面図。
5A and 5B show arrangements of a scanning laser rangefinder and an ultrasonic sensor of a mobile robot in the first embodiment, FIG. 5A is a plan view and FIG. 5B is a side view.

【図6】第1の実施例における移動ロボットの位置情報
採用の処理手順を示す流れ図。
FIG. 6 is a flowchart showing a processing procedure for adopting position information of a mobile robot in the first embodiment.

【図7】本発明に係る移動ロボットの第2の実施例の位
置同定コントローラの一部の構成を示す模式図。
FIG. 7 is a schematic diagram showing a partial configuration of a position identification controller of a second embodiment of a mobile robot according to the present invention.

【符号の説明】[Explanation of symbols]

1…移動ロボット 7…移動台車 8…雲台 9…点検用センサ 12…スキャン式レーザ距離計 13…超音波センサ 14…ジャイロ 15…回転角度セン
サ 23…位置同定コントローラ 27…テレビカメラ 28…マイクロフォン 29…レーザ振動計 30…赤外線カメラ 31…臭いセンサ 36a,36b,36c…画像メモリ 38…画素相関回路 39…位置同定回路 45…総和平均処理回路 50…車輪
DESCRIPTION OF SYMBOLS 1 ... Mobile robot 7 ... Mobile carriage 8 ... Platform 9 ... Inspection sensor 12 ... Scan type laser rangefinder 13 ... Ultrasonic sensor 14 ... Gyro 15 ... Rotation angle sensor 23 ... Position identification controller 27 ... TV camera 28 ... Microphone 29 ... Laser vibrometer 30 ... Infrared camera 31 ... Odor sensor 36a, 36b, 36c ... Image memory 38 ... Pixel correlation circuit 39 ... Position identification circuit 45 ... Sum average processing circuit 50 ... Wheel

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 プラント建屋内を移動し、前後進および
旋回を行う移動機構を備えた移動台車に点検センサを搭
載してプラント機器の状態を点検・監視する移動ロボッ
トにおいて、移動ロボットの水平、上下、旋回の移動量
を検出する移動量検出手段と、この移動量検出手段から
得られる移動量データをプラント建屋内の機器配置を示
すCADデータに対応付けて現在位置の同定を行う自己
位置同定手段とを有することを特徴とする移動ロボッ
ト。
1. A mobile robot for inspecting and monitoring the state of plant equipment by mounting an inspection sensor on a mobile carriage equipped with a moving mechanism for moving forward and backward and turning in a plant building. Self-position identification for identifying the current position by associating the movement amount detection means for detecting the movement amount of up and down and turning, and the movement amount data obtained from this movement amount detection means with CAD data indicating the equipment arrangement in the plant building. A mobile robot having means.
【請求項2】 プラント建屋内を移動し、前後進および
旋回を行う移動機構を備えた移動台車に点検センサを搭
載してプラント機器の状態を点検・監視する移動ロボッ
トにおいて、移動ロボットの水平、上下、旋回の移動量
を検出する移動量検出手段と、周囲構造物との距離を計
測する距離計測手段と、この距離測定手段から得られる
測距データと前記移動量検出手段から得られる移動量デ
ータの相関演算を行う相関演算手段と、この相関演算結
果を用いて移動ロボットの現在位置の同定を行う自己位
置同定手段とを有することを特徴とする移動ロボット。
2. A mobile robot for inspecting and monitoring the state of plant equipment by mounting an inspection sensor on a movable carriage equipped with a moving mechanism for moving forward and backward and turning in a plant building. A movement amount detecting means for detecting a movement amount of vertical and turning, a distance measuring means for measuring a distance to a surrounding structure, distance measurement data obtained from the distance measuring means, and a movement amount obtained from the movement amount detecting means. A mobile robot comprising: a correlation calculation means for performing a correlation calculation of data; and a self-position identification means for identifying the current position of the mobile robot using the result of the correlation calculation.
【請求項3】 前記距離計測手段は、所定の移動時間毎
に測距データを複数回採取するスキャンニング手段を有
し、スキャンニング毎に随時切り換えて複数の記憶手段
に記憶させ、これらの記憶手段に記憶された測距データ
を任意の累積回数で平均化する平均化処理手段を有して
距離を計測することを特徴とする請求項2記載の移動ロ
ボット。
3. The distance measuring means has a scanning means for collecting distance measurement data a plurality of times for each predetermined movement time, and switches the scanning data for each scanning at any time so as to be stored in a plurality of storage means. The mobile robot according to claim 2, further comprising: averaging processing means for averaging the distance measurement data stored in the means at an arbitrary cumulative number of times.
JP6076236A 1994-04-15 1994-04-15 Moving robot Pending JPH07281753A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6076236A JPH07281753A (en) 1994-04-15 1994-04-15 Moving robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6076236A JPH07281753A (en) 1994-04-15 1994-04-15 Moving robot

Publications (1)

Publication Number Publication Date
JPH07281753A true JPH07281753A (en) 1995-10-27

Family

ID=13599545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6076236A Pending JPH07281753A (en) 1994-04-15 1994-04-15 Moving robot

Country Status (1)

Country Link
JP (1) JPH07281753A (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08261893A (en) * 1995-03-24 1996-10-11 Res Dev Corp Of Japan Probe for determination of direction of odor source, and method for searching the odor source by using the probe
KR100310616B1 (en) * 1999-07-12 2001-10-18 배종렬 Unmanned troweling robot
KR100338187B1 (en) * 1999-07-12 2002-05-24 배종렬 Remote controller for self-controlled troweling robot
JP2005332204A (en) * 2004-05-20 2005-12-02 Univ Waseda Movement control device, environment recognition device, and program for controlling moving object
JP2006125951A (en) * 2004-10-28 2006-05-18 Nec Fielding Ltd Wireless lan automatic site survey device, method and wireless lan automatic site survey system
JP2007132769A (en) * 2005-11-10 2007-05-31 Hitachi Ltd Underwater inspection device
JP2008128788A (en) * 2006-11-20 2008-06-05 Toshiba Corp Control device of underwater remote operation apparatus, and control method therefor
JP2008170306A (en) * 2007-01-12 2008-07-24 Mitsubishi Electric Corp Evaluation method of ranging sensor
US7489255B2 (en) 2004-06-17 2009-02-10 Kabushiki Kaisha Toshiba Self-position identification apparatus and self-position identification method
JP2011112435A (en) * 2009-11-25 2011-06-09 Toshiba Corp Work navigation system
JP2011214926A (en) * 2010-03-31 2011-10-27 Hokuyo Automatic Co Multi-signal processing apparatus, range finder, and multi-distance measuring system
JP2012064218A (en) * 2010-09-20 2012-03-29 Alstom Technology Ltd Robot platform for remotely controlled and/or autonomous inspection of technical facility
US8370105B2 (en) 2008-06-13 2013-02-05 Hitachi, Ltd. System for detecting position of underwater vehicle
WO2013030929A1 (en) * 2011-08-29 2013-03-07 株式会社日立製作所 Monitoring device, monitoring system and monitoring method
JP2013545075A (en) * 2010-09-13 2013-12-19 ウエスチングハウス・エレクトリック・カンパニー・エルエルシー Method for automated localization
US8655022B2 (en) 2009-03-03 2014-02-18 Hitachi-Ge Nuclear Energy, Ltd. System and method for detecting position of underwater vehicle
US8688275B1 (en) 2012-01-25 2014-04-01 Adept Technology, Inc. Positive and negative obstacle avoidance system and method for a mobile robot
WO2016189896A1 (en) * 2015-05-22 2016-12-01 富士フイルム株式会社 Robot device and movement control method for robot device
WO2016189898A1 (en) * 2015-05-22 2016-12-01 富士フイルム株式会社 Robot device and movement control method for robot device
JP2017062702A (en) * 2015-09-25 2017-03-30 シャープ株式会社 Mobile vehicle
JP2017168000A (en) * 2016-03-18 2017-09-21 株式会社日立製作所 Autonomous mobile device
JP2017211347A (en) * 2016-05-27 2017-11-30 日本原子力発電株式会社 Radioactivity surface contamination density measuring device and radioactivity surface contamination density measuring method using the same
US10089586B2 (en) 2012-02-08 2018-10-02 Omron Adept Technologies, Inc. Job management system for a fleet of autonomous mobile robots
CN110091306A (en) * 2019-04-29 2019-08-06 合肥瑞堡科技发展有限公司 A kind of mobile robot of multidirectional adjusting
WO2021240788A1 (en) * 2020-05-29 2021-12-02 日本電信電話株式会社 Measurement system

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08261893A (en) * 1995-03-24 1996-10-11 Res Dev Corp Of Japan Probe for determination of direction of odor source, and method for searching the odor source by using the probe
KR100310616B1 (en) * 1999-07-12 2001-10-18 배종렬 Unmanned troweling robot
KR100338187B1 (en) * 1999-07-12 2002-05-24 배종렬 Remote controller for self-controlled troweling robot
JP2005332204A (en) * 2004-05-20 2005-12-02 Univ Waseda Movement control device, environment recognition device, and program for controlling moving object
US7489255B2 (en) 2004-06-17 2009-02-10 Kabushiki Kaisha Toshiba Self-position identification apparatus and self-position identification method
JP2006125951A (en) * 2004-10-28 2006-05-18 Nec Fielding Ltd Wireless lan automatic site survey device, method and wireless lan automatic site survey system
JP2007132769A (en) * 2005-11-10 2007-05-31 Hitachi Ltd Underwater inspection device
JP2008128788A (en) * 2006-11-20 2008-06-05 Toshiba Corp Control device of underwater remote operation apparatus, and control method therefor
JP2008170306A (en) * 2007-01-12 2008-07-24 Mitsubishi Electric Corp Evaluation method of ranging sensor
US8370105B2 (en) 2008-06-13 2013-02-05 Hitachi, Ltd. System for detecting position of underwater vehicle
US8655022B2 (en) 2009-03-03 2014-02-18 Hitachi-Ge Nuclear Energy, Ltd. System and method for detecting position of underwater vehicle
JP2011112435A (en) * 2009-11-25 2011-06-09 Toshiba Corp Work navigation system
JP2011214926A (en) * 2010-03-31 2011-10-27 Hokuyo Automatic Co Multi-signal processing apparatus, range finder, and multi-distance measuring system
JP2013545075A (en) * 2010-09-13 2013-12-19 ウエスチングハウス・エレクトリック・カンパニー・エルエルシー Method for automated localization
JP2012064218A (en) * 2010-09-20 2012-03-29 Alstom Technology Ltd Robot platform for remotely controlled and/or autonomous inspection of technical facility
JP5658372B2 (en) * 2011-08-29 2015-01-21 株式会社日立製作所 Monitoring device, monitoring system, and monitoring method
JPWO2013030929A1 (en) * 2011-08-29 2015-03-23 株式会社日立製作所 Monitoring device, monitoring system, and monitoring method
WO2013030929A1 (en) * 2011-08-29 2013-03-07 株式会社日立製作所 Monitoring device, monitoring system and monitoring method
US9911041B2 (en) 2011-08-29 2018-03-06 Hitachi, Ltd. Monitoring device, monitoring system and monitoring method
US9592609B2 (en) 2012-01-25 2017-03-14 Omron Adept Technologies, Inc. Autonomous mobile robot for handling job assignments in a physical environment inhabited by stationary and non-stationary obstacles
US8688275B1 (en) 2012-01-25 2014-04-01 Adept Technology, Inc. Positive and negative obstacle avoidance system and method for a mobile robot
US10089586B2 (en) 2012-02-08 2018-10-02 Omron Adept Technologies, Inc. Job management system for a fleet of autonomous mobile robots
WO2016189898A1 (en) * 2015-05-22 2016-12-01 富士フイルム株式会社 Robot device and movement control method for robot device
WO2016189896A1 (en) * 2015-05-22 2016-12-01 富士フイルム株式会社 Robot device and movement control method for robot device
US10877475B2 (en) 2015-05-22 2020-12-29 Fujifilm Corporation Robot device and method of controlling movement of robot device
JP2017062702A (en) * 2015-09-25 2017-03-30 シャープ株式会社 Mobile vehicle
JP2017168000A (en) * 2016-03-18 2017-09-21 株式会社日立製作所 Autonomous mobile device
JP2017211347A (en) * 2016-05-27 2017-11-30 日本原子力発電株式会社 Radioactivity surface contamination density measuring device and radioactivity surface contamination density measuring method using the same
CN110091306A (en) * 2019-04-29 2019-08-06 合肥瑞堡科技发展有限公司 A kind of mobile robot of multidirectional adjusting
WO2021240788A1 (en) * 2020-05-29 2021-12-02 日本電信電話株式会社 Measurement system
JPWO2021240788A1 (en) * 2020-05-29 2021-12-02

Similar Documents

Publication Publication Date Title
JPH07281753A (en) Moving robot
Ohya et al. Vision-based navigation by a mobile robot with obstacle avoidance using single-camera vision and ultrasonic sensing
KR101038581B1 (en) Method, system, and operation method for providing surveillance to power plant facilities using track-type mobile robot system
US11579097B2 (en) Localization method and system for mobile remote inspection and/or manipulation tools in confined spaces
US20040158358A1 (en) Method of teaching traveling path to robot and robot having function of learning traveling path
US10365090B2 (en) Imaging device and imaging method
US10877475B2 (en) Robot device and method of controlling movement of robot device
CN113478483B (en) Mobile robot welding method and system based on stainless steel storage tank
CN111516777A (en) Robot trolley and obstacle identification method thereof
CN115793649B (en) Automatic cable pit inspection device and inspection method
JP3401136B2 (en) Plant equipment inspection system
KR20130089403A (en) Obstacle detection sensor
JPH06198586A (en) Moving robot
KR100904769B1 (en) Detecting device of obstacle and method thereof
Roth et al. Navigation and docking manoeuvres of mobile robots in industrial environments
Nygards et al. Docking to pallets with feedback from a sheet-of-light range camera
D'Orazio et al. Mobile robot navigation by multi-sensory integration
Shoval et al. Analysis of landmark configuration for absolute positioning of autonomous vehicles
CN114147723A (en) Automatic lofting robot system and operation method thereof
Paromtchik et al. Optical guidance system for multiple mobile robots
Satoh et al. Autonomous mobile patrol system for nuclear power plants: field test report of vehicle navigation and sensor positioning
US20240161329A1 (en) Localization systems and methods
Ghayalod et al. Line-following using omnidirectional vision control
US20230419546A1 (en) Online camera calibration for a mobile robot
US20230128651A1 (en) Determining scanner error