JP3217281B2 - Robot environment recognition apparatus and control method thereof - Google Patents

Robot environment recognition apparatus and control method thereof

Info

Publication number
JP3217281B2
JP3217281B2 JP29548896A JP29548896A JP3217281B2 JP 3217281 B2 JP3217281 B2 JP 3217281B2 JP 29548896 A JP29548896 A JP 29548896A JP 29548896 A JP29548896 A JP 29548896A JP 3217281 B2 JP3217281 B2 JP 3217281B2
Authority
JP
Japan
Prior art keywords
robot
distance
wall surface
obstacle
traveling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP29548896A
Other languages
Japanese (ja)
Other versions
JPH09174471A (en
Inventor
俊榮 丁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JPH09174471A publication Critical patent/JPH09174471A/en
Application granted granted Critical
Publication of JP3217281B2 publication Critical patent/JP3217281B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0227Control of position or course in two dimensions specially adapted to land vehicles using mechanical sensing means, e.g. for sensing treated area
    • G05D1/0229Control of position or course in two dimensions specially adapted to land vehicles using mechanical sensing means, e.g. for sensing treated area in combination with fixed guiding means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Acoustics & Sound (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、自ら移動しながら
掃除、或は監視などの作業を行う自走式ロボットに関
し、とくに、作業環境にたいする情報地図を作成してロ
ボットが目標地点まで的確に走行できるようにされたロ
ボットの環境認識装置、およびその制御方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a self-propelled robot that performs tasks such as cleaning or monitoring while moving by itself, and in particular, creates an information map of a working environment so that the robot can travel accurately to a target point. The present invention relates to a robot environment recognition device and a control method thereof.

【0002】[0002]

【従来の技術】一般に、従来における自走移動ロボット
の最適化経路の仕組み装置は、特開平4−365104
号公報に開示されている。上記公報に開示されているロ
ボットの最適化経路の仕組み装置9は、図10に示すよ
うに、ロボットの作業場全体に移動可能な領域を障害物
と仕分けして表示された地図を記憶する地図記憶部4
と、ロボット周辺の状況にたいする地図を生成して前記
地図記憶部4に記憶された地図を更新する地図生成更新
部8と、前記地図記憶部4に記憶された地図を利用して
目標点の経路を仕組む経路探索部5と、前記地図記憶部
4に記憶された地図を利用して障害物を避ける経路を仕
組む経路生成部7とから構成されている。
2. Description of the Related Art Generally, a conventional device for optimizing a route of a self-propelled mobile robot is disclosed in Japanese Patent Laid-Open No. 4-365104.
No. 6,086,045. As shown in FIG. 10, a robot optimization path mechanism device 9 disclosed in the above publication is a map storage for storing a map in which an area movable over the entire workplace of the robot is classified as an obstacle and displayed. Part 4
A map generating / updating unit 8 for generating a map corresponding to a situation around the robot and updating the map stored in the map storage unit 4; and a route of a target point using the map stored in the map storage unit 4. And a route generation unit 7 for designing a route that avoids obstacles by using the map stored in the map storage unit 4.

【0003】前記最適化経路仕組み装置9を搭載された
ロボットには、自己位置認識部2から現在位置が、命令
入力部1から目標点の位置が、障害物認識部6から周辺
の障害物の状態にたいするデータを入力される。上記の
情報を利用して経路探索部5または経路生成部7により
仕組まれた経路は駆動部3に伝達されてその仕組まれた
経路にしたがってロボットが移動する。また、地図生成
更新部8には、前記作業位置認識部2から現在位置が、
移動中に障害物認識部6から周辺障害物の状態が入力さ
れてロボットの周辺状況にたいする地図を生成し、それ
によって地図記憶部4に記憶されている全作業場にたい
する地図を更新する。
A robot equipped with the above-described optimized route mechanism device 9 has a current position from the self-position recognition unit 2, a position of a target point from the command input unit 1, and a position of a target obstacle from the obstacle recognition unit 6. Data for the state is entered. The route constructed by the route search unit 5 or the route generation unit 7 using the above information is transmitted to the drive unit 3 and the robot moves according to the constructed route. Further, the map generation / update unit 8 stores the current position from the work position recognition unit 2,
The state of the surrounding obstacle is input from the obstacle recognition unit 6 while moving, and a map corresponding to the surrounding situation of the robot is generated, thereby updating the map corresponding to all the work sites stored in the map storage unit 4.

【0004】[0004]

【発明が解決しようとする課題】ところで、かかる従来
の最適化経路の仕組み装置においては、ロボットが作業
初期において作業場にたいする完全情報を備える必要は
なく、作業を行う時ごとにより効率のある経路を仕組ん
で、作業場の変化に対処できるが、ロボットの走行する
現在位置と走行すべき目標点の位置、障害物の有無等の
情報を利用してロボットを移動すべきであり、現在位置
と障害物の有無などの状態によって地図を生成しながら
記憶された全作業場の地図を更新すべきであるため、メ
モリ容量が大きくなるという問題点があった。
By the way, in such a conventional device for optimizing a route, it is not necessary for the robot to have complete information on the workplace at the beginning of the work, and a more efficient route is constructed each time the work is performed. Can cope with changes in the workplace, but the robot should be moved using information such as the current position where the robot is traveling, the position of the target point to be traveled, and the presence or absence of obstacles. There is a problem that the memory capacity increases because the stored maps of all the workplaces should be updated while generating the map according to the state such as the presence or absence.

【0005】このほかにも、作業環境にたいする情報だ
けにたよって作業を行うまた別の従来のロボットは、与
えられた作業空間を所定大きさの単位cellに分割し
てそれぞれのcellごとに障害物の有無等、必要な情
報を記憶し、ロボットの走行領域内の所定壁面に設けら
れた信号発信器(超音波または赤外線信号発信器)より
発信される超音波または赤外線信号をロボット本体の所
定位置に設けられた信号受信器で受信しつつ作業初期に
走行領域を自走するか、壁面に沿って走行する。
[0005] In addition, another conventional robot that performs a work only based on information about a work environment, divides a given work space into units of a predetermined size and divides each cell into obstacles. It stores necessary information, such as the presence or absence of a robot, and transmits an ultrasonic or infrared signal transmitted from a signal transmitter (ultrasonic or infrared signal transmitter) provided on a predetermined wall in the robot traveling area to a predetermined position of the robot body. Self-propelled in the traveling area at the beginning of the work while receiving by the signal receiver provided in, or traveling along the wall surface.

【0006】このさい、前記信号発信機から発信される
信号が信号受信器に受信されると、信号発信器から発信
される位置につく符号を解読して自動に環境地図を作成
し、それを利用して掃除または監視など、与えられた作
業を開始するようになる。
At this time, when the signal transmitted from the signal transmitter is received by the signal receiver, a code attached to the position transmitted from the signal transmitter is decoded to automatically create an environmental map, Use to start a given task, such as cleaning or monitoring.

【0007】ところで、かようなロボットの環境認識方
法においては、作業環境にたいする情報のみを有してい
るため、ロボットの現在位置が的確につかみがたく、与
えられた作業空間をただ所定大きさの単位に分割して情
報を貯蔵するため、メモリ容量が大きくなるという問題
点があった。
In such a robot environment recognizing method, since only the information on the working environment is stored, the current position of the robot is difficult to grasp accurately, and the given working space is merely a predetermined size. Since information is stored in units of units, there is a problem that the memory capacity increases.

【0008】また、位置情報を乗せた超音波または赤外
線信号を発信するための別の外部装置である信号発信器
を要するため構成が複雑で、設置が煩雑であるとの問題
点があった。
Further, there is another problem that a signal transmitter, which is another external device for transmitting an ultrasonic or infrared signal carrying position information, is required, so that the configuration is complicated and the installation is complicated.

【0009】また、床面の材質および状態によって駆動
輪に滑りが生じると、ロボットが信号発信器に的確に到
達できないため、信号発信器の発信信号を信号受信部で
受信できない現象がおこり、ロボットが左右へ移動され
つつ信号発信器の発信信号を信号受信部で受信するとき
まで施行誤りが繰り返されて現在位置をつかむ時間が長
びくという問題点があった。
Further, if the drive wheels slip due to the material and condition of the floor surface, the robot cannot reach the signal transmitter accurately, so that the signal received by the signal transmitter cannot be received by the signal receiving unit. However, there is a problem that the execution error is repeated until the transmission signal of the signal transmitter is received by the signal receiving unit while moving to the right and left, and the time for grasping the current position is prolonged.

【0010】したがって、本発明は上記種々の問題点を
解決するためになされたものであって、本発明の目的
は、作業初期に別の外部装置なしに小メモリ容量で環境
地図を作成するロボットの環境認識装置およびその制御
方法を提供することにある。
Therefore, the present invention has been made to solve the above-mentioned various problems, and an object of the present invention is to provide a robot for creating an environmental map with a small memory capacity without an additional external device at the beginning of work. And a control method thereof.

【0011】また、本発明の他の目的は、作成された環
境地図を利用して作業中の現在位置をつかんで補正する
ことによって、ロボットが目標地点まで的確に走行しな
がら作業を行えるようにしたロボットの環境認識装置お
よびその制御方法を提供することにある。
Another object of the present invention is to make it possible for a robot to work while traveling accurately to a target point by using a created environmental map to grasp and correct the current position of the work. To provide a robot environment recognition device and a control method thereof.

【0012】[0012]

【課題を解決するための手段】上記目的を達成するため
に、本発明によるロボットの環境認識装置は、自ら移動
しながら与えられた作業を行う自走式ロボットにおい
て、前記ロボットを移動させる駆動手段と、該駆動手段
により移動されるロボットの走行距離を検出する走行距
離検出手段と、前記駆動手段により移動されるロボット
の走行方向変えを検出する方向角度検出手段と、前記ロ
ボットの走行する領域内の障害物および壁面までの距離
を感知する障害物感知手段と、前記走行距離検出手段に
より検出された走行距離データおよび前記方向角検出手
段により検出されている走行方向データを入カされて現
在位置を演算し、前記ロボットが目標地点まで走行でき
るよう前記駆動手段を制御する制御手段と、前記走行距
離検出手段によって検出されている走行距離データ、前
記方向角度検出手段により検出された走行方向データ、
前記障害物感知手段によって感知された障害物および壁
面にたいする環境情報を記憶するメモリ手段とを有し、
前記制御手段は、前記障害物感知手段により感知された
前記ロボットの前方壁面までの距離によって、任意の方
向へ置かれた前記ロボットと前方壁面との角度を演算し
て、ロボットを前方壁面に垂直に整列させ、前記走行距
離検出手段により検出された走行距離および前記障害物
感知手段により感知された壁面との離隔距離によって前
記ロボットの走行する作業空間の環境情報を前記メモリ
手段に貯蔵することを特徴とする。
In order to achieve the above object, a robot environment recognizing apparatus according to the present invention is a self-propelled robot which performs given work while moving by itself, and a driving means for moving the robot. Traveling distance detecting means for detecting a traveling distance of the robot moved by the driving means; direction angle detecting means for detecting a change in traveling direction of the robot moved by the driving means; Obstacle sensing means for sensing the distance to the obstacle and the wall surface, and travel distance data detected by the travel distance detection means and travel direction data detected by the direction angle detection means are input to the current position. And control means for controlling the drive means so that the robot can travel to a target point, and the travel distance detection means Travel distance data has been issued, the traveling direction data detected by the direction angle detecting means,
Memory means for storing environmental information on obstacles and walls sensed by the obstacle sensing means,
The control unit is detected by the obstacle detection unit
Depending on the distance to the front wall of the robot,
Calculate the angle between the robot and the front wall
The robot is vertically aligned with the front wall surface, and the environment information of the working space in which the robot travels is determined based on the travel distance detected by the travel distance detection unit and the separation distance from the wall surface detected by the obstacle detection unit. It is stored in the memory means.

【0013】また、本発明によるロボットの環境認識制
御方法は、所定の走行領域内を自ら移動しながら与えら
れた作業を行うロボットの環境認識方法において、障害
物感知手段により感知された前記ロボットの前方壁面ま
での距離によって、任意の方向へ置かれた前記ロボット
と前方壁面との角度を演算して、ロボットを前方壁面に
垂直に整列させる垂直整列ステップと、前記ロボットが
壁面に沿って移動しつつ前方壁面および左右側壁面の距
離を感知してブロックの必要データを収集するデータ収
集ステップと、前記データ収集ステップで収集されたそ
れぞれのブロックの必要データをまとめて環境地図を作
成する地図作成ステップとからなることを特徴とする。
The robot environment recognition control method according to the present invention is the robot environment recognition method for performing a given task while moving within a predetermined traveling area by itself, and the robot environment recognition method detected by the obstacle detection means. A vertical alignment step of calculating an angle between the robot placed in an arbitrary direction and the front wall according to a distance to the front wall to vertically align the robot with the front wall; and moving the robot along the wall. A data collection step of sensing the distance between the front wall surface and the left and right side wall surfaces and collecting necessary data of the blocks, and a map creation step of creating an environmental map by summing up the necessary data of each block collected in the data collection step And characterized by the following.

【0014】[0014]

【発明の実施の形態】以下、本発明による一実施形態に
ついて添付図面に沿って詳述する。図1に示すように、
駆動手段10はロボット1の前後進、および左右側への
移動を制御するものであって、前記駆動手段10は前記
ロボット1を右側に移動させるよう左側走行モータ11
1を駆動する左側モータ駆動部11と、前記ロボット1
を左側に移動させるよう右側走行モータ121を駆動す
る右側モータ駆動部12とから構成されている。前記左
側走行モータ111と右側走行モータ121には図示の
ない駆動輪がそれぞれ取付けられている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment according to the present invention will be described below in detail with reference to the accompanying drawings. As shown in FIG.
The driving means 10 controls the forward and backward movement and the left and right movement of the robot 1, and the driving means 10 controls the left traveling motor 11 so as to move the robot 1 to the right.
Motor driving unit 11 for driving the robot 1 and the robot 1
And the right motor drive unit 12 that drives the right traveling motor 121 so as to move to the left. Driving wheels (not shown) are attached to the left traveling motor 111 and the right traveling motor 121, respectively.

【0015】さらに、走行距離検出手段20は、前記駆
動手段10により移動されるロボット1の走行距離を検
出するものであって、前記走行距離検出手段20は、前
記駆動手段10の制御により駆動する左側駆動輪の回転
数、すなわち、前記左側走行モータ111の回転数に比
例するパルス信号を発生させて前記ロボット1の右側へ
の移動走行距離を検出する左側エンコーダ21と、前記
駆動手段10の制御により駆動する右側駆動輪の回転
数、すなわち、前記右側走行モータ121の回転数に比
例するパルス信号を発生させて前記ロボット1が左側に
移動した走行距離を検出する右側エンコーダ22とから
構成されている。
Further, the traveling distance detecting means 20 detects the traveling distance of the robot 1 moved by the driving means 10, and the traveling distance detecting means 20 is driven by the control of the driving means 10. A left encoder 21 that generates a pulse signal proportional to the rotation speed of the left driving wheel, that is, the rotation speed of the left traveling motor 111, to detect the traveling distance of the robot 1 to the right; And a right encoder 22 that generates a pulse signal proportional to the rotation speed of the right drive wheel driven by the robot 1, that is, detects the travel distance of the robot 1 moving to the left by generating a pulse signal. I have.

【0016】また、方向角検出手段30は、前記駆動手
段10により移動されるロボット1の走行方向変化を検
出するものであって、前記方向角検出手段30は前記駆
動手段10により移動されるロボット1の回転時に変化
する電圧レベルにしたがってロボット1の回転角速度を
感知して走行方向変化を検出するジャイロセンサなどの
方向角センサである。
The direction angle detecting means 30 detects a change in the traveling direction of the robot 1 moved by the driving means 10, and the direction angle detecting means 30 is a robot moved by the driving means 10. It is a direction angle sensor such as a gyro sensor that detects a change in the traveling direction by detecting the rotational angular velocity of the robot 1 according to the voltage level that changes when the robot 1 rotates.

【0017】障害物感知手段40は、前記駆動手段10
により移動されるロボット1の走行経路に存在する障害
物の有無、および障害物Hまでの距離を感知するととも
に、壁面Wまでの距離を感知するものであって、前記障
害物感知手段40は前記ロボット1の前面に存在する障
害物Hなり、壁面Wまでの距離を感知する第1の障害物
感知部41と、前記ロボット1の左側に存在する障害物
Hなり、壁面Wまでの距離を感知する第2の障害物感知
部42と、前記ロボット1の右側に存在する障害物Hな
り、壁面Wまでの距離を感知する第3の障害物感知部4
3とから構成されている。
The obstacle sensing means 40 includes the driving means 10
The obstacle sensing means 40 senses the presence or absence of an obstacle present in the travel route of the robot 1 and the distance to the obstacle H, and also senses the distance to the wall surface W. An obstacle H existing in front of the robot 1 and a first obstacle sensing unit 41 for sensing the distance to the wall W, and an obstacle H existing on the left side of the robot 1 and sensing the distance to the wall W And a third obstacle sensing unit 4 that senses the distance between the obstacle H existing on the right side of the robot 1 and the wall surface W.
And 3.

【0018】前記障害物感知手段40の第1の障害物感
知部41は、前記ロボット1の移動する前面に超音波が
生じ、その発生された超音波が壁面Wなり障害物Hにぶ
つかって反射された信号、つまりエコー信号を受信して
ロボット1の前面に位置された障害物Hなり壁面Wまで
の距離を感知する第1の超音波センサ411と、該第1
の超音波センサ411が超音波を発生するよう50Hz
の方形波を前記第1の超音波センサ411に入力する第
1のセンサ駆動部412と、前記第1の超音波センサ4
11を所望の方向へ180゜往復回転させるステップイ
ンモータ413と、該ステップインモータ413を駆動
するステップインモータ駆動部414とから構成されて
いる。
The first obstacle sensing unit 41 of the obstacle sensing means 40 generates an ultrasonic wave on the front surface of the moving robot 1 and reflects the generated ultrasonic wave against the wall W or the obstacle H. A first ultrasonic sensor 411 for receiving a signal, that is, an echo signal, and sensing a distance to an obstacle H or a wall W positioned in front of the robot 1;
50Hz so that the ultrasonic sensor 411 generates ultrasonic waves.
A first sensor driver 412 that inputs a square wave of the first ultrasonic sensor 411 to the first ultrasonic sensor 411;
It comprises a step-in motor 413 for rotating the motor 11 reciprocally by 180 ° in a desired direction, and a step-in motor drive unit 414 for driving the step-in motor 413.

【0019】また、前記障害物感知手段40の第2の障
害物感知部42は、前記ロボット1の移動する左側に超
音波が生じ、その生じた超音波が壁面Wなり障害物Hに
ぶつかって反射された信号を受信してロボット1の左側
に位置された障害物Hなり壁面Wまでの距離を感知する
第2の超音波センサ421と、該第2の超音波センサ4
21が超音波を発生するよう50Hzの方形波を前記第
2の超音波センサ421に入力する第2のセンサ駆動部
422とから構成されている。
The second obstacle sensing unit 42 of the obstacle sensing means 40 generates an ultrasonic wave on the left side where the robot 1 moves, and the generated ultrasonic wave hits the wall W or the obstacle H. A second ultrasonic sensor 421 that receives the reflected signal and senses a distance to an obstacle H or a wall W located on the left side of the robot 1, and the second ultrasonic sensor 4
A second sensor driver 422 inputs a 50 Hz square wave to the second ultrasonic sensor 421 so as to generate an ultrasonic wave.

【0020】また、前記障害物感知手段40の第3の障
害物感知部43は、前記ロボット1の移動する右側に超
音波が生じ、その生じた超音波が壁面Wなり障害物Hに
ぶつかって反射された信号を受信してロボット1の右側
に位置された障害物Hなり壁面Wまでの距離を感知する
第3の超音波センサ431と、該第3の超音波センサ4
31が超音波を発生するよう50Hzの方形波を前記第
3の超音波センサ431に入力する第3のセンサ駆動部
432とから構成されている。
The third obstacle sensing unit 43 of the obstacle sensing means 40 generates an ultrasonic wave on the right side where the robot 1 moves, and the generated ultrasonic wave hits a wall W or an obstacle H. A third ultrasonic sensor 431 for receiving the reflected signal and sensing a distance to an obstacle H or a wall W located on the right side of the robot 1; and a third ultrasonic sensor 4
31 includes a third sensor drive unit 432 that inputs a 50 Hz square wave to the third ultrasonic sensor 431 so as to generate an ultrasonic wave.

【0021】また、図において、制御手段50は前記走
行距離検出手段20により、検出された走行距離デー
タ、および前記方向角検出手段30により検出された走
行方向データを所定時間おきに入力されて前記ロホツト
1の現在位置を演算し、前記障害物感手段40により感
知された障害物H、および壁面Wにたいするデータが入
力されて前記ロボット1の前方と左右に存在する壁面W
までの距離と角度を演算し、その情報結果にしたがって
前記ロボット1の走行経路を制御することによって、前
記ロボット1が正常軌道から逸脱せずに目標地点まで的
確に走行できるよう前記左右側走行モータ111、12
1の出力量を決定するマイクロプロセッサである。
In the figure, the control means 50 inputs the traveling distance data detected by the traveling distance detecting means 20 and the traveling direction data detected by the direction angle detecting means 30 at predetermined time intervals, and The current position of the robot 1 is calculated, and data on the obstacle H and the wall W sensed by the obstacle feeling means 40 are input, and the wall W existing in front of and on the left and right of the robot 1 is input.
The left and right side traveling motors are calculated so that the robot 1 can accurately travel to a target point without deviating from a normal trajectory by calculating a distance and an angle to the robot, and controlling a traveling route of the robot 1 according to the information result. 111, 12
1 is a microprocessor for determining the output amount.

【0022】さらに、メモリ手段60は、前記走行距離
検出手段20により検出された走行距離データと、前記
方向角度検出手段30により検出された走行方向デー
タ、前記障害物感知手段40により感知された障害物H
および壁面Wにたいするデータなどの環境情報を記憶し
て前記制御手段50の入出力ポートにバッファを通じて
出力する。
Further, the memory means 60 stores the traveling distance data detected by the traveling distance detecting means 20, the traveling direction data detected by the direction angle detecting means 30, and the obstacle detected by the obstacle detecting means 40. Thing H
And environmental information, such as data on the wall surface W, is stored and output to the input / output port of the control means 50 through a buffer.

【0023】かように構成されたロボットが作業初期に
作成する環境地図の構造図について図2を参照して述べ
る。図2に示すように、障害物H(具体的には家具等)
と壁面Wの存在する部屋は障害物Hと壁面Wの外郭線を
境に複数のブロックに細分され、それぞれのブロックは
(0,0)(0,1)(0,2)……(1,0)(1,
1)(1,2)………(m,n)の番号が与えられる。
Referring to FIG. 2, a description will be given of a structural diagram of an environment map created by the robot having the above configuration at the beginning of work. As shown in FIG. 2, an obstacle H (specifically, furniture or the like)
And the room where the wall surface W is present is subdivided into a plurality of blocks on the boundary between the obstacle H and the outline of the wall surface W, and each block is (0, 0) (0, 1) (0, 2). , 0) (1,
1) (1, 2)... (M, n) are given.

【0024】さらに、それぞれのブロックは次のごとき
必要データを有する。aは、それぞれのブロックのx軸
方向の最大幅(X_Span) bは、それぞれのブロックのy軸方向の最大幅(Y_S
pan) c,dは、それぞれのブロックでx−y方向の最大幅を
構成する原点を絶対座標で表示(X_Org,Y_Or
g) eは、それぞれのブロックのx軸方向大きさ(X_Si
ze),fは、それぞれのブロックのy軸方向大きさ
(Y_Size),gは、障害物Hのないブロックは
「有効」,障害物Hのあるブロックは「無効」,部屋か
ら外された地域は「無視」と表示。i,jは、それぞれ
のブロックでx−y方向の大きさを構成する原点を絶対
座標で表示{(X_Org,Y_Org)}する。
Further, each block has necessary data as follows. a is the maximum width of each block in the x-axis direction (X_Span) b is the maximum width of each block in the y-axis direction (Y_S
pan, c and d indicate the origin of the maximum width in the xy direction in each block in absolute coordinates (X_Org, Y_Or)
g) e is the size of each block in the x-axis direction (X_Si
ze) and f are the y-axis sizes (Y_Size) of the respective blocks, g is “valid” for blocks without obstacles H, “invalid” for blocks with obstacles H, and areas removed from rooms. Is displayed as "ignore". For i and j, the origin which constitutes the size in the xy direction in each block is displayed in absolute coordinates {(X_Org, Y_Org)}.

【0025】以下、上記のように構成されたロボットの
環境認識装置、およびその制御方法の作用、効果につい
て述べる。図3は、本発明によるロボットの環境地図作
成についての動作順を示すフローチャートである。図3
におけるSはステップを表す。
The operation and effects of the robot environment recognition apparatus and the control method configured as described above will be described below. FIG. 3 is a flowchart showing the operation sequence for creating an environment map of the robot according to the present invention. FIG.
Represents a step.

【0026】まず、ユーザーがロボット1の所定位置に
装着されている動作スイッチをオンさせると、ステップ
S1では図示のない電源手段から供給される駆動電圧を
制御手段50から入力されて前記ロボット1を初期化さ
せながら作業の初期に作業の環境にたいする情報地図
(環境地図)を作成するための動作を開始する。
First, when a user turns on an operation switch mounted on a predetermined position of the robot 1, in step S1, a driving voltage supplied from a power supply unit (not shown) is input from the control unit 50, and the robot 1 is turned on. The operation for creating an information map (environment map) for the work environment is started at the beginning of the work while being initialized.

【0027】次いで、ステップS2では走行領域内の所
定位置に任意の方向へ置かれたロボット1の前面に装着
された第1の超音波センサ411からはステップインモ
ータ413の駆動にしたがって前方を基準に所定間隔△
θで所定間隔θtを回転しながら前記ロボット1の移動
する前方、つまりロボット1の走行方向の前方に存在す
る壁面Wに図4に示すように、超音波を発生し、その超
音波が壁面Wにぶつかって反射された信号を受信してロ
ボット1の前面に存在する壁面Wまでの距離を測定する
ことにより、ロボット1が前方壁面Wに最寄りの距離を
示す角度(方向)を演算する。
Next, in step S2, the first ultrasonic sensor 411 mounted on the front surface of the robot 1 placed at a predetermined position in the traveling area in an arbitrary direction refers to the front based on the driving of the step-in motor 413. At a predetermined interval
As shown in FIG. 4, an ultrasonic wave is generated on the wall W existing in front of the robot 1 moving while rotating the predetermined interval θt at θ, that is, in front of the robot 1 in the traveling direction. The robot 1 calculates the angle (direction) indicating the distance closest to the front wall W by measuring the distance to the wall W existing in front of the robot 1 by receiving the signal reflected by the robot 1.

【0028】ロボット1と前方壁面Wとの角度を演算す
る例について図2を参照して説明する。前記第1の超音
波センサ411を所定角度に回転させつつ壁面Wまでの
距離を測定した時、k番目の方向が壁面Wに垂直方向で
あると仮定すれば、k−1、k、k+1番目方向の距離
d(k−1)、d(k)、d(k+1)は、下記式を満
足させる。
An example of calculating the angle between the robot 1 and the front wall surface W will be described with reference to FIG. When measuring the distance to the wall surface W while rotating the first ultrasonic sensor 411 at a predetermined angle, assuming that the k-th direction is perpendicular to the wall surface W, the k−1, k, and k + 1 th The distances d (k-1), d (k), and d (k + 1) in the directions satisfy the following expression.

【0029】cos△θ・d(k−1)=cos△θ・
d(k+1)=d(k)であれば、cos-1{d(k)
/d(k−1)}=cos-1{d(k)/d(k+
1)}=△θである。もし、d(k−1)=d(k)
か、d(k+1)=d(k)の場合には、 0<cos-1{d(k)/d(k−1)}<△θ 0<cos-1{d(k)/d(k−1)}<△θを満足
する方向中から壁面Wに最寄りの距離を示す方向が壁面
Wに垂直方向kに最寄りであることが推し量られる。す
なわち、k方向が壁面Wに垂直方向であれば、k方向と
ロボット1の正面のなす角θkは、ロボット1と壁面W
のなす角θに近似であると見なすことができる。
Cos △ θ · d (k−1) = cos △ θ ·
If d (k + 1) = d (k), cos -1 {d (k)
/ D (k-1)} = cos -1 {d (k) / d (k +
1)} = △ θ. If d (k-1) = d (k)
Or, when d (k + 1) = d (k), 0 <cos -1 {d (k) / d (k-1)} <{θ 0 <cos -1 } d (k) / d ( k-1) It can be inferred that the direction indicating the distance closest to the wall surface W from the direction satisfying} <△ θ is closest to the direction k perpendicular to the wall surface W. That is, if the k direction is perpendicular to the wall surface W, the angle θk between the k direction and the front of the robot 1 is
Can be regarded as approximating the angle θ.

【0030】次いで、ステップS3では前記制御手段5
0から出力される制御信号を駆動手段10に入力されて
右側走行モータ121を駆動させることにより、ロボッ
ト1をθkだけ左方に回転させて図5に示すように、ロ
ボット1を最寄りの壁面Wに垂直に整列させ、ステップ
S4で制御手段50は左側走行モータ111と右側走行
モータ121を駆動させることにより、ロボット1を壁
面に垂直になるように移動させ、第2の超音波センサ4
21が壁面Wを臨むようロボット1を90゜右回転させ
て停止する。
Next, at step S3, the control means 5
By inputting a control signal output from 0 to the driving means 10 and driving the right-hand traveling motor 121, the robot 1 is rotated leftward by θk to move the robot 1 to the nearest wall surface W as shown in FIG. In step S4, the control means 50 drives the left traveling motor 111 and the right traveling motor 121 to move the robot 1 so as to be perpendicular to the wall surface, and the second ultrasonic sensor 4
The robot 1 is rotated clockwise by 90 ° so that the robot 21 faces the wall surface W and stops.

【0031】このさいのブロック番号を(0,0)、方
向を+x方向、位置を(0,0)と定め、第1、2およ
び3の超音波センサ411、421、431からはロボ
ット1の移動する前方壁面W、左右側壁面Wに超音波を
それぞれ発生させ、その超音波が前方壁面W、左右側壁
面Wにぶつかって反射された信号を受信して前方壁面W
までの距離と左右側壁面Wまでの距離を感知してその感
知された離隔距離データを制御手段50に出力する。
At this time, the block number is defined as (0, 0), the direction is defined as + x direction, and the position is defined as (0, 0). The first, second, and third ultrasonic sensors 411, 421, and 431 transmit the robot 1 Ultrasonic waves are respectively generated on the moving front wall surface W and the left and right side wall surfaces W, and the ultrasonic waves collide with the front wall surface W and the right and left side wall surfaces W to receive reflected signals and receive the front wall W.
And outputs the detected separation distance data to the control means 50.

【0032】したがって、前記制御手段50ではそれぞ
れのブロックのx,y軸方向の最大幅である(X_Sp
an,Y_Span)とそれぞれのブロックでx−y軸
方向の最大幅を構成する原点を絶対座標で表示した(X
_Org,Y_Org)を求めてブロック0,0に記録
する。
Therefore, the control means 50 sets the maximum width of each block in the x- and y-axis directions (X_Sp
an, Y_Span) and the origin which constitutes the maximum width in the xy axis direction in each block is displayed in absolute coordinates (X
_Org, Y_Org) is obtained and recorded in block 0,0.

【0033】次いで、ステップS5で駆動手段10は制
御手段50の制御により左右側走行モータ111、12
1を駆動させることによって図5に示すように、前記ロ
ボット1は壁面Wと所定距離を保ちつつ壁面Wに沿って
走行する。
Next, in step S5, the driving means 10 controls the left and right traveling motors 111, 12 under the control of the control means 50.
When the robot 1 is driven, the robot 1 travels along the wall surface W while maintaining a predetermined distance from the wall surface W, as shown in FIG.

【0034】前記ロボット1が壁面Wに沿って走行する
中、ステップS6に進んで第2、3の超音波センサ42
1、431からは第2、3のセンサ駆動部422、43
2によりロボット1の移動する左側或は右側壁面Wに超
音波を発生させ、その超音波が左側或は右側壁面Wにぶ
つかって反射された信号を受信してロボット1の左側或
は右側が壁面Wからの離隔距離を感知して離隔距離デー
タを制御手段50に出力する。
While the robot 1 is traveling along the wall surface W, the process proceeds to step S6, where the second and third ultrasonic sensors 42
From the first and the fourth, the second and third sensor driving units 422 and 43
2 generates an ultrasonic wave on the left or right wall surface W where the robot 1 moves, receives the signal reflected by the ultrasonic wave hitting the left or right wall surface W, and causes the left or right wall of the robot 1 to move on the wall surface. The distance from W is sensed and the distance data is output to the control means 50.

【0035】これによって、前記制御手段50では第
2、3の超音波センサ421、431により感知された
左側或は右側壁面距離が所定大以上に変化されたか判別
し、左側または右側壁面の距離が大に変化しない場合
(NOのとき)には、ステップS7に進んで前記ロボッ
ト1が壁面Wに沿って走行中前方壁面Wに近接したかを
判別する。
Thus, the control means 50 determines whether or not the distance of the left or right wall surface sensed by the second and third ultrasonic sensors 421, 431 has changed by a predetermined amount or more, and the distance of the left or right wall surface is determined. If the change is not large (NO), the process proceeds to step S7, and it is determined whether or not the robot 1 approaches the front wall surface W while traveling along the wall surface W.

【0036】前記ステップS7での判別結果、ロボット
1が前方壁面Wに近接しない場合(NOのとき)には、
ステップS8に進んで前記ロボット1が壁面Wに沿って
走行中最初の走行を開始した初期位置に戻ったかを判別
し、初期開始位置に戻っていない場合(NOのとき)に
は、ステップS5に戻りステップS5以下の動作を繰り
返し行う。
If the result of determination in step S7 is that the robot 1 does not approach the front wall surface W (NO),
Proceeding to step S8, it is determined whether or not the robot 1 has returned to the initial position where the first travel was started while traveling along the wall surface W. If the robot 1 has not returned to the initial start position (NO), the process returns to step S5. Return Step S5 and subsequent operations are repeated.

【0037】前記ステップS8での判別結果、初期開始
位置に戻った場合(YESのとき)には、環境地図作成
走行を終了すべきであるため、ステップS9に進んでロ
ボット1を停止させ、ステップS10では現在までえら
れたブロックデータを利用して各ブロックのすべての必
要データを充たしてブロックデータを整理しつつ環境地
図作成走行を終了する。
If the result of determination in step S8 is that the robot has returned to the initial start position (when YES), the travel of the environment map should be terminated, so the flow proceeds to step S9 where the robot 1 is stopped. In step S10, the environment map creation travel is completed while all the necessary data of each block is filled using the block data obtained up to the present to arrange the block data.

【0038】一方、前記ステップS6での判別結果、左
側または右側壁面の距離が大に変化した場合(YESの
とき)には、前記ロボット1が新たなブロックに移動し
たと判断し、ステップS61に進んでロボット1を停止
させる。
On the other hand, if the result of determination in step S6 is that the distance between the left and right wall surfaces has changed significantly (YES), it is determined that the robot 1 has moved to a new block, and the flow proceeds to step S61. Then, the robot 1 is stopped.

【0039】ついで、ステップS62では左側または右
側壁面Wまでの距離が最初の出発時と所定大以上に差の
あることが確認されると、図6のごとく、前記ロボット
1が新たなブロック1、0に移動したと認識し、ステッ
プS63に進んで第1、2、3の超音波センサ411、
421、431では前方壁面Wまでの距離と左右側壁面
Wまでの距離を感知してその感知された距離データを制
御手段50に出力する。
Next, in step S62, when it is confirmed that the distance to the left or right wall surface W is larger than a predetermined distance from the time of the first departure, as shown in FIG. 0, the process proceeds to step S63, and the first, second, and third ultrasonic sensors 411,
At 421 and 431, the distance to the front wall surface W and the distance to the left and right side wall surfaces W are sensed, and the sensed distance data is output to the control means 50.

【0040】したがって、ステップS64で制御手段5
0は、第1、2、3の超音波センサ411、421、4
31により感知された距離データを入力されてX_Sp
an、Y_SpanとX_Org、Y_Orgのデータ
を求めて現在ブロック1,0に記録しつつ前記ステップ
S5に戻りステップS6以下の動作を繰り返し行う。
Therefore, in step S64, the control means 5
0 is the first, second, third ultrasonic sensors 411, 421, 4
X_Sp is inputted with the distance data sensed by 31
An, Y_Span, X_Org, and Y_Org data are obtained and recorded in the current blocks 1 and 0, and the process returns to step S5 to repeat the operations from step S6.

【0041】また、前記ステップS7での判別結果、ロ
ボット1が前方壁面Wに接近した場合(YESのとき)
には、ステップS71に進んでロボット1を停止させ、
ステップS72ではロボット1が前方壁面Wへの接近が
確認されると、図7のごとく、前記ロボット1の現在ブ
ロック1,0を認識し、ステップS73に進んで駆動手
段10では前記制御手段10から出力される制御信号を
入力されて左側走行モータ111を駆動させることによ
りロボット1を右回転させる。
If the result of determination in step S7 is that the robot 1 has approached the front wall surface W (YES).
In step S71, the robot 1 is stopped and
In step S72, when it is confirmed that the robot 1 approaches the front wall surface W, as shown in FIG. 7, the current blocks 1, 0 of the robot 1 are recognized, and the process proceeds to step S73. The robot 1 is rotated clockwise by receiving the output control signal and driving the left traveling motor 111.

【0042】この際、ステップS74で第1、2、3の
超音波センサ411、421、431では前方壁面Wま
での距離と左右側壁面Wまでの距離を感知してその感知
された距離データを制御手段50に出力する。
At this time, in step S74, the first, second, and third ultrasonic sensors 411, 421, and 431 sense the distance to the front wall surface W and the distance to the left and right side wall surfaces W, and transmit the sensed distance data. Output to control means 50.

【0043】これにより、ステップS75で制御手段5
0は、第1、2、3の超音波センサ411、421、4
31により感知された距離データを入力されてX_Sp
an、Y_SpanとX_Org、Y_Orgのデータ
を求めて現在ブロック1,0に記録しつつ前記ステップ
S5に戻りステップS6以下の動作を繰り返し行う。
As a result, in step S75, the control means 5
0 is the first, second, third ultrasonic sensors 411, 421, 4
X_Sp is inputted with the distance data sensed by 31
An, Y_Span, X_Org, and Y_Org data are obtained and recorded in the current blocks 1 and 0, and the process returns to step S5 to repeat the operations from step S6.

【0044】一方、前記ロボット1が壁面Wに沿って走
行中左側壁面Wまでの距離が大に変化されて停止された
時、左側壁面Wまでの距離が先の距離より大であると、
ブロックデータの記録後、目標地点を境界域から50c
mにあたる地点に設定し、図8のごとく、走行を再開し
て目標地点までの走行が終わると、左側に90゜回転し
て次の段階を再開する。
On the other hand, when the robot 1 is stopped along the wall W while the distance to the left wall W is greatly changed while traveling along the wall W, if the distance to the left wall W is larger than the previous distance,
After recording the block data, the target point is 50c from the boundary area
Then, as shown in FIG. 8, when traveling is resumed and traveling to the target point is completed, the vehicle rotates 90 ° to the left and resumes the next step.

【0045】また、走行方向が−xまたは−y方向のと
き、ブロックを移動すると、新たなブロックの番号が0
より小になるかを判断して0より小になると、現在まで
作成されたすべてのブロックを+方向へ移動させ、新た
なブロックをC,0に割り当てる。
When the traveling direction is the -x or -y direction and the block is moved, the new block number becomes 0.
It is determined whether the size is smaller than 0. If the size is smaller than 0, all blocks created up to the present are moved in the + direction, and a new block is assigned to C, 0.

【0046】次に、かように、環境地図が作成されたと
き、ロボット1はあたえられた経路を走行しつつ環境地
図を利用して現在の座標を修正する方法を図9に沿って
述べる。
Next, with reference to FIG. 9, a description will be given of a method of correcting the current coordinates using the environment map while the robot 1 travels the given route when the environment map is created.

【0047】ロボット1は、あたえられた経路を走行し
つつ走行距離検出手段20により検出された走行距離デ
ータおよび前記方向角検出手段30により検出された走
行方向データを所定時間間隔で入力されてロボット1の
現在位置を修正する。たとえば、進行方向が+x方向で
あり、現在位置がx,yのときには環境地図上でx,y
の属するブロックを探索する。
The robot 1 receives the traveling distance data detected by the traveling distance detecting means 20 and the traveling direction data detected by the direction angle detecting means 30 at predetermined time intervals while traveling on the given route. Correct the current position of 1. For example, when the traveling direction is the + x direction and the current position is x, y, x, y on the environment map
Search for the block to which belongs.

【0048】この際、第1の超音波センサ411により
感知された前方壁面Wとロボット1の中心までの距離が
Ic、第3の超音波センサ431により感知された右側
壁面Wとロボット1の中心までの距離がIrであれば、
ロボット1の実際位置x’,y’は次のごとく算出され
る。 x’=X_Org+X_SPaN−Ic y’=Y_Org+Ir
At this time, the distance between the front wall surface W sensed by the first ultrasonic sensor 411 and the center of the robot 1 is Ic, the right wall surface W sensed by the third ultrasonic sensor 431 and the center of the robot 1 If the distance to Ir is
The actual position x ', y' of the robot 1 is calculated as follows. x '= X_Org + X_SPaN-Icy' = Y_Org + Ir

【0049】上記のごとく算出された実際位置x’,
y’と走行距離検出手段20および方向角度検出手段3
0により検出されたデータを累積させて算出した位置座
標が所定大以上に差が生じると、x,yをx’,y’に
修正する。
The actual position x ', calculated as described above,
y ′, traveling distance detecting means 20 and direction angle detecting means 3
If the position coordinate calculated by accumulating the data detected by 0 is larger than a predetermined value, x and y are corrected to x 'and y'.

【0050】上述のような作業はロボット1が走行しな
がら進行がつづけられ、ロボットが目標地点まで正確に
走行しながら与えられた作業を円滑に行うようにする。
The above-described operation is continued while the robot 1 is traveling, so that the robot can smoothly perform the given operation while traveling accurately to the target point.

【0051】[0051]

【発明の効果】上述のように、本発明によるロボットの
位置認識装置、およびその制御方法によれば、作業初期
に別の外部装置なしに小メモリ容量に環境地図を作成
し、その環境地図を利用して作業中の現在位置をつかん
で補正することによって、ロボットが目標地点まで正確
に走行しながら作業を行わしめるという優れる効果を有
する。
As described above, according to the robot position recognition apparatus and the control method thereof according to the present invention, an environment map is created in a small memory capacity without an external device at the beginning of work, and the environment map is created. By utilizing the current position during work and making corrections, the robot has an excellent effect of performing work while traveling accurately to a target point.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の一実施形態によるロボットの環境認
識装置の制御ブロック図である。
FIG. 1 is a control block diagram of a robot environment recognition device according to an embodiment of the present invention.

【図2】 本発明の一実施形態によるロボットの環境地
図作成構造図である。
FIG. 2 is a diagram illustrating an environment map creation structure of a robot according to an embodiment of the present invention.

【図3】 本発明によるロボットの環境地図作成動作順
を示すフローチャートである。
FIG. 3 is a flowchart showing an environment map creation operation sequence of the robot according to the present invention.

【図4】 本発明の一実施形態によるロボットの前方壁
面との角度演算にたいする説明図である。
FIG. 4 is an explanatory diagram for calculating an angle with respect to a front wall surface of the robot according to the embodiment of the present invention.

【図5】 本発明の一実施形態によるロボットの壁面走
行を示した説明図である。
FIG. 5 is an explanatory diagram showing a wall traveling of the robot according to the embodiment of the present invention.

【図6】 本発明の一実施形態によるロボットの新たな
ブロック移動を示した説明図である。
FIG. 6 is an explanatory diagram showing a new block movement of the robot according to an embodiment of the present invention.

【図7】 本発明の一実施形態によるロボットが前方壁
面に近接したときを示した説明図である。
FIG. 7 is an explanatory diagram showing a state in which the robot according to the embodiment of the present invention approaches a front wall surface.

【図8】 本発明の一実施形態によるロボットが左側壁
面との距離が変わったときを示した説明図である。
FIG. 8 is an explanatory diagram illustrating a state in which the distance between the robot and the left wall surface according to the embodiment of the present invention changes.

【図9】 本発明の一実施形態によるロボットの現在位
置の修正のための説明図である。
FIG. 9 is an explanatory diagram for correcting a current position of a robot according to an embodiment of the present invention.

【図10】 従来によるロボットの最適化経路仕組装置
の制御ブロック図である。
FIG. 10 is a control block diagram of a conventional robot optimization route mechanism.

【符号の説明】[Explanation of symbols]

10 駆動手段 11 左側モータ駆動部 12 右側モータ駆動部 20 走行距離検出手段 21 左側エンコーダ 22 右側エンコーダ 30 方向角検出手段 40 障害物感知手段 41 第1の障害物感知部 42 第2の障害物感知部 43 第3の障害物感知部 50 制御手段 60 メモリ手段 411 第1の超音波センサ 412 第1のセンサ駆動部 413 ステップインモータ 414 ステップインモータ駆動部 421 第2の超音波センサ 422 第2のセンサ駆動部 431 第3の超音波センサ 432 第3のセンサ駆動部 DESCRIPTION OF SYMBOLS 10 Drive means 11 Left motor drive part 12 Right motor drive part 20 Travel distance detection means 21 Left encoder 22 Right encoder 30 Direction angle detection means 40 Obstacle sensing means 41 First obstacle sensing part 42 Second obstacle sensing part 43 third obstacle sensing unit 50 control unit 60 memory unit 411 first ultrasonic sensor 412 first sensor drive unit 413 step-in motor 414 step-in motor drive unit 421 second ultrasonic sensor 422 second sensor Drive unit 431 Third ultrasonic sensor 432 Third sensor drive unit

フロントページの続き (56)参考文献 特開 昭63−131207(JP,A) 特開 平7−271435(JP,A) 特開 昭60−93522(JP,A) 特開 平6−131043(JP,A) 特開 平8−171416(JP,A) 特開 昭63−156203(JP,A) 特開 平1−180010(JP,A) (58)調査した分野(Int.Cl.7,DB名) B25J 13/08 B25J 5/00 G05D 1/02 Continuation of the front page (56) References JP-A-63-131207 (JP, A) JP-A-7-271435 (JP, A) JP-A-60-93522 (JP, A) JP-A-6-131043 (JP) JP-A-8-171416 (JP, A) JP-A-63-156203 (JP, A) JP-A-1-180010 (JP, A) (58) Fields studied (Int. Cl. 7 , DB Name) B25J 13/08 B25J 5/00 G05D 1/02

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 自ら移動しながら与えられた作業を行う
自走式ロボットにおいて、 前記ロボットを移動させる駆動手段と、 該駆動手段により移動されるロボットの走行距離を検出
する走行距離検出手段と、 前記駆動手段により移動されるロボットの走行方向変え
を検出する方向角度検出手段と、 前記ロボットの走行する領域内の障害物および壁面まで
の距離を感知する障害物感知手段と、 前記走行距離検出手段により検出された走行距離データ
および前記方向角度検出手段により検出された走行方向
データに基づいて前記ロボットの現在位置を演算して前
記駆動手段を制御する制御手段と、 前記走行距離検出手段により検出された走行距離デー
タ、前記方向角度検出手段により検出された走行方向デ
ータ、前記障害物感知手段により感知された障害物およ
び壁面にたいする環境情報を記憶するメモリ手段とを有
し、 前記制御手段は、前記障害物感知手段により感知された
前記ロボットの前方壁面までの距離によって、任意の方
向へ置かれた前記ロボットと前方壁面との角度を演算し
て、ロボットを前方壁面に垂直に整列させ、前記走行距
離検出手段により検出された走行距離および前記障害物
感知手段により感知された壁面との離隔距離によって前
記ロボットの走行する作業空間の環境情報を前記メモリ
手段に貯蔵することを特徴とするロボットの環境認識装
置。
1. A self-propelled robot that performs a given task while moving by itself, a driving unit that moves the robot, a traveling distance detection unit that detects a traveling distance of the robot moved by the driving unit, Direction angle detecting means for detecting a change in the traveling direction of the robot moved by the driving means; obstacle sensing means for sensing the distance to an obstacle and a wall in an area where the robot travels; and the traveling distance detecting means. Control means for calculating the current position of the robot based on the travel distance data detected by the control unit and the travel direction data detected by the direction angle detection means to control the drive means; and Traveling distance data, traveling direction data detected by the direction angle detecting means, Memory means for storing environmental information on the obstacle and the wall surface, wherein the control means senses the obstacle information by the obstacle sensing means.
Depending on the distance to the front wall of the robot,
Calculate the angle between the robot and the front wall
The robot is vertically aligned with the front wall surface, and the environment information of the working space in which the robot travels is determined based on the travel distance detected by the travel distance detection unit and the separation distance from the wall surface detected by the obstacle detection unit. An environment recognition device for a robot, wherein the environment is stored in the memory means.
【請求項2】 前記制御手段は、前記ロボットの走行す
る作業空間を障害物および壁面の境界面に沿って複数の
ブロックに仕分けることを特徴とする請求項1に記載の
ロボットの環境認識装置。
2. The robot environment recognition apparatus according to claim 1, wherein the control unit sorts a work space in which the robot travels into a plurality of blocks along a boundary between an obstacle and a wall surface.
【請求項3】 前記制御手段は、前記ロボットの走行す
る作業空間を複数に仕分けたそれぞれのブロックに環境
情報の必要データを貯蔵することを特徴とする請求項1
に記載のロボットの環境認識装置。
3. The system according to claim 1, wherein the control unit stores necessary data of environmental information in each of a plurality of divided work spaces in which the robot travels.
An environment recognition device for a robot according to item 1.
【請求項4】 所定の走行領域内を自ら移動しながら与
えられた作業を行うロボットの環境認識方法において、 障害物感知手段により感知された前記ロボットの前方壁
面までの距離によって、任意の方向へ置かれた前記ロボ
ットと前方壁面との角度を演算して、ロボットを前方壁
面に垂直に整列させる垂直整列ステップと、 前記ロボットが壁面に沿って移動しつつ前方壁面および
左右側壁面の距離を感知してブロックの必要データを収
集するデータ収集ステップと、 前記データ収集ステップで収集されたそれぞれのブロッ
クの必要データをまとめて環境地図を作成する地図作成
ステップとからなることを特徴とするロボットの環境認
識制御方法。
4. A method for recognizing an environment of a robot performing a given task while moving within a predetermined traveling area, wherein the robot moves in an arbitrary direction according to a distance to a front wall surface of the robot detected by an obstacle detecting means . A vertical alignment step of calculating an angle between the placed robot and a front wall surface to vertically align the robot with the front wall surface; and A data collection step of sensing the distance of the side wall surface to collect necessary data of the blocks, and a map creating step of creating an environmental map by combining the necessary data of the respective blocks collected in the data collection step. Characteristic robot environment recognition control method.
【請求項5】 前記ロボットは、前記地図作成ステップ
で作成された環境地図によって作業中の現在位置を修正
することを特徴とする請求項4記載のロボットの環境認
識制御方法。
5. The robot environment recognition control method according to claim 4, wherein the robot corrects the current position in the operation according to the environment map created in the map creation step.
JP29548896A 1995-12-01 1996-11-07 Robot environment recognition apparatus and control method thereof Expired - Fee Related JP3217281B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR199546079 1995-12-01
KR1019950046079A KR0168189B1 (en) 1995-12-01 1995-12-01 Control method and apparatus for recognition of robot environment

Publications (2)

Publication Number Publication Date
JPH09174471A JPH09174471A (en) 1997-07-08
JP3217281B2 true JP3217281B2 (en) 2001-10-09

Family

ID=19437383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29548896A Expired - Fee Related JP3217281B2 (en) 1995-12-01 1996-11-07 Robot environment recognition apparatus and control method thereof

Country Status (3)

Country Link
US (1) US5896488A (en)
JP (1) JP3217281B2 (en)
KR (1) KR0168189B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109421067A (en) * 2017-08-31 2019-03-05 Neato机器人技术公司 Robot virtual boundary

Families Citing this family (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240343A (en) * 1997-02-27 1998-09-11 Minolta Co Ltd Autonomously traveling vehicle
CN100387407C (en) * 1998-09-10 2008-05-14 索尼株式会社 Robot apparatus, method of controlling robot apparatus, method of display, and medium
US7429843B2 (en) * 2001-06-12 2008-09-30 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US6667592B2 (en) * 2001-08-13 2003-12-23 Intellibot, L.L.C. Mapped robot system
GB0126499D0 (en) * 2001-11-03 2002-01-02 Dyson Ltd An autonomous machine
GB0126497D0 (en) * 2001-11-03 2002-01-02 Dyson Ltd An autonomous machine
WO2003042788A2 (en) 2001-11-13 2003-05-22 Chromavision Medical Systems, Inc. A system for tracking biological samples
SE0200197L (en) * 2002-01-23 2003-07-24 Electrolux Ab Procedure for a device on wheels
US7648678B2 (en) 2002-12-20 2010-01-19 Dako Denmark A/S Method and system for pretreatment of tissue slides
US7875245B2 (en) * 2003-05-14 2011-01-25 Dako Denmark A/S Method and apparatus for automated pre-treatment and processing of biological samples
US7850912B2 (en) * 2003-05-14 2010-12-14 Dako Denmark A/S Method and apparatus for automated pre-treatment and processing of biological samples
US7584019B2 (en) * 2003-12-15 2009-09-01 Dako Denmark A/S Systems and methods for the automated pre-treatment and processing of biological samples
US7805220B2 (en) * 2003-03-14 2010-09-28 Sharper Image Acquisition Llc Robot vacuum with internal mapping system
JP2004345053A (en) * 2003-05-23 2004-12-09 Sony Corp Information collecting system and robot device
SE527498C2 (en) * 2003-05-27 2006-03-21 Stockholmsmaessan Ab Robotic system and method for treating a surface
WO2005036292A1 (en) * 2003-10-08 2005-04-21 Figla Co.,Ltd. Self-propelled working robot
DE102004004505B9 (en) * 2004-01-22 2010-08-05 Alfred Kärcher Gmbh & Co. Kg Soil cultivation device and method for its control
CA2556772A1 (en) 2004-03-02 2005-09-15 Dako Denmark A/S Reagent delivery system, dispensing device and container for a biological staining apparatus
US7706917B1 (en) * 2004-07-07 2010-04-27 Irobot Corporation Celestial navigation system for an autonomous robot
US7867443B2 (en) * 2004-07-23 2011-01-11 Dako Denmark A/S Method and apparatus for automated pre-treatment and processing of biological samples
US11835343B1 (en) * 2004-08-06 2023-12-05 AI Incorporated Method for constructing a map while performing work
US7840308B2 (en) * 2004-09-10 2010-11-23 Honda Motor Co., Ltd. Robot device control based on environment and position of a movable robot
JP4300199B2 (en) * 2005-06-13 2009-07-22 株式会社東芝 Mobile robot, mobile robot position and orientation calculation method, mobile robot autonomous traveling system
KR100748245B1 (en) * 2005-12-09 2007-08-10 한국전자통신연구원 Method for mapping and navigating mobile robot by artificial landmark and local coordinate
KR100772912B1 (en) * 2006-05-16 2007-11-05 삼성전자주식회사 Robot using absolute azimuth and method for mapping by the robot
KR100823739B1 (en) * 2006-12-08 2008-04-21 한국전자통신연구원 Surroundings mapping apparatus capable of applying quickly changed surroundings information in mobile robot and method thereof
KR100911472B1 (en) * 2007-07-19 2009-08-11 엘지전자 주식회사 Moving robot and operating method for the same
KR100883520B1 (en) 2007-07-23 2009-02-13 한국전자통신연구원 Method and apparatus for providing indoor eco-map
KR100902141B1 (en) * 2007-11-06 2009-06-09 에스티엑스조선주식회사 Position recognition system and control method of transferring vehicle
JP5349804B2 (en) * 2008-01-10 2013-11-20 株式会社日立産機システム Mobile robot system and control method thereof
WO2009106081A1 (en) 2008-02-29 2009-09-03 Dako Denmark A/S Systems and methods for tracking and providing workflow information
KR101457148B1 (en) 2008-05-21 2014-10-31 삼성전자 주식회사 Apparatus for localizing moving robot and method the same
CN102089486A (en) 2008-07-09 2011-06-08 天空燃料有限公司 Space frame connector
EP3193101A1 (en) * 2008-07-09 2017-07-19 Skyfuel, Inc. Solar collectors having slidably removable reflective panels for use in solar thermal applications
US8904774B2 (en) * 2008-08-22 2014-12-09 Skyfuel, Inc. Hydraulic-based rotational system for solar concentrators that resists high wind loads without a mechanical lock
US20100199972A1 (en) * 2009-01-14 2010-08-12 Skyfuel, Inc. Apparatus and Method for Building Linear Solar Collectors Directly from Rolls of Reflective Laminate Material
US20100256939A1 (en) * 2009-04-03 2010-10-07 The Regents Of The University Of Michigan Heading Error Removal System for Tracking Devices
US20110087450A1 (en) * 2009-04-03 2011-04-14 University Of Michigan Heading Error Removal System for Tracking Devices
KR101641237B1 (en) * 2009-11-20 2016-07-21 엘지전자 주식회사 Robot cleaner and controlling method of the same
JP2011129095A (en) * 2009-12-18 2011-06-30 Korea Electronics Telecommun Map creating method using autonomous traveling robot, optimal travel route computing method using the same, and robot control device carrying out the methods
KR101081927B1 (en) * 2010-05-15 2011-11-09 주식회사 일심글로발 Window cleaning apparatus and method for controlling the apparatus's moving
JP5062310B2 (en) * 2010-08-26 2012-10-31 村田機械株式会社 Traveling car
CN104487864B (en) 2012-08-27 2017-06-23 伊莱克斯公司 robot positioning system
CN103019240B (en) * 2012-11-30 2015-08-12 大连理工大学 A kind of AGV dolly plane positioning navigational system and method
KR102137923B1 (en) 2013-04-15 2020-07-24 에이비 엘렉트로룩스 Robotic vacuum cleaner with protruding sidebrush
JP6217952B2 (en) 2013-04-15 2017-10-25 アクティエボラゲット エレクトロラックス Robot vacuum cleaner
JP6750921B2 (en) 2013-12-19 2020-09-02 アクチエボラゲット エレクトロルックス Robot vacuum cleaner
KR102137857B1 (en) 2013-12-19 2020-07-24 에이비 엘렉트로룩스 Robotic cleaning device and method for landmark recognition
WO2015090404A1 (en) 2013-12-19 2015-06-25 Aktiebolaget Electrolux Prioritizing cleaning areas
EP3084538B1 (en) 2013-12-19 2017-11-01 Aktiebolaget Electrolux Robotic cleaning device with perimeter recording function
JP6494118B2 (en) 2013-12-19 2019-04-03 アクチエボラゲット エレクトロルックス Control method of robot cleaner associated with detection of obstacle climbing, and robot cleaner, program, and computer product having the method
EP3082544B1 (en) 2013-12-19 2020-10-07 Aktiebolaget Electrolux Robotic vacuum cleaner with side brush moving in spiral pattern
ES2675786T3 (en) 2013-12-19 2018-07-12 Aktiebolaget Electrolux Adaptive speed control of rotary side brush
WO2015090439A1 (en) 2013-12-20 2015-06-25 Aktiebolaget Electrolux Dust container
US10518416B2 (en) 2014-07-10 2019-12-31 Aktiebolaget Electrolux Method for detecting a measurement error in a robotic cleaning device
EP3177974A1 (en) 2014-08-06 2017-06-14 Alfred Kärcher GmbH & Co. KG Method for treating a floor surface and floor-treating device
EP3190939B1 (en) 2014-09-08 2021-07-21 Aktiebolaget Electrolux Robotic vacuum cleaner
CN106659344B (en) 2014-09-08 2019-10-25 伊莱克斯公司 Robotic vacuum cleaner
CN106998980B (en) 2014-12-10 2021-12-17 伊莱克斯公司 Floor type detection using laser sensors
CN114668335A (en) 2014-12-12 2022-06-28 伊莱克斯公司 Side brush and robot dust catcher
KR102339531B1 (en) 2014-12-16 2021-12-16 에이비 엘렉트로룩스 Experience-based roadmap for a robotic cleaning device
JP6532530B2 (en) 2014-12-16 2019-06-19 アクチエボラゲット エレクトロルックス How to clean a robot vacuum cleaner
US11099554B2 (en) 2015-04-17 2021-08-24 Aktiebolaget Electrolux Robotic cleaning device and a method of controlling the robotic cleaning device
EP3344104B1 (en) 2015-09-03 2020-12-30 Aktiebolaget Electrolux System of robotic cleaning devices
EP3430424B1 (en) 2016-03-15 2021-07-21 Aktiebolaget Electrolux Robotic cleaning device and a method at the robotic cleaning device of performing cliff detection
CN107235833B (en) * 2016-03-29 2020-07-10 天津大学 Process for preparing cis-but-2-ene-1, 4-dione derivatives
EP3454707B1 (en) 2016-05-11 2020-07-08 Aktiebolaget Electrolux Robotic cleaning device
CN107402567A (en) 2016-05-19 2017-11-28 科沃斯机器人股份有限公司 Assembly robot and its cruise path generating method
KR20220025250A (en) 2017-06-02 2022-03-03 에이비 엘렉트로룩스 Method of detecting a difference in level of a surface in front of a robotic cleaning device
US10482619B2 (en) 2017-07-27 2019-11-19 AI Incorporated Method and apparatus for combining data to construct a floor plan
US11348269B1 (en) 2017-07-27 2022-05-31 AI Incorporated Method and apparatus for combining data to construct a floor plan
KR20200058400A (en) 2017-09-26 2020-05-27 에이비 엘렉트로룩스 Control the movement of the robot cleaning device
US10612929B2 (en) * 2017-10-17 2020-04-07 AI Incorporated Discovering and plotting the boundary of an enclosure
US11393114B1 (en) 2017-11-08 2022-07-19 AI Incorporated Method and system for collaborative construction of a map
US11272823B2 (en) 2018-08-31 2022-03-15 Neato Robotics, Inc. Zone cleaning apparatus and method
SE544524C2 (en) * 2019-12-06 2022-06-28 Husqvarna Ab Robotic work tool system and method for defining a working area perimeter
US11561102B1 (en) 2020-04-17 2023-01-24 AI Incorporated Discovering and plotting the boundary of an enclosure
CN111551169B (en) * 2020-05-15 2021-12-07 广州支点创新科技有限责任公司 Robot map construction and positioning method and robot
CN111938513B (en) * 2020-06-30 2021-11-09 珠海市一微半导体有限公司 Robot obstacle-crossing edgewise path selection method, chip and robot
CN114872029B (en) * 2022-06-09 2024-02-02 深圳市巨龙创视科技有限公司 Robot vision recognition system

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62116205A (en) * 1985-11-15 1987-05-27 Casio Comput Co Ltd Ultrasonic sensor
JPH01180010A (en) * 1988-01-08 1989-07-18 Sanyo Electric Co Ltd Moving vehicle
JPH02212906A (en) * 1989-02-14 1990-08-24 Toshiba Corp Multi-leg type moving device
US5179329A (en) * 1989-04-25 1993-01-12 Shinko Electric Co., Ltd. Travel control method, travel control device, and mobile robot for mobile robot systems
JPH04168508A (en) * 1990-10-31 1992-06-16 Sanyo Electric Co Ltd Running robot
DE69222025T2 (en) * 1991-11-05 1998-02-05 Seiko Epson Corp MICRO ROBOT
JPH0680203A (en) * 1992-03-24 1994-03-22 East Japan Railway Co Control method for floor surface cleaning robot
US5280622A (en) * 1992-07-17 1994-01-18 Mitsubishi Semiconductor America, Inc. Combined light beam and ultrasonic transducer safety sensing system
US5548511A (en) * 1992-10-29 1996-08-20 White Consolidated Industries, Inc. Method for controlling self-running cleaning apparatus
US5456332A (en) * 1992-11-10 1995-10-10 The Board Of Regents Of The University Of Michigan Multiple-degree-of-freedom vehicle
KR0161031B1 (en) * 1993-09-09 1998-12-15 김광호 Position error correction device of robot
KR100197676B1 (en) * 1993-09-27 1999-06-15 윤종용 Robot cleaner
DE4407634A1 (en) * 1994-03-08 1995-09-14 Metabowerke Kg Circuit arrangement for speed control of electric motors
JP2778458B2 (en) * 1994-03-30 1998-07-23 日本電気株式会社 Traveling robot
KR970000582B1 (en) * 1994-03-31 1997-01-14 삼성전자 주식회사 Method for controlling driving of a robot cleaner
US5576947A (en) * 1994-06-30 1996-11-19 Siemens Corporate Research, Inc. Robot hallway traveler

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109421067A (en) * 2017-08-31 2019-03-05 Neato机器人技术公司 Robot virtual boundary

Also Published As

Publication number Publication date
US5896488A (en) 1999-04-20
JPH09174471A (en) 1997-07-08
KR970033627A (en) 1997-07-22
KR0168189B1 (en) 1999-02-01

Similar Documents

Publication Publication Date Title
JP3217281B2 (en) Robot environment recognition apparatus and control method thereof
US5804942A (en) Position determining apparatus and control method of robot
EP0490736B1 (en) Method for automatically controlling a travelling and cleaning operation of vacuum cleaners
Lankenau et al. A versatile and safe mobility assistant
EP0142594B1 (en) Control system for mobile robot
Paromtchik et al. Motion generation and control for parking an autonomous vehicle
KR920000946B1 (en) Vehicle
US5545960A (en) Autonomous mobile machine, and system and method for controlling a mobile machine
US5781697A (en) Method and apparatus for automatic running control of a robot
Fox et al. Controlling synchro-drive robots with the dynamic window approach to collision avoidance
JPS63501664A (en) Automatic control method and device for work vehicles
JPH07334239A (en) Apparatus and method for running control of robot
KR20200070087A (en) Autonomous Mobile Robot and Method for Driving Control the same
WO2014181647A1 (en) Autonomous moving body movement control device, autonomous moving body, and autonomous moving body control method
Cuesta et al. Intelligent control of nonholonomic mobile robots with fuzzy perception
JP2004133882A (en) Autonomous multi-platform robot system
JPS6093522A (en) Controller of moving robot
JPH0522926B2 (en)
JP3237500B2 (en) Autonomous mobile work vehicle
JPS59121408A (en) Controller of mobile robot
JPS59121406A (en) Controller of mobile robot
KR0161027B1 (en) Automatic moving control device and method for robot
JP2791048B2 (en) Control device for self-propelled robot
JPH01280807A (en) Method and device for guiding traveling object
JP2000039918A (en) Moving robot

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010626

LAPS Cancellation because of no payment of annual fees