JP4464912B2 - Robot control apparatus and autonomous mobile robot - Google Patents

Robot control apparatus and autonomous mobile robot Download PDF

Info

Publication number
JP4464912B2
JP4464912B2 JP2005349159A JP2005349159A JP4464912B2 JP 4464912 B2 JP4464912 B2 JP 4464912B2 JP 2005349159 A JP2005349159 A JP 2005349159A JP 2005349159 A JP2005349159 A JP 2005349159A JP 4464912 B2 JP4464912 B2 JP 4464912B2
Authority
JP
Japan
Prior art keywords
robot
unit
movement
person
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005349159A
Other languages
Japanese (ja)
Other versions
JP2006185438A (en
Inventor
隆 姉崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2005349159A priority Critical patent/JP4464912B2/en
Publication of JP2006185438A publication Critical patent/JP2006185438A/en
Application granted granted Critical
Publication of JP4464912B2 publication Critical patent/JP4464912B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、自律移動ロボットが自律移動で移動可能範囲を認識しつつ移動可能な経路を生成するロボット制御装置及び自律移動ロボットに関する。本発明は、特に誘導路として床面に部分的に磁気テープや反射テープ等を敷設せずに、例えば、自律移動ロボットにアレーアンテナ、人に送信機等を設け、ロボット前方に存在する人の方向角を時系列に検出し、人の移動に合わせてロボットも移動させ、基本経路を人が歩いて倣い経路教示して、移動可能範囲を認識しつつ移動可能な経路を生成するロボット制御装置及び自律移動ロボットに関する。 The present invention relates to a robot control apparatus and an autonomous mobile robot that generate a movable route while an autonomous mobile robot recognizes a movable range by autonomous movement . The present invention does not particularly lay a magnetic tape or a reflective tape partially on the floor surface as a guide path. For example, an autonomous mobile robot is provided with an array antenna, a person is provided with a transmitter, and the like. A robot control device that detects a direction angle in time series, moves a robot in accordance with the movement of a person, teaches a basic path by walking and follows a basic path, and generates a movable path while recognizing a movable range And an autonomous mobile robot .

従来技術では、自律移動ロボットの経路教示及び位置検出制御方法に関し、詳細に人手にて作成した地図情報が不可欠である。例えば特許文献1では、地図情報と移動ルートの記憶部と、車体の前部及び側部に設けたセンサからの位置情報に基づいて移動体を制御することで、誘導線などのガイドを不要にしている。   In the prior art, detailed manual map information is indispensable regarding the route teaching and position detection control method of the autonomous mobile robot. For example, in Patent Document 1, guides such as guide lines are made unnecessary by controlling a moving body based on map information and a storage unit for a moving route, and positional information from sensors provided on the front and side of a vehicle body. ing.

しかしながら、家庭環境における移動ロボット経路教示では、位置データを直接人に編集させ教示させることは実用的ではない。従来の技術は、床面上を移動する移動体の地図情報を記憶した記憶部と、前記移動体の前面に設けられた第1の距離センサと、前記移動体の側面に水平方向に設けられた複数個の第2の距離センサと、前記第1の距離センサ及び前記第2の距離センサの出力をそれぞれ信号処理する信号処理回路と、この信号処理回路の出力信号が入力され、前記第2の距離センサの検出距離に基づいて走行中のずれ量を求めると共に車体角を求め、且つ前記第1の距離センサ及び第2の距離センサの検出距離に基づいてコーナ部を検出すると共に前記記憶部に記憶されている地図情報に基づいて前記移動体の位置を検出する位置検出部と、この位置検出部の検出結果に基づいて前記移動体の移動方向を制御する制御部とを具備する。   However, in mobile robot route teaching in a home environment, it is not practical to let a person directly edit and teach position data. A conventional technique is provided in a horizontal direction on a storage unit that stores map information of a moving object that moves on a floor, a first distance sensor provided on the front surface of the moving object, and a side surface of the moving object. A plurality of second distance sensors, a signal processing circuit that performs signal processing on the outputs of the first distance sensor and the second distance sensor, and an output signal of the signal processing circuit. The amount of deviation during traveling is obtained based on the detection distance of the distance sensor, the vehicle body angle is obtained, the corner portion is detected based on the detection distances of the first distance sensor and the second distance sensor, and the storage portion A position detecting unit that detects the position of the moving body based on the map information stored in the control unit, and a control unit that controls the moving direction of the moving body based on the detection result of the position detecting unit.

前記従来の技術は、記憶されている地図情報に基づいて前記移動体の位置を検出し、この位置検出結果に基づいて前記移動体の移動方向を制御する方法である。地図を教示媒介としない方法は、従来技術で見あたらない。   The prior art is a method of detecting the position of the moving body based on stored map information and controlling the moving direction of the moving body based on the position detection result. There is no method in the prior art that does not use maps as teaching mediators.

従来の技術におけるロボット経路教示及び経路生成では、位置データを直接数値又は視覚情報で人に編集させて教示させるようにしている。   In robot path teaching and path generation in the prior art, position data is directly edited by numerical values or visual information to be taught by a person.

特許2825239(移動体の自動誘導制御装置 東芝)Patent 2825239 (Toshiba)

しかしながら、家庭環境における移動ロボット経路教示では、位置データを、直接、人に編集させて教示させることは実用的ではない。人の指示を順次追いかける等の手法の適用が課題である。   However, in mobile robot route teaching in a home environment, it is not practical to let a person edit and teach position data directly. The application of techniques such as chasing human instructions sequentially is a problem.

従って、本発明の目的は、位置データを、直接、人に編集させて教示させる必要がなく、基本経路を人が歩き、倣い経路を教示したのち、ロボットをその自律移動で移動可能な範囲を認識しつつ移動可能な経路を生成するロボット制御装置及び自律移動ロボットを提供することにある。 Therefore, the object of the present invention is not to let the person directly edit and teach the position data, and after walking the basic route and teaching the copying route, the range in which the robot can move by its autonomous movement is set. An object of the present invention is to provide a robot control device and an autonomous mobile robot that generate a movable route while recognizing.

前記目的を達成するために、本発明は以下のように構成する。   In order to achieve the above object, the present invention is configured as follows.

本発明の第1態様によれば、移動可能なロボットに搭載され、かつ、前記ロボットの前方に存在する移動体としての人を検知した後、前記人の移動を検知する人移動検知部と、
前記ロボットに搭載され、かつ、経路教示時、前記人移動検知部で検知された前記人の移動に合わせて前記ロボットを移動させる駆動装置と、
前記駆動装置で移動させられた前記ロボットの移動量を検知するロボット移動量検知部と、
前記ロボット移動量検知部で検知した前記移動量をあらわす移動量データを蓄積し経路教示データに変換する第1経路教示データ変換部と、
前記ロボットに搭載され、かつ、前記ロボットの周囲の障害物や前記ロボットが移動する空間の天井又は壁位置を検出する周囲物体検出部と、
前記第1経路教示データ変換部で変換された前記経路教示データに沿って前記駆動装置の駆動により前記ロボットが自律移動するとき、前記周囲物体検出部にて検出した前記障害物の位置より、前記経路教示データに対する前記ロボットのロボット移動可能範囲を算出するロボット移動可能範囲算出部と、
前記経路教示データと前記ロボット移動可能範囲算出部で算出された前記移動可能範囲とより、前記ロボットの自律移動用移動経路を生成する移動経路生成部とを備えて、
前記人移動検知部は、
予め、前記ロボットの周囲の、前記人の動きに合わせて検出する対応点の位置を算出及び配置する対応点位置算出配置部と、
時系列に複数の画像を取得する時系列複数画像取得部と、
前記時系列複数画像取得部により取得された前記時系列の複数の画像間にて、前記対応点位置算出配置部により配置された対応点を検出し、検出された対応点の複数の画像間での移動量を算出する移動量算出部と、
前記移動量算出部により算出した前記移動量より、前記人の移動に合致する対応点であるか否かを判断する移動体移動判断部と、
前記移動体移動判断部で得られた対応点群より、前記人が存在している範囲である移動体領域を抽出する移動体領域抽出部と、
前記ロボットの周囲のある範囲である前記ロボットの周囲の距離画像特定範囲の距離画像を算出する距離画像算出部と、
前記移動体領域抽出部で抽出した前記移動体領域の範囲に合わせるように、前記距離画像算出部で算出された前記距離画像特定範囲を移動させる距離画像特定範囲移動部と、
前記距離画像特定範囲移動部による前記移動後の距離画像の移動体領域を判定する移動体領域判定部と、
前記移動体領域判定部により得られた前記距離画像の移動体領域より前記人の位置を特定する移動体位置特定部と、
前記移動体位置特定部により前記距離画像上で特定された前記人の位置より、前記ロボットから前記人への距離を算出する距離算出部と、
予め前記人の動きに合わせて検出する対応点の位置を、前記人の位置に合わせて、その都度、変更する対応点位置算出配置変更部とを備えるように構成して、
前記移動経路生成部で生成された前記移動経路に従って、前記人移動検知部により前記人を特定しかつ継続して前記人と前記ロボットとの距離及び方向検知を行うことにより、前記ロボットを自律移動させるように制御する、ロボット制御装置。
本発明の第2態様によれば、前記周囲物体検出部が、前記ロボットの周囲の全方位の画像を取得可能な全方位画像入力系及び前記ロボットの周囲の障害物を検出可能な障害物検出部とを有して、前記ロボットの周囲の前記障害物や前記ロボットが移動する空間の天井又は壁位置を検出する、第1の態様に記載のロボット制御装置を提供する。
本発明の第3態様によれば、第1又は第2の態様に記載のロボット制御装置を備える、自律移動ロボットを提供する。
According to a first aspect of the present invention is mounted on a movable robot, and, after detection knowledge the human as a moving body existing in front of the robot, the human movement detection section for detecting a movement of the person When,
A driving device that is mounted on the robot and moves the robot in accordance with the movement of the person detected by the human movement detection unit during route teaching;
A robot movement amount detection unit for detecting a movement amount of the robot moved by the driving device;
A first route teaching data conversion unit that accumulates movement amount data representing the movement amount detected by the robot movement amount detection unit and converts the movement amount data into route teaching data;
It is mounted on the robot, and a peripheral object detection unit around the obstacles and the robot before Symbol robot detects the ceiling or wall position of the space to be moved,
When the robot autonomously moves by driving the driving device along the route teaching data converted by the first route teaching data conversion unit, the position of the obstacle detected by the surrounding object detection unit is A robot movable range calculator that calculates a robot movable range of the robot with respect to route teaching data;
A movement path generation unit that generates a movement path for autonomous movement of the robot based on the path teaching data and the movement range calculated by the robot movement range calculation unit;
The human movement detector is
A corresponding point position calculating and arranging unit for calculating and arranging the position of corresponding points to be detected according to the movement of the person around the robot in advance;
A time-series multiple image acquisition unit that acquires a plurality of images in time series;
Corresponding points arranged by the corresponding point position calculating and arranging unit are detected between the time-series images acquired by the time-series plural image acquiring unit, and between the detected images of the corresponding points are detected. A movement amount calculation unit for calculating the movement amount of
A moving body movement determination unit that determines whether the movement amount calculated by the movement amount calculation unit is a corresponding point that matches the movement of the person;
From the corresponding point group obtained by the mobile body movement determination unit, a mobile body region extraction unit that extracts a mobile body region that is a range where the person exists,
A distance image calculation unit that calculates a distance image of a distance image specific range around the robot that is a certain range around the robot;
A distance image specifying range moving unit that moves the distance image specifying range calculated by the distance image calculating unit so as to match the range of the moving object region extracted by the moving object region extracting unit;
A moving object region determination unit that determines a moving object region of the distance image after the movement by the distance image specific range moving unit;
A moving body position specifying unit that specifies the position of the person from the moving body area of the distance image obtained by the moving body area determination unit;
A distance calculating unit that calculates a distance from the robot to the person based on the position of the person specified on the distance image by the moving body position specifying unit;
The position of the corresponding point to be detected according to the movement of the person in advance is configured to include a corresponding point position calculation arrangement changing unit that changes each time according to the position of the person,
According to the movement route generated by the movement route generation unit, the person movement detection unit identifies the person and continuously detects the distance and direction between the person and the robot, thereby autonomously moving the robot. A robot controller that controls
According to the second aspect of the present invention, the surrounding object detection unit can acquire an omnidirectional image around the robot and an obstacle detection capable of detecting an obstacle around the robot. The robot control device according to the first aspect is provided for detecting the obstacle around the robot and a ceiling or wall position of a space in which the robot moves.
According to a third aspect of the present invention, there is provided an autonomous mobile robot comprising the robot control device according to the first or second aspect.

上述のように、本発明のロボット制御装置によれば、移動体を特定し継続して移動体の(距離・方向)検知を行うことができる。   As described above, according to the robot control apparatus of the present invention, it is possible to identify a moving body and continuously detect the distance (direction / direction) of the moving body.

本発明のロボット制御装置によれば、前記全方位画像入力部の一例としてのロボット付属全方位カメラにて、天井・壁面の全景画像を入力し、予め画像入力記憶した目標地点の天井・壁面の全景画像との位置ずれ情報を算出し、例えばロボットの駆動装置の車輪付属エンコーダによる経路積算値及び位置ズレ情報を台車運動方程式に算入し台車位置制御を行い、移動しながら目標地点からのずれを修正し、ロボットなどの作業機器による屋内作業を実施するものである。   According to the robot control apparatus of the present invention, a panoramic image of the ceiling / wall surface is input by the omnidirectional camera attached to the robot as an example of the omnidirectional image input unit, and the ceiling / wall surface of the target point stored in advance by image input is stored. Calculate the position deviation information with the panoramic image, for example, add the path integrated value and position deviation information by the wheel attached encoder of the robot drive unit to the carriage motion equation and control the carriage position, and move the deviation from the target point while moving It is corrected and the indoor work is carried out by a work device such as a robot.

これにより、詳細に作成された地図情報や、床面に設置された磁気テープ等を必要とせず、なおかつ、屋内の様々な場面に対応して、ロボットを移動させることが可能となる。   As a result, it is possible to move the robot in accordance with various indoor scenes without requiring detailed map information or magnetic tape installed on the floor surface.

本発明によると、移動中での位置ズレ修正が実現可能であり、多数地点での作業を連続で短時間に行うことができる。さらに、目標地点の天井・壁面の全景画像を画像入力記憶すれば、所謂ランドマーク等の固定位置指定が不要となるものである。   According to the present invention, it is possible to correct misalignment during movement, and work at multiple points can be performed continuously in a short time. Further, if a panoramic image of the ceiling or wall surface of the target point is input and stored, designation of a fixed position such as a so-called landmark becomes unnecessary.

本発明の記述を続ける前に、添付図面において同じ部品については同じ参照符号を付している。   Before continuing the description of the present invention, the same parts are denoted by the same reference numerals in the accompanying drawings.

以下、本発明による種々の実施形態について添付図面に沿って詳述する。   Hereinafter, various embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

(第1実施形態)
図1Aに示すように、本発明の第1実施形態にかかるロボット制御装置は、大略平面の走行床面105上を走行可能なロボット1に搭載されて、移動ロボット1の前後進、及び左右側の移動を制御するものである。このロボット制御装置は、具体的には、駆動装置10と、走行距離検出部20と、方向角検出部30と、人移動検知部31と、ロボット移動量検出部32と、ロボット基本経路教示データ変換部33と、ロボット基本経路教示データ蓄積部34と、移動可能範囲算出部35と、障害物検出部36と、移動経路生成部37と、駆動装置10から移動経路生成部37までをそれぞれ動作制御する制御部50とを備えるように構成している。
(First embodiment)
As shown in FIG. 1A, the robot control apparatus according to the first embodiment of the present invention is mounted on a robot 1 that can travel on a substantially flat traveling floor surface 105, and the mobile robot 1 moves forward and backward. It controls the movement of. Specifically, the robot control device includes a driving device 10, a travel distance detection unit 20, a direction angle detection unit 30, a human movement detection unit 31, a robot movement amount detection unit 32, and robot basic path teaching data. The conversion unit 33, the robot basic route teaching data storage unit 34, the movable range calculation unit 35, the obstacle detection unit 36, the movement route generation unit 37, and the drive device 10 to the movement route generation unit 37 are operated. The control part 50 to be controlled is provided.

前記駆動装置10は、前記移動ロボット1を右側に移動させるように左側走行モータ111を駆動する左側モータ駆動部11と、前記移動ロボット1を左側に移動させるよう右側走行モータ121を駆動する右側モータ駆動部12とを備えるように構成されている。前記左側走行モータ111と右側走行モータ121には、図1B及び図2に示す後側駆動輪100がそれぞれ取付けられており、前記移動ロボット1を右側に移動させるときには、左側モータ駆動部11により、右側走行モータ121の回転よりも多く、左側走行モータ111を回転させる。逆に、前記移動ロボット1を左側に移動させるときには、右側モータ駆動部12により、左側走行モータ111の回転よりも多く、右側走行モータ121を回転させる。前記移動ロボット1を前進又は後退させるときには、左側モータ駆動部11と右側モータ駆動部12とを同期して、左側走行モータ111と右側走行モータ121とを同様に正回転又は逆回転させるようにしている。なお、ロボット1の前側には、一対の前側補助走行輪101が回動可能に回転自在に配置されている。   The driving device 10 includes a left motor driving unit 11 that drives the left traveling motor 111 to move the mobile robot 1 to the right, and a right motor that drives the right traveling motor 121 to move the mobile robot 1 to the left. It is comprised so that the drive part 12 may be provided. The left traveling motor 111 and the right traveling motor 121 are respectively provided with rear drive wheels 100 shown in FIGS. 1B and 2. When the mobile robot 1 is moved to the right, the left motor drive unit 11 The left traveling motor 111 is rotated more than the rotation of the right traveling motor 121. Conversely, when the mobile robot 1 is moved to the left side, the right side motor drive unit 12 rotates the right side travel motor 121 more than the rotation of the left side travel motor 111. When the mobile robot 1 is moved forward or backward, the left side motor drive unit 11 and the right side motor drive unit 12 are synchronized, and the left side travel motor 111 and the right side travel motor 121 are similarly rotated forward or reverse. Yes. A pair of front auxiliary traveling wheels 101 are rotatably disposed on the front side of the robot 1 so as to be rotatable.

さらに、走行距離検出部20は、前記駆動装置10により移動させられる移動ロボット1の走行距離を検出して走行距離データを出力するものである。前記走行距離検出部20の具体的な構成例としては、前記駆動装置10の制御により駆動する左側駆動輪100の回転数、すなわち、前記左側走行モータ111の回転数に比例するパルス信号を発生させて前記移動ロボット1が右側に移動した走行距離を検出する左側エンコーダ21と、前記駆動装置10の制御により駆動する右側駆動輪100の回転数、すなわち、前記右側走行モータ121の回転数に比例するパルス信号を発生させて前記移動ロボット1が左側に移動した走行距離を検出する右側エンコーダ22とを備えるように構成されて、前記移動ロボット1が右側に移動した走行距離と左側に移動した走行距離とを基に、移動ロボット1の走行距離を検出して走行距離データを出力するようにしている。   Further, the travel distance detection unit 20 detects the travel distance of the mobile robot 1 that is moved by the driving device 10 and outputs travel distance data. As a specific configuration example of the travel distance detection unit 20, a pulse signal proportional to the rotation speed of the left drive wheel 100 driven by the control of the drive device 10, that is, the rotation speed of the left travel motor 111 is generated. Thus, it is proportional to the rotation speed of the left encoder 21 that detects the travel distance that the mobile robot 1 has moved to the right side, and the right drive wheel 100 that is driven by the control of the drive device 10, that is, the rotation speed of the right travel motor 121. A right encoder 22 that detects a travel distance that the mobile robot 1 has moved to the left side by generating a pulse signal, and a travel distance that the mobile robot 1 has moved to the right side and a travel distance that has moved to the left side; Based on the above, the travel distance of the mobile robot 1 is detected and travel distance data is output.

方向角検出部30は、移動ロボット1において、前記駆動装置10により移動される移動ロボット1の走行方向変化を検出して、走行方向データを出力するものである。例えば、左側エンコーダ21からの左側駆動輪100の回転数を積算して左側駆動輪100の移動量とし、右側エンコーダ22からの右側駆動輪100の回転数を積算して右側駆動輪100の移動量とし、両方の移動量の情報からロボット1の走行方向変化を算出して、走行方向データを出力すればよい。   The direction angle detection unit 30 detects a change in the traveling direction of the mobile robot 1 moved by the driving device 10 in the mobile robot 1 and outputs traveling direction data. For example, the number of rotations of the left driving wheel 100 from the left encoder 21 is integrated to obtain the amount of movement of the left driving wheel 100, and the number of rotations of the right driving wheel 100 from the right encoder 22 is integrated to calculate the amount of movement of the right driving wheel 100. Then, the travel direction change of the robot 1 may be calculated from the information of both movement amounts, and the travel direction data may be output.

人移動検知部31は、移動ロボット1において、図11Aの人検出に示すように、ロボット1の例えば後部に立設された支柱32bの上端に固定された、全方位画像入力系の一例としての全方位光学系32aにより撮像して得られた画像データ及びオプティカルフロー演算を用いてロボット1の周囲に存在する人を検出する。具体的には、オプティカルフロー演算の結果より、全周囲画像のうち、一定の角度(30°〜100°、ベストは70°程度)の中に、連続して(全周囲画像の径方向に長さを有する)物体が存在している場合、人102が存在していると判断して人102を検出し、その中心角度に、ロボット1の例えば前部に配置されたステレオカメラ31a,31bを向けている。   The human movement detection unit 31 is an example of an omnidirectional image input system that is fixed to the upper end of a support column 32b erected on the rear of the robot 1, for example, as shown in FIG. A person existing around the robot 1 is detected using image data obtained by imaging with the omnidirectional optical system 32a and optical flow calculation. Specifically, from the result of the optical flow calculation, it is continuously (in the radial direction of the all-around image) within a certain angle (30 ° to 100 °, the best is about 70 °) in the all-around image. If an object is present, it is determined that the person 102 is present, and the person 102 is detected, and stereo cameras 31a and 31b disposed at the center of the robot 1, for example, at the center angle are detected. It is aimed.

さらに図11Bなどのロボット1による人追随に示すように、ロボット1の例えば前部に配置されたステレオカメラ系31a,31bにより撮像して得られた画像データを用いてロボット1の前方を移動する人102を検出し、ロボット1の前方に存在する人102の方向角及び距離を検出して、人102の方向角及び距離データを出力する。具体的には、全周囲画像で検出された人の領域に基づき、ステレオカメラ系31a,31bにより撮像して得られた画像データの中で人の部分の画像の濃淡値(距離値)を平均して、人102の位置データ(ロボット1と人102との距離データ)とを算出し、人102の方向角及び距離を検出して、人102の方向角及び距離データを出力する。   Further, as shown in FIG. 11B and the like, the robot 1 moves in front of the robot 1 using image data obtained by imaging with the stereo camera systems 31a and 31b arranged at the front portion of the robot 1, for example. The person 102 is detected, the direction angle and distance of the person 102 existing in front of the robot 1 are detected, and the direction angle and distance data of the person 102 are output. Specifically, based on the person's area detected in the entire surrounding image, the gray value (distance value) of the image of the person part in the image data obtained by imaging with the stereo camera systems 31a and 31b is averaged. Then, the position data of the person 102 (distance data between the robot 1 and the person 102) is calculated, the direction angle and distance of the person 102 are detected, and the direction angle and distance data of the person 102 are output.

ここで、全方位光学系32aは、例えば、全方位カメラより構成されるものである。全方位カメラとは、反射光学系を利用したものであり、上向きに設置した1つのカメラと、その上に設置した複合反射ミラーから構成されて、前記1つのカメラによって、前記複合反射ミラーに反射した周囲の全方位の画像を取得することができる。ここで、オプティカルフローとは、例えば全方位光学系32aで所定時間毎に撮像した撮像画像フレーム間の差分だけでは、ロボット1がどのように移動しているかを求めることができないことから、ロボット1がどのように移動しているかを調べるため、フレーム中の各点がどのような速度ベクトルを持っているかを求めたものである(図13参照)。   Here, the omnidirectional optical system 32a is composed of, for example, an omnidirectional camera. An omnidirectional camera uses a reflective optical system, and is composed of a single camera installed upward and a composite reflection mirror installed on the camera, and is reflected by the single camera on the composite reflection mirror. It is possible to acquire an image of all surrounding directions. Here, the optical flow is, for example, that it is not possible to determine how the robot 1 is moving only by the difference between the captured image frames captured every predetermined time by the omnidirectional optical system 32a. In order to investigate how the frame moves, it is obtained what velocity vector each point in the frame has (see FIG. 13).

ロボット移動量検出部32は、前記人移動検知部31により検知された前記方向角及び前記距離を時系列に監視し、同時に時系列に全方位光学系32aによるロボット1の上方でかつロボット1が移動する部屋の天井全景の画像を撮像して天井全景画像データを得るとともに、人の移動軌跡(経路)に合わせて(人の移動経路を再現しながら)ロボット1を駆動装置10により移動させ、前記方向角検出部30及び前記走行距離検出部20から出力されるロボット1の移動方向データ及び移動距離データを用いて、ロボット1の移動方向及び移動距離よりなる移動量を検出して移動量データをロボット基本経路教示データ変換部33などに出力する。ロボット1の移動量は、例えば、左側エンコーダ21からの左側駆動輪100の回転数を積算して左側駆動輪100の移動量とし、右側エンコーダ22からの右側駆動輪100の回転数を積算して右側駆動輪100の移動量とし、両方の移動量の情報からロボット1の移動量を算出すればよい。   The robot movement amount detection unit 32 monitors the direction angle and the distance detected by the human movement detection unit 31 in time series, and at the same time in time series above the robot 1 by the omnidirectional optical system 32a. An image of the entire panoramic view of the moving room is captured to obtain the panoramic view image data, and the robot 1 is moved by the driving device 10 in accordance with the movement locus (path) of the person (while reproducing the movement path of the person). Using the movement direction data and movement distance data of the robot 1 output from the direction angle detection unit 30 and the travel distance detection unit 20, a movement amount composed of the movement direction and movement distance of the robot 1 is detected, and movement amount data Is output to the robot basic route teaching data converter 33 and the like. The movement amount of the robot 1 is obtained by, for example, accumulating the rotation speed of the left driving wheel 100 from the left encoder 21 to obtain the movement amount of the left driving wheel 100 and adding the rotation speed of the right driving wheel 100 from the right encoder 22. The amount of movement of the right drive wheel 100 is taken as the amount of movement, and the amount of movement of the robot 1 may be calculated from information on both amounts of movement.

ロボット基本経路教示データ変換部33は、前記検出された移動量のデータ(ロボット1自体の移動方向及び移動距離、全方位光学系32aの天井全景画像データ―図9Bの教示結果)を時系列に蓄積して、基本経路教示データに変換してロボット基本経路教示データ蓄積部34などに出力する。   The robot basic route teaching data conversion unit 33 sets the detected movement amount data (moving direction and moving distance of the robot 1 itself, panoramic view image data of the omnidirectional optical system 32a—the teaching result of FIG. 9B) in time series. Accumulated, converted into basic route teaching data, and output to the robot basic route teaching data storage unit 34 and the like.

ロボット基本経路教示データ蓄積部34は、ロボット基本経路教示データ変換部33によって出力されたロボット基本経路教示データを蓄積して移動可能範囲算出部35などに出力している。   The robot basic route teaching data accumulation unit 34 accumulates the robot basic route teaching data output by the robot basic route teaching data conversion unit 33 and outputs it to the movable range calculation unit 35 and the like.

移動可能範囲算出部35は、前記ロボット基本経路教示データ蓄積部34で蓄積された前記ロボット基本経路教示データを基にロボット1を自律移動させながら、ロボット1の例えば前部両側に配置された例えば超音波センサ等の障害物検出部36で障害物103の位置を検出し算出された障害物情報を用いて、ロボット1の移動が障害物103などにより阻害されることなくロボット1が基本経路104に対して幅方向に移動可能な範囲(移動可能範囲)104aのデータ、すなわち、移動可能範囲データを算出して移動経路生成部37などに出力する。   The movable range calculation unit 35 is arranged, for example, on both sides of the front part of the robot 1 while autonomously moving the robot 1 based on the robot basic route teaching data stored in the robot basic route teaching data storage unit 34. Using the obstacle information calculated by detecting the position of the obstacle 103 by the obstacle detection unit 36 such as an ultrasonic sensor, the robot 1 moves to the basic route 104 without being obstructed by the obstacle 103 or the like. The data of the range (movable range) 104a that can be moved in the width direction, that is, the movable range data is calculated and output to the movement route generation unit 37 and the like.

移動経路生成部37は、前記移動可能範囲算出部35にて出力された移動可能範囲データより、ロボット1に最適な移動経路を生成して出力する。   The movement route generation unit 37 generates and outputs an optimal movement route for the robot 1 from the movable range data output by the movable range calculation unit 35.

また、図1Aにおいて、制御部50には、前記走行距離検出部20により検出された走行距離データ、及び前記方向角検出部30により検出された走行方向データが所定時間間隔で入力される。そして、制御部50に入力された走行距離データと走行方向データとを基に前記移動ロボット1の現在位置を制御部50により演算し、その演算結果により得られた前記移動ロボット1の現在位置と移動経路生成部37から出力された移動経路を基に駆動装置10を制御部50により駆動制御して、前記移動ロボット1が、正常軌道である移動経路から逸脱せずに、目標地点まで正確に走行できるよう動作制御する中央処理装置(CPU)として制御部50が構成されている。なお、制御部50は、他の部分の動作制御も行うようにしている。   Further, in FIG. 1A, the travel distance data detected by the travel distance detector 20 and the travel direction data detected by the direction angle detector 30 are input to the control unit 50 at predetermined time intervals. Then, the control unit 50 calculates the current position of the mobile robot 1 based on the travel distance data and the travel direction data input to the control unit 50, and the current position of the mobile robot 1 obtained from the calculation result is calculated. The drive unit 10 is driven and controlled by the control unit 50 based on the movement path output from the movement path generation unit 37, so that the mobile robot 1 can accurately reach the target point without departing from the movement path that is a normal path. A control unit 50 is configured as a central processing unit (CPU) that performs operation control so that the vehicle can run. Note that the control unit 50 also controls the operation of other parts.

以下、前記のように構成された移動ロボット1の位置決め装置及び方法、及びその制御装置及び方法の作用、効果について述べる。   Hereinafter, the operation and effect of the positioning device and method of the mobile robot 1 configured as described above, and the control device and method thereof will be described.

図3は、移動ロボット1の基本経路直接教示方法を示す。このロボット1の基本経路直接教示方法は、基本経路沿いに進む人102の後をロボット1が追いかけることにより、ロボット1が基本経路104沿いに移動し、このロボット移動時の位置情報をロボット1の基本経路教示データ蓄積部34に累積させて、累積した位置情報を基にロボット基本経路教示データ変換部33がロボット1の基本経路教示データに変換して、基本経路教示データを基本経路教示データ蓄積部34に蓄積させる。   FIG. 3 shows a basic route direct teaching method of the mobile robot 1. In this method for directly teaching the basic route of the robot 1, the robot 1 moves along the basic route 104 when the robot 1 follows the person 102 that travels along the basic route. Accumulated in the basic route teaching data accumulating unit 34, based on the accumulated position information, the robot basic route teaching data converting unit 33 converts the basic route teaching data into the basic route teaching data of the robot 1 and accumulates the basic route teaching data. The data is accumulated in the unit 34.

この基本経路直接教示方法の具体な方法としては、人102の移動検知部31の全方位画像入力系32a等を用いてロボット1の周囲例えば前方に存在する人102を検出しながら、ロボット1の駆動装置10を駆動することにより、基本経路104を歩いている人102の後をロボット1が追いかけるように移動する。すなわち、ロボット1と人102との間の距離が許容範囲(例えば、人102がロボット1に接触せずかつ全方位画像入力系32aで取得する画像内から人102が外れない程度の距離の範囲)内に入るように、ロボット1の駆動装置10を制御部50が駆動制御しながらロボット1が移動しているとき、ロボット移動時の位置情報を基本経路教示データ蓄積部34に累積して蓄積し、ロボット基本経路教示データとする。なお、図3において、103は障害物である。   As a specific method of this basic route direct teaching method, while detecting the person 102 existing around the robot 1 using, for example, the omnidirectional image input system 32a of the movement detection unit 31 of the person 102, the robot 1 By driving the driving device 10, the robot 1 moves so as to follow the person 102 walking along the basic route 104. That is, the distance between the robot 1 and the person 102 is within an allowable range (for example, a distance range in which the person 102 does not come into contact with the robot 1 and the person 102 does not deviate from the image acquired by the omnidirectional image input system 32a. ) When the robot 1 is moving while the control unit 50 drives and controls the driving device 10 of the robot 1, the position information at the time of robot movement is accumulated and accumulated in the basic route teaching data accumulation unit 34. And the robot basic route teaching data. In FIG. 3, reference numeral 103 denotes an obstacle.

図4は、ロボット1による移動可能範囲追加学習を示す。移動可能範囲追加学習とは、ロボット基本経路教示データに関連して、障害物103などを避けるときに移動可能な範囲である、移動可能範囲を追加して学習することを意味する。   FIG. 4 shows the movable range additional learning by the robot 1. The movable range additional learning means learning by adding a movable range, which is a movable range when avoiding the obstacle 103, in relation to the robot basic route teaching data.

人102によるロボット基本経路教示データを基に、例えば超音波センサ等の障害物検出部36で検出された障害物の位置や大きさなどの障害物情報を用い、ロボット自律移動時にロボット1が障害物等103に直面しそうになる場合、その都度、制御部50で駆動装置10を制御して、障害物103の手前でロボット1に障害物103を回避させ、再び、ロボット1に基本経路104に沿って自律移動させる。これを障害物等103にロボット1が直面しそうになる毎に、その都度、繰り返してロボット基本経路教示データをロボット1の走行床面105沿いに拡張する。最終的に拡張して得られた最終拡張平面を、ロボット1の移動可能範囲104aとして基本経路教示データ蓄積部34に記憶する。   Based on the robot basic route teaching data by the person 102, for example, obstacle information such as the position and size of the obstacle detected by the obstacle detection unit 36 such as an ultrasonic sensor is used. When an object 103 is likely to be faced, the controller 50 is controlled by the control unit 50 each time, causing the robot 1 to avoid the obstacle 103 before the obstacle 103, and again causing the robot 1 to enter the basic path 104. Move autonomously along. Each time the robot 1 is likely to face the obstacle 103 or the like, the robot basic route teaching data is repeatedly expanded along the traveling floor surface 105 of the robot 1 each time. The final expanded plane obtained by final expansion is stored in the basic route teaching data storage unit 34 as the movable range 104a of the robot 1.

図5は、ロボット1による移動可能範囲内経路生成を示す。   FIG. 5 shows generation of a movable range route by the robot 1.

移動経路生成部37は、前記移動可能範囲算出部35にて得られた移動可能範囲104aより、ロボット1に最適な移動経路106を生成する。基本的には、移動可能範囲104aの平面の幅方向中央部を移動経路106として生成する。具体的には、まず、移動可能範囲104aの平面の幅方向の成分106aを所定間隔毎に抽出し、次いで、幅方向の成分106aの中央部を結んで移動経路106として生成する。   The movement path generation unit 37 generates a movement path 106 that is optimal for the robot 1 from the movement range 104 a obtained by the movement range calculation unit 35. Basically, the central portion in the width direction of the plane of the movable range 104 a is generated as the movement path 106. Specifically, first, the width direction component 106a of the plane of the movable range 104a is extracted at predetermined intervals, and then the central portion of the width direction component 106a is connected to generate the movement path 106.

ここで、後追い教示において、教示を行うオペレータである人102の移動方向情報のみを使い、人102の位置をそのまま追いかけた場合には、図6Aに示すように、人102が、赤ん坊のいる場所107bを避けようとして大略90度に曲がるような経路107aを進む。その結果として、図6Bに示すように、そのコーナ付近でロボット1は近道107cを選択するように動作してしまうと、ロボット1が、赤ん坊のいる場所107bを移動することになり、正しい教示ができない場合がある。   Here, in the follow-up teaching, when only the movement direction information of the person 102 who is the teaching is used and the position of the person 102 is followed as it is, as shown in FIG. In order to avoid 107b, the route 107a is turned around 90 degrees. As a result, as shown in FIG. 6B, if the robot 1 operates to select the shortcut 107c in the vicinity of the corner, the robot 1 moves in the place 107b where the baby is present, and correct teaching is performed. There are cases where it is not possible.

そこで、この第1実施形態では、人102の移動方向と移動距離の両方の情報を用いて、図6Cのようなシステムにより、オペレータの経路である経路107aをロボット1の経路107dとする制御の実現を図る(図6B参照)。   Therefore, in the first embodiment, by using the information on both the moving direction and the moving distance of the person 102, the system shown in FIG. 6C is used to control the route 107a that is the operator's route as the route 107d of the robot 1. Realize (see FIG. 6B).

図6Cのシステム60は、前記全方位光学系32aとステレオカメラ系31a,31bなどに相当するオペレータ相対位置検知センサ61と、前記走行距離検出部20と前記方向角検出部30と制御部50などとより構成するロボット現在位置検出部62とにより、オペレータである人102の教示経路に対する位置を検出し、人102の経路を経路データベース64に記憶する。また、ロボット現在位置検出部62により検出されたロボット1の現在位置に基づき、教示経路を形成し、形成された教示経路を教示経路データベース63に記憶させる。そして、ロボット現在位置検出部62により検出されるロボット1の現在位置と、経路データベース64に記憶された人102の経路と、教示経路データベース63に記憶された教示経路とに基づき、人102に対する後追い経路を形成して、形成された後追い経路に沿ってロボット1が移動するように、制御部50で駆動装置10を駆動制御してロボット1を移動させる。   6C includes an operator relative position detection sensor 61 corresponding to the omnidirectional optical system 32a and stereo camera systems 31a and 31b, the travel distance detection unit 20, the direction angle detection unit 30, the control unit 50, and the like. The robot current position detection unit 62 configured as described above detects the position of the person 102 who is the operator with respect to the teaching path, and stores the path of the person 102 in the path database 64. Further, a teaching path is formed based on the current position of the robot 1 detected by the robot current position detecting unit 62, and the formed teaching path is stored in the teaching path database 63. Based on the current position of the robot 1 detected by the robot current position detection unit 62, the route of the person 102 stored in the route database 64, and the taught route stored in the taught route database 63, the follow-up to the person 102 is followed. A path is formed, and the control unit 50 controls the drive device 10 to move the robot 1 so that the robot 1 moves along the formed follow-up path.

より具体的なロボット1の移動は以下の通りである。   More specific movement of the robot 1 is as follows.

(1) ロボット1が、ロボット1の進行経路と現在のオペレータ102の相対位置を全方位光学系32aで撮像して検出し、オペレータである人102の進む経路を生成し、生成した経路を経路データベース64に保存する(図6B)。   (1) The robot 1 picks up and detects the travel position of the robot 1 and the current relative position of the operator 102 with the omnidirectional optical system 32a, generates a path traveled by the person 102 who is an operator, and routes the generated path. The data is stored in the database 64 (FIG. 6B).

(2) その経路データベース64に保存したオペレータ102の経路を、現在のロボット1の経路と比較して、ロボット1の進行方向(移動方向)を決め、決められたロボット1の進行方向(移動方向)に基づき、制御部50により駆動装置10を駆動制御して、ロボット1が人102の後追いを行う。   (2) The route of the operator 102 stored in the route database 64 is compared with the current route of the robot 1 to determine the traveling direction (moving direction) of the robot 1, and the determined traveling direction (moving direction) of the robot 1 ), The drive unit 10 is driven and controlled by the control unit 50, and the robot 1 follows the person 102.

前記のごとく、ロボット1が人102の後を追いかけ、ロボット移動時の位置情報を基本経路教示データ蓄積部34に累積し、累積した位置情報を基に基本経路教示データを移動可能範囲算出部35により作成し、作成された基本経路教示データを基に制御部50により駆動装置10を駆動制御してロボット1が基本経路104沿いに自律移動する手法を「プレイバック型ナビゲーション」と呼ぶことにする。   As described above, the robot 1 follows the person 102, accumulates position information when the robot moves, in the basic route teaching data storage unit 34, and moves the basic route teaching data based on the accumulated position information to a movable range calculation unit 35. The method in which the robot 1 autonomously moves along the basic route 104 by controlling the drive device 10 by the control unit 50 based on the generated basic route teaching data is referred to as “playback navigation”. .

このプレイバック型ナビゲーションの内容を改めて記述すると、ロボット1が人に追随するように移動して、ロボット1が安全に移動可能な基本経路104をロボット1が学習し、ロボット1が自律移動するときには、ロボット1が、前記学習した基本経路104に沿ってプレイバック自律移動するものである。   When the content of this playback type navigation is described again, when the robot 1 moves so as to follow a person, the robot 1 learns the basic route 104 on which the robot 1 can move safely, and the robot 1 moves autonomously. The robot 1 autonomously moves in playback along the learned basic route 104.

図7のプレイバック型ナビゲーションの動作フローに示すように、プレイバック型ナビゲーションの動作は、2つのステップS71とS72とより構成されている。   As shown in the operation flow of the playback type navigation in FIG. 7, the operation of the playback type navigation is composed of two steps S71 and S72.

1つ目のステップS71は、人追随基本経路教示のステップである。このステップS71では、ロボット1の自律移動前に基本経路を人102がロボット1に教示し、同時にロボット1が移動するときの周囲のランドマーク及び目標地点も全方位カメラ32aから基本経路教示データ蓄積部34に取り込んで記憶する。次いで、基本経路教示データ蓄積部34に記憶された教示経路/位置情報を基にロボット1の移動可能範囲算出部35で、地図情報で構成された基本経路104を生成する。ここでの地図情報で構成された基本経路104は、駆動装置10から得られるオドメトリベースの点と線の情報より構成されている。   The first step S71 is a step for teaching a person-following basic route. In this step S71, before the robot 1 autonomously moves, the person 102 teaches the robot 1 the basic route, and at the same time, surrounding landmarks and target points when the robot 1 moves are also stored from the omnidirectional camera 32a. The data is taken into the unit 34 and stored. Next, based on the taught route / position information stored in the basic route teaching data storage unit 34, the movable range calculation unit 35 of the robot 1 generates a basic route 104 composed of map information. The basic route 104 configured by the map information here is configured by odometry-based point and line information obtained from the driving device 10.

2つ目のステップS72はプレイバック型自律移動のステップである。このステップS72では、安全確保技術(例えば、障害物検出部36で検出された障害物103に接触しないように、障害物103とロボット1とが接触せずかつ障害物103の検出された位置から十分に安全な距離だけ離れた経路をロボット1が移動するように制御部50が駆動装置10を駆動制御するなどの技術)を用いて、ロボット1が障害物103を回避しつつ自律移動する。ロボット1の自律移動前に人102がロボット1に教示して基本経路教示データ蓄積部34に記憶された基本経路104の情報をベースとし、ロボット1の移動時の経路情報(例えば、ロボット1が新たに障害物103を回避したという経路変更情報)は、ロボット1が障害物103を回避するなどして移動可能範囲算出部35により追加経路情報が新たに生成される都度、追加経路情報が、基本経路教示データ蓄積部34に記憶された地図情報に追加する。このようにして、ロボット1が基本経路104を移動しながら、点と線の地図情報(点と線で構成される基本経路104)から、面の地図情報(点と線で構成される基本経路104に対して幅方向(ロボット移動方向と直交する方向)の移動可能な範囲(追加経路情報)104aを加えた移動可能範囲内経路)に成長させて、基本経路教示データ蓄積部34に記憶させる。   The second step S72 is a playback type autonomous movement step. In this step S72, a safety ensuring technique (for example, the obstacle 103 and the robot 1 are not in contact with each other and the obstacle 103 is detected so as not to contact the obstacle 103 detected by the obstacle detector 36). The robot 1 autonomously moves while avoiding the obstacle 103 by using a technique such as the control unit 50 driving and controlling the driving device 10 so that the robot 1 moves along a path separated by a sufficiently safe distance. Based on the information of the basic route 104 that the person 102 taught to the robot 1 and stored in the basic route teaching data storage unit 34 before the robot 1 autonomously moves, the route information when the robot 1 moves (for example, the robot 1 The route change information that the obstacle 103 is newly avoided) is added each time the additional route information is newly generated by the movable range calculation unit 35 by the robot 1 avoiding the obstacle 103 or the like. The information is added to the map information stored in the basic route teaching data storage unit 34. In this way, while the robot 1 moves along the basic route 104, from the map information of points and lines (basic route 104 constituted by points and lines), the map information of planes (basic route constituted by points and lines). 104 is grown to a movable range (additional route information) 104a in the width direction (direction orthogonal to the robot movement direction) and stored in the basic route teaching data storage unit 34. .

以下に、前記2つのステップS71とS72を詳述する。   Hereinafter, the two steps S71 and S72 will be described in detail.

(ステップS71、すなわち、人追随基本経路教示(人倣い基本経路学習))
図8A〜図8Cは人追随基本経路教示のステップを示す。ロボット1が自律移動する前に基本経路104を人102がロボット1に教示し、同時にロボット1が移動するときの周囲のランドマーク及び目標地点も全方位カメラ32aから基本経路教示データ蓄積部34に取り込んで記憶する。基本経路104の教示は、例えば部屋110内で人102が、机111や棚112や壁113などに接触しないように、安全な経路104Pを歩き、ロボット1を人102に追随するように移動させる。すなわち、全方位カメラ32aのある一定の部分に常に人102が位置するように、制御部50で駆動装置10を駆動してロボット1を移動させる。このようにして人102に追随移動させるときのロボットオドメトリ情報(例えば、左側エンコーダ21からの左側駆動輪100の回転数の情報と、右側エンコーダ22からの右側駆動輪100の回転数の情報)を、駆動装置10から基本経路教示データ蓄積部34にそれぞれ積算してそれぞれの移動量の情報として保存する。基本経路教示データ蓄積部34に記憶された教示経路/位置情報を基に、ロボット1の移動可能範囲算出部35で地図情報で構成された基本経路104を生成する。ここでの地図情報で構成された基本経路104は、オドメトリベースの点と線の情報より構成されている。
(Step S71, that is, person-following basic route teaching (person-following basic route learning))
FIG. 8A to FIG. 8C show the steps of the person following basic route teaching. Before the robot 1 moves autonomously, the person 102 teaches the basic route 104 to the robot 1, and at the same time, surrounding landmarks and target points when the robot 1 moves are also transferred from the omnidirectional camera 32 a to the basic route teaching data storage unit 34. Capture and memorize. In the teaching of the basic route 104, for example, the person 102 walks on the safe route 104P and moves the robot 1 to follow the person 102 so that the person 102 does not touch the desk 111, the shelf 112, the wall 113, or the like in the room 110. . That is, the control unit 50 drives the driving device 10 to move the robot 1 so that the person 102 is always located at a certain portion of the omnidirectional camera 32a. Robot odometry information (for example, information on the number of revolutions of the left driving wheel 100 from the left encoder 21 and information on the number of revolutions of the right driving wheel 100 from the right encoder 22) when the person 102 follows the person 102 is obtained. Then, the accumulated values are accumulated from the driving device 10 to the basic route teaching data accumulating unit 34 and stored as information on the respective movement amounts. Based on the teaching route / position information stored in the basic route teaching data storage unit 34, the movable range calculation unit 35 of the robot 1 generates a basic route 104 composed of map information. The basic route 104 composed of the map information here is composed of odometry-based point and line information.

人追随基本経路教示は、全方位カメラ32aによる人位置検出を用いる。まず、ロボット1から見た、ロボット1に接近する人102の方向を全方位カメラ32aの画像から、人に対応する画像を抽出することにより人102を検出し、ロボット1の前部を人102の方向に向け、次に、ステレオカメラ31a,31bを用いてロボット1から見た人102の方向とロボット1と人102との間の距離を検出しながらロボット1が人102を追いかける。言い換えれば、例えば、ステレオカメラ31a,31bで得られる画像の所定領域内に常に人102が位置し、かつ、ロボット1と人102との間の距離が常に許容範囲(例えば、人102がロボット1に接触せずかつカメラ画像内から人102が外れない程度の距離の範囲)内に入るように、ロボット1の駆動装置10を制御部50で制御しながら、ロボット1が人102を追いかける。さらに、基本経路教示時に超音波センサ等の障害物検出部36にて基本経路104の許容幅(移動可能範囲104a)を検出する。   The person-following basic route teaching uses human position detection by the omnidirectional camera 32a. First, the person 102 is detected by extracting an image corresponding to the person from the image of the omnidirectional camera 32a as viewed from the robot 1, and the direction of the person 102 approaching the robot 1 is extracted from the image of the omnidirectional camera 32a. Next, the robot 1 follows the person 102 while detecting the direction of the person 102 viewed from the robot 1 and the distance between the robot 1 and the person 102 using the stereo cameras 31a and 31b. In other words, for example, the person 102 is always located within a predetermined area of the images obtained by the stereo cameras 31a and 31b, and the distance between the robot 1 and the person 102 is always within an allowable range (for example, the person 102 is the robot 1 The robot 1 follows the person 102 while controlling the driving device 10 of the robot 1 with the control unit 50 so that the person falls within the range of a distance that does not contact the user and the person 102 does not come off from the camera image. Furthermore, the allowable width (movable range 104a) of the basic route 104 is detected by the obstacle detection unit 36 such as an ultrasonic sensor when the basic route is taught.

図9A〜図9Bに示すように、人追随基本経路を学習しながら、時系列に部屋110の天井114の全景を全方位カメラ32aにより記憶部51に取込む。画像取込時の位置のオドメトリ情報とともに保存する。   As shown in FIGS. 9A to 9B, the entire view of the ceiling 114 of the room 110 is taken into the storage unit 51 by the omnidirectional camera 32a in time series while learning the person-following basic route. Saved together with odometry information at the time of image capture.

(ステップS72、すなわち、プレイバック型の自律移動)
図10はプレイバック型のロボット1の自律移動を示す。前記安全確保技術を用いて、ロボット1が障害物103を回避しつつ自律移動する。毎回移動時の経路情報は、ロボット1の自律移動前に人102がロボット1に教示して基本経路教示データ蓄積部34に記憶された基本経路104の情報をベースとし、ロボット1の移動時の経路情報(例えば、ロボット1が新たに障害物103を回避したという経路変更情報)は、ロボット1が障害物103を回避するなどして移動可能範囲算出部35により追加経路情報が新たに生成される都度、追加経路情報が、基本経路教示データ蓄積部34に記憶された地図情報に追加する。このようにして、ロボット1が基本経路104を移動しながら、点と線の地図情報(点と線で構成される基本経路104)から、面の地図情報(点と線で構成される基本経路104に対して幅方向(ロボット移動方向と直交する方向)の移動可能な範囲(追加経路情報)104aを加えた移動可能範囲内経路)に成長させて、基本経路教示データ蓄積部34に記憶させる。
(Step S72, ie, playback type autonomous movement)
FIG. 10 shows the autonomous movement of the playback robot 1. Using the safety ensuring technique, the robot 1 moves autonomously while avoiding the obstacle 103. The route information for each movement is based on the information on the basic route 104 that the person 102 taught to the robot 1 and stored in the basic route teaching data storage unit 34 before the autonomous movement of the robot 1. For the route information (for example, route change information indicating that the robot 1 has newly avoided the obstacle 103), additional route information is newly generated by the movable range calculation unit 35, for example, by the robot 1 avoiding the obstacle 103. Each time, additional route information is added to the map information stored in the basic route teaching data storage unit 34. In this way, while the robot 1 moves along the basic route 104, from the map information of points and lines (basic route 104 constituted by points and lines), the map information of planes (basic route constituted by points and lines). 104 is grown to a movable range (additional route information) 104a in the width direction (direction orthogonal to the robot movement direction) and stored in the basic route teaching data storage unit 34. .

自律移動時のロボット1の位置補正には、人追随基本経路教示時に同時に取得した時系列に天井全景画像及びオドメトリ情報を用いる。障害物103を障害物検出部36で検知した場合、移動可能範囲算出部35で局所的に経路を算出して移動経路生成部37で生成し、生成された局所的な経路104Lに沿ってロボット1が移動するように駆動装置10を制御部50で制御して、前記検知した障害物103を回避し、その後、元の基本経路104へ復帰する。移動可能範囲算出部35と移動経路生成部37による前記局所経路算出生成の際に、複数の経路が発生した場合は、最短の経路を移動経路生成部37により選定する。局所的に回避経路算出生成した際の経路情報(局所的な経路104Lに関する経路情報)は、基本経路教示データ蓄積部34に記憶されたステップS71の基本経路(地図)情報に追加される。これにより、ロボット1が基本経路104を自律移動しながら、点と線の地図情報(点と線で構成される基本経路104)から、面の地図情報(点と線で構成される基本経路104に対して幅方向(ロボット移動方向と直交する方向)の移動可能な範囲(追加経路情報)104aを加えた移動可能範囲内経路)に成長させて、基本経路教示データ蓄積部34に記憶させる。このとき、例えば、前記検知した障害物103が赤ん坊や老人などの人103Lの場合、不意にその周囲にさらに移動する場合も考えられるため、大きく迂回するように局所的な経路104Lを生成することが望ましい。また、ロボット1が液体などを搬送する場合を考えると、液体などが誤ってこぼれると損傷しやすいテレビなどの精密機器103Mの付近をロボット1が移動する場合には、精密機器103Mの付近をやや遠ざかるように湾曲して移動するように局所的な経路104Mを生成することが望ましい。   For the position correction of the robot 1 during autonomous movement, the ceiling whole view image and odometry information are used in a time series acquired at the same time when the person following basic route is taught. When the obstacle 103 is detected by the obstacle detection unit 36, a route is locally calculated by the movable range calculation unit 35 and generated by the movement route generation unit 37, and the robot is generated along the generated local route 104L. The driving device 10 is controlled by the control unit 50 so that 1 moves, and the detected obstacle 103 is avoided, and then the original basic route 104 is restored. When a plurality of routes are generated during the local route calculation and generation by the movable range calculation unit 35 and the movement route generation unit 37, the shortest route is selected by the movement route generation unit 37. The route information when the avoidance route is calculated and generated locally (route information related to the local route 104L) is added to the basic route (map) information in step S71 stored in the basic route teaching data storage unit 34. As a result, the robot 1 autonomously moves along the basic route 104, and from the map information of points and lines (basic route 104 composed of points and lines), the map information of planes (basic route 104 composed of points and lines). To the movable range in the width direction (direction orthogonal to the robot movement direction) (additional route information) 104a is added to the range and stored in the basic route teaching data storage unit 34. At this time, for example, in the case where the detected obstacle 103 is a person 103L such as a baby or an elderly person, it may be unexpectedly moved further to the surroundings, so the local route 104L is generated so as to make a large detour. Is desirable. Considering the case where the robot 1 transports liquid or the like, when the robot 1 moves in the vicinity of a precision device 103M such as a television, which is easily damaged if liquid or the like is accidentally spilled, the vicinity of the precision device 103M is slightly increased. It is desirable to create a local path 104M that curves and moves away.

前記した第1実施形態によれば、基本経路104を人102が歩き、人102に追随してロボット1が基本経路104を移動することにより、基本経路104をロボット1に教示したのち、教示された基本経路104に沿ってロボット1が自律移動するとき、障害物103等を避けるための移動可能範囲を算出し、前記基本経路104と前記移動可能範囲とにより、ロボット1が実際に自律移動可能な移動経路106を生成することができる。   According to the first embodiment described above, the person 102 walks on the basic route 104 and follows the person 102 to move the basic route 104 so that the robot 1 teaches the basic route 104 to the robot 1. When the robot 1 autonomously moves along the basic route 104, the movable range for avoiding the obstacle 103 and the like is calculated, and the robot 1 can actually move autonomously by the basic route 104 and the movable range. A simple movement path 106 can be generated.

以上のようなロボット1の活用場面としては、例えば、家庭内での荷物を運搬するロボットが考えられる、家の玄関にてロボットが待機しており、オペレータである人が帰宅すると、その人から荷物をロボットが受け取り、同時に、荷物を置いた人を追随対象としてロボットが認識し、その人の後ろをロボットが追随してロボットが荷物を運ぶ。このとき、家庭内のロボットの移動経路においては、公共の場と異なり、多数の障害物が存在していることが多い。しかしながら、障害物を回避する手段を備えている第1実施形態のロボットは、人の移動経路を追随することにより、その障害物を回避することができる。これは、第1実施形態のロボット1が移動経路とした経路は、直前にオペレータである人102が通った移動経路であるため、障害物が存在する確率が低いためである。もし万が一、人102が通過した後に障害物が現れても、ロボット1に搭載された障害物検出部36により、障害物を検出して、検出された障害物をロボット1が回避することが可能である。   For example, the robot 1 can be used to carry luggage at home. The robot is waiting at the entrance of the house, and when the operator returns home, The robot receives the parcel, and at the same time, the robot recognizes the person who placed the parcel as a target to follow, and the robot follows the person and carries the parcel. At this time, in the path of movement of the robot in the home, many obstacles often exist unlike the public place. However, the robot according to the first embodiment having means for avoiding an obstacle can avoid the obstacle by following the movement path of the person. This is because the route that the robot 1 of the first embodiment has taken as the travel route is the travel route that the operator 102 has passed immediately before, and thus there is a low probability that an obstacle exists. If an obstacle appears after the person 102 passes, the obstacle detection unit 36 mounted on the robot 1 can detect the obstacle and the robot 1 can avoid the detected obstacle. It is.

(第2実施形態)
次に、本発明の第2実施形態かかるロボット制御装置及び方法において、移動体の検出を行う移動体検出装置(人移動検知部31に相当。)及び方法について、図12A〜図18Dに沿って詳述する。なお、ここで言う「移動体」とは、人、動物、又は、自動的に移動する機器(自律移動可能なロボット、自律走行型掃除機など)などを指す。また、移動体検出装置1200は、第1実施形態かかるロボット制御装置に新たに付加されるものであるが(図1A参照)、その一部の構成要素は、第1実施形態かかるロボット制御装置の構成要素を兼用することも可能なものである。
(Second Embodiment)
Next, in the robot control apparatus and method according to the second embodiment of the present invention, a moving body detection apparatus (corresponding to the human movement detection unit 31) and method for detecting a moving body will be described with reference to FIGS. 12A to 18D. Detailed description. The “moving body” referred to here refers to a person, an animal, or an automatically moving device (such as a robot capable of autonomous movement, an autonomous traveling cleaner). In addition, the moving body detection device 1200 is newly added to the robot control device according to the first embodiment (see FIG. 1A), but some of the components are the same as those of the robot control device according to the first embodiment. It can also be used as a component.

前記移動体検出装置及び方法には、オプティカルフローを用いている。   The mobile object detection apparatus and method uses an optical flow.

前記移動体検出装置及び方法について説明する前に、まず、オプティカルフローの説明を図13に示す。   Before explaining the moving body detection apparatus and method, first, an explanation of the optical flow is shown in FIG.

通常、オプティカルフローは、図13の対応点201に示すように、処理対象の全画面に格子点状にフローを算出する対応点201を配置し、時系列に継続する複数の画像上で各対応点201に対応する点をそれぞれ検出し、各対応点201に対応する点間の移動量を検出して、各対応点201毎のフローを得る。このため、対応点201は全画面に等間隔に格子点状に配置し、その対応点201毎にフロー算出するため、膨大な演算量となる。また、対応点201が多いほど、ノイズフロー検出の可能性が高まり、誤検出しやすくなる。   Normally, as shown in the corresponding points 201 in FIG. 13, the optical flow is arranged with corresponding points 201 for calculating the flow in the form of grid points on the entire screen to be processed, and each corresponding on a plurality of images that are continued in time series. Each point corresponding to the point 201 is detected, the amount of movement between the points corresponding to each corresponding point 201 is detected, and the flow for each corresponding point 201 is obtained. For this reason, the corresponding points 201 are arranged in lattice points at equal intervals on the entire screen, and a flow calculation is performed for each corresponding point 201, which results in a huge amount of calculation. In addition, the greater the number of corresponding points 201, the higher the possibility of noise flow detection and the easier it is to detect errors.

ここで、全方位光学系32aを用いる場合、図16Aの全方位カメラ画像302及び全方位カメラ画像302から対応点のみを取り出した図16Bの対応点図に示すように、人102の足元(床に近い)領域302aとなる画像中央部分の対応点301、及び、全方位カメラの視野外となる画像の四隅の領域302bの対応点301では、人及び物体の移動により発生するオプティカルフロー以外のフロー(ノイズフロー)が発生しやすい。   Here, when using the omnidirectional optical system 32a, as shown in the omnidirectional camera image 302 of FIG. 16A and the corresponding point diagram of FIG. A flow other than the optical flow generated by the movement of the person and the object at the corresponding point 301 in the center portion of the image that becomes the region 302a and the corresponding point 301 in the region 302b at the four corners of the image that is outside the field of view of the omnidirectional camera. (Noise flow) is likely to occur.

そこで、本発明の第2実施形態のロボット制御装置及び方法の移動体検出装置及び方法では、対応点(フロー算出点)301を配置する領域を、全画面領域に均等に配置するのではなく、ロボット1に接近する移動体の特定領域に限定し、演算量及び演算コストを削減するものである。全方位光学系32aの一例として全方位カメラを用いた場合の画像の実例を図14Aに示すとともに、その画像に対する対応点の種々の配置例を図14B〜図14Eにそれぞれ示す。   Therefore, in the moving body detection apparatus and method of the robot control apparatus and method according to the second embodiment of the present invention, the area where the corresponding points (flow calculation points) 301 are arranged is not evenly arranged in the entire screen area. The calculation amount and the calculation cost are reduced by limiting to a specific region of the moving body approaching the robot 1. An example of an image when an omnidirectional camera is used as an example of the omnidirectional optical system 32a is shown in FIG. 14A, and various arrangement examples of corresponding points with respect to the image are shown in FIGS. 14B to 14E.

全方位カメラを用いて撮像された全方位カメラ画像302の場合(図14A)、人102は、画像302の外側円周上に現れる。このため、図14Bの対応点301は、画像302の外側円周上に配置する。具体例として、256×256画素サイズの全方位カメラ画像の場合、全方位カメラ画像の外側円周上に16画素程度の間隔で配置する。また、全方位カメラ画像302の内側円周上は人102の足等が現れ、位置検出には不適切なノイズフローが現れやすい。さらに、全方位カメラ画像302の場合、全方位カメラ画像302の四隅は、有意な画像範囲外となり、対応点によるフロー演算は不要である。従って、図14Bのように、全方位カメラ画像302の外側円周上にフロー対応点301を配置しかつ内側円周上にはフロー対応点301を配置しないようにすると、演算コスト及びノイズ対策両面で有利となる。   In the case of an omnidirectional camera image 302 captured using an omnidirectional camera (FIG. 14A), the person 102 appears on the outer circumference of the image 302. For this reason, the corresponding points 301 in FIG. 14B are arranged on the outer circumference of the image 302. As a specific example, in the case of an omnidirectional camera image having a size of 256 × 256 pixels, the omnidirectional camera image is arranged at an interval of about 16 pixels on the outer circumference of the omnidirectional camera image. Further, the foot of the person 102 appears on the inner circumference of the omnidirectional camera image 302, and an inappropriate noise flow tends to appear for position detection. Further, in the case of the omnidirectional camera image 302, the four corners of the omnidirectional camera image 302 are outside the significant image range, and the flow calculation using the corresponding points is unnecessary. Therefore, as shown in FIG. 14B, when the flow corresponding point 301 is arranged on the outer circumference of the omnidirectional camera image 302 and the flow corresponding point 301 is not arranged on the inner circumference, both the calculation cost and the noise countermeasures are provided. Is advantageous.

また、図14Cのように、ロボット1に対して接近する人102に限定して人102を検出する場合、全方位カメラ画像302の最外周の円周上のみにフロー対応点311を配置してもよい。   Further, as shown in FIG. 14C, when detecting the person 102 only to the person 102 approaching the robot 1, the flow corresponding point 311 is arranged only on the outermost circumference of the omnidirectional camera image 302. Also good.

さらに、図14Dのように、人102の接近と障害物103の接近の両方で検知する場合は、全方位カメラ画像302の最外周の円周及び最内周の円周上のみにフロー対応点312を配置してもよい。   Furthermore, as shown in FIG. 14D, when detecting both the approach of the person 102 and the approach of the obstacle 103, the flow corresponding points only on the outermost circumference and the innermost circumference of the omnidirectional camera image 302. 312 may be arranged.

また、図14Eのように、高速演算のため、全方位カメラ画像302のx方向(図14Eの横方向)及びy方向(図14Eの縦方向)にそれぞれ等間隔に、格子状にフロー対応点313を配置してもよい。具体例として、256×256画素サイズの全方位カメラ画像の場合、全方位カメラ画像のx方向に16画素、y方向に16画素の間隔で配置する。   Further, as shown in FIG. 14E, for high-speed calculation, the flow correspondence points are arranged in a grid pattern at equal intervals in the x direction (horizontal direction in FIG. 14E) and the y direction (vertical direction in FIG. 14E) of the omnidirectional camera image 302. 313 may be arranged. As a specific example, in the case of an omnidirectional camera image having a size of 256 × 256 pixels, the omnidirectional camera image is arranged at an interval of 16 pixels in the x direction and 16 pixels in the y direction.

第2実施形態の移動体検出方法を行うための移動体検出装置1200は、図12Aに示すように、フロー算出対応点位置算出配置部1201と、時系列画像取得部1202と、移動量算出部1203と、移動体移動判断部1204と、移動体領域抽出部1205と、距離画像算出部1206aと、距離画像特定範囲移動部1206bと、移動体領域判定部1206cと、移動体位置特定部1206dと、距離算出部1206eと、記憶部51とを備えるように構成している。   As shown in FIG. 12A, a moving object detection apparatus 1200 for performing the moving object detection method of the second embodiment includes a flow calculation corresponding point position calculation arrangement unit 1201, a time-series image acquisition unit 1202, and a movement amount calculation unit. 1203, a moving object movement determination unit 1204, a moving object region extraction unit 1205, a distance image calculation unit 1206a, a distance image specific range moving unit 1206b, a moving object region determination unit 1206c, and a moving object position specification unit 1206d The distance calculation unit 1206e and the storage unit 51 are provided.

前記フロー算出対応点位置算出配置部1201は、全方位光学系32aの一例である全方位カメラにより撮像された図14Aに示す全方位カメラ画像302を時系列に記憶部51に取り込んだ全方位時系列画像の場合、図14B,図14C,図14D,又は図14Eに示すように、全方位時系列画像の円周上に有意な前記対応点301,311,312,又は313の位置を算出する。フロー算出対応点位置算出配置部1201は、対応点位置算出配置変更部1201aをさらに備えて、予め移動体例えば人102の動きに合わせて算出及び配置する検出する(フロー算出)対応点位置を、移動体例えば人102の位置に合わせて、その都度、対応点位置算出配置変更部1201aにより変更するようにしてもよい。このようにすれば、より一層、演算コスト及びノイズ対策両面で有利となる。また、このフロー算出対応点位置算出配置部1201で算出したフロー算出対応点位置の対応点301,311,312,又は313毎に、移動量算出部1203において、オプティカルフローを算出する。   The flow calculation corresponding point position calculating / arranging unit 1201 captures the omnidirectional camera image 302 shown in FIG. 14A captured by the omnidirectional camera, which is an example of the omnidirectional optical system 32a, into the storage unit 51 in time series. In the case of a sequence image, as shown in FIG. 14B, FIG. 14C, FIG. 14D, or FIG. 14E, the position of the significant corresponding point 301, 311, 312, or 313 is calculated on the circumference of the omnidirectional time-series image. . The flow calculation corresponding point position calculation / arrangement unit 1201 further includes a corresponding point position calculation / arrangement changing unit 1201a, and detects (flow calculation) corresponding point positions which are calculated and arranged in advance in accordance with the movement of the moving body, for example, the person 102. In accordance with the position of the moving object, for example, the person 102, the corresponding point position calculation / arrangement changing unit 1201a may change the position each time. In this way, it is further advantageous in terms of both computation cost and noise countermeasures. Further, the movement amount calculation unit 1203 calculates an optical flow for each of the corresponding points 301, 311, 312, or 313 of the flow calculation corresponding point position calculated by the flow calculation corresponding point position calculation arrangement unit 1201.

前記時系列画像取得部1202は、オプティカルフロー演算向けに適切な時間間隔で画像を取り込む。例えば、全方位カメラにより撮像した全方位カメラ画像302を、数百ms毎に、時系列画像取得部1202により、記憶部51に入力して記憶する。全方位カメラにより撮像した全方位カメラ画像302を用いる場合、ロボット1の周囲の360度の範囲内でロボット1に接近する移動体を検知可能であるため、接近する移動体の検知のために、移動体検知用カメラの移動及び回転の必要がない。また、時間遅延なく追随対象となる、接近する移動体(例えば基本経路を教示する人)が、ロボット1に対していずれの方向から接近しても、その移動体の検知が容易にかつ確実に可能となる。   The time-series image acquisition unit 1202 captures images at an appropriate time interval for optical flow calculation. For example, the omnidirectional camera image 302 captured by the omnidirectional camera is input and stored in the storage unit 51 by the time-series image acquisition unit 1202 every several hundred ms. When using the omnidirectional camera image 302 imaged by the omnidirectional camera, a moving body approaching the robot 1 can be detected within a range of 360 degrees around the robot 1. There is no need to move and rotate the moving object detection camera. In addition, even if a moving body (for example, a person who teaches a basic route) that is to be followed without time delay approaches the robot 1 from any direction, the moving body can be easily and reliably detected. It becomes possible.

前記移動量算出部1203は、フロー算出対応点位置算出配置部1201で算出された対応点301,311,312,又は313毎に、の時系列画像取得部1202で取得した時系列画像間で対応点301,311,312,又は313の位置関係を検知する。通常は、時系列画像の古い方の対応点301,311,312,又は313よりなる対応点ブロックをテンプレートとし、時系列画像の新しい方の時系列画像上でテンプレートマッチングを行う。このテンプレートマッチングで得られた、一致点の情報と、古い方の画像の対応点ブロック位置の位置ズレ情報をフローとして算出する。テンプレートマッチング時の一致度等もフロー演算情報として算出する。   The movement amount calculation unit 1203 corresponds between the time-series images acquired by the time-series image acquisition unit 1202 for each of the corresponding points 301, 311, 312, or 313 calculated by the flow calculation corresponding point position calculation arrangement unit 1201. The positional relationship between the points 301, 311, 312, or 313 is detected. Usually, template matching is performed on the new time-series image of the time-series image using the corresponding point block consisting of the older corresponding points 301, 311, 312, or 313 of the time-series image as a template. The matching point information obtained by this template matching and the positional deviation information of the corresponding point block position of the older image are calculated as a flow. The degree of matching at the time of template matching is also calculated as flow calculation information.

前記移動体移動判断部1204では、対応点301,311,312,又は313毎に算出移動量を移動体の移動に合致するか否か判断する。より具体的には、この移動体移動判断部は、対応点ブロック位置の位置ズレ情報及び、フロー演算情報等を用いて、移動体が移動したかどうかを判断する。この場合、全画面で同じ判断基準を用いると、例えば移動体の例である人の足と頭の場合、人の足をフローとして検出する可能性が高くなる。しかし、実際には、人の頭を優先してフロー検知する必要がある。このため、この第2実施形態では、フロー算出対応点位置算出配置部1201で配置した対応点301,311,312,又は313毎に異なる判断基準を用いる。一つの実例として、全方位カメラ画像のフロー判断基準として、全方位カメラ画像の内側(具体例として、全方位カメラ画像の中心より半径1/4(横画像サイズ)より内側)では放射方向フローを残し、全方位カメラ画像の外側(具体例として、全方位カメラ画像の中心より半径1/4(横画像サイズ)より外側)では、放射と同心円の両方向フローを残す。   The moving body movement determination unit 1204 determines whether the calculated movement amount matches the movement of the moving body for each of the corresponding points 301, 311, 312, or 313. More specifically, the moving body movement determination unit determines whether the moving body has moved using position shift information of the corresponding point block position and flow calculation information. In this case, if the same determination criterion is used for all screens, for example, in the case of a person's foot and head as an example of a moving body, the possibility of detecting the person's foot as a flow increases. However, in practice, it is necessary to prioritize the human head and detect the flow. For this reason, in the second embodiment, a different criterion is used for each of the corresponding points 301, 311, 312, or 313 arranged by the flow calculation corresponding point position calculation arrangement unit 1201. As one example, as a flow determination standard for an omnidirectional camera image, the radial flow is set on the inner side of the omnidirectional camera image (specifically, the radius ¼ (lateral image size) from the center of the omnidirectional camera image). In addition, on the outside of the omnidirectional camera image (specifically, outside the radius ¼ (horizontal image size) from the center of the omnidirectional camera image), a bi-directional flow of radiation and concentric circles is left.

移動体領域抽出部1205は、合致した対応点群を統合して移動体領域を抽出する。すなわち、移動体領域抽出部1205は、対応点毎に算出移動量を移動体の移動に合致するか否か判断する移動体移動判断部1204にて合格判定したフロー対応点を統合し、移動体領域として抽出する。図15Aに示すように、移動体移動判断部1204で合格判定した対応点群401を囲む領域を、移動体領域抽出部1205により抽出する。図15Bに示すように、参照符号402で囲まれた台形状の領域が、抽出した前記移動体領域(移動体の一例としての人の場合の人領域)の例である。なお、図15Cは、人102の人領域のパノラマ展開画像502を用い、人領域パノラマ展開画像502の特定濃淡値射像(縦方向は503、横方向は504で示す。)より、頭を抽出した結果の説明図である。頭を抽出した領域を501で示す。   The moving body region extraction unit 1205 extracts the moving body region by integrating the corresponding corresponding points. That is, the moving body region extraction unit 1205 integrates the flow corresponding points that have been determined to pass by the moving body movement determination unit 1204 that determines whether or not the calculated movement amount matches the movement of the moving body for each corresponding point. Extract as a region. As illustrated in FIG. 15A, a region surrounding the corresponding point group 401 determined to be accepted by the moving body movement determination unit 1204 is extracted by the moving body region extraction unit 1205. As shown in FIG. 15B, a trapezoidal region surrounded by reference numeral 402 is an example of the extracted moving body region (a human region in the case of a person as an example of a moving body). 15C uses the panorama development image 502 of the human area of the person 102, and extracts the head from the specific gray scale image (indicated by 503 in the vertical direction and 504 in the horizontal direction) of the human area panorama development image 502. It is explanatory drawing of the result. A region from which the head is extracted is indicated by 501.

前記距離画像算出部1206aは、ロボット1の周囲の特定範囲の距離画像(距離画像特定範囲)を算出する。距離画像とは、ロボット1に対して、より距離の近いものを明るく表現した画像である。特定範囲は、ロボット1の正面に対して例えば±30°(経験値で決定。センサ等の感度によって可変。)の範囲と予め設定しておく。   The distance image calculation unit 1206a calculates a distance image of a specific range around the robot 1 (distance image specific range). The distance image is an image that brightly represents an object closer to the robot 1. The specific range is set in advance as, for example, a range of ± 30 ° (determined by experience values; variable depending on the sensitivity of the sensor or the like) with respect to the front of the robot 1.

前記距離画像特定範囲移動部1206bは、前記移動体領域抽出部1205により抽出された移動体領域の一例としての人領域402の範囲に前記距離画像特定範囲が合うように、前記人領域402の範囲の移動に合わせて前記距離画像特定範囲を移動させる。具体的には、図18A〜図18Dに示すように、対応点群401を囲む人領域402の中心と画像の中心とを結ぶ線と図18Aのロボット1の前方向との角度を距離画像特定範囲移動部1206bにより求めることにより、図18Aにおいて参照符号404の人102の方向角α(図18Aのロボット1の前方向を方向角の基準角0°とする。)が算出できる。算出した角度(方向角)αに対応して、ロボット1の周囲の特定範囲の距離画像(距離画像特定範囲)を移動させて、人領域402の範囲に前記距離画像特定範囲を合わせるようにする。このように人領域402の範囲に合わせるように距離画像特定範囲を移動させるためには、具体的には、駆動装置10により、両方の駆動輪100を互いに逆回転させて、その場でロボット1の方向を前記角度(方向角)αだけ回転させて、前記抽出した人領域402の範囲に前記距離画像特定範囲が合うようにする。これにより、前記距離画像特定範囲、言い換えれば、距離画像算出部1206aの一部を構成する距離画像検出センサの一例であるステレオカメラ系31a,31bにより撮像できる範囲内であるロボット1の前方に、検出した人102を位置させることができる。   The distance image specific range moving unit 1206b includes a range of the human area 402 so that the range of the distance image specific range matches the range of the human area 402 as an example of the moving body area extracted by the moving body area extracting unit 1205. The distance image specific range is moved in accordance with the movement of. Specifically, as shown in FIGS. 18A to 18D, the distance image specifying the angle between the line connecting the center of the human region 402 surrounding the corresponding point group 401 and the center of the image and the forward direction of the robot 1 in FIG. 18A. By obtaining the value by the range moving unit 1206b, the direction angle α of the person 102 indicated by reference numeral 404 in FIG. 18A (the forward direction of the robot 1 in FIG. 18A is set to a reference angle 0 ° of the direction angle) can be calculated. Corresponding to the calculated angle (direction angle) α, the distance image of the specific range around the robot 1 (distance image specific range) is moved so that the distance image specific range matches the range of the human region 402. . In order to move the distance image specifying range so as to match the range of the human region 402 in this way, specifically, the drive device 10 rotates both the drive wheels 100 in the reverse direction, and the robot 1 on the spot. Is rotated by the angle (direction angle) α so that the distance image specifying range matches the range of the extracted human region 402. Thereby, in front of the robot 1 that is within the range that can be imaged by the stereo camera systems 31a and 31b, which are examples of the distance image detection sensor constituting the part of the distance image calculation unit 1206a, in other words, the distance image specific range. The detected person 102 can be positioned.

前記移動体領域判定部1206cは、距離画像算出部1206aにより移動された後の距離画像特定範囲内の移動体領域を判定する。例えば、距離画像特定範囲内の濃淡画像のうち面積最大のものを移動体領域と判定する。   The moving body region determination unit 1206c determines a moving body region within the distance image specific range after being moved by the distance image calculation unit 1206a. For example, the image with the largest area among the grayscale images within the distance image specifying range is determined as the moving body region.

前記移動体位置特定部1206dは、得られた距離画像移動体領域より移動体例えば人102の位置を特定する。人102の位置を特定する具体的な例としては、図18Cにおいて、人領域の重心位置(図18Cの十字線の交点904)を人102の位置及び方向として算出することにより、人102の位置を特定することができる。   The moving body position specifying unit 1206d specifies the position of the moving body, for example, the person 102 from the obtained distance image moving body area. As a specific example of specifying the position of the person 102, in FIG. 18C, the position of the person 102 is calculated by calculating the position of the center of gravity of the person area (the intersection 904 of the cross line in FIG. 18C) as the position and direction of the person 102. Can be specified.

前記距離算出部1206eは、前記距離画像上の移動体例えば人102の位置より、ロボット1から人102までの距離を算出する。   The distance calculation unit 1206e calculates the distance from the robot 1 to the person 102 based on the position of the moving object such as the person 102 on the distance image.

前記構成にかかる移動体検出装置1200を使用して、移動体検出動作を行うことについて、図18A〜図19などを参照しながら説明する。   Using the mobile body detection apparatus 1200 according to the above configuration to perform a mobile body detection operation will be described with reference to FIGS. 18A to 19.

まず、ステップS191では、距離画像算出部1206aに距離画像を入力する。具体的には、以下の動作を行う。図18Aにおいて、距離画像算出部1206aの具体的な例としては、ロボット1の周囲の特定範囲の距離画像(距離画像特定範囲)を算出する距離画像検出センサと距離画像検出センサで検出された距離画像の演算を行う距離画像演算部とで構成することができる。前記移動体移動判断部1204及び人102の方向角404及び距離画像特定範囲移動部1206bにより、人102はロボット1の周囲の特定範囲に位置するものとする。平行光軸のステレオカメラ31a,31bを距離画像検出センサの一例として用いれば、左右のステレオカメラ31a,31bの対応点が同一走査線上に現れ、高速な対応点検出及び三次元距離算出が距離画像算出部1206aにより可能である。左右のステレオカメラ31a,31bの対応点検出及び距離画像算出部1206aによる三次元距離算出結果である距離画像を図18Dに902で示す。距離画像902において、ステレオカメラ31a,31bでは、ロボット1に対して、より距離の近いものを明るく表現する。   First, in step S191, a distance image is input to the distance image calculation unit 1206a. Specifically, the following operation is performed. In FIG. 18A, as a specific example of the distance image calculation unit 1206a, a distance image detection sensor that calculates a distance image (distance image specific range) around the robot 1 and a distance detected by the distance image detection sensor. A distance image calculation unit that calculates an image can be used. It is assumed that the person 102 is positioned in a specific range around the robot 1 by the moving body movement determination unit 1204, the direction angle 404 of the person 102, and the distance image specific range movement unit 1206b. If the stereo cameras 31a and 31b having parallel optical axes are used as an example of the distance image detection sensor, the corresponding points of the left and right stereo cameras 31a and 31b appear on the same scanning line, and high-speed corresponding point detection and three-dimensional distance calculation are performed by the distance image. This can be done by the calculation unit 1206a. A distance image which is a corresponding point detection result of the left and right stereo cameras 31a and 31b and a three-dimensional distance calculation result by the distance image calculation unit 1206a is shown by 902 in FIG. 18D. In the distance image 902, the stereo cameras 31 a and 31 b express a brighter object closer to the robot 1.

次いで、ステップS192では、ロボット1に至近の物体(言い換えれば、距離画像902上で一定の明るさ(予め決められた閾値を超える明るさ)を持つ領域)を人領域としてにより検出する。検出結果を2値化した画像が、人領域として検出した図18Dの画像903である。   Next, in step S192, an object close to the robot 1 (in other words, an area having a constant brightness (brightness exceeding a predetermined threshold) on the distance image 902) is detected as a human area. An image obtained by binarizing the detection result is the image 903 in FIG. 18D detected as a human region.

次いで、ステップS193では、前記距離算出部1206eにより、図18Dの人領域として検出した画像903の人領域(濃淡画像を「0」と「1」で2値化したとき、人の居る領域に相当する「1」の領域)で距離画像902をマスク(画像間AND演算)し、人領域の距離画像を前記距離算出部1206eにより特定する。前記人領域の距離(人領域の濃淡値(距離値))を前記距離算出部1206eにより平均して、人102の位置(ロボット1と人102との距離)とする。   Next, in step S193, the distance calculation unit 1206e corresponds to the human region of the image 903 detected as the human region in FIG. 18D (when the grayscale image is binarized with “0” and “1”, it corresponds to the region where a person is present). The distance image 902 is masked (an AND operation between images) in the “1” area), and the distance image of the human area is specified by the distance calculation unit 1206e. The distance of the person area (the density value (distance value) of the person area) is averaged by the distance calculation unit 1206e to obtain the position of the person 102 (distance between the robot 1 and the person 102).

次いで、ステップS194では、上記平均して得られた濃淡値(距離値)を、前記距離算出部1206eの距離値−実距離値変換テーブルに代入し、ロボット1と人102との間の距離Lを前記距離算出部1206eにより算出する。距離値−実距離値変換テーブルの一例としては、図17に、全方位カメラ画像のパノラマ展開画像で人102への距離が異なる画像を並べた画像801において、ロボット1と人102との間の距離が100cmのとき50cm/10画素ならば±2.5cm/画素、前記距離が200cmのとき50cm/5画素ならば±5cm/画素、前記距離が300cmのとき50cm/2.5画素ならば±10cm/画素である。   Next, in step S194, the gray value (distance value) obtained by averaging is substituted into the distance value-actual distance value conversion table of the distance calculation unit 1206e, and the distance L between the robot 1 and the person 102 is calculated. Is calculated by the distance calculation unit 1206e. As an example of the distance value-actual distance value conversion table, FIG. 17 shows an image 801 in which panoramic development images of omnidirectional camera images with different distances to the person 102 are arranged. When the distance is 100 cm, ± 2.5 cm / pixel if 50 cm / 10 pixel, when the distance is 200 cm, ± 5 cm / pixel, when the distance is 300 cm, ± 50 cm / 2.5 pixel, when the distance is 300 cm 10 cm / pixel.

次いで、ステップS195では、画像903の人領域の重心位置を前記移動体位置特定部1206dにより算出する。重心位置のx座標を、前記移動体位置特定部1206dの重心x座標−人方向変換テーブルに代入し、人の方向βを前記移動体位置特定部1206dにより算出する。   Next, in step S195, the center of gravity position of the human region in the image 903 is calculated by the moving body position specifying unit 1206d. The x-coordinate of the center of gravity position is substituted into the center-of-gravity x-coordinate-human direction conversion table of the moving body position specifying unit 1206d, and the human direction β is calculated by the moving body position specifying unit 1206d.

次いで、ステップS196では、前記ロボット1と人102との間の距離Lと人の方向βを第1実施形態の制御装置のロボット移動量検出部32に送り、人102の移動経路を再現させる方向にロボット1の移動方向及び移動距離よりなる移動量を検出する。   Next, in step S196, the distance L between the robot 1 and the person 102 and the person's direction β are sent to the robot movement amount detection unit 32 of the control device according to the first embodiment to reproduce the movement path of the person 102. Further, a movement amount consisting of the movement direction and movement distance of the robot 1 is detected.

次いで、ステップS197では、前記検出した、ロボット1の移動方向及び移動距離よりなる移動量に従いロボット1を移動させる。ロボット移動時のオドメトリデータをロボット基本経路教示データ変換部33に蓄積する。   Next, in step S197, the robot 1 is moved according to the detected movement amount including the movement direction and movement distance of the robot 1. Odometry data at the time of robot movement is stored in the robot basic path teaching data conversion unit 33.

このようにステップS191〜S197の演算を繰り返すことで、人102を特定し、継続して前記ロボット1と人102との間の距離Lと人の方向βの検知を行うことができる。   Thus, by repeating the calculations in steps S191 to S197, the person 102 can be specified, and the distance L between the robot 1 and the person 102 and the direction β of the person can be detected continuously.

なお、人102が追随走行を教示する動作を確認する方法(図1Bの38を参照)としては、最も接近し、ロボット1と接触する人102が人追随対象者(ターゲット)であるとの知見に基づき、複数の対象者が混在する場合の教示対象者識別部38として組み込むことが考えられる(図12B参照)。具体的な教示対象者識別部38の例としては、ロボット1の特定位置に設置したスイッチを押す、音声を発声させてマイクなどの音声入力装置により音源位置推定する等の例がある。あるいは、人102がID共振タグ等を所持し、ID共振タグを読み取り可能な読取装置をロボット1に備えて、特定人の検定をさせる例もある。これにより、図12Bに示すように、ロボット追随対象者を特定し、同時にロボット人追随動作開始のトリガとして利用することができる。   In addition, as a method for confirming the operation in which the person 102 teaches the follow-up running (see 38 in FIG. 1B), the knowledge that the person 102 who is closest and contacts the robot 1 is the person to be followed (target). Based on the above, it may be incorporated as a teaching subject identification unit 38 when a plurality of subjects are present (see FIG. 12B). Specific examples of the teaching subject identification unit 38 include pressing a switch installed at a specific position of the robot 1, generating a voice and estimating a sound source position by a voice input device such as a microphone. Alternatively, there is an example in which a person 102 possesses an ID resonance tag and the like, and the robot 1 is equipped with a reading device capable of reading the ID resonance tag to test a specific person. As a result, as shown in FIG. 12B, a robot follower can be specified and used as a trigger for starting the robot follower operation at the same time.

以上のように、第2実施形態においては、前記構成により、ロボット1から人102の距離と方向を検出することで、追随走行において、人102の位置をそのまま追いかけた場合、正しい経路生成ができない場合を回避できる(図6A及び図6B参照)。これは、人102の方向のみを検出した場合で、例えば図6Aのごとく人102の経路107aが直角コーナとなった時、ロボット1は直角に人102を後追いせず、近道を経路107cとして生成することがある。本発明の第2実施形態では、人102の方向と距離を得ることにより直角コーナの人102の経路107aをロボット1の経路107dとする制御の実現を図る(図6B参照)。このような経路107dの生成手順を下記する。   As described above, according to the second embodiment, by detecting the distance and direction of the person 102 from the robot 1 with the above-described configuration, a correct route cannot be generated when the position of the person 102 is followed as it is in the follow-up running. The case can be avoided (see FIGS. 6A and 6B). This is a case where only the direction of the person 102 is detected. For example, when the path 107a of the person 102 becomes a right angle corner as shown in FIG. 6A, the robot 1 does not follow the person 102 at a right angle and generates a shortcut as the path 107c. There are things to do. In the second embodiment of the present invention, by obtaining the direction and distance of the person 102, the control of setting the path 107a of the person 102 at the right corner to the path 107d of the robot 1 is realized (see FIG. 6B). A procedure for generating such a path 107d will be described below.

(1)ロボット1が自分の進行経路と現在のオペレータ102の相対位置を見て、オペレータ102の経路107aを生成し、これを保存する(図6B)。   (1) The robot 1 sees its own traveling route and the current relative position of the operator 102, generates a route 107a of the operator 102, and stores this (FIG. 6B).

(2)その保存したオペレータ102の経路107aをロボット1が現在の自分の経路107dと比較してロボット1の進行方向を決め、ロボット1がオペレータ102の後追いを行うことにより、オペレータ102の経路107aに沿ったロボット1の経路107dで移動することができる。   (2) The stored route 107a of the operator 102 is compared with the current route 107d of the robot 1 to determine the traveling direction of the robot 1, and the robot 1 follows the operator 102. Can move along the path 107d of the robot 1 along the line.

前記第2実施形態にかかる前記構成によれば、移動体、例えば経路を教示する人102を特定し、継続して人102の検知(例えば、ロボット1と人102との間の距離及びロボット1から見た人102の方向の検知)を行うことができる。   According to the configuration of the second embodiment, the mobile object, for example, the person 102 who teaches the route is specified, and the human 102 is continuously detected (for example, the distance between the robot 1 and the person 102 and the robot 1 Detection of the direction of the person 102 viewed from the above.

(第3実施形態)
次に、本発明の第3実施形態にかかるロボット制御装置及び方法のロボット位置決め装置及び方法について図20A〜図26に沿って詳述する。以下の第3実施形態にかかるロボット制御装置は、第1実施形態かかるロボット制御装置に新たに付加されるものであるが、その一部の構成要素は、第1実施形態かかるロボット制御装置の構成要素を兼用することも可能なものである。
(Third embodiment)
Next, the robot positioning apparatus and method of the robot control apparatus and method according to the third embodiment of the present invention will be described in detail with reference to FIGS. The robot control device according to the following third embodiment is newly added to the robot control device according to the first embodiment, but some of the components are the configuration of the robot control device according to the first embodiment. It is also possible to combine elements.

図20Aに示すように、第3実施形態にかかるロボット制御装置のロボット位置決め装置は、大略、駆動装置10と、走行距離検出部20と、方向角検出部30と、位置ずれ情報算出部40と、制御部50とを備えて構成されている。なお、図20Aでは、第1実施形態のロボット制御装置において図1Aに図示された、移動検知部31〜移動経路生成部37、教示対象者識別部38、移動体検出装置1200などの部材は図示を省略している。図1Aには、第1から3実施形態にかかるロボット制御装置を示すために、前記位置ずれ情報算出部40なども図示している。   As shown in FIG. 20A, the robot positioning device of the robot control device according to the third embodiment is roughly configured by a drive device 10, a travel distance detection unit 20, a direction angle detection unit 30, and a positional deviation information calculation unit 40. The control unit 50 is provided. 20A, the members such as the movement detection unit 31 to the movement path generation unit 37, the teaching subject identification unit 38, and the moving body detection device 1200 illustrated in FIG. 1A in the robot control apparatus of the first embodiment are illustrated. Is omitted. FIG. 1A also shows the positional deviation information calculation unit 40 and the like in order to show the robot control apparatus according to the first to third embodiments.

この第3実施形態にかかるロボット制御装置の駆動装置10は、自律走行車の例であるロボット1の前後進、及び左右側の移動を制御するものであって、第1実施形態にかかるロボット制御装置の駆動装置10と同じものである。なお、ロボット1のより具体的な例としては、自律走行型掃除機が挙げられる。   The drive device 10 of the robot control apparatus according to the third embodiment controls the forward and backward movement and the left / right movement of the robot 1 which is an example of an autonomous vehicle, and the robot control according to the first embodiment. This is the same as the driving device 10 of the apparatus. A more specific example of the robot 1 is an autonomous traveling type vacuum cleaner.

さらに、この第3実施形態にかかるロボット制御装置の走行距離検出部20は、第1実施形態にかかるロボット制御装置の走行距離検出部20と同じものであって、前記駆動装置10により移動されるロボット1の走行距離を検出するものである。   Furthermore, the travel distance detection unit 20 of the robot control device according to the third embodiment is the same as the travel distance detection unit 20 of the robot control device according to the first embodiment, and is moved by the drive device 10. The travel distance of the robot 1 is detected.

また、方向角検出部30は、第1実施形態にかかるロボット制御装置の方向角検出部30と同様に、前記駆動装置10により移動されるロボット1の走行方向変化を検出するものであって、前記方向角検出部30は、前記駆動装置10により移動されるロボット1の回転時に変化する電圧レベルに従ってロボット1の回転速度を感知して走行方向変化を検出するジャイロセンサなどの方向角センサである。   Further, the direction angle detection unit 30 detects a change in the traveling direction of the robot 1 moved by the driving device 10 in the same manner as the direction angle detection unit 30 of the robot control device according to the first embodiment. The direction angle detection unit 30 is a direction angle sensor such as a gyro sensor that detects a change in the traveling direction by detecting the rotation speed of the robot 1 according to a voltage level that changes when the robot 1 moved by the driving device 10 rotates. .

位置ずれ情報算出部40は、前記駆動装置10により移動されるロボット1の移動経路(基本経路104)に存在する天井114及び壁面113までの目標地点を検出し、予め記憶部51にキーボードやタッチパネルなどの入出力部52から入力した目標地点との位置ずれ情報を算出するものであって、前記位置ずれ情報算出部40は、前記ロボット1の移動経路に存在する天井114及び壁面113までの目標地点を検出する、ロボット1に付属した全方位カメラ部41を備えるように構成されている。なお、入出力部52には、目標地点など必要な情報を適宜表示し人が確認するためのディスプレイなどの表示装置も備えている。   The misregistration information calculation unit 40 detects target points to the ceiling 114 and the wall surface 113 that exist on the movement route (basic route 104) of the robot 1 that is moved by the driving device 10, and stores a keyboard or a touch panel in the storage unit 51 in advance. Misalignment information with respect to the target point input from the input / output unit 52, such as the misalignment information calculation unit 40. The misalignment information calculation unit 40 is a target to the ceiling 114 and the wall surface 113 existing in the movement path of the robot 1. An omnidirectional camera unit 41 attached to the robot 1 for detecting a point is provided. The input / output unit 52 also includes a display device such as a display for appropriately displaying necessary information such as a target point and for confirmation by a person.

前記位置ずれ情報算出部40のロボット付属全方位カメラ部41は、前記ロボット1の移動経路に存在する天井114及び壁面113までの目標地点を検出するロボット付属全方位カメラ411(図1Bなどの全方位カメラ32aに相当。)と、全方位カメラ411の画像を入力処理する全方位カメラ処理部412と、前記ロボット付属全方位カメラ411の、ロボット1が走行する床面105からの高さを検出するカメラ高さ検出部414(例えば、上向きの超音波センサ)と、該全方位カメラ411を天井114及び壁面113に向けて配置されるように、ロボット1の支柱32bに対して、モータなどの駆動によりボールねじを回転させてボールねじに螺合したブラケットに固定された全方位カメラ411を高さ調整可能(昇降可能)に配置する全方位カメラ高さ調整部413とを備えるように構成されている。   The robot-attached omnidirectional camera unit 41 of the positional deviation information calculation unit 40 detects a target point to the ceiling 114 and the wall surface 113 that exist on the movement path of the robot 1, and is attached to the robot-attached omnidirectional camera 411 (see FIG. 1B). The height of the omnidirectional camera processing unit 412 that inputs and processes the image of the omnidirectional camera 411, and the robot-attached omnidirectional camera 411 from the floor surface 105 on which the robot 1 travels is detected. The camera height detection unit 414 (for example, an upward ultrasonic sensor) and the omnidirectional camera 411 are arranged toward the ceiling 114 and the wall surface 113 so that the support 1b of the robot 1 has a motor or the like. The height of the omnidirectional camera 411 fixed to the bracket screwed to the ball screw by rotating the ball screw by driving can be adjusted (movable up and down). It is configured to include a spherical camera height adjustment portion 413 to place.

また、図20Aにおいて、制御部50には、前記走行距離検出部20により検出された走行距離データ及び前記方向角検出部30により検出された走行方向データが所定時間間隔で入力されて、前記ロボット1の現在位置を制御部50で演算し、前記位置ずれ情報算出部40により算出された天井114及び壁面113までの目標地点に対する位置ズレ情報が制御部50に入力され、その位置ズレ情報結果に従って制御部50により駆動装置10を制御して前記ロボット1の移動経路を制御することによって、前記ロボット1が正常軌道(すなわち基本経路)から逸脱せずに目標地点まで正確に走行できるよう制御する中央処理装置CPUである。   In FIG. 20A, the control unit 50 is input with the travel distance data detected by the travel distance detection unit 20 and the travel direction data detected by the direction angle detection unit 30 at predetermined time intervals. 1 is calculated by the control unit 50, and positional shift information for the target point to the ceiling 114 and the wall surface 113 calculated by the positional shift information calculation unit 40 is input to the control unit 50, and according to the positional shift information result By controlling the driving device 10 by the control unit 50 and controlling the movement path of the robot 1, the center is controlled so that the robot 1 can accurately travel to the target point without deviating from the normal path (that is, the basic path). A processing unit CPU.

以下、前記のように構成されたロボット1の位置決め装置及び方法、及びその制御装置及び方法の作用、効果について述べる。図21は、第3実施形態による移動ロボット位置決め方法の制御フローチャートである。   Hereinafter, the operation and effect of the positioning apparatus and method for the robot 1 configured as described above, and the control apparatus and method thereof will be described. FIG. 21 is a control flowchart of the mobile robot positioning method according to the third embodiment.

図20Bに示されるように、全方位カメラ処理部412は、変換抽出部412aと、変換抽出記憶部412fと、第1相互相関マッチング部412bと、回転角ズレ量変換部412cと、第2相互相関マッチング部412dと、位置ズレ量変換部412eとで構成されている。   As shown in FIG. 20B, the omnidirectional camera processing unit 412 includes a conversion extraction unit 412a, a conversion extraction storage unit 412f, a first cross-correlation matching unit 412b, a rotation angle deviation amount conversion unit 412c, and a second mutual correlation. A correlation matching unit 412d and a positional deviation amount conversion unit 412e are configured.

前記変換抽出部412aは、画像入力部の一例として機能する全方位カメラ411により入力した画像から天井114及び壁面113の全景周辺部画像と天井114及び壁面113の全景中央部画像を変換及び抽出する(ステップS2101)。   The conversion extraction unit 412a converts and extracts the panoramic image of the ceiling 114 and the wall surface 113 and the panoramic image of the ceiling 114 and the wall surface 113 from the image input by the omnidirectional camera 411 functioning as an example of an image input unit. (Step S2101).

前記変換抽出記憶部412fは、予め指定位置にて、天井及び壁面全景中央部画像と天井及び壁面全景周辺部画像を前記変換抽出部412aから入力して、変換及び抽出及び記憶する(ステップS2102)。   The conversion / extraction storage unit 412f inputs, in advance, a ceiling / wall surface full view central image and a ceiling / wall full view peripheral image from the conversion extraction unit 412a at a specified position, and converts, extracts, and stores the image (step S2102). .

前記第1相互相関マッチング部412bは、現時点(位置決め動作を行う時点)で入力した天井及び壁面全景周辺部画像と、前記変換抽出記憶部412fに予め記憶した指定位置の天井及び壁面全景周辺部画像とで相互相関マッチングを行う(ステップS2103)。   The first cross-correlation matching unit 412b includes a ceiling and wall whole view peripheral image input at the present time (when positioning operation is performed), and a ceiling and wall full view peripheral image of a specified position stored in advance in the conversion extraction storage unit 412f. And cross-correlation matching is performed (step S2103).

前記回転角ズレ量変換部412cは、前記第1相互相関マッチング部412bにより前記マッチングにて得られた横方向位置関係(ズレ量)を回転角ズレ量に変換する(ステップS2104)。   The rotation angle deviation amount conversion unit 412c converts the lateral positional relationship (deviation amount) obtained by the first cross-correlation matching unit 412b into the rotation angle deviation amount (step S2104).

前記第2相互相関マッチング部412dは、現時点で入力した天井及び壁面全景中央部画像と、前記変換抽出記憶部412fに予め記憶した指定位置の天井及び壁面全景中央部画像とで相互相関マッチングを行う(ステップS2105)。   The second cross-correlation matching unit 412d performs cross-correlation matching between the currently input center image of the ceiling and wall surface and the ceiling and wall surface central image of the designated position stored in advance in the conversion extraction storage unit 412f. (Step S2105).

前記位置ズレ量変換部412eは、前記第2相互相関マッチング部412dによる前記マッチングにて得られた縦横方向位置関係を位置ズレ量に変換する(ステップS2106)。   The positional deviation amount conversion unit 412e converts the vertical / horizontal positional relationship obtained by the matching by the second cross-correlation matching unit 412d into a positional deviation amount (step S2106).

このような構成の全方位カメラ処理部412により、位置姿勢既知の基準となる天井及び壁面全景画像と、入力した天井及び壁面全景画像とでマッチングを行い、位置姿勢ズレ検出(前記回転角ズレ量変換部で得られた回転角ズレ量と前記位置ズレ量変換部で得られた位置ズレ量の検出)を行い、自己位置を認識して、回転角ズレ量と位置ズレ量がそれぞれ許容範囲内となるように補正すべく制御部50で駆動装置10を駆動制御することにより、前記ロボット制御装置で前記ロボット1を自律移動させるように制御している。以下に、これを詳しく説明する。なお、ここでいう、前記ロボット1の自律移動とは、前記ロボット1と人102などの移動体との距離が許容範囲内となるように一定の距離をあけて、かつ、ロボット1からの人102などの移動体への方向が許容範囲内となるように人102などの移動体が移動する経路に沿って、人102などの移動体にロボット1が追随して移動することを意味する。   The omnidirectional camera processing unit 412 having such a configuration performs matching between the ceiling and wall whole view image, which is a reference for which the position and orientation are known, and the input ceiling and wall whole view image, and detects position and posture deviation (the amount of rotation angle deviation) The rotation angle deviation amount obtained by the conversion unit and the position deviation amount obtained by the position deviation amount conversion unit are detected), the self-position is recognized, and the rotation angle deviation amount and the position deviation amount are within the allowable ranges. By controlling the drive device 10 to be corrected so as to be corrected, the robot control device controls the robot 1 to move autonomously. This will be described in detail below. Here, the autonomous movement of the robot 1 refers to a person who is away from the robot 1 at a certain distance so that the distance between the robot 1 and a moving body such as the person 102 is within an allowable range. This means that the robot 1 moves following the moving body such as the person 102 along the path along which the moving body such as the person 102 moves so that the direction to the moving body such as 102 falls within the allowable range.

まず、全方位画像入力部の一例として機能する全方位カメラ411と、前記全方位画像入力部として機能する全方位カメラ411を天井114及び壁面113に向けて高さ調整可能に配置する全方位カメラ高さ調整部413と、前記画像入力部として機能する全方位カメラ411により入力した画像から天井114及び壁面113の全景周辺部画像と天井114及び壁面113の全景中央部画像を変換及び抽出する変換及び抽出部412aとを用いて、予め指定位置にて、基準となる天井114及び壁面113の全景中央部画像と天井114及び壁面113の全景周辺部画像を入力し変換及び抽出するとともに記憶する。図25Bの601は第3実施形態によるあらかじめ指定位置入力し変換及び抽出及び記憶した、基準となる天井及び壁面の全景中央部画像と天井及び壁面の全景周辺部画像である(図26参照)。第3実施形態では、全方位画像入力部として機能する全方位カメラ411にはPAL型レンズ又は魚眼レンズを用いている(図22参照)。   First, an omnidirectional camera 411 that functions as an example of an omnidirectional image input unit and an omnidirectional camera 411 that functions as the omnidirectional image input unit are arranged so that the height can be adjusted toward the ceiling 114 and the wall surface 113. Conversion that converts and extracts the panoramic image of the ceiling 114 and the wall surface 113 and the panoramic image of the ceiling 114 and the wall surface 113 from the image input by the height adjustment unit 413 and the omnidirectional camera 411 functioning as the image input unit. And the extraction unit 412a are used to input, convert, extract, and store the reference image of the entire center of the ceiling 114 and the wall surface 113 and the image of the entire periphery of the ceiling 114 and the wall surface 113 at a specified position in advance. Reference numeral 601 in FIG. 25B denotes a reference image of the center of the ceiling and wall and a peripheral image of the entire view of the ceiling and wall, which are input, converted, extracted, and stored in advance according to the third embodiment (see FIG. 26). In the third embodiment, a PAL lens or a fisheye lens is used for the omnidirectional camera 411 that functions as an omnidirectional image input unit (see FIG. 22).

ここで、全方位カメラ411と、前記全方位カメラ411を天井及び壁面に向けて高さ調整可能に配置する全方位カメラ高さ調整部413と、前記全方位カメラ411により入力した画像から天井及び壁面全景周辺部画像を変換及び抽出する変換及び抽出部412aを使用する手順の1つの実例を、図23の上半部及び式403にて示す。前記手順で変換及び抽出した画像の1つの実例が401である。   Here, an omnidirectional camera 411, an omnidirectional camera height adjustment unit 413 that arranges the omnidirectional camera 411 toward the ceiling and the wall surface so as to be height-adjustable, and an image input from the omnidirectional camera 411 One example of the procedure using the conversion and extraction unit 412a for converting and extracting the whole wall peripheral view peripheral image is shown in the upper half of FIG. One example of an image converted and extracted by the above procedure is 401.

Figure 0004464912
・・・・・・・ 式403
Figure 0004464912
.... Formula 403

次に、全方位カメラ411と、前記全方位カメラ411を天井及び壁面に向けて高さ調整可能に配置する全方位カメラ高さ調整部413と、前記全方位カメラ411により入力した画像から天井及び壁面全景中央部画像を変換及び抽出する変換及び抽出部412aを使用する手順の1つの実例を、図23の下半部及び式404にて示す。   Next, an omnidirectional camera 411, an omnidirectional camera height adjustment unit 413 that arranges the omnidirectional camera 411 so that the height of the omnidirectional camera 411 can be adjusted toward the ceiling and the wall surface, and an image input from the omnidirectional camera 411 One example of the procedure for using the conversion and extraction unit 412a for converting and extracting the whole wall center view image is shown in the lower half of FIG.

Figure 0004464912
・・・・・・・ 式404
Figure 0004464912
.... 404

Figure 0004464912
・・・・・・・式405
Figure 0004464912
.... Formula 405

また、式405の内容を図24に示す。図24でX及びY及びZは全方位カメラ411にて入力した対象物の位置座標、x及びyは変換した対象物の位置座標である。通常は天井114は一定の高さであるため、Zの値は、天井114上で一定値と仮定し、計算を簡略化している。Zの値を算出するには、対象物高さ検出部(例えば、上向きの超音波センサ)422による検出結果と、カメラ高さ検出部414による検出結果を用いる。これを図24の式(4)に示す。この変換により全方位画像入力部の周辺歪みが除去され、以下に記す相互相関マッチング演算が可能となる。   The contents of the expression 405 are shown in FIG. In FIG. 24, X, Y, and Z are the position coordinates of the object input by the omnidirectional camera 411, and x and y are the position coordinates of the converted object. Usually, since the ceiling 114 has a constant height, the value of Z is assumed to be a constant value on the ceiling 114 to simplify the calculation. In order to calculate the value of Z, the detection result by the object height detection unit (for example, the upward ultrasonic sensor) 422 and the detection result by the camera height detection unit 414 are used. This is shown in equation (4) in FIG. By this conversion, the peripheral distortion of the omnidirectional image input unit is removed, and the cross correlation matching calculation described below becomes possible.

前記変換は、極座標状画像を格子状画像に変換するため、導出している。式(4)の項を入れることで、半球状/同心円状の歪み変化を算入できる。前記手順で抽出した画像の1つの実例が402(図23)である。   The conversion is derived to convert a polar coordinate image into a lattice image. By adding the term of formula (4), hemispherical / concentric circular strain change can be included. One example of the image extracted by the above procedure is 402 (FIG. 23).

前記手順にて算出した、あらかじめ指定位置入力し変換及び抽出及び記憶した、基準となる天井及び壁面全景中央部画像の1つの実例が図25C及び図26の612である。また、あらかじめ指定位置入力し変換及び抽出及び記憶した、基準となる天井及び壁面全景周辺部画像の1つの実例が図25Bの611である。   One example of the reference image of the center of the ceiling and wall surface, which is calculated in the above-described procedure and is converted, extracted, and stored in advance by inputting a designated position, is 612 in FIGS. 25C and 26. In addition, reference numeral 611 in FIG. 25B is an example of the reference ceiling and wall surface panoramic view peripheral image that has been input in advance, converted, extracted, and stored.

現時点で、全方位カメラ411と、前記全方位カメラ411を天井及び壁面に向けて高さ調整可能に配置する全方位カメラ高さ調整部413と、前記全方位カメラ411により入力した画像から天井及び壁面全景周辺部画像と天井及び壁面全景中央部画像を変換及び抽出する変換抽出部412aとを用いて、予め指定位置にて、基準となる天井及び壁面全景中央部画像と天井及び壁面全景周辺部画像を入力し変換及び抽出する。図25A及び図26の602及び621及び622は、1つの実例による、現時点で入力(入力画像を602で示す。)し変換及び抽出及び記憶した、天井及び壁面全景中央部画像(622)と天井及び壁面全景周辺部画像(621)である。   At this time, an omnidirectional camera 411, an omnidirectional camera height adjustment unit 413 that arranges the omnidirectional camera 411 so as to be height-adjustable toward the ceiling and the wall surface, and an image input from the omnidirectional camera 411 Using the conversion / extraction unit 412a that converts and extracts the whole-wall-view peripheral image and the ceiling / wall-view central image, the reference ceiling / wall-view central image and the ceiling / wall-view peripheral portion at a predetermined position in advance. Input image, convert and extract. 602, 621, and 622 in FIGS. 25A and 26 are the ceiling and wall panoramic center image (622) and the ceiling that are currently input (the input image is indicated by 602), converted, extracted, and stored according to one example. And a wall surface full view peripheral image (621).

あらかじめ指定位置にて、天井及び壁面全景中央部画像と天井及び壁面全景周辺部画像を入力し変換及び抽出及び記憶した際の手順と同様に、現時点の天井及び壁面全景中央部画像と天井及び壁面全景周辺部画像も、図23の処理手順で変換及び抽出する。   Similar to the procedure for inputting, converting, extracting, and storing the central image of the ceiling and wall surface and the peripheral image of the ceiling and wall surface at the specified position in advance, the central image of the current ceiling and wall surface, and the ceiling and wall surface. The panoramic view peripheral image is also converted and extracted by the processing procedure of FIG.

図25Cの651に、現時点で入力した天井及び壁面全景周辺部画像と、あらかじめ記憶した指定位置の天井及び壁面全景周辺部画像とで、1つの実例による相互相関マッチングを行う状況を示す。基準となる天井及び壁面全景周辺部画像611と、変換及び抽出及び記憶した天井及び壁面全景周辺部画像621との間の横方向ズレ量631が、姿勢(角度)ズレ量を示す。横方向ズレ量をロボット1の回転角度(姿勢)に換算できる。   651 in FIG. 25C shows a situation where cross-correlation matching is performed using one example with the ceiling and wall surface whole view peripheral part image input at the present time and the ceiling and wall whole surface peripheral part peripheral image of the specified position stored in advance. A lateral displacement 631 between the reference ceiling and wall full view peripheral image 611 and the ceiling, wall full view peripheral image 621 converted, extracted, and stored indicates the posture (angle) deviation. The amount of lateral displacement can be converted into the rotation angle (posture) of the robot 1.

図25Cの画像652に、現時点で入力した天井及び壁面全景中央部画像と、あらかじめ記憶した指定位置の天井及び壁面全景中央部画像とで、1つの実例による相互相関マッチングを行う状況を示す。基準となる天井及び壁面全景中央部画像612と、変換及び抽出及び記憶した、天井及び壁面全景中央部画像622との間のXY横方向ズレ量632及び633(Y方向ズレ量632及びX方向ズレ量633)が、位置ズレ量を示す。   An image 652 in FIG. 25C shows a situation where cross-correlation matching is performed using one example of the ceiling and wall surface panoramic center image input at the present time and the ceiling and wall surface panoramic central image of the specified position stored in advance. XY lateral displacement amounts 632 and 633 (Y-direction displacement amount 632 and X-direction displacement amount) between the ceiling and wall surface overall view center image 612 serving as a reference and the ceiling and wall surface overall view central image 622 converted, extracted, and stored. A quantity 633) indicates a positional deviation amount.

前記2つの位置ズレ量から、位置姿勢ズレ検出を行い自己位置認識することができる。また、天井及び壁面全景周辺部画像及び、天井及び壁面全景中央部画像には、所謂ランドマークは使われていない。   From the two positional deviation amounts, the position and orientation deviation can be detected to recognize the self position. In addition, so-called landmarks are not used in the ceiling and wall surface full view peripheral image and the ceiling and wall full view central image.

前記それぞれの実施形態において、天井を基準にしているのは、通常は天井には凹凸が少なく一定高さであると仮定しやすく、基準点として取り扱いやすいからである。これに対して、壁面などは、移動体が存在したり、家具などか配置されていても、移動されたり、新たに家具が配置されたりすることがあるため、基準点として取り扱いにくいと考えられる。   The reason why the ceiling is used as a reference in each of the above embodiments is that it is usually easy to assume that the ceiling has a small height and a constant height, and is easy to handle as a reference point. On the other hand, it is considered that the wall surface is difficult to handle as a reference point because it may be moved or newly furnished even if a moving object exists or furniture is arranged. .

なお、前記種々の全方位カメラ画像において、中心に映っている黒い円は、カメラ本体である。   In the various omnidirectional camera images, the black circle shown at the center is the camera body.

なお、前記様々な実施形態のうちの任意の実施形態を適宜組み合わせることにより、それぞれの有する効果を奏するようにすることができる。   It is to be noted that, by appropriately combining any of the various embodiments, the effects possessed by them can be produced.

本発明は、添付図面を参照しながら好ましい実施形態に関連して充分に記載されているが、この技術の熟練した人々にとっては種々の変形や修正は明白である。そのような変形や修正は、添付した請求の範囲による本発明の範囲から外れない限りにおいて、その中に含まれると理解されるべきである。   Although the present invention has been fully described in connection with preferred embodiments with reference to the accompanying drawings, various variations and modifications will be apparent to those skilled in the art. Such changes and modifications are to be understood as being included therein, so long as they do not depart from the scope of the present invention according to the appended claims.

本発明は、自律移動ロボットが自律移動で移動可能範囲を認識しつつ移動可能な経路を生成するロボット制御装置及び方法に関する。ここでいう、前記ロボットの自律移動とは、前記ロボットと人などの移動体との距離が許容範囲内となるように一定の距離をあけて、かつ、ロボットからの人などの移動体への方向が許容範囲内となるように人などの移動体が移動する経路に沿って、人などの移動体にロボットが追随して移動することを意味する。本発明は、特に誘導路として床面に部分的に磁気テープや反射テープ等を敷設せずに、例えば、自律移動ロボットにアレーアンテナ、人に送信機等を設け、ロボット前方に存在する人の方向角を時系列に検出し、人の移動に合わせてロボットも移動させ、基本経路を人が歩いて倣い経路教示して、移動可能範囲を認識しつつ移動可能な経路を生成するロボット制御装置に関する。本発明の1つの態様のロボット制御装置及び方法では、移動経路範囲を人の後追いとロボット自律移動にて教示させることができる。さらに、本発明の別の態様のロボット制御装置及び方法では、移動体を特定し継続して移動体の(距離及び方向)検知を行うこともできる。また、本発明のさらに別の態様のロボット制御装置及び方法では、位置姿勢既知の基準となる天井及び壁面全景画像と、入力した天井及び壁面全景画像とでマッチングを行い位置姿勢ズレ検出を行い自己位置認識することもできる。   The present invention relates to a robot control apparatus and method for generating a movable path while an autonomous mobile robot recognizes a movable range by autonomous movement. Here, the autonomous movement of the robot means that a certain distance is provided so that the distance between the robot and a moving body such as a person is within an allowable range, and the robot is moved to a moving body such as a person. This means that the robot moves following the moving body such as a person along the path along which the moving body such as a person moves so that the direction is within the allowable range. The present invention does not particularly lay a magnetic tape or a reflective tape partially on the floor surface as a guide path. For example, an autonomous mobile robot is provided with an array antenna, a person is provided with a transmitter, and the like. A robot control device that detects a direction angle in time series, moves a robot in accordance with the movement of a person, teaches a basic path by walking and follows a basic path, and generates a movable path while recognizing a movable range About. In the robot control apparatus and method according to one aspect of the present invention, the movement path range can be taught by the follow-up of the person and the robot autonomous movement. Furthermore, in the robot control apparatus and method according to another aspect of the present invention, it is also possible to identify the moving body and continue to detect the moving body (distance and direction). In the robot control apparatus and method according to still another aspect of the present invention, matching is performed between the ceiling and wall whole view image serving as a reference for which the position and orientation are known and the input ceiling and wall whole view image, and the position and posture deviation detection is performed. The position can also be recognized.

本発明の第1〜第3実施形態によるロボット制御装置の制御ブロック図である。It is a control block diagram of the robot controller according to the first to third embodiments of the present invention. 本発明の前記第1実施形態によるロボット制御装置により制御されるロボットの正面図である。It is a front view of the robot controlled by the robot control apparatus by the said 1st Embodiment of this invention. 本発明の前記第1実施形態によるロボット制御装置により制御されるロボットの側面図である。It is a side view of the robot controlled by the robot control apparatus by the said 1st Embodiment of this invention. 本発明の前記第1実施形態によるロボット制御装置により制御されるロボットの基本経路の直接教示を説明するための説明図である。It is explanatory drawing for demonstrating the direct teaching of the basic path | route of the robot controlled by the robot control apparatus by the said 1st Embodiment of this invention. 本発明の前記第1実施形態によるロボット制御装置により制御されるロボットの移動可能範囲の学習を説明するための説明図である。It is explanatory drawing for demonstrating learning of the movable range of the robot controlled by the robot control apparatus by the said 1st Embodiment of this invention. 本発明の前記第1実施形態によるロボット制御装置により制御されるロボットの移動可能範囲内経路の生成を説明するための説明図である。It is explanatory drawing for demonstrating the production | generation of the path | route within the movable range of the robot controlled by the robot control apparatus by the said 1st Embodiment of this invention. 本発明の前記第1実施形態によるロボット制御装置において、人の方向角を時系列に監視し時系列方向角変化データより人の移動を検知する場合を説明するための説明図である。In the robot control apparatus according to the first embodiment of the present invention, it is an explanatory diagram for explaining a case where a person's direction angle is monitored in time series and a person's movement is detected from time series direction angle change data. 本発明の前記第1実施形態によるロボット制御装置において、人の方向角を時系列に監視し時系列方向角変化データより人の移動を検知する場合を説明するための説明図である。In the robot control apparatus according to the first embodiment of the present invention, it is an explanatory diagram for explaining a case where a person's direction angle is monitored in time series and a person's movement is detected from time series direction angle change data. 本発明の前記第1実施形態によるロボット制御装置において、人の方向角を時系列に監視し時系列方向角変化データより人の移動を検知する場合を説明するためのブロック図である。FIG. 5 is a block diagram for explaining a case in which a person's direction angle is monitored in time series and a person's movement is detected from time series direction angle change data in the robot control apparatus according to the first embodiment of the present invention. 本発明の前記第1実施形態によるロボット制御装置において、プレイバック型ナビゲーションの動作を示すフローチャートである。4 is a flowchart showing an operation of playback navigation in the robot control apparatus according to the first embodiment of the present invention. 本発明の前記第1実施形態によるロボット制御装置において、人追随基本経路教示の動作を説明するための説明図である。It is explanatory drawing for demonstrating the operation | movement of a person following basic route teaching in the robot control apparatus by the said 1st Embodiment of this invention. 本発明の前記第1実施形態によるロボット制御装置において、人追随基本経路教示の動作を説明するための全方位カメラで撮像した画像の図である。It is a figure of the image imaged with the omnidirectional camera for demonstrating the operation | movement of a person following basic path | route teaching in the robot control apparatus by the said 1st Embodiment of this invention. 本発明の前記第1実施形態によるロボット制御装置において、人追随基本経路教示の動作を説明するためのロボットが部屋内を移動する状態を説明する図である。In the robot control apparatus by the said 1st Embodiment of this invention, it is a figure explaining the state in which the robot for demonstrating operation | movement of a person following basic path | route teaching moves in a room. 本発明の前記第1実施形態によるロボット制御装置において、人追随基本経路教示の動作を説明するための説明図である。It is explanatory drawing for demonstrating the operation | movement of a person following basic route teaching in the robot control apparatus by the said 1st Embodiment of this invention. 本発明の前記第1実施形態によるロボット制御装置において、人追随基本経路教示の動作を説明するため、ロボットが部屋内を移動する状態とともに全方位光学系の時系列の天井全景画像の図である。In the robot control apparatus according to the first embodiment of the present invention, in order to explain the operation of teaching a person-following basic route, it is a diagram of a time-series ceiling panoramic image of an omnidirectional optical system together with a state in which the robot moves in a room. . 本発明の前記第1実施形態によるロボット制御装置において、プレイバック型自律移動を説明するため、ロボットが部屋内を移動する状態と全方位光学系の時系列の天井全景画像の図である。In the robot control apparatus by the said 1st Embodiment of this invention, in order to demonstrate playback-type autonomous movement, it is a figure of the state which a robot moves in a room, and the time series ceiling whole view image of an omnidirectional optical system. 本発明の前記第1実施形態によるロボット制御装置において、人検出の場合の全方位光学系の天井全景画像の図である。In the robot control apparatus by the said 1st Embodiment of this invention, it is a figure of the ceiling whole view image of the omnidirectional optical system in the case of a person detection. 本発明の前記第1実施形態によるロボット制御装置において、人検出の場合の人追随の場合を説明するための図である。FIG. 6 is a diagram for explaining a case of following a person in the case of human detection in the robot control apparatus according to the first embodiment of the present invention. 本発明の前記第2実施形態による移動ロボット制御装置の制御ブロック図である。It is a control block diagram of the mobile robot controller according to the second embodiment of the present invention. 本発明の前記第2実施形態の変形例による移動ロボット制御装置の制御ブロック図である。It is a control block diagram of the mobile robot control apparatus by the modification of the said 2nd Embodiment of this invention. 従来技術であるオプティカルフローを示す図である。It is a figure which shows the optical flow which is a prior art. 本発明の前記第2実施形態による移動体検出方法において、全方位カメラを用いた場合の撮像した画像の図である。In the moving body detection method by the said 2nd Embodiment of this invention, it is a figure of the image imaged at the time of using an omnidirectional camera. 本発明の前記第2実施形態による移動体検出方法において、全方位カメラを用いた場合の撮像した画像に対する様々な対応点配置例であって、かつ、本発明の前記第2実施形態による移動体検出方法で対応点(フロー算出点)を人又は移動体の特定領域に限定して演算コストを削減した状態の図である。In the moving body detection method according to the second embodiment of the present invention, there are various examples of corresponding point arrangements for captured images when an omnidirectional camera is used, and the moving body according to the second embodiment of the present invention. It is a figure of the state which limited the corresponding point (flow calculation point) by the detection method to the specific area | region of a person or a mobile body, and reduced calculation cost. 本発明の前記第2実施形態による移動体検出方法において、全方位カメラを用いた場合の撮像した画像に対する様々な対応点配置例であって、かつ、本発明の前記第2実施形態による移動体検出方法で対応点(フロー算出点)を人又は移動体の特定領域に限定して演算コストを削減した状態の図である。In the moving body detection method according to the second embodiment of the present invention, there are various corresponding point arrangement examples for a captured image when an omnidirectional camera is used, and the moving body according to the second embodiment of the present invention It is a figure of the state which limited the corresponding point (flow calculation point) by the detection method to the specific area | region of a person or a mobile body, and reduced calculation cost. 本発明の前記第2実施形態による移動体検出方法において、全方位カメラを用いた場合の撮像した画像に対する様々な対応点配置例であって、かつ、本発明の前記第2実施形態による移動体検出方法で対応点(フロー算出点)を人又は移動体の特定領域に限定して演算コストを削減した状態の図である。In the moving body detection method according to the second embodiment of the present invention, there are various examples of corresponding point arrangements for captured images when an omnidirectional camera is used, and the moving body according to the second embodiment of the present invention. It is a figure of the state which limited the corresponding point (flow calculation point) by the detection method to the specific area | region of a person or a mobile body, and reduced calculation cost. 本発明の前記第2実施形態による移動体検出方法において、全方位カメラを用いた場合の撮像した画像に対する様々な対応点配置例であって、かつ、本発明の前記第2実施形態による移動体検出方法で対応点(フロー算出点)を人又は移動体の特定領域に限定して演算コストを削減した状態の図である。In the moving body detection method according to the second embodiment of the present invention, there are various examples of corresponding point arrangements for captured images when an omnidirectional camera is used, and the moving body according to the second embodiment of the present invention. It is a figure of the state which limited the corresponding point (flow calculation point) by the detection method to the specific area | region of a person or a mobile body, and reduced calculation cost. 本発明の前記第2実施形態による移動体検出方法において、全方位カメラで撮像した画像において、合格判定した対応点群の説明図である。In the moving body detection method by the said 2nd Embodiment of this invention, it is explanatory drawing of the corresponding point group which carried out the pass determination in the image imaged with the omnidirectional camera. それぞれ、本発明の前記第2実施形態による移動体検出方法において、全方位カメラで撮像した画像において、合格判定した対応点群より人領域抽出した結果を示す図である。In the moving body detection method by the said 2nd Embodiment of this invention, it is a figure which shows the result of having extracted the human area | region from the corresponding point group which carried out the pass determination in the image imaged with the omnidirectional camera, respectively. 本発明の前記第2実施形態による移動体検出方法において、全方位カメラで撮像した画像から生成した人領域のパノラマ展開画像を用い、人領域パノラマ展開画像の特定濃淡値射像より人の頭を抽出した結果の説明図である。In the moving object detection method according to the second embodiment of the present invention, the human head panorama development image generated from the image captured by the omnidirectional camera is used, and the human head is obtained from the specific grayscale projection of the human area panorama development image. It is explanatory drawing of the extracted result. 本発明の前記第2実施形態による移動体検出方法において、全方位光学系を用いる場合、全方位カメラで撮像した画像における人の足元(床に近い)領域となる中央部分の対応点を説明するための図である。In the moving object detection method according to the second embodiment of the present invention, when an omnidirectional optical system is used, corresponding points of a central portion that is a human foot area (close to the floor) in an image captured by an omnidirectional camera will be described. FIG. 本発明の前記第2実施形態による移動体検出方法において、全方位光学系を用いる場合、全方位光学系外となる四隅の領域の対応点では人及び物体の移動により発生するオプティカルフロー以外のフロー(ノイズフロー)が発生しやすいことを説明するための図である。In the moving object detection method according to the second embodiment of the present invention, when an omnidirectional optical system is used, a flow other than the optical flow generated by the movement of a person and an object at corresponding points in the four corner regions outside the omnidirectional optical system. It is a figure for demonstrating that (noise flow) is easy to generate | occur | produce. 本発明の前記第2実施形態による移動体検出方法において、人の特徴位置を基準に人との距離を算出する方法を説明するため、全方位カメラ画像のパノラマ展開画像でロボットから人への距離が異なる画像を並べた状態の図である。In the moving object detection method according to the second embodiment of the present invention, the distance from the robot to the person in the panoramic unfolded image of the omnidirectional camera image in order to explain the method of calculating the distance to the person based on the person's characteristic position. It is a figure of the state which arranged the image where different. 本発明の前記第2実施形態による移動体検出方法において、特定した人領域に基づき人の距離画像検出を説明するために、ロボットが部屋内を移動する状態を説明する図である。In the moving body detection method by the said 2nd Embodiment of this invention, in order to demonstrate a person's distance image detection based on the specified person area | region, it is a figure explaining the state which a robot moves in a room. 本発明の前記第2実施形態による移動体検出方法において、特定した人領域に基づき人の距離画像検出を説明するために、全方位カメラで撮像した画像の図である。In the moving body detection method by the said 2nd Embodiment of this invention, it is a figure of the image imaged with the omnidirectional camera in order to demonstrate a person's distance image detection based on the specified person area | region. 本発明の前記第2実施形態による移動体検出方法において、特定した人領域に基づき人の距離画像検出を説明するため、距離画像の移動体領域より移動体位置を特定する場合の説明図である。In the moving body detection method by the said 2nd Embodiment of this invention, in order to demonstrate a person's distance image detection based on the specified person area, it is explanatory drawing in the case of specifying a moving body position from the moving body area | region of a distance image. . 本発明の前記第2実施形態による移動体検出方法において、特定した人領域に基づき人の距離画像検出を説明するため、距離画像の移動体領域を判定する場合の説明図である。In the moving body detection method by the said 2nd Embodiment of this invention, in order to demonstrate distance image detection of a person based on the specified person area, it is explanatory drawing in the case of determining the moving body area | region of a distance image. 本発明の前記第2実施形態による移動体検出方法の処理を示すフローチャートである。It is a flowchart which shows the process of the moving body detection method by the said 2nd Embodiment of this invention. 本発明の前記第3実施形態によるロボット制御装置のロボット位置決め装置を備えるロボットの制御ブロック図である。It is a control block diagram of a robot provided with a robot positioning device of the robot control device according to the third embodiment of the present invention. 本発明の前記第3実施形態によるロボット制御装置の全方位カメラ処理部のブロック図である。It is a block diagram of the omnidirectional camera processing part of the robot control apparatus by the said 3rd Embodiment of this invention. 本発明の前記第3実施形態によるロボット制御装置におけるロボット位置決め動作のフローチャートである。It is a flowchart of the robot positioning operation | movement in the robot control apparatus by the said 3rd Embodiment of this invention. 本発明の前記第3実施形態によるロボット制御装置のロボット位置決め装置において、全方位画像入力部の1つの実例でPAL型レンズ又は魚眼レンズを用いた場合の入力画像の特徴を説明するための説明図である。In the robot positioning device of the robot control device according to the third embodiment of the present invention, an explanatory diagram for explaining the characteristics of an input image when a PAL type lens or a fisheye lens is used in one example of an omnidirectional image input unit. is there. 本発明の前記第3実施形態によるロボット制御装置のロボット位置決め装置において、全方位画像入力部と、前記画像入力部を天井及び壁面に向けて高さ調整可能に配置する全方位カメラ高さ調整部と、前記画像入力部により入力した画像から天井及び壁面全景周辺部画像及び天井及び壁面全景中央部画像を変換及び抽出する変換抽出部の動作手順の説明図である。In the robot positioning device of the robot control apparatus according to the third embodiment of the present invention, an omnidirectional image input unit and an omnidirectional camera height adjustment unit that arranges the image input unit so as to be height-adjustable toward a ceiling and a wall surface. FIG. 6 is an explanatory diagram of an operation procedure of a conversion and extraction unit that converts and extracts a ceiling and wall whole view peripheral image and a ceiling and wall whole view central image from an image input by the image input unit. 本発明の前記第3実施形態によるロボット制御装置のロボット位置決め装置において、全方位画像入力部と、前記画像入力部により入力した画像から天井及び壁面全景周辺部画像を変換及び抽出する変換抽出部の動作手順の説明図である。In the robot positioning device of the robot control apparatus according to the third embodiment of the present invention, an omnidirectional image input unit, and a conversion and extraction unit that converts and extracts a ceiling and wall surface panoramic image from an image input by the image input unit. It is explanatory drawing of an operation | movement procedure. 本発明の前記第3実施形態によるロボット制御装置のロボット位置決め装置において、現時点(位置決め動作を行う時点)で入力した天井及び壁面全景周辺部画像及び天井及び壁面全景中央部画像と、予め記憶した指定位置の天井及び壁面全景周辺部画像及び天井及び壁面全景中央部画像とで、1つの実例として相互相関マッチングを行う状況を示した図である。In the robot positioning device of the robot control apparatus according to the third embodiment of the present invention, the ceiling and wall full view peripheral image and the ceiling and wall full view central image input at the present time (when the positioning operation is performed), and the prestored designation It is the figure which showed the condition which cross-correlation-matches as one example with the ceiling and wall surface whole view peripheral part image of a position, and a ceiling and wall surface whole view center part image. 本発明の前記第3実施形態によるロボット制御装置のロボット位置決め装置において、現時点(位置決め動作を行う時点)で入力した天井及び壁面全景周辺部画像及び天井及び壁面全景中央部画像と、予め記憶した指定位置の天井及び壁面全景周辺部画像及び天井及び壁面全景中央部画像とで、1つの実例として相互相関マッチングを行う状況を示した図である。In the robot positioning device of the robot control apparatus according to the third embodiment of the present invention, the ceiling and wall full view peripheral image and the ceiling and wall full view central image input at the present time (when the positioning operation is performed), and the prestored designation It is the figure which showed the condition which performs cross-correlation matching as one example with the ceiling and wall surface whole view peripheral part image of a position, and a ceiling and wall surface whole view center part image. 本発明の前記第3実施形態によるロボット制御装置のロボット位置決め装置において、現時点(位置決め動作を行う時点)で入力した天井及び壁面全景周辺部画像及び天井及び壁面全景中央部画像と、予め記憶した指定位置の天井及び壁面全景周辺部画像及び天井及び壁面全景中央部画像とで、1つの実例として相互相関マッチングを行う状況を示した図である。In the robot positioning device of the robot control apparatus according to the third embodiment of the present invention, the ceiling and wall full view peripheral image and the ceiling and wall full view central image input at the present time (when the positioning operation is performed), and the prestored designation It is the figure which showed the condition which performs cross-correlation matching as one example with the ceiling and wall surface whole view peripheral part image of a position, and a ceiling and wall surface whole view center part image. 本発明の前記第3実施形態によるロボット制御装置のロボット位置決め装置において、図25A,図25B,及び図25Cに関して、基本経路の地図を基にロボットがプレイバック自律移動を行うときの地図の追加を説明するための説明図である。In the robot positioning device of the robot control device according to the third embodiment of the present invention, with respect to FIGS. 25A, 25B, and 25C, a map is added when the robot performs playback autonomous movement based on the map of the basic route. It is explanatory drawing for demonstrating.

符号の説明Explanation of symbols

1…ロボット、10…駆動装置、11…左側モータ駆動部、12…右側モータ駆動部、20…走行距離検出部、21…左側エンコーダ、22…右側エンコーダ、30…方向角検出部、31…人移動検知部、31a,31b…ステレオカメラ、32…ロボット移動量検出部、32a…全方位光学系、32b…支柱、33…ロボット基本経路教示データ変換部、34…ロボット基本経路教示データ蓄積部、35…移動可能範囲算出部、36…障害物検出部、37…移動経路生成部、60…システム、50…制御部、51…記憶部、52…入出力部、100…後側駆動輪、101…前側補助走行輪、102…人、103…障害物、104…基本経路、104a…基本経路に対して幅方向に移動可能な範囲、105…走行床面、106…移動経路、106a…幅方向の成分、107a…経路、107b…赤ん坊のいる場所、107c…近道、107d…経路、111…左側走行モータ、113…壁面、114…天井、121…右側走行モータ、201…対応点、301…画像中央部分の対応点、302…全方位カメラ画像、302a…人の足元(床に近い)領域、302b…画像の四隅の領域、311…フロー対応点、312…対応点、313…対応点、401…対応点群、402…人領域、404…人の方向角α、411…全方位カメラ、412…全方位カメラ処理部、412a…変換抽出部、412b…第1相互相関マッチング部、412c…回転角ズレ量変換部、412d…第2相互相関マッチング部、412e…位置ズレ量変換部、412f…変換抽出記憶部、413…全方位カメラ高さ調整部、414…カメラ高さ検出部、501…頭を抽出した領域、502…人領域パノラマ展開画像、503…縦方向の特定濃淡値射像、504…横方向の特定濃淡値射像、601…基準となる天井及び壁面の全景中央部画像と天井及び壁面の全景周辺部画像、902…距離画像、903…人領域として検出した画像、1200…移動体検出装置、1201…フロー算出対応点位置算出配置部、1201a…対応点位置算出配置変更部、1202…時系列画像取得部、1203…移動量算出部、1204…移動体移動判断部、1205…移動体領域抽出部、1206a…距離画像算出部、1206b…距離画像特定範囲移動部、1206c…移動体領域判定部、1206d…移動体位置特定部、1206e…距離算出部。   DESCRIPTION OF SYMBOLS 1 ... Robot, 10 ... Drive apparatus, 11 ... Left motor drive part, 12 ... Right motor drive part, 20 ... Travel distance detection part, 21 ... Left encoder, 22 ... Right encoder, 30 ... Direction angle detection part, 31 ... Human Movement detection unit, 31a, 31b ... stereo camera, 32 ... robot movement amount detection unit, 32a ... omnidirectional optical system, 32b ... post, 33 ... robot basic path teaching data conversion unit, 34 ... robot basic path teaching data storage unit, 35 ... movable range calculation unit, 36 ... obstacle detection unit, 37 ... movement route generation unit, 60 ... system, 50 ... control unit, 51 ... storage unit, 52 ... input / output unit, 100 ... rear drive wheel, 101 ... front auxiliary traveling wheel, 102 ... person, 103 ... obstacle, 104 ... basic route, 104a ... range of movement in the width direction with respect to the basic route, 105 ... traveling floor surface, 106 ... moving route, 1 6a ... component in the width direction, 107a ... route, 107b ... place where the baby is located, 107c ... shortcut, 107d ... route, 111 ... left side travel motor, 113 ... wall surface, 114 ... ceiling, 121 ... right side travel motor, 201 ... corresponding point 301 ... corresponding point in the center of the image 302 ... omnidirectional camera image 302a ... human foot (close to the floor) region 302b ... four corners of the image 311 ... flow corresponding point 312 ... corresponding point 313 ... Corresponding points, 401 ... Corresponding point group, 402 ... Human region, 404 ... Human direction angle α, 411 ... Omnidirectional camera, 412 ... Omnidirectional camera processing unit, 412a ... Conversion extraction unit, 412b ... First cross-correlation matching unit 412c: Rotation angle deviation amount conversion unit, 412d: Second cross-correlation matching unit, 412e ... Position deviation amount conversion unit, 412f ... Conversion extraction storage unit, 413 ... Omnidirectional camera Height adjusting unit, 414... Camera height detecting unit, 501... Head extracted area, 502... Human area panorama developed image, 503... Vertical specific grayscale image, 504. , 601... Central image of the ceiling and wall and a peripheral image of the ceiling and wall, 902. Distance image, 903. Image detected as a human area, 1200. Mobile detection device, 1201. Point position calculation / arrangement unit, 1201a ... corresponding point position calculation / allocation change unit, 1202 ... time-series image acquisition unit, 1203 ... movement amount calculation unit, 1204 ... moving body movement determination unit, 1205 ... moving body region extraction unit, 1206a ... distance Image calculation unit, 1206b ... distance image specific range moving unit, 1206c ... moving body region determination unit, 1206d ... moving body position specifying unit, 1206e ... distance calculation unit.

Claims (3)

移動可能なロボットに搭載され、かつ、前記ロボットの前方に存在する移動体としての人を検知した後、前記人の移動を検知する人移動検知部と、
前記ロボットに搭載され、かつ、経路教示時、前記人移動検知部で検知された前記人の移動に合わせて前記ロボットを移動させる駆動装置と、
前記駆動装置で移動させられた前記ロボットの移動量を検知するロボット移動量検知部と、
前記ロボット移動量検知部で検知した前記移動量をあらわす移動量データを蓄積し経路教示データに変換する第1経路教示データ変換部と、
前記ロボットに搭載され、かつ、前記ロボットの周囲の障害物や前記ロボットが移動する空間の天井又は壁位置を検出する周囲物体検出部と、
前記第1経路教示データ変換部で変換された前記経路教示データに沿って前記駆動装置の駆動により前記ロボットが自律移動するとき、前記周囲物体検出部にて検出した前記障害物の位置より、前記経路教示データに対する前記ロボットのロボット移動可能範囲を算出するロボット移動可能範囲算出部と、
前記経路教示データと前記ロボット移動可能範囲算出部で算出された前記移動可能範囲とより、前記ロボットの自律移動用移動経路を生成する移動経路生成部とを備えて、
前記人移動検知部は、
予め、前記ロボットの周囲の、前記人の動きに合わせて検出する対応点の位置を算出及び配置する対応点位置算出配置部と、
時系列に複数の画像を取得する時系列複数画像取得部と、
前記時系列複数画像取得部により取得された前記時系列の複数の画像間にて、前記対応点位置算出配置部により配置された対応点を検出し、検出された対応点の複数の画像間での移動量を算出する移動量算出部と、
前記移動量算出部により算出した前記移動量より、前記人の移動に合致する対応点であるか否かを判断する移動体移動判断部と、
前記移動体移動判断部で得られた対応点群より、前記人が存在している範囲である移動体領域を抽出する移動体領域抽出部と、
前記ロボットの周囲のある範囲である前記ロボットの周囲の距離画像特定範囲の距離画像を算出する距離画像算出部と、
前記移動体領域抽出部で抽出した前記移動体領域の範囲に合わせるように、前記距離画像算出部で算出された前記距離画像特定範囲を移動させる距離画像特定範囲移動部と、
前記距離画像特定範囲移動部による前記移動後の距離画像の移動体領域を判定する移動体領域判定部と、
前記移動体領域判定部により得られた前記距離画像の移動体領域より前記人の位置を特定する移動体位置特定部と、
前記移動体位置特定部により前記距離画像上で特定された前記人の位置より、前記ロボットから前記人への距離を算出する距離算出部と、
予め前記人の動きに合わせて検出する対応点の位置を、前記人の位置に合わせて、その都度、変更する対応点位置算出配置変更部とを備えるように構成して、
前記移動経路生成部で生成された前記移動経路に従って、前記人移動検知部により前記人を特定しかつ継続して前記人と前記ロボットとの距離及び方向検知を行うことにより、前記ロボットを自律移動させるように制御する、ロボット制御装置。
Mounted on a movable robot, and, after detection knowledge the human as a moving body existing in front of the robot, and a human movement detection section for detecting a movement of the person,
A driving device that is mounted on the robot and moves the robot in accordance with the movement of the person detected by the human movement detection unit during route teaching;
A robot movement amount detection unit for detecting a movement amount of the robot moved by the driving device;
A first route teaching data conversion unit that accumulates movement amount data representing the movement amount detected by the robot movement amount detection unit and converts the movement amount data into route teaching data;
It is mounted on the robot, and a peripheral object detection unit around the obstacles and the robot before Symbol robot detects the ceiling or wall position of the space to be moved,
When the robot autonomously moves by driving the driving device along the route teaching data converted by the first route teaching data conversion unit, the position of the obstacle detected by the surrounding object detection unit is A robot movable range calculator that calculates a robot movable range of the robot with respect to route teaching data;
A movement path generation unit that generates a movement path for autonomous movement of the robot based on the path teaching data and the movement range calculated by the robot movement range calculation unit;
The human movement detector is
A corresponding point position calculating and arranging unit for calculating and arranging the position of corresponding points to be detected according to the movement of the person around the robot in advance;
A time-series multiple image acquisition unit that acquires a plurality of images in time series;
Corresponding points arranged by the corresponding point position calculating and arranging unit are detected between the time-series images acquired by the time-series plural image acquiring unit, and between the detected images of the corresponding points are detected. A movement amount calculation unit for calculating the movement amount of
A moving body movement determination unit that determines whether the movement amount calculated by the movement amount calculation unit is a corresponding point that matches the movement of the person;
From the corresponding point group obtained by the mobile body movement determination unit, a mobile body region extraction unit that extracts a mobile body region that is a range where the person exists,
A distance image calculation unit that calculates a distance image of a distance image specific range around the robot that is a certain range around the robot;
A distance image specifying range moving unit that moves the distance image specifying range calculated by the distance image calculating unit so as to match the range of the moving object region extracted by the moving object region extracting unit;
A moving object region determination unit that determines a moving object region of the distance image after the movement by the distance image specific range moving unit;
A moving body position specifying unit that specifies the position of the person from the moving body area of the distance image obtained by the moving body area determination unit;
A distance calculating unit that calculates a distance from the robot to the person based on the position of the person specified on the distance image by the moving body position specifying unit;
The position of the corresponding point to be detected according to the movement of the person in advance is configured to include a corresponding point position calculation arrangement changing unit that changes each time according to the position of the person,
According to the movement route generated by the movement route generation unit, the person movement detection unit identifies the person and continuously detects the distance and direction between the person and the robot, thereby autonomously moving the robot. A robot controller that controls
前記周囲物体検出部が、前記ロボットの周囲の全方位の画像を取得可能な全方位画像入力系及び前記ロボットの周囲の障害物を検出可能な障害物検出部とを有して、前記ロボットの周囲の前記障害物や前記ロボットが移動する空間の天井又は壁位置を検出する、請求項1に記載のロボット制御装置。  The surrounding object detection unit includes an omnidirectional image input system capable of acquiring omnidirectional images around the robot and an obstacle detection unit capable of detecting obstacles around the robot, The robot control device according to claim 1, wherein the robot control device detects a ceiling or a wall position of a space around which the obstacle or the robot moves. 請求項1又は2に記載のロボット制御装置を備える、自律移動ロボット。An autonomous mobile robot comprising the robot control device according to claim 1.
JP2005349159A 2004-12-03 2005-12-02 Robot control apparatus and autonomous mobile robot Expired - Fee Related JP4464912B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005349159A JP4464912B2 (en) 2004-12-03 2005-12-02 Robot control apparatus and autonomous mobile robot

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004350925 2004-12-03
JP2005349159A JP4464912B2 (en) 2004-12-03 2005-12-02 Robot control apparatus and autonomous mobile robot

Publications (2)

Publication Number Publication Date
JP2006185438A JP2006185438A (en) 2006-07-13
JP4464912B2 true JP4464912B2 (en) 2010-05-19

Family

ID=36738468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005349159A Expired - Fee Related JP4464912B2 (en) 2004-12-03 2005-12-02 Robot control apparatus and autonomous mobile robot

Country Status (1)

Country Link
JP (1) JP4464912B2 (en)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5069439B2 (en) * 2006-09-21 2012-11-07 パナソニック株式会社 Self-position recognition system
US8068935B2 (en) * 2006-10-18 2011-11-29 Yutaka Kanayama Human-guided mapping method for mobile robot
JP4697127B2 (en) * 2006-11-27 2011-06-08 パナソニック電工株式会社 Self-position recognition method
JP4968684B2 (en) * 2007-12-10 2012-07-04 本田技研工業株式会社 Target route setting support system
JP5222686B2 (en) * 2008-10-14 2013-06-26 株式会社日立メディコ Mobile X-ray equipment
JP5396983B2 (en) * 2009-04-14 2014-01-22 株式会社安川電機 Moving body and teaching method of moving body
FR2953119B1 (en) * 2009-12-01 2012-07-27 Gen Electric MOBILE BASE AND X-RAY APPARATUS MOUNTED ON SUCH A MOBILE BASE
JP5568385B2 (en) * 2010-06-15 2014-08-06 株式会社Ihiエアロスペース Driving route planning method for unmanned vehicles
JP6202544B2 (en) 2012-08-27 2017-09-27 アクティエボラゲット エレクトロラックス Robot positioning system
US10448794B2 (en) 2013-04-15 2019-10-22 Aktiebolaget Electrolux Robotic vacuum cleaner
CN105101855A (en) 2013-04-15 2015-11-25 伊莱克斯公司 Robotic vacuum cleaner with protruding sidebrush
JP6187967B2 (en) * 2013-09-04 2017-08-30 みこらった株式会社 Defense device and defense system
US10149589B2 (en) 2013-12-19 2018-12-11 Aktiebolaget Electrolux Sensing climb of obstacle of a robotic cleaning device
US10433697B2 (en) 2013-12-19 2019-10-08 Aktiebolaget Electrolux Adaptive speed control of rotating side brush
WO2015090397A1 (en) 2013-12-19 2015-06-25 Aktiebolaget Electrolux Robotic cleaning device
US10045675B2 (en) 2013-12-19 2018-08-14 Aktiebolaget Electrolux Robotic vacuum cleaner with side brush moving in spiral pattern
US9946263B2 (en) 2013-12-19 2018-04-17 Aktiebolaget Electrolux Prioritizing cleaning areas
KR102124235B1 (en) * 2013-12-19 2020-06-24 에이비 엘렉트로룩스 Robotic cleaning device with perimeter recording function
KR102137857B1 (en) 2013-12-19 2020-07-24 에이비 엘렉트로룩스 Robotic cleaning device and method for landmark recognition
EP3082539B1 (en) 2013-12-20 2019-02-20 Aktiebolaget Electrolux Dust container
JP6273352B2 (en) * 2014-03-24 2018-01-31 株式会社日立製作所 Object detection apparatus, object detection method, and mobile robot
EP3167341B1 (en) 2014-07-10 2018-05-09 Aktiebolaget Electrolux Method for detecting a measurement error in a robotic cleaning device
EP3190938A1 (en) 2014-09-08 2017-07-19 Aktiebolaget Electrolux Robotic vacuum cleaner
US10499778B2 (en) 2014-09-08 2019-12-10 Aktiebolaget Electrolux Robotic vacuum cleaner
US10877484B2 (en) 2014-12-10 2020-12-29 Aktiebolaget Electrolux Using laser sensor for floor type detection
WO2016091320A1 (en) 2014-12-12 2016-06-16 Aktiebolaget Electrolux Side brush and robotic cleaner
JP6532530B2 (en) 2014-12-16 2019-06-19 アクチエボラゲット エレクトロルックス How to clean a robot vacuum cleaner
CN107003669B (en) 2014-12-16 2023-01-31 伊莱克斯公司 Experience-based road sign for robotic cleaning devices
US11000944B2 (en) 2015-04-22 2021-05-11 Massachusetts Institute Of Technology Foot touch position following apparatus, method of controlling movement thereof, and non-transitory computer-readable information recording medium storing the same
CN105072402B (en) * 2015-08-11 2017-11-28 余路 A kind of method of robot tour monitoring
JP6468127B2 (en) * 2015-08-26 2019-02-13 トヨタ自動車株式会社 Omnidirectional moving body, control method and program thereof
KR102445064B1 (en) 2015-09-03 2022-09-19 에이비 엘렉트로룩스 system of robot cleaning device
JP7035300B2 (en) 2016-03-15 2022-03-15 アクチエボラゲット エレクトロルックス Robot Cleaning Devices, Methods for Performing Escarpment Detection in Robot Cleaning Devices, Computer Programs, and Computer Program Products
WO2017179136A1 (en) * 2016-04-12 2017-10-19 株式会社オプティム Entire celestial sphere camera robot altitude adjusting system, entire celestial sphere camera robot altitude adjusting method and program
WO2017194102A1 (en) 2016-05-11 2017-11-16 Aktiebolaget Electrolux Robotic cleaning device
WO2018219473A1 (en) 2017-06-02 2018-12-06 Aktiebolaget Electrolux Method of detecting a difference in level of a surface in front of a robotic cleaning device
WO2019063066A1 (en) 2017-09-26 2019-04-04 Aktiebolaget Electrolux Controlling movement of a robotic cleaning device
WO2019176278A1 (en) * 2018-03-12 2019-09-19 ソニー株式会社 Information processing device, information processing method, program, and mobile body
CN109202853A (en) * 2018-11-12 2019-01-15 国网四川省电力公司电力科学研究院 A kind of power construction safety supervision robot
JP7253440B2 (en) * 2019-05-09 2023-04-06 東芝テック株式会社 Tracking device and information processing program
JP7188279B2 (en) * 2019-05-29 2022-12-13 トヨタ自動車株式会社 Machine learning methods and mobile robots
KR102179238B1 (en) * 2020-05-25 2020-11-16 센서기술 주식회사 Human following cruise and autonomous method for a vehicle
EP4167043A4 (en) * 2020-06-15 2024-02-21 Doog Inc Autonomous movement device, autonomous movement method, and program
US20230294279A1 (en) * 2020-08-27 2023-09-21 Honda Motor Co., Ltd. Model parameter learning method
JPWO2022264493A1 (en) * 2021-06-15 2022-12-22
CN113515131B (en) * 2021-08-27 2022-12-27 苏州大学 Mobile robot obstacle avoidance method and system based on condition variation automatic encoder

Also Published As

Publication number Publication date
JP2006185438A (en) 2006-07-13

Similar Documents

Publication Publication Date Title
JP4464912B2 (en) Robot control apparatus and autonomous mobile robot
US20100222925A1 (en) Robot control apparatus
US10265858B2 (en) Auto-cleaning system, cleaning robot and method of controlling the cleaning robot
KR101366860B1 (en) Mobile robot and controlling method of the same
US9950429B2 (en) Robot cleaning system and method of controlling robot cleaner
US10921820B2 (en) Movable object and control method thereof
KR101618030B1 (en) Method for Recognizing Position and Controlling Movement of a Mobile Robot, and the Mobile Robot Using the same
US8116928B2 (en) Automatic ultrasonic and computer-vision navigation device and method using the same
JP4815208B2 (en) Human tracking apparatus and method, recording medium on which program for performing the method is recorded, and mobile electronic device including the apparatus
KR20190007285A (en) Moving Robot and controlling method
US10229501B2 (en) Mobile robot and method for controlling the same
KR20180098891A (en) Moving Robot and controlling method
KR101542498B1 (en) Robot cleaner and method for detecting position thereof
JP4264380B2 (en) Self-position identification method and apparatus
JP2008084135A (en) Movement control method, mobile robot and movement control program
JP2008200770A (en) Robot, and control method thereof
KR101842459B1 (en) Robot cleaner and method for controlling the same
JP2020083140A (en) Parking support device
JP2007199965A (en) Autonomous mobile device
WO2016039158A1 (en) Mobile body control device and mobile body
US20220063096A1 (en) Mobile robot and driving method thereof
JP2006234453A (en) Method of registering landmark position for self-position orientation
JP2018181338A (en) Method for operating a self-travelling vehicle
KR20100098999A (en) Robot cleaner and method for detecting position thereof
JP3271900B2 (en) Automatic tracking lighting system

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20061208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100126

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100219

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130226

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130226

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140226

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees