JP6260509B2 - robot - Google Patents

robot Download PDF

Info

Publication number
JP6260509B2
JP6260509B2 JP2014205561A JP2014205561A JP6260509B2 JP 6260509 B2 JP6260509 B2 JP 6260509B2 JP 2014205561 A JP2014205561 A JP 2014205561A JP 2014205561 A JP2014205561 A JP 2014205561A JP 6260509 B2 JP6260509 B2 JP 6260509B2
Authority
JP
Japan
Prior art keywords
distance information
hand
distance
self
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014205561A
Other languages
Japanese (ja)
Other versions
JP2016074053A (en
Inventor
国松 橋本
国松 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2014205561A priority Critical patent/JP6260509B2/en
Publication of JP2016074053A publication Critical patent/JP2016074053A/en
Application granted granted Critical
Publication of JP6260509B2 publication Critical patent/JP6260509B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明はロボットに関し、特に、物体との距離情報に基づいて自己位置を推定するロボットに関する。   The present invention relates to a robot, and more particularly to a robot that estimates its own position based on distance information with respect to an object.

環境地図を参照することにより、障害物等を避けて移動するロボットが知られている。また、このようなロボットにおいて、距離センサを用いて物体までの距離を計測し、計測結果を環境情報とマッチングすることにより自己位置を推定する技術が知られている。   A robot that moves while avoiding obstacles by referring to an environmental map is known. In such a robot, a technique is known in which the distance to an object is measured using a distance sensor, and the self-position is estimated by matching the measurement result with environmental information.

例えば、特許文献1は、ロボットの周辺に存在する物体までの距離を計測するセンサによる計測結果を環境地図に幾何学的に合わせこむことで自己位置を推定する技術について開示している。   For example, Patent Document 1 discloses a technique for estimating a self-position by geometrically matching a measurement result obtained by a sensor that measures a distance to an object existing around a robot with an environment map.

特開2012−93811号公報JP 2012-93811 A

生活支援ロボット(HSR:Human Support Robot)などのように、マニピューレータにより対象物を操作する場合、操作に応じて対象物の位置が変動する。距離センサにより対象物までの距離を検知し、この検知により得られた距離情報に基づいて自己位置を推定する場合、距離センサにより取得される距離情報には、自身が操作している対象物の動的な位置情報が含まれることとなる。このため、結果として自己位置の推定精度が劣化するという問題がある。   When an object is operated by a manipulator such as a human support robot (HSR), the position of the object varies according to the operation. When the distance to the object is detected by the distance sensor and the self-position is estimated based on the distance information obtained by this detection, the distance information acquired by the distance sensor includes the object being operated by the distance sensor. Dynamic position information will be included. For this reason, there is a problem that the estimation accuracy of the self-position deteriorates as a result.

本発明は、上記した事情を背景としてなされたものであり、対象物を操作している場合における、自己位置の推定精度の劣化を抑制することができるロボットを提供することを目的とする。   The present invention has been made against the background of the above-described circumstances, and an object thereof is to provide a robot capable of suppressing deterioration in self-position estimation accuracy when an object is being operated.

本発明にかかるロボットは、把持対象を把持する把持手段と、検出領域内の物体との距離情報を検出する距離検出手段と、前記距離情報に基づいて、自己位置を推定する自己位置推定手段とを有し、前記自己位置推定手段は、前記距離情報のうち、前記把持手段の座標系を基準とした過去の前記距離情報からの変化量が予め定められた閾値以下の前記距離情報を除いて自己位置を推定する。   A robot according to the present invention includes a gripping unit that grips a gripping target, a distance detection unit that detects distance information from an object in a detection region, and a self-position estimation unit that estimates a self-position based on the distance information. And the self-position estimating means excludes the distance information in which the amount of change from the past distance information with reference to the coordinate system of the gripping means is less than or equal to a predetermined threshold. Estimate self-position.

このようなロボットによれば、把持手段による操作により位置が移動する対象物についての距離情報である動的な距離情報が除かれた距離情報に基づいて自己位置の推定が行われる。したがって、自身の操作により位置が変動している物体の影響が排除され、自己位置の推定精度の劣化を抑制することができる。   According to such a robot, self-position estimation is performed based on distance information from which dynamic distance information, which is distance information about an object whose position is moved by an operation by the gripping means, is removed. Therefore, the influence of the object whose position is changed by its own operation is eliminated, and deterioration of the self-position estimation accuracy can be suppressed.

本発明によれば、対象物を操作している場合における、自己位置の推定精度の劣化を抑制することができるロボットを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, when operating the target object, the robot which can suppress the deterioration of the self-position estimation precision can be provided.

実施形態に係るロボットの外観を示す斜視図である。It is a perspective view which shows the external appearance of the robot which concerns on embodiment. 実施形態に係るロボットの概略的システム構成を示すブロック図である。1 is a block diagram illustrating a schematic system configuration of a robot according to an embodiment. 実施形態に係る制御装置の機能構成の一例を示すブロック図である。It is a block diagram which shows an example of a function structure of the control apparatus which concerns on embodiment. タンスのタンス本体から引き出しが、ハンドによる操作によって引き出される様子を示す模式図である。(a)は、タイミングt−1における様子として、ハンドにより引き出しが引き出される前の状態を示しており、(b)は、タイミングtにおける様子として、ハンドにより引き出しが引き出された状態を示している。It is a schematic diagram which shows a mode that drawer | drawer is pulled out by the operation by a hand from the chiffon main body of stance. (A) shows a state before the drawer is pulled out by the hand as a state at timing t-1, and (b) shows a state where the drawer is pulled out by the hand as a state at timing t. . 図4に示されるハンドの操作前後におけるハンドの座標系を基準とした距離情報について示す模式図である。FIG. 5 is a schematic diagram showing distance information based on a hand coordinate system before and after operation of the hand shown in FIG. 4. 距離センサの検出領域と操作対象との関係を示す模式図であり、(a)は、操作対象であるドアなどの建具が検出領域内に侵入している様子を示し、(b)は、操作対象であるタンスが検出領域内に侵入している様子を示している。It is a schematic diagram which shows the relationship between the detection area | region of a distance sensor, and an operation object, (a) shows a mode that fittings, such as a door which is an operation object, have penetrate | invaded in the detection area, (b) is operation The state that the target chiffon has entered the detection area is shown. 実施の形態に係る制御装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the control apparatus which concerns on embodiment.

以下、図面を参照して本発明の実施の形態について説明する。
図1は、実施形態に係るロボット1の外観を示す斜視図である。図2は、実施形態に係るロボット1の概略的システム構成を示すブロック図である。
ロボット1は、台車10と、ロボット本体11と、ロボット本体11に支持されたアーム12と、アーム12の先端に設けられたハンド13と、距離センサ14と、制御装置15とを備えている。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a perspective view showing an appearance of a robot 1 according to the embodiment. FIG. 2 is a block diagram illustrating a schematic system configuration of the robot 1 according to the embodiment.
The robot 1 includes a carriage 10, a robot body 11, an arm 12 supported by the robot body 11, a hand 13 provided at the tip of the arm 12, a distance sensor 14, and a control device 15.

台車10は、例えば、図示しないキャスタと、図示しない一対の対向する駆動車輪とが設けられており、制御信号にしたがって移動する。具体的には、台車10には、モータなどにより構成された台車用駆動機構100が設けられており、制御装置15からの制御信号に基づいて台車用駆動機構100が動作することにより、台車10が移動する。   For example, the cart 10 is provided with a caster (not shown) and a pair of opposed driving wheels (not shown), and moves according to a control signal. Specifically, the carriage 10 is provided with a carriage drive mechanism 100 configured by a motor or the like, and the carriage drive mechanism 100 operates based on a control signal from the control device 15, whereby the carriage 10. Move.

また、台車10には、台車状態検出センサ101が設けられている。台車状態検出センサ101は、例えばエンコーダなどによって、駆動車輪の回転情報を検出することにより、台車10の速さ、移動方向、移動軌跡などの状態を検出する。台車状態検出センサ101による検出結果は、制御装置15に出力される。   Further, the carriage 10 is provided with a carriage state detection sensor 101. The trolley state detection sensor 101 detects the state of the trolley 10 such as the speed, the moving direction, and the moving locus by detecting rotation information of the driving wheels using an encoder, for example. The detection result by the cart state detection sensor 101 is output to the control device 15.

ロボット本体11は、台車10上に設置されており、台車10の移動にともない移動する。なお、ロボット本体11は、台車10に対して固定されて設置されていてもよいし、台車10に対して変動可能に設置されていてもよい。例えば、ロボット本体11は、台車10上で旋回可能に設置されていてもよい。また、ロボット本体11自体の位置姿勢を変更するための駆動機構が設けられていてもよい。   The robot body 11 is installed on the carriage 10 and moves as the carriage 10 moves. The robot body 11 may be fixedly installed with respect to the carriage 10 or may be installed so as to be variable with respect to the carriage 10. For example, the robot body 11 may be installed so as to be able to turn on the carriage 10. In addition, a drive mechanism for changing the position and orientation of the robot body 11 itself may be provided.

アーム12は、例えば、多関節型アームとして構成されている。アーム12は、例えば、ロボット本体11の前面に設けられている。アーム12には、アーム用駆動機構120が設けられており、アーム用駆動機構120の動作によりアーム12の位置姿勢が変化する。アーム用駆動機構120は、図示しないモータを備え、制御装置15からの制御信号にしたがって動作する。   The arm 12 is configured as an articulated arm, for example. The arm 12 is provided on the front surface of the robot body 11, for example. The arm 12 is provided with an arm drive mechanism 120, and the position and orientation of the arm 12 change by the operation of the arm drive mechanism 120. The arm drive mechanism 120 includes a motor (not shown) and operates according to a control signal from the control device 15.

また、アーム12には、アーム状態検出センサ121が設けられている。アーム状態検出センサ121は、例えばエンコーダなどによって、関節部分の回転情報を検出することにより、アーム12の姿勢や位置といった状態を検出する。アーム状態検出センサ121による検出結果は、制御装置15に出力される。   The arm 12 is provided with an arm state detection sensor 121. The arm state detection sensor 121 detects the state such as the posture and position of the arm 12 by detecting the rotation information of the joint portion using, for example, an encoder. The detection result by the arm state detection sensor 121 is output to the control device 15.

ハンド13は、把持手段に相当し、操作対象物(把持対象)の把持等を行う操作機構として構成されている。ハンド13は、例えば、家具や建具などの操作対象を操作する。なお、ハンド13は、操作時、操作対象物を固定的に把持しており、操作時においてハンド13と操作対象物との幾何学的な相対位置関係は固定されている。ハンド13には、ハンド用駆動機構130が設けられており、ハンド用駆動機構130の動作によりハンド13の位置姿勢が変化する。ハンド用駆動機構130は、図示しないモータを備え、制御装置15からの制御信号にしたがって動作する。   The hand 13 corresponds to a gripping means, and is configured as an operation mechanism that grips an operation target (grip target). For example, the hand 13 operates an operation target such as furniture or joinery. The hand 13 holds the operation target in a fixed manner during the operation, and the geometric relative positional relationship between the hand 13 and the operation target is fixed during the operation. The hand 13 is provided with a hand drive mechanism 130, and the position and orientation of the hand 13 change according to the operation of the hand drive mechanism 130. The hand drive mechanism 130 includes a motor (not shown) and operates according to a control signal from the control device 15.

また、ハンド13には、ハンド状態検出センサ131が設けられている。ハンド状態検出センサ131は、例えばエンコーダなどによって関節部分の回転情報を検出することにより、ハンド13の姿勢や位置といった状態を検出する。ハンド状態検出センサ131による検出結果は、制御装置15に出力される。   The hand 13 is provided with a hand state detection sensor 131. The hand state detection sensor 131 detects a state such as the posture and position of the hand 13 by detecting rotation information of the joint portion using an encoder or the like, for example. The detection result by the hand state detection sensor 131 is output to the control device 15.

距離センサ14は、距離検出手段に相当し、ロボット1周辺の検出領域S内にある環境(物体)とロボット1との距離情報を検出する。なお、図において、検出領域Sは、平面的な領域として図示されているが、検出領域Sは2次元に限らず、3次元であってもよい。距離センサ14は、例えば、レーザレンジファインダが用いられる。例えば、レーザレンジファインダは、ロボット1の前方の検出領域Sへ放射状にレーザ光を放射し、その検出領域S内の物体からの反射光を受光することで、その物体の距離情報を検出することができる。なお、距離センサ14は、レーザレンジファインダに限られない。例えば、デプスセンサ、超音波センサ、赤外線センサ、カメラ等の任意の距離センサを用いることができる。   The distance sensor 14 corresponds to a distance detection unit, and detects distance information between the environment (object) in the detection region S around the robot 1 and the robot 1. In the figure, the detection area S is illustrated as a planar area, but the detection area S is not limited to two dimensions, and may be three dimensions. As the distance sensor 14, for example, a laser range finder is used. For example, the laser range finder radiates laser light radially to the detection area S in front of the robot 1 and detects the distance information of the object by receiving reflected light from the object in the detection area S. Can do. The distance sensor 14 is not limited to the laser range finder. For example, an arbitrary distance sensor such as a depth sensor, an ultrasonic sensor, an infrared sensor, or a camera can be used.

距離センサ14は、ロボット1に設けられており、距離センサ14の検出領域Sとハンド13の動作領域との少なくとも一部が重複するよう配置されている。例えば、距離センサ14は、台車10又はロボット本体11の外周のうち、アーム12が取り付けられている方向を検出できる位置に設けられている。   The distance sensor 14 is provided in the robot 1 and is arranged so that at least a part of the detection area S of the distance sensor 14 and the operation area of the hand 13 overlap. For example, the distance sensor 14 is provided at a position where the direction in which the arm 12 is attached can be detected on the outer periphery of the cart 10 or the robot body 11.

制御装置15は、例えばロボット本体11に内蔵されているが、台車10などの他の構成部分に設けられていてもよい。制御装置15は、例えば、制御処理、演算処理等を行うCPU(Central Processing Unit)15a、CPU15aによって実行される制御プログラム、演算プログラム、処理データ等を記憶する、ROM(Read Only Memory)及びRAM(Random Access Memory)などにより構成される記憶部15b等からなるマイクロコンピュータを中心にして、ハードウェア構成されている。   The control device 15 is built in, for example, the robot body 11, but may be provided in other components such as the carriage 10. The control device 15 includes, for example, a CPU (Central Processing Unit) 15a that performs control processing, arithmetic processing, and the like, a ROM (Read Only Memory) and a RAM (RAM) that store control programs, arithmetic programs, processing data, and the like executed by the CPU 15a. Random Access Memory) and the like are configured with a hardware configuration centering on a microcomputer including a storage unit 15b and the like.

制御装置15は、作業内容や移動内容などの指示が含まれる指示情報、並びに、台車状態検出センサ101、アーム状態検出センサ121、ハンド状態検出センサ131及び距離センサ14からの検出結果などに基づいて、上述の各駆動機構を制御するとともに、後述する図3に示される処理を実行する。
また、記憶部15bには、ロボット1が動作する環境についての地図情報が記憶されている。地図情報として、例えば、ロボット1が動作するエリア全体に略一定間隔に配置された格子点を結ぶグリッド線を仮想的に描写することで得られるグリッドマップが記憶されている。障害物の存在の有無を示す障害物情報が、予め又はリアルタイムに各グリッドに対して設定される。なお、地図情報には、障害物情報に限らず、路面情報、経路情報などの他の情報が含まれていてもよい。
The control device 15 is based on instruction information including instructions such as work contents and movement contents, and detection results from the carriage state detection sensor 101, the arm state detection sensor 121, the hand state detection sensor 131, and the distance sensor 14. In addition to controlling each of the drive mechanisms described above, the processing shown in FIG.
The storage unit 15b stores map information about the environment in which the robot 1 operates. As the map information, for example, a grid map obtained by virtually depicting grid lines connecting lattice points arranged at substantially constant intervals in the entire area where the robot 1 operates is stored. Obstacle information indicating the presence or absence of an obstacle is set for each grid in advance or in real time. The map information is not limited to the obstacle information, and may include other information such as road surface information and route information.

図3は、実施形態に係る制御装置15の機能構成の一例を示すブロック図である。なお、図3に示される各構成は、例えば、上記制御プログラム又は演算プログラムがCPU15aにより実行されることで実現されてもよいし、ハードウェアにより実現されてもよい。   FIG. 3 is a block diagram illustrating an example of a functional configuration of the control device 15 according to the embodiment. Each configuration illustrated in FIG. 3 may be realized, for example, by the CPU 15a executing the control program or the arithmetic program, or may be realized by hardware.

制御装置15は、ハンド位置姿勢情報取得部150と、距離情報取得部151と、距離情報選択部152と、自己位置推定部153とを有している。   The control device 15 includes a hand position / posture information acquisition unit 150, a distance information acquisition unit 151, a distance information selection unit 152, and a self-position estimation unit 153.

ハンド位置姿勢情報取得部150は、距離センサ14の座標系を基準としたハンド13の位置姿勢についての情報を取得する。ここで、距離センサ14の座標系とは、距離センサ14に固定された座標系である。ハンド位置姿勢情報取得部150は、例えば、ハンド状態検出センサ131による測定値及びアーム状態検出センサ121による測定値から、距離センサ14の座標系を基準としたハンド13の位置姿勢についての情報を生成する。   The hand position and orientation information acquisition unit 150 acquires information about the position and orientation of the hand 13 with reference to the coordinate system of the distance sensor 14. Here, the coordinate system of the distance sensor 14 is a coordinate system fixed to the distance sensor 14. For example, the hand position / orientation information acquisition unit 150 generates information about the position and orientation of the hand 13 based on the coordinate system of the distance sensor 14 from the measurement value obtained by the hand state detection sensor 131 and the measurement value obtained by the arm state detection sensor 121. To do.

距離情報取得部151は、検出領域S内にある物体とロボット1との距離情報であって、距離センサ14の座標系を基準とした距離情報を距離センサ14から取得する。距離情報取得部151は、例えば、検出領域Sを分割した各領域である、複数の部分領域ごとに、距離情報を取得する。本実施形態では、距離情報取得部151は、一度にN個の距離情報を取得するものとする。また、距離情報取得部151は、予め定められたタイミングにより、距離情報を取得する。例えば、距離情報取得部151は、予め定められた時間間隔ごとに、N個の距離情報を取得してもよいし、ロボット1の予め定められた移動距離ごとに、N個の距離情報を取得してもよい。なお、距離情報取得部151は、距離センサ14の測定値から距離センサ14の座標系を基準とした距離情報を生成してもよい。   The distance information acquisition unit 151 acquires distance information between the object in the detection region S and the robot 1 and distance information based on the coordinate system of the distance sensor 14 from the distance sensor 14. The distance information acquisition unit 151 acquires distance information for each of a plurality of partial areas that are areas obtained by dividing the detection area S, for example. In the present embodiment, the distance information acquisition unit 151 acquires N pieces of distance information at a time. The distance information acquisition unit 151 acquires distance information at a predetermined timing. For example, the distance information acquisition unit 151 may acquire N distance information for each predetermined time interval, or acquire N distance information for each predetermined movement distance of the robot 1. May be. Note that the distance information acquisition unit 151 may generate distance information based on the coordinate system of the distance sensor 14 from the measurement value of the distance sensor 14.

距離情報選択部152は、距離情報取得部151が取得した距離情報のうち、ハンド13が現在操作中の対象物についての距離情報以外のものを選択する。具体的には、距離情報選択部152は、距離情報取得部151により取得された距離情報のうち、ハンド13の座標系を基準とした過去の距離情報からの変化量が予め定められた閾値以下の距離情報を除き、残った距離情報を自己位置の推定のために用いるものとして選択する。なお、ハンド13の座標系とは、ハンド13に固定された座標系である。   The distance information selection unit 152 selects information other than the distance information about the target object currently being operated by the hand 13 from the distance information acquired by the distance information acquisition unit 151. Specifically, the distance information selection unit 152 has a change amount from the past distance information based on the coordinate system of the hand 13 out of the distance information acquired by the distance information acquisition unit 151 equal to or less than a predetermined threshold. The remaining distance information is selected to be used for the self-position estimation. The coordinate system of the hand 13 is a coordinate system fixed to the hand 13.

距離情報選択部152は、まず、距離情報取得部151が取得した、距離センサ14の座標系を基準とした距離情報について、ハンド13の座標系を基準とした距離情報へと変換する。距離情報選択部152は、例えば、下記の式(1)のように算出する。ここで、Dt,sensor(i)は、タイミングtにおける、距離センサ14の座標系を基準とした距離情報のデータを示している。なお、iは、距離情報のデータのインデックスを表し、0<i≦Nを満たす整数である。また、sensorhand −1は、距離センサ14の座標系を基準としたハンド13の位置姿勢データの逆行列である。また、Dt,hand(i)は、タイミングtにおける、ハンド13の座標系を基準とした距離情報のデータを示している。 The distance information selection unit 152 first converts the distance information acquired by the distance information acquisition unit 151 based on the coordinate system of the distance sensor 14 into distance information based on the coordinate system of the hand 13. The distance information selection unit 152 calculates, for example, as in the following equation (1). Here, D t, sensor (i) indicates distance information data at the timing t with reference to the coordinate system of the distance sensor 14. Note that i represents an index of data of distance information, and is an integer satisfying 0 <i ≦ N. Also,: sensor T hand -1 is the inverse matrix of the position and orientation data of the hand 13 relative to the coordinate system of the distance sensor 14. D t, hand (i) indicates distance information data at the timing t with reference to the coordinate system of the hand 13.

t,hand(i)=sensorhand −1t,sensor(i) ・・・(1) D t, hand (i) = sensor T hand −1 D t, sensor (i) (1)

距離情報選択部152は、式(1)により、1からNの全ての距離情報のデータについて、変換を行う。
距離情報選択部152は、次に、変換して得られたハンド13の座標系を基準とした距離情報について、前回のタイミングにおけるハンド13の座標系を基準とした距離情報と比較する。そして、距離情報選択部152は、前回のタイミングにおけるハンド13の座標系を基準とした距離情報との変動量が予め定められた閾値以下の距離情報については、ハンド13により操作されている対象であるとみなして、選択候補から除外する。
The distance information selection unit 152 performs conversion on all the distance information data 1 to N according to the equation (1).
Next, the distance information selection unit 152 compares the distance information based on the coordinate system of the hand 13 obtained by the conversion with the distance information based on the coordinate system of the hand 13 at the previous timing. Then, the distance information selection unit 152 selects the distance information whose fluctuation amount with respect to the distance information with reference to the coordinate system of the hand 13 at the previous timing is equal to or less than a predetermined threshold as a target operated by the hand 13. It is considered that there is, and is excluded from the selection candidates.

距離情報選択部152は、例えば、下記の式(2)のように表される変動量diffを閾値thと比較する。なお、式(2)において、変動量diff(i)は、インデックスがiである距離情報についての変動量を示す。また、Dt−1,hand(i)は、タイミングt−1における、ハンド13の座標系を基準とした距離情報のデータを示している。なお、タイミングt−1は、タイミングtの1周期分前のタイミングである。また、abs()は、()内の絶対値を演算する関数である。 The distance information selection unit 152 compares, for example, a variation amount diff expressed as the following equation (2) with a threshold th. In equation (2), the fluctuation amount diff (i) indicates the fluctuation amount for the distance information whose index is i. Further, D t−1, hand (i) indicates data of distance information with reference to the coordinate system of the hand 13 at the timing t−1. Note that the timing t-1 is a timing one cycle before the timing t. Also, abs () is a function that calculates the absolute value in ().

diff(i)=abs(Dt,hand(i)−Dt−1,hand(i)) ・・・(2) diff (i) = abs (D t, hand (i) −D t−1, hand (i)) (2)

距離情報選択部152は、式(2)により、1からNの全ての距離情報のデータについて、変動量(差分)を算出する。そして、距離情報選択部152は、変動量が閾値thよりも大きい場合には、当該距離情報のデータ、すなわちDt,hand(i)を、自己位置の推定のために用いるものとして採用し、変動量が閾値th以下の場合には、自己位置の推定のために用いるものとして採用しない。例えば、距離情報選択部152は、自己位置の推定のために用いるものとして選択したデータを、リストに保持する。このように、距離情報選択部152は、1からNの全ての距離情報のデータについて、変動量に基づいて、採用又は不採用が決定する。距離情報選択部152は、採用すると決定したデータ集合、すなわち距離情報選択部152により選択されたデータ集合を、自己位置推定部153に出力する。このようにして、自己位置推定部153に入力されるデータ集合は、ハンド13により位置が変動する動的な対象物に対する距離情報が除かれた静的な環境情報となる。 The distance information selection unit 152 calculates the amount of variation (difference) for all pieces of distance information data 1 to N using Equation (2). And the distance information selection part 152 employ | adopts that the data of the said distance information, ie , Dt, hand (i), are used for estimation of a self-position, when the variation | change_quantity is larger than the threshold value th, When the fluctuation amount is equal to or less than the threshold th, it is not adopted as one used for estimating the self-position. For example, the distance information selection unit 152 holds the data selected to be used for estimating the self position in a list. In this way, the distance information selection unit 152 determines whether to adopt or not adopt all the distance information data from 1 to N based on the fluctuation amount. The distance information selection unit 152 outputs the data set determined to be adopted, that is, the data set selected by the distance information selection unit 152 to the self-position estimation unit 153. In this way, the data set input to the self-position estimation unit 153 becomes static environment information from which distance information for a dynamic object whose position is changed by the hand 13 is removed.

ここで、距離情報選択部152による距離情報の選択について、図4及び図5を用いて補足説明する。なお、図4及び図5に示す例では、2次元で図示されているが、距離情報は3次元の情報であってもよい。   Here, the selection of distance information by the distance information selection unit 152 will be supplementarily described with reference to FIGS. 4 and 5. In the example shown in FIGS. 4 and 5, the distance information may be three-dimensional information although it is illustrated in two dimensions.

図4は、タンス2のタンス本体20から引き出し21が、ハンド13による操作によって引き出される様子を示す模式図である。なお、図4に示した例では、タンス2は、コの字型に配置された壁3に寄せて置かれている。また、図4において、破線は、距離センサ14により検出される物体(タンス2及び壁3)の位置を示している。したがって、図4における破線は、距離情報選択部152に入力される距離情報のデータに対応している。また、図4(a)は、タイミングt−1における様子を示しており、ハンド13により引き出し21が引き出される前の状態を示している。これに対し、図4(b)は、タイミングtにおける様子を示しており、ハンド13により引き出し21が引き出された状態を示している。図4に示されるように、ハンド13の操作により、タンス2についての距離情報に関し、引き出し21に対する操作前後で、引き出し21部分の距離情報が変化している。   FIG. 4 is a schematic diagram showing a state in which the drawer 21 is pulled out from the chase body 20 of the chase 2 by an operation with the hand 13. In the example shown in FIG. 4, the dresser 2 is placed close to the wall 3 arranged in a U-shape. In FIG. 4, the broken line indicates the position of the object (the chest 2 and the wall 3) detected by the distance sensor 14. Therefore, the broken line in FIG. 4 corresponds to the distance information data input to the distance information selection unit 152. FIG. 4A shows a state at the timing t−1 and shows a state before the drawer 21 is pulled out by the hand 13. On the other hand, FIG. 4B shows a state at the timing t, and shows a state in which the drawer 21 is pulled out by the hand 13. As shown in FIG. 4, by the operation of the hand 13, the distance information on the drawer 21 is changed before and after the operation on the drawer 21 with respect to the distance information about the chest 2.

次に、図5について説明する。図5は、図4に示されるハンド13の操作前後におけるハンド13の座標系を基準とした距離情報について示す模式図である。図5において、破線は、タイミングt−1(図4(a)に対応)におけるハンド13の座標系を基準とした距離情報を模式的に示したものであり、実線は、タイミングt(図4(b)に対応)におけるハンド13の座標系を基準とした距離情報を模式的に示したものである。図5に示されるように、ハンド13の座標系を基準とした場合には、操作前後において、タンス2が設けられた壁面に対する距離情報は変動するものの、引き出し21に対する距離情報(図中の二点鎖線で囲まれた部分)は変動しない。ここで、引き出し21に対する距離情報は、上述の変動量が閾値以下の距離情報に対応している。   Next, FIG. 5 will be described. FIG. 5 is a schematic diagram showing distance information based on the coordinate system of the hand 13 before and after the operation of the hand 13 shown in FIG. In FIG. 5, a broken line schematically shows distance information based on the coordinate system of the hand 13 at timing t-1 (corresponding to FIG. 4A), and a solid line indicates timing t (FIG. 4). 6 schematically shows distance information based on the coordinate system of the hand 13 in (corresponding to (b)). As shown in FIG. 5, when the coordinate system of the hand 13 is used as a reference, the distance information for the wall surface on which the chase 2 is provided varies before and after the operation, but the distance information for the drawer 21 (two in the figure). The part surrounded by the dotted line does not change. Here, the distance information with respect to the drawer 21 corresponds to the distance information in which the above-described variation amount is equal to or less than the threshold value.

このように、距離情報選択部152は、変動量が閾値以下の距離情報であるか否かを確認することで、ハンド13の操作よる操作対象の距離情報であるか否かを判別している。   As described above, the distance information selection unit 152 determines whether or not the distance information is the distance information of the operation target by the operation of the hand 13 by confirming whether or not the variation amount is distance information equal to or less than the threshold. .

自己位置推定部153は、距離センサ14による検出により取得された距離情報に基づいて、ロボット1の自己位置を推定する。具体的には、自己位置推定部153は、距離センサ14による検出により取得された距離情報と、上述の地図情報とを比較してマッチング処理を行うことで自己位置推定処理を行う。なお、自己位置推定部153は、例えばオドメトリによって取得された自己位置を、距離情報選択部152から出力されたデータ集合と上述の地図情報とを比較してマッチング処理の結果にしたがって補正してもよい。   The self-position estimating unit 153 estimates the self-position of the robot 1 based on the distance information acquired by detection by the distance sensor 14. Specifically, the self-position estimation unit 153 performs the self-position estimation process by comparing the distance information acquired by the detection by the distance sensor 14 with the above-described map information and performing the matching process. For example, the self-position estimation unit 153 may correct the self-position acquired by odometry, for example, by comparing the data set output from the distance information selection unit 152 with the above-described map information according to the result of the matching process. Good.

ここで、自己位置推定部153は、距離センサ14による検出により取得された距離情報のうち、ハンド13の座標系を基準とした過去の距離情報からの変化量が予め定められた閾値以下の距離情報を除いて自己位置を推定する。すなわち、自己位置推定部153は、距離情報選択部152から出力されたデータ集合を用いて、自己位置推定処理を行う。   Here, the self-position estimation unit 153 includes a distance in which the amount of change from the past distance information based on the coordinate system of the hand 13 out of the distance information acquired by the detection by the distance sensor 14 is equal to or less than a predetermined threshold. Estimate self-location without information. That is, the self-position estimation unit 153 performs self-position estimation processing using the data set output from the distance information selection unit 152.

このため、自己位置推定部153は、ハンド13により位置が変動する動的な対象物についての距離情報が除かれた距離情報のみを用いて、自己推定処理を行うこととなる。ハンド13が操作対象を操作している際には、例えば、図6に示されるように、距離センサ14の検出領域S内に、ハンド13の操作によって位置が変化する動的な対象物が含まれることがある。その場合、距離情報取得部151が取得する距離情報には、ハンド13の操作によって位置が変化する動的な対象物についての距離情報も含まれることとなる。そして、動的な対象物についての距離情報を含んだデータに基づいて自己位置推定処理を行う場合には、正確な自己位置の計算を行うことが阻害されることとなる。なお、図6(a)は、操作対象であるドアなどの建具4が検出領域S内に侵入している様子を示す模式図であり、図6(b)は、操作対象であるタンス2が検出領域S内に侵入している様子を示す模式図である。   For this reason, the self-position estimation unit 153 performs the self-estimation process using only the distance information from which the distance information about the dynamic object whose position is changed by the hand 13 is removed. When the hand 13 is operating the operation target, for example, as illustrated in FIG. 6, a dynamic target whose position is changed by the operation of the hand 13 is included in the detection region S of the distance sensor 14. May be. In this case, the distance information acquired by the distance information acquisition unit 151 includes distance information about a dynamic object whose position changes due to the operation of the hand 13. And when performing a self-position estimation process based on the data containing the distance information about a dynamic target object, it will be inhibited from calculating an exact self-position. FIG. 6A is a schematic diagram showing a state in which a fitting 4 such as a door to be operated enters the detection region S, and FIG. FIG. 4 is a schematic diagram showing a state in which a detection area S has entered.

しかしながら、本実施形態にかかるロボット1においては、上述のとおり、距離情報選択部152によって、距離情報取得部151が取得した距離情報のうち、ハンド13が現在操作中の対象物についての距離情報以外のものが選択され、自己位置推定部153は、選択された距離情報に基づいて自己位置の推定処理を行う。このため、ロボット1自身が操作している動的な物体の影響を排除することができる。したがって、ハンド13が操作している対象物の距離情報を含んで自己位置推定を行う場合に比べ、正確な自己位置の推定を行うことができる。ハンド13が操作対象を操作している際には、距離情報取得部151が取得する距離情報の大部分が、操作対象の距離情報であることも想定されるが、そのような外乱により自己位置の正確な推定が困難な状況にあっても、本実施形態にかかるロボット1は、自己位置の推定の精度を向上することができる。   However, in the robot 1 according to the present embodiment, as described above, out of the distance information acquired by the distance information acquisition unit 151 by the distance information selection unit 152, other than the distance information about the object that the hand 13 is currently operating. Are selected, and the self-position estimation unit 153 performs self-position estimation processing based on the selected distance information. For this reason, it is possible to eliminate the influence of a dynamic object operated by the robot 1 itself. Therefore, it is possible to estimate the self-position more accurately than in the case where the self-position estimation is performed including the distance information of the object operated by the hand 13. When the hand 13 is operating the operation target, it is assumed that most of the distance information acquired by the distance information acquisition unit 151 is the distance information of the operation target. Even in a situation where it is difficult to estimate accurately, the robot 1 according to the present embodiment can improve the accuracy of self-position estimation.

また、本実施形態にかかるロボット1においては、距離情報取得部151が取得した距離情報を選別することで、ハンド13が現在操作中の対象物についての距離情報を除外している。このため、例えば、予め家具などのモデルデータを登録するなどの作業も発生しない。さらに、距離情報のうち、操作中の対象物についての距離情報を除外するという方式であるため、タスクを実行する際に自己位置推定方法を切り替える必要がなく、自己位置推定のロバスト性を向上させることができる。また、自己位置推定方法の切り替えが不要であるため、ロボット1の制御にかかるソフトウェアの汎用性を保つことができる。   Further, in the robot 1 according to the present embodiment, the distance information about the target object currently being operated by the hand 13 is excluded by selecting the distance information acquired by the distance information acquisition unit 151. For this reason, for example, work such as registering model data such as furniture in advance does not occur. Furthermore, since the distance information about the target object is excluded from the distance information, there is no need to switch the self-position estimation method when executing the task, and the robustness of the self-position estimation is improved. be able to. In addition, since it is not necessary to switch the self-position estimation method, the software versatility for controlling the robot 1 can be maintained.

次に、本実施の形態に係る制御装置15の動作の一例を図7に示すフローチャートを参照して説明する。   Next, an example of operation | movement of the control apparatus 15 which concerns on this Embodiment is demonstrated with reference to the flowchart shown in FIG.

ステップ100(S100)において、ハンド位置姿勢情報取得部150は、距離センサ14の座標系を基準としたハンド13の位置姿勢についての情報を取得する。また、ハンド位置姿勢情報取得部150は、取得したハンド13の位置姿勢についての情報(データ)を距離情報選択部152に出力する。   In step 100 (S100), the hand position / orientation information acquisition unit 150 acquires information about the position and orientation of the hand 13 with reference to the coordinate system of the distance sensor 14. Further, the hand position / orientation information acquisition unit 150 outputs information (data) about the acquired position and orientation of the hand 13 to the distance information selection unit 152.

ステップ101(S101)において、距離情報取得部151は、距離センサ14の座標系を基準とした距離情報を距離センサ14から取得する。距離情報取得部151は、例えば、タイミングtの距離情報として、N個の距離情報を取得する。また、距離情報取得部151は、取得した距離情報のデータを距離情報選択部152に出力する。   In step 101 (S101), the distance information acquisition unit 151 acquires distance information based on the coordinate system of the distance sensor 14 from the distance sensor 14. For example, the distance information acquisition unit 151 acquires N pieces of distance information as the distance information at the timing t. The distance information acquisition unit 151 outputs the acquired distance information data to the distance information selection unit 152.

ステップ102(S102)において、距離情報選択部152は、ステップ101で取得した、距離センサ14の座標系を基準とした各距離情報について、ハンド13の座標系を基準とした距離情報へと変換する。   In step 102 (S102), the distance information selection unit 152 converts each distance information acquired in step 101 based on the coordinate system of the distance sensor 14 into distance information based on the coordinate system of the hand 13. .

ステップ103(S103)において、距離情報選択部152は、ステップ102で変換された距離情報の変化量と、予め定められた閾値とを比較する。具体的には、距離情報選択部152は、タイミングtの距離情報とタイミングt−1の距離情報との差分の絶対値で表される変動量diffと、閾値thとを比較する。そして、変動量が予め定められた閾値を超える場合にはステップ104へ移行し、変動量が予め定められた閾値以下の場合には、ステップ105へ移行する。   In step 103 (S103), the distance information selection unit 152 compares the amount of change in the distance information converted in step 102 with a predetermined threshold value. Specifically, the distance information selection unit 152 compares the variation amount diff represented by the absolute value of the difference between the distance information at the timing t and the distance information at the timing t−1 with the threshold th. If the fluctuation amount exceeds a predetermined threshold, the process proceeds to step 104. If the fluctuation amount is equal to or smaller than the predetermined threshold, the process proceeds to step 105.

ステップ104(S104)において、距離情報選択部152は、変動量が予め定められた閾値を超えると判定された距離情報のデータをリストに保持する。   In step 104 (S104), the distance information selection unit 152 stores the data of distance information determined that the fluctuation amount exceeds a predetermined threshold in a list.

ステップ105(S105)において、距離情報選択部152は、ステップ102で変換された全ての距離情報についてステップ103の処理が行われたか否かを判定し、全ての距離情報について処理が行われた場合には、ステップ106へ移行し、未だ処理が行われていない距離情報がある場合については、ステップ103に戻り、未だ処理が行われていない距離情報に対してステップ103以降の処理を行う。例えば、ステップ102においてN個の距離情報が変換された場合には、変換されたN個の距離情報全てについてステップ103の処理が行われると、ステップ106に進むこととなる。なお、距離情報選択部152は、ステップ102で変換された全ての距離情報についてステップ103の処理が行われた場合には、変動量が予め定められた閾値を超えると判定された距離情報のデータが含まれている上述のリストを自己位置推定部153に出力する。   In step 105 (S105), the distance information selection unit 152 determines whether or not the process of step 103 has been performed for all the distance information converted in step 102, and the process has been performed for all the distance information. If there is distance information that has not been processed yet, the process returns to step 103, and the processing after step 103 is performed on the distance information that has not yet been processed. For example, when N pieces of distance information are converted in step 102, if the process of step 103 is performed for all the converted N pieces of distance information, the process proceeds to step 106. It should be noted that the distance information selection unit 152, when the processing of step 103 is performed for all the distance information converted in step 102, data of distance information determined that the variation amount exceeds a predetermined threshold value. Is output to the self-position estimation unit 153.

ステップ106(S106)において、自己位置推定部153は、ステップ105で距離情報選択部152から出力されたリストに含まれる距離情報に基づいて、ロボット1の自己位置を推定する。   In step 106 (S106), the self-position estimating unit 153 estimates the self-position of the robot 1 based on the distance information included in the list output from the distance information selecting unit 152 in step 105.

以上、本発明の実施形態について説明したが、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。   While the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and can be appropriately changed without departing from the spirit of the present invention.

例えば、上述の実施形態では、距離情報選択部152は、インデックスがiであるタイミングtにおける距離情報と、同じくインデックスがiであるタイミングt−1における距離情報とが対応するものとして、両者の差分を算出しているが、タイミングtの距離情報のインデックスとは異なるインデックスを有するタイミングt−1の距離情報とを対応付けてもよい。例えば、距離情報選択部152は、インデックスがiであるタイミングtにおける距離情報に対応するタイミングt−1の距離情報を最近傍探索により見つけるよう構成してもよい。すなわち、タイミングt−1における距離情報のデータ群のうち、タイミングtの当該距離情報と最も位置が近いデータを当該距離情報に対応するデータとしてもよい。
また、距離情報は、2次元の情報に限らず深度画像のような3次元情報であってもよい。
For example, in the above-described embodiment, the distance information selection unit 152 assumes that the distance information at the timing t at which the index is i corresponds to the distance information at the timing t−1 at which the index is i. However, the distance information at the timing t−1 having an index different from the index of the distance information at the timing t may be associated with each other. For example, the distance information selecting unit 152 may be configured to find the distance information at the timing t−1 corresponding to the distance information at the timing t where the index is i by the nearest neighbor search. That is, in the data group of distance information at the timing t−1, data closest to the distance information at the timing t may be data corresponding to the distance information.
The distance information is not limited to two-dimensional information, but may be three-dimensional information such as a depth image.

1 ロボット
10 台車
11 ロボット本体
12 アーム
13 ハンド
14 距離センサ
15 制御装置
100 台車用駆動機構
101 台車状態検出センサ
120 アーム用駆動機構
121 アーム状態検出センサ
130 ハンド用駆動機構
131 ハンド状態検出センサ
150 ハンド位置姿勢情報取得部
151 距離情報取得部
152 距離情報選択部
153 自己位置推定部
DESCRIPTION OF SYMBOLS 1 Robot 10 Cart 11 Robot main body 12 Arm 13 Hand 14 Distance sensor 15 Control device 100 Cart drive mechanism 101 Cart state detection sensor 120 Arm drive mechanism 121 Arm state detection sensor 130 Hand drive mechanism 131 Hand state detection sensor 150 Hand position Posture information acquisition unit 151 Distance information acquisition unit 152 Distance information selection unit 153 Self-position estimation unit

Claims (1)

把持対象を把持する把持手段と、
検出領域内の物体との距離情報を検出する距離検出手段と、
前記距離情報に基づいて、自己位置を推定する自己位置推定手段と
を有し、
前記自己位置推定手段は、前記距離情報のうち、前記把持手段の座標系を基準とした過去の前記距離情報からの変化量が予め定められた閾値以下の前記距離情報を除いて自己位置を推定する
ロボット。
A gripping means for gripping a gripping object;
Distance detecting means for detecting distance information with an object in the detection region;
Self-position estimating means for estimating the self-position based on the distance information;
The self-position estimating means estimates the self-position by excluding the distance information in which the amount of change from the distance information in the past with reference to the coordinate system of the gripping means is equal to or less than a predetermined threshold. Robot.
JP2014205561A 2014-10-06 2014-10-06 robot Active JP6260509B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014205561A JP6260509B2 (en) 2014-10-06 2014-10-06 robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014205561A JP6260509B2 (en) 2014-10-06 2014-10-06 robot

Publications (2)

Publication Number Publication Date
JP2016074053A JP2016074053A (en) 2016-05-12
JP6260509B2 true JP6260509B2 (en) 2018-01-17

Family

ID=55950588

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014205561A Active JP6260509B2 (en) 2014-10-06 2014-10-06 robot

Country Status (1)

Country Link
JP (1) JP6260509B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6786264B2 (en) 2016-05-27 2020-11-18 株式会社東芝 Information processing equipment, information processing methods, and vehicles
EP3366433B1 (en) * 2017-02-09 2022-03-09 Canon Kabushiki Kaisha Method of controlling robot, method of teaching robot, and robot system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4506685B2 (en) * 2006-02-17 2010-07-21 トヨタ自動車株式会社 Mobile robot
JP2008142841A (en) * 2006-12-11 2008-06-26 Toyota Motor Corp Mobile robot
JP5304534B2 (en) * 2009-08-21 2013-10-02 トヨタ自動車株式会社 Self-position estimation apparatus, self-position estimation method and program
JP5892663B2 (en) * 2011-06-21 2016-03-23 国立大学法人 奈良先端科学技術大学院大学 Self-position estimation device, self-position estimation method, self-position estimation program, and moving object
JP5817611B2 (en) * 2012-03-23 2015-11-18 トヨタ自動車株式会社 Mobile robot

Also Published As

Publication number Publication date
JP2016074053A (en) 2016-05-12

Similar Documents

Publication Publication Date Title
JP5080333B2 (en) Object recognition device for autonomous mobile objects
JP5276931B2 (en) Method for recovering from moving object and position estimation error state of moving object
US8855819B2 (en) Method and apparatus for simultaneous localization and mapping of robot
CN109394095B (en) Robot movement carpet deviation control method, chip and cleaning robot
JP6711138B2 (en) Self-position estimating device and self-position estimating method
WO2012153629A1 (en) Device and method for controlling prediction of motion
US20110166737A1 (en) Route planning method, route planning device and autonomous mobile device
JP5287051B2 (en) Autonomous mobile device
JP2009031884A (en) Autonomous mobile body, map information creation method in autonomous mobile body and moving route specification method in autonomous mobile body
EP3026520A2 (en) Moving amount estimating apparatus, autonomous mobile body, and moving amount estimating method
JP2007011978A (en) Motion controller for robot
JP2008142841A (en) Mobile robot
JP5287060B2 (en) Route planning device and autonomous mobile device
JP2009223757A (en) Autonomous mobile body, control system, and self-position estimation method
JP6260509B2 (en) robot
Tsai et al. Use of ultrasonic sensors to enable wheeled mobile robots to avoid obstacles
JP2017146893A (en) Self-position estimation method
JP4774401B2 (en) Autonomous mobile route setting device
JP2016078185A (en) robot
JP6589578B2 (en) Travel amount estimation device, autonomous mobile body, and travel amount estimation method
JP2016081159A (en) Mobile entity
Jean et al. Development of an indoor patrol robot based on ultrasonic and vision data fusion
JP2017027311A5 (en)
JP2017083230A (en) Self position estimation method
JP2016081327A (en) Quantity-of-movement estimation system, autonomous moving entity, and quantity-of-movement estimation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171127

R151 Written notification of patent or utility model registration

Ref document number: 6260509

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151