JP6801566B2 - Mobile robot - Google Patents

Mobile robot Download PDF

Info

Publication number
JP6801566B2
JP6801566B2 JP2017086435A JP2017086435A JP6801566B2 JP 6801566 B2 JP6801566 B2 JP 6801566B2 JP 2017086435 A JP2017086435 A JP 2017086435A JP 2017086435 A JP2017086435 A JP 2017086435A JP 6801566 B2 JP6801566 B2 JP 6801566B2
Authority
JP
Japan
Prior art keywords
distance
image sensor
plane
calibration
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017086435A
Other languages
Japanese (ja)
Other versions
JP2018185203A (en
Inventor
優人 森
優人 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2017086435A priority Critical patent/JP6801566B2/en
Publication of JP2018185203A publication Critical patent/JP2018185203A/en
Application granted granted Critical
Publication of JP6801566B2 publication Critical patent/JP6801566B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、移動ロボットに関する。 The present invention relates to a mobile robot.

対象空間に向けて均一光を照射し、反射光を撮像素子で受光して、その位相差から各ピクセルが捉えた被写体までの距離を出力する距離画像センサが知られている(例えば、特許文献1を参照)。また、対象空間に向けてパターン光を照射し、反射光を撮像素子で受光して、パターンの歪みや大きさから各ピクセルが捉えた被写体までの距離を出力する距離画像センサも知られている。 A distance image sensor is known that irradiates uniform light toward a target space, receives reflected light with an image sensor, and outputs the distance from the phase difference to the subject captured by each pixel (for example, Patent Document). See 1). There is also known a distance image sensor that irradiates a pattern light toward the target space, receives the reflected light with an image sensor, and outputs the distance to the subject captured by each pixel from the distortion and size of the pattern. ..

特開2006−153773号公報Japanese Unexamined Patent Publication No. 2006-153773

移動ロボットが、把持しようとする搬送物の距離や方向を距離画像センサの出力から認識しようとする場合には、検出距離の精度が足りない場合があった。検出距離の精度を低下させる要因として、一定距離に対する出力が撮像素子の二次元状に配列されたピクセルごとに異なるオフセットを含む点が挙げられる。撮像素子を静止したステージ等に固定して基準平面に正対させられるのであれば、距離画像センサの較正を精度良く行うことができる。しかし、移動ロボットに搭載された距離画像センサを脱着するには相応の作業を要するので、その較正を最適な条件下で行うことは難しかった。しかも、オフセット値は経時的にも変化するので、較正を一定の頻度で行いたいという要請もある。 When the mobile robot tries to recognize the distance or direction of the transported object to be grasped from the output of the distance image sensor, the accuracy of the detection distance may be insufficient. One of the factors that reduce the accuracy of the detection distance is that the output for a certain distance includes a different offset for each pixel arranged two-dimensionally in the image sensor. If the image sensor is fixed to a stationary stage or the like so that it faces the reference plane, the distance image sensor can be calibrated with high accuracy. However, since it takes a considerable amount of work to attach and detach the distance image sensor mounted on the mobile robot, it is difficult to perform the calibration under the optimum conditions. Moreover, since the offset value changes over time, there is also a demand for calibration to be performed at a constant frequency.

本発明は、このような問題を解決するためになされたものであり、移動ロボットに搭載された距離画像センサの較正を簡便に行うことを目的とする。 The present invention has been made to solve such a problem, and an object of the present invention is to easily calibrate a distance image sensor mounted on a mobile robot.

本発明の一態様における移動ロボットは、移動するための移動機構と、対象空間を撮像して二次元状に配列されたピクセルごとに被写体までの距離を出力する距離画像センサと、対象空間に含まれる平面の向きと平面の少なくとも一点までの距離を検出する平面検出センサと、距離画像センサが平面を撮像した出力、平面検出センサが検出した平面の向きと距離、および距離画像センサと平面検出センサの相対位置関係を用いて距離画像センサの較正を実行する較正部とを備え、較正部は、移動機構により平面までの距離を変えて較正を複数回実行する。 The moving robot according to one aspect of the present invention includes a moving mechanism for moving, a distance image sensor that images the target space and outputs the distance to the subject for each pixel arranged in a two-dimensional shape, and the target space. A plane detection sensor that detects the orientation of the plane and the distance to at least one point on the plane, the output of the distance image sensor capturing the plane, the orientation and distance of the plane detected by the plane detection sensor, and the distance image sensor and the plane detection sensor. It is provided with a calibration unit that calibrates the distance image sensor using the relative positional relationship of the above, and the calibration unit executes the calibration a plurality of times by changing the distance to the plane by the moving mechanism.

このように、例えば障害物検知などの距離画像センサとは異なる用途に用いるために搭載されているセンサを平面検出センサとして利用し、かつ、移動ロボットが移動するという特性を活用して、距離画像センサの較正を様々な距離で実行するようにした。したがって、較正時に距離画像センサを移動ロボットから取り外す必要がなく、また、適切な頻度で精度の高い較正を実行することができる。すなわち、本発明によれば、距離画像センサの出力を用いて、対象物までの距離や方向を、定常的に精度良く検出することができる。 In this way, the sensor mounted for use in a different application from the distance image sensor such as obstacle detection is used as a plane detection sensor, and the characteristic that the moving robot moves is utilized to take advantage of the distance image. The sensor is now calibrated at various distances. Therefore, it is not necessary to remove the distance image sensor from the mobile robot at the time of calibration, and highly accurate calibration can be performed at an appropriate frequency. That is, according to the present invention, the distance and direction to the object can be constantly and accurately detected by using the output of the distance image sensor.

本実施形態にかかる移動ロボットの外観斜視図である。It is external perspective view of the mobile robot which concerns on this embodiment. 移動ロボットの制御ブロック図である。It is a control block diagram of a mobile robot. 一定距離の平面に対する距離画像センサの出力特性を示す図である。It is a figure which shows the output characteristic of the distance image sensor with respect to the plane of a certain distance. 傾いた平面に対する距離画像センサの出力特性を示す図である。It is a figure which shows the output characteristic of a distance image sensor with respect to an inclined plane. あるピクセルの較正データの一例を示す図である。It is a figure which shows an example of the calibration data of a certain pixel. 距離画像センサの較正の様子を示す図である。It is a figure which shows the state of the calibration of the distance image sensor. 較正に係る処理フローを説明するフロー図である。It is a flow figure explaining the processing flow which concerns on calibration.

以下、発明の実施の形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the invention according to the claims is not limited to the following embodiments. Moreover, not all of the configurations described in the embodiments are indispensable as means for solving the problem.

図1は、本実施形態にかかる移動ロボット100の外観斜視図である。移動ロボット100は、主な構造体として、移動機構が取り付けられた台車ベース110と、センサ類が取り付けられた上体ベース120と、搬送物等を把持するためのアーム部150とを備える。 FIG. 1 is an external perspective view of the mobile robot 100 according to the present embodiment. The mobile robot 100 includes, as a main structure, a carriage base 110 to which a moving mechanism is attached, an upper body base 120 to which sensors are attached, and an arm portion 150 for gripping a transported object or the like.

台車ベース110は、移動機構として2つの駆動輪112と1つのキャスター113を備える。2つの駆動輪112は、台車ベース110の対向する側方のそれぞれに、回転軸芯が一致するように配設されている。それぞれの駆動輪112は、不図示のモータによって独立して回転駆動される。キャスター113は、従動輪であり、台車ベース110から鉛直方向に延びる旋回軸が車輪の回転軸から離れて車輪を軸支するように設けられており、台車ベース110の移動方向に倣うように追従する。移動ロボット100は、例えば、2つの駆動輪112が同じ方向に同じ回転速度で回転されれば直進し、逆方向に同じ回転速度で回転されれば重心を通る鉛直軸周りに旋回する。 The bogie base 110 includes two drive wheels 112 and one caster 113 as a moving mechanism. The two drive wheels 112 are arranged so that the rotation shaft cores coincide with each of the opposite sides of the bogie base 110. Each drive wheel 112 is independently rotationally driven by a motor (not shown). The caster 113 is a trailing wheel, and a turning shaft extending in the vertical direction from the bogie base 110 is provided so as to support the wheel away from the rotation axis of the wheel, and follows the moving direction of the bogie base 110. To do. For example, if the two drive wheels 112 are rotated in the same direction at the same rotation speed, the mobile robot 100 goes straight, and if they are rotated in the opposite direction at the same rotation speed, the mobile robot 100 turns around a vertical axis passing through the center of gravity.

台車ベース110には、コントロールユニット190が設けられている。コントロールユニット190は、後述の制御部とメモリ等を含む。 A control unit 190 is provided on the carriage base 110. The control unit 190 includes a control unit and a memory described later.

上体ベース120は、台車ベース110に対して鉛直軸周りに旋回可能なように、台車ベース110に支持されている。上体ベース120は、不図示のモータによって旋回され、台車ベース110の進行方向に対して所定の方向を向くことができる。 The upper body base 120 is supported by the carriage base 110 so that it can turn around a vertical axis with respect to the carriage base 110. The upper body base 120 is turned by a motor (not shown), and can face a predetermined direction with respect to the traveling direction of the carriage base 110.

上体ベース120には、障害物検知や周辺環境認識のための各種センサが設けられている。3Dライダー130は、そのセンサ類の一つであり、上体ベース120の前方に配置されている。3Dライダー130は、周辺に存在する物体までの距離を計測する障害物検出センサである。具体的には、3Dライダー130は、例えばマイクロミラーを駆動して上体ベース120の前方方向に水平120度、垂直60度の範囲でレーザー光を走査する。そして、走査した投射光に対する反射光を検出することにより、反射点までの距離を算出する。 The upper body base 120 is provided with various sensors for detecting obstacles and recognizing the surrounding environment. The 3D rider 130 is one of the sensors and is arranged in front of the upper body base 120. The 3D rider 130 is an obstacle detection sensor that measures the distance to an object existing in the vicinity. Specifically, the 3D lidar 130 drives, for example, a micromirror to scan the laser beam in a range of 120 degrees horizontally and 60 degrees vertically in the front direction of the upper body base 120. Then, the distance to the reflection point is calculated by detecting the reflected light with respect to the scanned projected light.

また、距離画像センサ140も、上体ベース120の前方に配置されている。距離画像センサ140と3Dライダー130が一つの筐体に収められ、筐体ごと上体ベース120の前方に配置されていても良い。距離画像センサ140は、例えばアーム部150のハンドが搬送物を把持する場合に、搬送物の距離、形状、方向等を認識するために用いられる。距離画像センサ140は、対象空間から入射する光学像を光電変換するピクセルが二次元状に配列された撮像素子を含む。距離画像センサ140は、ピクセルごとに被写体までの距離を出力する。具体的には、距離画像センサ140は、パターン光を対象空間に照射する照射ユニットを含み、その反射光を撮像素子で受光して、画像におけるパターンの歪みや大きさから各ピクセルが捉えた被写体までの距離を出力する。 The distance image sensor 140 is also arranged in front of the upper body base 120. The distance image sensor 140 and the 3D rider 130 may be housed in one housing, and the housing may be arranged in front of the upper body base 120. The distance image sensor 140 is used to recognize the distance, shape, direction, etc. of the transported object, for example, when the hand of the arm portion 150 grips the transported object. The distance image sensor 140 includes an image sensor in which pixels that photoelectrically convert an optical image incident from the target space are arranged in a two-dimensional manner. The distance image sensor 140 outputs the distance to the subject for each pixel. Specifically, the distance image sensor 140 includes an irradiation unit that irradiates the target space with pattern light, receives the reflected light with an image sensor, and captures a subject captured by each pixel based on the distortion and size of the pattern in the image. Outputs the distance to.

なお、対象空間を撮像して、ピクセルごとに被写体までの距離を出力する距離センサであれば、距離画像センサ140として採用し得る。例えば、対象空間に向けて均一光を照射し、反射光を撮像素子で受光して、その位相差から各ピクセルが捉えた被写体までの距離を出力する距離センサであっても構わない。ただし、本実施形態で対象とする距離画像センサは、後述する較正を行うことにより、精度の高い距離情報を取得できるものとする。 A distance sensor that captures an image of the target space and outputs the distance to the subject for each pixel can be adopted as the distance image sensor 140. For example, it may be a distance sensor that irradiates uniform light toward the target space, receives the reflected light by the image sensor, and outputs the distance from the phase difference to the subject captured by each pixel. However, the distance image sensor targeted in the present embodiment can acquire highly accurate distance information by performing calibration described later.

アーム部150は、主に、複数のアームとハンドから構成される。アームの一端は、上体ベース120に軸支されている。アームの他端は、ハンドを軸支している。アーム部150は、不図示のアクチュエータによって駆動されると、搬送物を把持するなど、与えられたタスクに応じた把持動作を実行する。 The arm portion 150 is mainly composed of a plurality of arms and a hand. One end of the arm is pivotally supported by the upper body base 120. The other end of the arm pivotally supports the hand. When the arm unit 150 is driven by an actuator (not shown), it executes a gripping operation according to a given task, such as gripping a transported object.

図2は、移動ロボット100の制御ブロック図である。制御部200は、例えばCPUであり、駆動輪ユニット210、アームユニット220、旋回ユニット230、メモリ240、3Dライダー130、距離画像センサ140等との間で指令やサンプリングデータ等の情報を授受することにより、移動ロボット100の制御に関わる様々な演算を実行する。 FIG. 2 is a control block diagram of the mobile robot 100. The control unit 200 is, for example, a CPU, and exchanges information such as commands and sampling data with the drive wheel unit 210, the arm unit 220, the swivel unit 230, the memory 240, the 3D rider 130, the distance image sensor 140, and the like. Therefore, various calculations related to the control of the mobile robot 100 are executed.

駆動輪ユニット210は、台車ベース110に設けられており、駆動輪112を駆動するための駆動回路とモータ、モータの回転量を検出するエンコーダ等を含む。駆動輪ユニット210は、自律移動するための移動機構として機能する。制御部200は、駆動輪ユニット210へ駆動信号を送ることにより、モータの回転制御を実行する。また、エンコーダの検出信号を受け取ることにより、移動ロボット100の移動速度、移動距離、旋回角等を演算する。 The drive wheel unit 210 is provided on the bogie base 110, and includes a drive circuit for driving the drive wheels 112, a motor, an encoder for detecting the amount of rotation of the motor, and the like. The drive wheel unit 210 functions as a moving mechanism for autonomous movement. The control unit 200 executes rotation control of the motor by sending a drive signal to the drive wheel unit 210. In addition, by receiving the detection signal of the encoder, the moving speed, moving distance, turning angle, etc. of the moving robot 100 are calculated.

アームユニット220は、アーム部150に設けられており、アームおよびハンドを駆動するための駆動回路とアクチュエータ、アクチュエータの動作量を検出するエンコーダ等を含む。制御部200は、アームユニット220へ駆動信号を送ることにより、アクチュエータを動作させ、アーム部150の姿勢制御や把持制御を実行する。また、エンコーダの検出信号を受け取ることにより、アーム部150の稼働速度、稼働距離、姿勢等を演算する。 The arm unit 220 is provided in the arm unit 150, and includes a drive circuit and an actuator for driving the arm and the hand, an encoder for detecting the amount of movement of the actuator, and the like. The control unit 200 operates the actuator by sending a drive signal to the arm unit 220, and executes attitude control and grip control of the arm unit 150. Further, by receiving the detection signal of the encoder, the operating speed, operating distance, posture, etc. of the arm unit 150 are calculated.

旋回ユニット230は、台車ベース110と上体ベース120に跨いで設けられており、上体ベース120を旋回させるための駆動回路とモータ、モータの回転量を検出するエンコーダ等を含む。制御部200は、旋回ユニット230へ駆動信号を送ることにより、モータを動作させ、例えば3Dライダー130と距離画像センサ140を特定の方向へ向けることができる。 The swivel unit 230 is provided so as to straddle the bogie base 110 and the upper body base 120, and includes a drive circuit for swiveling the upper body base 120, a motor, an encoder for detecting the amount of rotation of the motor, and the like. By sending a drive signal to the swivel unit 230, the control unit 200 can operate the motor and, for example, direct the 3D lidar 130 and the distance image sensor 140 in a specific direction.

メモリ240は、不揮発性の記憶媒体であり、例えばソリッドステートドライブが用いられる。メモリ240は、移動ロボット100を制御するための制御プログラム、制御に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶している。特に、距離画像センサ140に対して後述する較正データ241を記憶している。 The memory 240 is a non-volatile storage medium, and for example, a solid state drive is used. The memory 240 stores a control program for controlling the mobile robot 100, various parameter values used for control, a function, a look-up table, and the like. In particular, the calibration data 241 described later is stored in the distance image sensor 140.

3Dライダー130は、制御部200から制御信号を受け取ると、マイクロミラーを駆動してレーザー光を走査し、反射光を連続的に検出してそれぞれの反射点までの距離を算出して制御部200に返す。また、距離画像センサ140は、制御部200から制御信号を受け取ると、照射ユニットからパターン光を照射し、撮像素子を駆動して画像データを取得し、画像データの画像からパターンの歪みや大きさを解析して各ピクセルに対応する距離情報を制御部に返す。 Upon receiving the control signal from the control unit 200, the 3D lidar 130 drives the micromirror to scan the laser beam, continuously detects the reflected light, calculates the distance to each reflection point, and calculates the distance to each reflection point. Return to. When the distance image sensor 140 receives the control signal from the control unit 200, the distance image sensor 140 irradiates the pattern light from the irradiation unit, drives the image sensor to acquire the image data, and the distortion and size of the pattern from the image of the image data. Is analyzed and the distance information corresponding to each pixel is returned to the control unit.

制御部200は、制御に関わる様々な演算や制御を実行する機能実行部としての役割も担う。較正部201は、後に詳述するように、3Dライダー130を利用して、距離画像センサ140の較正を行い、較正データ241を作成する制御プログラムを実行する。移動計画部202は、メモリ240に記憶されている地図情報やセンサ出力から得られる障害物情報等を用いて、移動ロボット100が移動する経路を計画する。 The control unit 200 also plays a role as a function execution unit that executes various calculations and controls related to control. As will be described in detail later, the calibration unit 201 uses the 3D lidar 130 to calibrate the distance image sensor 140 and executes a control program for creating calibration data 241. The movement planning unit 202 plans the route to which the mobile robot 100 moves by using the map information stored in the memory 240, the obstacle information obtained from the sensor output, and the like.

図3は、一定距離の平面に対する距離画像センサ140の出力特性を示す図である。左側の矩形は、距離センサ115が有する撮像素子の有効領域を示す。有効領域には、上述のように、光電変換部としてのピクセルがマトリックス状に配列されている。このうち、上方に位置する横一列のラインをaライン、中央に位置する横一列のラインをbライン、下方に位置する横一列のラインをcラインと称して、有効領域の代表ラインとして説明する。また、各ラインにおいて、それぞれ左側、中央、右側の代表位置をL,C、Rとする。 FIG. 3 is a diagram showing the output characteristics of the distance image sensor 140 with respect to a plane of a certain distance. The square wave on the left side indicates the effective area of the image sensor included in the distance sensor 115. In the effective region, as described above, the pixels as the photoelectric conversion unit are arranged in a matrix. Of these, a horizontal line located above is referred to as an a line, a horizontal line located in the center is referred to as a b line, and a horizontal line located below is referred to as a c line, and will be described as representative lines of the effective area. .. Further, in each line, the representative positions of the left side, the center, and the right side are L, C, and R, respectively.

図3の右側の表は、撮像素子がターゲットする平面に0.5mの距離で正対した場合、1.0mの距離で正対した場合、1.5mの距離で正対した場合、2.0mの距離で正対した場合における、aライン、bライン、cラインの出力を示す。なお、ここで撮像素子が平面と正対するとは、撮像素子の有効領域の全体で平面を捉えており、かつ当該平面が撮像素子の受光面と平行であることをいう。 The table on the right side of FIG. 3 shows the case where the image sensor faces the target plane at a distance of 0.5 m, the case where the image sensor faces the target plane at a distance of 1.0 m, and the case where the image sensor faces the target plane at a distance of 1.5 m. The outputs of the a line, the b line, and the c line when facing each other at a distance of 0 m are shown. Here, when the image sensor faces a plane, it means that the plane is captured by the entire effective region of the image sensor, and the plane is parallel to the light receiving surface of the image sensor.

図3の右側の表における各グラフは、横軸に各ラインにおけるピクセルの横方向の相対位置を表し、縦軸にそれぞれのピクセルから出力された出力距離(m)を表す。例えば、撮像素子がターゲットである平面に対して0.5mの距離で正対した場合のaラインの出力を見ると、位置Lおよび位置Rでは、ほぼ正しい0.5mを出力しているものの、位置Cでは0.5より小さな距離を出力している。aライン全体の出力として見ると、点線で示す0.5mのラインに対して、中央位置である位置Cを底とする下凸の湾曲ライン(太い実線)を呈している。また、撮像素子がターゲットである平面に対して2.0mの距離で正対した場合のbラインの出力を見ると、位置Lと位置Cの中間付近および位置Cと位置Rの中間付近に存在するピクセルがそれぞれほぼ正しい2.0mを出力しているものの、他のピクセルは全体的に2.0mよりも大きな距離を出力している。 In each graph in the table on the right side of FIG. 3, the horizontal axis represents the horizontal relative position of the pixel in each line, and the vertical axis represents the output distance (m) output from each pixel. For example, looking at the output of the a-line when the image sensor faces the target plane at a distance of 0.5 m, although the output is almost correct 0.5 m at position L and position R, At position C, a distance smaller than 0.5 is output. Looking at the output of the entire a-line, it shows a downwardly convex curved line (thick solid line) with the position C at the center as the base, with respect to the 0.5 m line shown by the dotted line. Also, looking at the output of the b line when the image sensor faces the target plane at a distance of 2.0 m, it exists near the middle of position L and position C and near the middle of position C and position R. Although each pixel outputs an almost correct 2.0 m, the other pixels output a distance larger than 2.0 m as a whole.

すなわち、距離画像センサ140の出力は、ピクセルごとに、かつ、同一のピクセルであっても検出対象までの距離ごとに、それぞれ異なるオフセット値を含む。したがって、距離画像センサ140の出力からより正確な距離情報を取得するためには、距離画像センサ140の較正を行う必要がある。具体的には、制御部200の機能実行部である較正部201が、ピクセルごとに出力値を較正するための較正データ241を作成する。 That is, the output of the distance image sensor 140 includes different offset values for each pixel and for each distance to the detection target even if the pixels are the same. Therefore, in order to obtain more accurate distance information from the output of the distance image sensor 140, it is necessary to calibrate the distance image sensor 140. Specifically, the calibration unit 201, which is the function execution unit of the control unit 200, creates calibration data 241 for calibrating the output value for each pixel.

図3の表に示すように、ターゲットとする平面までの距離が事前に把握できているのであれば、それぞれのピクセルが出力する距離を正しい距離に換算する換算式あるいは換算テーブルを作成すれば良い。例えば、撮像素子が0.5mの平面と正対する場合にaライン位置Cのピクセルが0.4mと出力するのであれば、このピクセルの較正データとして、0.4mを出力した場合は5/4倍するという換算式を作成することができる。 As shown in the table of FIG. 3, if the distance to the target plane is known in advance, a conversion formula or conversion table for converting the distance output by each pixel into the correct distance may be created. .. For example, if the pixel at the a-line position C outputs 0.4 m when the image sensor faces a plane of 0.5 m, if 0.4 m is output as calibration data for this pixel, it is 5/4. You can create a conversion formula that doubles.

図3の例では、3つのラインを代表として示したが、有効領域の全ラインで較正データを作成しても良いし、一定間隔のラインごとに較正データを作成し、間引かれたラインでは作成された較正データを補間して利用するようにしても良い。また、較正データを作成する各ラインにおいても、全ピクセルで較正データを作成しても良いし、一定間隔のピクセルごとに較正データを作成し、間引かれたピクセルでは作成された較正データを補間して利用するようにしても良い。 In the example of FIG. 3, three lines are shown as representatives, but calibration data may be created for all lines in the effective area, or calibration data may be created for each line at regular intervals, and the thinned lines may be used. The created calibration data may be interpolated and used. Further, in each line for creating calibration data, calibration data may be created for all pixels, calibration data is created for each pixel at regular intervals, and the created calibration data is interpolated for the thinned pixels. You may use it.

図3の例では、ターゲットとしてそれぞれ0.5m、1.0m、1.5m、2.0mの平面を撮像した例を示したが、もちろんこの範囲および間隔に限らない。距離画像センサ140の利用目的に応じて範囲を変更しても良いし、要求される精度に応じて、例えば10mmといった細かい間隔であっても良い。 In the example of FIG. 3, an example in which a plane of 0.5 m, 1.0 m, 1.5 m, and 2.0 m is imaged as a target, respectively, is shown, but of course, the range and the interval are not limited. The range may be changed according to the purpose of use of the distance image sensor 140, or may be a fine interval such as 10 mm depending on the required accuracy.

また、較正を行うときに撮像する平面は、撮像素子に正対する平面でなくても構わない。図4は、撮像素子に対して傾いた平面を撮像したときの距離画像センサ140の出力特性の例である。具体的には、撮像素子のあるラインにおいて平面までの距離が、位置Lのピクセルからは0.4m、位置Cのピクセルからは0.6m、位置Rのピクセルからは0.8mであることがわかっている。このような平面を撮像して得られた出力(太い実線)を、ピクセルごとに正しい距離(点線)に一致させる換算式あるいは換算テーブルを作成すれば良い。すなわち、撮像素子が撮像する対象平面の向きと、当該対象平面に含まれる少なくとも一点までの距離が事前に正しく取得されているのであれば、各ピクセルからの対象平面までの距離は計算できるので、各ピクセルの較正データを作成することができる。 Further, the plane to be imaged at the time of calibration does not have to be the plane facing the image sensor. FIG. 4 is an example of the output characteristics of the distance image sensor 140 when an image is taken on a plane tilted with respect to the image sensor. Specifically, the distance to the plane on the line where the image sensor is located is 0.4 m from the pixel at position L, 0.6 m from the pixel at position C, and 0.8 m from the pixel at position R. know. A conversion formula or conversion table may be created in which the output (thick solid line) obtained by imaging such a plane is matched with the correct distance (dotted line) for each pixel. That is, if the orientation of the target plane to be imaged by the image sensor and the distance to at least one point included in the target plane are correctly acquired in advance, the distance from each pixel to the target plane can be calculated. Calibration data for each pixel can be created.

図5は、ある特定のピクセルの較正データの一例を示す図である。横軸は対象ピクセルの出力距離を表し、縦軸は較正距離を表す。 FIG. 5 is a diagram showing an example of calibration data of a specific pixel. The horizontal axis represents the output distance of the target pixel, and the vertical axis represents the calibration distance.

対象ピクセルにおいて、図3の例のように正しい距離がそれぞれ0.5m、1.0m、1.5m、2.0mの平面に対して出力距離dm、dm、dm、dmを得た場合には、黒点で表されるプロットデータを得る。これらのプロットデータを多項式関数を用いて滑らかに接続すると太線で示すような曲線が得られる。すなわち、曲線を表す多項式関数が較正データとしての変換式となる。なお、あてはめ関数は多項式関数でなく他の関数であっても良い。また、各プロットデータが必ずしもあてはめ関数上の値でなくても構わない。なお、較正データを変換式ではなく変換テーブルとして作成する場合には、例えば、対応する出力距離と較正距離の組を数値で表すルックアップテーブルを採用することができる。 In the target pixel, the output distances d 1 m, d 2 m, d 3 m, d with respect to a plane having correct distances of 0.5 m, 1.0 m, 1.5 m, and 2.0 m, respectively, as in the example of FIG. When 4 m is obtained, plot data represented by black dots is obtained. When these plot data are smoothly connected using a polynomial function, a curve as shown by a thick line is obtained. That is, the polynomial function representing the curve becomes the conversion formula as the calibration data. The fitting function may be another function instead of the polynomial function. Also, each plot data does not necessarily have to be a value on the fitting function. When the calibration data is created as a conversion table instead of a conversion formula, for example, a lookup table that numerically represents the set of the corresponding output distance and the calibration distance can be adopted.

次に、本実施形態における距離画像センサ140の較正を行う手順について説明する。図6は、距離画像センサ140の較正の様子を示す図である。ここでは、移動ロボット100が自律移動する環境空間内に、壁面Wが存在する場合を想定している。 Next, the procedure for calibrating the distance image sensor 140 in the present embodiment will be described. FIG. 6 is a diagram showing a state of calibration of the distance image sensor 140. Here, it is assumed that the wall surface W exists in the environment space in which the mobile robot 100 autonomously moves.

制御部200は、3Dライダー130が壁面Wを走査して得た計測結果から、壁面Wが平面であること、その大きさ、およびその向きを認識する。そして、距離画像センサ140の撮像素子で壁面Wを撮像したときに、撮像素子の有効領域の全体が壁面Wを捉えることができるか否かを判断する。すなわち、撮像素子の有効領域内に、壁面W以外の対象物が写り込まないかを判断する。写り込まないと判断できたら、壁面Wを用いた較正作業を開始する。 The control unit 200 recognizes that the wall surface W is a flat surface, its size, and its orientation from the measurement results obtained by scanning the wall surface W by the 3D rider 130. Then, when the wall surface W is imaged by the image pickup element of the distance image sensor 140, it is determined whether or not the entire effective region of the image pickup element can capture the wall surface W. That is, it is determined whether or not an object other than the wall surface W is reflected in the effective region of the image sensor. If it is determined that the image is not reflected, the calibration work using the wall surface W is started.

3Dライダー130と距離画像センサ140は、互いに相対的な位置および姿勢が厳密に定められて上体ベース120に配置されている。したがって、制御部200は、3Dライダー130がある対象物を計測して得た距離を、配置による幾何条件を用いて、距離画像センサ140から当該対象物までの距離に変換することができる。すなわち、3Dライダー130により壁面Wまでの距離が計測されれば、距離画像センサ140の計測結果として得られるべき距離、別言すれば較正された距離を算出することができる。 The 3D rider 130 and the distance image sensor 140 are arranged on the upper body base 120 with their positions and postures strictly determined relative to each other. Therefore, the control unit 200 can convert the distance obtained by measuring the object with the 3D rider 130 into the distance from the distance image sensor 140 to the object by using the geometric condition according to the arrangement. That is, if the distance to the wall surface W is measured by the 3D rider 130, the distance that should be obtained as the measurement result of the distance image sensor 140, in other words, the calibrated distance can be calculated.

上述のように壁面Wと撮像素子の受光面が平行でなくても較正作業を行うことはできるが、演算の高速化を図るべく、ここでは3Dライダー130の出力から得られた壁面Wの向きを参照して上体ベース120を旋回させ、壁面Wと撮像素子の受光面を正対させる。そして、駆動輪112を駆動して壁面に対して垂直に近づきつつ、3Dライダー130の出力を用いて距離画像センサ140と壁面Wとの正確な距離を算出し、一定の距離ごとに撮像を実行する。 As described above, the calibration work can be performed even if the wall surface W and the light receiving surface of the image sensor are not parallel to each other, but in order to speed up the calculation, here, the orientation of the wall surface W obtained from the output of the 3D lidar 130. The upper body base 120 is swiveled with reference to, so that the wall surface W and the light receiving surface of the image sensor face each other. Then, while driving the drive wheels 112 to approach the wall surface perpendicularly, the accurate distance between the distance image sensor 140 and the wall surface W is calculated using the output of the 3D rider 130, and imaging is performed at regular distance intervals. To do.

このように壁面Wまでの距離を変えて、その正確な距離とそのときの各ピクセルの出力距離とを繰り返し取得すれば、対象とするピクセルごとに図5を用いて説明したような較正データ241を作成することができる。完成した較正データ241は、メモリ240に記憶される。メモリ240に記憶された較正データ241は、距離画像センサ140の使用時において参照され、距離画像センサ140から出力された距離がより正確な値に変換される。 By changing the distance to the wall surface W in this way and repeatedly acquiring the exact distance and the output distance of each pixel at that time, the calibration data 241 as described with reference to FIG. 5 for each target pixel. Can be created. The completed calibration data 241 is stored in the memory 240. The calibration data 241 stored in the memory 240 is referred to when the distance image sensor 140 is used, and the distance output from the distance image sensor 140 is converted into a more accurate value.

以上のように、移動ロボット100の移動機構を利用して距離画像センサ140の較正を行えば、距離画像センサ140を移動ロボット100から取り外す手間が省くことができる。また、校正作業を適当な頻度で繰り返すことも容易であり、オフセットの経時変化に対応して較正データを適切に更新することができる。すなわち、本実施形態によれば、移動ロボット100は、距離画像センサ140の出力を用いて、対象物までの距離や方向を、定常的に精度良く検出することができる。 As described above, if the distance image sensor 140 is calibrated using the movement mechanism of the mobile robot 100, the trouble of removing the distance image sensor 140 from the mobile robot 100 can be saved. Further, it is easy to repeat the calibration work at an appropriate frequency, and the calibration data can be appropriately updated in response to the change over time of the offset. That is, according to the present embodiment, the mobile robot 100 can constantly and accurately detect the distance and direction to the object by using the output of the distance image sensor 140.

以上においては、移動ロボット100が他のタスクを行うことなく較正作業のみを行う例を説明したが、他のタスクの実行中に断続的に較正作業を行って較正データを完成させるようにしても良い。図7は、他のタスクの実行中に較正に係る処理を実行する場合の処理フローを説明するフロー図である。図のフローは、移動ロボット100が他のタスクの実行中に並行して実行する、較正作業に関する主な処理を記したものである。 In the above, an example in which the mobile robot 100 performs only the calibration work without performing other tasks has been described, but even if the calibration work is performed intermittently during the execution of the other tasks to complete the calibration data. good. FIG. 7 is a flow chart illustrating a processing flow when a process related to calibration is executed while another task is being executed. The flow in the figure describes the main processes related to the calibration work that the mobile robot 100 executes in parallel during the execution of other tasks.

制御部200は、ステップS101において、移動計画部202が計画した経路に沿って移動するように、駆動輪ユニット210へ制御信号を送る。制御部200は、移動中に周囲を走査しながら継続的に距離計測を実行する3Dライダー130の出力を取得する(ステップS102)。 In step S101, the control unit 200 sends a control signal to the drive wheel unit 210 so that the movement planning unit 202 moves along the planned route. The control unit 200 acquires the output of the 3D rider 130 that continuously executes the distance measurement while scanning the surroundings while moving (step S102).

制御部200は、3Dライダー130の出力から周囲に所定の広さを有する平面がないかを確認する(ステップS103)。ここで、所定の広さとは、距離画像センサ140の撮像素子の有効領域に当該平面以外の対象物が写り込まない広さである。したがって、当該平面の広さは、撮像素子から平面までの距離や結像光学系の画角などにも依存する。制御部200は、そのような平面を見つけることができなければ、ステップS101へ戻る。見つけることができれば、ステップS104へ進む。 The control unit 200 confirms from the output of the 3D rider 130 whether or not there is a flat surface having a predetermined area around it (step S103). Here, the predetermined area is an area in which an object other than the plane is not reflected in the effective area of the image sensor of the distance image sensor 140. Therefore, the width of the plane also depends on the distance from the image sensor to the plane, the angle of view of the imaging optical system, and the like. If the control unit 200 cannot find such a plane, the control unit 200 returns to step S101. If it can be found, the process proceeds to step S104.

制御部200の較正部201は、ステップS104で、距離画像センサ140から当該平面までの距離に対応する較正データが取得済みであるか否かを確認する。取得済みであればステップS101へ戻る。まだ取得していなければ、ステップS105へ進む。 In step S104, the calibration unit 201 of the control unit 200 confirms whether or not the calibration data corresponding to the distance from the distance image sensor 140 to the plane has been acquired. If it has already been acquired, the process returns to step S101. If it has not been acquired yet, the process proceeds to step S105.

較正部201は、ステップS105で、距離画像センサ140に当該平面の画像データを取得させる。そしてステップS106で、撮像素子の各ピクセルから出力された距離を正しい距離に変換するための較正値を演算する。続いてステップS107へ進み、予め定められた距離の範囲および間隔で較正値の取得が完了したか否かを判断する。すなわち、較正データが完成したか否かを判断する。完成していなければステップS101へ戻り、完成していれば一連の較正作業を終了して、タスクの実行に専念する。なお、ステップS106における較正値の演算は、予め定められた距離の範囲および間隔の全てで各ピクセルの出力値を取得した後にまとめて実行しても良い。 In step S105, the calibration unit 201 causes the distance image sensor 140 to acquire image data of the plane. Then, in step S106, a calibration value for converting the distance output from each pixel of the image sensor into a correct distance is calculated. Subsequently, the process proceeds to step S107, and it is determined whether or not the acquisition of the calibration value is completed within a predetermined distance range and interval. That is, it is determined whether or not the calibration data is completed. If it is not completed, the process returns to step S101, and if it is completed, a series of calibration operations are completed to concentrate on the execution of the task. The calculation of the calibration value in step S106 may be collectively executed after acquiring the output value of each pixel in all the predetermined distance ranges and intervals.

以上説明した本実施形態においては、対象空間に含まれる平面の向きと平面の少なくとも一点までの距離を検出できる平面検出センサとして3Dライダー130を採用したが、他のセンサを平面検出センサとして採用しても良い。例えば、カラー画像を撮像するための撮像素子を2つ備えたステレオカメラユニットであっても良い。また、平面側に特定の二次元コードが貼着されているなどすれば、当該二次元コードを撮像してその大きさや傾きから平面までの距離や向きを検出できるコードリーダの類であっても良い。 In the present embodiment described above, the 3D lidar 130 is adopted as the plane detection sensor capable of detecting the orientation of the plane included in the target space and the distance to at least one point of the plane, but another sensor is adopted as the plane detection sensor. You may. For example, it may be a stereo camera unit provided with two image pickup elements for capturing a color image. Also, if a specific two-dimensional code is attached to the plane side, even if it is a code reader that can capture the two-dimensional code and detect the distance and direction from the size and inclination to the plane. good.

100 移動ロボット、110 台車ベース、112 駆動輪、113 キャスター、120 上体ベース、130 3Dライダー、140 距離画像センサ、150 アーム部、190 コントロールユニット、200 制御部、201 較正部、202 移動計画部、210 駆動輪ユニット、220 アームユニット、230 旋回ユニット、240 メモリ、241 較正データ 100 mobile robot, 110 trolley base, 112 drive wheels, 113 casters, 120 upper body base, 130 3D rider, 140 distance image sensor, 150 arm part, 190 control unit, 200 control part, 201 calibration part, 202 movement planning part, 210 drive wheel unit, 220 arm unit, 230 swivel unit, 240 memory, 241 calibration data

Claims (1)

移動するための移動機構と、
対象空間を撮像して二次元状に配列されたピクセルごとに被写体までの距離を出力する距離画像センサと、
前記対象空間に含まれる平面の向きと前記平面の少なくとも一点までの距離を検出する平面検出センサと、
前記距離画像センサが前記平面を撮像した出力、前記平面検出センサが検出した前記平面の向きと距離、および前記距離画像センサと前記平面検出センサの相対位置関係を用いて前記距離画像センサの較正を実行する較正部と
を備え、
前記較正部は、前記移動機構により前記平面までの距離を変えて前記較正を複数回実行する移動ロボット。
A movement mechanism for moving and
A distance image sensor that captures the target space and outputs the distance to the subject for each pixel arranged in two dimensions,
A plane detection sensor that detects the orientation of a plane included in the target space and the distance to at least one point on the plane.
Calibration of the distance image sensor is performed using the output of the distance image sensor imaging the plane, the orientation and distance of the plane detected by the plane detection sensor, and the relative positional relationship between the distance image sensor and the plane detection sensor. Equipped with a calibration unit to perform
The calibration unit is a mobile robot that executes the calibration a plurality of times by changing the distance to the plane by the moving mechanism.
JP2017086435A 2017-04-25 2017-04-25 Mobile robot Active JP6801566B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017086435A JP6801566B2 (en) 2017-04-25 2017-04-25 Mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017086435A JP6801566B2 (en) 2017-04-25 2017-04-25 Mobile robot

Publications (2)

Publication Number Publication Date
JP2018185203A JP2018185203A (en) 2018-11-22
JP6801566B2 true JP6801566B2 (en) 2020-12-16

Family

ID=64355760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017086435A Active JP6801566B2 (en) 2017-04-25 2017-04-25 Mobile robot

Country Status (1)

Country Link
JP (1) JP6801566B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110966563B (en) 2018-09-28 2022-06-10 株式会社小糸制作所 Vehicle headlamp
JP7056540B2 (en) * 2018-12-18 2022-04-19 株式会社デンソー Sensor calibration method and sensor calibration device
KR20230029060A (en) * 2021-08-23 2023-03-03 삼성전자주식회사 Robot and controlling method thereof
KR20230069484A (en) * 2021-11-12 2023-05-19 엘지전자 주식회사 Method for calibrating robot sensors and robot implementing the same

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4233723B2 (en) * 2000-02-28 2009-03-04 本田技研工業株式会社 Obstacle detection device, obstacle detection method, and recording medium recording an obstacle detection program
JP4655751B2 (en) * 2005-05-10 2011-03-23 トヨタ自動車株式会社 Irradiation device and night vision device
JP5278728B2 (en) * 2008-02-28 2013-09-04 アイシン精機株式会社 Distance image sensor calibration apparatus and calibration method
US8699005B2 (en) * 2012-05-27 2014-04-15 Planitar Inc Indoor surveying apparatus
JP2018513566A (en) * 2015-04-22 2018-05-24 トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング Detector for optical detection of at least one object

Also Published As

Publication number Publication date
JP2018185203A (en) 2018-11-22

Similar Documents

Publication Publication Date Title
JP6801566B2 (en) Mobile robot
JP5377758B2 (en) Method and system for accurately positioning at least one object in a final pose in space
JP6963748B2 (en) Robot system and robot system control method
US9279661B2 (en) Information processing apparatus and information processing method
JP7008942B2 (en) Calibration method and calibration device
JP5290324B2 (en) Method and system for accurately positioning at least one object in a final pose in space
US7507948B2 (en) Method of detecting object using structured light and robot using the same
US20120098961A1 (en) Shape measuring apparatus, robot system, and shape measuring method
JP5567908B2 (en) Three-dimensional measuring apparatus, measuring method and program
US9470548B2 (en) Device, system and method for calibration of camera and laser sensor
JP5310285B2 (en) Self-position estimation apparatus and self-position estimation method
JP6855492B2 (en) Robot system, robot system control device, and robot system control method
JP4665857B2 (en) Mobile body capable of guiding arm and method for guiding arm
Wang et al. Robot end-effector sensing with position sensitive detector and inertial sensors
WO2013145025A1 (en) Stereo camera system and mobile object
JP2019000923A (en) Method for estimating mechanism model parameter of articulated robot
JP6907678B2 (en) Mobile robot
KR101359649B1 (en) obstacle detection sensor
KR102381958B1 (en) Following robot system
JP2005205519A (en) Robot hand device
KR102081093B1 (en) Mobile robot navigation system
JP6863049B2 (en) Autonomous mobile robot
JP2009006466A (en) Leg wheel type robot
JP6776960B2 (en) Autonomous mobile
JP2002162208A (en) Three dimensional measuring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191028

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201109

R151 Written notification of patent or utility model registration

Ref document number: 6801566

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151