JP6801566B2 - Mobile robot - Google Patents
Mobile robot Download PDFInfo
- Publication number
- JP6801566B2 JP6801566B2 JP2017086435A JP2017086435A JP6801566B2 JP 6801566 B2 JP6801566 B2 JP 6801566B2 JP 2017086435 A JP2017086435 A JP 2017086435A JP 2017086435 A JP2017086435 A JP 2017086435A JP 6801566 B2 JP6801566 B2 JP 6801566B2
- Authority
- JP
- Japan
- Prior art keywords
- distance
- image sensor
- plane
- calibration
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 16
- 230000007246 mechanism Effects 0.000 claims description 8
- 238000003384 imaging method Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000000034 method Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Description
本発明は、移動ロボットに関する。 The present invention relates to a mobile robot.
対象空間に向けて均一光を照射し、反射光を撮像素子で受光して、その位相差から各ピクセルが捉えた被写体までの距離を出力する距離画像センサが知られている(例えば、特許文献1を参照)。また、対象空間に向けてパターン光を照射し、反射光を撮像素子で受光して、パターンの歪みや大きさから各ピクセルが捉えた被写体までの距離を出力する距離画像センサも知られている。 A distance image sensor is known that irradiates uniform light toward a target space, receives reflected light with an image sensor, and outputs the distance from the phase difference to the subject captured by each pixel (for example, Patent Document). See 1). There is also known a distance image sensor that irradiates a pattern light toward the target space, receives the reflected light with an image sensor, and outputs the distance to the subject captured by each pixel from the distortion and size of the pattern. ..
移動ロボットが、把持しようとする搬送物の距離や方向を距離画像センサの出力から認識しようとする場合には、検出距離の精度が足りない場合があった。検出距離の精度を低下させる要因として、一定距離に対する出力が撮像素子の二次元状に配列されたピクセルごとに異なるオフセットを含む点が挙げられる。撮像素子を静止したステージ等に固定して基準平面に正対させられるのであれば、距離画像センサの較正を精度良く行うことができる。しかし、移動ロボットに搭載された距離画像センサを脱着するには相応の作業を要するので、その較正を最適な条件下で行うことは難しかった。しかも、オフセット値は経時的にも変化するので、較正を一定の頻度で行いたいという要請もある。 When the mobile robot tries to recognize the distance or direction of the transported object to be grasped from the output of the distance image sensor, the accuracy of the detection distance may be insufficient. One of the factors that reduce the accuracy of the detection distance is that the output for a certain distance includes a different offset for each pixel arranged two-dimensionally in the image sensor. If the image sensor is fixed to a stationary stage or the like so that it faces the reference plane, the distance image sensor can be calibrated with high accuracy. However, since it takes a considerable amount of work to attach and detach the distance image sensor mounted on the mobile robot, it is difficult to perform the calibration under the optimum conditions. Moreover, since the offset value changes over time, there is also a demand for calibration to be performed at a constant frequency.
本発明は、このような問題を解決するためになされたものであり、移動ロボットに搭載された距離画像センサの較正を簡便に行うことを目的とする。 The present invention has been made to solve such a problem, and an object of the present invention is to easily calibrate a distance image sensor mounted on a mobile robot.
本発明の一態様における移動ロボットは、移動するための移動機構と、対象空間を撮像して二次元状に配列されたピクセルごとに被写体までの距離を出力する距離画像センサと、対象空間に含まれる平面の向きと平面の少なくとも一点までの距離を検出する平面検出センサと、距離画像センサが平面を撮像した出力、平面検出センサが検出した平面の向きと距離、および距離画像センサと平面検出センサの相対位置関係を用いて距離画像センサの較正を実行する較正部とを備え、較正部は、移動機構により平面までの距離を変えて較正を複数回実行する。 The moving robot according to one aspect of the present invention includes a moving mechanism for moving, a distance image sensor that images the target space and outputs the distance to the subject for each pixel arranged in a two-dimensional shape, and the target space. A plane detection sensor that detects the orientation of the plane and the distance to at least one point on the plane, the output of the distance image sensor capturing the plane, the orientation and distance of the plane detected by the plane detection sensor, and the distance image sensor and the plane detection sensor. It is provided with a calibration unit that calibrates the distance image sensor using the relative positional relationship of the above, and the calibration unit executes the calibration a plurality of times by changing the distance to the plane by the moving mechanism.
このように、例えば障害物検知などの距離画像センサとは異なる用途に用いるために搭載されているセンサを平面検出センサとして利用し、かつ、移動ロボットが移動するという特性を活用して、距離画像センサの較正を様々な距離で実行するようにした。したがって、較正時に距離画像センサを移動ロボットから取り外す必要がなく、また、適切な頻度で精度の高い較正を実行することができる。すなわち、本発明によれば、距離画像センサの出力を用いて、対象物までの距離や方向を、定常的に精度良く検出することができる。 In this way, the sensor mounted for use in a different application from the distance image sensor such as obstacle detection is used as a plane detection sensor, and the characteristic that the moving robot moves is utilized to take advantage of the distance image. The sensor is now calibrated at various distances. Therefore, it is not necessary to remove the distance image sensor from the mobile robot at the time of calibration, and highly accurate calibration can be performed at an appropriate frequency. That is, according to the present invention, the distance and direction to the object can be constantly and accurately detected by using the output of the distance image sensor.
以下、発明の実施の形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the invention according to the claims is not limited to the following embodiments. Moreover, not all of the configurations described in the embodiments are indispensable as means for solving the problem.
図1は、本実施形態にかかる移動ロボット100の外観斜視図である。移動ロボット100は、主な構造体として、移動機構が取り付けられた台車ベース110と、センサ類が取り付けられた上体ベース120と、搬送物等を把持するためのアーム部150とを備える。
FIG. 1 is an external perspective view of the
台車ベース110は、移動機構として2つの駆動輪112と1つのキャスター113を備える。2つの駆動輪112は、台車ベース110の対向する側方のそれぞれに、回転軸芯が一致するように配設されている。それぞれの駆動輪112は、不図示のモータによって独立して回転駆動される。キャスター113は、従動輪であり、台車ベース110から鉛直方向に延びる旋回軸が車輪の回転軸から離れて車輪を軸支するように設けられており、台車ベース110の移動方向に倣うように追従する。移動ロボット100は、例えば、2つの駆動輪112が同じ方向に同じ回転速度で回転されれば直進し、逆方向に同じ回転速度で回転されれば重心を通る鉛直軸周りに旋回する。
The
台車ベース110には、コントロールユニット190が設けられている。コントロールユニット190は、後述の制御部とメモリ等を含む。
A
上体ベース120は、台車ベース110に対して鉛直軸周りに旋回可能なように、台車ベース110に支持されている。上体ベース120は、不図示のモータによって旋回され、台車ベース110の進行方向に対して所定の方向を向くことができる。
The
上体ベース120には、障害物検知や周辺環境認識のための各種センサが設けられている。3Dライダー130は、そのセンサ類の一つであり、上体ベース120の前方に配置されている。3Dライダー130は、周辺に存在する物体までの距離を計測する障害物検出センサである。具体的には、3Dライダー130は、例えばマイクロミラーを駆動して上体ベース120の前方方向に水平120度、垂直60度の範囲でレーザー光を走査する。そして、走査した投射光に対する反射光を検出することにより、反射点までの距離を算出する。
The
また、距離画像センサ140も、上体ベース120の前方に配置されている。距離画像センサ140と3Dライダー130が一つの筐体に収められ、筐体ごと上体ベース120の前方に配置されていても良い。距離画像センサ140は、例えばアーム部150のハンドが搬送物を把持する場合に、搬送物の距離、形状、方向等を認識するために用いられる。距離画像センサ140は、対象空間から入射する光学像を光電変換するピクセルが二次元状に配列された撮像素子を含む。距離画像センサ140は、ピクセルごとに被写体までの距離を出力する。具体的には、距離画像センサ140は、パターン光を対象空間に照射する照射ユニットを含み、その反射光を撮像素子で受光して、画像におけるパターンの歪みや大きさから各ピクセルが捉えた被写体までの距離を出力する。
The
なお、対象空間を撮像して、ピクセルごとに被写体までの距離を出力する距離センサであれば、距離画像センサ140として採用し得る。例えば、対象空間に向けて均一光を照射し、反射光を撮像素子で受光して、その位相差から各ピクセルが捉えた被写体までの距離を出力する距離センサであっても構わない。ただし、本実施形態で対象とする距離画像センサは、後述する較正を行うことにより、精度の高い距離情報を取得できるものとする。
A distance sensor that captures an image of the target space and outputs the distance to the subject for each pixel can be adopted as the
アーム部150は、主に、複数のアームとハンドから構成される。アームの一端は、上体ベース120に軸支されている。アームの他端は、ハンドを軸支している。アーム部150は、不図示のアクチュエータによって駆動されると、搬送物を把持するなど、与えられたタスクに応じた把持動作を実行する。
The
図2は、移動ロボット100の制御ブロック図である。制御部200は、例えばCPUであり、駆動輪ユニット210、アームユニット220、旋回ユニット230、メモリ240、3Dライダー130、距離画像センサ140等との間で指令やサンプリングデータ等の情報を授受することにより、移動ロボット100の制御に関わる様々な演算を実行する。
FIG. 2 is a control block diagram of the
駆動輪ユニット210は、台車ベース110に設けられており、駆動輪112を駆動するための駆動回路とモータ、モータの回転量を検出するエンコーダ等を含む。駆動輪ユニット210は、自律移動するための移動機構として機能する。制御部200は、駆動輪ユニット210へ駆動信号を送ることにより、モータの回転制御を実行する。また、エンコーダの検出信号を受け取ることにより、移動ロボット100の移動速度、移動距離、旋回角等を演算する。
The
アームユニット220は、アーム部150に設けられており、アームおよびハンドを駆動するための駆動回路とアクチュエータ、アクチュエータの動作量を検出するエンコーダ等を含む。制御部200は、アームユニット220へ駆動信号を送ることにより、アクチュエータを動作させ、アーム部150の姿勢制御や把持制御を実行する。また、エンコーダの検出信号を受け取ることにより、アーム部150の稼働速度、稼働距離、姿勢等を演算する。
The
旋回ユニット230は、台車ベース110と上体ベース120に跨いで設けられており、上体ベース120を旋回させるための駆動回路とモータ、モータの回転量を検出するエンコーダ等を含む。制御部200は、旋回ユニット230へ駆動信号を送ることにより、モータを動作させ、例えば3Dライダー130と距離画像センサ140を特定の方向へ向けることができる。
The
メモリ240は、不揮発性の記憶媒体であり、例えばソリッドステートドライブが用いられる。メモリ240は、移動ロボット100を制御するための制御プログラム、制御に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶している。特に、距離画像センサ140に対して後述する較正データ241を記憶している。
The
3Dライダー130は、制御部200から制御信号を受け取ると、マイクロミラーを駆動してレーザー光を走査し、反射光を連続的に検出してそれぞれの反射点までの距離を算出して制御部200に返す。また、距離画像センサ140は、制御部200から制御信号を受け取ると、照射ユニットからパターン光を照射し、撮像素子を駆動して画像データを取得し、画像データの画像からパターンの歪みや大きさを解析して各ピクセルに対応する距離情報を制御部に返す。
Upon receiving the control signal from the
制御部200は、制御に関わる様々な演算や制御を実行する機能実行部としての役割も担う。較正部201は、後に詳述するように、3Dライダー130を利用して、距離画像センサ140の較正を行い、較正データ241を作成する制御プログラムを実行する。移動計画部202は、メモリ240に記憶されている地図情報やセンサ出力から得られる障害物情報等を用いて、移動ロボット100が移動する経路を計画する。
The
図3は、一定距離の平面に対する距離画像センサ140の出力特性を示す図である。左側の矩形は、距離センサ115が有する撮像素子の有効領域を示す。有効領域には、上述のように、光電変換部としてのピクセルがマトリックス状に配列されている。このうち、上方に位置する横一列のラインをaライン、中央に位置する横一列のラインをbライン、下方に位置する横一列のラインをcラインと称して、有効領域の代表ラインとして説明する。また、各ラインにおいて、それぞれ左側、中央、右側の代表位置をL,C、Rとする。
FIG. 3 is a diagram showing the output characteristics of the
図3の右側の表は、撮像素子がターゲットする平面に0.5mの距離で正対した場合、1.0mの距離で正対した場合、1.5mの距離で正対した場合、2.0mの距離で正対した場合における、aライン、bライン、cラインの出力を示す。なお、ここで撮像素子が平面と正対するとは、撮像素子の有効領域の全体で平面を捉えており、かつ当該平面が撮像素子の受光面と平行であることをいう。 The table on the right side of FIG. 3 shows the case where the image sensor faces the target plane at a distance of 0.5 m, the case where the image sensor faces the target plane at a distance of 1.0 m, and the case where the image sensor faces the target plane at a distance of 1.5 m. The outputs of the a line, the b line, and the c line when facing each other at a distance of 0 m are shown. Here, when the image sensor faces a plane, it means that the plane is captured by the entire effective region of the image sensor, and the plane is parallel to the light receiving surface of the image sensor.
図3の右側の表における各グラフは、横軸に各ラインにおけるピクセルの横方向の相対位置を表し、縦軸にそれぞれのピクセルから出力された出力距離(m)を表す。例えば、撮像素子がターゲットである平面に対して0.5mの距離で正対した場合のaラインの出力を見ると、位置Lおよび位置Rでは、ほぼ正しい0.5mを出力しているものの、位置Cでは0.5より小さな距離を出力している。aライン全体の出力として見ると、点線で示す0.5mのラインに対して、中央位置である位置Cを底とする下凸の湾曲ライン(太い実線)を呈している。また、撮像素子がターゲットである平面に対して2.0mの距離で正対した場合のbラインの出力を見ると、位置Lと位置Cの中間付近および位置Cと位置Rの中間付近に存在するピクセルがそれぞれほぼ正しい2.0mを出力しているものの、他のピクセルは全体的に2.0mよりも大きな距離を出力している。 In each graph in the table on the right side of FIG. 3, the horizontal axis represents the horizontal relative position of the pixel in each line, and the vertical axis represents the output distance (m) output from each pixel. For example, looking at the output of the a-line when the image sensor faces the target plane at a distance of 0.5 m, although the output is almost correct 0.5 m at position L and position R, At position C, a distance smaller than 0.5 is output. Looking at the output of the entire a-line, it shows a downwardly convex curved line (thick solid line) with the position C at the center as the base, with respect to the 0.5 m line shown by the dotted line. Also, looking at the output of the b line when the image sensor faces the target plane at a distance of 2.0 m, it exists near the middle of position L and position C and near the middle of position C and position R. Although each pixel outputs an almost correct 2.0 m, the other pixels output a distance larger than 2.0 m as a whole.
すなわち、距離画像センサ140の出力は、ピクセルごとに、かつ、同一のピクセルであっても検出対象までの距離ごとに、それぞれ異なるオフセット値を含む。したがって、距離画像センサ140の出力からより正確な距離情報を取得するためには、距離画像センサ140の較正を行う必要がある。具体的には、制御部200の機能実行部である較正部201が、ピクセルごとに出力値を較正するための較正データ241を作成する。
That is, the output of the
図3の表に示すように、ターゲットとする平面までの距離が事前に把握できているのであれば、それぞれのピクセルが出力する距離を正しい距離に換算する換算式あるいは換算テーブルを作成すれば良い。例えば、撮像素子が0.5mの平面と正対する場合にaライン位置Cのピクセルが0.4mと出力するのであれば、このピクセルの較正データとして、0.4mを出力した場合は5/4倍するという換算式を作成することができる。 As shown in the table of FIG. 3, if the distance to the target plane is known in advance, a conversion formula or conversion table for converting the distance output by each pixel into the correct distance may be created. .. For example, if the pixel at the a-line position C outputs 0.4 m when the image sensor faces a plane of 0.5 m, if 0.4 m is output as calibration data for this pixel, it is 5/4. You can create a conversion formula that doubles.
図3の例では、3つのラインを代表として示したが、有効領域の全ラインで較正データを作成しても良いし、一定間隔のラインごとに較正データを作成し、間引かれたラインでは作成された較正データを補間して利用するようにしても良い。また、較正データを作成する各ラインにおいても、全ピクセルで較正データを作成しても良いし、一定間隔のピクセルごとに較正データを作成し、間引かれたピクセルでは作成された較正データを補間して利用するようにしても良い。 In the example of FIG. 3, three lines are shown as representatives, but calibration data may be created for all lines in the effective area, or calibration data may be created for each line at regular intervals, and the thinned lines may be used. The created calibration data may be interpolated and used. Further, in each line for creating calibration data, calibration data may be created for all pixels, calibration data is created for each pixel at regular intervals, and the created calibration data is interpolated for the thinned pixels. You may use it.
図3の例では、ターゲットとしてそれぞれ0.5m、1.0m、1.5m、2.0mの平面を撮像した例を示したが、もちろんこの範囲および間隔に限らない。距離画像センサ140の利用目的に応じて範囲を変更しても良いし、要求される精度に応じて、例えば10mmといった細かい間隔であっても良い。
In the example of FIG. 3, an example in which a plane of 0.5 m, 1.0 m, 1.5 m, and 2.0 m is imaged as a target, respectively, is shown, but of course, the range and the interval are not limited. The range may be changed according to the purpose of use of the
また、較正を行うときに撮像する平面は、撮像素子に正対する平面でなくても構わない。図4は、撮像素子に対して傾いた平面を撮像したときの距離画像センサ140の出力特性の例である。具体的には、撮像素子のあるラインにおいて平面までの距離が、位置Lのピクセルからは0.4m、位置Cのピクセルからは0.6m、位置Rのピクセルからは0.8mであることがわかっている。このような平面を撮像して得られた出力(太い実線)を、ピクセルごとに正しい距離(点線)に一致させる換算式あるいは換算テーブルを作成すれば良い。すなわち、撮像素子が撮像する対象平面の向きと、当該対象平面に含まれる少なくとも一点までの距離が事前に正しく取得されているのであれば、各ピクセルからの対象平面までの距離は計算できるので、各ピクセルの較正データを作成することができる。
Further, the plane to be imaged at the time of calibration does not have to be the plane facing the image sensor. FIG. 4 is an example of the output characteristics of the
図5は、ある特定のピクセルの較正データの一例を示す図である。横軸は対象ピクセルの出力距離を表し、縦軸は較正距離を表す。 FIG. 5 is a diagram showing an example of calibration data of a specific pixel. The horizontal axis represents the output distance of the target pixel, and the vertical axis represents the calibration distance.
対象ピクセルにおいて、図3の例のように正しい距離がそれぞれ0.5m、1.0m、1.5m、2.0mの平面に対して出力距離d1m、d2m、d3m、d4mを得た場合には、黒点で表されるプロットデータを得る。これらのプロットデータを多項式関数を用いて滑らかに接続すると太線で示すような曲線が得られる。すなわち、曲線を表す多項式関数が較正データとしての変換式となる。なお、あてはめ関数は多項式関数でなく他の関数であっても良い。また、各プロットデータが必ずしもあてはめ関数上の値でなくても構わない。なお、較正データを変換式ではなく変換テーブルとして作成する場合には、例えば、対応する出力距離と較正距離の組を数値で表すルックアップテーブルを採用することができる。 In the target pixel, the output distances d 1 m, d 2 m, d 3 m, d with respect to a plane having correct distances of 0.5 m, 1.0 m, 1.5 m, and 2.0 m, respectively, as in the example of FIG. When 4 m is obtained, plot data represented by black dots is obtained. When these plot data are smoothly connected using a polynomial function, a curve as shown by a thick line is obtained. That is, the polynomial function representing the curve becomes the conversion formula as the calibration data. The fitting function may be another function instead of the polynomial function. Also, each plot data does not necessarily have to be a value on the fitting function. When the calibration data is created as a conversion table instead of a conversion formula, for example, a lookup table that numerically represents the set of the corresponding output distance and the calibration distance can be adopted.
次に、本実施形態における距離画像センサ140の較正を行う手順について説明する。図6は、距離画像センサ140の較正の様子を示す図である。ここでは、移動ロボット100が自律移動する環境空間内に、壁面Wが存在する場合を想定している。
Next, the procedure for calibrating the
制御部200は、3Dライダー130が壁面Wを走査して得た計測結果から、壁面Wが平面であること、その大きさ、およびその向きを認識する。そして、距離画像センサ140の撮像素子で壁面Wを撮像したときに、撮像素子の有効領域の全体が壁面Wを捉えることができるか否かを判断する。すなわち、撮像素子の有効領域内に、壁面W以外の対象物が写り込まないかを判断する。写り込まないと判断できたら、壁面Wを用いた較正作業を開始する。
The
3Dライダー130と距離画像センサ140は、互いに相対的な位置および姿勢が厳密に定められて上体ベース120に配置されている。したがって、制御部200は、3Dライダー130がある対象物を計測して得た距離を、配置による幾何条件を用いて、距離画像センサ140から当該対象物までの距離に変換することができる。すなわち、3Dライダー130により壁面Wまでの距離が計測されれば、距離画像センサ140の計測結果として得られるべき距離、別言すれば較正された距離を算出することができる。
The
上述のように壁面Wと撮像素子の受光面が平行でなくても較正作業を行うことはできるが、演算の高速化を図るべく、ここでは3Dライダー130の出力から得られた壁面Wの向きを参照して上体ベース120を旋回させ、壁面Wと撮像素子の受光面を正対させる。そして、駆動輪112を駆動して壁面に対して垂直に近づきつつ、3Dライダー130の出力を用いて距離画像センサ140と壁面Wとの正確な距離を算出し、一定の距離ごとに撮像を実行する。
As described above, the calibration work can be performed even if the wall surface W and the light receiving surface of the image sensor are not parallel to each other, but in order to speed up the calculation, here, the orientation of the wall surface W obtained from the output of the
このように壁面Wまでの距離を変えて、その正確な距離とそのときの各ピクセルの出力距離とを繰り返し取得すれば、対象とするピクセルごとに図5を用いて説明したような較正データ241を作成することができる。完成した較正データ241は、メモリ240に記憶される。メモリ240に記憶された較正データ241は、距離画像センサ140の使用時において参照され、距離画像センサ140から出力された距離がより正確な値に変換される。
By changing the distance to the wall surface W in this way and repeatedly acquiring the exact distance and the output distance of each pixel at that time, the
以上のように、移動ロボット100の移動機構を利用して距離画像センサ140の較正を行えば、距離画像センサ140を移動ロボット100から取り外す手間が省くことができる。また、校正作業を適当な頻度で繰り返すことも容易であり、オフセットの経時変化に対応して較正データを適切に更新することができる。すなわち、本実施形態によれば、移動ロボット100は、距離画像センサ140の出力を用いて、対象物までの距離や方向を、定常的に精度良く検出することができる。
As described above, if the
以上においては、移動ロボット100が他のタスクを行うことなく較正作業のみを行う例を説明したが、他のタスクの実行中に断続的に較正作業を行って較正データを完成させるようにしても良い。図7は、他のタスクの実行中に較正に係る処理を実行する場合の処理フローを説明するフロー図である。図のフローは、移動ロボット100が他のタスクの実行中に並行して実行する、較正作業に関する主な処理を記したものである。
In the above, an example in which the
制御部200は、ステップS101において、移動計画部202が計画した経路に沿って移動するように、駆動輪ユニット210へ制御信号を送る。制御部200は、移動中に周囲を走査しながら継続的に距離計測を実行する3Dライダー130の出力を取得する(ステップS102)。
In step S101, the
制御部200は、3Dライダー130の出力から周囲に所定の広さを有する平面がないかを確認する(ステップS103)。ここで、所定の広さとは、距離画像センサ140の撮像素子の有効領域に当該平面以外の対象物が写り込まない広さである。したがって、当該平面の広さは、撮像素子から平面までの距離や結像光学系の画角などにも依存する。制御部200は、そのような平面を見つけることができなければ、ステップS101へ戻る。見つけることができれば、ステップS104へ進む。
The
制御部200の較正部201は、ステップS104で、距離画像センサ140から当該平面までの距離に対応する較正データが取得済みであるか否かを確認する。取得済みであればステップS101へ戻る。まだ取得していなければ、ステップS105へ進む。
In step S104, the
較正部201は、ステップS105で、距離画像センサ140に当該平面の画像データを取得させる。そしてステップS106で、撮像素子の各ピクセルから出力された距離を正しい距離に変換するための較正値を演算する。続いてステップS107へ進み、予め定められた距離の範囲および間隔で較正値の取得が完了したか否かを判断する。すなわち、較正データが完成したか否かを判断する。完成していなければステップS101へ戻り、完成していれば一連の較正作業を終了して、タスクの実行に専念する。なお、ステップS106における較正値の演算は、予め定められた距離の範囲および間隔の全てで各ピクセルの出力値を取得した後にまとめて実行しても良い。
In step S105, the
以上説明した本実施形態においては、対象空間に含まれる平面の向きと平面の少なくとも一点までの距離を検出できる平面検出センサとして3Dライダー130を採用したが、他のセンサを平面検出センサとして採用しても良い。例えば、カラー画像を撮像するための撮像素子を2つ備えたステレオカメラユニットであっても良い。また、平面側に特定の二次元コードが貼着されているなどすれば、当該二次元コードを撮像してその大きさや傾きから平面までの距離や向きを検出できるコードリーダの類であっても良い。
In the present embodiment described above, the
100 移動ロボット、110 台車ベース、112 駆動輪、113 キャスター、120 上体ベース、130 3Dライダー、140 距離画像センサ、150 アーム部、190 コントロールユニット、200 制御部、201 較正部、202 移動計画部、210 駆動輪ユニット、220 アームユニット、230 旋回ユニット、240 メモリ、241 較正データ 100 mobile robot, 110 trolley base, 112 drive wheels, 113 casters, 120 upper body base, 130 3D rider, 140 distance image sensor, 150 arm part, 190 control unit, 200 control part, 201 calibration part, 202 movement planning part, 210 drive wheel unit, 220 arm unit, 230 swivel unit, 240 memory, 241 calibration data
Claims (1)
対象空間を撮像して二次元状に配列されたピクセルごとに被写体までの距離を出力する距離画像センサと、
前記対象空間に含まれる平面の向きと前記平面の少なくとも一点までの距離を検出する平面検出センサと、
前記距離画像センサが前記平面を撮像した出力、前記平面検出センサが検出した前記平面の向きと距離、および前記距離画像センサと前記平面検出センサの相対位置関係を用いて前記距離画像センサの較正を実行する較正部と
を備え、
前記較正部は、前記移動機構により前記平面までの距離を変えて前記較正を複数回実行する移動ロボット。 A movement mechanism for moving and
A distance image sensor that captures the target space and outputs the distance to the subject for each pixel arranged in two dimensions,
A plane detection sensor that detects the orientation of a plane included in the target space and the distance to at least one point on the plane.
Calibration of the distance image sensor is performed using the output of the distance image sensor imaging the plane, the orientation and distance of the plane detected by the plane detection sensor, and the relative positional relationship between the distance image sensor and the plane detection sensor. Equipped with a calibration unit to perform
The calibration unit is a mobile robot that executes the calibration a plurality of times by changing the distance to the plane by the moving mechanism.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017086435A JP6801566B2 (en) | 2017-04-25 | 2017-04-25 | Mobile robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017086435A JP6801566B2 (en) | 2017-04-25 | 2017-04-25 | Mobile robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018185203A JP2018185203A (en) | 2018-11-22 |
JP6801566B2 true JP6801566B2 (en) | 2020-12-16 |
Family
ID=64355760
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017086435A Active JP6801566B2 (en) | 2017-04-25 | 2017-04-25 | Mobile robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6801566B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110966563B (en) | 2018-09-28 | 2022-06-10 | 株式会社小糸制作所 | Vehicle headlamp |
JP7056540B2 (en) * | 2018-12-18 | 2022-04-19 | 株式会社デンソー | Sensor calibration method and sensor calibration device |
KR20230029060A (en) * | 2021-08-23 | 2023-03-03 | 삼성전자주식회사 | Robot and controlling method thereof |
KR20230069484A (en) * | 2021-11-12 | 2023-05-19 | 엘지전자 주식회사 | Method for calibrating robot sensors and robot implementing the same |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4233723B2 (en) * | 2000-02-28 | 2009-03-04 | 本田技研工業株式会社 | Obstacle detection device, obstacle detection method, and recording medium recording an obstacle detection program |
JP4655751B2 (en) * | 2005-05-10 | 2011-03-23 | トヨタ自動車株式会社 | Irradiation device and night vision device |
JP5278728B2 (en) * | 2008-02-28 | 2013-09-04 | アイシン精機株式会社 | Distance image sensor calibration apparatus and calibration method |
US8699005B2 (en) * | 2012-05-27 | 2014-04-15 | Planitar Inc | Indoor surveying apparatus |
JP2018513566A (en) * | 2015-04-22 | 2018-05-24 | トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング | Detector for optical detection of at least one object |
-
2017
- 2017-04-25 JP JP2017086435A patent/JP6801566B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018185203A (en) | 2018-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6801566B2 (en) | Mobile robot | |
JP5377758B2 (en) | Method and system for accurately positioning at least one object in a final pose in space | |
JP6963748B2 (en) | Robot system and robot system control method | |
US9279661B2 (en) | Information processing apparatus and information processing method | |
JP7008942B2 (en) | Calibration method and calibration device | |
JP5290324B2 (en) | Method and system for accurately positioning at least one object in a final pose in space | |
US7507948B2 (en) | Method of detecting object using structured light and robot using the same | |
US20120098961A1 (en) | Shape measuring apparatus, robot system, and shape measuring method | |
JP5567908B2 (en) | Three-dimensional measuring apparatus, measuring method and program | |
US9470548B2 (en) | Device, system and method for calibration of camera and laser sensor | |
JP5310285B2 (en) | Self-position estimation apparatus and self-position estimation method | |
JP6855492B2 (en) | Robot system, robot system control device, and robot system control method | |
JP4665857B2 (en) | Mobile body capable of guiding arm and method for guiding arm | |
Wang et al. | Robot end-effector sensing with position sensitive detector and inertial sensors | |
WO2013145025A1 (en) | Stereo camera system and mobile object | |
JP2019000923A (en) | Method for estimating mechanism model parameter of articulated robot | |
JP6907678B2 (en) | Mobile robot | |
KR101359649B1 (en) | obstacle detection sensor | |
KR102381958B1 (en) | Following robot system | |
JP2005205519A (en) | Robot hand device | |
KR102081093B1 (en) | Mobile robot navigation system | |
JP6863049B2 (en) | Autonomous mobile robot | |
JP2009006466A (en) | Leg wheel type robot | |
JP6776960B2 (en) | Autonomous mobile | |
JP2002162208A (en) | Three dimensional measuring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191028 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201012 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201027 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201109 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6801566 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |