JP6649743B2 - 一致性評価装置および一致性評価方法 - Google Patents
一致性評価装置および一致性評価方法 Download PDFInfo
- Publication number
- JP6649743B2 JP6649743B2 JP2015212282A JP2015212282A JP6649743B2 JP 6649743 B2 JP6649743 B2 JP 6649743B2 JP 2015212282 A JP2015212282 A JP 2015212282A JP 2015212282 A JP2015212282 A JP 2015212282A JP 6649743 B2 JP6649743 B2 JP 6649743B2
- Authority
- JP
- Japan
- Prior art keywords
- measurement
- map
- recording
- evaluation
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims description 146
- 238000005259 measurement Methods 0.000 claims description 218
- 238000004364 calculation method Methods 0.000 claims description 35
- 238000012854 evaluation process Methods 0.000 claims 1
- 238000001514 detection method Methods 0.000 description 66
- 238000000034 method Methods 0.000 description 64
- 238000012545 processing Methods 0.000 description 38
- 230000008569 process Effects 0.000 description 36
- 238000010586 diagram Methods 0.000 description 30
- 238000003860 storage Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 9
- 238000004140 cleaning Methods 0.000 description 8
- 238000013507 mapping Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000007788 liquid Substances 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 244000025254 Cannabis sativa Species 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Landscapes
- Instructional Devices (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
図1〜図7を参照して、本発明の実施形態1について以下に説明する。
本実施形態に係るロボット1(一致性評価装置)は、清掃作業を行う機能を有し、さらに、左右独立した駆動輪によって平面である床面を自律的に走行可能な装置である。本実施軽形態では、ロボット1は床面の清掃を行う自律走行体であるものとする。図示しないが、ロボット1は、清掃作業を行うための作業ユニットを備える。作業ユニットは、床に落ちているゴミを吸引する吸引部や、モップ、洗浄液タンクおよび廃液タンクを有するウェット洗浄部等を有する。なお、作業ユニットが有する機能は清掃に限定されず、たとえば、回転する刈刃を有することで芝を刈る芝刈り機能であってもよい。
本実施形態において、ロボット1aは、マップ作成のために、それぞれ区別される複数の座標系を用いる。具体的には、車体座標系、センサ座標系、ワールド座標系、およびグリッド座標系が用いられる。
図1は、本発明の実施形態1に係るロボット1の要部構成を示すブロック図である。この図に示すように、ロボット1は、駆動部2、LRF(Laser Range Finder)3、制御部4、および記憶部5(記録部)を備えている。
駆動部2は、左右2式のモータ21、駆動輪22、およびエンコーダ23を備えている。モータ21は、駆動輪22と接続されており、制御部4による制御に応じて駆動輪22を回転させる。駆動輪22は、本体部の左右に1つずつ配されている。2個の駆動輪22は、自身に接続されているモータ21によって回転する。エンコーダ23は、各駆動輪22に接続されている。各駆動輪22の回転数を検出し制御部4へ出力する。
LRF3は、光学式の距離センサを回転軸周りに回転させながら回転軸と直交する走査平面内の周囲物体までの距離を測定する測定器である。LRF3は、レーザ光出力部31、レーザ光受光部32およびスキャンデータ出力部33を備えている。レーザ光出力部31、レーザ光受光部32は、LRF3における所定の回転軸で回転する走査機構上に配置されている。
制御部4は、ノード追加部41(取得部、算出部、位置評価部、方向評価部、一致性評価部)、ループ検出部42(取得部、算出部、位置評価部、方向評価部、一致性評価部)、およびマップ生成部43を備えている。ノード追加部41、ループ検出部42、およびマップ生成部43は、後述するSLAM機能を実現する構成要素である。
記憶部5は、ロボット1におけるマップ作成に関する各種のデータを記憶している。具体的には、記憶部5には、ノード群51、拘束群52、およびマップ群53が記憶されている。
次に、主に図4を参照して、本実施形態におけるマップ作成の概要について説明する。
1.オドメトリ処理
ノード追加部41は、まず、オドメトリ処理を実行する。エンコーダ23は、駆動輪22の回転数を回転数情報として制御部4へ出力する。LRF3のスキャンデータ出力部33は、あらかじめ設定された所定の測定周期(たとえば50ms)ごとに、スキャンデータを制御部4へ出力する。そして、ノード追加部41は、駆動輪22の回転数から車体の移動距離と方位を計算することによって、ロボット1が有するワールド座標系上の自己の位置(x、y、θ)を計算する(すなわちオドメトリ処理を行う)。これによって、ノード追加部41は、ロボット1のワールド座標系上の自己位置を認識する。続いて、ノード追加部41は、自己の位置(x、y、θ)に、LRF3の取り付け分のオフセットを加えることによって、ワールド座標系上のLRF3の位置(xs、ys、θs)を算出する。
次にノード追加部41は、ロボット1が、距離または方位角が所定以上となる程度移動するごとに、そのときのLRF3の位置(xs、ys、θs)およびスキャンデータからなるノード51aとして記憶部5に記憶する。
次にノード追加部41は、記憶部5に記憶された各ノード情報51aを参照し、各ノードの位置関係を算出する。ノード追加部41は、オドメトリ処理による平面座標上のLRF3の(xs、ys、θs)を初期値として、各ノードにおける距離形状同士が最もよく重なり合う位置関係を見つける、いわゆるスキャンマッチ処理を行い、各ノード同士をつなぎ合わせる際の壁等の障害物の精度を向上させる。あるノードと他のノードとの位置関係は、拘束と呼ばれる。すなわちノード追加部41は、スキャンマッチによって各ノード間の拘束を作成し、これを表す拘束情報52aを記憶部5に記憶する。
ループ検出部42は、ループ閉合処理を実行する。この処理は、ロボット1の軌跡上において、ロボット1が同じ場所を2回通るループ経路がある場合に、マップを正しく作成するために、ループ経路における最初の位置と最後の位置とが一致するようにマップを変形する処理のことである。言い換えると、ループ経路における最初の位置と最後の位置とが一致する拘束を生成し、これに基づいてノードの位置を修正することである。図4の例では、ノードN2からノードN1への拘束がこれに該当する。
図4の例では、ループ検出部42は、スキャンマッチを実行することによって、ループ経路を構成するノードN2からノードN1への拘束を生成する。その際、ループ検出部42は、拘束判定の対象であるノードを対象に、各方位における壁10までの距離を平面座標系に投影演算することで一式の距離形状を生成する。ノードごとに、LRF3が検出した壁10の位置は、制御部4において、複数の点Pからなる距離形状で表される。
ループ検出部42は、新たに生成した拘束を記憶部5に記憶する。これにより、新たな拘束が基準マップ53aに追加される。ループ検出部42は、追加した拘束を含む基準マップ53a内の全拘束の誤差を最小化するように、基準マップ53a内の全ノードの位置を調整する(グラフ最適化)。この処理によって、ループ経路における開始位置と終了位置とが一致する。ループ検出部42は、具体的なグラフ最適処理として、たとえば非特許文献2に記載された従来の方法を利用することができる。この処理は本発明における本質的な特徴点ではないため、これ以上の詳細な説明は省略する。
マップ生成部43は、測定範囲外形相当の面積を持つあらかじめ用意した空マップに、各ノードにおける障害物の位置である各点Pの位置を描いていく。マップ生成部43は、最初は未知領域である空マップ上の、壁や柱等の障害物の位置座標を、各ノードにおける障害物を表す各点Pの位置から算出し、空マップに入力していく。そして、マップ生成部43は、この空マップに入力した各点Pの位置の内側を、ロボット1の走行可能領域として特定する。これによって、マップ生成部43は出力マップ53cを作成し記憶部5に記憶する。
詳しくは後述するが、本実施形態のロボット1aは、基準マップ53aに加えて、各基準スキャンに含まれるプロットの方位を表す所定の方位マップ53bを作成することによって、スキャンマッチを正確に実行する。図5は、本発明の実施形態1における、方位マップ53bを構成するグリッドGにおいて規定される方位区分の詳細を説明するための図である。方位マップ53bは、複数のグリッドGによって構成されている。各グリッドGは、その位置に壁が測定された場合、どの方位から測定されたかを、以下に説明する方位ビット値(記録点の測定方向の情報)として保持する。各グリットGには、全方位範囲が所定の方位範囲ごとに区分された複数の方位区分が規定されている。図5に示すように、本実施形態では、方位マップ53b内の各グリッドGにおいて規定される方位区分は8種類であり、それぞれ、45度分の異なる角度範囲を有する。具体的には次のとおりである:
方位区分0=0〜22.5°および337.5〜360°間
方位区分1=22.5〜67.5°間
方位区分2=67.5〜112.5°間
方位区分3=112.5〜157.5°間
方位区分4=157.5〜202.5°間
方位区分5=202.5〜247.5°間
方位区分6=247.5〜292.5°間
方位区分7=292.5〜337.5°間。
方位区分=1のとき、方位範囲=(0、1、2)
方位区分=2のとき、方位範囲=(1、2、3)
方位区分=3のとき、方位範囲=(2、3、4)
方位区分=4のとき、方位範囲=(3、4、5)
方位区分=5のとき、方位範囲=(4、5、6)
方位区分=6のとき、方位範囲=(5、6、7)
方位区分=7のとき、方位範囲=(6、7、0)。
図7および図8を参照して、ノード追加部41における処理の流れおよびループ検出部42による処理の流れをそれぞれ以下に説明する。図7は、本発明の実施形態1におけるノード追加部41による処理の流れを示すフローチャートである。図8は、本発明の実施形態1におけるループ検出部42による処理の流れを示すフローチャートである。ロボット1では、ノード追加部41による一連の処理およびループ検出部42による一連の処理は、並行して実行される。
図9〜図12を参照して、本実施形態におけるスキャンマッチの詳細を説明する。図9は、本実施形態における基準マップ53aを作成するための処理手順を示す図である。図10は、本実施形態におけるマッチ位置算出のための基本的な処理手順を示す図である。図9および図10に示す一連の処理は、従来技術と同様のものである。一方、図11および図12に示す一連の処理は、それぞれ、図8および図10に対して追加で行われる、本実施形態に特有な処理である。
ループ検出部42は、まず、複数のグリッド(領域)によって区分されている空の基準マップ53aを用意する。各グリッドのサイズ(一辺の長さ)は固定値であり、本実施形態では50mmとする。基準マップ53aのサイズ(一辺の長さ)は固定値であり、本実施形態では400グリッドとする。このサイズは、概ね、LRF3を定格距離の2倍をグリッドサイで割った値に決定する。基準マップ53aの原点は、その中央にある。基準マップ53aの各座標軸方向は、いずれも、基準ノードNR1のセンサ座標系における各座標軸方向に合わせて作成される。各グリッドは、基準マップ53a内のそのグリッドの位置における所定のグリッド値(占有確率)を有する。この占有確率は、そのグリッドの位置に実際の壁がある確率のことである。基準マップ53aの各グリッドに元々規定される座標情報と、そのグリッドの値との組み合わせが、記録点または測定点の位置情報に相当する。空の基準マップ53aの作成時点において、すべてのグリッドの値(占有確率)は、後述する所定の最低値である。
ループ検出部42は、図9の8行目の処理を実行するとき、さらに、図11の8.1行〜8.5行に示す処理を実行することによって、必要に応じて方位マップ53bにおける各グリッドの値を更新する。具体的には、まずループ検出部42は、基準マップ53aにおけるP[x+xd、y+xd]に対応するグリッドの占有確率を取得し、それが0であるか否かを判定する。そして、占有確率が0ではない場合、ループ検出部42は、P[x+xd、y+xd]に対応するグリッドの方位区分および隣接幅に基づき、P[x+xd、y+xd]の方位範囲を算出する(8.2行)。次にループ検出部42は、算出したP[x+xd、y+xd]の方位範囲に基づき、P[x+xd、y+xd]の方位ビット値を算出する(8.3行)。最後にループ検出部42は、P[x+xd、y+xd]の方位ビット値と、方位マップ53bにおけるP[x+xd、y+xd]に対応するグリッドの既存値と論理OR演算する。ループ検出部42は、この演算によって得た値を、方位マップ53bにおける当該グリッドの書き込むことによって、当該グリッド既存値を更新する(8.4行)。
ループ検出部42は、続いて図10に示す処理を実行することによって、基準マップ53aにおける対象スキャンのマッチ位置を算出する。ループ検出部42は、まず、基準マップ53aにおいて対象スキャンを探索するときの所定の探索範囲を算出する。本実施形態では、ループ検出部42は、探索範囲として、θの最小値θmin、最大値θmax、および間隔θstep、xの最小値xminおよびxmax、ならびにyの最小値yminおよび最大値ymaxを算出する。xmin、xmax、ymin、およびymaxは、いずれもグリッド座標でありかつ整数値を取る。xmin、xmax、ymin、ymax、θmin、およびθmaxは、それぞれ探索開始位置PS(x、y、θ)に対して所定の探索幅を加えることによって、決定される。具体的には、探索開始位置PSは基準ノードNR1の位置から見た対象ノードNTの位置として、ノードNR1におけるセンサ座標系で算出されたのち、グリッド座標に換算して決定される。さらに、xmin、xmax、ymin、ymax、θminおよびθmaxは、それぞれ所定値w2またはwθを用いて、以下の通り算出される。
xmin=PS(x)−w2
ymax=PS(y)+w2
ymin=PS(y)−w2
θmax=PS(θ)+wθ
θmin=PS(θ)−wθ
次に、ループ検出部42は、θmin〜θmaxのうちいずれかのθoと、xmin〜xmaxのうちいずれかのxoと、ymin〜ymaxのうちいずれかのyoとの異なる組み合わせごとに、図10の5行〜7行の処理を実行する。このときループ検出部42は、θをθstepずつ順次増加させ、xoおよびyoを1つずつ順次増加させる。
記録点の存在を示す評価値)が取得される。
図12は、本実施形態に係るループ検出部42によって実行されるスキャンマッチの追加処理を示す図である。ループ検出部42は、図10の5行に示す処理を実行するとき、さらに、図12の5.1行に示す処理を実行する。具体的には、ループ検出部42は、算出されたオフセット後プロットの各点について、戻り光線方位が属する方位区分を求め、さらに、それを元に方位ビット値(全201件)を算出する。
図13は、本実施形態における方位評価の一例を説明する図である。この図には、方位マップ53bの一部分を示す。
基準マップ53aの原点、分解能、および座標方向は、上述した例に限らず、他の値に設定されてもよい。このことは、方位マップ53bおよび出力マップ53cでも同様である。
図14および15を参照して、本発明に係る実施形態2を以下に説明する。上述した実施形態1と共通する各部材には同じ符号を付し、詳細な説明を省略する。
図14は、本発明の実施形態2における方位マップ53bを構成するグリッドにおいて定義される方位区分の詳細を説明するための図である。この図に示すように、本実施形態では、方位マップ53b内の各グリッドにおいて定義される方位区分は、4種類であり、それぞれ、90度分の異なる角度範囲を有する。具体的には次のとおりである:
方位区分0:0〜90°間
方位区分1:90〜180°間
方位区分2:180〜270°間
方位区分3:270〜360°間。
図16を参照して、本発明に係る実施形態3を以下に説明する。上述した実施形態1または2と共通する各部材には同じ符号を付し、詳細な説明を省略する。
本発明の態様1に係る一致性評価装置は、少なくとも1つの記録点に対するマップ上における位置情報および方向情報を、記録情報として記録する記録部と、所定の測定位置と周囲の測定点との距離と、当該測定位置から上記測定点への測定方向とを表す測定データを取得する取得部と、取得された上記測定データに基づき、上記マップ上における上記測定点の位置および測定方向を算出する算出部と、上記記録情報における各上記記録点の上記マップ上における位置情報と、取得された測定データから算出された上記測定点の上記マップ上における位置との、それぞれの一致度合いを表す各位置評価値を算出する位置評価部と、上記記録情報における各上記記録点の方向情報と、取得された上記測定データから算出された上記測定点の測定方向とのそれぞれの一致度合いを表す各方向評価値を算出する方向評価部と、算出された上記各位置評価値および上記各方向評価値に基づき、上記測定点が上記記録情報における各上記記録点に一致するか否かに関する評価を行う一致性評価部とを備えていることを特徴としている。
ロボット1における制御部4(およびロボット1aにおける制御部4a)の制御ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態も、本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることによって、新しい技術的特徴を形成できる。
2 駆動部
3 LRF
4、4a 制御部(取得部)
5 記憶部(記録部)
6 ディスプレイ
21 モータ
22 各駆動輪
22 駆動輪
23 エンコーダ
31 レーザ光出力部
32 レーザ光受光部
33 スキャンデータ出力部
41 ノード追加部(算出部、位置評価部、方向評価部、一致性評価部)
42 ループ検出部(算出部、位置評価部、方向評価部、一致性評価部)
43 マップ生成部
44 マップ表示部
Claims (11)
- 少なくとも1つの記録点に対するマップ上における位置情報および方向情報を、記録情報として記録する記録部と、
所定の測定位置と周囲の測定点との距離と、当該測定位置から上記測定点への測定方向とを表す測定データを取得する取得部と、
取得された上記測定データに基づき、上記マップ上における上記測定点の位置および測定方向を算出する算出部と、
上記記録情報における各上記記録点の上記マップ上における位置情報と、取得された測定データから算出された上記測定点の上記マップ上における位置との、それぞれの一致度合いを表す各位置評価値を算出する位置評価部と、
上記記録情報における各上記記録点の方向情報と、取得された上記測定データから算出された上記測定点の測定方向とのそれぞれの一致度合いを表す各方向評価値を算出する方向評価部と、
算出された上記各位置評価値および上記各方向評価値に基づき、上記測定点が上記記録情報における各上記記録点に一致するか否かに関する評価を行う一致性評価部とを備えていることを特徴とする一致性評価装置。 - 上記算出部は、少なくとも1つの上記測定位置において取得された上記測定データに基づき、当該測定データごとに上記マップ上における各上記測定点の位置および測定方向を算出し、
上記記録部は、算出された上記測定点ごとの上記位置および測定方向に基づき、各上記測定点に対応する上記マップ上の各上記記録点の上記位置情報および上記方向情報を、上記記録情報として記録することを特徴とする請求項1に記載の一致性評価装置。 - 上記一致性評価部は、上記記録情報における上記マップ上の各上記記録点のうち、上記位置評価値が所定の範囲内であり、かつ、上記方向評価値が所定の範囲内である上記記録点を、上記測定点と一致する一致点または当該一致点の候補と判定するか、または、一致度を算出することを特徴とする請求項1または2に記載の一致性評価装置。
- 上記一致性評価部は、各上記位置評価値および各上記方向評価値に基づき、上記測定点が上記記録情報における上記マップ上のどの上記記録点に一致するかに関する1つの評価値を算出し、上記1つの評価値に基づいて、上記測定点に一致する上記記録情報における上記マップ上の1つの上記記録点を判定するか、または上記マップ上の1つの一致位置を算出することを特徴とする請求項1〜3のいずれか1項に記載の一致性評価装置。
- 上記位置評価部は、上記マップにおける、上記記録点の上記位置情報と上記測定点の上記位置との相対的な位置関係に基づき、上記記録点と上記測定点との一致度合いを表す上記位置評価値を算出することを特徴とする請求項1〜4のいずれか1項に記載の一致性評価装置。
- 上記取得部は、上記測定位置と、異なる複数の上記測定点との各上記距離と、当該測定位置から複数の上記測定点のそれぞれへの各上記測定方向とを表す複数の上記測定データを取得し、
上記算出部は、取得された上記複数の測定データのそれぞれに基づき、上記測定データごとに上記マップ上における上記測定点の位置および測定方向を算出し、
上記一致性評価部は、異なる上記測定点ごとに算出された上記各位置評価値および上記各方向評価値を総合することによって、複数の上記測定点のそれぞれに一致する複数の上記記録点を判定するか、または1つの一致度を算出することを特徴とする請求項1〜5のいずれか1項に記載の一致性評価装置。 - 上記マップは、複数の領域に区分されており、
上記算出部は、上記マップにおける上記領域ごとに、上記測定データに基づき上記測定点の存在を示す評価値および上記測定点の測定方向を算出し、
上記記録部は、上記マップの上記領域ごとに、上記領域を上記記録点として、算出された上記測定点の存在を示す評価値および上記測定点の測定方向を、上記記録情報として記録することを特徴とする請求項1〜6のいずれか1項に記載の一致性評価装置。 - 各上記領域において、所定の方位範囲ごとに区分された複数の方位区分が規定されており、
上記算出部は、上記マップにおける上記領域ごとに、上記測定データに基づき当該領域の各上記方位区分における上記測定点の測定方向の存在を示す各評価値を組み合わせた上記測定方向の情報を算出することを特徴とする請求項7に記載の一致性評価装置。 - 上記複数の方位区分は、上記領域における全方位範囲が整数値の個数に均等に区分されたものであることを特徴とする請求項8に記載の一致性評価装置。
- 上記算出部は、上記複数の方位区分のうち1つの方位区分に対応する上記測定点の測定方向を算出した場合、当該1つの方位区分と、当該1つの方位区分に隣接する複数の上記方位区分とにそれぞれ上記測定点の測定方向の存在を示す上記評価値を割り当てることによって、上記測定方向の情報を算出することを特徴とする請求項8または9に記載の一致性評価装置。
- 記録部、取得部、算出部、位置評価部、方向評価部、および一致性評価部を備えている一致性評価装置によって実行される一致性評価方法であって、
前記記録部が、少なくとも1つの記録点に対するマップ上における位置情報および方向情報を、記録情報として記録する記録工程と、
前記取得部が、所定の測定位置と周囲の測定点との距離と、当該測定位置から上記測定点への測定方向とを表す測定データを取得する取得工程と、
前記算出部が、取得された上記測定データに基づき、上記マップ上における上記測定点の位置および測定方向を算出する算出工程と、
前記位置評価部が、上記記録情報における各上記記録点の上記マップ上における位置情報と、取得された測定データから算出された上記測定点の上記マップ上における位置との、それぞれの一致度合いを表す各位置評価値を算出する位置評価工程と、
前記方向評価部が、上記記録情報における各上記記録点の方向情報と、取得された上記測定データから算出された上記測定点の測定方向とのそれぞれの一致度合いを表す各方向評価値を算出する方向評価工程と、
前記一致性評価部が、算出された上記各位置評価値および上記各方向評価値に基づき、上記測定点が上記記録情報における各上記記録点に一致するか否かに関する評価を行う一致性評価工程とを有することを特徴とする一致性評価方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015212282A JP6649743B2 (ja) | 2015-10-28 | 2015-10-28 | 一致性評価装置および一致性評価方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015212282A JP6649743B2 (ja) | 2015-10-28 | 2015-10-28 | 一致性評価装置および一致性評価方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017083663A JP2017083663A (ja) | 2017-05-18 |
JP6649743B2 true JP6649743B2 (ja) | 2020-02-19 |
Family
ID=58712055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015212282A Active JP6649743B2 (ja) | 2015-10-28 | 2015-10-28 | 一致性評価装置および一致性評価方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6649743B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10274325B2 (en) * | 2016-11-01 | 2019-04-30 | Brain Corporation | Systems and methods for robotic mapping |
JP6742479B1 (ja) * | 2019-06-27 | 2020-08-19 | 三菱重工業株式会社 | 地図生成装置、地図生成方法及びプログラム |
KR102224637B1 (ko) | 2019-07-05 | 2021-03-08 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
KR102361130B1 (ko) | 2019-07-11 | 2022-02-09 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
KR102297496B1 (ko) | 2019-07-11 | 2021-09-02 | 엘지전자 주식회사 | 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법 |
KR102302575B1 (ko) * | 2019-07-16 | 2021-09-14 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
KR102589296B1 (ko) * | 2019-07-19 | 2023-10-13 | 네이버랩스 주식회사 | 항공사진을 이용하여 3차원 지도를 생성하는 장치 및 방법 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4368317B2 (ja) * | 2005-03-11 | 2009-11-18 | セコム株式会社 | 移動ロボット |
JP4788722B2 (ja) * | 2008-02-26 | 2011-10-05 | トヨタ自動車株式会社 | 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造 |
JP4930443B2 (ja) * | 2008-04-10 | 2012-05-16 | トヨタ自動車株式会社 | 地図データ生成装置および地図データ生成方法 |
JP6191484B2 (ja) * | 2014-02-03 | 2017-09-06 | トヨタ自動車株式会社 | 移動ロボットの自己位置推定方法 |
-
2015
- 2015-10-28 JP JP2015212282A patent/JP6649743B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017083663A (ja) | 2017-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6649743B2 (ja) | 一致性評価装置および一致性評価方法 | |
EP3447532B1 (en) | Hybrid sensor with camera and lidar, and moving object | |
CN111881239B (zh) | 构建方法、构建装置、智能机器人及可读存储介质 | |
CN112868225A (zh) | 结合数据以构建平面图的方法和装置 | |
CN113074727A (zh) | 基于蓝牙与slam的室内定位导航装置及其方法 | |
CN113741438B (zh) | 路径规划方法、装置、存储介质、芯片及机器人 | |
KR20190131402A (ko) | 카메라와 라이다를 이용한 융합 센서 및 이동체 | |
US20090149990A1 (en) | Method, medium, and apparatus for performing path planning of mobile robot | |
CN110850859B (zh) | 一种机器人及其避障方法和避障系统 | |
CN111522022B (zh) | 基于激光雷达的机器人进行动态目标检测方法 | |
CN108332752B (zh) | 机器人室内定位的方法及装置 | |
CN111066064A (zh) | 使用误差范围分布的网格占用建图 | |
WO2019136613A1 (zh) | 机器人室内定位的方法及装置 | |
Lee et al. | LiDAR odometry survey: recent advancements and remaining challenges | |
CN112506200A (zh) | 机器人定位方法、装置、机器人及存储介质 | |
CN113768419A (zh) | 确定扫地机清扫方向的方法、装置及扫地机 | |
CN116608847A (zh) | 基于面阵激光传感器和图像传感器的定位和建图方法 | |
CN116465393A (zh) | 基于面阵激光传感器的同步定位和建图方法及装置 | |
Spampinato et al. | An embedded stereo vision module for 6D pose estimation and mapping | |
Jung et al. | Structured light 2D range finder for simultaneous localization and map-building (SLAM) in home environments | |
AU2021273605B2 (en) | Multi-agent map generation | |
Vaščák et al. | Map merging for multi-robotic applications | |
Eryomin et al. | Optical Sensors Fusion Approaches for Map Construction: A Review of Recent Studies | |
CN112630745B (zh) | 一种基于激光雷达的环境建图方法和装置 | |
Cui et al. | Real-Time Generation and Automatic Update of 3D Point Cloud Maps in Featureless Environments Based on Multi-Sensor Fusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180920 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190618 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190716 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190722 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6649743 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |