JP7342664B2 - ロボット、制御方法、およびプログラム - Google Patents
ロボット、制御方法、およびプログラム Download PDFInfo
- Publication number
- JP7342664B2 JP7342664B2 JP2019217132A JP2019217132A JP7342664B2 JP 7342664 B2 JP7342664 B2 JP 7342664B2 JP 2019217132 A JP2019217132 A JP 2019217132A JP 2019217132 A JP2019217132 A JP 2019217132A JP 7342664 B2 JP7342664 B2 JP 7342664B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- learning model
- output
- information indicating
- output information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 65
- 238000005259 measurement Methods 0.000 claims description 68
- 238000003384 imaging method Methods 0.000 claims description 25
- 238000004891 communication Methods 0.000 description 21
- 238000010801 machine learning Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 14
- 238000013507 mapping Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 206010038743 Restlessness Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Description
本発明の実施形態1に係るロボット10について、図1~4を参照しながら以下に説明する。
図1は、ロボット10の主要な構成を示すブロック図である。図1に示すように、ロボット10は、コントローラ11と、測域センサ12と、走行装置13とを含む。
測域センサ12は、本発明におけるセンサの一例である。測域センサ12は、ロボット10から周囲に存在する物体までの距離を方向毎に計測する。また、測域センサ12は、周囲に存在する物体までの距離を方向毎に計測する計測処理を、周期的に実行する。計測処理を実行する周期は、コントローラ11によって制御される。測域センサ12は、周期的に実行する計測処理において、計測した各方向における物体の距離を示す測距データを出力する。
走行装置13の構成について、図2を参照して説明する。走行装置13は、施設の床面に配置されたロボット10を任意の方向に走行させる装置である。一例として、図2に示すように、走行装置13は、自装置の各部を制御するPLC(programmable logic controller)131と、複数の車輪132(132aおよび132b)と、各車輪132を駆動するモータ133(133aおよび133b)と、各モータ133を回転させる駆動回路134(134aおよび134b)と、各モータ133の回転数を検知するエンコーダ135(135aおよび135b)とを含む。各車輪132は、走行方向を変更可能にロボット10の下面に取り付けられている。ロボット10は、各車輪132が配置面(例えば、床面)に接するように配置される。PLC131は、コントローラ11からの制御信号を基に、各車輪132を所望の回転速度で回転させるよう、各駆動回路134を制御する。各駆動回路134は、各モータ133に駆動信号を供給して回転させることにより、各車輪132を所望の回転速度で回転させる。ロボット10の下部の左右に配置された車輪132aおよび132bが異なる回転速度で回転する場合、ロボット10は、走行方向を変更しながら走行する。なお、走行装置13は、上述した構成に限らず、ロボット10を任意の方向に走行させることが可能な構成であれば、公知の構成を採用可能である。なお、走行装置13は、PLC131に替えて、上述のように機能する他のコントローラを含んでいてもよい。
(測距データ取得部111の構成)
図1に示す通り、測距データ取得部111は、測域センサ12から測距データを取得する。具体的には、測距データ取得部111は、予め定められた周期毎に、測域センサ12に対して計測処理を指示することにより、測域センサ12から出力される測距データを取得する。測距データ取得部111は、取得した測距データを第1学習モデルM1に入力する。一例として、測距データの取得周期は、50ミリ秒である。このため、第1学習モデルM1に測距データが入力される周期も、50ミリ秒である。ただし、当該周期はこれに限定されない。
第1学習モデルM1は、測域センサ12から出力される測距データを入力として、ロボット10の周囲に存在する物体のうち追従対象物が存在し得る1または複数の方向を示す情報を出力するよう機械学習されているプログラムである。
図1に示す走行方向決定部112は、第1学習モデルM1の出力情報を参照して、追従対象物に向かうようロボット10の走行方向を決定する。
走行制御部113は、決定された走行方向にロボット10を走行させるよう走行装置13を制御する。具体的には、走行制御部113は、ロボット10の現在の向きを示す情報を取得する。走行制御部113は、現在の向きと決定した走行方向とが同一の場合は、ロボット10を現在の向きのまま走行させる。また、走行制御部113は、現在の向きと決定した走行方向とが異なる場合は、ロボット10が決定した走行方向を向くように走行装置13を制御しながら、ロボット10を走行させる。具体的には、走行制御部113は、走行装置13に含まれる各エンコーダ135の出力情報を基にロボット10の現在の向きを示す情報を算出する。また、走行制御部113は、走行装置13に含まれる各車輪132の回転速度を異ならせることにより、ロボット10が走行方向を向くよう制御する。
以上のように構成されたロボット10の制御方法S1について説明する。図4は、ロボット10の制御方法S1を説明するフローチャートである。なお、以下に説明する制御方法S1は、測距データの取得周期毎に実行される。
本実施形態に係るロボット10は、2周期分以上の測距データを入力とする第1学習モデルM1から出力される移動体の方向を示す情報を参照して、そのうちロボット10に最も近い距離に存在する物体が追従対象物であるとみなす。そして、ロボット10は、当該追従対象物が存在する方向に走行方向を決定する。このように、2周期分以上の測距データを入力とする第1学習モデルM1からの出力は、周囲に存在する物体までの距離の変化が反映されるため、本実施形態は、ロボット10が向かうべき追従対象物が存在する方向をより精度よく決定することができる。
本発明の実施形態2に係るロボット20について、図5~8を参照しながら以下に説明する。なお、説明の便宜上、実施形態1にて説明した構成と同じ機能を有する構成については、同じ符号を付記し、その説明を繰り返さない。
図5は、ロボット20の主要な構成を示す概略図である。図5に示すように、ロボット20は、コントローラ21と、測域センサ12と、走行装置13と、撮像装置24とを備える。コントローラ21は、機能的な構成として、測距データ取得部111と、走行方向決定部212と、走行制御部113と、撮像画像取得部214と、第1学習モデルM1と、第2学習モデルM2とを含む。撮像画像取得部214と、第2学習モデルM2とは、撮像装置24に含まれていてもよい。測域センサ12、走行装置13、測距データ取得部111、走行制御部113、および第1学習モデルM1の構成については、実施形態1にて説明した通りであるため、説明を繰り返さない。他の構成の詳細については後述する。
撮像装置24は、ロボット20の周囲を撮像する。具体的には、撮像装置24は、ロボット20の進行方向に向けて撮像処理を行うことにより二次元の撮像画像を生成する。撮像装置24は、シングルボードコンピュータ241と、撮像素子242とを含む。
(撮像画像取得部214の構成)
撮像画像取得部214は、撮像装置24から撮像画像を取得する。具体的には、撮像画像取得部214は、予め定められた周期毎に、撮像装置24に対して撮像処理を指示することにより、撮像装置24から出力される撮像画像を取得する。撮像画像取得部214は、取得した撮像画像を第2学習モデルM2に入力する。なお、撮像画像の取得周期と、測距データの取得周期とは、同一であってもよいし、異なっていてもよい。ただし、測距データより容量の大きい撮像画像の取得には、測距データの取得よりも時間を要すると考えられる。このため、測距データの取得周期より、撮像画像の取得周期の方が長く設定されることがある。一例として、測距データの取得周期が50ミリ秒であり、撮像画像の取得周期が500ミリ秒である。ただし、各周期はこれに限定されない。
図5に示す通り、第2学習モデルM2は、撮像装置24が生成する撮像画像を入力として、当該撮像画像において追従対象物を含み得る1または複数の画像領域を示す情報を出力するよう機械学習されているプログラムである。
図5に示す走行方向決定部212は、第1学習モデルM1から出力される1または複数の方向のうち、第2学習モデルM2の出力情報を参照して抽出される1または複数の方向を参照して、ロボット20の走行方向を決定する。換言すると、走行方向決定部212は、第1学習モデルM1から出力される1または複数の方向を、第2学習モデルM2の出力情報を参照して絞り込む。また、走行方向決定部212は、直近で得られた測距データを参照し、第2学習モデルM2の出力情報を参照して抽出した方向に存在する物体のうち、距離が最も近い物体に向かう方向を、ロボット20の走行方向として決定する。
以上のように構成されたロボット20の制御方法S2について説明する。図8は、ロボット20の制御方法S2を説明するフローチャートである。なお、以下に説明する制御方法S2は、測距データの取得周期毎に実行される。
本実施形態では、第1学習モデルM1の出力情報には、物体までの距離の変化が反映されるのに対して、第2学習モデルM2の出力情報には、周囲に存在する物体の二次元的な外観情報が反映される。また、測距データの取得周期が撮像画像の取得周期より短いため、測距データの取得に応答して第1学習モデルM1から出力される情報は、撮像画像の取得に応答して第2学習モデルM2から出力される情報と比較して、リアルタイム性が高い。そこで、コントローラ21は、よりリアルタイム性が高く、且つ、物体までの距離の変化が反映された第1学習モデルM1の出力情報を、二次元的な外観情報が反映された第2学習モデルM2の出力情報を用いて絞り込む。これにより、本実施形態は、ロボットの走行方向をより精度よく決定することができる。
本発明の実施形態3に係るロボット30について、図9~14を参照しながら以下に説明する。なお、説明の便宜上、実施形態1~2にて説明した構成と同じ機能を有する構成については、同じ符号を付記し、その説明を繰り返さない。
図9は、ロボット30の主要な構成を示すブロック図である。図9に示すように、ロボット30は、コントローラ31と、測域センサ12と、走行装置13と、撮像装置24とを備える。コントローラ31は、機能的な構成として、測距データ取得部111と、走行方向決定部312と、走行制御部113と、撮像画像取得部214と、対象方向特定部315と、障害物領域特定部316とを含む。また、コントローラ31は、第1学習モデルM1と、第2学習モデルM2と、第3学習モデルM3とを含む。撮像画像取得部214と、第2学習モデルM2とは、撮像装置24に含まれていてもよい。測域センサ12、走行装置13、測距データ取得部111、走行制御部113、撮像画像取得部214、第1学習モデルM1、および第2学習モデルM2の構成については、実施形態1~2にて説明した通りであるため、説明を繰り返さない。他の構成の詳細については後述する。
(第3学習モデルM3の構成)
図9に示す通り、第3学習モデルM3は、追従対象物の方向を示す情報と、障害物が存在する空間領域を示す情報とを入力として、障害物を回避しながら追従対象物に向かうための方向を示す情報を出力するよう機械学習されている。
図9に示す通り、対象方向特定部315は、測距データおよび第1学習モデルM1の出力情報を参照して、追従対象物の方向を特定する。測距データとしては、直近で得られたデータが参照される。追従対象物が存在する方向を示す情報は、後述する障害物領域特定部316によって特定される障害物が存在する空間領域を示す情報と共に、第3学習モデルM3に入力される。
障害物領域特定部316は、測距データおよび追従対象物の方向を参照して、障害物が存在する空間領域を特定する。測距データとしては、直近で計測されたデータが参照される。追従対象物の方向としては、対象方向特定部315によって特定された方向が参照される。障害物が存在する空間領域を示す情報は、対象方向特定部315によって特定された、追従対象物が存在する方向を示す情報と共に、第3学習モデルM3に入力される。
図9に示す通り、走行方向決定部312は、追従対象物の方向および障害物の空間領域をそれぞれ示す情報を、第3学習モデルM3に入力することにより、第3学習モデルM3の出力情報が示す回避方向を、ロボット30の走行方向として決定する。第3学習モデルM3から出力される回避方向は、ロボット30から見た追従対象物が存在する方向とは異なる場合がある。これは、追従対象物とロボット30との間に障害物が存在する場合である。これにより、ロボット30は、障害物に衝突する可能性を低減しながら、追従対象物を追従するよう走行することができる。
以上のように構成されたロボット30の制御方法S3について説明する。図14は、ロボット30の制御方法S3を説明するフローチャートである。なお、以下に説明する制御方法S3は、測距データの取得周期毎に実行される。
本実施形態は、直近で取得された測距データと第1学習モデルM1からの出力とを用いて、追従対象物の方向および障害物の空間領域を特定する。ここで、第1学習モデルM1からの出力には、各方向に存在する物体までの距離の変化が反映されているので、本実施形態は、移動体である追従対象物の方向を精度よく特定することができる。また、追従対象物が存在する方向以外の方向に存在する物体を障害物として特定するので、本実施形態は、障害物が存在する空間領域を精度よく特定することができる。その結果、本実施形態は、そのようにして特定した追従対象物の方向および障害物の空間領域をそれぞれ示す情報を入力とする第3学習モデルM3を用いるので、障害物を回避しながら追従対象物を追従するための回避方向を、より精度よく決定することができる。
<第1学習モデルM1からの出力情報のバリエーション>
上述した各実施形態において、第1学習モデルM1からの出力情報であるciが、方向riに存在する物体の種類を示す例について説明した。これに限らず、第1学習モデルM1からの出力情報である方向毎のci(i=1、2、・・・、n)は、方向riに追従対象物が存在する確率を示していてもよい。この場合、第1学習モデルM1を機械学習させる際に用いられる教師データとしては、2周期分以上の測距データと、追従対象物が存在する方向とを関連付けた情報が用いられる。なお、第1学習モデルM1からの出力情報は、追従対象物が存在し得る1または複数の方向を示す情報であれば、その他の情報であってもよい。
上述した各実施形態において、第2学習モデルM2からの出力情報である画像領域が、追従対象物である「特定の人」と同種類の物体である「人」を被写体として含む画像領域を示すものとして説明した。これに限らず、第2学習モデルM2からの出力情報は、追従対象物が被写体として含まれる確率を画素ごとに示す情報であってもよい。この場合、第2学習モデルM2を機械学習させる際に用いられる教師データとしては、撮像画像と、追従対象物が含まれる領域とを関連付けた情報が用いられる。なお、第2学習モデルM2からの出力情報は、追従対象物を含み得る1または複数の画像領域を示す情報であれば、その他の情報であってもよい。
上述した実施形態3において、コントローラ31は、予め定められたタイミングにおいて、または、外部からの指示に応答して、追従対象物に追従する代わりに、目標位置に向かって走行するようロボット30を制御してもよい。この場合、障害物領域特定部316は、測距データを参照して、障害物が存在する空間領域を特定する。また、対象方向特定部315は、追従対象物の方向を特定する代わりに、目標位置に向かう目標方向を特定する。目標方向は、ロボット30の現在地から目標位置に向かう方向である。また、第3学習モデルM3には、目標方向を示す情報と、障害物が存在する空間領域を示す情報とが入力される。目標位置は、例えば、施設内の巡回コースにおいて予め設定された通過ポイントであってもよい。これにより、ロボット30は、通常は追従対象物に追従するよう走行しながらも、予め定められたタイミングが到来した場合、または、外部からの指示を受け付けた場合には、目標位置に向かうよう走行可能である。ただし、目標位置は、上述した通過ポイントに限られない。例えば、目標位置は、外部から入力される位置であってもよい。
上述した各実施形態において、本発明における所定の対象物が移動体であり、ロボットが当該移動体である追従対象物を追従する例について説明した。これに限らず、本発明における所定の対象物は、移動しない物体であってもよい。
上述した各実施形態において、内部記憶媒体であるメモリ102に格納されているプログラムに従ってプロセッサ101が制御方法S1~S3を実行する形態で、コントローラ11~31が実現されることについて説明したが、これに限定されない。例えば、外部記録媒体に格納されているに従ってプロセッサ101が制御方法S1~S3を実行する形態を採用してもよい。この場合、外部記録媒体としては、コンピュータが読み取り可能な「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、又はプログラマブル論理回路などを用いることができる。あるいは、また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
11、21、31 コントローラ
12 測域センサ
111 測距データ取得部
112、212、312 走行方向決定部
113 走行制御部
214 撮像画像取得部
315 対象方向特定部
316 障害物領域特定部
101 プロセッサ
102 メモリ
103 通信インタフェース
13 走行装置
131 PLC
132 車輪
133 モータ
134 駆動回路
135 エンコーダ
24 撮像装置
241 シングルボードコンピュータ
242 撮像素子
Claims (7)
- 自走するロボットであって、
前記ロボットから周囲に存在する物体までの距離を方向毎に計測するセンサと、
前記ロボットの周囲を撮像する撮像装置と、
前記センサから出力される測距データを入力として、前記物体のうち所定の対象物が存在し得る1または複数の方向を示す情報を出力するよう機械学習された第1学習モデルと、
前記撮像装置が生成する撮像画像を入力として、前記撮像画像において前記所定の対象物を含み得る1または複数の画像領域を示す情報を出力するよう機械学習された第2学習モデルと、
前記測距データと、前記第1学習モデルの出力情報と、前記第2学習モデルの出力情報と、を参照して前記ロボットを制御するコントローラと、を備え、
前記コントローラは、
前記第1学習モデルから出力される1または複数の方向のうち、前記第2学習モデルの出力情報を参照して抽出される1または複数の方向を参照して、前記所定の対象物に向かうよう前記ロボットの走行方向を決定する処理を実行する、
ことを特徴とするロボット。 - 自走するロボットであって、
前記ロボットから周囲に存在する物体までの距離を方向毎に計測するセンサと、
前記センサから出力される測距データを入力として、前記物体のうち所定の対象物が存在し得る1または複数の方向を示す情報を出力するよう機械学習された第1学習モデルと、
前記所定の対象物の方向を示す情報と、障害物が存在する空間領域を示す情報とを入力として、前記障害物を回避しながら前記所定の対象物に向かうための方向を示す情報を出力するよう機械学習された第3学習モデルと、
前記測距データと、前記第1学習モデルの出力情報と、前記第3学習モデルの出力情報と、を参照して前記ロボットを制御するコントローラと、を備え、
前記コントローラは、
前記測距データおよび前記第1学習モデルの出力情報を参照して、前記所定の対象物の方向および前記障害物の空間領域を特定し、特定した情報を前記第3学習モデルに入力することにより、前記第3学習モデルの出力情報が示す方向を、前記ロボットの走行方向として決定する処理を実行する、
ことを特徴とするロボット。 - 前記所定の対象物は移動体であり、
前記センサは、前記距離を方向毎に計測する処理を周期的に実行し、
前記第1学習モデルは、少なくとも2周期分以上の前記測距データを入力として、前記物体のうち移動体が存在する1または複数の方向を示す情報を、前記所定の対象物が存在し得る1または複数の方向として出力する、
ことを特徴とする請求項1又は2に記載のロボット。 - 前記コントローラは、
前記センサから出力される測距データを取得する入力インタフェースと、
プログラムに従って前記各処理を実行するプロセッサと、
前記プログラムを格納したメモリと、を備えている、
ことを特徴とする請求項1から3までの何れか1項に記載のロボット。 - 自走するロボットの制御方法であって、
前記ロボットから周囲に存在する物体までの距離を方向毎に計測する工程と、
前記ロボットの周囲を撮像して撮像画像を生成する工程と、
前記計測する工程において出力される測距データを参照して前記ロボットを制御する工程と、を備え、
前記制御する工程は、
前記測距データを入力として、前記物体のうち所定の対象物が存在し得る1または複数の方向を示す情報を出力するよう機械学習された第1学習モデルと、
前記撮像画像を入力として、前記撮像画像において前記所定の対象物を含み得る1または複数の画像領域を示す情報を出力するよう機械学習された第2学習モデルと、を用いて、
前記第1学習モデルから出力される1または複数の方向のうち、前記第2学習モデルの出力情報を参照して抽出される1または複数の方向を参照して、前記所定の対象物に向かうよう前記ロボットの走行方向を決定する処理を含む、
ことを特徴とする制御方法。 - 自走するロボットの制御方法であって、
前記ロボットから周囲に存在する物体までの距離を方向毎に計測する工程と、
前記計測する工程において出力される測距データを参照して前記ロボットを制御する工程と、を備え、
前記制御する工程は、
前記測距データを入力として、前記物体のうち所定の対象物が存在し得る1または複数の方向を示す情報を出力するよう機械学習された第1学習モデルと、
前記所定の対象物の方向を示す情報と、障害物が存在する空間領域を示す情報とを入力として、前記障害物を回避しながら前記所定の対象物に向かうための方向を示す情報を出力するよう機械学習された第3学習モデルと、を用いて、
前記測距データおよび前記第1学習モデルの出力情報を参照して前記所定の対象物の方向および前記障害物の空間領域を特定し、特定した情報を前記第3学習モデルに入力することにより前記第3学習モデルの出力情報が示す方向を前記ロボットの走行方向として決定する処理を含む、
ことを特徴とする制御方法。 - 請求項1から4の何れか1項に記載のロボットを制御するプログラムであって、前記コントローラに前記各処理を実行させることを特徴とするプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019217132A JP7342664B2 (ja) | 2019-11-29 | 2019-11-29 | ロボット、制御方法、およびプログラム |
CN202011145337.3A CN112882461A (zh) | 2019-11-29 | 2020-10-23 | 机器人、控制方法以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019217132A JP7342664B2 (ja) | 2019-11-29 | 2019-11-29 | ロボット、制御方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021086541A JP2021086541A (ja) | 2021-06-03 |
JP7342664B2 true JP7342664B2 (ja) | 2023-09-12 |
Family
ID=76042958
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019217132A Active JP7342664B2 (ja) | 2019-11-29 | 2019-11-29 | ロボット、制御方法、およびプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7342664B2 (ja) |
CN (1) | CN112882461A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115164910B (zh) * | 2022-06-22 | 2023-02-21 | 小米汽车科技有限公司 | 行驶路径生成方法、装置、车辆、存储介质及芯片 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008204102A (ja) | 2007-02-19 | 2008-09-04 | Yokohama National Univ | 画像処理システム |
JP2018085065A (ja) | 2016-11-25 | 2018-05-31 | 株式会社竹中工務店 | 電動走行台車 |
JP2018147474A (ja) | 2017-03-01 | 2018-09-20 | オムロン株式会社 | 学習装置、学習結果利用装置、学習方法及び学習プログラム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11134003A (ja) * | 1997-10-31 | 1999-05-21 | Mitsubishi Electric Corp | モジュール型学習制御方法 |
-
2019
- 2019-11-29 JP JP2019217132A patent/JP7342664B2/ja active Active
-
2020
- 2020-10-23 CN CN202011145337.3A patent/CN112882461A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008204102A (ja) | 2007-02-19 | 2008-09-04 | Yokohama National Univ | 画像処理システム |
JP2018085065A (ja) | 2016-11-25 | 2018-05-31 | 株式会社竹中工務店 | 電動走行台車 |
JP2018147474A (ja) | 2017-03-01 | 2018-09-20 | オムロン株式会社 | 学習装置、学習結果利用装置、学習方法及び学習プログラム |
Also Published As
Publication number | Publication date |
---|---|
CN112882461A (zh) | 2021-06-01 |
JP2021086541A (ja) | 2021-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102361261B1 (ko) | 이동 바디들 주위의 로봇 행동을 위한 시스템들 및 방법들 | |
US20200333789A1 (en) | Information processing apparatus, information processing method, and medium | |
JP6633568B2 (ja) | 自律式カバレッジロボット | |
US11407116B2 (en) | Robot and operation method therefor | |
KR101999033B1 (ko) | 자동 로봇을 위한 장애물의 존재 및 부재 중 하나의 확률 맵 구축 방법 | |
KR102235003B1 (ko) | 충돌 검출, 추정 및 회피 | |
KR20180087798A (ko) | 이동 로봇 및 그 제어방법 | |
KR20180058511A (ko) | 이동 로봇 및 그 제어방법 | |
KR20180055571A (ko) | 이동 로봇 시스템, 이동 로봇 및 이동 로봇 시스템의 제어 방법 | |
CA2824606A1 (en) | Mobile human interface robot | |
US11112780B2 (en) | Collaborative determination of a load footprint of a robotic vehicle | |
KR102615685B1 (ko) | 멀티 센서를 동기화시켜 위치를 추정하는 방법 및 이를 구현하는 로봇 | |
JP2010061484A (ja) | 移動体および移動体の位置推定誤り状態からの復帰方法 | |
KR20200027087A (ko) | 로봇 및 그의 제어 방법 | |
JP4411248B2 (ja) | 移動監視ロボット | |
JP7342664B2 (ja) | ロボット、制御方法、およびプログラム | |
KR20180098040A (ko) | 이동 로봇 및 그 제어방법 | |
JP2018005470A (ja) | 自律移動装置、自律移動方法及びプログラム | |
KR102350934B1 (ko) | 이동 로봇 | |
WO2022116628A1 (zh) | 避障控制系统、方法、存储介质、计算机程序产品及移动设备 | |
WO2019088990A1 (en) | Control system for mobile robots | |
JP4235858B2 (ja) | ロボット装置及びロボット装置の障害物マップ生成方法 | |
SHARMA et al. | Human following robot | |
US20230244835A1 (en) | 6d object pose estimation with 2d and 3d pointwise features | |
Sikdar et al. | An iterative clustering algorithm for classification of object motion direction using infrared sensor array |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220203 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230404 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230814 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7342664 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |