JP2019125354A - 情報処理装置、システム、方法、およびプログラム - Google Patents
情報処理装置、システム、方法、およびプログラム Download PDFInfo
- Publication number
- JP2019125354A JP2019125354A JP2018223149A JP2018223149A JP2019125354A JP 2019125354 A JP2019125354 A JP 2019125354A JP 2018223149 A JP2018223149 A JP 2018223149A JP 2018223149 A JP2018223149 A JP 2018223149A JP 2019125354 A JP2019125354 A JP 2019125354A
- Authority
- JP
- Japan
- Prior art keywords
- information
- processing
- moving
- unit
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 157
- 238000012545 processing Methods 0.000 claims abstract description 331
- 238000003672 processing method Methods 0.000 claims abstract description 77
- 230000033001 locomotion Effects 0.000 claims description 199
- 238000005259 measurement Methods 0.000 claims description 129
- 230000010365 information processing Effects 0.000 claims description 97
- 239000003550 marker Substances 0.000 claims description 57
- 230000008569 process Effects 0.000 claims description 56
- 230000005856 abnormality Effects 0.000 claims description 8
- 238000003860 storage Methods 0.000 claims description 4
- 238000012544 monitoring process Methods 0.000 description 183
- 230000036544 posture Effects 0.000 description 85
- 238000003384 imaging method Methods 0.000 description 71
- 238000012986 modification Methods 0.000 description 29
- 230000004048 modification Effects 0.000 description 29
- 230000008859 change Effects 0.000 description 26
- 238000009826 distribution Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 13
- 230000001133 acceleration Effects 0.000 description 12
- 238000006243 chemical reaction Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 238000005457 optimization Methods 0.000 description 8
- 230000002787 reinforcement Effects 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 7
- 238000004519 manufacturing process Methods 0.000 description 6
- 230000032258 transport Effects 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000007257 malfunction Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000004064 dysfunction Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000009189 diving Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000004886 process control Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0287—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
- G05D1/0291—Fleet control
- G05D1/0297—Fleet control by controlling means in a control room
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本実施形態では、自律走行する搬送車両(例えば、AGV(Automated Guided Vehicle))と称する移動体の移動制御に本発明を適用した場合について説明する。この移動体は自分の位置を推定し、指定された目的地まで自律的に移動制御可能である。
図1に、本実施形態において搬送車両(AGV)と称する移動体に適用したシステム構成図を示す。
本実施形態において、マップは三次元的なマップに限定されない。また、本実施形態において、位置姿勢情報は6自由度の位置・姿勢パラメータに限定されるものではない。例えば、マップは、環境の床と水平な面上の二次元点群データ(と色情報との組み合わせ)や、環境の床と水平な面上の二次元モデルなどの二次元マップであっても良い。また、位置姿勢情報は環境の世界座標系上における移動体11の位置を示す2自由度(環境の床に対して水平な面上の位置X、Y)と姿勢を示す1自由度(環境の床に対して水平な面上での回転方向)との合計3自由度の位置・姿勢パラメータであっても良い。また、距離センサ112は、シーンの水平方向で距離情報(二次元点群データ)を計測するアクティブ距離センサであっても良い。位置姿勢情報の推定は、距離センサ112から取得された距離情報(二次元点群データ)と、マップ関連情報の二次元点群データとをICP(Iterative Closest Point)法を用いて一致するよう最適化計算することで行う。
本実施形態において、距離センサ112はアクティブ距離センサに限定されるものではない。例えば、赤外線センサや、ステレオカメラであっても良い。また、本実施形態において、撮像装置113、監視カメラ15は、RGBカラーカメラに限定されるものではない。例えば、グレースケールカメラや、赤外線カメラや、広角レンズカメラや、パノラマカメラであっても良い。パン、チルト、ズームが可能なカメラであっても良い。また、監視カメラ15は、画像以外に距離を計測するセンサを備えても良い。例えば、二次元点群や三次元点群を出力する距離センサであっても良い。
本実施形態において、マップは移動体11に搭載している距離センサや撮像装置を用いて生成されるものに限定されない。例えば、環境のCAD図面や地図画像をそのまま、あるいはデータフォーマット変換したものをマップ関連情報管理部1112に取得して利用しても良い。また、CAD図面や地図画像によるマップを初期マップとしてマップ関連情報管理部1112に取得して、移動体11に搭載しているセンサを用いてSLAM技術で更新しても良い。マップを上書きで更新しても良いし、初期マップを保持しておき差分を更新情報として記憶しても良い。その際、マップをレイヤーで管理して、差異を移動体管理表示部132のディスプレイ画面で確認したり、初期マップに戻したりすることも出来る。ディスプレイ画面を見ながら操作を行うことで利便性が向上する。
本実施形態において、マップは同一の時間帯に生成されるものに限定されない。例えば、時間帯を変えてマップを複数生成し、生成したマップを比較して差異を除くことで環境内を移動する物体(例えば人物や他の移動体11)をマップ関連情報から排除することが可能となる。マップ関連情報から移動する物体を排除することで位置姿勢推定をより安定的に行うことが可能になる。
本実施形態において、距離センサ112と撮像装置113を両方利用すると説明したが、その方法に限定されるものではない。撮像装置113を利用して、距離センサ112を利用しなくても良い。この場合、位置姿勢情報の推定はTatenoらの方法(非特許文献1)を用いて撮像装置113による画像情報から距離情報(三次元幾何情報)をCNN(ConvolutionalNeuralNetwork)で推定し、SLAM技術を利用して行う。なお、CNNは、多段階の層からなり、畳み込み演算を行うニューラルネットワークである。入力画像に対して、CNNの各段階では畳み込み演算を行って画像の特徴を空間的に統合し、次の段階の中間層のニューロンへ入力する。さらにプーリングやサブサンプリングと呼ばれる、特徴量を空間方向へ圧縮する操作を行う。CNNは、このような多段階の特徴変換を通じて複雑な特徴表現を獲得することができる。そのため同特徴量に基づいて画像中の被写体のカテゴリ認識や画像変換などを高精度に行うことができる。
本実施形態において、第一位置姿勢推定処理部1113での位置姿勢情報の推定は、移動体11に搭載したセンサによるセンサ情報と、監視カメラ画像とを利用して最適化計算で求めても良い。
本実施形態において、移動体11は搬送車両(AGV)に限定されるものではない。例えば、移動体11は、AMR,無人搬送車、自動運転車、自律移動ロボットであっても良く、本実施形態で説明した移動制御をそれらに適用しても良い。また、陸上を歩行・走行する移動体以外でも、空中を飛行して移動するものや、水上を移動するもの、水中を潜水して移動する移動体に適用しても良い。
本実施形態において、移動体11は人間による運転制御が不要であるが、ユーザがGUIを用いて必要に応じた遠隔操作をできるようにしてもよい。ユーザは監視カメラ15と監視カメラシステム14を使って工場全体を監視しており、移動体11の行動を監視している。異常行動の兆候が観測された場合や、トラブルで工場の一部を停止しなければいけない場合に、ユーザは遠隔操作によって一度に複数の移動体11の運転制御に介入できるようになっていれば、システム全体の安全性や利便性が上がる。
監視カメラシステム14は第二位置姿勢推定処理部143の他に、第二位置姿勢推定処理部143が移動体11の周囲にある他の物体を認識する。なお、他の物体は、環境内を移動する他の移動体11、人物、もしくは移動体11が搭載していた荷物(落下物)である。第二位置姿勢推定処理部143では、パターン認識等の物体検出の手法を用いて他の物体を認識する。具体的な手順としては、まず図5のS208において、第二位置姿勢推定処理部143が第二計測情報に含まれる画像から移動体11以外の物体を検出する。推定処理をする直前の画像にはなかった物体の特徴点を検出する。S210では、位置姿勢決定部1115が、第一の処理結果と第二の処理結果を用いて移動体11の位置と姿勢を決定する。ここで、S208において移動体の他に物体が検出なかった場合は、前に説明した手順で第一の処理結果と第二の処理結果を統合し、移動体11の位置と姿勢を決定する。S208において移動体の他に物体が検出された場合、S205で得た第一の処理結果に付与する重み付け係数を小さくして、移動体の位置と姿勢を決定する。第一の計測情報に他の物体による計測の誤差が含まれる場合、第一の処理結果の精度が悪い可能性があるためである。環境内で動く物体を検出することによって、移動体の位置や姿勢を推定するのに不必要な物体の情報を排除できるため、移動体の位置を安定的に決定できる。
本実施形態において、初期化処理として監視カメラの画像を利用して移動体11の移動開始時の位置または姿勢の推定(初期設定)を行っても良い。例えば、図5のフローチャートを用いて説明を行うと、S201においてS206〜S209の処理を追加で行う。S201で行うS208の処理においては、第二位置姿勢推定処理部143が、第二の推定方法に第二計測情報である監視カメラ画像を入力して第二の処理結果を得る。位置姿勢決定部1115が、この第二の処理結果に基づいて、移動体11が移動を開始するスタート位置を決定する。あるいは、位置姿勢決定部1115が、監視カメラ15が撮像した監視カメラ画像を入力し、テンプレートマッチング、モデルフィッティング、機械学習など、手法を用いて移動体11の移動経路の開始位置や姿勢(第二の処理結果)を決定する。
本実施形態において、第二位置姿勢推定処理部143による認識結果に基づき環境に置かれている物体の位置や姿勢に変化があると判定する。物体の位置や姿勢に変化があると判定された場合は、移動体11が変化のあった環境内の領域すなわちレイアウト変更の行われた環境内の領域に向かって自律的に移動してマップ情報を更新しても良い。例えば、図5のフローチャートを用いて説明すると、S208において第二位置姿勢推定処理部143が、テンプレートマッチング、モデルフィッティング、機械学習などの手法を用いて、環境に置かれている物体の位置や姿勢に変化があるか認識する。レイアウト変更の判定は、ある時刻tまで無かった物体が時刻tから所定の時間u(例えば予めユーザにより定めた1分間)以上環境にあることを監視カメラ15により撮影した画像の時系列差分から求める。あるいはその逆で、時刻tまであった物体が時刻tから所定の時間以上環境から無くなったこと、あるいは物体の位置や姿勢が変化したことを、監視カメラ15により撮影した画像の時系列差分から求める。移動体11の移動制御およびマップ情報の更新は、レイアウト変更があった領域を環境の世界座標系に投影変換してその領域のマップ情報を更新するように行う。なお、本変形例の処理は、工程のタスクが割り当てられていない移動体11を用いて行うことが望ましいが、工程のタスクの合間に行っても良い。第二位置姿勢推定処理部143は、S211において変化のあった環境内の領域についてマップ情報の更新するようにマップ関連情報管理部1112に指示を行う。変化があると認識された場合はレイアウト変更が行われたものと判定して、S212において変化のあった環境内の領域を目標地点にして移動体11の移動制御を行う。
本実施形態において、第二位置姿勢推定処理部143による認識結果に基づき監視カメラ画像内に存在する特徴点の数や分布を判定する。特徴点の数が多すぎるあるいは少なすぎる領域を移動体11に搭載した距離センサ、画像センサにより計測あるいは撮像しないよう移動制御する。例えば工場のような環境において移動体を使用する場合、工場の壁や天井には模様や柄がないことや、逆にブラインドのような同じ幾何的特徴の繰り返し・パターンがあることが多く、そのような部分では位置の推定に必要な特徴点を見つけにくい。特徴点とは、環境内で位置を推定するために用いるコーナーやエッジ等の変化が大きい点を指す。そのような環境でも移動体の位置を安定的に決定するには、特徴点の数や分布が適度な箇所を第一の計測情報として使うようにする。そのために、予め第二の計測情報から特徴点の数や分布を計測しておき、特徴点の数や分布が適度な箇所を把握しておく。例えば、図5のフローチャートを用いて説明すると、S208において第二位置姿勢推定処理部143による認識で、特徴点の数や分布を検出するための検出器やフィルタ等の既知の手法を用いて環境における特徴点の数や分布を監視カメラ画像ごとに判定する。特徴点の数や分布が、予め定めた範囲に含まれない(第1の閾値以下あるいは第2の閾値以上)場合は、特徴点の数や分布が少なすぎるあるいは多すぎる。そのため、移動体11に搭載した距離センサ、撮像装置で計測あるいは撮像するのに適切ではないと判定する。特徴点の数や分布が適切ではない領域を環境の世界座標系に投影変換して、S212において移動体11に搭載した受光センサがその領域を計測あるいは撮像しないよう移動制御する。また、位置姿勢決定部1115が、特徴点の数や分布が適切ではない領域が計測範囲に含まれる第一の計測情報を用いた第一の処理結果を取得しないよう抑制しても良い。特徴点の数や分布が過少または過多な場合に第一の計測情報または第一の処理結果を取得しないように抑制することによって、情報処理装置111の処理負荷を軽減することができる。その結果、移動体の位置を安定的に取得することが出来る。
本実施形態において、移動体11の図示しないバッテリー(電池)が切れそうな場合は、監視カメラ情報を利用した第二の処理結果により移動体11の位置と姿勢の推定を行っても良い。
本実施形態において、第二の処理結果の信頼度は監視カメラ画像の認識信頼度に限定されるものではない。監視カメラの近くを通る移動体は、監視カメラの画像にマーカが大きく映るためマーカで検出しやすい。一方で、監視カメラから遠いところを通る移動体は、監視カメラの画像にマーカが小さく映るため検出しづらい。また、移動体が監視カメラから遠いほど、画像におけるマーカの位置のずれや形状の歪みが顕著になるため、画素のずれが移動体の位置や姿勢の推定に与える影響が大きくなり、推定精度が低下する。そこで、移動体の位置座標と監視カメラの既知である位置座標の距離を計算し、位置姿勢決定部1115における重み付け係数を監視カメラ15から移動体11までの距離に応じた信頼度にしても良い。監視カメラ15から移動体11までの距離が遠くになるにつれて位置姿勢推定精度は下がるため信頼度を下げる。あるいは、監視カメラ15で撮影した画像中のどの位置に移動体11が写っているかで信頼度を決めても良い。監視カメラ15は広角レンズを用いていることが多く、端に写っている移動体11や物体や人物の位置姿勢推定精度は下がる。監視カメラ画像を矩形に分割して予め定めた端の分割領域に移動体11が写っている場合は信頼度を下げる。信頼度の高い情報のみを使って処理結果を統合することにより、移動体の位置を安定的に取得することが出来る。
本実施形態において、1台の移動体11を撮影する監視カメラ15は1台に限定されるものではなく複数台であっても良い。例えば、移動体11−1を監視カメラ15−1および15−2で撮影しても良い。監視カメラ15−1および監視カメラ15−2は移動体11を計測可能または撮影可能な場所に設置されており、それぞれのカメラの位置と姿勢が既知である。図5のフローチャートを用いて説明すると、S206において監視カメラ15−1、15−2を用いて画像をそれぞれ撮影する。次にS208において第二位置姿勢推定処理部143を用いて監視カメラ画像それぞれから移動体11−1の位置姿勢情報を認識する。さらに、第二位置姿勢推定処理部143が移動体11−1を検出し、その位置と姿勢をそれぞれ世界座標系上で座標変換したことで位置姿勢推定する(複数の第二の処理結果)。S209において第二推定情報取得部1114を通して複数の第二の推定情報(第二の処理結果)を入力する。さらに、S204において、第一位置姿勢推定処理部1113は、第一計測情報取得部1111から送られる第一計測情報、マップ関連情報管理部1112から送られるマップ関連情報を用いて第一の処理結果を推定する。S210において、S209で取得された複数の第二の処理結果と、S204で取得した第一の処理結果を重み付けて統合する。重みづけには予め定めておいた比率を用いる方法や、それぞれの推定で求められた信頼度に比例させた変数を用いる方法等がある。あるいは最も信頼度の高い位置姿勢情報を選択しても良い。移動体11−1を撮像する監視カメラ15は2台に限定されるものではなく、3台以上の複数台であっても良いことは言うまでもない。
本実施形態において、第一計測情報、第一の処理結果と、第二の処理結果との推定レート(位置姿勢推定処理を行う時間間隔を示す)や推定タイミングは、処理を行うタイミングをそれぞれ任意の時間間隔に設定することができる。例えば同時並行で他の処理をやるためにタイミングを設定できる。その結果、推定レートや推定タイミングにずれが生じることがある。
本実施形態において、距離センサ112、撮像装置113、監視カメラ15は、撮像素子上の各々の受光部が2以上の受光素子によって構成され、距離情報と画像情報とを出力可能な1台の撮像装置によって構成されても良い。
情報処理装置111は、移動体に搭載されていなくてもよい。例えば、移動体管理システム13が情報処理装置111を含む構成でも良い。この場合、図5のS202において、各移動体11−1に搭載された距離センサ112、撮像装置113、各種センサ114が、移動体の周辺を観測あるいは計測する。各移動体11−1は、それらの観測結果または計測結果を、ネットワークを介して移動体管理システム13内の情報処理装置に送信する。そして、S203においては、移動体管理システム13の情報処理装置にある第一計測情報取得部が、移動体に搭載されたセンサの計測結果を取得する。情報処理装置は計測結果を基に先述した第1の推定方法もしくは第2の推定方法を実施し、各移動体の位置や姿勢を決定し、各移動体に送信する。各移動体は、移動制御部1116において受信した位置と姿勢に基づいて移動制御情報を生成し、アクチュエータ部115を制御する。移動体管理システム13が有する情報処理装置111として、例えば、物理的に大きく処理性能が高いハードウェアを使うことは、移動体に搭載する情報処理装置よりは容易である。つまり、本変形例により、各移動体の位置推定処理をさらに精度良く行える。
本実施形態では、移動体の位置の推定に本発明を適用した場合について説明する。
本実施形態においては、環境における位置と姿勢が既知のID付き二次元平面マーカ(以下、IDマーカと略す)を環境内に複数個、固定して配置する。マーカからは世界座標上での絶対位置を取得できるため、それまでの移動で蓄積した位置や姿勢の推定結果と実際の移動体の位置との誤差を修正することができる。そして、撮像装置113bで撮像した画像情報から認識したIDマーカの位置と姿勢を座標変換することで、移動体11の位置と姿勢を推定する。IDマーカは、予め環境内の床面、天井、対象物体、立て看板に配置される。また、IDマーカの代わりにIDがないマーカを利用しても良い。IDマーカを用いることによって、例えばIDが100番のマーカは世界座標系で(x、y、z)の位置にあるという具合に各マーカの番号と位置を紐づけることができる。IDがない場合は、位置座標のみを読み取る。なお、実施形態1におけるマーカと物理的には同一のものであるが設置箇所が異なる。
本実施形態では、移動体の位置の推定に本発明を適用した場合について説明する。
本実施形態においては、実施形態2と同様に、環境における位置姿勢が既知のID付き二次元平面マーカ(以下、IDマーカと略す)を環境内に複数固定配置する。実施形態2との違いは、移動体11に搭載する撮像装置が1台になっている点である。
本実施形態では、移動体の移動制御に本発明を適用した場合について説明する。
本実施形態におけるシステム構成図は実施形態1で説明した図1、図2と同じである。ただしいくつかの構成に関して機能が異なる。本実施形態では実施形態1と機能が異なる構成のみ説明し、それ以外の構成については図1、図2と同じ機能であるものとして説明を省略する。
本実施形態において、移動体管理表示部132や監視カメラ管理表示部142は、固定されたディスプレイ画面に限定されるものではない。例えば、工場や物流倉庫内の管理業務を行うユーザが所持するハンディターミナルであっても良い。ハンディターミナルに通知などを表示することで、ユーザはすぐに現場に行き復帰させることが可能になり、利便性が向上する。
本実施形態において、移動制御部1116が移動体11を復帰させる制御を行う場合に、それまで移動してきた経路を逆に辿って本来の移動経路まで戻っても良い。また、本実施形態において、移動経路から外れた理由を解析して対策を提案、表示しても良い。
本実施形態では、第一の処理結果と第二の処理結果とが整合しない場合に、情報処理システム1のどこかで異常が発生していることをユーザに通知するもしくは移動体が復帰制御を行う例を説明する。この場合、いずれかの位置姿勢情報が誤って推定されており、システム機能障害が発生している可能性が高いと判断する。システム機能障害とは、予期しない機械故障やシステムトラブルを指す。システム機能障害は、早期に発見し、修正することが望ましい。システム機能障害の原因には、移動体11に搭載したセンサ由来のものと、監視カメラ管理システム14由来のものと大きく分けて2つある。前者は、距離センサ112や撮像装置113の視軸方向に障害物があり視界を部分的に遮蔽されて環境を適切に計測出来ていない場合や、距離センサ112や撮像装置113が故障している場合などが挙げられる。後者は、監視カメラ管理システム14が移動体11と適切に通信出来ていない場合や、監視カメラ管理システム14や監視カメラ15が故障している場合などが挙げられる。
本実施形態におけるシステム構成図は実施形態1で説明した図1、2と同じである。ただしいくつかの構成に関して機能が異なる。本実施形態では実施形態1と機能が異なる構成のみ説明し、それ以外の構成については図1、2と同じ機能であるものとして説明を省略する。
本実施形態において、第一の処理結果が正しく算出されない場合は、移動体11の図示しないバッテリー(電池)が切れている可能性がある。その場合は、バッテリー切れであることをユーザに通知しても良い。その場合、移動体制御部1116は、移動体管理表示部132または監視カメラ管理表示部142に対して、バッテリー切れである移動体11の位置情報を環境のマップに重畳して表示するように指示する。
本実施形態において、位置姿勢決定部1115は、各処理方法による処理結果の信頼度を取得し、その信頼度を比較して整合しているかを判断するようにしても良い。その場合、位置姿勢決定部1115は、第一位置姿勢推定処理部1113から第一の処理結果の第一の信頼度と、第二位置姿勢推定処理部143から第二の処理結果の第二の信頼度とを取得する。システム機能障害が移動体11に搭載したセンサ由来のものか、監視カメラ管理システム14由来のものかは、第一の信頼度と第二の信頼度を比較して推定することが出来る。すなわち、信頼度の低い方が機能障害に関わっていると推定する。信頼度は、例えばセンサに関わるものを挙げると、センサによる距離情報の推定信頼度や、フレーム間のマッチング誤差から算出できる信頼度などがある。一方、監視カメラ管理システム14に関わるものを挙げると、例えば、監視カメラ画像の認識信頼度がある。また、信頼度の高低は、予め定めた数フレーム分の複数フレームで判断しても良いし、1フレームで判断しても良い。システム機能障害であること、またその由来といった原因をユーザに通知することでユーザは復帰作業を行いやすくなるため、利便性が向上する。
本実施形態では、移動体の移動制御に本発明を適用した場合について説明する。
図14に、本実施形態において搬送車両(AGV)と称する移動体に適用したシステム構成図を示す。多くの構成は、実施形態1で説明した図1、2の構成と同じである。ただしいくつかの構成に関して機能が異なる。本実施形態では実施形態1と機能が異なる構成のみ説明し、それ以外の構成については図1、2と同じ機能であるものとして説明を省略する。
本実施形態において、移動経路の上にある物体や積荷を移動体11の動きによってどかしても良い。また、移動体11にロボットマニピュレータが備わっている場合は、物体を拾って本来ある場所に置いても良い。
本実施形態において、物体や積荷があると認識された領域は、センサによる移動体11の位置姿勢推定、環境のマップ生成に使わなくても良い。
移動体の移動制御に本発明を適用した場合について説明する。
本実施形態におけるシステム構成図は実施形態6で説明した図14と同じである。ただしいくつかの構成に関して機能が異なる。本実施形態では実施形態6と機能が異なる構成のみ説明し、それ以外の構成については図14と同じ機能であるものとして説明を省略する。
本実施形態において、人物がいると認識された領域は、センサによる移動体11の位置姿勢推定、環境のマップ生成に使わなくても良い。また、監視カメラによる物体認識に使わなくても良い。
本実施形態では、移動体の移動制御に本発明を適用した場合について説明する。
本実施形態におけるシステム構成図は実施形態6で説明した図14と同じである。ただしいくつかの構成に関して機能が異なる。本実施形態では実施形態6と機能が異なる構成のみ説明し、それ以外の構成については図14と同じ機能であるものとして説明を省略する。
本実施形態において、他の移動体11がいると認識された領域は、センサによる移動体11の位置姿勢推定、環境のマップ生成に使わなくても良い。また、監視カメラによる物体認識に使わなくても良い。
その他の実施形態として、情報処理システム1で実行される製品の組み立てや商品の搬送といったタスクの単位時間当たりのスループット(作業量)をなるべく多くする。かつ複数の移動体11の移動距離、移動時間、消費電力、アクチュエータの摩耗といったコストをなるべく減らすため、強化学習を用いても良い。強化学習の報酬モデルは予めユーザによって作成されたものとし、スループットとコストとの最適化はシミュレーションで報酬が最大となるよう行われるものとする。
111 情報処理装置
1115 位置姿勢決定部
1116 移動制御部
1117 取得部
112 距離センサ
113 撮像装置
114 各種センサ
115 アクチュエータ部
Claims (20)
- 移動体の位置を決定する情報処理装置であって、
前記移動体に搭載された受光センサを用いて少なくとも前記移動体の周囲を計測した画像を第一の処理方法で処理して得られた前記移動体の位置を特定可能な第一の処理結果と、前記移動体を観測可能な場所に設置された受光センサを用いて前記移動体を観測した観測結果を前記第一の処理方法とは異なる第二の処理方法で処理して得られた前記移動体の位置を特定可能な第二の処理結果とを取得する取得手段と、
前記第一の処理結果と前記第二の処理結果とに基づいて前記移動体の位置を決定する決定手段とを備えることを特徴とする情報処理装置。 - 前記移動体は、前記決定手段によって決定された位置に基づいて移動制御されることを特徴とする請求項1に記載の情報処理装置。
- 前記移動体は、マーカが付加されており、
前記第二の処理方法は、前記移動体を観測可能な場所に設置された受光センサを用いて前記マーカを観測した観測結果に基づいて前記移動体の位置を推定する方法であることを特徴とする請求項1または2に記載の情報処理装置。 - 前記第一の処理方法は、前記移動体に搭載された受光センサを用いて少なくとも前記移動体の周囲を計測した画像と、前記移動体の移動経路に関する画像特徴を含むマップ情報とに基づいて前記移動体の位置を推定する方法であることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
- 前記第一の処理方法は、前記移動体に搭載された受光センサを用いて前記移動体の周囲の距離を計測した距離画像と、前記移動体の移動経路に関する3次元特徴を含むマップ情報とに基づいて前記移動体の位置を推定する方法であることを特徴とする請求項4に記載の情報処理装置。
- 前記決定手段は、前記移動体の位置を決定する際に前記第一の処理結果と前記第二の処理結果とを反映させる比率を示す重み付け係数を決定し、
それぞれの前記重み付け係数はゼロにしないことを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。 - 前記第二の処理結果の重み付け係数は、前記移動体を観測可能な場所に設置された前記受光センサと前記移動体との距離に基づいて決定されることを特徴とする請求項6に記載の情報処理装置。
- 前記第二の処理結果の重み付け係数は、前記移動体を観測可能な場所に設置された前記受光センサによって観測された画像における前記移動体が写った画角内の位置に基づいて決定されることを特徴とする請求項7に記載の情報処理装置。
- 前記取得手段は、前記移動体を観測可能な場所に設置された複数の受光センサを用いて取得された複数の観測結果を前記第二の処理方法でそれぞれ処理して得られた複数の処理結果を統合した第二の処理結果を取得することを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
- 前記取得手段は、前記移動体を観測可能な場所に設置された複数の前記受光センサを用いて取得された観測結果を前記第二の処理方法でそれぞれ処理して得られた複数の第二の処理結果を取得し、
前記決定手段は、前記第一の処理結果と複数の前記第二の処理結果とに基づいて前記移動体の位置を決定することを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。 - 前記取得手段は、前記第二の処理方法で処理される計測結果から前記移動体に搭載された前記受光センサが観測可能な空間に含まれる特徴点の数を取得し、前記特徴点の数が所定の範囲に含まれない場合は前記第一の処理方法で処理される計測結果あるいは前記第一の処理結果の取得を抑制することを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。
- 前記移動体の移動経路に関する画像特徴を含むマップ情報を保持する保持手段を備え、
前記決定手段は、前記マップ情報における前記移動体の位置座標を決定することを特徴とする請求項1乃至11いずれか1項に記載の情報処理装置。 - 前記決定手段は、前記第二の処理方法で処理される観測結果に基づいて前記マップ情報における前記移動体の移動経路の開始位置を決定することを特徴とする請求項12に記載の情報処理装置。
- 前記第二の処理方法で処理される観測結果から前記マップ情報の移動経路上に物体を検出した場合に、
前記保持手段は、前記物体を避けるように前記移動経路を変更されたマップ情報を保持することを特徴とする請求項12または13に記載の情報処理装置。 - 前記第二の処理方法で処理される観測結果から人物の移動範囲を予測する判断部を更に備え、
前記判断部によって前記マップ情報の移動経路上に前記人物がいることを判断した場合に、
前記保持手段は、前記移動範囲を避けるように前記移動経路を変更された前記マップ情報を保持することを特徴とする請求項12乃至14のいずれか1項に記載の情報処理装置。 - 前記第二の処理方法で処理される結果から前記マップ情報の移動経路上に他の移動体を検出した場合に、
前記保持手段は、前記他の移動体の移動経路に関するマップ情報に基づいて前記他の移動体の移動経路を避けるように前記移動体の前記移動経路を変更された前記マップ情報を保持することを特徴とする請求項12乃至15のいずれか1項に記載の情報処理装置。 - 前記第一の処理結果と前記第二の処理結果との差が所定の値より大きい場合に、ユーザへシステムの異常を通知する通知手段をさらに有することを特徴とする請求項1乃至16のいずれか1項に記載の情報処理装置。
- 前記第二の処理方法で処理される観測結果から前記マップ情報の移動経路上に前記移動体に搭載された荷物を検出した場合に、
前記通知手段は、ユーザへ前記移動経路に異常があることを通知することを特徴とする請求項17に記載の情報処理装置。 - コンピュータを、請求項1乃至18のいずれか1項に記載の情報処理装置として機能させるためのプログラム。
- 移動体の位置を決定する情報処理方法であって、
前記移動体に搭載された受光センサを用いて少なくとも前記移動体の周囲を計測した画像を第一の処理方法で処理して得られる前記移動体の位置が特定可能な第一の処理結果と、前記移動体を観測可能な場所に設置された受光センサを用いて前記移動体を観測した観測結果を前記第一の処理方法とは異なる第二の処理方法で処理して得られる前記移動体の位置が特定可能な第二の処理結果と、を取得する取得工程と、
前記第一の処理結果と前記第二の処理結果とに基づいて前記移動体の位置を決定する決定工程とを備えることを特徴とする情報処理方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018003818 | 2018-01-12 | ||
JP2018003818 | 2018-01-12 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019125354A true JP2019125354A (ja) | 2019-07-25 |
JP7353747B2 JP7353747B2 (ja) | 2023-10-02 |
Family
ID=67218283
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018223149A Active JP7353747B2 (ja) | 2018-01-12 | 2018-11-29 | 情報処理装置、システム、方法、およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20200333789A1 (ja) |
JP (1) | JP7353747B2 (ja) |
CN (1) | CN111837083B (ja) |
WO (1) | WO2019138836A1 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021093037A (ja) * | 2019-12-11 | 2021-06-17 | 株式会社東芝 | 算出システム、算出方法、プログラム、及び記憶媒体 |
JP2021099682A (ja) * | 2019-12-23 | 2021-07-01 | 株式会社構造計画研究所 | 位置推定装置、移動体、位置推定方法及びプログラム |
WO2021205276A1 (ja) * | 2020-04-10 | 2021-10-14 | 株式会社半導体エネルギー研究所 | 位置推定システム、位置推定装置、及び移動体 |
JP2022027568A (ja) * | 2020-07-30 | 2022-02-10 | ネイバーラボス コーポレーション | ロボット管制方法及びシステム |
WO2023223658A1 (ja) * | 2022-05-16 | 2023-11-23 | 株式会社デンソー | 搬送処理システム、搬送処理装置、自律搬送車両、搬送処理方法、搬送処理プログラム |
JP7388589B1 (ja) * | 2023-05-22 | 2023-11-29 | トヨタ自動車株式会社 | 自走車両の方位角取得装置、方位角取得システムおよび方位角取得方法 |
JP7431623B2 (ja) | 2020-03-11 | 2024-02-15 | 株式会社Subaru | 車外環境認識装置 |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11175146B2 (en) * | 2017-05-11 | 2021-11-16 | Anantak Robotics Inc. | Autonomously moving machine and method for operating an autonomously moving machine |
WO2019087478A1 (ja) * | 2017-10-30 | 2019-05-09 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US20210271257A1 (en) * | 2018-07-06 | 2021-09-02 | Sony Corporation | Information processing device, optimum time estimation method, self-position estimation method, and record medium recording computer program |
WO2020019221A1 (zh) * | 2018-07-26 | 2020-01-30 | 深圳前海达闼云端智能科技有限公司 | 一种自主定位和地图建立方法、装置和机器人 |
CN111480131B (zh) * | 2018-08-23 | 2024-01-12 | 日本精工株式会社 | 自行装置、自行装置的行进控制方法以及行进控制程序 |
KR20200069925A (ko) * | 2018-12-07 | 2020-06-17 | 현대자동차주식회사 | 무인운반차량 통제 시스템 및 그 방법 |
EP3951744A4 (en) * | 2019-03-26 | 2022-05-25 | Sony Semiconductor Solutions Corporation | IMAGE PROCESSING DEVICE, VEHICLE CONTROL DEVICE, METHOD AND PROGRAM |
US11585934B2 (en) * | 2019-04-30 | 2023-02-21 | Lg Electronics Inc. | Cart robot having auto-follow function |
US11511785B2 (en) * | 2019-04-30 | 2022-11-29 | Lg Electronics Inc. | Cart robot with automatic following function |
JP7329363B2 (ja) * | 2019-06-03 | 2023-08-18 | 株式会社小松製作所 | 無人車両の制御システム及び無人車両の制御方法 |
CN114127652A (zh) * | 2019-07-04 | 2022-03-01 | 三菱电机株式会社 | 移动体测位装置和移动体测位系统 |
US11176813B2 (en) * | 2019-07-17 | 2021-11-16 | International Business Machines Corporation | Path deviation detection analysis by pattern recognition on surfaces via machine learning |
WO2021024665A1 (ja) * | 2019-08-08 | 2021-02-11 | ソニー株式会社 | 情報処理システム、情報処理装置及び情報処理方法 |
EP4024154A4 (en) * | 2019-08-27 | 2022-10-19 | Sony Group Corporation | INFORMATION PROCESSING DEVICE, CONTROL METHOD, AND PROGRAM |
US11443272B2 (en) * | 2019-08-28 | 2022-09-13 | Verizon Patent And Licensing Inc. | Expedited order pickup systems and methods |
WO2021044549A1 (ja) * | 2019-09-04 | 2021-03-11 | 日本電気株式会社 | 位置推定方法、位置推定システム、及び位置推定装置 |
JP2021060669A (ja) * | 2019-10-03 | 2021-04-15 | ソニー株式会社 | 情報処理装置、情報処理方法、情報処理システム及びプログラム |
JP7036783B2 (ja) * | 2019-10-09 | 2022-03-15 | 株式会社 ミックウェア | 位置推定システム、位置推定方法、及び位置推定プログラム |
JP6744597B1 (ja) * | 2019-10-18 | 2020-08-19 | トヨタ自動車株式会社 | 車両用制御データの生成方法、車両用制御装置、車両用制御システム、および車両用学習装置 |
JP7276093B2 (ja) * | 2019-11-19 | 2023-05-18 | トヨタ自動車株式会社 | 情報収集システム、中継装置、及びプログラム |
US20220373683A1 (en) * | 2019-12-03 | 2022-11-24 | Konica Minolta, Inc. | Image processing device, monitoring system, and image processing method |
US11713977B2 (en) * | 2019-12-19 | 2023-08-01 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and medium |
FR3105098B1 (fr) * | 2019-12-20 | 2021-12-03 | Michelin & Cie | procede de suivi de pneumatiques de plus de 30 pouces par des moyens videos |
CN111061277B (zh) * | 2019-12-31 | 2022-04-05 | 歌尔股份有限公司 | 一种无人车全局路径规划方法和装置 |
JPWO2021157123A1 (ja) * | 2020-02-07 | 2021-08-12 | ||
JP7318609B2 (ja) * | 2020-08-06 | 2023-08-01 | トヨタ自動車株式会社 | 車載検出装置 |
CN116685872A (zh) * | 2020-12-18 | 2023-09-01 | 罗伯特·博世有限公司 | 用于移动设备的定位系统和方法 |
JP2022142452A (ja) * | 2021-03-16 | 2022-09-30 | 本田技研工業株式会社 | 制御装置、制御方法、およびプログラム |
JP2022148261A (ja) * | 2021-03-24 | 2022-10-06 | トヨタ自動車株式会社 | 物品回収システム、物品回収ロボット、物品回収方法、及び物品回収プログラム |
JP7294365B2 (ja) * | 2021-03-30 | 2023-06-20 | トヨタ自動車株式会社 | ライドシェア車両のルート検索装置及びルート検索方法 |
JP2023003719A (ja) * | 2021-06-24 | 2023-01-17 | トヨタ自動車株式会社 | ロボット管理システム、ロボット管理方法、及びプログラム |
CN113284197B (zh) * | 2021-07-22 | 2021-11-23 | 浙江华睿科技股份有限公司 | Agv的tof相机外参标定方法及装置、电子设备 |
IT202200006230A1 (it) * | 2022-03-30 | 2023-09-30 | Alba Robot S R L | Procedimento per localizzare un veicolo, e relativo sistema |
CN115049346B (zh) * | 2022-08-16 | 2022-11-18 | 成都秦川物联网科技股份有限公司 | 基于物料运输障碍识别的工业物联网系统及控制方法 |
CN115501995A (zh) * | 2022-09-30 | 2022-12-23 | 深圳工法智能科技有限公司 | 一种智能移动式喷涂系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003241836A (ja) * | 2002-02-19 | 2003-08-29 | Keio Gijuku | 自走移動体の制御方法および装置 |
JP2003300186A (ja) * | 2002-04-03 | 2003-10-21 | Mitsubishi Heavy Ind Ltd | 移動ロボットシステム |
JP2012037391A (ja) * | 2010-08-06 | 2012-02-23 | Canon Inc | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム |
JP2015206798A (ja) * | 2015-06-25 | 2015-11-19 | 日立オートモティブシステムズ株式会社 | 距離算出装置 |
JP2016152003A (ja) * | 2015-02-19 | 2016-08-22 | Jfeスチール株式会社 | 自律移動ロボットの自己位置推定方法、自律移動ロボット、及び自己位置推定用ランドマーク |
JP2016162013A (ja) * | 2015-02-27 | 2016-09-05 | 株式会社日立製作所 | 自己位置推定装置および移動体 |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4843987B2 (ja) * | 2005-04-05 | 2011-12-21 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2009529187A (ja) * | 2006-03-03 | 2009-08-13 | インリックス インコーポレイテッド | モバイルデータソースからのデータを使用する道路交通状況の評価 |
JP2007316966A (ja) * | 2006-05-26 | 2007-12-06 | Fujitsu Ltd | 移動ロボット、その制御方法及びプログラム |
CN101527040B (zh) * | 2008-03-05 | 2012-12-19 | 华为终端有限公司 | 图像处理方法及系统 |
CN101334837B (zh) * | 2008-07-31 | 2012-02-29 | 重庆大学 | 一种多方法融合的车牌图像定位方法 |
EP2460629B1 (en) * | 2009-07-28 | 2022-06-29 | Yujin Robot Co., Ltd. | Control method for localization and navigation of mobile robot and mobile robot using same |
KR101901586B1 (ko) * | 2011-12-23 | 2018-10-01 | 삼성전자주식회사 | 로봇 위치 추정 장치 및 그 방법 |
JP5783093B2 (ja) * | 2012-03-13 | 2015-09-24 | アイシン・エィ・ダブリュ株式会社 | 移動体位置検出システム、移動体位置検出装置、移動体位置検出方法及びコンピュータプログラム |
US9067671B2 (en) * | 2013-07-25 | 2015-06-30 | Disney Enterprises, Inc. | Visual localization of unmanned aerial vehicles based on marker detection and processing |
DE102014002150B3 (de) * | 2014-02-15 | 2015-07-23 | Audi Ag | Verfahren zur Ermittlung der absoluten Position einer mobilen Einheit und mobile Einheit |
CN104200494B (zh) * | 2014-09-10 | 2017-05-17 | 北京航空航天大学 | 一种基于光流的实时视觉目标跟踪方法 |
CN104616502B (zh) * | 2015-02-15 | 2017-03-29 | 北京工业大学 | 基于组合式车路视频网络的车牌识别与定位系统 |
US20180099846A1 (en) * | 2015-03-06 | 2018-04-12 | Wal-Mart Stores, Inc. | Method and apparatus for transporting a plurality of stacked motorized transport units |
JP6849330B2 (ja) * | 2015-08-28 | 2021-03-24 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 地図生成方法、自己位置推定方法、ロボットシステム、およびロボット |
US9826213B1 (en) * | 2015-09-22 | 2017-11-21 | X Development Llc | Generating an image-based identifier for a stretch wrapped loaded pallet based on images captured in association with application of stretch wrap to the loaded pallet |
US10209063B2 (en) * | 2015-10-03 | 2019-02-19 | X Development Llc | Using sensor-based observations of agents in an environment to estimate the pose of an object in the environment and to estimate an uncertainty measure for the pose |
KR101776823B1 (ko) * | 2016-03-02 | 2017-09-11 | 가천대학교 산학협력단 | 외부 감시카메라를 이용한 모바일 로봇의 위치인식 방법 및 시스템 |
JP6868805B2 (ja) * | 2016-06-07 | 2021-05-12 | パナソニックIpマネジメント株式会社 | 画像生成装置、画像生成方法、およびプログラム |
CN105973228A (zh) * | 2016-06-28 | 2016-09-28 | 江苏环亚医用科技集团股份有限公司 | 一种基于单摄像头、rssi的室内目标定位系统及方法 |
CN106092090B (zh) * | 2016-08-06 | 2023-04-25 | 合肥中科星翰科技有限公司 | 一种用于室内移动机器人定位的红外路标及其使用方法 |
US10928245B2 (en) * | 2016-09-15 | 2021-02-23 | Siteco Gmbh | Light measurement using an autonomous vehicle |
CN106643690A (zh) * | 2016-09-21 | 2017-05-10 | 中国第汽车股份有限公司 | 用景象识别进行汽车的高精度定位的方法 |
WO2018066236A1 (ja) * | 2016-10-07 | 2018-04-12 | 村田機械株式会社 | 自動倉庫 |
CN110462546A (zh) * | 2017-03-28 | 2019-11-15 | 日本电产株式会社 | 移动体 |
US10222215B2 (en) * | 2017-04-21 | 2019-03-05 | X Development Llc | Methods and systems for map generation and alignment |
US20200109949A1 (en) * | 2017-06-30 | 2020-04-09 | Square Robot, Inc. | Method and apparatus for self-contained positioning of a mobile robot inside a tank |
CN107339986B (zh) * | 2017-07-04 | 2021-01-29 | 郑州大学 | 一种定位方法、装置及系统 |
US10788830B2 (en) * | 2017-07-28 | 2020-09-29 | Qualcomm Incorporated | Systems and methods for determining a vehicle position |
US10599161B2 (en) * | 2017-08-08 | 2020-03-24 | Skydio, Inc. | Image space motion planning of an autonomous vehicle |
US11222299B1 (en) * | 2017-08-31 | 2022-01-11 | Amazon Technologies, Inc. | Indoor deliveries by autonomous vehicles |
US20200264616A1 (en) * | 2017-09-04 | 2020-08-20 | Nidec Corporation | Location estimation system and mobile body comprising location estimation system |
JP7156305B2 (ja) * | 2017-11-20 | 2022-10-19 | ソニーグループ株式会社 | 制御装置、および制御方法、プログラム、並びに移動体 |
US11822341B2 (en) * | 2017-12-28 | 2023-11-21 | Sony Corporation | Control device, control method, and mobile object to estimate the mobile object's self-position |
US11926038B2 (en) * | 2018-01-10 | 2024-03-12 | Sony Corporation | Information processing apparatus and information processing method |
-
2018
- 2018-11-29 JP JP2018223149A patent/JP7353747B2/ja active Active
- 2018-12-20 CN CN201880090631.3A patent/CN111837083B/zh active Active
- 2018-12-20 WO PCT/JP2018/047030 patent/WO2019138836A1/ja active Application Filing
-
2020
- 2020-07-07 US US16/922,821 patent/US20200333789A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003241836A (ja) * | 2002-02-19 | 2003-08-29 | Keio Gijuku | 自走移動体の制御方法および装置 |
JP2003300186A (ja) * | 2002-04-03 | 2003-10-21 | Mitsubishi Heavy Ind Ltd | 移動ロボットシステム |
JP2012037391A (ja) * | 2010-08-06 | 2012-02-23 | Canon Inc | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム |
JP2016152003A (ja) * | 2015-02-19 | 2016-08-22 | Jfeスチール株式会社 | 自律移動ロボットの自己位置推定方法、自律移動ロボット、及び自己位置推定用ランドマーク |
JP2016162013A (ja) * | 2015-02-27 | 2016-09-05 | 株式会社日立製作所 | 自己位置推定装置および移動体 |
JP2015206798A (ja) * | 2015-06-25 | 2015-11-19 | 日立オートモティブシステムズ株式会社 | 距離算出装置 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021093037A (ja) * | 2019-12-11 | 2021-06-17 | 株式会社東芝 | 算出システム、算出方法、プログラム、及び記憶媒体 |
JP2021099682A (ja) * | 2019-12-23 | 2021-07-01 | 株式会社構造計画研究所 | 位置推定装置、移動体、位置推定方法及びプログラム |
JP7304284B2 (ja) | 2019-12-23 | 2023-07-06 | 株式会社構造計画研究所 | 位置推定装置、移動体、位置推定方法及びプログラム |
JP7431623B2 (ja) | 2020-03-11 | 2024-02-15 | 株式会社Subaru | 車外環境認識装置 |
WO2021205276A1 (ja) * | 2020-04-10 | 2021-10-14 | 株式会社半導体エネルギー研究所 | 位置推定システム、位置推定装置、及び移動体 |
JP2022027568A (ja) * | 2020-07-30 | 2022-02-10 | ネイバーラボス コーポレーション | ロボット管制方法及びシステム |
JP7199480B2 (ja) | 2020-07-30 | 2023-01-05 | ネイバーラボス コーポレーション | ロボット管制方法及びシステム |
WO2023223658A1 (ja) * | 2022-05-16 | 2023-11-23 | 株式会社デンソー | 搬送処理システム、搬送処理装置、自律搬送車両、搬送処理方法、搬送処理プログラム |
JP7388589B1 (ja) * | 2023-05-22 | 2023-11-29 | トヨタ自動車株式会社 | 自走車両の方位角取得装置、方位角取得システムおよび方位角取得方法 |
Also Published As
Publication number | Publication date |
---|---|
US20200333789A1 (en) | 2020-10-22 |
JP7353747B2 (ja) | 2023-10-02 |
CN111837083A (zh) | 2020-10-27 |
WO2019138836A1 (ja) | 2019-07-18 |
CN111837083B (zh) | 2024-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019138836A1 (ja) | 情報処理装置、情報処理システム、情報処理方法およびプログラム | |
US11830618B2 (en) | Interfacing with a mobile telepresence robot | |
JP7465615B2 (ja) | 航空機のスマート着陸 | |
US11673269B2 (en) | Method of identifying dynamic obstacle and robot implementing same | |
KR101913332B1 (ko) | 이동 장치 및 이동 장치의 위치 인식 방법 | |
Price et al. | Deep neural network-based cooperative visual tracking through multiple micro aerial vehicles | |
TWI827649B (zh) | 用於vslam比例估計的設備、系統和方法 | |
JP4802112B2 (ja) | トラッキング方法及びトラッキング装置 | |
JP3994950B2 (ja) | 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置 | |
US9323250B2 (en) | Time-dependent navigation of telepresence robots | |
US8271132B2 (en) | System and method for seamless task-directed autonomy for robots | |
US20130116823A1 (en) | Mobile apparatus and walking robot | |
JP2020079997A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
Jia et al. | Vision based target tracking for autonomous land vehicle navigation: a brief survey | |
CN111971149A (zh) | 记录介质、信息处理设备和信息处理方法 | |
Krátký et al. | Gesture-Controlled Aerial Robot Formation for Human-Swarm Interaction in Safety Monitoring Applications | |
JP2024088679A (ja) | 航空機のスマート着陸 | |
CA3236875A1 (en) | Precision height estimation using sensor fusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221017 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230525 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230920 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7353747 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |