JP2022092236A - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP2022092236A JP2022092236A JP2020204920A JP2020204920A JP2022092236A JP 2022092236 A JP2022092236 A JP 2022092236A JP 2020204920 A JP2020204920 A JP 2020204920A JP 2020204920 A JP2020204920 A JP 2020204920A JP 2022092236 A JP2022092236 A JP 2022092236A
- Authority
- JP
- Japan
- Prior art keywords
- information
- vibration
- moving body
- posture
- acquisition means
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 42
- 238000003672 processing method Methods 0.000 title claims abstract description 6
- 238000000034 method Methods 0.000 claims description 63
- 238000012545 processing Methods 0.000 claims description 16
- 230000007613 environmental effect Effects 0.000 claims description 5
- 238000005259 measurement Methods 0.000 abstract description 43
- 238000012937 correction Methods 0.000 abstract description 5
- 230000033001 locomotion Effects 0.000 description 13
- 230000001133 acceleration Effects 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 230000007423 decrease Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000003702 image correction Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000035939 shock Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000000691 measurement method Methods 0.000 description 3
- 238000011084 recovery Methods 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 239000004575 stone Substances 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Abstract
Description
本発明は、移動体の位置姿勢の取得技術に関する。 The present invention relates to a technique for acquiring the position and posture of a moving body.
工場や物流倉庫において無人搬送車(Automated Guided Vehicle(AGV))のような自律車両が用いられている。また、こうした自律車両の位置姿勢の推定を行う方法として、カメラやLiDAR(Laser Imaging Detection and Ranging)をセンサーとして使用し、車両周囲の環境を計測した結果から時間ごとの位置姿勢差分を取得する方法が知られている。また、環境地図データとの比較によって位置姿勢値を算出する等の方法が知られている。 Autonomous vehicles such as automated guided vehicles (AGVs) are used in factories and distribution warehouses. In addition, as a method of estimating the position and attitude of such an autonomous vehicle, a method of using a camera or LiDAR (Laser Imaging Detection and Ringing) as a sensor and acquiring the position and attitude difference for each time from the result of measuring the environment around the vehicle. It has been known. Further, a method of calculating a position / attitude value by comparison with environmental map data is known.
移動体がセンサーから得た情報に基づいて、移動体が走行する環境に存在する物体の形状や位置を示す環境情報を作成する際に、移動体と周囲物体との相対位置の取得精度が移動体の振動に起因して低下することがある。特許文献1では、移動体に加わった加速度の計測値と加速度として想定されていた値の差分に基づいて、センサー計測値の信頼性を決定し、信頼性の低い時刻のセンサー情報を取り除く技術が開示されている。
Based on the information obtained by the moving object from the sensor, the acquisition accuracy of the relative position between the moving object and the surrounding object moves when creating environmental information indicating the shape and position of the object existing in the environment in which the moving object travels. It may decrease due to body vibration. In
しかしながら、特許文献1に記載された方法では、該当のセンサー情報を位置姿勢計測に用いる場合、信頼性の低い時刻において位置姿勢計測の精度が低下、あるいは計測が途切れる問題があった。
However, in the method described in
本発明は、上記の課題に鑑みてなされたものであり、移動体の位置姿勢を安定して得る情報処理装置を提供することを目的とする。また、その方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an information processing apparatus that can stably obtain the position and posture of a moving body. It also aims to provide the method and program.
本発明に係る情報処理装置は以下の構成を有する。即ち、移動体に搭載されたセンサーからの入力情報を取得する入力情報取得手段と、前記移動体が受ける振動の大きさと方向を含む振動情報を取得する振動情報取得手段と、前記振動情報を用いて補正した補正後の入力情報に基づいて、前記移動体の位置姿勢を取得する位置姿勢取得手段とを有する。 The information processing apparatus according to the present invention has the following configuration. That is, the input information acquisition means for acquiring the input information from the sensor mounted on the moving body, the vibration information acquiring means for acquiring the vibration information including the magnitude and direction of the vibration received by the moving body, and the vibration information are used. It has a position / orientation acquisition means for acquiring the position / orientation of the moving body based on the corrected input information corrected by the above.
本発明によれば、移動体の位置姿勢を安定して得ることが可能となる。 According to the present invention, it is possible to stably obtain the position and posture of the moving body.
以下、本発明の実施の形態を図面を参照して詳細に説明する。尚、以下の実施の形態は本発明の特許請求の範囲を限定するものではなく、また以下の実施の形態で説明されている特徴の組み合わせの全てが本発明を構成する上で必須のものとは限らない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. It should be noted that the following embodiments do not limit the scope of claims of the present invention, and all combinations of features described in the following embodiments are essential for constructing the present invention. Is not always.
[第1の実施形態]
以下、本発明に係る第1の実施形態の移動体システム、位置姿勢計測システム、情報処理装置、情報処理方法、コンピュータープログラムについて図面を参照して詳細に説明する。
[First Embodiment]
Hereinafter, the moving body system, the position / posture measuring system, the information processing apparatus, the information processing method, and the computer program according to the first embodiment of the present invention will be described in detail with reference to the drawings.
第1の実施形態では、センサーとしてカメラ(撮像センサ―)を搭載した移動体が環境内を移動し、移動体の位置姿勢推定を行う例について説明する。ここで環境とはセンサーが移動した領域とその周囲の三次元空間であり、位置姿勢とは三次元の位置情報と3自由度の姿勢情報を組み合わせた6自由度の値である。以降の説明では環境の鉛直方向をz軸とし、移動体は基本的にxy平面上を走行するものとする。 In the first embodiment, an example in which a moving body equipped with a camera (imaging sensor) as a sensor moves in the environment and the position and orientation of the moving body is estimated will be described. Here, the environment is the area where the sensor has moved and the three-dimensional space around it, and the position / orientation is a value of six degrees of freedom, which is a combination of three-dimensional position information and attitude information of three degrees of freedom. In the following description, the vertical direction of the environment is the z-axis, and the moving body basically travels on the xy plane.
本実施形態では、移動体に加わった衝撃や振動によってカメラ画像にぶれが生じ、カメラ画像の特徴点追跡による位置姿勢の計測精度が低下することを課題としている。情報処理装置が衝撃や振動の大きさと方向に応じた画像補正を実施することで安定して位置姿勢計測を実現する。 In the present embodiment, it is an object that the camera image is blurred due to the impact or vibration applied to the moving body, and the measurement accuracy of the position / posture by tracking the feature points of the camera image is lowered. The information processing device performs image correction according to the magnitude and direction of impact and vibration, and realizes stable position and orientation measurement.
(移動体システム、位置姿勢計測システムおよび情報処理装置の構成)
図1は、本実施形態に係る移動体システム101の構成の一例を示す図である。移動体システム101は、情報処理装置103、カメラ104、を含む位置姿勢計測システム102、通信部105、制御装置106、車輪部107から構成される。
(Structure of mobile system, position / attitude measurement system and information processing device)
FIG. 1 is a diagram showing an example of the configuration of the
情報処理装置103はカメラ104から入力される入力情報を元に移動体の位置姿勢推定を行う。また、移動体の自律移動時は制御装置106への移動指示を行う。情報処理装置103の構成の詳細については後述する。
The
カメラ104は移動体システム101上に固定され、グレースケールの輝度画像を連続的に取得可能なカメラである。例えば、ステレオカメラである。説明の簡便のため、カメラの焦点距離や画角等の内部パラメータは既知であり、画像の歪曲は存在しないか補正された状態で画像が出力されるものとする。またカメラ104は、例えば、秒間30回のフレームレートで撮影を行う。
The
通信部105はユーザーから移動体システム601の移動・回転や、情報処理装置103が行う位置姿勢計測処理の開始、終了等に関する指示を受け取る。
The
制御装置106は情報処理装置103や通信部105の指示に基づいて車輪部107を駆動し、移動体システム101を移動・転回させる。
The
車輪部107は一部または全部が動力と連動した複数のタイヤである。
The
(情報処理装置の構成)
情報処理装置103は一般的な組み込み用PC機器の機能を備えており、CPU111、ROM112、RAM113、HDDやSSD等の記憶部114、USB等の汎用I/F115およびシステムバス116で構成される。
(Configuration of information processing device)
The
CPU111は、RAM113をワークメモリとして、ROM112、記憶部114等に格納されたオペレーティングシステム(OS)や各種コンピュータープログラムを実行し、システムバス116を介して各部を制御する。例えばCPU111が実行するプログラムには、後述する処理を実行するためのプログラムが含まれる。
The
また、情報処理装置103には汎用I/F115を通じて位置姿勢計測用のセンサー(本実施形態ではカメラ104)や、通信部105、制御装置106が接続されている。
Further, a sensor for position / attitude measurement (
(情報処理装置の機能構成)
以下、本実施形態に係る情報処理装置の機能的な構成について説明する。以下に示す各部の処理は、ROM112等からコンピュータープログラムをRAM113上に読み込んだ後、CPU111によって該プログラムを実行することによってソフトウェアとして実施される。機能構成の一部ないし全部をASICやFPGAなどのハードウェアとして構成してもよい。
(Functional configuration of information processing device)
Hereinafter, the functional configuration of the information processing apparatus according to the present embodiment will be described. The processing of each part shown below is executed as software by reading a computer program from the
図2は、情報処理装置103の機能的な構成を示すブロック図である。
FIG. 2 is a block diagram showing a functional configuration of the
センサー入力情報取得部201は、汎用I/F115を通じ、位置姿勢計測用のセンサー(本実施形態ではカメラ104)からセンサー情報を取得する。本実施形態では、画像情報を取得する。
The sensor input
衝撃振動情報取得部202は、汎用I/F115を通じて取得したセンサー情報等に基づき、移動体システム101に加わった衝撃や振動の情報を取得する。
The impact vibration
位置姿勢取得部203は、センサー入力情報取得部201が取得したセンサー情報と、衝撃振動情報取得部202が取得した衝撃や振動の情報に基づき、センサー情報の取得時刻における移動体システム101の位置姿勢を算出する。算出された位置姿勢情報は、制御装置106に出力し、移動体システム101の自動運転制御に用いる。あるいは、位置姿勢情報を不図示の表示装置に出力し、UI上での移動体システムの現在位置の表示等に用いることができる。センサー入力情報取得部201が取得したセンサー情報を外部装置に通信部105を介して送信し、外部装置で算出した位置姿勢を、通信部105を介して位置姿勢取得部205で取得することも可能である。
The position /
(位置姿勢計測処理)
次に、本実施形態の情報処理装置を使用した情報処理方法に係る、位置姿勢計測処理について図3~図6を参照し説明する。図3および以降に示すフローチャートが表す処理は、CPU111がROM112または記憶部114に記憶されるプログラムを読出し情報の演算または加工、各ハードウェアの制御を行うことで実現される。なお、各フローチャートに示すステップの一部ないし全部をASICやFPGAなどのハードウェアで実現してもよい。
(Position / posture measurement processing)
Next, the position / orientation measurement process according to the information processing method using the information processing apparatus of the present embodiment will be described with reference to FIGS. 3 to 6. The processing represented by the flowcharts shown in FIGS. 3 and later is realized by the
図3は、本実施形態における位置姿勢計測処理の流れを示すフローチャートである。 FIG. 3 is a flowchart showing the flow of the position / posture measurement process in the present embodiment.
ステップS301では情報処理装置103の初期化を行う。情報処理装置は移動体システム101の現在の位置を環境中の原点、現在の姿勢を所定の方向(例えばY軸正方向)として初期の位置姿勢を設定する。また、センサー入力情報取得部201が各センサー(本実施形態ではカメラ104)から最初のセンサー情報を取得し、ステップS302の初回実行時に取得する「前の時刻のセンサー情報」としてワークメモリ上に保持する。
In step S301, the
続くステップS302からステップS304の処理は、ユーザー等により位置姿勢計測の終了が指示されるまで繰り返し実行される。以降の説明では、1回のステップS302からステップS304までの一連の処理を、ある時刻tの処理として説明する。ここでtは整数値であり、一連の処理を1回実施するごとに1増加する。また、時刻t=1までは平坦な面を走行していた移動体システム101が、時刻t=2において衝撃で各センサーの姿勢が大きく上方向に振られた状況を想定して説明する。衝撃の具体的な状況としては、移動体が歩道などの段差に乗り上げた状況、石や枝などの障害物をタイヤで踏んだ状況、石畳などから断続的な振動を受けている状況が考えられる。
Subsequent processes from step S302 to step S304 are repeatedly executed until the user or the like instructs the end of the position / posture measurement. In the following description, a series of processes from one step S302 to step S304 will be described as a process at a certain time t. Here, t is an integer value, and is incremented by 1 each time a series of processes is performed. Further, the description will be made assuming a situation in which the moving
ステップS302では、センサー入力情報取得部201が各センサーから最新のセンサー情報を取得する。また、ワークメモリ上に保持された1つ前の時刻のセンサー情報を取得する。
In step S302, the sensor input
ステップS303では、衝撃振動情報取得部202が移動体システム101に加わった衝撃や振動の情報を取得する。ステップS303の処理の詳細については後述する。
In step S303, the impact vibration
ステップS304では、位置姿勢取得部203が移動体システム101の位置姿勢を算出する。ステップS304の処理の詳細については後述する。
In step S304, the position /
ステップS305は、位置姿勢計測処理を終了するか否かの分岐である。ユーザーの指示等により位置姿勢計測を終了する場合、処理を終了する。そうでない場合、ステップS302に戻り次の時刻の処理を行う。 Step S305 is a branch of whether or not to end the position / posture measurement process. When the position / posture measurement is terminated by the user's instruction or the like, the process is terminated. If not, the process returns to step S302 and the next time is processed.
(衝撃振動情報取得処理の詳細)
次に、S303に示した衝撃振動情報取得処理の詳細について説明する。本実施形態では、カメラ104で取得された画像データに基づき移動体システム101が受けた衝撃や振動の大きさと方向を解析する。図4は、本実施形態における衝撃振動情報取得処理の流れを示すフローチャートである。
(Details of impact vibration information acquisition processing)
Next, the details of the impact vibration information acquisition process shown in S303 will be described. In the present embodiment, the magnitude and direction of the impact and vibration received by the moving
ステップ401では、衝撃振動情報取得部202が、ステップS302で取得した最新および1つ前の時刻のセンサー情報のそれぞれから、カメラ104で取得された画像データを取得する。
In step 401, the impact vibration
ステップS402では、衝撃振動情報取得部202が、ステップS401で取得した2枚の画像の間で特徴点の検出と追跡を行い、追跡に成功した特徴点のモーションベクトルを取得する。
In step S402, the impact vibration
図5(a)は、時刻t=1に取得した画像と、その1つ前の時刻(t=0)の画像との間での特徴点追跡の結果を図示したものである。図中の罰点は追跡に成功した特徴点、罰点に付随する矢印は前の時刻からの特徴点の移動量(モーションベクトル)を示している。 FIG. 5A illustrates the result of feature point tracking between the image acquired at time t = 1 and the image at the previous time (t = 0). The penalties in the figure indicate the feature points that were successfully tracked, and the arrows attached to the penalties indicate the amount of movement (motion vector) of the feature points from the previous time.
また、図5(b)は、次の時刻t=2に取得した画像と、その1つ前の時刻(t=1)の画像との間での特徴点追跡の結果を図示したものである。時刻t=2では、撮影時にカメラ104に衝撃が加わった結果、画像が縦方向にぶれを生じている。また、画像にぶれが生じた結果、図5(a)では追跡に成功していた特徴点のうち、一部の特徴点の追跡に失敗している。
Further, FIG. 5B illustrates the result of feature point tracking between the image acquired at the next time t = 2 and the image at the previous time (t = 1). .. At time t = 2, the image is blurred in the vertical direction as a result of the impact applied to the
また、図5(c)は、時刻t=2に取得した画像の画像ぶれを補正した上で、時刻(t=1)の画像との間での特徴点追跡の結果を図示したものである。 Further, FIG. 5C illustrates the result of feature point tracking with the image at time (t = 1) after correcting the image blur of the image acquired at time t = 2. ..
ステップS403では、衝撃振動情報取得部202が、ステップS402で取得したモーションベクトル群と、1つ前の時刻に算出したモーションベクトル群を比較し、移動体システム101に加わった衝撃の大きさと方向を解析する。具体的には、双方の時刻で追跡に成功した特徴点のモーションベクトルの差分ベクトルを算出し、その平均ベクトルを、該当時刻における衝撃ベクトル(衝撃の大きさと方向)として取得する。
In step S403, the impact vibration
(位置姿勢算出処理の詳細)
次に、S304に示した位置姿勢算出処理の詳細について説明する。本実施形態では、カメラ104で取得された画像データに基づき移動体システム101の位置姿勢を算出する。カメラ104は移動体システム101上に固定されており、その相対的な位置姿勢は既知でありRAM113に保持され、カメラ104の位置姿勢値と移動体システム101の位置姿勢値は相互に変換可能である。説明の簡便のため、以降の説明ではカメラ104と移動体システム101の位置姿勢値は同一であるものとする。
(Details of position / attitude calculation process)
Next, the details of the position / orientation calculation process shown in S304 will be described. In the present embodiment, the position and orientation of the moving
図6は、本実施形態における位置姿勢算出処理の流れを示すフローチャートである。 FIG. 6 is a flowchart showing the flow of the position / orientation calculation process in the present embodiment.
ステップS601は、位置姿勢算出にあたり画像ぶれ補正が必要か否かの分岐である。ここでは、ステップS403で取得した衝撃ベクトルの大きさが事前に設定された閾値以上である場合、画像の補正が必要であると判断し、ステップS602の処理へ進む。衝撃ベクトルの大きさの閾値は、移動体が坂道を上るときやカーブを曲がるときには画像の補正は不要と判断されるように設定する。画像の補正が不要な場合、処理はS604へ進む。ここで判定の方法は衝撃ベクトルの大きさに限定されず、例えば追跡に成功した特徴点の数または割合が閾値以下である場合に画像の補正を必要とするような判定を行うことも可能である。 Step S601 is a branch of whether or not image blur correction is necessary for calculating the position and orientation. Here, if the magnitude of the impact vector acquired in step S403 is equal to or greater than a preset threshold value, it is determined that image correction is necessary, and the process proceeds to step S602. The threshold value of the magnitude of the impact vector is set so that it is judged that the image correction is unnecessary when the moving object goes up a slope or turns a curve. If no image correction is required, the process proceeds to S604. Here, the judgment method is not limited to the size of the impact vector, and for example, it is possible to make a judgment that the image needs to be corrected when the number or ratio of the feature points that have been successfully tracked is less than the threshold value. be.
ステップS602では、衝撃振動情報取得部202が、ステップS403で取得した衝撃ベクトルに基づき、最新の画像に対し画像ぶれの回復処理を行う。具体的には、まず取得した衝撃ベクトルを画像の縦方向成分と横方向成分とに分解し、各々の方向の成分の大きさを算出する。続いて、既知の2次元フーリエ変換を用いて画像を空間周波数成分に変換する。その後、各空間周波数について、縦方向の周波数と衝撃ベクトルの縦方向成分の大きさとを入力とする、予め用意した2次元ルックアップテーブルに基づいて回復係数を取得し、それを積算する。これにより、縦方向の振動に起因するぼけによって低減した周波数成分の回復を行う。横方向についても同様に周波数成分の回復を行う。最後に、周波数成分を回復した空間周波数成分画像に2次元逆フーリエ変換を行い、周波数成分を回復した輝度画像を取得する。
In step S602, the impact vibration
ステップS603では、位置姿勢取得部203がステップS602で補正後の画像を使用して、再度、2つの画像間の特徴点の検出と追跡処理を行う。
In step S603, the position /
ステップS604では、位置姿勢取得部203が移動体システム101の現在位置姿勢の更新を行う。具体的には、位置姿勢取得部203は画像の補正が実施された場合は、ステップS603で、そうでない場合はステップS402での特徴点検出結果に基づき、移動体システム101の前時刻との位置姿勢差分を算出する。位置姿勢差分の算出は、具体的には、既知のバンドル調整処理を用いて行う。これは、特徴点追跡に成功した少なくとも8点以上の特徴点について、その空間中での三次元座標を仮定し、双方の画像への再投影結果と画像上での特徴点の検出位置の差(再投影誤差)が小さくなるように画像間の相対位置姿勢と特徴点の三次元座標を最適化する処理である。その際、ステレオカメラによるステレオ距離計測や過去の特徴点追跡結果から特徴点の三次元座標の推測が可能な場合は、それを三次元座標の初期値や固定値として用いることができる。
In step S604, the position /
ステップS605では、位置姿勢取得部203は前の時刻の位置姿勢にステップS604で算出した位置姿勢差分を加算し、最新の時刻の位置姿勢値を算出する。
In step S605, the position /
以上の処理により、位置姿勢計測に用いるカメラに衝撃が加わった場合においても、位置姿勢計測を安定して継続することができる。 By the above processing, even if an impact is applied to the camera used for the position / posture measurement, the position / posture measurement can be stably continued.
[第2の実施形態]
第1の実施形態では、位置姿勢計測用のセンサーとしてカメラを単体で使用し、カメラ画像から取得された衝撃情報に応じた位置姿勢計測処理を行う例について説明した。本実施形態では、複数のセンサーを組み合わせて位置姿勢計測処理を行う例について説明する。
[Second Embodiment]
In the first embodiment, an example in which a camera is used alone as a sensor for position / posture measurement and position / posture measurement processing is performed according to impact information acquired from a camera image has been described. In this embodiment, an example of performing position / posture measurement processing by combining a plurality of sensors will be described.
本実施形態では、位置姿勢計測用のセンサーとして、カメラに加えIMUやタイヤの駆動量を用いた位置姿勢計測を行う。これらの複数の計測方法は、その原理に応じて振動や衝撃に対する耐性が異なる。 In the present embodiment, as a sensor for position / attitude measurement, position / attitude measurement is performed using the drive amount of the IMU and the tire in addition to the camera. These plurality of measurement methods have different resistance to vibration and impact depending on the principle.
例えばある種のIMUに用いられる静電容量式の加速度センサーは、想定以上の強い加速度や継続的な振動が加わった場合に精度が低下する。タイヤの駆動量を積分して移動量を求める方法は、平面上の移動を仮定するため地面の凹凸によって精度が低下し、特に段差などの縦方向の衝撃によってタイヤが浮いて空転した場合には正しい移動量の算出が困難になる。また、横方向の強い衝撃によってタイヤがスリップした場合にも正しい移動量の算出が困難になるが、このとき、衝撃の強さと移動量の推定精度の低下度合いの関係は、縦方向と横方向で差が生じる。カメラは第一の実施形態で説明したように画像ぶれが発生するものの、衝撃や振動の影響を直接受けるような機械的構造を持たないため、相対的には振動や衝撃に強いセンサーと言える。 For example, the capacitive accelerometer used in some IMUs has reduced accuracy when a stronger acceleration or continuous vibration than expected is applied. The method of integrating the drive amount of the tire to obtain the movement amount is assumed to move on a flat surface, so the accuracy decreases due to the unevenness of the ground, especially when the tire floats and slips due to a vertical impact such as a step. It becomes difficult to calculate the correct amount of movement. In addition, it is difficult to calculate the correct amount of movement even when the tire slips due to a strong impact in the horizontal direction. At this time, the relationship between the strength of the impact and the degree of decrease in the estimation accuracy of the amount of movement is in the vertical and horizontal directions. Makes a difference. Although the camera causes image blur as described in the first embodiment, it does not have a mechanical structure that is directly affected by shock or vibration, so that it can be said to be a sensor that is relatively resistant to vibration or shock.
本実施形態では、振動や衝撃の発生状況に応じて位置姿勢計測精度が高いと推定されるセンサーの寄与度を相対的に高く設定し、複数のセンサーによる位置姿勢計測の結果を寄与度に応じて合成することにより、高精度な位置姿勢計測を実現する。 In the present embodiment, the contribution of the sensor estimated to have high position / posture measurement accuracy is set relatively high according to the occurrence of vibration or impact, and the result of the position / posture measurement by a plurality of sensors is set according to the contribution. Highly accurate position and orientation measurement is realized by synthesizing.
(移動体システム、位置姿勢計測システムの構成)
図7は、本実施形態に係る移動体システム701の構成の一例を示す図である。本実施形態の位置姿勢計測システム702は、情報処理装置103、カメラ104、IMU704で構成されている。情報処理装置103のハードウェア構成、およびカメラ104については第一の実施形態と同様であるため、説明を省略する。本実施形態では、カメラ104、制御装置106、IMU704の3つが位置姿勢計測用のセンサーとして機能する。
(Structure of mobile system and position / posture measurement system)
FIG. 7 is a diagram showing an example of the configuration of the
IMU704は移動体システム701上に固定された慣性センサーである。IMU704はカメラ104と同様に、汎用I/F115を通じて情報処理装置103に接続されている。IMU704は移動体システム701に加わる三次元の加速度と角速度を取得する。一方で閾値以上の強い加速度が加わった場合には加速度と角速度の取得精度が低下する特性を持つ。
The IMU704 is an inertial sensor fixed on the
説明の簡便のため、IMU704は移動体システム701の中心に取り付けられているものとし、以降の説明では移動体システム701の位置姿勢や加速度・角速度と、IMU704の位置姿勢や加速度・角速度は同一であるものとする。
For the sake of simplicity of explanation, it is assumed that the
また、カメラ104とIMU704はともに移動体システム701上に固定されており、その相対的な位置姿勢は既知であり、RAM113に保持されている。従って、カメラ104の位置姿勢情報とIMU704の位置姿勢情報(すなわち、移動体システム701の位置姿勢情報)は相互に変換が可能である。説明の簡便のため、以降の説明では、カメラ104を用いて計測された位置姿勢情報は、IMU704の位置姿勢情報に変換済みの値を示しているものとする。
Further, both the
本実施形態に係る情報処理装置103の機能構成についても、図2に示した第1の実施形態の構成と同様のため、その詳細な説明は省略する。また、位置姿勢計測処理の基本的な流れ及び、衝撃振動情報取得処理の詳細についても、図3および図4に示した第1の実施形態と同様のため、その詳細な説明は省略する。
Since the functional configuration of the
(位置姿勢算出処理の詳細)
以下、本実施形態における、S304に示した位置姿勢算出処理の詳細について説明する。本実施形態では、カメラ104、制御装置106、IMU704から取得されたデータに基づき移動体システム701の位置姿勢を算出する。
(Details of position / attitude calculation process)
Hereinafter, the details of the position / orientation calculation process shown in S304 in the present embodiment will be described. In the present embodiment, the position and orientation of the
図8は、本実施形態における位置姿勢算出処理の流れを示すフローチャートである。また、ステップS801からステップS803の処理は、各センサーについて同期的に並列実行される処理である。 FIG. 8 is a flowchart showing the flow of the position / orientation calculation process in the present embodiment. Further, the processes of steps S801 to S803 are processes that are synchronously executed in parallel for each sensor.
ステップS801では、位置姿勢取得部203が第一の実施形態と同様に、カメラ104に基づく前の時刻との位置姿勢差分値を算出する。この処理は、第一の実施形態で説明したステップS601からS604の処理と同様であるため、詳細な説明を省略する。
In step S801, the position /
ステップS802では、位置姿勢取得部203が、カメラ104が1つ前の画像を取得してから最新の画像を取得するまでの間に得られた加速度と角速度の値を積分し、IMUに基づく位置姿勢差分値を算出する。
In step S802, the position /
ステップS803では、位置姿勢取得部203が、カメラ104が1つ前の画像を取得してから最新の画像を取得するまでの間に得られたタイヤの駆動量を積分し、タイヤの駆動量に基づいた位置姿勢差分値を算出する。この位置姿勢差分値は、移動体システム101が平面上を走行している仮定で算出される。従ってこの位置姿勢差分値は床など平面に相当するxy平面上での移動ベクトルと、平面に垂直なz軸に対する回転量とで構成される。
In step S803, the position /
ステップS804では、位置姿勢取得部203が、各センサーに基づいて算出された位置姿勢差分値を合成する際に使用する各センサーの寄与度を決定する。寄与度の算出は、衝撃振動情報取得部203によって算出された衝撃ベクトルに基づいて決定される。具体的には、取得した衝撃ベクトルを画像の縦方向成分と横方向成分とに分解し、各々の方向の成分の大きさと、事前にセンサーごとに設定された算出方法に基づいて寄与度の値を決定する。
In step S804, the position /
各センサーの寄与度の算出方法は、各軸の衝撃や振動の大きさを引数とした所定の関数を使用する。本実施形態では、カメラ104は他のセンサーより振動や衝撃に強いと考えられることから、位置姿勢計測の基準となるセンサーとし、カメラ104の寄与度は固定で1とする。
The method of calculating the contribution of each sensor uses a predetermined function with the magnitude of impact or vibration of each axis as an argument. In the present embodiment, since the
IMU704は、カメラ104の画像から取得される振動や衝撃の方向とは無関係に、所定の強さ以上の加速度が加わった場合に精度が低下する。従って、IMU704の寄与度は衝撃ベクトルの大きさのみを参照し、衝撃ベクトルの大きさが閾値α1以下では寄与度1、閾値α2以上では寄与度0、閾値α1とα2の間では線形に減少するような関数を使用する。閾値α1とα2は使用するIMUの耐振動性能に応じて定義した値である。
The accuracy of the
タイヤの駆動量に基づく位置姿勢差分計測は、衝撃ベクトルの縦方向成分と横方向成分のそれぞれについて寄与度を算出し、それを積算する方法をとる。縦方向については、地面の凹凸によって精度が低下し、特に衝撃によってタイヤが空転した場合に大きく精度が低下する。そのため、衝撃ベクトルの縦方向成分が0である場合には寄与度1とし、閾値β1以上である場合は寄与度0とし、0と閾値βの間では線形に減少するような関数を使用する。閾値βは、移動体システム101に垂直方向に重力加速度1G相当の衝撃が加わった場合の衝撃ベクトルの縦方向成分の大きさとして定義した値である。
The position-posture difference measurement based on the driving amount of the tire takes a method of calculating the contribution degree for each of the vertical component and the horizontal component of the impact vector and integrating them. In the vertical direction, the accuracy is reduced due to the unevenness of the ground, and especially when the tire slips due to an impact, the accuracy is greatly reduced. Therefore, when the vertical component of the impact vector is 0, the contribution degree is 1, and when the threshold value β1 or more, the contribution degree is 0, and a function that decreases linearly between 0 and the threshold value β is used. The threshold value β is a value defined as the magnitude of the vertical component of the impact vector when an impact equivalent to a gravitational acceleration of 1 G is applied to the moving
横方向については、タイヤがスリップしない範囲での衝撃は駆動量に基づく位置姿勢計測に大きな悪影響を生じないと考えられる一方、スリップが生じた場合は正確な位置姿勢差分の算出は不可能となる。そのため、衝撃ベクトルの横方向成分が閾値γ未満の場合は寄与度を1とし、閾値γ以上の場合は0とする。閾値γは、タイヤと想定される地面との間の摩擦係数に基づいて定義した値である。 In the lateral direction, it is considered that the impact in the range where the tire does not slip does not have a great adverse effect on the position / attitude measurement based on the driving amount, but when slip occurs, it becomes impossible to calculate the accurate position / attitude difference. .. Therefore, when the lateral component of the impact vector is less than the threshold value γ, the contribution degree is set to 1, and when it is equal to or more than the threshold value, it is set to 0. The threshold value γ is a value defined based on the coefficient of friction between the tire and the assumed ground.
ステップS805では、位置姿勢取得部203が、ステップS801からS803で算出した各センサーに基づく位置姿勢差分値と、ステップS804で算出した各センサーの寄与度に基づき、移動体システム701の位置姿勢差分値を算出する。基本的には、各センサーで算出した位置姿勢差分をx、y、z軸の位置差分とx軸、y軸、z軸に対する回転量に分離し、各々について各センサーの寄与度を重み値とした加重平均値を算出する。ここで、タイヤの駆動量に基づいた位置姿勢差分値はz軸方向の位置差分とx軸、y軸に対する回転量の情報を持たないため、それらの重みは0として扱う。
In step S805, the position /
ステップS806では、位置姿勢取得部203は前の時刻の位置姿勢にステップS805で算出した位置姿勢差分を加算し、最新の時刻の位置姿勢値を算出し、位置姿勢を決定する。
In step S806, the position /
以上の処理により、複数のセンサーを組み合わせて位置姿勢計測処理を行う場合においても、衝撃や振動による精度の低下を抑制して位置姿勢計測を安定して行うことができる。 By the above processing, even when the position / orientation measurement processing is performed by combining a plurality of sensors, it is possible to suppress the decrease in accuracy due to impact or vibration and perform the position / attitude measurement in a stable manner.
[変形例]
第一の実施形態ではカメラを使用した位置姿勢計測方法として、複数の画像の特徴点追跡結果から算出した位置姿勢差分を初期位置姿勢値に加算していく方法を例にとり説明したが、カメラを使用した位置姿勢計測方法はこれに限定されない。例えばSLAM(Simultaneous Localization and Mapping)やSVO(Semi-Direct Monocular Visual Odometry)といった既知の位置姿勢計測方法を利用しても良い。
[Modification example]
In the first embodiment, as a position / posture measurement method using a camera, a method of adding the position / posture difference calculated from the feature point tracking results of a plurality of images to the initial position / posture value has been described as an example. The position / attitude measurement method used is not limited to this. For example, a known position / orientation measuring method such as SLAM (Simultaneus Localization and Mapping) or SVO (Semi-Direct Monocular Visual Odometry) may be used.
SLAMを用いる場合について、具体的に説明する。移動体システムは、環境の地図情報として、カメラを載せた移動体が走行する環境における物体の形状特徴を示す3次元点群の情報を保持する。3次元点群の情報は、画像特徴点の世界座標における3次元座標のことである。環境に存在する物体の形状を撮像した画像をもとに、あらかじめ環境の地図情報が生成され、記憶装置に保持されている。位置姿勢取得部203は、入力画像と地図情報とに基づいて、入力画像上の特徴点(形状を示すエッジ特徴)の位置と、入力画像を撮像したときのカメラの位置姿勢を用いて地図上の特徴点を入力画像上に投影したときの位置の差(再投影誤差)を最小化する。これによりカメラの位置姿勢を推定する。
The case of using SLAM will be specifically described. The moving body system holds information on a three-dimensional point cloud indicating the shape characteristics of an object in the environment in which the moving body on which the camera is mounted travels as map information of the environment. The information of the three-dimensional point cloud is the three-dimensional coordinates in the world coordinates of the image feature points. The map information of the environment is generated in advance based on the image obtained by capturing the shape of the object existing in the environment, and is stored in the storage device. Based on the input image and the map information, the position /
また、それらの手法を用いて位置姿勢計測と同時に移動体周囲の環境地図を作成するような環境地図作成システムについても、本発明の範疇である。 Further, an environmental map creation system that creates an environmental map around a moving body at the same time as measuring the position and orientation by using these methods is also within the scope of the present invention.
第二の実施形態ではカメラ、IMU、タイヤ駆動量のそれぞれのセンサーに基づく位置姿勢計測を行い、その結果を振動衝撃情報に基づいて合成する方法を説明したが、使用可能なセンサーはこれらに限定されない。例えばセンサーにLiDAR(Laser Imaging Detection and Ranging)を追加したり、一部を置き換えたりしても良い。一般にミラー回転式のLiDARは機械的な回転機構を持つため衝撃によって精度が低下し易く、振動や衝撃の発生時はカメラより低い寄与度を設定するのが良い。一方でMEMS(Micro Electro Mechanical Systems)式のLiDARは機械的な機構を持たず。カメラのような画像ぶれが小さいため、強い衝撃に対してはカメラより高い寄与度を設定する。 In the second embodiment, a method of measuring the position and posture based on the sensors of the camera, the IMU, and the tire drive amount and synthesizing the results based on the vibration impact information has been described, but the sensors that can be used are limited to these. Not done. For example, LiDAR (Laser Imaging Detection and Ranging) may be added to the sensor, or a part thereof may be replaced. Generally, since the mirror rotation type LiDAR has a mechanical rotation mechanism, the accuracy tends to decrease due to an impact, and it is better to set a lower contribution than the camera when vibration or an impact occurs. On the other hand, the MEMS (Micro Electro Electrical Systems) type LiDAR does not have a mechanical mechanism. Since the image blur is small like a camera, a higher contribution than the camera is set for a strong impact.
あるいは、GNSS(Global Navigation Satellite System)により取得した位置情報を利用したり、移動体の外に設置されたカメラ等のセンサーで移動体システムを観測した結果から算出した位置姿勢値を使用しても良い。例えば、走行中の移動体システムを捉えた監視カメラの映像をサーバーマシン上で処理し、映像中で画像認識された移動体システムの位置姿勢情報算出し、通信部を通じて移動体システムに伝達する方法が考えられる。 Alternatively, the position information acquired by GNSS (Global Navigation Satellite System) can be used, or the position / attitude value calculated from the result of observing the moving body system with a sensor such as a camera installed outside the moving body can be used. good. For example, a method of processing the image of a surveillance camera that captures a moving moving body system on a server machine, calculating the position and orientation information of the moving body system recognized as an image in the image, and transmitting it to the moving body system through a communication unit. Can be considered.
第二の実施形態では所定の数式に基づいて各センサーの寄与度の算出を行った。しかしながら、寄与度の算出方法はこれに限らず、取得した振動や衝撃の情報から推定される位置姿勢計測精度が高いセンサーに相対的に高い寄与度を設定する方法であれば良い。例えば衝撃ベクトルの縦方向成分と横方向成分の大きさを入力とした二次元ルックアップテーブルを使用しても良い。あるいは該当の時刻に取得された衝撃ベクトルのみでなく、直近の各時刻における衝撃ベクトルの履歴に基づいて寄与度を決定してもよい。 In the second embodiment, the contribution of each sensor was calculated based on a predetermined mathematical formula. However, the method of calculating the contribution is not limited to this, and any method may be used as long as it is a method of setting a relatively high contribution to a sensor having a high position / attitude measurement accuracy estimated from the acquired vibration and impact information. For example, a two-dimensional look-up table may be used in which the magnitudes of the vertical component and the horizontal component of the impact vector are input. Alternatively, the contribution may be determined based on the history of the impact vector at each of the latest times as well as the impact vector acquired at the corresponding time.
あるいは、振動や衝撃の情報以外の情報を加味して寄与度を決定しても良い。例えば、タイヤの駆動量やGNSSに基づく位置姿勢計測は理想状態においても他のセンサーより相対的に精度が低いと考え、寄与度をより低く設定する処理を行っても良い。あるいは、前輪後輪を持つような車両ではステアリング操作中にタイヤに一定の滑りが発生することから、移動体をカーブさせる制御を行っている間はタイヤの駆動量に基づく位置姿勢計測の寄与度を下げる処理を行っても良い。 Alternatively, the contribution may be determined by adding information other than vibration and impact information. For example, it may be considered that the accuracy of the position / posture measurement based on the tire drive amount and the GNSS is relatively lower than that of other sensors even in the ideal state, and a process of setting the contribution to a lower degree may be performed. Alternatively, in a vehicle having front wheels and rear wheels, a certain amount of slippage occurs in the tires during steering operation, so the contribution of position / attitude measurement based on the driving amount of the tires is performed while controlling the curve of the moving body. You may perform the process of lowering.
第一の実施形態および第二の実施形態では衝撃振動取得手段としてカメラ画像の特徴点追跡結果を利用したが、本発明に利用可能な衝撃振動取得手段はこれに限定されない。また、第一の実施形態および第二の実施形態では衝撃や振動の大きさに加えて方向を2軸で取得したが、衝撃や振動の方向の取得は必須ではなく、また取得する場合の形式もこれに限定されない。例えばIMUから加速度の値を3軸で取得しても良い。あるいは、衝撃や振動の大きさのみを取得しても良い。 In the first embodiment and the second embodiment, the feature point tracking result of the camera image is used as the impact vibration acquisition means, but the impact vibration acquisition means that can be used in the present invention is not limited to this. Further, in the first embodiment and the second embodiment, the direction is acquired in two axes in addition to the magnitude of the impact and the vibration, but the acquisition of the direction of the impact and the vibration is not indispensable, and the form in which the direction is acquired. Is not limited to this. For example, the acceleration value may be acquired from the IMU on three axes. Alternatively, only the magnitude of impact or vibration may be acquired.
また、衝撃や振動情報の取得は移動体システム上のセンサーの情報以外を利用しても良い。例えば、走行中の移動体システムを観測可能な位置から捉えた監視カメラなどの外部装置の映像をサーバーマシン上で処理し、映像中で画像認識された移動体システムの揺動具合を解析し、通信部を通じて移動体システムに伝達しても良い。振動具合は、映像を解析して得られる特徴点を追跡することにより得られる。特徴点の追跡方法は、ステップS402で説明した方法を用いることができる。あるいは、情報処理装置上に記憶された電子的な地図データから、位置姿勢情報に紐づいて予測される振動や衝撃の大きさを取得しても良い。具体的には、地図上に記録された段差や悪路の位置情報を取得し、その箇所では所定の大きさの衝撃や振動が発生するものとして位置姿勢計測を行う。 Further, the acquisition of shock and vibration information may be performed by using information other than the information of the sensor on the mobile system. For example, the image of an external device such as a surveillance camera that captures the moving mobile system from an observable position is processed on the server machine, and the swing condition of the mobile system recognized as an image in the image is analyzed. It may be transmitted to the mobile system through the communication unit. The vibration condition is obtained by tracking the feature points obtained by analyzing the image. As the feature point tracking method, the method described in step S402 can be used. Alternatively, the magnitude of vibration or impact predicted in association with the position / orientation information may be acquired from the electronic map data stored in the information processing device. Specifically, the position information of the step or the rough road recorded on the map is acquired, and the position / posture measurement is performed assuming that an impact or vibration of a predetermined magnitude is generated at that location.
第一の実施形態のように画像に対しぶれ補正処理を行う場合で、3軸の衝撃や振動の情報を取得した場合、3軸の情報を画像平面上に投影して2軸の衝撃や振動の情報に変換することで、第一の実施形態と同様にぶれ補正処理を実施することができる。あるいは衝撃や振動の大きさのみの情報を取得した場合、画像上の方向の区別をせずにぶれ補正処理を行う。 When blur correction processing is performed on an image as in the first embodiment, when information on 3-axis impact or vibration is acquired, information on 3-axis is projected on an image plane and 2-axis impact or vibration is performed. By converting to the information of the above, the blur correction process can be carried out in the same manner as in the first embodiment. Alternatively, when information on only the magnitude of impact or vibration is acquired, blur correction processing is performed without distinguishing the direction on the image.
また第二の実施形態のように振動や衝撃の情報に応じて各センサーの寄与度の設定を行う場合では、取得した振動や衝撃の情報の軸数に応じた関数やルックアップテーブルを使用して寄与度を算出して良い。あるいはより少ない軸数に変換した振動や衝撃の情報に基づいて寄与度を算出して良い。 When setting the contribution of each sensor according to the vibration or impact information as in the second embodiment, a function or look-up table according to the number of axes of the acquired vibration or impact information is used. The contribution may be calculated. Alternatively, the contribution may be calculated based on the vibration or impact information converted to a smaller number of axes.
第一の実施形態および第二の実施形態では車輪部として複数のタイヤを具備した移動体システムを例にとり説明したが、移動体システムの車輪部はこれに限定されない。例えばマルチコプターのような飛行物体であっても良いし、複数の脚部を持つ歩行型の移動体であってもよい。また、ユーザーが搭乗し直接操作できるような有人の移動体であっても良い。さらには、事前に設定したルート上を自律走行する機能を備えた移動体であってもよい。 In the first embodiment and the second embodiment, the moving body system including a plurality of tires as the wheel parts has been described as an example, but the wheel parts of the moving body system are not limited thereto. For example, it may be a flying object such as a multicopter, or it may be a walking object having a plurality of legs. Further, it may be a manned mobile body that the user can board and operate directly. Further, it may be a moving body having a function of autonomously traveling on a preset route.
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピューターにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
101 移動体システム
102 位置姿勢計測システム
103 情報処理装置
104 カメラ
105 通信部
106 制御装置
107 車輪部
201 センサー入力情報取得部
202 衝撃振動情報取得部
203 位置姿勢取得部
101
Claims (10)
前記移動体の振動によって前記センサーが受ける振動の大きさと方向を含む振動情報を取得する振動情報取得手段と、
前記振動情報を用いて補正した補正後の入力情報に基づいて、前記移動体の位置姿勢を取得する位置姿勢取得手段と、を有することを特徴とする情報処理装置。 Input information acquisition means for acquiring input information from sensors mounted on moving objects, and
A vibration information acquisition means for acquiring vibration information including the magnitude and direction of the vibration received by the sensor due to the vibration of the moving body, and a vibration information acquisition means.
An information processing apparatus comprising: a position / posture acquisition means for acquiring the position / posture of the moving body based on the corrected input information corrected by using the vibration information.
前記振動情報取得手段は、前記画像情報から得られる特徴点を追跡することにより、前記振動情報を取得することを特徴とする請求項1または2に記載の情報処理装置。 The input information acquisition means acquires image information from an image pickup sensor mounted on the moving body, and obtains image information.
The information processing apparatus according to claim 1 or 2, wherein the vibration information acquisition means acquires the vibration information by tracking feature points obtained from the image information.
前記振動情報取得手段は、前記地図情報に含まれる環境の情報に基づいて、前記振動情報を取得することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。 Further having a means for acquiring map information of the environment in which the moving body moves,
The information processing apparatus according to any one of claims 1 to 5, wherein the vibration information acquisition means acquires the vibration information based on the environmental information included in the map information.
前記移動体が受ける振動の大きさと方向を含む振動情報を取得する振動情報取得手段と、
前記振動情報に基づいて、前記入力情報それぞれを用いて取得した前記移動体の位置姿勢に重みを付けて前記移動体の位置姿勢を決定する位置姿勢決定手段と、を有することを特徴とする情報処理装置。 Input information acquisition means for acquiring input information from each of multiple sensors mounted on the moving object,
Vibration information acquisition means for acquiring vibration information including the magnitude and direction of vibration received by the moving body, and
Information characterized by having a position / posture determining means for determining the position / posture of the moving body by weighting the position / posture of the moving body acquired by using each of the input information based on the vibration information. Processing equipment.
前記移動体の振動によって前記センサーが受ける振動の大きさと方向を含む振動情報を取得する振動情報取得工程と、
前記振動情報を用いて補正した補正後の入力情報に基づいて、前記移動体の位置姿勢を取得する位置姿勢取得工程と、を有することを特徴とする情報処理方法。 The input information acquisition process to acquire the input information from the sensor mounted on the moving body, and
A vibration information acquisition process for acquiring vibration information including the magnitude and direction of vibration received by the sensor due to the vibration of the moving body, and a vibration information acquisition process.
An information processing method comprising: a position / posture acquisition step of acquiring the position / posture of the moving body based on the corrected input information corrected by using the vibration information.
前記移動体の振動によって前記センサーが受ける振動の大きさと方向を含む振動情報を取得する振動情報取得工程と、
前記振動情報に基づいて、前記入力情報それぞれを用いて取得した前記移動体の位置姿勢に重みを付けて前記移動体の位置姿勢を決定する位置姿勢決定工程と、を有することを特徴とする情報処理方法。 Input information acquisition process to acquire input information from each of multiple sensors mounted on the moving body,
A vibration information acquisition process for acquiring vibration information including the magnitude and direction of vibration received by the sensor due to the vibration of the moving body, and a vibration information acquisition process.
Information characterized by having a position / posture determination step of weighting the position / posture of the moving body acquired by using each of the input information based on the vibration information to determine the position / posture of the moving body. Processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020204920A JP2022092236A (en) | 2020-12-10 | 2020-12-10 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020204920A JP2022092236A (en) | 2020-12-10 | 2020-12-10 | Information processing apparatus, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022092236A true JP2022092236A (en) | 2022-06-22 |
Family
ID=82068034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020204920A Pending JP2022092236A (en) | 2020-12-10 | 2020-12-10 | Information processing apparatus, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022092236A (en) |
-
2020
- 2020-12-10 JP JP2020204920A patent/JP2022092236A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10133278B2 (en) | Apparatus of controlling movement of mobile robot mounted with wide angle camera and method thereof | |
KR101776622B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
US10762643B2 (en) | Method for evaluating image data of a vehicle camera | |
CN109885080B (en) | Autonomous control system and autonomous control method | |
US8564657B2 (en) | Object motion detection system based on combining 3D warping techniques and a proper object motion detection | |
KR101776621B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
CN105931275A (en) | Monocular and IMU fused stable motion tracking method and device based on mobile terminal | |
KR101439921B1 (en) | Slam system for mobile robot based on vision sensor data and motion sensor data fusion | |
EP1975878B1 (en) | Projective transformation convergence calculation method | |
JP5023186B2 (en) | Object motion detection system based on combination of 3D warping technique and proper object motion (POM) detection | |
CN110865650B (en) | Unmanned aerial vehicle pose self-adaptive estimation method based on active vision | |
US20190347808A1 (en) | Monocular Visual Odometry: Speed And Yaw Rate Of Vehicle From Rear-View Camera | |
US10846541B2 (en) | Systems and methods for classifying road features | |
WO2015025897A1 (en) | Object estimation device and object estimation method | |
CN108027230B (en) | Information processing apparatus, information processing method, and program | |
KR102219843B1 (en) | Estimating location method and apparatus for autonomous driving | |
WO2020137110A1 (en) | Movement amount estimation device | |
KR20160120467A (en) | Azimuth correction apparatus and method of 2-dimensional radar for vehicle | |
CN113223161A (en) | Robust panoramic SLAM system and method based on IMU and wheel speed meter tight coupling | |
EP3227634B1 (en) | Method and system for estimating relative angle between headings | |
Park et al. | A novel line of sight control system for a robot vision tracking system, using vision feedback and motion-disturbance feedforward compensation | |
KR102493994B1 (en) | Digital image recorder for automotive with image stabilization function | |
JP2022092236A (en) | Information processing apparatus, information processing method, and program | |
JP2020064029A (en) | Mobile body controller | |
US11461928B2 (en) | Location estimation apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231208 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |