JP2022075500A - Information processing device, information processing method and program - Google Patents
Information processing device, information processing method and program Download PDFInfo
- Publication number
- JP2022075500A JP2022075500A JP2021135585A JP2021135585A JP2022075500A JP 2022075500 A JP2022075500 A JP 2022075500A JP 2021135585 A JP2021135585 A JP 2021135585A JP 2021135585 A JP2021135585 A JP 2021135585A JP 2022075500 A JP2022075500 A JP 2022075500A
- Authority
- JP
- Japan
- Prior art keywords
- position information
- information
- difference
- moving body
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 45
- 238000003672 processing method Methods 0.000 title claims 4
- 238000000034 method Methods 0.000 claims description 75
- 238000012545 processing Methods 0.000 claims description 25
- 238000012937 correction Methods 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 17
- 238000013459 approach Methods 0.000 claims description 7
- 230000001360 synchronised effect Effects 0.000 claims description 6
- 238000005259 measurement Methods 0.000 abstract description 18
- 230000036544 posture Effects 0.000 description 84
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000010354 integration Effects 0.000 description 5
- 238000006073 displacement reaction Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000013519 translation Methods 0.000 description 3
- JAWMENYCRQKKJY-UHFFFAOYSA-N [3-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-ylmethyl)-1-oxa-2,8-diazaspiro[4.5]dec-2-en-8-yl]-[2-[[3-(trifluoromethoxy)phenyl]methylamino]pyrimidin-5-yl]methanone Chemical compound N1N=NC=2CN(CCC=21)CC1=NOC2(C1)CCN(CC2)C(=O)C=1C=NC(=NC=1)NCC1=CC(=CC=C1)OC(F)(F)F JAWMENYCRQKKJY-UHFFFAOYSA-N 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 229940050561 matrix product Drugs 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Abstract
Description
本発明は、計測情報から移動体の位置を推定する技術に関する。 The present invention relates to a technique for estimating the position of a moving body from measurement information.
環境に存在する物体とセンサとの距離を計測するセンサを搭載した移動体において、センサから得られた計測情報に基づき移動体の位置を推定する技術がある。移動体に複数のセンサを搭載し、各センサで推定した移動体の位置を、状況に応じて切り替えて使用することで、より高精度に移動体の位置を推定できる。この時、各センサが推定した位置はセンサごとに独立して推定した位置であるため、移動体の移動制御に使用するにはセンサ間で位置の整合性を取る、すなわち座標系を統一する必要がある。非特許文献1では、カメラとレーザセンサの配置関係を事前に計測しておくことで、カメラとレーザにより計測された位置姿勢を同一の座標系で扱えるようにしている。
In a moving body equipped with a sensor that measures the distance between an object existing in the environment and the sensor, there is a technique for estimating the position of the moving body based on the measurement information obtained from the sensor. By mounting a plurality of sensors on the moving body and switching the position of the moving body estimated by each sensor according to the situation, the position of the moving body can be estimated with higher accuracy. At this time, since the position estimated by each sensor is the position estimated independently for each sensor, it is necessary to make the positions consistent among the sensors, that is, to unify the coordinate system in order to use it for the movement control of the moving body. There is. In
しかし、非特許文献1の方法でセンサの配置関係を校正したとしても,各センサの計測誤差により位置姿勢の差異が発生する。実際には存在しない差異を解消しようとして、移動体の移動が不安定になることがある。本発明は、上記の課題に鑑みてなされたものであり、2つ以上のセンサの計測値から推定した位置姿勢を切り替えて使用する時に、移動体を安定して移動させるようにすることを目的とする。
However, even if the arrangement relationship of the sensors is calibrated by the method of
本発明に係る情報処理装置は以下の構成を備える。即ち、移動体に固定された第1のセンサからの入力情報に基づいて推定した前記移動体の第1の位置情報を取得する第1の位置情報の取得手段と、前記移動体に固定された第2のセンサからの入力情報に基づいて推定した前記移動体の第2の位置情報を取得する第2の位置情報の取得手段と、同一の座標系における前記第1の位置情報と前記第2の位置情報とのうち、前記移動体の移動を制御する位置情報を選択する選択手段と、前記第1の位置情報と該第1の位置情報と同期した前記第2の位置情報との同一の座標系における差分情報を取得する差分取得手段と、前記選択手段が選択する位置情報が切り替わった場合、前記差分取得手段で取得した差分情報を用いて、前記選択手段により選択した位置情報を補正する補正手段。 The information processing apparatus according to the present invention has the following configurations. That is, the first position information acquisition means for acquiring the first position information of the moving body estimated based on the input information from the first sensor fixed to the moving body, and the moving body fixed to the moving body. The second position information acquisition means for acquiring the second position information of the moving body estimated based on the input information from the second sensor, the first position information in the same coordinate system, and the second position information. Of the position information of the above, the selection means for selecting the position information for controlling the movement of the moving body and the same of the first position information and the second position information synchronized with the first position information. When the difference acquisition means for acquiring the difference information in the coordinate system and the position information selected by the selection means are switched, the position information selected by the selection means is corrected by using the difference information acquired by the difference acquisition means. Correction means.
本発明によれば、2つ以上のセンサからの計測値に基づき推定した位置姿勢を切り替えて使用する時に、移動体を安定して移動させることができる。 According to the present invention, the moving body can be stably moved when the position / posture estimated based on the measured values from two or more sensors is switched and used.
<実施形態1>
本実施形態では、移動体に画像センサと距離センサを搭載した移動体を含む情報処理システムについて説明する。ここでは、移動体は具体的には自動搬送車(Automated Guided Vehicle、または、Self Driving Vehicle)であるとする。本システムは、移動体の位置姿勢を、画像センサおよび距離センサからの入力情報に基づき2系統推定する。常に2系統の位置姿勢を推定できるとは限らず、一方の位置姿勢の推定に失敗した場合には、もう一方の位置姿勢に切り替えて移動体の移動制御に使用する。1系統の位置姿勢推定結果を入力すれば、移動体の移動制御は可能である。本実施形態においては、移動体の移動制御には、主に画像センサから推定した位置姿勢を優先して使用し、画像センサからの入力情報により位置姿勢を推定できない時に、距離センサからの入力情報により推定した位置姿勢を使用する。もちろん、逆に、距離センサによって推定した位置姿勢を優先することもできる。センサによって推定する位置姿勢の信頼度などにより、どちらのセンサによって推定した位置姿勢を優先するか予め決めておく。本実施形態においては、画像センサによって推定した位置姿勢を優先する。移動体が移動している最中に、位置姿勢推定結果を取得するセンサを、画像センサから距離センサへと切り替えると、取得した位置姿勢にずれが発生することがある。移動体が、切り替え前の位置姿勢に復帰しようとして急激な方向転換をするなど、予期せぬ挙動を招く可能性がある。そこで、本実施形態では、2つのセンサ間の位置姿勢の差分を取得しておき、例えば、切り替え時の差分に基づき切り替え時の位置姿勢を補正する方法を述べる。切り替え前の画像センサによって推定されていたはずの位置姿勢を、切り替え後の距離センサによって推定した位置姿勢と差分を使って求める。なお、画像センサと距離センサとの間の配置関係はあらかじめ求められ、その配置関係に基づき2系統の位置姿勢が移動体の移動制御に用いるために同一の座標系上の位置姿勢に変換してあるものとする。2系統の位置姿勢の座標系を両方変換することは必須ではなく、それぞれが同一の座標系における位置情報として取得できていればよい。
<
In this embodiment, an information processing system including a moving body in which an image sensor and a distance sensor are mounted on the moving body will be described. Here, it is assumed that the moving body is specifically an automated guided vehicle (Automated Guided Vehicle or Self Driving Vehicle). This system estimates the position and orientation of the moving body in two systems based on the input information from the image sensor and the distance sensor. It is not always possible to estimate the position and orientation of two systems, and if the estimation of one position and orientation fails, the position and orientation are switched to the other and used for movement control of the moving body. If the position / orientation estimation result of one system is input, the movement control of the moving body is possible. In the present embodiment, the position / posture estimated from the image sensor is mainly used for the movement control of the moving body, and the input information from the distance sensor is used when the position / posture cannot be estimated from the input information from the image sensor. Use the position and orientation estimated by. Of course, conversely, the position and orientation estimated by the distance sensor can be prioritized. It is decided in advance which sensor gives priority to the position / orientation estimated by the sensor, depending on the reliability of the position / orientation estimated by the sensor. In this embodiment, priority is given to the position and orientation estimated by the image sensor. If the sensor that acquires the position / orientation estimation result is switched from the image sensor to the distance sensor while the moving object is moving, the acquired position / attitude may be displaced. The moving object may cause unexpected behavior such as a sudden change of direction in an attempt to return to the position and posture before switching. Therefore, in the present embodiment, a method of acquiring the difference in position / posture between the two sensors and correcting the position / posture at the time of switching based on the difference at the time of switching will be described. The position and orientation that should have been estimated by the image sensor before switching is obtained by using the position and orientation estimated by the distance sensor after switching and the difference. The arrangement relationship between the image sensor and the distance sensor is obtained in advance, and based on the arrangement relationship, the position and orientation of the two systems are converted into the position and orientation on the same coordinate system in order to be used for the movement control of the moving body. Suppose there is. It is not essential to convert both of the coordinate systems of the two systems of position and orientation, and it is sufficient that each of them can be acquired as position information in the same coordinate system.
以下、添付の図面を参照して、本発明の好適な実施形態を説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
図1に、本実施形態における移動体のシステム構成図を示す。本実施形態における移動体10は、位置姿勢を推定するためのセンサとして画像センサ12および距離センサ13、情報処理装置11、移動体を移動制御する制御装置14から構成される。画像センサ12と距離センサ13とは、移動体に固定して取り付けられている。
FIG. 1 shows a system configuration diagram of a moving body according to the present embodiment. The
本実施形態における画像センサ12および距離センサ13からの入力情報により得られる位置姿勢の具体例を説明する。現実空間中に規定された任意の世界座標系におけるセンサの位置を表す3パラメータ(X、Y、Z)、およびセンサの姿勢を表す3パラメータ(Roll、Pitch、Yaw)を合わせた6パラメータのことである。
A specific example of the position and orientation obtained from the input information from the
図2は、本実施形態における情報処理装置11を備える移動体システムの構成例を示す図である。
FIG. 2 is a diagram showing a configuration example of a mobile system including the
情報処理装置11は、第1位置情報取得部111、第2位置情報取得部112、選択部113、差分取得部114、差分保持部115、補正部116から構成される。また、第1位置情報取得部111は第1推定部121に接続しており、第1推定部121は画像センサ12に接続している。第2位置情報取得部112は第2推定部131に接続しており、第2推定部131は距離センサ13に接続している。また、補正部116は制御装置14に接続している。
The
第1推定部121は、画像センサ12から得た入力情報に基づき位置情報を推定し、推定結果を位置情報として第1位置情報取得部111に出力する。画像センサ12は、例えばステレオカメラであり、入力情報として画像情報を取得する。第1推定部121は、画像内の特徴点についてステレオ計測を行い、特徴点の三次元位置情報を推定する。以降、ステレオ計測を行う前の、画像センサ12からの入力情報を便宜的に計測情報または計測値として説明する。
The
第2推定部131は、距離センサ13から得た入力情報に基づき位置情報を推定し、推定結果を位置情報として第2位置情報取得部112に出力する。距離センサ13は、環境に存在する物体とセンサとの距離を計測し、距離情報が入力情報として得られる。例えば、LiDARやToFセンサなどで実現される。以降、距離センサ13からの入力情報を便宜的に計測情報または計測値として説明する。
The
第1位置情報取得部111は、第1推定部121が入力した位置情報を取得し、位置情報を選択部113および差分取得部114に出力する。
The first position
第2位置情報取得部112は、第2推定部131が入力した位置情報を取得し、位置情報を選択部113および差分取得部114に出力する。
The second position
選択部113は、第1位置情報取得部111および第2位置情報取得部112が入力した位置情報のいずれかを選択し、選択結果および選択した位置情報を補正部116に出力する。
The
差分取得部114は、第1位置情報取得部111および第2位置情報取得部112が入力した位置情報から、2つの位置情報間の差分を取得し、差分情報として差分保持部115に出力する。第1位置情報取得部111および第2位置情報取得部112が入力した位置情報は同一の座標系の位置情報に変換されている。
The
差分保持部115は、差分取得部114が入力した差分情報を保持する。
The
補正部116は、選択部113が入力する位置情報を差分保持部115で保持する差分情報に基づいて補正する。補正した位置情報を制御装置14に出力する。
The
尚、移動体10が情報処理装置11を搭載することもできるし、クラウド上にある情報処理装置11が、移動体10の制御を行うこともできる。
The moving
図3は、情報処理装置11のハードウェア構成を示す図である。H11はCPUであり、システムバスH21に接続された各種デバイスの制御を行う。H12はROMであり、BIOSのプログラムやブートプログラムを記憶する。H13はRAMであり、CPUであるH11の主記憶装置として使用される。H14は外部メモリであり、情報処理装置11が処理するプログラムを格納する。入力部H15はキーボードやマウス、ロボットコントローラーであり、情報等の入力に係る処理を行う。表示部H16はH11からの指示に従って情報処理装置11の演算結果を表示装置に出力する。なお、表示装置は液晶表示装置やプロジェクタ、LEDインジケーターなど、種類は問わない。H17は通信インターフェイスであり、ネットワークを介して情報通信を行うものであり、通信インターフェイスはイーサネットでもよく、USBやシリアル通信、無線通信等種類は問わない。H17はI/Oであり、画像センサH18から画像データを、距離センサH19から距離データを入力する。なお、画像センサH18および距離センサH19とは前述した画像センサ12、距離センサ13のことである。H20は前述した制御装置14のことである。
FIG. 3 is a diagram showing a hardware configuration of the
尚、CPUはプログラムを実行することで各種の手段として機能することが可能である。なお、CPUと協調して動作するASICなどの制御回路がこれらの手段として機能してもよい。また、CPUと画像処理装置の動作を制御する制御回路との協調によってこれらの手段が実現されてもよい。また、CPUは単一のものである必要はなく、複数であってもよい。この場合、複数のCPUは分散して処理を実行することが可能である。また、複数のCPUは単一のコンピュータに配置されていてもよいし、物理的に異なる複数のコンピュータに配置されていてもよい。なお、CPUがプログラムを実行することで実現する手段が専用の回路によって実現されてもよい。 The CPU can function as various means by executing a program. A control circuit such as an ASIC that operates in cooperation with the CPU may function as these means. Further, these means may be realized by cooperation between the CPU and the control circuit that controls the operation of the image processing device. Further, the CPU does not have to be a single CPU, and may be a plurality of CPUs. In this case, a plurality of CPUs can be distributed to execute the process. Further, the plurality of CPUs may be arranged in a single computer, or may be arranged in a plurality of physically different computers. The means realized by the CPU executing the program may be realized by a dedicated circuit.
図4は、本実施形態における処理手順を示すフローチャートである。AGVの走行開始が指示されたときに、本フローチャートの処理が開始される。以下、フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。 FIG. 4 is a flowchart showing a processing procedure in the present embodiment. When the start of traveling of the AGV is instructed, the processing of this flowchart is started. Hereinafter, it is assumed that the flowchart is realized by the CPU executing the control program.
ステップS101では、システムの初期化を行う。すなわち、外部メモリH14からプログラムを読み込み、情報処理装置11を動作可能な状態にする。また、情報処理装置11に接続された各機器のパラメータをRAMであるH13に書き込む。また、移動体の各制御装置を起動し、動作・制御可能な状態とする。
In step S101, the system is initialized. That is, the program is read from the external memory H14 and the
ステップS102では、第1位置情報取得部111が画像センサ12から取得した入力情報に基づき第1推定部121が推定した位置姿勢を取得する。本実施形態において、画像センサを用いた位置姿勢推定方法としては、SLAM(Simultaneous Localization and Mapping)技術、Engelらの方法(J. Engel, T. Schps, and D. Cremers. LSD-SLAM: Large-Scale Direct Monocular SLAM. In European Conference on Computer Vision (ECCV), 2014)を使う。この方法は、屋外のような広域な環境において自己位置推定と地図作成を同時に実行するものである。ここで、この技術を用いた場合、センサの計測値によっては位置姿勢の推定に失敗する場合がある。具体的には、位置姿勢を推定するために必要となる画像における特徴点(エッジの交差やコーナーなど)が画像センサから得られた画像内に十分に含まれていない時に位置姿勢の推定に失敗する。例えば、画像センサのレンズ部分を遮った時に取得した全面黒い画像や、模様のない真っ白な壁面が全体に写っている画像である時に位置姿勢の推定に失敗する。位置姿勢の推定に失敗した時は位置姿勢の値を得ることができない。第1位置情報取得部111は位置姿勢の推定に失敗した場合は失敗前の時刻の位置姿勢を取得し、システム初期化後すべての位置姿勢を選択部113および差分取得部114に出力する。尚、第1位置情報取得部111が位置姿勢の推定に失敗した時刻から、所定時間遡った期間の位置姿勢を、選択部113および差分取得部114に出力することもできる。差分取得部114が差分を取得し、補正部116が位置情報を補正するために必要な期間の位置姿勢の出力に絞り、機能構成間での情報のやり取りを減らすことができる。
In step S102, the first position
位置姿勢を選択部113および差分取得部114に出力するタイミングは、前述したように、第1位置情報取得部111が位置姿勢の推定に失敗した後のタイミングとすることもできる。また、システム初期化後、選択部113と差分取得部114に位置姿勢を出力し続けておくこともできる。
As described above, the timing of outputting the position / posture to the
なお、位置情報とは位置姿勢6パラメータと時刻データのペアを1要素とする配列データである。 The position information is array data having a pair of position / posture 6 parameters and time data as one element.
ステップS103では、第2位置情報取得部112が距離センサ13から取得した計測情報に基づき第2推定部131が推定した位置姿勢を取得する。距離センサを用いた位置姿勢推定方法としては、3Dレーザスキャナを用いたSLAM技術(Ji Zhang,and Sanjiv Singh,“LOAM: Lidar Odometry and Mapping in Real-time”, In Robotics: Science and Systems (RSS), 2014)を使う。第2位置情報取得部112においても位置姿勢の推定に失敗した場合は失敗前の時刻の位置姿勢を取得し、システム初期化後すべての位置姿勢を選択部113および差分取得部114に出力する。また、第2位置情報取得部112が位置姿勢の推定に失敗した時刻から、所定時間遡った期間の位置姿勢を、選択部113および差分取得部114に出力することもできる。
In step S103, the second position
位置姿勢を選択部113および差分取得部114に出力するタイミングは、前述したように、第2位置情報取得部112が位置姿勢の推定に失敗した後のタイミングとすることもできる。また、システム初期化後、選択部113と差分取得部114に位置姿勢を出力し続けておくこともできる。
As described above, the timing of outputting the position / posture to the
なお、本実施形態において画像センサ12と距離センサ13は時刻同期して動作し、同一時刻の計測値を入力として位置姿勢を推定するものとする。
In this embodiment, the
ステップS104では、選択部113が、第1位置情報取得部111および第2位置情報取得部112が入力した位置情報のいずれかを選択する。本実施形態においては、基本的には第1位置情報取得部111が入力した位置情報を優先して選択する。第1位置情報取得部111の位置情報に現在時刻の位置姿勢が含まれない場合、すなわち画像センサ12の計測値を用いた位置姿勢の推定に失敗している場合に、第2位置情報取得部112が入力した位置情報を選択する。選択結果および選択した位置情報は差分取得部114および補正部116に出力する。
In step S104, the
ステップS105では、差分取得部114が、第1位置情報取得部111および第2位置情報取得部112から入力された2つの位置情報から差分を算出し、差分情報として差分保持部115に出力する。ステップS105は、ステップS104の処理に依存せず、ステップS102,ステップS103の処理が終わっていれば実行を開始できる。なお、差分情報は位置姿勢6パラメータである。詳細な差分算出方法は後述する。2つの位置情報は、同一の座標系に変換後の位置情報である。
In step S105, the
ステップS106では、補正部116が、差分保持部115で保持する差分情報に基づき選択部113が入力した位置情報を補正する。詳細な補正方法は後述する。補正した位置情報を制御装置14に出力することで、無人搬送車を移動制御する。
In step S106, the
ステップS107では、システムを終了(移動体を停止させる)するか否か判定する。具体的には、ユーザからの終了指示を入力部H15により受信した場合に終了する。そうでなければステップS102に戻り処理を継続する。 In step S107, it is determined whether or not to terminate the system (stop the moving body). Specifically, it ends when the end instruction from the user is received by the input unit H15. If not, the process returns to step S102 and the process is continued.
図5はステップS105における差分取得方法の処理手順を示すフローチャートである。 FIG. 5 is a flowchart showing a processing procedure of the difference acquisition method in step S105.
ステップS201では、第1位置情報取得部111と第2位置情報取得部112から入力された位置情報から、差分を求めるための入力となる位置姿勢の組み合わせを選択する。本実施形態においては、最新時刻で、かつ第1位置情報取得部111と第2位置情報取得部112の両方の位置姿勢が存在する1組を選択する。
In step S201, a combination of positions and postures to be input for obtaining a difference is selected from the position information input from the first position
ステップS202では、ステップS201で選択した2つの位置姿勢から相対位置姿勢を求める。具体的には、第1位置情報取得部111および第2位置情報取得部112から取得した位置姿勢6パラメータを並進成分(X,Y,Z)と回転成分(Roll,Pitch,Yaw)に分け、各成分から相対位置と相対姿勢を求める。相対位置は第1位置情報取得部111が取得した位置姿勢の並進成分から第2位置情報取得部112が取得した位置姿勢の並進成分をパラメータごとに減算して求める。相対姿勢は回転成分を3×3回転行列に変換して求める。第1位置情報取得部111により取得した位置姿勢から変換した回転行列をRV、第2位置情報取得部112により取得した位置姿勢から変換した回転行列をRLとすると、RV=MRLとなる変換行列Mを求める。この変換行列Mが相対姿勢を表す。求めた相対位置および相対姿勢は差分情報として差分保持部115に出力する。差分保持部115に保持される差分は、例えば、画像センサ12と距離センサ13との計測誤差による差分である。現実世界では、選択部113が第1位置情報取得部111から第2位置情報取得部112へと選択を切り替えた時に、移動体の位置姿勢に差分が生じているわけではない。
In step S202, the relative position / posture is obtained from the two position / postures selected in step S201. Specifically, the position / orientation 6 parameters acquired from the first position
上述した差分取得処理手順は、画像センサ12の計測値に基づいた位置姿勢推定が失敗した時、すなわち選択部113が第1位置情報取得部111から第2位置情報取得部112へと選択を切り替えた時に実行する処理手順である。一方で、画像センサ12を用いた位置姿勢推定が再度成功した時、すなわち、選択部113が、第2位置情報取得部112から第1位置情報取得部111へと選択を切り替えた時は、補正の必要がなくなるため差分情報を初期値にリセットする手順を実行する。初期値は、相対位置(X,Y,Z)の全ての成分がゼロ、相対姿勢は回転行列が単位行列となる。
In the difference acquisition processing procedure described above, when the position / orientation estimation based on the measured value of the
次にステップS106における補正方法の処理手順について説明する。 Next, the processing procedure of the correction method in step S106 will be described.
選択部113が補正部116に入力する位置姿勢に対して、差分保持部115で保持する相対位置および相対姿勢を加えることにより補正する。具体的には、補正についても差分取得時と同様に並進成分と回転成分に分け、成分ごとに計算する。並進成分は、選択部113が入力する位置姿勢の並進成分に、差分情報に含まれる相対位置をパラメータごとに加算して求める。回転成分は、選択部113が入力する位置姿勢の回転成分を3×3回転行列RSに変換し、差分情報に含まれる相対姿勢との行列積MRSを求める。以上のように補正した位置姿勢を位置情報として制御装置14に出力する。
The position and orientation input by the
2種のセンサ値から推定した位置姿勢を移動体の移動制御に使用するシステムにおいて、使用する位置姿勢を画像センサからの入力情報により推定した位置姿勢から、距離センサからの入力情報により推定した位置姿勢に切り替える場合について説明した。画像センサ(第1のセンサ)と距離センサ(第2のセンサ)とで推定した位置姿勢の差分を取得し、その差分に基づき切り替え後の位置姿勢を補正する。切り替え前の画像センサによって推定されていたはずの位置姿勢を、切り替え後の距離センサによって推定した位置姿勢と差分を使って求めている。これにより、切り替え前後にそれぞれの系統で推定される位置姿勢にずれが発生しても、移動体の走行が不安定になることを抑制できる。S106で補正された移動体の位置姿勢は、切り替え前のセンサによって推定していた位置姿勢に近づく(差が小さくなる)ので、連続性を保ちやすくなる。尚、本実施形態の情報処理装置11は、AGVに限らず、画像センサと距離センサとを取り付けたドローンなどの無人航空機の飛行を制御することもできる。
In a system that uses the position and orientation estimated from the two sensor values for the movement control of the moving body, the position and orientation to be used is estimated from the position and orientation estimated by the input information from the image sensor, and the position estimated by the input information from the distance sensor. The case of switching to the posture was explained. The difference in position and orientation estimated by the image sensor (first sensor) and the distance sensor (second sensor) is acquired, and the position and orientation after switching is corrected based on the difference. The position and orientation that should have been estimated by the image sensor before switching is obtained by using the position and orientation estimated by the distance sensor after switching and the difference. As a result, even if the position and posture estimated in each system shift before and after switching, it is possible to prevent the moving body from becoming unstable. Since the position / orientation of the moving body corrected in S106 approaches the position / orientation estimated by the sensor before switching (the difference becomes small), it becomes easy to maintain continuity. The
さらに、失敗していた画像センサ(第1のセンサ)に基づく位置姿勢推定が再度成功するようになり、画像センサの計測値に基づく位置姿勢推定へと切り替える時にも、位置姿勢を補正することができる。距離センサの計測値に基づく位置姿勢推定から画像センサの計測値に基づく位置姿勢推定へ切り替えを完了するまでの期間を決め、その期間内で徐々に切り替えられるように、重み付き平均を用いて位置姿勢を統合する方法について述べる。 Furthermore, the position / orientation estimation based on the failed image sensor (first sensor) will succeed again, and the position / attitude can be corrected even when switching to the position / attitude estimation based on the measured value of the image sensor. can. Determine the period from the position and orientation estimation based on the measured values of the distance sensor to the position and orientation estimation based on the measured values of the image sensor, and use the weighted average to gradually switch within that period. Describes how to integrate postures.
図2で説明した情報処理装置11の機能構成に加え、期間決定部および重み決定部、統合部をさらに備える。
In addition to the functional configuration of the
期間決定部は、第2位置情報取得部112から第1位置情報取得部111への切り替えを完了するまでの期間を決定し、期間情報として重み決定部に出力する。
The period determination unit determines the period until the switching from the second position
重み決定部は、期間決定部が入力する期間情報を用いて重みを決定し、統合部に出力する。 The weight determination unit determines the weight using the period information input by the period determination unit and outputs the weight to the integration unit.
統合部は重み決定部が入力する重みに基づき、第1位置情報取得部111と補正部116により取得した2つの位置情報を統合する。
The integration unit integrates the two position information acquired by the first position
図6は、本実施形態における処理手順のフローチャートを示す図である。図4と同一であるステップについては説明を省略し、異なる処理手順を説明する。 FIG. 6 is a diagram showing a flowchart of the processing procedure in the present embodiment. The steps that are the same as those in FIG. 4 will be omitted, and different processing procedures will be described.
ステップS301では、RAMであるH13に保存してある選択結果が第2位置情報取得部112であり、選択部113が入力した選択結果が第1位置情報取得部111である場合に、S302に進む。すなわち位置姿勢推定の入力となるセンサを距離センサ13から画像センサ12に切り替える場合にS302に進む。そうでない場合はS303まで処理をスキップする。
In step S301, if the selection result stored in the RAM H13 is the second position
ステップS302では、期間決定部が、距離センサ(第2のセンサ)の計測値に基づく位置姿勢推定から画像センサ(第1のセンサ)の計測値に基づく位置姿勢推定へ切り替えを完了するまでの期間を決める。本実施形態においては、この期間は10イタレーション(1イタレーションはあたり1回の位置姿勢出力)であるとする。 In step S302, the period until the period determination unit completes the switching from the position / orientation estimation based on the measured value of the distance sensor (second sensor) to the position / attitude estimation based on the measured value of the image sensor (first sensor). To decide. In the present embodiment, it is assumed that this period is 10 iterations (1 iteration is one position / posture output per iteration).
ステップS303では、重み決定部が、期間決定部が入力する期間情報に基づき、画像センサ12の計測値から推定した位置姿勢と距離センサ13の計測値から推定した位置姿勢のそれぞれに対する重みを決定する。画像センサの位置姿勢に対する重みは、10イタレーションの間で期間開始時は0とし、期間終了にかけて徐々に大きくしたいため、画像センサの位置姿勢に対する重みをWC(0≦WC≦1)とすると、WC=(現在のイタレーション数)/10となる。一方、距離センサの位置姿勢の重みをWL(0≦WL≦1)とすると、画像センサの位置姿勢の重みと整合を取る必要があるため、WL=1-WCとなる。重み決定部は現在のイタレーション数をRAMであるH13に保存し、ステップS303実行ごとに1を加算することで、距離センサに対する画像センサの重みを徐々に大きくする。例えば、期間開始時には距離センサ13の計測値から推定した位置姿勢の重みが1であり、期間終了時には画像センサの計測値から推定した位置姿勢の重みが1になる。
In step S303, the weight determination unit determines the weights for each of the position / posture estimated from the measured value of the
ステップS304では、統合部が、重み決定部が入力する重みに基づき、画像センサ12の計測値から推定した位置姿勢と、距離センサ13の計測値から推定した位置姿勢とを重み付き平均を用いて統合する。具体的には、位置姿勢6パラメータのそれぞれに対して重み付き平均を計算することで統合後の位置姿勢を求める。
In step S304, the integration unit uses a weighted average of the position / posture estimated from the measured value of the
このように、一度推定に用いるセンサを切り替えた後、再度元のセンサに戻す時に、切り替えを完了するまでの期間を決め、その期間内で徐々に切り替えられるように、重み付き平均を用いて位置姿勢を統合する。これにより、切り替え時の位置姿勢のずれの発生により、移動体の移動が不安定になることを抑制できる。 In this way, after switching the sensor used for estimation once, when returning to the original sensor again, the period until the switching is completed is determined, and the position is positioned using the weighted average so that the switching can be performed gradually within that period. Integrate posture. As a result, it is possible to prevent the movement of the moving body from becoming unstable due to the occurrence of displacement of the position and posture at the time of switching.
<変形例1-1>
実施形態1において、第1位置情報取得部111は画像センサ12を用いたSLAM技術により推定した位置姿勢を取得していた。一方、第2位置情報取得部112は距離センサ13を用いたSLAM技術により推定した位置姿勢を取得していた。しかし、SLAM技術と組み合わせるセンサはこれらに限られるものではなく、どんなセンサであってもよい。Time of Flightやパターン光投影などアクティブ距離センサとSLAM技術を組み合わせて位置姿勢を推定してもよい。
<Modification 1-1>
In the first embodiment, the first position
また、推定方法はSLAM技術に限られず、位置姿勢を推定できるものであれば、本実施形態の技術思想を適用できる。例えば、Wifiのような無線通信における電波強度計測に基づく方法でもよい。GPSのような衛星測位や、磁気式のトラッキングセンサ、多数の光センサで感知の時間差を用いる方法でもよい。また、監視カメラのような特定の箇所に設置したカメラで取得した画像を用いて、CADデータに基づきモデルフィッティングする方法であってもよい。 Further, the estimation method is not limited to the SLAM technique, and the technical idea of the present embodiment can be applied as long as the position and orientation can be estimated. For example, a method based on radio field intensity measurement in wireless communication such as Wifi may be used. A method using satellite positioning such as GPS, a magnetic tracking sensor, or a method using a time difference in sensing with a large number of optical sensors may be used. Further, a method of model fitting based on CAD data may be used by using an image acquired by a camera installed at a specific location such as a surveillance camera.
<変形例1-2>
実施形態1において、第1位置情報取得部111および第2位置情報取得部112が取得する位置情報には位置姿勢6パラメータが含まれていた。しかし、これに限られるものではなく、位置姿勢を表す情報が含まれていれば、本実施形態の技術思想を適用できる。例えば、2次元の位置姿勢を示す、位置2パラメータ(現実空間の床に対して水平な面上の位置X,Y)と姿勢1パラメータ(現実空間の床に対して水平な面上の回転方向)の合計3パラメータであってもよい。また、姿勢パラメータを含まず位置パラメータだけであってもよい。さらに、IMU(Inertial Measurement Unit)で取得した加速度・角速度に基づき位置姿勢を推定する方法や、タイヤの回転角に基づいてオドメトリにより位置姿勢を推定する方法であってもよい。
<Modification 1-2>
In the first embodiment, the position information acquired by the first position
<変形例1-3>
実施形態1において、差分取得部114が差分取得に用いる位置姿勢の組み合わせとして1組を選択していた。しかし、これに限られるものではなく、差分取得の入力として複数の組み合わせを選択してもよい。複数の位置姿勢の組み合わせを入力とした場合の差分の算出方法は、相対的な位置関係を求められる方法を使用する。差分算出方法としては、例えば、最小二乗法を用いて2系統の位置姿勢間の相対値姿勢のばらつきを最小化する方法や位置姿勢のパラメータごとに平均値を求める方法がある。
<Modification 1-3>
In the first embodiment, the
また、実施形態1において、画像センサ12と距離センサ13は時刻同期して動作し、同一の時刻の計測値を入力として位置姿勢を推定するものとしたが、これに限られるものではなく、時刻同期せず各々のタイミングで位置姿勢を推定してもよい。そのような場合、差分取得部114における差分算出の対象となる位置姿勢の組み合わせの選択方法として、以下のような変形例を用いる。例えば、画像センサ12の計測値から推定した位置姿勢の時刻と最も近い時刻となる距離センサ13の計測値から推定した位置姿勢を選択する。また、画像センサ12の計測値から推定した差分取得対象とする位置姿勢に対して、近い時刻に距離センサ13の計測値から位置姿勢を推定していない場合がある。そのときには、距離センサ13の他の時刻の位置姿勢に基づき、所望の時刻の位置姿勢を補間あるいは予測により求めてもよい。
Further, in the first embodiment, the
さらに、実施形態1において、差分取得部114は、第1位置情報取得部111から第2位置情報取得部112に切り替えた時にのみ差分算出を実行したが、これに限られるものではなく、それ以外のタイミングで差分算出を実行してもよい。例えば、第2位置情報取得部112へ切り替え後、画像センサ12を用いた位置姿勢推定が再度成功するまでの間に、長距離移動することがある。その場合、第1位置情報取得部111と第2位置情報取得部112で取得する位置姿勢の間のずれ量が、切り替え時に算出した差分量よりも大きくなる、または、小さくなる可能性がある。そこで、差分算出を再実行して差分情報を更新してもよい。また、差分情報の更新は一定距離間隔あるいは一定時間間隔に行ってもよく、間隔のパラメータは入力部H15を介してユーザが入力して決定してもよい。
Further, in the first embodiment, the
<変形例1-4>
実施形態1において、移動体システム10は無人搬送車(移動体)に限定されるものではない。例えば、移動体システム10は、自動運転車、自律移動ロボット、無人航空機であってもよい。
<Modification 1-4>
In the first embodiment, the
<変形例1-5>
実施形態1において、移動体システム10は移動体の移動制御のために位置姿勢を利用していた。しかし、これに限られるものではなく、移動体の移動制御以外の目的に利用してもよい。例えば、MR(Mixd Reality)やVR(Virtual Reality)、AR(Argumented Reality)などの技術に適用して、ユーザの視点位置姿勢推定に用いてもよい。
<Modification example 1-5>
In the first embodiment, the moving
<変形例1-6>
情報処理装置11に、不図示の提示部を含む構成としてもよい。例えば、提示部に赤、黄色、緑の三色灯を用いるのであれば、選択部113が第1位置情報取得部111を選択しているときは緑色を点灯する。第2位置情報取得部112を選択している時は黄色を点灯する。第1位置情報取得部111から第2位置情報取得部112に切り替える時は赤色を点灯する。ユーザに選択結果を可視化することができる。位置姿勢の選択結果に関する情報をユーザに提示できるものであれば、LEDランプでも、液晶ディスプレイでもなんでもよい。提示装置はスピーカーでもよく、位置姿勢の選択結果に応じて特定のアラーム音や特定のメロディーが流れるような構成としてもよい。また、提示する情報は位置姿勢の選択結果以外の情報であってもよく、例えば差分保持部115で保持する差分情報であってもよい。
<Modification example 1-6>
The
<変形例1-7>
上述の実施形態では、画像センサの計測値に対する位置姿勢の推定に失敗して、推定に用いるセンサを距離センサに切り替える時に、2つのセンサに基づく位置姿勢間の差分を求め、その差分を用いて補正していた。さらに、推定に用いるセンサを再び画像センサ(第1のセンサ)に戻す時に、2種の位置姿勢を統合することで、切り替え時の位置姿勢のずれを抑制していた。しかし、本発明は2種のセンサの両方で位置姿勢の推定が成功する場合であっても適用できる。そこで、2つのセンサの両方が位置姿勢推定に成功している状況において、位置姿勢と紐づく優先度に応じて入力となるセンサを自動で切り替える方法について述べる。
<Modification example 1-7>
In the above-described embodiment, when the estimation of the position / orientation with respect to the measured value of the image sensor fails and the sensor used for the estimation is switched to the distance sensor, the difference between the positions / attitudes based on the two sensors is obtained, and the difference is used. It was corrected. Further, when the sensor used for estimation is returned to the image sensor (first sensor) again, the two types of position / orientation are integrated to suppress the deviation of the position / orientation at the time of switching. However, the present invention can be applied even when the position and orientation estimation is successful with both of the two types of sensors. Therefore, a method of automatically switching the input sensor according to the priority associated with the position / orientation in the situation where both of the two sensors have succeeded in estimating the position / attitude will be described.
図4を用いて説明した処理と異なる処理手順のみ説明し、それ以外の手順については図4と同じ処理であるとして説明を省略する。 Only the processing procedure different from the processing described with reference to FIG. 4 will be described, and the description of the other procedures will be omitted assuming that the processing is the same as that of FIG.
ステップS102では、第1位置情報取得部111および第2位置情報取得部112が、位置情報に加え、位置情報に対する信頼度を取得する。なお、信頼度とは位置姿勢の推定結果の精度を示す指標のことである。信頼度は、位置姿勢を推定に用いた特徴点の数が多いほど高くなるように計算する。取得した信頼度は優先度として選択部113に出力する。
In step S102, the first position
ステップS103では、第1位置情報取得部111および第2位置情報取得部112から位置情報を取得し、優先度が高い方の位置情報を選択する。
In step S103, position information is acquired from the first position
2種のセンサの両方が位置姿勢推定に成功する状況において、位置姿勢と紐づく優先度に応じて、第1位置情報取得部111で取得する位置情報と第2位置情報取得部112で取得する位置情報とを自動で切り替える。切り替え時に2種の位置姿勢間の差分を算出し、その差分に基づき切り替え後の位置姿勢を補正する。これにより、信頼度がより高い位置姿勢を選択しつつ、切り替え時の位置姿勢のずれの発生によって、移動体の移動が不安定になることを抑制できる。
In a situation where both of the two types of sensors succeed in estimating the position / orientation, the position information acquired by the first position
<変形例1-8>
変形例1-8において、優先度とは位置姿勢の推定結果の精度を表す信頼度であった。しかし、これに限られるものではなく、位置情報に対する優先度であれば適用できる。例えば、画像センサの入力から位置姿勢を推定する時に検出する特徴点の数を優先度として用いてもよい。また、位置姿勢推定以外の処理によって優先度を決めてもよい。例えば、画像中の輝度が一様である場合は位置姿勢の推定に失敗する可能性があると推測できるため、優先度を低く設定する。あるいは画像中の輝度の平均値が極端に低い(または高い)場合、画像センサに対する優先度を低くし、一方で距離センサの優先度を高く設定する。さらには距離センサで得られたすべての点群の距離が閾値以上の距離であったら位置姿勢推定精度が低くなる可能性があると推測して優先度を低く設定する。センサの計測値から直接優先度を決めてもよい。さらに、センサの計測値以外を用いて優先度を決めてもよい。例えば、移動体が移動するルートの一部の地図情報を保持しており、位置姿勢を推定するための入力データとして地図情報を用いる場合に、移動体の現在位置に対する地図情報が存在するか否かを優先度の決定に用いてもよい。画像センサ向けの地図が存在する場合には、画像センサが推定する位置姿勢の優先度を高く決定し、距離センサ向けの地図が存在する場合には、距離センサが推定する位置姿勢の優先度を高く決定する。
<Modification example 1-8>
In the modified example 1-8, the priority is the reliability indicating the accuracy of the estimation result of the position and orientation. However, the present invention is not limited to this, and can be applied as long as the priority is given to the location information. For example, the number of feature points detected when estimating the position / orientation from the input of the image sensor may be used as the priority. Further, the priority may be determined by a process other than the position / orientation estimation. For example, if the brightness in the image is uniform, it can be estimated that the estimation of the position and orientation may fail, so the priority is set low. Alternatively, when the average value of the luminance in the image is extremely low (or high), the priority for the image sensor is set low, while the priority for the distance sensor is set high. Furthermore, if the distances of all the point clouds obtained by the distance sensor are greater than or equal to the threshold value, the position and orientation estimation accuracy may be lowered, and the priority is set low. The priority may be determined directly from the measured value of the sensor. Further, the priority may be determined by using a value other than the measured value of the sensor. For example, when the map information of a part of the route on which the moving object is moved is held and the map information is used as the input data for estimating the position and orientation, whether or not the map information for the current position of the moving object exists. May be used to determine the priority. If there is a map for the image sensor, the priority of the position / orientation estimated by the image sensor is determined high, and if there is a map for the distance sensor, the priority of the position / orientation estimated by the distance sensor is set. Decide high.
<実施形態2>
実施形態1では、一方のセンサで位置姿勢の推定に失敗している間、もう一方のセンサに切り替える時に、2つのセンサに基づく位置姿勢間の差分を求め、その差分を用いて補正していた。実施形態2ではさらに、位置姿勢の推定に失敗しているセンサに対して、もう一方のセンサに基づく位置姿勢を渡すことで、位置姿勢推定を補助する方法について述べる。
<Embodiment 2>
In the first embodiment, while the position / orientation estimation fails with one sensor, when switching to the other sensor, the difference between the position / attitude based on the two sensors is obtained, and the difference is used for correction. .. The second embodiment further describes a method of assisting the position / orientation estimation by passing the position / attitude based on the other sensor to the sensor that has failed to estimate the position / attitude.
本実施形態における機能構成は、実施形態1で説明した情報処理装置11の機能構成を説明する図2に対して、第1推定部121と第2推定部131が接続している点が異なる。
The functional configuration in the present embodiment is different from FIG. 2, which explains the functional configuration of the
図7は、本実施形態における処理手順のフローチャートを示す図である。実施形態1で説明した情報処理装置11の処理手順を説明する図4と同一であるステップについては説明を省略し、実施形態1と異なる処理手順を説明する。
FIG. 7 is a diagram showing a flowchart of the processing procedure in the present embodiment. The steps that are the same as those in FIG. 4, which explains the processing procedure of the
ステップS401では、第1推定部121が画像センサ12の計測値に基づき位置姿勢を推定し、第1位置情報取得部111および第2推定部131に出力する。なお、推定時は前回の位置姿勢推定結果を初期値として位置姿勢を推定する。第1推定部121が直前の位置姿勢の推定に失敗していた場合は、第2推定部131が入力した位置姿勢を初期値として位置姿勢を推定する。
In step S401, the
ステップS402では、第2推定部131が距離センサ13の計測値に基づき位置姿勢を推定し、第2位置情報取得部112および第1推定部121に出力する。第1推定部と同様、推定時は前回の位置姿勢推定結果を初期値として位置姿勢を推定する。第2推定部131が直前の位置姿勢の推定に失敗していた場合は、第1推定部121が入力した位置姿勢を初期値として位置姿勢を推定する。
In step S402, the
実施形態2では、2種のセンサ値から推定した位置姿勢を移動体の移動制御に使用するシステムにおいて、画像センサ値に基づく位置姿勢の推定に失敗し、使用する位置姿勢を画像センサで推定した位置姿勢から距離センサで推定した位置姿勢へ切り替えている。切り替えた時に、2種のセンサ値に基づく位置姿勢の差分を取得し、その差分に基づき第2のセンサ値に基づく位置姿勢を補正する。これにより、切り替え後の位置姿勢のずれの発生により、移動体の移動が不安定になることを抑制できる。さらに、画像センサ(第1のセンサ)値に基づく位置姿勢の推定が失敗している時に、距離センサ(第2のセンサ)値に基づく位置姿勢を推定のパラメータとして入力し、画像センサ(第1のセンサ)値に基づく位置姿勢推定を補助する。2種のセンサ値に基づく位置情報をより効率よく活用して位置姿勢を求めることができる。 In the second embodiment, in the system in which the position / posture estimated from the two types of sensor values is used for the movement control of the moving body, the estimation of the position / posture based on the image sensor value fails, and the position / posture to be used is estimated by the image sensor. The position and attitude are switched to the position and attitude estimated by the distance sensor. When switching, the difference between the position and orientation based on the two types of sensor values is acquired, and the position and orientation based on the second sensor value is corrected based on the difference. As a result, it is possible to prevent the movement of the moving body from becoming unstable due to the occurrence of displacement of the position and posture after switching. Further, when the estimation of the position / orientation based on the image sensor (first sensor) value fails, the position / orientation based on the distance sensor (second sensor) value is input as an estimation parameter, and the image sensor (first sensor) is used. Sensor) Assists in position and orientation estimation based on values. The position and orientation can be obtained by more efficiently utilizing the position information based on the two types of sensor values.
<実施形態3>
実施形態1および2では、2つのセンサのそれぞれの入力情報に基づき2系統の位置姿勢を推定するケースにおいて、位置姿勢推定に用いるセンサを切り替える時の補正方法を説明した。一方、本実施形態では、位置姿勢計測の安定性を向上するために、一つの系統の位置姿勢を複数のセンサの出力情報に基づいて推定する場合について説明する。ここで,複数のセンサとは、画像センサとIMUである。
<Embodiment 3>
In the first and second embodiments, in the case where the position / orientation of the two systems is estimated based on the input information of each of the two sensors, the correction method when switching the sensor used for the position / orientation estimation has been described. On the other hand, in the present embodiment, in order to improve the stability of the position / posture measurement, a case where the position / posture of one system is estimated based on the output information of a plurality of sensors will be described. Here, the plurality of sensors are an image sensor and an IMU.
本実施形態では、画像センサとIMUの出力情報から推定した位置姿勢を移動体の移動制御に使用するシステムを想定する。画像センサおよびIMUの出力情報に基づく位置姿勢の推定に失敗し、使用する位置姿勢を、画像センサおよびIMUで推定した位置姿勢から、IMU単体で推定した位置姿勢へ、切り替える。切り替えた時に、2系統の位置姿勢の差分を取得し、その差分に基づき第2のセンサ値に基づく位置姿勢を補正する。2系統の位置姿勢とは、1つは、画像センサとIMUとによって推定した位置姿勢、もう1つは、IMUによって推定した位置姿勢である。 In the present embodiment, a system is assumed in which the position and orientation estimated from the output information of the image sensor and the IMU are used for the movement control of the moving body. The estimation of the position / orientation based on the output information of the image sensor and the IMU fails, and the position / orientation to be used is switched from the position / orientation estimated by the image sensor and the IMU to the position / orientation estimated by the IMU alone. When switching, the difference between the positions and orientations of the two systems is acquired, and the position and orientation based on the second sensor value is corrected based on the difference. The two systems of position and orientation are, one, the position and orientation estimated by the image sensor and the IMU, and the other, the position and orientation estimated by the IMU.
本実施形態における機能構成は、実施形態1で説明した情報処理装置11の機能構成を説明する図2に対して、距離センサ13がIMUに置き換わり、IMUが第1推定部121および第2推定部131に接続している点が異なる。
In the functional configuration of the present embodiment, the
本実施形態における処理手順のフローチャートは実施形態1のフローチャートを示す図4と同じであるため割愛する。ここでは、実施形態1と同一であるステップについては説明を省略し、実施形態1と異なる処理手順を説明する。 Since the flowchart of the processing procedure in the present embodiment is the same as FIG. 4 showing the flowchart of the first embodiment, it is omitted. Here, the description of the steps that are the same as those of the first embodiment will be omitted, and the processing procedure different from that of the first embodiment will be described.
ステップS102では、第1位置情報取得部111が画像センサ12およびIMUから取得した入力情報に基づき第1推定部121が推定した位置姿勢を取得する。本実施形態において、画像センサおよびIMUを用いた位置姿勢推定手法としては、ORB-SLAM3(Carlos Campos et.al, ORB-SLAM3:An Accurate Open-Source Library for Visual, Visual-Inertial and Multi-Map SLAM. Cornell University)の方法を利用する。本方法では、位置姿勢計測用地図として保存された複数の画像特徴の中から、カメラで撮影した画像データから検出した画像特徴とマッチングを行う。画像特徴位置と慣性データを組み合わせて算出した位置姿勢の差の総和(残差)が最小となる位置姿勢を計測する。なお、本実施形態において、位置姿勢計測用地図は、移動体10が自律走行を開始する前に第1推定部121によって作成され、第1推定部121が保持するものとする。ここで、この技術を用いた場合でも実施形態1で述べたSLAM技術と同様に、センサの計測値によっては位置姿勢の推定に失敗する場合があるが、第1位置情報取得部111は位置姿勢の推定に失敗した場合は失敗前の時刻の位置姿勢を取得し、システム初期化後すべての位置姿勢を選択部113および差分取得部114に出力する。
In step S102, the first position
ステップS103では、第2位置情報取得部112がIMUから取得した入力情報に基づき第2推定部131が推定した位置姿勢を取得する。本実施形態においてIMUを用いた位置姿勢推定は、IMU起動直後の位置をIMU座標系の原点とし、加速度および角速度のそれぞれに対して単位時間による2回積分を行い、変位量を算出して位置姿勢を推定する方法を利用する。
In step S103, the second position
本実施形態の方法によれば、位置姿勢計測の安定性を向上するために一つの系統の位置姿勢を複数のセンサの出力情報に基づいて推定する場合においても、切り替え後の位置姿勢のずれの発生により、移動体の移動が不安定になることを抑制できる。切り替え前の画像センサとIMUとによって推定されていたはずの位置姿勢を、切り替え後のIMUによって推定した位置姿勢と差分を使って求めている。S106で補正された移動体の位置姿勢は、切り替え前の画像センサとIMUとによって推定していた位置姿勢に近づくので、連続性を保ちやすくなる。 According to the method of the present embodiment, even when the position / orientation of one system is estimated based on the output information of a plurality of sensors in order to improve the stability of the position / attitude measurement, the deviation of the position / attitude after switching is performed. It is possible to prevent the movement of the moving body from becoming unstable due to the occurrence. The position and orientation that should have been estimated by the image sensor before switching and the IMU are obtained by using the position and orientation estimated by the IMU after switching and the difference. Since the position / orientation of the moving body corrected in S106 approaches the position / orientation estimated by the image sensor and the IMU before switching, it becomes easy to maintain continuity.
<変形例3-1>
実施形態3において、第1位置情報取得部111は画像センサ12およびIMUを用いたSLAM技術により推定した位置姿勢を取得していた。しかし、位置情報取得に用いるセンサの組み合わせは、これに限られるものではなく、位置姿勢を推定可能であればどんなセンサの組み合わせであってもよい。
<Modification 3-1>
In the third embodiment, the first position
例えば、画像センサを用いたSLAM技術とタイヤやステアリングの回転角に基づき位置姿勢を推定するオドメトリを組み合わせて位置姿勢を推定してもよい。また、画像センサとIMUを用いたSLAM技術とオドメトリを組み合わせて位置姿勢推定してもよい。さらに、画像センサを用いたSLAM技術とGPSによる衛星測位情報を組み合わせて位置姿勢を推定してもよい。 For example, the position / orientation may be estimated by combining the SLAM technique using an image sensor and the odometry that estimates the position / orientation based on the rotation angle of the tire or the steering. Further, the position and orientation may be estimated by combining the SLAM technique using the image sensor and the IMU and the odometry. Further, the position and orientation may be estimated by combining SLAM technique using an image sensor and satellite positioning information by GPS.
一方、第2位置情報取得部112はIMUの入力情報に基づいて推定した位置姿勢を取得していた。第2位置情報取得部に用いるセンサもIMUに限られることはなく、位置姿勢を推定可能な入力情報を出力するセンサであればどんなセンサであってもよい。例えば、画像センサや移動体の制御情報、GPSなどのセンサ値を位置姿勢推定の入力情報として使用してもよい。
On the other hand, the second position
さらに、上記で挙げた第1位置情報取得部と第2位置情報取得部を任意の組み合わせで組み合わせてもよい。例えば、第1位置情報取得部で画像センサとGPSを使用し、第2位置情報取得部で画像センサとIMUを使用してもよい。 Further, the first position information acquisition unit and the second position information acquisition unit mentioned above may be combined in any combination. For example, the image sensor and GPS may be used in the first position information acquisition unit, and the image sensor and IMU may be used in the second position information acquisition unit.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。また、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムによっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions. It can also be realized by a system composed of a plurality of devices (for example, a host computer, an interface device, an image pickup device, a web application, etc.).
10 情報処理システム
11 情報処理装置
12 画像センサ
13 距離センサ
14 制御装置
10
Claims (14)
移動体に固定された第1のセンサからの入力情報に基づいて推定した前記移動体の第1の位置情報を取得する第1の位置情報の取得手段と、
前記移動体に固定された第2のセンサからの入力情報に基づいて推定した前記移動体の第2の位置情報を取得する第2の位置情報の取得手段と、
同一の座標系における前記第1の位置情報と前記第2の位置情報とのうち、前記移動体の移動を制御する位置情報を選択する選択手段と、
前記第1の位置情報と該第1の位置情報と同期した前記第2の位置情報との同一の座標系における差分情報を取得する差分取得手段と、
前記選択手段が選択する位置情報が切り替わった場合、前記差分取得手段で取得した差分情報を用いて、前記選択手段により選択した位置情報を、切り替え前に選択していた位置情報に近づくように補正する補正手段と、
を有することを特徴とする情報処理装置。 It is an information processing device
A first position information acquisition means for acquiring the first position information of the moving body estimated based on the input information from the first sensor fixed to the moving body, and
A second position information acquisition means for acquiring the second position information of the moving body estimated based on the input information from the second sensor fixed to the moving body, and
A selection means for selecting the position information that controls the movement of the moving body from the first position information and the second position information in the same coordinate system.
A difference acquisition means for acquiring difference information in the same coordinate system between the first position information and the second position information synchronized with the first position information.
When the position information selected by the selection means is switched, the difference information acquired by the difference acquisition means is used to correct the position information selected by the selection means so as to approach the position information selected before the switching. Correction means to be done,
An information processing device characterized by having.
を特徴とする請求項1または2に記載の情報処理装置。 The selection means preferentially selects the first position information, and when the position information cannot be acquired by the first position information acquisition means, the position acquired by the second position information acquisition means. The information processing apparatus according to claim 1 or 2, wherein information is selected.
前記第2の位置情報から前記第1の位置情報に切り替えるまでの期間を決定する期間決定手段と、
前記期間決定手段により決定した期間の開始時には、前記第2の位置情報を優先し、該期間の終了時には前記第1の位置情報を優先するように、前記第1の位置情報および前記第2の位置情報に対する重みを決定する重み決定手段と、
前記重み決定手段により決定した重みを用いて、前記第1の位置情報と前記補正手段により補正した前記第2の位置情報とを重み付き平均で位置情報を統合する統合手段と、
をさらに有することを特徴とする請求項3に記載の情報処理装置。 When switching the selection from the second position information to the first position information by the selection means,
A period determining means for determining a period from the second position information to switching to the first position information, and a period determining means.
At the beginning of the period determined by the period determining means, the second position information is prioritized, and at the end of the period, the first position information is prioritized, so that the first position information and the second position information are prioritized. A weight determination means that determines the weight for position information,
An integrated means that integrates the position information by a weighted average of the first position information and the second position information corrected by the correction means by using the weight determined by the weight determination means.
The information processing apparatus according to claim 3, further comprising.
を特徴とする請求項1または2に記載の情報処理装置。 Claim 1 or 2 characterized in that the selection means selects either the first position information or the second position information based on the priority for each of the first position information and the second position information. The information processing device described in.
を特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 6, wherein the first sensor is a sensor that inputs image information as the input information.
を特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。 The second sensor according to any one of claims 1 to 7, wherein the second sensor is a distance sensor that measures the distance between the second sensor and an object existing in the environment as the input information. Information processing device.
前記補正手段は、前記差分取得手段が取得した最新の差分情報を用いて、前記選択手段により選択した位置情報を補正することを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。 The difference acquisition means acquires the difference information at predetermined intervals.
The information according to any one of claims 1 to 8, wherein the correction means corrects the position information selected by the selection means by using the latest difference information acquired by the difference acquisition means. Processing equipment.
移動体に固定された第1のセンサおよび第2のセンサからの入力情報に基づいて推定した前記移動体の第1の位置情報を取得する第1の位置情報の取得手段と、
前記第2のセンサからの入力情報に基づいて推定した前記移動体の第2の位置情報を取得する第2の位置情報の取得手段と、
同一の座標系における前記第1の位置情報と前記第2の位置情報とのうち、前記移動体の移動を制御する位置情報を選択する選択手段と、
前記第1の位置情報と該第1の位置情報と同期した前記第2の位置情報との同一の座標系における差分情報を取得する差分取得手段と、
前記選択手段が選択する位置情報が切り替わった場合、前記差分取得手段で取得した差分情報を用いて、前記選択手段により選択した位置情報を、切り替え前に選択していた位置情報に近づくように補正する補正手段と、
を有することを特徴とする情報処理装置。 It is an information processing device
A first position information acquisition means for acquiring the first position information of the moving body estimated based on the input information from the first sensor and the second sensor fixed to the moving body, and
A second position information acquisition means for acquiring the second position information of the moving body estimated based on the input information from the second sensor, and
A selection means for selecting the position information that controls the movement of the moving body from the first position information and the second position information in the same coordinate system.
A difference acquisition means for acquiring difference information in the same coordinate system between the first position information and the second position information synchronized with the first position information.
When the position information selected by the selection means is switched, the difference information acquired by the difference acquisition means is used to correct the position information selected by the selection means so as to approach the position information selected before the switching. Correction means to be done,
An information processing device characterized by having.
移動体に固定された第1のセンサからの入力情報に基づいて推定した前記移動体の第1の位置情報を取得する第1の位置情報の取得工程と、
前記移動体に固定された第2のセンサからの入力情報に基づいて推定した前記移動体の第2の位置情報を取得する第2の位置情報の取得工程と、
同一の座標系における前記第1の位置情報と前記第2の位置情報とのうち、前記移動体の移動を制御する位置情報を選択する選択工程と、
前記第1の位置情報と該第1の位置情報と同期した前記第2の位置情報との同一の座標系における差分を取得する差分取得工程と、
前記選択工程で選択する位置情報が切り替わった場合、前記差分取得工程で取得した差分情報を用いて、前記選択工程により選択した位置情報を、切り替え前に選択していた位置情報に近づくように補正する補正工程と、
を有することを特徴とする情報処理方法。 It is an information processing method
The first position information acquisition step of acquiring the first position information of the moving body estimated based on the input information from the first sensor fixed to the moving body, and
A second position information acquisition step of acquiring the second position information of the moving body estimated based on the input information from the second sensor fixed to the moving body, and
A selection step of selecting the position information for controlling the movement of the moving body from the first position information and the second position information in the same coordinate system.
A difference acquisition step of acquiring a difference in the same coordinate system between the first position information and the second position information synchronized with the first position information.
When the position information selected in the selection process is switched, the difference information acquired in the difference acquisition process is used to correct the position information selected in the selection process so as to approach the position information selected before the switching. Correction process and
An information processing method characterized by having.
移動体に固定された第1のセンサおよび第2のセンサからの入力情報に基づいて推定した前記移動体の第1の位置情報を取得する第1の位置情報の取得工程と、
前記第2のセンサからの入力情報に基づいて推定した前記移動体の第2の位置情報を取得する第2の位置情報の取得工程と、
同一の座標系における前記第1の位置情報と前記第2の位置情報とのうち、前記移動体の移動を制御する位置情報を選択する選択工程と、
前記第1の位置情報と該第1の位置情報と同期した前記第2の位置情報との同一の座標系における差分情報を取得する差分取得工程と、
前記選択工程で選択する位置情報が切り替わった場合、前記差分取得工程で取得した差分情報を用いて、前記選択工程で選択した位置情報を、切り替え前に選択していた位置情報に近づくように補正する補正工程と、
を有することを特徴とする情報処理装置。 It is an information processing method
The first position information acquisition step of acquiring the first position information of the moving body estimated based on the input information from the first sensor and the second sensor fixed to the moving body, and
The second position information acquisition step of acquiring the second position information of the moving body estimated based on the input information from the second sensor, and the process of acquiring the second position information.
A selection step of selecting the position information for controlling the movement of the moving body from the first position information and the second position information in the same coordinate system.
A difference acquisition step of acquiring difference information in the same coordinate system between the first position information and the second position information synchronized with the first position information.
When the position information selected in the selection process is switched, the difference information acquired in the difference acquisition process is used to correct the position information selected in the selection process so as to approach the position information selected before the switching. Correction process and
An information processing device characterized by having.
移動体に固定された第1のセンサからの入力情報に基づいて推定した前記移動体の第1の位置情報を取得する第1の位置情報の取得手段と、
前記移動体に固定された第2のセンサからの入力情報に基づいて推定した前記移動体の第2の位置情報を取得する第2の位置情報の取得手段と、
同一の座標系における前記第1の位置情報と前記第2の位置情報とのうち、前記移動体の移動を制御する位置情報を選択する選択手段と、
前記第1の位置情報と該第1の位置情報と同期した前記第2の位置情報との同一の座標系における差分情報を取得する差分取得手段と、
前記選択手段が選択する位置情報が切り替わった場合、前記差分取得手段で取得した差分情報を用いて、前記選択手段により選択した位置情報を、切り替え前に選択していた位置情報に近づくように補正する補正手段と、を有する情報処理装置によって移動を制御される移動体。 It ’s a moving body,
A first position information acquisition means for acquiring the first position information of the moving body estimated based on the input information from the first sensor fixed to the moving body, and
A second position information acquisition means for acquiring the second position information of the moving body estimated based on the input information from the second sensor fixed to the moving body, and
A selection means for selecting the position information that controls the movement of the moving body from the first position information and the second position information in the same coordinate system.
A difference acquisition means for acquiring difference information in the same coordinate system between the first position information and the second position information synchronized with the first position information.
When the position information selected by the selection means is switched, the difference information acquired by the difference acquisition means is used to correct the position information selected by the selection means so as to approach the position information selected before the switching. A moving body whose movement is controlled by an information processing device having a correction means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/512,294 US20220137626A1 (en) | 2020-11-04 | 2021-10-27 | Apparatus, method, and non-transitory computer-readable storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020184617 | 2020-11-04 | ||
JP2020184617 | 2020-11-04 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022075500A true JP2022075500A (en) | 2022-05-18 |
Family
ID=81605727
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021135585A Pending JP2022075500A (en) | 2020-11-04 | 2021-08-23 | Information processing device, information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022075500A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024034469A1 (en) * | 2022-08-12 | 2024-02-15 | 京セラ株式会社 | Information processing device, information processing method, and program |
-
2021
- 2021-08-23 JP JP2021135585A patent/JP2022075500A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024034469A1 (en) * | 2022-08-12 | 2024-02-15 | 京セラ株式会社 | Information processing device, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7404010B2 (en) | Position estimation device and method | |
JP2016149132A (en) | System and method for prediction in driver assist system of vehicle | |
WO2011074165A1 (en) | Autonomous mobile device | |
JP2020504872A (en) | System and method for controlling vehicle movement | |
JP2022510418A (en) | Time synchronization processing method, electronic devices and storage media | |
CN111338383A (en) | Autonomous flight method and system based on GAAS and storage medium | |
CN112362054B (en) | Calibration method, calibration device, electronic equipment and storage medium | |
US10928206B2 (en) | Vehicle control system, own vehicle position calculation apparatus, vehicle control apparatus, own vehicle position calculation program, and non-transitory computer readable storage medium | |
Zhao et al. | Landing system for AR. Drone 2.0 using onboard camera and ROS | |
CN111949027A (en) | Self-adaptive robot navigation method and device | |
JP7368489B2 (en) | Thermopile array fusion tracking | |
JP2022075500A (en) | Information processing device, information processing method and program | |
Smith et al. | PiPS: Planning in perception space | |
KR102168104B1 (en) | Automatic driving method of agricultural vehicle | |
CN112345798B (en) | Position and orientation estimation device and position and orientation estimation method | |
JP2021136009A (en) | Information processing apparatus, information processing method, and program | |
US20240087166A1 (en) | Aligning multiple coordinate systems for informaton model rendering | |
US20220137626A1 (en) | Apparatus, method, and non-transitory computer-readable storage medium | |
US11620846B2 (en) | Data processing method for multi-sensor fusion, positioning apparatus and virtual reality device | |
US20210262804A1 (en) | Information processing device, information processing method, and storage medium | |
WO2021246170A1 (en) | Information processing device, information processing system and method, and program | |
JP2007066045A (en) | Simulation device | |
JP7242040B2 (en) | MOBILE BODY CONTROL DEVICE, MOBILE BODY CONTROL METHOD, AND COMPUTER PROGRAM | |
KR20210073281A (en) | Method and apparatus for estimating motion information | |
JP2019148456A (en) | Calculation device, self-location calculation method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |