JP2022075500A - Information processing device, information processing method and program - Google Patents

Information processing device, information processing method and program Download PDF

Info

Publication number
JP2022075500A
JP2022075500A JP2021135585A JP2021135585A JP2022075500A JP 2022075500 A JP2022075500 A JP 2022075500A JP 2021135585 A JP2021135585 A JP 2021135585A JP 2021135585 A JP2021135585 A JP 2021135585A JP 2022075500 A JP2022075500 A JP 2022075500A
Authority
JP
Japan
Prior art keywords
position information
information
difference
moving body
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021135585A
Other languages
Japanese (ja)
Inventor
真司 大平
Shinji Ohira
誠 冨岡
Makoto Tomioka
大輔 小竹
Daisuke Kotake
真和 藤木
Masakazu Fujiki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US17/512,294 priority Critical patent/US20220137626A1/en
Publication of JP2022075500A publication Critical patent/JP2022075500A/en
Pending legal-status Critical Current

Links

Images

Abstract

To suppress unstable movement of a moving body, resulting from an occurrence of a position information deviation, when a piece of position information used to control a movement of the moving body is switched among pieces of position information obtained from two systems.SOLUTION: Difference information in the same coordinate system as that of second position information obtained in synchronization with first position information of a moving body, estimated based on measurement information by a first sensor, is obtained; position information used for controlling a movement of the moving body is selected from the first position information and the second position information; and when the position information used for controlling the movement of the moving body is switched, the selected information is corrected using the difference information, so as to be close to the position information selected before the switching thereof.SELECTED DRAWING: Figure 4

Description

本発明は、計測情報から移動体の位置を推定する技術に関する。 The present invention relates to a technique for estimating the position of a moving body from measurement information.

環境に存在する物体とセンサとの距離を計測するセンサを搭載した移動体において、センサから得られた計測情報に基づき移動体の位置を推定する技術がある。移動体に複数のセンサを搭載し、各センサで推定した移動体の位置を、状況に応じて切り替えて使用することで、より高精度に移動体の位置を推定できる。この時、各センサが推定した位置はセンサごとに独立して推定した位置であるため、移動体の移動制御に使用するにはセンサ間で位置の整合性を取る、すなわち座標系を統一する必要がある。非特許文献1では、カメラとレーザセンサの配置関係を事前に計測しておくことで、カメラとレーザにより計測された位置姿勢を同一の座標系で扱えるようにしている。 In a moving body equipped with a sensor that measures the distance between an object existing in the environment and the sensor, there is a technique for estimating the position of the moving body based on the measurement information obtained from the sensor. By mounting a plurality of sensors on the moving body and switching the position of the moving body estimated by each sensor according to the situation, the position of the moving body can be estimated with higher accuracy. At this time, since the position estimated by each sensor is the position estimated independently for each sensor, it is necessary to make the positions consistent among the sensors, that is, to unify the coordinate system in order to use it for the movement control of the moving body. There is. In Non-Patent Document 1, the positional relationship between the camera and the laser sensor is measured in advance so that the position and orientation measured by the camera and the laser can be handled in the same coordinate system.

W. Dong, et al., “A Novel Method for the Extrinsic Calibration of a 2D Laser Rangefinder and a Camera,” ICRA‘17, 2017.W. Dong, et al. , "A Novel Method for the External Calibration of a 2D Laser Rangefinder and a Camera," ICRA'17, 2017.

しかし、非特許文献1の方法でセンサの配置関係を校正したとしても,各センサの計測誤差により位置姿勢の差異が発生する。実際には存在しない差異を解消しようとして、移動体の移動が不安定になることがある。本発明は、上記の課題に鑑みてなされたものであり、2つ以上のセンサの計測値から推定した位置姿勢を切り替えて使用する時に、移動体を安定して移動させるようにすることを目的とする。 However, even if the arrangement relationship of the sensors is calibrated by the method of Non-Patent Document 1, a difference in position and orientation occurs due to a measurement error of each sensor. The movement of a moving object may become unstable in an attempt to eliminate a difference that does not actually exist. The present invention has been made in view of the above problems, and an object of the present invention is to stably move a moving body when the position and orientation estimated from the measured values of two or more sensors are switched and used. And.

本発明に係る情報処理装置は以下の構成を備える。即ち、移動体に固定された第1のセンサからの入力情報に基づいて推定した前記移動体の第1の位置情報を取得する第1の位置情報の取得手段と、前記移動体に固定された第2のセンサからの入力情報に基づいて推定した前記移動体の第2の位置情報を取得する第2の位置情報の取得手段と、同一の座標系における前記第1の位置情報と前記第2の位置情報とのうち、前記移動体の移動を制御する位置情報を選択する選択手段と、前記第1の位置情報と該第1の位置情報と同期した前記第2の位置情報との同一の座標系における差分情報を取得する差分取得手段と、前記選択手段が選択する位置情報が切り替わった場合、前記差分取得手段で取得した差分情報を用いて、前記選択手段により選択した位置情報を補正する補正手段。 The information processing apparatus according to the present invention has the following configurations. That is, the first position information acquisition means for acquiring the first position information of the moving body estimated based on the input information from the first sensor fixed to the moving body, and the moving body fixed to the moving body. The second position information acquisition means for acquiring the second position information of the moving body estimated based on the input information from the second sensor, the first position information in the same coordinate system, and the second position information. Of the position information of the above, the selection means for selecting the position information for controlling the movement of the moving body and the same of the first position information and the second position information synchronized with the first position information. When the difference acquisition means for acquiring the difference information in the coordinate system and the position information selected by the selection means are switched, the position information selected by the selection means is corrected by using the difference information acquired by the difference acquisition means. Correction means.

本発明によれば、2つ以上のセンサからの計測値に基づき推定した位置姿勢を切り替えて使用する時に、移動体を安定して移動させることができる。 According to the present invention, the moving body can be stably moved when the position / posture estimated based on the measured values from two or more sensors is switched and used.

情報処理システムのシステム構成例を示す図Diagram showing a system configuration example of an information processing system 情報処理装置の機能構成例を示すブロック図Block diagram showing a functional configuration example of an information processing device 情報処理装置のハードウェア構成の一例を示す図The figure which shows an example of the hardware composition of an information processing apparatus. 情報処理装置が実行する処理を説明するフローチャートFlow chart explaining the processing executed by the information processing device 差分取得部が実行する処理を説明するフローチャートFlowchart explaining the process executed by the difference acquisition unit 情報処理装置が実行する処理を説明するフローチャートFlow chart explaining the processing executed by the information processing device 情報処理装置が実行する処理を説明するフローチャートFlow chart explaining the processing executed by the information processing device

<実施形態1>
本実施形態では、移動体に画像センサと距離センサを搭載した移動体を含む情報処理システムについて説明する。ここでは、移動体は具体的には自動搬送車(Automated Guided Vehicle、または、Self Driving Vehicle)であるとする。本システムは、移動体の位置姿勢を、画像センサおよび距離センサからの入力情報に基づき2系統推定する。常に2系統の位置姿勢を推定できるとは限らず、一方の位置姿勢の推定に失敗した場合には、もう一方の位置姿勢に切り替えて移動体の移動制御に使用する。1系統の位置姿勢推定結果を入力すれば、移動体の移動制御は可能である。本実施形態においては、移動体の移動制御には、主に画像センサから推定した位置姿勢を優先して使用し、画像センサからの入力情報により位置姿勢を推定できない時に、距離センサからの入力情報により推定した位置姿勢を使用する。もちろん、逆に、距離センサによって推定した位置姿勢を優先することもできる。センサによって推定する位置姿勢の信頼度などにより、どちらのセンサによって推定した位置姿勢を優先するか予め決めておく。本実施形態においては、画像センサによって推定した位置姿勢を優先する。移動体が移動している最中に、位置姿勢推定結果を取得するセンサを、画像センサから距離センサへと切り替えると、取得した位置姿勢にずれが発生することがある。移動体が、切り替え前の位置姿勢に復帰しようとして急激な方向転換をするなど、予期せぬ挙動を招く可能性がある。そこで、本実施形態では、2つのセンサ間の位置姿勢の差分を取得しておき、例えば、切り替え時の差分に基づき切り替え時の位置姿勢を補正する方法を述べる。切り替え前の画像センサによって推定されていたはずの位置姿勢を、切り替え後の距離センサによって推定した位置姿勢と差分を使って求める。なお、画像センサと距離センサとの間の配置関係はあらかじめ求められ、その配置関係に基づき2系統の位置姿勢が移動体の移動制御に用いるために同一の座標系上の位置姿勢に変換してあるものとする。2系統の位置姿勢の座標系を両方変換することは必須ではなく、それぞれが同一の座標系における位置情報として取得できていればよい。
<Embodiment 1>
In this embodiment, an information processing system including a moving body in which an image sensor and a distance sensor are mounted on the moving body will be described. Here, it is assumed that the moving body is specifically an automated guided vehicle (Automated Guided Vehicle or Self Driving Vehicle). This system estimates the position and orientation of the moving body in two systems based on the input information from the image sensor and the distance sensor. It is not always possible to estimate the position and orientation of two systems, and if the estimation of one position and orientation fails, the position and orientation are switched to the other and used for movement control of the moving body. If the position / orientation estimation result of one system is input, the movement control of the moving body is possible. In the present embodiment, the position / posture estimated from the image sensor is mainly used for the movement control of the moving body, and the input information from the distance sensor is used when the position / posture cannot be estimated from the input information from the image sensor. Use the position and orientation estimated by. Of course, conversely, the position and orientation estimated by the distance sensor can be prioritized. It is decided in advance which sensor gives priority to the position / orientation estimated by the sensor, depending on the reliability of the position / orientation estimated by the sensor. In this embodiment, priority is given to the position and orientation estimated by the image sensor. If the sensor that acquires the position / orientation estimation result is switched from the image sensor to the distance sensor while the moving object is moving, the acquired position / attitude may be displaced. The moving object may cause unexpected behavior such as a sudden change of direction in an attempt to return to the position and posture before switching. Therefore, in the present embodiment, a method of acquiring the difference in position / posture between the two sensors and correcting the position / posture at the time of switching based on the difference at the time of switching will be described. The position and orientation that should have been estimated by the image sensor before switching is obtained by using the position and orientation estimated by the distance sensor after switching and the difference. The arrangement relationship between the image sensor and the distance sensor is obtained in advance, and based on the arrangement relationship, the position and orientation of the two systems are converted into the position and orientation on the same coordinate system in order to be used for the movement control of the moving body. Suppose there is. It is not essential to convert both of the coordinate systems of the two systems of position and orientation, and it is sufficient that each of them can be acquired as position information in the same coordinate system.

以下、添付の図面を参照して、本発明の好適な実施形態を説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

図1に、本実施形態における移動体のシステム構成図を示す。本実施形態における移動体10は、位置姿勢を推定するためのセンサとして画像センサ12および距離センサ13、情報処理装置11、移動体を移動制御する制御装置14から構成される。画像センサ12と距離センサ13とは、移動体に固定して取り付けられている。 FIG. 1 shows a system configuration diagram of a moving body according to the present embodiment. The moving body 10 in the present embodiment is composed of an image sensor 12, a distance sensor 13, an information processing device 11, and a control device 14 for controlling the movement of the moving body as sensors for estimating the position and posture. The image sensor 12 and the distance sensor 13 are fixedly attached to a moving body.

本実施形態における画像センサ12および距離センサ13からの入力情報により得られる位置姿勢の具体例を説明する。現実空間中に規定された任意の世界座標系におけるセンサの位置を表す3パラメータ(X、Y、Z)、およびセンサの姿勢を表す3パラメータ(Roll、Pitch、Yaw)を合わせた6パラメータのことである。 A specific example of the position and orientation obtained from the input information from the image sensor 12 and the distance sensor 13 in the present embodiment will be described. 6 parameters including 3 parameters (X, Y, Z) representing the position of the sensor in any world coordinate system defined in the real space and 3 parameters (Roll, Pitch, Yaw) representing the posture of the sensor. Is.

図2は、本実施形態における情報処理装置11を備える移動体システムの構成例を示す図である。 FIG. 2 is a diagram showing a configuration example of a mobile system including the information processing device 11 in the present embodiment.

情報処理装置11は、第1位置情報取得部111、第2位置情報取得部112、選択部113、差分取得部114、差分保持部115、補正部116から構成される。また、第1位置情報取得部111は第1推定部121に接続しており、第1推定部121は画像センサ12に接続している。第2位置情報取得部112は第2推定部131に接続しており、第2推定部131は距離センサ13に接続している。また、補正部116は制御装置14に接続している。 The information processing device 11 is composed of a first position information acquisition unit 111, a second position information acquisition unit 112, a selection unit 113, a difference acquisition unit 114, a difference holding unit 115, and a correction unit 116. Further, the first position information acquisition unit 111 is connected to the first estimation unit 121, and the first estimation unit 121 is connected to the image sensor 12. The second position information acquisition unit 112 is connected to the second estimation unit 131, and the second estimation unit 131 is connected to the distance sensor 13. Further, the correction unit 116 is connected to the control device 14.

第1推定部121は、画像センサ12から得た入力情報に基づき位置情報を推定し、推定結果を位置情報として第1位置情報取得部111に出力する。画像センサ12は、例えばステレオカメラであり、入力情報として画像情報を取得する。第1推定部121は、画像内の特徴点についてステレオ計測を行い、特徴点の三次元位置情報を推定する。以降、ステレオ計測を行う前の、画像センサ12からの入力情報を便宜的に計測情報または計測値として説明する。 The first estimation unit 121 estimates the position information based on the input information obtained from the image sensor 12, and outputs the estimation result as the position information to the first position information acquisition unit 111. The image sensor 12 is, for example, a stereo camera, and acquires image information as input information. The first estimation unit 121 performs stereo measurement on the feature points in the image and estimates the three-dimensional position information of the feature points. Hereinafter, the input information from the image sensor 12 before performing the stereoscopic measurement will be described as measurement information or measurement value for convenience.

第2推定部131は、距離センサ13から得た入力情報に基づき位置情報を推定し、推定結果を位置情報として第2位置情報取得部112に出力する。距離センサ13は、環境に存在する物体とセンサとの距離を計測し、距離情報が入力情報として得られる。例えば、LiDARやToFセンサなどで実現される。以降、距離センサ13からの入力情報を便宜的に計測情報または計測値として説明する。 The second estimation unit 131 estimates the position information based on the input information obtained from the distance sensor 13, and outputs the estimation result as the position information to the second position information acquisition unit 112. The distance sensor 13 measures the distance between an object existing in the environment and the sensor, and distance information is obtained as input information. For example, it is realized by LiDAR or ToF sensor. Hereinafter, the input information from the distance sensor 13 will be described as measurement information or measurement value for convenience.

第1位置情報取得部111は、第1推定部121が入力した位置情報を取得し、位置情報を選択部113および差分取得部114に出力する。 The first position information acquisition unit 111 acquires the position information input by the first estimation unit 121, and outputs the position information to the selection unit 113 and the difference acquisition unit 114.

第2位置情報取得部112は、第2推定部131が入力した位置情報を取得し、位置情報を選択部113および差分取得部114に出力する。 The second position information acquisition unit 112 acquires the position information input by the second estimation unit 131, and outputs the position information to the selection unit 113 and the difference acquisition unit 114.

選択部113は、第1位置情報取得部111および第2位置情報取得部112が入力した位置情報のいずれかを選択し、選択結果および選択した位置情報を補正部116に出力する。 The selection unit 113 selects one of the position information input by the first position information acquisition unit 111 and the second position information acquisition unit 112, and outputs the selection result and the selected position information to the correction unit 116.

差分取得部114は、第1位置情報取得部111および第2位置情報取得部112が入力した位置情報から、2つの位置情報間の差分を取得し、差分情報として差分保持部115に出力する。第1位置情報取得部111および第2位置情報取得部112が入力した位置情報は同一の座標系の位置情報に変換されている。 The difference acquisition unit 114 acquires the difference between the two position information from the position information input by the first position information acquisition unit 111 and the second position information acquisition unit 112, and outputs the difference as the difference information to the difference holding unit 115. The position information input by the first position information acquisition unit 111 and the second position information acquisition unit 112 is converted into the position information of the same coordinate system.

差分保持部115は、差分取得部114が入力した差分情報を保持する。 The difference holding unit 115 holds the difference information input by the difference acquisition unit 114.

補正部116は、選択部113が入力する位置情報を差分保持部115で保持する差分情報に基づいて補正する。補正した位置情報を制御装置14に出力する。 The correction unit 116 corrects the position information input by the selection unit 113 based on the difference information held by the difference holding unit 115. The corrected position information is output to the control device 14.

尚、移動体10が情報処理装置11を搭載することもできるし、クラウド上にある情報処理装置11が、移動体10の制御を行うこともできる。 The moving body 10 can be equipped with the information processing device 11, or the information processing device 11 on the cloud can control the moving body 10.

図3は、情報処理装置11のハードウェア構成を示す図である。H11はCPUであり、システムバスH21に接続された各種デバイスの制御を行う。H12はROMであり、BIOSのプログラムやブートプログラムを記憶する。H13はRAMであり、CPUであるH11の主記憶装置として使用される。H14は外部メモリであり、情報処理装置11が処理するプログラムを格納する。入力部H15はキーボードやマウス、ロボットコントローラーであり、情報等の入力に係る処理を行う。表示部H16はH11からの指示に従って情報処理装置11の演算結果を表示装置に出力する。なお、表示装置は液晶表示装置やプロジェクタ、LEDインジケーターなど、種類は問わない。H17は通信インターフェイスであり、ネットワークを介して情報通信を行うものであり、通信インターフェイスはイーサネットでもよく、USBやシリアル通信、無線通信等種類は問わない。H17はI/Oであり、画像センサH18から画像データを、距離センサH19から距離データを入力する。なお、画像センサH18および距離センサH19とは前述した画像センサ12、距離センサ13のことである。H20は前述した制御装置14のことである。 FIG. 3 is a diagram showing a hardware configuration of the information processing apparatus 11. The H11 is a CPU and controls various devices connected to the system bus H21. The H12 is a ROM and stores a BIOS program and a boot program. H13 is a RAM and is used as a main storage device of the H11 which is a CPU. H14 is an external memory and stores a program processed by the information processing apparatus 11. The input unit H15 is a keyboard, a mouse, and a robot controller, and performs processing related to input of information and the like. The display unit H16 outputs the calculation result of the information processing device 11 to the display device according to the instruction from the H11. The display device may be of any type, such as a liquid crystal display device, a projector, or an LED indicator. H17 is a communication interface, which performs information communication via a network, and the communication interface may be Ethernet, and any type such as USB, serial communication, and wireless communication may be used. H17 is an I / O, and image data is input from the image sensor H18 and distance data is input from the distance sensor H19. The image sensor H18 and the distance sensor H19 are the image sensor 12 and the distance sensor 13 described above. H20 is the above-mentioned control device 14.

尚、CPUはプログラムを実行することで各種の手段として機能することが可能である。なお、CPUと協調して動作するASICなどの制御回路がこれらの手段として機能してもよい。また、CPUと画像処理装置の動作を制御する制御回路との協調によってこれらの手段が実現されてもよい。また、CPUは単一のものである必要はなく、複数であってもよい。この場合、複数のCPUは分散して処理を実行することが可能である。また、複数のCPUは単一のコンピュータに配置されていてもよいし、物理的に異なる複数のコンピュータに配置されていてもよい。なお、CPUがプログラムを実行することで実現する手段が専用の回路によって実現されてもよい。 The CPU can function as various means by executing a program. A control circuit such as an ASIC that operates in cooperation with the CPU may function as these means. Further, these means may be realized by cooperation between the CPU and the control circuit that controls the operation of the image processing device. Further, the CPU does not have to be a single CPU, and may be a plurality of CPUs. In this case, a plurality of CPUs can be distributed to execute the process. Further, the plurality of CPUs may be arranged in a single computer, or may be arranged in a plurality of physically different computers. The means realized by the CPU executing the program may be realized by a dedicated circuit.

図4は、本実施形態における処理手順を示すフローチャートである。AGVの走行開始が指示されたときに、本フローチャートの処理が開始される。以下、フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。 FIG. 4 is a flowchart showing a processing procedure in the present embodiment. When the start of traveling of the AGV is instructed, the processing of this flowchart is started. Hereinafter, it is assumed that the flowchart is realized by the CPU executing the control program.

ステップS101では、システムの初期化を行う。すなわち、外部メモリH14からプログラムを読み込み、情報処理装置11を動作可能な状態にする。また、情報処理装置11に接続された各機器のパラメータをRAMであるH13に書き込む。また、移動体の各制御装置を起動し、動作・制御可能な状態とする。 In step S101, the system is initialized. That is, the program is read from the external memory H14 and the information processing apparatus 11 is put into an operable state. Further, the parameters of each device connected to the information processing apparatus 11 are written in the RAM H13. In addition, each control device of the moving body is activated so that it can be operated and controlled.

ステップS102では、第1位置情報取得部111が画像センサ12から取得した入力情報に基づき第1推定部121が推定した位置姿勢を取得する。本実施形態において、画像センサを用いた位置姿勢推定方法としては、SLAM(Simultaneous Localization and Mapping)技術、Engelらの方法(J. Engel, T. Schps, and D. Cremers. LSD-SLAM: Large-Scale Direct Monocular SLAM. In European Conference on Computer Vision (ECCV), 2014)を使う。この方法は、屋外のような広域な環境において自己位置推定と地図作成を同時に実行するものである。ここで、この技術を用いた場合、センサの計測値によっては位置姿勢の推定に失敗する場合がある。具体的には、位置姿勢を推定するために必要となる画像における特徴点(エッジの交差やコーナーなど)が画像センサから得られた画像内に十分に含まれていない時に位置姿勢の推定に失敗する。例えば、画像センサのレンズ部分を遮った時に取得した全面黒い画像や、模様のない真っ白な壁面が全体に写っている画像である時に位置姿勢の推定に失敗する。位置姿勢の推定に失敗した時は位置姿勢の値を得ることができない。第1位置情報取得部111は位置姿勢の推定に失敗した場合は失敗前の時刻の位置姿勢を取得し、システム初期化後すべての位置姿勢を選択部113および差分取得部114に出力する。尚、第1位置情報取得部111が位置姿勢の推定に失敗した時刻から、所定時間遡った期間の位置姿勢を、選択部113および差分取得部114に出力することもできる。差分取得部114が差分を取得し、補正部116が位置情報を補正するために必要な期間の位置姿勢の出力に絞り、機能構成間での情報のやり取りを減らすことができる。 In step S102, the first position information acquisition unit 111 acquires the position / posture estimated by the first estimation unit 121 based on the input information acquired from the image sensor 12. In the present embodiment, as a position / orientation estimation method using an image sensor, SLAM (Simultaneus Localization and Mapping) technology, Angel et al.'S method (J. Angel, T. Schps, and D. Cremers. LSD-SLAM: Larg- Small Direction Monocular SLAM. In European Conference on Computer Vision (ECCV), 2014) is used. This method simultaneously performs self-position estimation and cartography in a wide area environment such as outdoors. Here, when this technique is used, the estimation of the position and orientation may fail depending on the measured value of the sensor. Specifically, the estimation of the position and orientation fails when the feature points (edge intersections, corners, etc.) in the image required for estimating the position and orientation are not sufficiently included in the image obtained from the image sensor. do. For example, when the image is a black image acquired when the lens portion of the image sensor is blocked, or an image in which a pure white wall surface without a pattern is shown on the whole, the estimation of the position and orientation fails. When the estimation of the position / posture fails, the value of the position / posture cannot be obtained. If the position / orientation estimation fails, the first position information acquisition unit 111 acquires the position / attitude at the time before the failure, and outputs all the position / attitudes after the system initialization to the selection unit 113 and the difference acquisition unit 114. It is also possible to output to the selection unit 113 and the difference acquisition unit 114 the position / orientation for a period retroactively from the time when the first position information acquisition unit 111 fails to estimate the position / attitude. The difference acquisition unit 114 acquires the difference, and the correction unit 116 narrows down to the output of the position / posture for the period required for correcting the position information, so that the exchange of information between the functional configurations can be reduced.

位置姿勢を選択部113および差分取得部114に出力するタイミングは、前述したように、第1位置情報取得部111が位置姿勢の推定に失敗した後のタイミングとすることもできる。また、システム初期化後、選択部113と差分取得部114に位置姿勢を出力し続けておくこともできる。 As described above, the timing of outputting the position / posture to the selection unit 113 and the difference acquisition unit 114 may be the timing after the first position information acquisition unit 111 fails to estimate the position / posture. Further, after the system is initialized, the position and orientation can be continuously output to the selection unit 113 and the difference acquisition unit 114.

なお、位置情報とは位置姿勢6パラメータと時刻データのペアを1要素とする配列データである。 The position information is array data having a pair of position / posture 6 parameters and time data as one element.

ステップS103では、第2位置情報取得部112が距離センサ13から取得した計測情報に基づき第2推定部131が推定した位置姿勢を取得する。距離センサを用いた位置姿勢推定方法としては、3Dレーザスキャナを用いたSLAM技術(Ji Zhang,and Sanjiv Singh,“LOAM: Lidar Odometry and Mapping in Real-time”, In Robotics: Science and Systems (RSS), 2014)を使う。第2位置情報取得部112においても位置姿勢の推定に失敗した場合は失敗前の時刻の位置姿勢を取得し、システム初期化後すべての位置姿勢を選択部113および差分取得部114に出力する。また、第2位置情報取得部112が位置姿勢の推定に失敗した時刻から、所定時間遡った期間の位置姿勢を、選択部113および差分取得部114に出力することもできる。 In step S103, the second position information acquisition unit 112 acquires the position / posture estimated by the second estimation unit 131 based on the measurement information acquired from the distance sensor 13. SLAM technology (Ji Zhang, and Sanjiv Singh, "LOAM: Lidar Odomery and Mapping in Real-time", In Robotics: Sensors) using a 3D laser scanner as a method for estimating the position and orientation using a distance sensor. , 2014). If the second position information acquisition unit 112 also fails to estimate the position / orientation, the position / attitude at the time before the failure is acquired, and all the positions / attitudes after system initialization are output to the selection unit 113 and the difference acquisition unit 114. Further, it is also possible to output to the selection unit 113 and the difference acquisition unit 114 the position / orientation for a period retroactive by a predetermined time from the time when the second position information acquisition unit 112 fails to estimate the position / attitude.

位置姿勢を選択部113および差分取得部114に出力するタイミングは、前述したように、第2位置情報取得部112が位置姿勢の推定に失敗した後のタイミングとすることもできる。また、システム初期化後、選択部113と差分取得部114に位置姿勢を出力し続けておくこともできる。 As described above, the timing of outputting the position / posture to the selection unit 113 and the difference acquisition unit 114 may be the timing after the second position information acquisition unit 112 fails to estimate the position / posture. Further, after the system is initialized, the position and orientation can be continuously output to the selection unit 113 and the difference acquisition unit 114.

なお、本実施形態において画像センサ12と距離センサ13は時刻同期して動作し、同一時刻の計測値を入力として位置姿勢を推定するものとする。 In this embodiment, the image sensor 12 and the distance sensor 13 operate in synchronization with the time, and the position and orientation are estimated by inputting the measured values at the same time.

ステップS104では、選択部113が、第1位置情報取得部111および第2位置情報取得部112が入力した位置情報のいずれかを選択する。本実施形態においては、基本的には第1位置情報取得部111が入力した位置情報を優先して選択する。第1位置情報取得部111の位置情報に現在時刻の位置姿勢が含まれない場合、すなわち画像センサ12の計測値を用いた位置姿勢の推定に失敗している場合に、第2位置情報取得部112が入力した位置情報を選択する。選択結果および選択した位置情報は差分取得部114および補正部116に出力する。 In step S104, the selection unit 113 selects one of the position information input by the first position information acquisition unit 111 and the second position information acquisition unit 112. In the present embodiment, basically, the position information input by the first position information acquisition unit 111 is preferentially selected. When the position information of the first position information acquisition unit 111 does not include the position / orientation at the current time, that is, when the estimation of the position / orientation using the measured value of the image sensor 12 fails, the second position information acquisition unit Select the position information entered by 112. The selection result and the selected position information are output to the difference acquisition unit 114 and the correction unit 116.

ステップS105では、差分取得部114が、第1位置情報取得部111および第2位置情報取得部112から入力された2つの位置情報から差分を算出し、差分情報として差分保持部115に出力する。ステップS105は、ステップS104の処理に依存せず、ステップS102,ステップS103の処理が終わっていれば実行を開始できる。なお、差分情報は位置姿勢6パラメータである。詳細な差分算出方法は後述する。2つの位置情報は、同一の座標系に変換後の位置情報である。 In step S105, the difference acquisition unit 114 calculates the difference from the two position information input from the first position information acquisition unit 111 and the second position information acquisition unit 112, and outputs the difference as the difference information to the difference holding unit 115. Step S105 does not depend on the processing of step S104, and can start execution if the processing of steps S102 and S103 is completed. The difference information is the position / orientation 6 parameter. The detailed difference calculation method will be described later. The two position information is the position information after conversion to the same coordinate system.

ステップS106では、補正部116が、差分保持部115で保持する差分情報に基づき選択部113が入力した位置情報を補正する。詳細な補正方法は後述する。補正した位置情報を制御装置14に出力することで、無人搬送車を移動制御する。 In step S106, the correction unit 116 corrects the position information input by the selection unit 113 based on the difference information held by the difference holding unit 115. The detailed correction method will be described later. By outputting the corrected position information to the control device 14, the automatic guided vehicle is moved and controlled.

ステップS107では、システムを終了(移動体を停止させる)するか否か判定する。具体的には、ユーザからの終了指示を入力部H15により受信した場合に終了する。そうでなければステップS102に戻り処理を継続する。 In step S107, it is determined whether or not to terminate the system (stop the moving body). Specifically, it ends when the end instruction from the user is received by the input unit H15. If not, the process returns to step S102 and the process is continued.

図5はステップS105における差分取得方法の処理手順を示すフローチャートである。 FIG. 5 is a flowchart showing a processing procedure of the difference acquisition method in step S105.

ステップS201では、第1位置情報取得部111と第2位置情報取得部112から入力された位置情報から、差分を求めるための入力となる位置姿勢の組み合わせを選択する。本実施形態においては、最新時刻で、かつ第1位置情報取得部111と第2位置情報取得部112の両方の位置姿勢が存在する1組を選択する。 In step S201, a combination of positions and postures to be input for obtaining a difference is selected from the position information input from the first position information acquisition unit 111 and the second position information acquisition unit 112. In the present embodiment, one set is selected at the latest time and in which the positions and orientations of both the first position information acquisition unit 111 and the second position information acquisition unit 112 exist.

ステップS202では、ステップS201で選択した2つの位置姿勢から相対位置姿勢を求める。具体的には、第1位置情報取得部111および第2位置情報取得部112から取得した位置姿勢6パラメータを並進成分(X,Y,Z)と回転成分(Roll,Pitch,Yaw)に分け、各成分から相対位置と相対姿勢を求める。相対位置は第1位置情報取得部111が取得した位置姿勢の並進成分から第2位置情報取得部112が取得した位置姿勢の並進成分をパラメータごとに減算して求める。相対姿勢は回転成分を3×3回転行列に変換して求める。第1位置情報取得部111により取得した位置姿勢から変換した回転行列をR、第2位置情報取得部112により取得した位置姿勢から変換した回転行列をRとすると、R=MRとなる変換行列Mを求める。この変換行列Mが相対姿勢を表す。求めた相対位置および相対姿勢は差分情報として差分保持部115に出力する。差分保持部115に保持される差分は、例えば、画像センサ12と距離センサ13との計測誤差による差分である。現実世界では、選択部113が第1位置情報取得部111から第2位置情報取得部112へと選択を切り替えた時に、移動体の位置姿勢に差分が生じているわけではない。 In step S202, the relative position / posture is obtained from the two position / postures selected in step S201. Specifically, the position / orientation 6 parameters acquired from the first position information acquisition unit 111 and the second position information acquisition unit 112 are divided into translational components (X, Y, Z) and rotation components (Roll, Pitch, Yaw). Obtain the relative position and relative posture from each component. The relative position is obtained by subtracting the translational component of the position / posture acquired by the second position information acquisition unit 112 from the translational component of the position / posture acquired by the first position information acquisition unit 111 for each parameter. The relative posture is obtained by converting the rotation component into a 3 × 3 rotation matrix. Let R V be the rotation matrix converted from the position and orientation acquired by the first position information acquisition unit 111 , and RL be the rotation matrix converted from the position and orientation acquired by the second position information acquisition unit 112. The transformation matrix M is obtained. This transformation matrix M represents a relative posture. The obtained relative position and relative posture are output to the difference holding unit 115 as difference information. The difference held in the difference holding unit 115 is, for example, a difference due to a measurement error between the image sensor 12 and the distance sensor 13. In the real world, when the selection unit 113 switches the selection from the first position information acquisition unit 111 to the second position information acquisition unit 112, there is no difference in the position and orientation of the moving body.

上述した差分取得処理手順は、画像センサ12の計測値に基づいた位置姿勢推定が失敗した時、すなわち選択部113が第1位置情報取得部111から第2位置情報取得部112へと選択を切り替えた時に実行する処理手順である。一方で、画像センサ12を用いた位置姿勢推定が再度成功した時、すなわち、選択部113が、第2位置情報取得部112から第1位置情報取得部111へと選択を切り替えた時は、補正の必要がなくなるため差分情報を初期値にリセットする手順を実行する。初期値は、相対位置(X,Y,Z)の全ての成分がゼロ、相対姿勢は回転行列が単位行列となる。 In the difference acquisition processing procedure described above, when the position / orientation estimation based on the measured value of the image sensor 12 fails, that is, the selection unit 113 switches the selection from the first position information acquisition unit 111 to the second position information acquisition unit 112. It is a processing procedure to be executed at the time. On the other hand, when the position / orientation estimation using the image sensor 12 is successful again, that is, when the selection unit 113 switches the selection from the second position information acquisition unit 112 to the first position information acquisition unit 111, the correction is made. Since there is no need for, execute the procedure to reset the difference information to the initial value. The initial value is zero for all components of the relative position (X, Y, Z), and the rotation matrix is the unit matrix for the relative posture.

次にステップS106における補正方法の処理手順について説明する。 Next, the processing procedure of the correction method in step S106 will be described.

選択部113が補正部116に入力する位置姿勢に対して、差分保持部115で保持する相対位置および相対姿勢を加えることにより補正する。具体的には、補正についても差分取得時と同様に並進成分と回転成分に分け、成分ごとに計算する。並進成分は、選択部113が入力する位置姿勢の並進成分に、差分情報に含まれる相対位置をパラメータごとに加算して求める。回転成分は、選択部113が入力する位置姿勢の回転成分を3×3回転行列Rに変換し、差分情報に含まれる相対姿勢との行列積MRを求める。以上のように補正した位置姿勢を位置情報として制御装置14に出力する。 The position and orientation input by the selection unit 113 to the correction unit 116 are corrected by adding the relative position and the relative posture held by the difference holding unit 115. Specifically, the correction is also divided into a translation component and a rotation component in the same manner as when the difference is acquired, and the calculation is performed for each component. The translation component is obtained by adding the relative position included in the difference information to the translation component of the position and orientation input by the selection unit 113 for each parameter. As the rotation component, the rotation component of the position and orientation input by the selection unit 113 is converted into a 3 × 3 rotation matrix RS , and the matrix product MRS with the relative posture included in the difference information is obtained. The position / orientation corrected as described above is output to the control device 14 as position information.

2種のセンサ値から推定した位置姿勢を移動体の移動制御に使用するシステムにおいて、使用する位置姿勢を画像センサからの入力情報により推定した位置姿勢から、距離センサからの入力情報により推定した位置姿勢に切り替える場合について説明した。画像センサ(第1のセンサ)と距離センサ(第2のセンサ)とで推定した位置姿勢の差分を取得し、その差分に基づき切り替え後の位置姿勢を補正する。切り替え前の画像センサによって推定されていたはずの位置姿勢を、切り替え後の距離センサによって推定した位置姿勢と差分を使って求めている。これにより、切り替え前後にそれぞれの系統で推定される位置姿勢にずれが発生しても、移動体の走行が不安定になることを抑制できる。S106で補正された移動体の位置姿勢は、切り替え前のセンサによって推定していた位置姿勢に近づく(差が小さくなる)ので、連続性を保ちやすくなる。尚、本実施形態の情報処理装置11は、AGVに限らず、画像センサと距離センサとを取り付けたドローンなどの無人航空機の飛行を制御することもできる。 In a system that uses the position and orientation estimated from the two sensor values for the movement control of the moving body, the position and orientation to be used is estimated from the position and orientation estimated by the input information from the image sensor, and the position estimated by the input information from the distance sensor. The case of switching to the posture was explained. The difference in position and orientation estimated by the image sensor (first sensor) and the distance sensor (second sensor) is acquired, and the position and orientation after switching is corrected based on the difference. The position and orientation that should have been estimated by the image sensor before switching is obtained by using the position and orientation estimated by the distance sensor after switching and the difference. As a result, even if the position and posture estimated in each system shift before and after switching, it is possible to prevent the moving body from becoming unstable. Since the position / orientation of the moving body corrected in S106 approaches the position / orientation estimated by the sensor before switching (the difference becomes small), it becomes easy to maintain continuity. The information processing device 11 of the present embodiment is not limited to the AGV, and can also control the flight of an unmanned aerial vehicle such as a drone equipped with an image sensor and a distance sensor.

さらに、失敗していた画像センサ(第1のセンサ)に基づく位置姿勢推定が再度成功するようになり、画像センサの計測値に基づく位置姿勢推定へと切り替える時にも、位置姿勢を補正することができる。距離センサの計測値に基づく位置姿勢推定から画像センサの計測値に基づく位置姿勢推定へ切り替えを完了するまでの期間を決め、その期間内で徐々に切り替えられるように、重み付き平均を用いて位置姿勢を統合する方法について述べる。 Furthermore, the position / orientation estimation based on the failed image sensor (first sensor) will succeed again, and the position / attitude can be corrected even when switching to the position / attitude estimation based on the measured value of the image sensor. can. Determine the period from the position and orientation estimation based on the measured values of the distance sensor to the position and orientation estimation based on the measured values of the image sensor, and use the weighted average to gradually switch within that period. Describes how to integrate postures.

図2で説明した情報処理装置11の機能構成に加え、期間決定部および重み決定部、統合部をさらに備える。 In addition to the functional configuration of the information processing apparatus 11 described with reference to FIG. 2, a period determination unit, a weight determination unit, and an integration unit are further provided.

期間決定部は、第2位置情報取得部112から第1位置情報取得部111への切り替えを完了するまでの期間を決定し、期間情報として重み決定部に出力する。 The period determination unit determines the period until the switching from the second position information acquisition unit 112 to the first position information acquisition unit 111 is completed, and outputs the period information to the weight determination unit.

重み決定部は、期間決定部が入力する期間情報を用いて重みを決定し、統合部に出力する。 The weight determination unit determines the weight using the period information input by the period determination unit and outputs the weight to the integration unit.

統合部は重み決定部が入力する重みに基づき、第1位置情報取得部111と補正部116により取得した2つの位置情報を統合する。 The integration unit integrates the two position information acquired by the first position information acquisition unit 111 and the correction unit 116 based on the weight input by the weight determination unit.

図6は、本実施形態における処理手順のフローチャートを示す図である。図4と同一であるステップについては説明を省略し、異なる処理手順を説明する。 FIG. 6 is a diagram showing a flowchart of the processing procedure in the present embodiment. The steps that are the same as those in FIG. 4 will be omitted, and different processing procedures will be described.

ステップS301では、RAMであるH13に保存してある選択結果が第2位置情報取得部112であり、選択部113が入力した選択結果が第1位置情報取得部111である場合に、S302に進む。すなわち位置姿勢推定の入力となるセンサを距離センサ13から画像センサ12に切り替える場合にS302に進む。そうでない場合はS303まで処理をスキップする。 In step S301, if the selection result stored in the RAM H13 is the second position information acquisition unit 112 and the selection result input by the selection unit 113 is the first position information acquisition unit 111, the process proceeds to S302. .. That is, when the sensor that is the input of the position / orientation estimation is switched from the distance sensor 13 to the image sensor 12, the process proceeds to S302. If not, the process is skipped up to S303.

ステップS302では、期間決定部が、距離センサ(第2のセンサ)の計測値に基づく位置姿勢推定から画像センサ(第1のセンサ)の計測値に基づく位置姿勢推定へ切り替えを完了するまでの期間を決める。本実施形態においては、この期間は10イタレーション(1イタレーションはあたり1回の位置姿勢出力)であるとする。 In step S302, the period until the period determination unit completes the switching from the position / orientation estimation based on the measured value of the distance sensor (second sensor) to the position / attitude estimation based on the measured value of the image sensor (first sensor). To decide. In the present embodiment, it is assumed that this period is 10 iterations (1 iteration is one position / posture output per iteration).

ステップS303では、重み決定部が、期間決定部が入力する期間情報に基づき、画像センサ12の計測値から推定した位置姿勢と距離センサ13の計測値から推定した位置姿勢のそれぞれに対する重みを決定する。画像センサの位置姿勢に対する重みは、10イタレーションの間で期間開始時は0とし、期間終了にかけて徐々に大きくしたいため、画像センサの位置姿勢に対する重みをW(0≦W≦1)とすると、W=(現在のイタレーション数)/10となる。一方、距離センサの位置姿勢の重みをW(0≦W≦1)とすると、画像センサの位置姿勢の重みと整合を取る必要があるため、W=1-Wとなる。重み決定部は現在のイタレーション数をRAMであるH13に保存し、ステップS303実行ごとに1を加算することで、距離センサに対する画像センサの重みを徐々に大きくする。例えば、期間開始時には距離センサ13の計測値から推定した位置姿勢の重みが1であり、期間終了時には画像センサの計測値から推定した位置姿勢の重みが1になる。 In step S303, the weight determination unit determines the weights for each of the position / posture estimated from the measured value of the image sensor 12 and the position / posture estimated from the measured value of the distance sensor 13 based on the period information input by the period determination unit. .. The weight for the position and orientation of the image sensor is set to 0 at the start of the period between 10 iterations , and it is desired to gradually increase toward the end of the period. Then, WC = (current number of iterations) / 10. On the other hand, if the weight of the position / orientation of the distance sensor is WL (0 ≦ WL ≦ 1), it is necessary to match the weight of the position / orientation of the image sensor, so WL = 1- WC . The weight determination unit stores the current number of iterations in H13, which is a RAM, and adds 1 for each execution of step S303 to gradually increase the weight of the image sensor with respect to the distance sensor. For example, at the start of the period, the weight of the position / posture estimated from the measured value of the distance sensor 13 is 1, and at the end of the period, the weight of the position / posture estimated from the measured value of the image sensor is 1.

ステップS304では、統合部が、重み決定部が入力する重みに基づき、画像センサ12の計測値から推定した位置姿勢と、距離センサ13の計測値から推定した位置姿勢とを重み付き平均を用いて統合する。具体的には、位置姿勢6パラメータのそれぞれに対して重み付き平均を計算することで統合後の位置姿勢を求める。 In step S304, the integration unit uses a weighted average of the position / posture estimated from the measured value of the image sensor 12 and the position / posture estimated from the measured value of the distance sensor 13 based on the weight input by the weight determination unit. Integrate. Specifically, the position and orientation after integration are obtained by calculating the weighted average for each of the six position and orientation parameters.

このように、一度推定に用いるセンサを切り替えた後、再度元のセンサに戻す時に、切り替えを完了するまでの期間を決め、その期間内で徐々に切り替えられるように、重み付き平均を用いて位置姿勢を統合する。これにより、切り替え時の位置姿勢のずれの発生により、移動体の移動が不安定になることを抑制できる。 In this way, after switching the sensor used for estimation once, when returning to the original sensor again, the period until the switching is completed is determined, and the position is positioned using the weighted average so that the switching can be performed gradually within that period. Integrate posture. As a result, it is possible to prevent the movement of the moving body from becoming unstable due to the occurrence of displacement of the position and posture at the time of switching.

<変形例1-1>
実施形態1において、第1位置情報取得部111は画像センサ12を用いたSLAM技術により推定した位置姿勢を取得していた。一方、第2位置情報取得部112は距離センサ13を用いたSLAM技術により推定した位置姿勢を取得していた。しかし、SLAM技術と組み合わせるセンサはこれらに限られるものではなく、どんなセンサであってもよい。Time of Flightやパターン光投影などアクティブ距離センサとSLAM技術を組み合わせて位置姿勢を推定してもよい。
<Modification 1-1>
In the first embodiment, the first position information acquisition unit 111 has acquired the position and orientation estimated by the SLAM technique using the image sensor 12. On the other hand, the second position information acquisition unit 112 has acquired the position and orientation estimated by the SLAM technique using the distance sensor 13. However, the sensor to be combined with the SLAM technology is not limited to these, and may be any sensor. The position and orientation may be estimated by combining SLAM technology with an active distance sensor such as Time of Light or pattern light projection.

また、推定方法はSLAM技術に限られず、位置姿勢を推定できるものであれば、本実施形態の技術思想を適用できる。例えば、Wifiのような無線通信における電波強度計測に基づく方法でもよい。GPSのような衛星測位や、磁気式のトラッキングセンサ、多数の光センサで感知の時間差を用いる方法でもよい。また、監視カメラのような特定の箇所に設置したカメラで取得した画像を用いて、CADデータに基づきモデルフィッティングする方法であってもよい。 Further, the estimation method is not limited to the SLAM technique, and the technical idea of the present embodiment can be applied as long as the position and orientation can be estimated. For example, a method based on radio field intensity measurement in wireless communication such as Wifi may be used. A method using satellite positioning such as GPS, a magnetic tracking sensor, or a method using a time difference in sensing with a large number of optical sensors may be used. Further, a method of model fitting based on CAD data may be used by using an image acquired by a camera installed at a specific location such as a surveillance camera.

<変形例1-2>
実施形態1において、第1位置情報取得部111および第2位置情報取得部112が取得する位置情報には位置姿勢6パラメータが含まれていた。しかし、これに限られるものではなく、位置姿勢を表す情報が含まれていれば、本実施形態の技術思想を適用できる。例えば、2次元の位置姿勢を示す、位置2パラメータ(現実空間の床に対して水平な面上の位置X,Y)と姿勢1パラメータ(現実空間の床に対して水平な面上の回転方向)の合計3パラメータであってもよい。また、姿勢パラメータを含まず位置パラメータだけであってもよい。さらに、IMU(Inertial Measurement Unit)で取得した加速度・角速度に基づき位置姿勢を推定する方法や、タイヤの回転角に基づいてオドメトリにより位置姿勢を推定する方法であってもよい。
<Modification 1-2>
In the first embodiment, the position information acquired by the first position information acquisition unit 111 and the second position information acquisition unit 112 includes the position / posture 6 parameter. However, the present invention is not limited to this, and the technical idea of the present embodiment can be applied as long as the information indicating the position and posture is included. For example, a position 2 parameter (positions X and Y on a plane horizontal to the floor in real space) and a posture 1 parameter (rotation direction on a plane horizontal to the floor in real space) indicating a two-dimensional position and orientation. ) May be a total of three parameters. Further, the posture parameter may not be included and only the position parameter may be used. Further, a method of estimating the position / posture based on the acceleration / angular velocity acquired by the IMU (Inertial Measurement Unit) or a method of estimating the position / posture by odometry based on the rotation angle of the tire may be used.

<変形例1-3>
実施形態1において、差分取得部114が差分取得に用いる位置姿勢の組み合わせとして1組を選択していた。しかし、これに限られるものではなく、差分取得の入力として複数の組み合わせを選択してもよい。複数の位置姿勢の組み合わせを入力とした場合の差分の算出方法は、相対的な位置関係を求められる方法を使用する。差分算出方法としては、例えば、最小二乗法を用いて2系統の位置姿勢間の相対値姿勢のばらつきを最小化する方法や位置姿勢のパラメータごとに平均値を求める方法がある。
<Modification 1-3>
In the first embodiment, the difference acquisition unit 114 has selected one set as the combination of positions and postures used for the difference acquisition. However, the present invention is not limited to this, and a plurality of combinations may be selected as input for difference acquisition. As a method of calculating the difference when a combination of a plurality of positions and postures is input, a method of obtaining a relative positional relationship is used. As a difference calculation method, for example, there are a method of minimizing the variation in the relative value posture between the two systems of position and posture by using the least squares method, and a method of obtaining the average value for each position and posture parameter.

また、実施形態1において、画像センサ12と距離センサ13は時刻同期して動作し、同一の時刻の計測値を入力として位置姿勢を推定するものとしたが、これに限られるものではなく、時刻同期せず各々のタイミングで位置姿勢を推定してもよい。そのような場合、差分取得部114における差分算出の対象となる位置姿勢の組み合わせの選択方法として、以下のような変形例を用いる。例えば、画像センサ12の計測値から推定した位置姿勢の時刻と最も近い時刻となる距離センサ13の計測値から推定した位置姿勢を選択する。また、画像センサ12の計測値から推定した差分取得対象とする位置姿勢に対して、近い時刻に距離センサ13の計測値から位置姿勢を推定していない場合がある。そのときには、距離センサ13の他の時刻の位置姿勢に基づき、所望の時刻の位置姿勢を補間あるいは予測により求めてもよい。 Further, in the first embodiment, the image sensor 12 and the distance sensor 13 operate in synchronization with the time, and the position and orientation are estimated by inputting the measured values at the same time, but the time is not limited to this. The position and orientation may be estimated at each timing without synchronization. In such a case, the following modification is used as a method of selecting a combination of positions and postures to be calculated by the difference acquisition unit 114. For example, the position / posture estimated from the measured value of the distance sensor 13 which is the closest time to the time of the position / posture estimated from the measured value of the image sensor 12 is selected. Further, there is a case where the position / posture is not estimated from the measured value of the distance sensor 13 at a close time to the position / posture to be the difference acquisition target estimated from the measured value of the image sensor 12. At that time, the position / orientation at a desired time may be obtained by interpolation or prediction based on the position / orientation at another time of the distance sensor 13.

さらに、実施形態1において、差分取得部114は、第1位置情報取得部111から第2位置情報取得部112に切り替えた時にのみ差分算出を実行したが、これに限られるものではなく、それ以外のタイミングで差分算出を実行してもよい。例えば、第2位置情報取得部112へ切り替え後、画像センサ12を用いた位置姿勢推定が再度成功するまでの間に、長距離移動することがある。その場合、第1位置情報取得部111と第2位置情報取得部112で取得する位置姿勢の間のずれ量が、切り替え時に算出した差分量よりも大きくなる、または、小さくなる可能性がある。そこで、差分算出を再実行して差分情報を更新してもよい。また、差分情報の更新は一定距離間隔あるいは一定時間間隔に行ってもよく、間隔のパラメータは入力部H15を介してユーザが入力して決定してもよい。 Further, in the first embodiment, the difference acquisition unit 114 executes the difference calculation only when the first position information acquisition unit 111 is switched to the second position information acquisition unit 112, but the difference calculation is not limited to this, and other than that. The difference calculation may be executed at the timing of. For example, after switching to the second position information acquisition unit 112, it may move a long distance until the position / orientation estimation using the image sensor 12 succeeds again. In that case, the amount of deviation between the position and orientation acquired by the first position information acquisition unit 111 and the second position information acquisition unit 112 may be larger or smaller than the difference amount calculated at the time of switching. Therefore, the difference calculation may be re-executed to update the difference information. Further, the difference information may be updated at a fixed distance interval or a fixed time interval, and the parameter of the interval may be input and determined by the user via the input unit H15.

<変形例1-4>
実施形態1において、移動体システム10は無人搬送車(移動体)に限定されるものではない。例えば、移動体システム10は、自動運転車、自律移動ロボット、無人航空機であってもよい。
<Modification 1-4>
In the first embodiment, the mobile system 10 is not limited to an automatic guided vehicle (mobile). For example, the mobile system 10 may be an autonomous vehicle, an autonomous mobile robot, or an unmanned aerial vehicle.

<変形例1-5>
実施形態1において、移動体システム10は移動体の移動制御のために位置姿勢を利用していた。しかし、これに限られるものではなく、移動体の移動制御以外の目的に利用してもよい。例えば、MR(Mixd Reality)やVR(Virtual Reality)、AR(Argumented Reality)などの技術に適用して、ユーザの視点位置姿勢推定に用いてもよい。
<Modification example 1-5>
In the first embodiment, the moving body system 10 uses the position and orientation for controlling the movement of the moving body. However, the present invention is not limited to this, and may be used for purposes other than the movement control of the moving body. For example, it may be applied to technologies such as MR (Mixed Reality), VR (Virtual Reality), and AR (Augmented Reality) to be used for estimating the viewpoint position and posture of a user.

<変形例1-6>
情報処理装置11に、不図示の提示部を含む構成としてもよい。例えば、提示部に赤、黄色、緑の三色灯を用いるのであれば、選択部113が第1位置情報取得部111を選択しているときは緑色を点灯する。第2位置情報取得部112を選択している時は黄色を点灯する。第1位置情報取得部111から第2位置情報取得部112に切り替える時は赤色を点灯する。ユーザに選択結果を可視化することができる。位置姿勢の選択結果に関する情報をユーザに提示できるものであれば、LEDランプでも、液晶ディスプレイでもなんでもよい。提示装置はスピーカーでもよく、位置姿勢の選択結果に応じて特定のアラーム音や特定のメロディーが流れるような構成としてもよい。また、提示する情報は位置姿勢の選択結果以外の情報であってもよく、例えば差分保持部115で保持する差分情報であってもよい。
<Modification example 1-6>
The information processing apparatus 11 may include a presentation unit (not shown). For example, if a three-color lamp of red, yellow, and green is used for the presentation unit, green is lit when the selection unit 113 selects the first position information acquisition unit 111. When the second position information acquisition unit 112 is selected, the yellow light is turned on. When switching from the first position information acquisition unit 111 to the second position information acquisition unit 112, the red light is turned on. The selection result can be visualized to the user. An LED lamp or a liquid crystal display may be used as long as it can present information regarding the selection result of the position and orientation to the user. The presenting device may be a speaker, or may be configured such that a specific alarm sound or a specific melody is played according to the selection result of the position / posture. Further, the information to be presented may be information other than the selection result of the position / orientation, and may be, for example, the difference information held by the difference holding unit 115.

<変形例1-7>
上述の実施形態では、画像センサの計測値に対する位置姿勢の推定に失敗して、推定に用いるセンサを距離センサに切り替える時に、2つのセンサに基づく位置姿勢間の差分を求め、その差分を用いて補正していた。さらに、推定に用いるセンサを再び画像センサ(第1のセンサ)に戻す時に、2種の位置姿勢を統合することで、切り替え時の位置姿勢のずれを抑制していた。しかし、本発明は2種のセンサの両方で位置姿勢の推定が成功する場合であっても適用できる。そこで、2つのセンサの両方が位置姿勢推定に成功している状況において、位置姿勢と紐づく優先度に応じて入力となるセンサを自動で切り替える方法について述べる。
<Modification example 1-7>
In the above-described embodiment, when the estimation of the position / orientation with respect to the measured value of the image sensor fails and the sensor used for the estimation is switched to the distance sensor, the difference between the positions / attitudes based on the two sensors is obtained, and the difference is used. It was corrected. Further, when the sensor used for estimation is returned to the image sensor (first sensor) again, the two types of position / orientation are integrated to suppress the deviation of the position / orientation at the time of switching. However, the present invention can be applied even when the position and orientation estimation is successful with both of the two types of sensors. Therefore, a method of automatically switching the input sensor according to the priority associated with the position / orientation in the situation where both of the two sensors have succeeded in estimating the position / attitude will be described.

図4を用いて説明した処理と異なる処理手順のみ説明し、それ以外の手順については図4と同じ処理であるとして説明を省略する。 Only the processing procedure different from the processing described with reference to FIG. 4 will be described, and the description of the other procedures will be omitted assuming that the processing is the same as that of FIG.

ステップS102では、第1位置情報取得部111および第2位置情報取得部112が、位置情報に加え、位置情報に対する信頼度を取得する。なお、信頼度とは位置姿勢の推定結果の精度を示す指標のことである。信頼度は、位置姿勢を推定に用いた特徴点の数が多いほど高くなるように計算する。取得した信頼度は優先度として選択部113に出力する。 In step S102, the first position information acquisition unit 111 and the second position information acquisition unit 112 acquire the reliability of the position information in addition to the position information. The reliability is an index showing the accuracy of the estimation result of the position and posture. The reliability is calculated so that the larger the number of feature points used for estimation of the position and orientation, the higher the reliability. The acquired reliability is output to the selection unit 113 as a priority.

ステップS103では、第1位置情報取得部111および第2位置情報取得部112から位置情報を取得し、優先度が高い方の位置情報を選択する。 In step S103, position information is acquired from the first position information acquisition unit 111 and the second position information acquisition unit 112, and the position information having the higher priority is selected.

2種のセンサの両方が位置姿勢推定に成功する状況において、位置姿勢と紐づく優先度に応じて、第1位置情報取得部111で取得する位置情報と第2位置情報取得部112で取得する位置情報とを自動で切り替える。切り替え時に2種の位置姿勢間の差分を算出し、その差分に基づき切り替え後の位置姿勢を補正する。これにより、信頼度がより高い位置姿勢を選択しつつ、切り替え時の位置姿勢のずれの発生によって、移動体の移動が不安定になることを抑制できる。 In a situation where both of the two types of sensors succeed in estimating the position / orientation, the position information acquired by the first position information acquisition unit 111 and the second position information acquisition unit 112 acquire the information according to the priority associated with the position / attitude. Automatically switches between location information. At the time of switching, the difference between the two types of position / posture is calculated, and the position / posture after switching is corrected based on the difference. As a result, it is possible to suppress the movement of the moving body from becoming unstable due to the occurrence of the displacement of the position / posture at the time of switching while selecting the position / posture with higher reliability.

<変形例1-8>
変形例1-8において、優先度とは位置姿勢の推定結果の精度を表す信頼度であった。しかし、これに限られるものではなく、位置情報に対する優先度であれば適用できる。例えば、画像センサの入力から位置姿勢を推定する時に検出する特徴点の数を優先度として用いてもよい。また、位置姿勢推定以外の処理によって優先度を決めてもよい。例えば、画像中の輝度が一様である場合は位置姿勢の推定に失敗する可能性があると推測できるため、優先度を低く設定する。あるいは画像中の輝度の平均値が極端に低い(または高い)場合、画像センサに対する優先度を低くし、一方で距離センサの優先度を高く設定する。さらには距離センサで得られたすべての点群の距離が閾値以上の距離であったら位置姿勢推定精度が低くなる可能性があると推測して優先度を低く設定する。センサの計測値から直接優先度を決めてもよい。さらに、センサの計測値以外を用いて優先度を決めてもよい。例えば、移動体が移動するルートの一部の地図情報を保持しており、位置姿勢を推定するための入力データとして地図情報を用いる場合に、移動体の現在位置に対する地図情報が存在するか否かを優先度の決定に用いてもよい。画像センサ向けの地図が存在する場合には、画像センサが推定する位置姿勢の優先度を高く決定し、距離センサ向けの地図が存在する場合には、距離センサが推定する位置姿勢の優先度を高く決定する。
<Modification example 1-8>
In the modified example 1-8, the priority is the reliability indicating the accuracy of the estimation result of the position and orientation. However, the present invention is not limited to this, and can be applied as long as the priority is given to the location information. For example, the number of feature points detected when estimating the position / orientation from the input of the image sensor may be used as the priority. Further, the priority may be determined by a process other than the position / orientation estimation. For example, if the brightness in the image is uniform, it can be estimated that the estimation of the position and orientation may fail, so the priority is set low. Alternatively, when the average value of the luminance in the image is extremely low (or high), the priority for the image sensor is set low, while the priority for the distance sensor is set high. Furthermore, if the distances of all the point clouds obtained by the distance sensor are greater than or equal to the threshold value, the position and orientation estimation accuracy may be lowered, and the priority is set low. The priority may be determined directly from the measured value of the sensor. Further, the priority may be determined by using a value other than the measured value of the sensor. For example, when the map information of a part of the route on which the moving object is moved is held and the map information is used as the input data for estimating the position and orientation, whether or not the map information for the current position of the moving object exists. May be used to determine the priority. If there is a map for the image sensor, the priority of the position / orientation estimated by the image sensor is determined high, and if there is a map for the distance sensor, the priority of the position / orientation estimated by the distance sensor is set. Decide high.

<実施形態2>
実施形態1では、一方のセンサで位置姿勢の推定に失敗している間、もう一方のセンサに切り替える時に、2つのセンサに基づく位置姿勢間の差分を求め、その差分を用いて補正していた。実施形態2ではさらに、位置姿勢の推定に失敗しているセンサに対して、もう一方のセンサに基づく位置姿勢を渡すことで、位置姿勢推定を補助する方法について述べる。
<Embodiment 2>
In the first embodiment, while the position / orientation estimation fails with one sensor, when switching to the other sensor, the difference between the position / attitude based on the two sensors is obtained, and the difference is used for correction. .. The second embodiment further describes a method of assisting the position / orientation estimation by passing the position / attitude based on the other sensor to the sensor that has failed to estimate the position / attitude.

本実施形態における機能構成は、実施形態1で説明した情報処理装置11の機能構成を説明する図2に対して、第1推定部121と第2推定部131が接続している点が異なる。 The functional configuration in the present embodiment is different from FIG. 2, which explains the functional configuration of the information processing apparatus 11 described in the first embodiment, in that the first estimation unit 121 and the second estimation unit 131 are connected to each other.

図7は、本実施形態における処理手順のフローチャートを示す図である。実施形態1で説明した情報処理装置11の処理手順を説明する図4と同一であるステップについては説明を省略し、実施形態1と異なる処理手順を説明する。 FIG. 7 is a diagram showing a flowchart of the processing procedure in the present embodiment. The steps that are the same as those in FIG. 4, which explains the processing procedure of the information processing apparatus 11 described in the first embodiment, will be omitted, and the processing procedure different from that of the first embodiment will be described.

ステップS401では、第1推定部121が画像センサ12の計測値に基づき位置姿勢を推定し、第1位置情報取得部111および第2推定部131に出力する。なお、推定時は前回の位置姿勢推定結果を初期値として位置姿勢を推定する。第1推定部121が直前の位置姿勢の推定に失敗していた場合は、第2推定部131が入力した位置姿勢を初期値として位置姿勢を推定する。 In step S401, the first estimation unit 121 estimates the position / orientation based on the measured value of the image sensor 12, and outputs the position / orientation to the first position information acquisition unit 111 and the second estimation unit 131. At the time of estimation, the position / posture is estimated with the previous position / posture estimation result as the initial value. If the first estimation unit 121 fails to estimate the immediately preceding position / posture, the position / orientation is estimated with the position / orientation input by the second estimation unit 131 as the initial value.

ステップS402では、第2推定部131が距離センサ13の計測値に基づき位置姿勢を推定し、第2位置情報取得部112および第1推定部121に出力する。第1推定部と同様、推定時は前回の位置姿勢推定結果を初期値として位置姿勢を推定する。第2推定部131が直前の位置姿勢の推定に失敗していた場合は、第1推定部121が入力した位置姿勢を初期値として位置姿勢を推定する。 In step S402, the second estimation unit 131 estimates the position / posture based on the measured value of the distance sensor 13, and outputs the position / orientation to the second position information acquisition unit 112 and the first estimation unit 121. Similar to the first estimation unit, the position / orientation is estimated with the previous position / orientation estimation result as the initial value at the time of estimation. If the second estimation unit 131 fails to estimate the immediately preceding position / posture, the position / posture is estimated with the position / posture input by the first estimation unit 121 as the initial value.

実施形態2では、2種のセンサ値から推定した位置姿勢を移動体の移動制御に使用するシステムにおいて、画像センサ値に基づく位置姿勢の推定に失敗し、使用する位置姿勢を画像センサで推定した位置姿勢から距離センサで推定した位置姿勢へ切り替えている。切り替えた時に、2種のセンサ値に基づく位置姿勢の差分を取得し、その差分に基づき第2のセンサ値に基づく位置姿勢を補正する。これにより、切り替え後の位置姿勢のずれの発生により、移動体の移動が不安定になることを抑制できる。さらに、画像センサ(第1のセンサ)値に基づく位置姿勢の推定が失敗している時に、距離センサ(第2のセンサ)値に基づく位置姿勢を推定のパラメータとして入力し、画像センサ(第1のセンサ)値に基づく位置姿勢推定を補助する。2種のセンサ値に基づく位置情報をより効率よく活用して位置姿勢を求めることができる。 In the second embodiment, in the system in which the position / posture estimated from the two types of sensor values is used for the movement control of the moving body, the estimation of the position / posture based on the image sensor value fails, and the position / posture to be used is estimated by the image sensor. The position and attitude are switched to the position and attitude estimated by the distance sensor. When switching, the difference between the position and orientation based on the two types of sensor values is acquired, and the position and orientation based on the second sensor value is corrected based on the difference. As a result, it is possible to prevent the movement of the moving body from becoming unstable due to the occurrence of displacement of the position and posture after switching. Further, when the estimation of the position / orientation based on the image sensor (first sensor) value fails, the position / orientation based on the distance sensor (second sensor) value is input as an estimation parameter, and the image sensor (first sensor) is used. Sensor) Assists in position and orientation estimation based on values. The position and orientation can be obtained by more efficiently utilizing the position information based on the two types of sensor values.

<実施形態3>
実施形態1および2では、2つのセンサのそれぞれの入力情報に基づき2系統の位置姿勢を推定するケースにおいて、位置姿勢推定に用いるセンサを切り替える時の補正方法を説明した。一方、本実施形態では、位置姿勢計測の安定性を向上するために、一つの系統の位置姿勢を複数のセンサの出力情報に基づいて推定する場合について説明する。ここで,複数のセンサとは、画像センサとIMUである。
<Embodiment 3>
In the first and second embodiments, in the case where the position / orientation of the two systems is estimated based on the input information of each of the two sensors, the correction method when switching the sensor used for the position / orientation estimation has been described. On the other hand, in the present embodiment, in order to improve the stability of the position / posture measurement, a case where the position / posture of one system is estimated based on the output information of a plurality of sensors will be described. Here, the plurality of sensors are an image sensor and an IMU.

本実施形態では、画像センサとIMUの出力情報から推定した位置姿勢を移動体の移動制御に使用するシステムを想定する。画像センサおよびIMUの出力情報に基づく位置姿勢の推定に失敗し、使用する位置姿勢を、画像センサおよびIMUで推定した位置姿勢から、IMU単体で推定した位置姿勢へ、切り替える。切り替えた時に、2系統の位置姿勢の差分を取得し、その差分に基づき第2のセンサ値に基づく位置姿勢を補正する。2系統の位置姿勢とは、1つは、画像センサとIMUとによって推定した位置姿勢、もう1つは、IMUによって推定した位置姿勢である。 In the present embodiment, a system is assumed in which the position and orientation estimated from the output information of the image sensor and the IMU are used for the movement control of the moving body. The estimation of the position / orientation based on the output information of the image sensor and the IMU fails, and the position / orientation to be used is switched from the position / orientation estimated by the image sensor and the IMU to the position / orientation estimated by the IMU alone. When switching, the difference between the positions and orientations of the two systems is acquired, and the position and orientation based on the second sensor value is corrected based on the difference. The two systems of position and orientation are, one, the position and orientation estimated by the image sensor and the IMU, and the other, the position and orientation estimated by the IMU.

本実施形態における機能構成は、実施形態1で説明した情報処理装置11の機能構成を説明する図2に対して、距離センサ13がIMUに置き換わり、IMUが第1推定部121および第2推定部131に接続している点が異なる。 In the functional configuration of the present embodiment, the distance sensor 13 is replaced with the IMU, and the IMU is the first estimation unit 121 and the second estimation unit with respect to FIG. 2 for explaining the functional configuration of the information processing device 11 described in the first embodiment. The difference is that it is connected to 131.

本実施形態における処理手順のフローチャートは実施形態1のフローチャートを示す図4と同じであるため割愛する。ここでは、実施形態1と同一であるステップについては説明を省略し、実施形態1と異なる処理手順を説明する。 Since the flowchart of the processing procedure in the present embodiment is the same as FIG. 4 showing the flowchart of the first embodiment, it is omitted. Here, the description of the steps that are the same as those of the first embodiment will be omitted, and the processing procedure different from that of the first embodiment will be described.

ステップS102では、第1位置情報取得部111が画像センサ12およびIMUから取得した入力情報に基づき第1推定部121が推定した位置姿勢を取得する。本実施形態において、画像センサおよびIMUを用いた位置姿勢推定手法としては、ORB-SLAM3(Carlos Campos et.al, ORB-SLAM3:An Accurate Open-Source Library for Visual, Visual-Inertial and Multi-Map SLAM. Cornell University)の方法を利用する。本方法では、位置姿勢計測用地図として保存された複数の画像特徴の中から、カメラで撮影した画像データから検出した画像特徴とマッチングを行う。画像特徴位置と慣性データを組み合わせて算出した位置姿勢の差の総和(残差)が最小となる位置姿勢を計測する。なお、本実施形態において、位置姿勢計測用地図は、移動体10が自律走行を開始する前に第1推定部121によって作成され、第1推定部121が保持するものとする。ここで、この技術を用いた場合でも実施形態1で述べたSLAM技術と同様に、センサの計測値によっては位置姿勢の推定に失敗する場合があるが、第1位置情報取得部111は位置姿勢の推定に失敗した場合は失敗前の時刻の位置姿勢を取得し、システム初期化後すべての位置姿勢を選択部113および差分取得部114に出力する。 In step S102, the first position information acquisition unit 111 acquires the position / posture estimated by the first estimation unit 121 based on the input information acquired from the image sensor 12 and the IMU. In the present embodiment, as a position / orientation estimation method using an image sensor and an IMU, ORB-SLAM3 (Carlos Campos et.al, ORB-SLAM3: An Accurate Open-Source Library for Visual, Visual-Inertial SLAM3) . Use the method of Cornell University). In this method, matching is performed with an image feature detected from image data taken by a camera from a plurality of image features saved as a map for position / orientation measurement. Image feature The position / orientation that minimizes the total sum (residual) of the difference between the position / orientation calculated by combining the position and the inertial data is measured. In the present embodiment, the position / posture measurement map is created by the first estimation unit 121 before the moving body 10 starts autonomous traveling, and is held by the first estimation unit 121. Here, even when this technique is used, the estimation of the position / posture may fail depending on the measured value of the sensor, as in the SLAM technique described in the first embodiment, but the first position information acquisition unit 111 has the position / posture. If the estimation fails, the position / orientation at the time before the failure is acquired, and all the positions / attitudes after system initialization are output to the selection unit 113 and the difference acquisition unit 114.

ステップS103では、第2位置情報取得部112がIMUから取得した入力情報に基づき第2推定部131が推定した位置姿勢を取得する。本実施形態においてIMUを用いた位置姿勢推定は、IMU起動直後の位置をIMU座標系の原点とし、加速度および角速度のそれぞれに対して単位時間による2回積分を行い、変位量を算出して位置姿勢を推定する方法を利用する。 In step S103, the second position information acquisition unit 112 acquires the position / posture estimated by the second estimation unit 131 based on the input information acquired from the IMU. In the position / orientation estimation using the IMU in the present embodiment, the position immediately after the IMU is started is set as the origin of the IMU coordinate system, and the acceleration and the angular velocity are integrated twice in a unit time, and the displacement amount is calculated to calculate the position. Use the method of estimating the posture.

本実施形態の方法によれば、位置姿勢計測の安定性を向上するために一つの系統の位置姿勢を複数のセンサの出力情報に基づいて推定する場合においても、切り替え後の位置姿勢のずれの発生により、移動体の移動が不安定になることを抑制できる。切り替え前の画像センサとIMUとによって推定されていたはずの位置姿勢を、切り替え後のIMUによって推定した位置姿勢と差分を使って求めている。S106で補正された移動体の位置姿勢は、切り替え前の画像センサとIMUとによって推定していた位置姿勢に近づくので、連続性を保ちやすくなる。 According to the method of the present embodiment, even when the position / orientation of one system is estimated based on the output information of a plurality of sensors in order to improve the stability of the position / attitude measurement, the deviation of the position / attitude after switching is performed. It is possible to prevent the movement of the moving body from becoming unstable due to the occurrence. The position and orientation that should have been estimated by the image sensor before switching and the IMU are obtained by using the position and orientation estimated by the IMU after switching and the difference. Since the position / orientation of the moving body corrected in S106 approaches the position / orientation estimated by the image sensor and the IMU before switching, it becomes easy to maintain continuity.

<変形例3-1>
実施形態3において、第1位置情報取得部111は画像センサ12およびIMUを用いたSLAM技術により推定した位置姿勢を取得していた。しかし、位置情報取得に用いるセンサの組み合わせは、これに限られるものではなく、位置姿勢を推定可能であればどんなセンサの組み合わせであってもよい。
<Modification 3-1>
In the third embodiment, the first position information acquisition unit 111 has acquired the position and orientation estimated by the SLAM technique using the image sensor 12 and the IMU. However, the combination of sensors used for acquiring position information is not limited to this, and any combination of sensors may be used as long as the position and orientation can be estimated.

例えば、画像センサを用いたSLAM技術とタイヤやステアリングの回転角に基づき位置姿勢を推定するオドメトリを組み合わせて位置姿勢を推定してもよい。また、画像センサとIMUを用いたSLAM技術とオドメトリを組み合わせて位置姿勢推定してもよい。さらに、画像センサを用いたSLAM技術とGPSによる衛星測位情報を組み合わせて位置姿勢を推定してもよい。 For example, the position / orientation may be estimated by combining the SLAM technique using an image sensor and the odometry that estimates the position / orientation based on the rotation angle of the tire or the steering. Further, the position and orientation may be estimated by combining the SLAM technique using the image sensor and the IMU and the odometry. Further, the position and orientation may be estimated by combining SLAM technique using an image sensor and satellite positioning information by GPS.

一方、第2位置情報取得部112はIMUの入力情報に基づいて推定した位置姿勢を取得していた。第2位置情報取得部に用いるセンサもIMUに限られることはなく、位置姿勢を推定可能な入力情報を出力するセンサであればどんなセンサであってもよい。例えば、画像センサや移動体の制御情報、GPSなどのセンサ値を位置姿勢推定の入力情報として使用してもよい。 On the other hand, the second position information acquisition unit 112 has acquired the position and orientation estimated based on the input information of the IMU. The sensor used for the second position information acquisition unit is not limited to the IMU, and any sensor may be used as long as it is a sensor that outputs input information capable of estimating the position and orientation. For example, image sensors, control information of moving objects, sensor values such as GPS may be used as input information for position / orientation estimation.

さらに、上記で挙げた第1位置情報取得部と第2位置情報取得部を任意の組み合わせで組み合わせてもよい。例えば、第1位置情報取得部で画像センサとGPSを使用し、第2位置情報取得部で画像センサとIMUを使用してもよい。 Further, the first position information acquisition unit and the second position information acquisition unit mentioned above may be combined in any combination. For example, the image sensor and GPS may be used in the first position information acquisition unit, and the image sensor and IMU may be used in the second position information acquisition unit.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。また、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムによっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions. It can also be realized by a system composed of a plurality of devices (for example, a host computer, an interface device, an image pickup device, a web application, etc.).

10 情報処理システム
11 情報処理装置
12 画像センサ
13 距離センサ
14 制御装置
10 Information processing system 11 Information processing device 12 Image sensor 13 Distance sensor 14 Control device

Claims (14)

情報処理装置であって、
移動体に固定された第1のセンサからの入力情報に基づいて推定した前記移動体の第1の位置情報を取得する第1の位置情報の取得手段と、
前記移動体に固定された第2のセンサからの入力情報に基づいて推定した前記移動体の第2の位置情報を取得する第2の位置情報の取得手段と、
同一の座標系における前記第1の位置情報と前記第2の位置情報とのうち、前記移動体の移動を制御する位置情報を選択する選択手段と、
前記第1の位置情報と該第1の位置情報と同期した前記第2の位置情報との同一の座標系における差分情報を取得する差分取得手段と、
前記選択手段が選択する位置情報が切り替わった場合、前記差分取得手段で取得した差分情報を用いて、前記選択手段により選択した位置情報を、切り替え前に選択していた位置情報に近づくように補正する補正手段と、
を有することを特徴とする情報処理装置。
It is an information processing device
A first position information acquisition means for acquiring the first position information of the moving body estimated based on the input information from the first sensor fixed to the moving body, and
A second position information acquisition means for acquiring the second position information of the moving body estimated based on the input information from the second sensor fixed to the moving body, and
A selection means for selecting the position information that controls the movement of the moving body from the first position information and the second position information in the same coordinate system.
A difference acquisition means for acquiring difference information in the same coordinate system between the first position information and the second position information synchronized with the first position information.
When the position information selected by the selection means is switched, the difference information acquired by the difference acquisition means is used to correct the position information selected by the selection means so as to approach the position information selected before the switching. Correction means to be done,
An information processing device characterized by having.
前記差分取得手段は、前記選択手段が選択する位置情報が切り替わる前の前記第1の位置情報および前記第2の位置情報から、差分取得対象とする組み合わせを選択し、選択した位置情報の組み合わせに基づき差分を取得することを特徴とする請求項1に記載の情報処理装置。 The difference acquisition means selects a combination to be the difference acquisition target from the first position information and the second position information before the position information selected by the selection means is switched, and uses the selected position information combination. The information processing apparatus according to claim 1, wherein a difference is acquired based on the above. 前記選択手段は、前記第1の位置情報を優先して選択し、前記第1の位置情報の取得手段により位置情報を取得できない状態の場合、前記第2の位置情報の取得手段により取得した位置情報を選択すること
を特徴とする請求項1または2に記載の情報処理装置。
The selection means preferentially selects the first position information, and when the position information cannot be acquired by the first position information acquisition means, the position acquired by the second position information acquisition means. The information processing apparatus according to claim 1 or 2, wherein information is selected.
前記選択手段により前記第2の位置情報から前記第1の位置情報に選択を切り替える場合に、
前記第2の位置情報から前記第1の位置情報に切り替えるまでの期間を決定する期間決定手段と、
前記期間決定手段により決定した期間の開始時には、前記第2の位置情報を優先し、該期間の終了時には前記第1の位置情報を優先するように、前記第1の位置情報および前記第2の位置情報に対する重みを決定する重み決定手段と、
前記重み決定手段により決定した重みを用いて、前記第1の位置情報と前記補正手段により補正した前記第2の位置情報とを重み付き平均で位置情報を統合する統合手段と、
をさらに有することを特徴とする請求項3に記載の情報処理装置。
When switching the selection from the second position information to the first position information by the selection means,
A period determining means for determining a period from the second position information to switching to the first position information, and a period determining means.
At the beginning of the period determined by the period determining means, the second position information is prioritized, and at the end of the period, the first position information is prioritized, so that the first position information and the second position information are prioritized. A weight determination means that determines the weight for position information,
An integrated means that integrates the position information by a weighted average of the first position information and the second position information corrected by the correction means by using the weight determined by the weight determination means.
The information processing apparatus according to claim 3, further comprising.
前記選択手段は、第1の位置情報および第2の位置情報のそれぞれに対する優先度に基づき第1の位置情報と第2の位置情報のいずれかを選択すること
を特徴とする請求項1または2に記載の情報処理装置。
Claim 1 or 2 characterized in that the selection means selects either the first position information or the second position information based on the priority for each of the first position information and the second position information. The information processing device described in.
前記選択手段による選択結果を示す情報を表示装置に対して前記選択手段が出力することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 5, wherein the selection means outputs information indicating a selection result by the selection means to a display device. 前記第1のセンサは、前記入力情報として画像情報を入力するセンサであること
を特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 6, wherein the first sensor is a sensor that inputs image information as the input information.
前記第2のセンサは、前記入力情報として前記第2のセンサと環境に存在する物体との距離を計測する距離センサであること
を特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
The second sensor according to any one of claims 1 to 7, wherein the second sensor is a distance sensor that measures the distance between the second sensor and an object existing in the environment as the input information. Information processing device.
前記差分取得手段は、予め定められた期間ごとに、前記差分情報を取得し、
前記補正手段は、前記差分取得手段が取得した最新の差分情報を用いて、前記選択手段により選択した位置情報を補正することを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
The difference acquisition means acquires the difference information at predetermined intervals.
The information according to any one of claims 1 to 8, wherein the correction means corrects the position information selected by the selection means by using the latest difference information acquired by the difference acquisition means. Processing equipment.
情報処理装置であって、
移動体に固定された第1のセンサおよび第2のセンサからの入力情報に基づいて推定した前記移動体の第1の位置情報を取得する第1の位置情報の取得手段と、
前記第2のセンサからの入力情報に基づいて推定した前記移動体の第2の位置情報を取得する第2の位置情報の取得手段と、
同一の座標系における前記第1の位置情報と前記第2の位置情報とのうち、前記移動体の移動を制御する位置情報を選択する選択手段と、
前記第1の位置情報と該第1の位置情報と同期した前記第2の位置情報との同一の座標系における差分情報を取得する差分取得手段と、
前記選択手段が選択する位置情報が切り替わった場合、前記差分取得手段で取得した差分情報を用いて、前記選択手段により選択した位置情報を、切り替え前に選択していた位置情報に近づくように補正する補正手段と、
を有することを特徴とする情報処理装置。
It is an information processing device
A first position information acquisition means for acquiring the first position information of the moving body estimated based on the input information from the first sensor and the second sensor fixed to the moving body, and
A second position information acquisition means for acquiring the second position information of the moving body estimated based on the input information from the second sensor, and
A selection means for selecting the position information that controls the movement of the moving body from the first position information and the second position information in the same coordinate system.
A difference acquisition means for acquiring difference information in the same coordinate system between the first position information and the second position information synchronized with the first position information.
When the position information selected by the selection means is switched, the difference information acquired by the difference acquisition means is used to correct the position information selected by the selection means so as to approach the position information selected before the switching. Correction means to be done,
An information processing device characterized by having.
情報処理方法であって、
移動体に固定された第1のセンサからの入力情報に基づいて推定した前記移動体の第1の位置情報を取得する第1の位置情報の取得工程と、
前記移動体に固定された第2のセンサからの入力情報に基づいて推定した前記移動体の第2の位置情報を取得する第2の位置情報の取得工程と、
同一の座標系における前記第1の位置情報と前記第2の位置情報とのうち、前記移動体の移動を制御する位置情報を選択する選択工程と、
前記第1の位置情報と該第1の位置情報と同期した前記第2の位置情報との同一の座標系における差分を取得する差分取得工程と、
前記選択工程で選択する位置情報が切り替わった場合、前記差分取得工程で取得した差分情報を用いて、前記選択工程により選択した位置情報を、切り替え前に選択していた位置情報に近づくように補正する補正工程と、
を有することを特徴とする情報処理方法。
It is an information processing method
The first position information acquisition step of acquiring the first position information of the moving body estimated based on the input information from the first sensor fixed to the moving body, and
A second position information acquisition step of acquiring the second position information of the moving body estimated based on the input information from the second sensor fixed to the moving body, and
A selection step of selecting the position information for controlling the movement of the moving body from the first position information and the second position information in the same coordinate system.
A difference acquisition step of acquiring a difference in the same coordinate system between the first position information and the second position information synchronized with the first position information.
When the position information selected in the selection process is switched, the difference information acquired in the difference acquisition process is used to correct the position information selected in the selection process so as to approach the position information selected before the switching. Correction process and
An information processing method characterized by having.
情報処理方法であって、
移動体に固定された第1のセンサおよび第2のセンサからの入力情報に基づいて推定した前記移動体の第1の位置情報を取得する第1の位置情報の取得工程と、
前記第2のセンサからの入力情報に基づいて推定した前記移動体の第2の位置情報を取得する第2の位置情報の取得工程と、
同一の座標系における前記第1の位置情報と前記第2の位置情報とのうち、前記移動体の移動を制御する位置情報を選択する選択工程と、
前記第1の位置情報と該第1の位置情報と同期した前記第2の位置情報との同一の座標系における差分情報を取得する差分取得工程と、
前記選択工程で選択する位置情報が切り替わった場合、前記差分取得工程で取得した差分情報を用いて、前記選択工程で選択した位置情報を、切り替え前に選択していた位置情報に近づくように補正する補正工程と、
を有することを特徴とする情報処理装置。
It is an information processing method
The first position information acquisition step of acquiring the first position information of the moving body estimated based on the input information from the first sensor and the second sensor fixed to the moving body, and
The second position information acquisition step of acquiring the second position information of the moving body estimated based on the input information from the second sensor, and the process of acquiring the second position information.
A selection step of selecting the position information for controlling the movement of the moving body from the first position information and the second position information in the same coordinate system.
A difference acquisition step of acquiring difference information in the same coordinate system between the first position information and the second position information synchronized with the first position information.
When the position information selected in the selection process is switched, the difference information acquired in the difference acquisition process is used to correct the position information selected in the selection process so as to approach the position information selected before the switching. Correction process and
An information processing device characterized by having.
移動体であって、
移動体に固定された第1のセンサからの入力情報に基づいて推定した前記移動体の第1の位置情報を取得する第1の位置情報の取得手段と、
前記移動体に固定された第2のセンサからの入力情報に基づいて推定した前記移動体の第2の位置情報を取得する第2の位置情報の取得手段と、
同一の座標系における前記第1の位置情報と前記第2の位置情報とのうち、前記移動体の移動を制御する位置情報を選択する選択手段と、
前記第1の位置情報と該第1の位置情報と同期した前記第2の位置情報との同一の座標系における差分情報を取得する差分取得手段と、
前記選択手段が選択する位置情報が切り替わった場合、前記差分取得手段で取得した差分情報を用いて、前記選択手段により選択した位置情報を、切り替え前に選択していた位置情報に近づくように補正する補正手段と、を有する情報処理装置によって移動を制御される移動体。
It ’s a moving body,
A first position information acquisition means for acquiring the first position information of the moving body estimated based on the input information from the first sensor fixed to the moving body, and
A second position information acquisition means for acquiring the second position information of the moving body estimated based on the input information from the second sensor fixed to the moving body, and
A selection means for selecting the position information that controls the movement of the moving body from the first position information and the second position information in the same coordinate system.
A difference acquisition means for acquiring difference information in the same coordinate system between the first position information and the second position information synchronized with the first position information.
When the position information selected by the selection means is switched, the difference information acquired by the difference acquisition means is used to correct the position information selected by the selection means so as to approach the position information selected before the switching. A moving body whose movement is controlled by an information processing device having a correction means.
コンピュータを、請求項1乃至10のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program for making a computer function as each means of the information processing apparatus according to any one of claims 1 to 10.
JP2021135585A 2020-11-04 2021-08-23 Information processing device, information processing method and program Pending JP2022075500A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/512,294 US20220137626A1 (en) 2020-11-04 2021-10-27 Apparatus, method, and non-transitory computer-readable storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020184617 2020-11-04
JP2020184617 2020-11-04

Publications (1)

Publication Number Publication Date
JP2022075500A true JP2022075500A (en) 2022-05-18

Family

ID=81605727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021135585A Pending JP2022075500A (en) 2020-11-04 2021-08-23 Information processing device, information processing method and program

Country Status (1)

Country Link
JP (1) JP2022075500A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024034469A1 (en) * 2022-08-12 2024-02-15 京セラ株式会社 Information processing device, information processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024034469A1 (en) * 2022-08-12 2024-02-15 京セラ株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
JP7404010B2 (en) Position estimation device and method
JP2016149132A (en) System and method for prediction in driver assist system of vehicle
WO2011074165A1 (en) Autonomous mobile device
JP2020504872A (en) System and method for controlling vehicle movement
JP2022510418A (en) Time synchronization processing method, electronic devices and storage media
CN111338383A (en) Autonomous flight method and system based on GAAS and storage medium
CN112362054B (en) Calibration method, calibration device, electronic equipment and storage medium
US10928206B2 (en) Vehicle control system, own vehicle position calculation apparatus, vehicle control apparatus, own vehicle position calculation program, and non-transitory computer readable storage medium
Zhao et al. Landing system for AR. Drone 2.0 using onboard camera and ROS
CN111949027A (en) Self-adaptive robot navigation method and device
JP7368489B2 (en) Thermopile array fusion tracking
JP2022075500A (en) Information processing device, information processing method and program
Smith et al. PiPS: Planning in perception space
KR102168104B1 (en) Automatic driving method of agricultural vehicle
CN112345798B (en) Position and orientation estimation device and position and orientation estimation method
JP2021136009A (en) Information processing apparatus, information processing method, and program
US20240087166A1 (en) Aligning multiple coordinate systems for informaton model rendering
US20220137626A1 (en) Apparatus, method, and non-transitory computer-readable storage medium
US11620846B2 (en) Data processing method for multi-sensor fusion, positioning apparatus and virtual reality device
US20210262804A1 (en) Information processing device, information processing method, and storage medium
WO2021246170A1 (en) Information processing device, information processing system and method, and program
JP2007066045A (en) Simulation device
JP7242040B2 (en) MOBILE BODY CONTROL DEVICE, MOBILE BODY CONTROL METHOD, AND COMPUTER PROGRAM
KR20210073281A (en) Method and apparatus for estimating motion information
JP2019148456A (en) Calculation device, self-location calculation method and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213