JP2022092236A - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2022092236A
JP2022092236A JP2020204920A JP2020204920A JP2022092236A JP 2022092236 A JP2022092236 A JP 2022092236A JP 2020204920 A JP2020204920 A JP 2020204920A JP 2020204920 A JP2020204920 A JP 2020204920A JP 2022092236 A JP2022092236 A JP 2022092236A
Authority
JP
Japan
Prior art keywords
information
vibration
moving body
posture
acquisition means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020204920A
Other languages
Japanese (ja)
Inventor
彰人 今井
Akihito Imai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020204920A priority Critical patent/JP2022092236A/en
Publication of JP2022092236A publication Critical patent/JP2022092236A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an information processing apparatus that, even when the reliability of a sensor used for position and attitude measurement is reduced due to an impact and vibration, stably achieves the position and attitude measurement.SOLUTION: An information processing method includes: acquiring input information from a sensor mounted on a movable body (S302); acquiring vibration information including the magnitude and direction of vibration applied to the movable body (S303); and based on the input information after correction corrected by using the vibration information, acquiring the position and attitude of the movable body (S304).SELECTED DRAWING: Figure 3

Description

本発明は、移動体の位置姿勢の取得技術に関する。 The present invention relates to a technique for acquiring the position and posture of a moving body.

工場や物流倉庫において無人搬送車(Automated Guided Vehicle(AGV))のような自律車両が用いられている。また、こうした自律車両の位置姿勢の推定を行う方法として、カメラやLiDAR(Laser Imaging Detection and Ranging)をセンサーとして使用し、車両周囲の環境を計測した結果から時間ごとの位置姿勢差分を取得する方法が知られている。また、環境地図データとの比較によって位置姿勢値を算出する等の方法が知られている。 Autonomous vehicles such as automated guided vehicles (AGVs) are used in factories and distribution warehouses. In addition, as a method of estimating the position and attitude of such an autonomous vehicle, a method of using a camera or LiDAR (Laser Imaging Detection and Ringing) as a sensor and acquiring the position and attitude difference for each time from the result of measuring the environment around the vehicle. It has been known. Further, a method of calculating a position / attitude value by comparison with environmental map data is known.

移動体がセンサーから得た情報に基づいて、移動体が走行する環境に存在する物体の形状や位置を示す環境情報を作成する際に、移動体と周囲物体との相対位置の取得精度が移動体の振動に起因して低下することがある。特許文献1では、移動体に加わった加速度の計測値と加速度として想定されていた値の差分に基づいて、センサー計測値の信頼性を決定し、信頼性の低い時刻のセンサー情報を取り除く技術が開示されている。 Based on the information obtained by the moving object from the sensor, the acquisition accuracy of the relative position between the moving object and the surrounding object moves when creating environmental information indicating the shape and position of the object existing in the environment in which the moving object travels. It may decrease due to body vibration. In Patent Document 1, a technique of determining the reliability of a sensor measured value based on the difference between the measured value of the acceleration applied to a moving body and the value assumed as the acceleration and removing the sensor information at an unreliable time is used. It has been disclosed.

特開2009-174898号公報Japanese Unexamined Patent Publication No. 2009-1748998

しかしながら、特許文献1に記載された方法では、該当のセンサー情報を位置姿勢計測に用いる場合、信頼性の低い時刻において位置姿勢計測の精度が低下、あるいは計測が途切れる問題があった。 However, in the method described in Patent Document 1, when the corresponding sensor information is used for the position / attitude measurement, there is a problem that the accuracy of the position / attitude measurement is lowered or the measurement is interrupted at a time when the reliability is low.

本発明は、上記の課題に鑑みてなされたものであり、移動体の位置姿勢を安定して得る情報処理装置を提供することを目的とする。また、その方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an information processing apparatus that can stably obtain the position and posture of a moving body. It also aims to provide the method and program.

本発明に係る情報処理装置は以下の構成を有する。即ち、移動体に搭載されたセンサーからの入力情報を取得する入力情報取得手段と、前記移動体が受ける振動の大きさと方向を含む振動情報を取得する振動情報取得手段と、前記振動情報を用いて補正した補正後の入力情報に基づいて、前記移動体の位置姿勢を取得する位置姿勢取得手段とを有する。 The information processing apparatus according to the present invention has the following configuration. That is, the input information acquisition means for acquiring the input information from the sensor mounted on the moving body, the vibration information acquiring means for acquiring the vibration information including the magnitude and direction of the vibration received by the moving body, and the vibration information are used. It has a position / orientation acquisition means for acquiring the position / orientation of the moving body based on the corrected input information corrected by the above.

本発明によれば、移動体の位置姿勢を安定して得ることが可能となる。 According to the present invention, it is possible to stably obtain the position and posture of the moving body.

第1の実施形態の移動体システムの構成を示す図The figure which shows the structure of the mobile body system of 1st Embodiment 第1の実施形態の情報処理装置の機能構成を示すブロック図A block diagram showing a functional configuration of the information processing apparatus of the first embodiment. 第1の実施形態の情報処理の流れを示すフローチャート図Flow chart showing the flow of information processing of the first embodiment 第1の実施形態の衝撃振動情報取得処理の流れの詳細を示すフローチャート図A flowchart showing the details of the flow of the impact vibration information acquisition process of the first embodiment. 第1の実施形態における特徴点追跡の結果を示す模式図Schematic diagram showing the result of feature point tracking in the first embodiment 第1の実施形態の位置姿勢算出処理の流れの詳細を示すフローチャート図A flowchart showing the details of the flow of the position / orientation calculation process of the first embodiment. 第2の実施形態の移動体システムの構成を示す図The figure which shows the structure of the mobile body system of 2nd Embodiment 第2の実施形態の情報処理の流れを示すフローチャート図Flow chart showing the flow of information processing of the second embodiment

以下、本発明の実施の形態を図面を参照して詳細に説明する。尚、以下の実施の形態は本発明の特許請求の範囲を限定するものではなく、また以下の実施の形態で説明されている特徴の組み合わせの全てが本発明を構成する上で必須のものとは限らない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. It should be noted that the following embodiments do not limit the scope of claims of the present invention, and all combinations of features described in the following embodiments are essential for constructing the present invention. Is not always.

[第1の実施形態]
以下、本発明に係る第1の実施形態の移動体システム、位置姿勢計測システム、情報処理装置、情報処理方法、コンピュータープログラムについて図面を参照して詳細に説明する。
[First Embodiment]
Hereinafter, the moving body system, the position / posture measuring system, the information processing apparatus, the information processing method, and the computer program according to the first embodiment of the present invention will be described in detail with reference to the drawings.

第1の実施形態では、センサーとしてカメラ(撮像センサ―)を搭載した移動体が環境内を移動し、移動体の位置姿勢推定を行う例について説明する。ここで環境とはセンサーが移動した領域とその周囲の三次元空間であり、位置姿勢とは三次元の位置情報と3自由度の姿勢情報を組み合わせた6自由度の値である。以降の説明では環境の鉛直方向をz軸とし、移動体は基本的にxy平面上を走行するものとする。 In the first embodiment, an example in which a moving body equipped with a camera (imaging sensor) as a sensor moves in the environment and the position and orientation of the moving body is estimated will be described. Here, the environment is the area where the sensor has moved and the three-dimensional space around it, and the position / orientation is a value of six degrees of freedom, which is a combination of three-dimensional position information and attitude information of three degrees of freedom. In the following description, the vertical direction of the environment is the z-axis, and the moving body basically travels on the xy plane.

本実施形態では、移動体に加わった衝撃や振動によってカメラ画像にぶれが生じ、カメラ画像の特徴点追跡による位置姿勢の計測精度が低下することを課題としている。情報処理装置が衝撃や振動の大きさと方向に応じた画像補正を実施することで安定して位置姿勢計測を実現する。 In the present embodiment, it is an object that the camera image is blurred due to the impact or vibration applied to the moving body, and the measurement accuracy of the position / posture by tracking the feature points of the camera image is lowered. The information processing device performs image correction according to the magnitude and direction of impact and vibration, and realizes stable position and orientation measurement.

(移動体システム、位置姿勢計測システムおよび情報処理装置の構成)
図1は、本実施形態に係る移動体システム101の構成の一例を示す図である。移動体システム101は、情報処理装置103、カメラ104、を含む位置姿勢計測システム102、通信部105、制御装置106、車輪部107から構成される。
(Structure of mobile system, position / attitude measurement system and information processing device)
FIG. 1 is a diagram showing an example of the configuration of the mobile system 101 according to the present embodiment. The mobile system 101 includes a position / attitude measurement system 102 including an information processing device 103 and a camera 104, a communication unit 105, a control device 106, and a wheel unit 107.

情報処理装置103はカメラ104から入力される入力情報を元に移動体の位置姿勢推定を行う。また、移動体の自律移動時は制御装置106への移動指示を行う。情報処理装置103の構成の詳細については後述する。 The information processing apparatus 103 estimates the position and orientation of the moving body based on the input information input from the camera 104. Further, when the moving body is autonomously moving, a movement instruction is given to the control device 106. The details of the configuration of the information processing apparatus 103 will be described later.

カメラ104は移動体システム101上に固定され、グレースケールの輝度画像を連続的に取得可能なカメラである。例えば、ステレオカメラである。説明の簡便のため、カメラの焦点距離や画角等の内部パラメータは既知であり、画像の歪曲は存在しないか補正された状態で画像が出力されるものとする。またカメラ104は、例えば、秒間30回のフレームレートで撮影を行う。 The camera 104 is a camera fixed on the mobile system 101 and capable of continuously acquiring a grayscale luminance image. For example, a stereo camera. For the sake of simplicity, it is assumed that the internal parameters such as the focal length and the angle of view of the camera are known, and the image is output in a state where the distortion of the image does not exist or is corrected. Further, the camera 104 shoots at a frame rate of, for example, 30 times per second.

通信部105はユーザーから移動体システム601の移動・回転や、情報処理装置103が行う位置姿勢計測処理の開始、終了等に関する指示を受け取る。 The communication unit 105 receives instructions from the user regarding the movement / rotation of the mobile system 601 and the start / end of the position / orientation measurement process performed by the information processing device 103.

制御装置106は情報処理装置103や通信部105の指示に基づいて車輪部107を駆動し、移動体システム101を移動・転回させる。 The control device 106 drives the wheel unit 107 based on the instructions of the information processing device 103 and the communication unit 105, and moves and turns the moving body system 101.

車輪部107は一部または全部が動力と連動した複数のタイヤである。 The wheel portion 107 is a plurality of tires that are partially or wholly linked to power.

(情報処理装置の構成)
情報処理装置103は一般的な組み込み用PC機器の機能を備えており、CPU111、ROM112、RAM113、HDDやSSD等の記憶部114、USB等の汎用I/F115およびシステムバス116で構成される。
(Configuration of information processing device)
The information processing device 103 has the functions of a general embedded PC device, and is composed of a CPU 111, a ROM 112, a RAM 113, a storage unit 114 such as an HDD or SSD, a general-purpose I / F 115 such as a USB, and a system bus 116.

CPU111は、RAM113をワークメモリとして、ROM112、記憶部114等に格納されたオペレーティングシステム(OS)や各種コンピュータープログラムを実行し、システムバス116を介して各部を制御する。例えばCPU111が実行するプログラムには、後述する処理を実行するためのプログラムが含まれる。 The CPU 111 uses the RAM 113 as a work memory to execute an operating system (OS) and various computer programs stored in the ROM 112, the storage unit 114, and the like, and controls each unit via the system bus 116. For example, the program executed by the CPU 111 includes a program for executing a process described later.

また、情報処理装置103には汎用I/F115を通じて位置姿勢計測用のセンサー(本実施形態ではカメラ104)や、通信部105、制御装置106が接続されている。 Further, a sensor for position / attitude measurement (camera 104 in this embodiment), a communication unit 105, and a control device 106 are connected to the information processing device 103 through a general-purpose I / F 115.

(情報処理装置の機能構成)
以下、本実施形態に係る情報処理装置の機能的な構成について説明する。以下に示す各部の処理は、ROM112等からコンピュータープログラムをRAM113上に読み込んだ後、CPU111によって該プログラムを実行することによってソフトウェアとして実施される。機能構成の一部ないし全部をASICやFPGAなどのハードウェアとして構成してもよい。
(Functional configuration of information processing device)
Hereinafter, the functional configuration of the information processing apparatus according to the present embodiment will be described. The processing of each part shown below is executed as software by reading a computer program from the ROM 112 or the like onto the RAM 113 and then executing the program by the CPU 111. Part or all of the functional configuration may be configured as hardware such as ASIC or FPGA.

図2は、情報処理装置103の機能的な構成を示すブロック図である。 FIG. 2 is a block diagram showing a functional configuration of the information processing apparatus 103.

センサー入力情報取得部201は、汎用I/F115を通じ、位置姿勢計測用のセンサー(本実施形態ではカメラ104)からセンサー情報を取得する。本実施形態では、画像情報を取得する。 The sensor input information acquisition unit 201 acquires sensor information from the sensor for position / attitude measurement (camera 104 in this embodiment) through the general-purpose I / F 115. In this embodiment, image information is acquired.

衝撃振動情報取得部202は、汎用I/F115を通じて取得したセンサー情報等に基づき、移動体システム101に加わった衝撃や振動の情報を取得する。 The impact vibration information acquisition unit 202 acquires information on the impact and vibration applied to the mobile system 101 based on the sensor information acquired through the general-purpose I / F 115.

位置姿勢取得部203は、センサー入力情報取得部201が取得したセンサー情報と、衝撃振動情報取得部202が取得した衝撃や振動の情報に基づき、センサー情報の取得時刻における移動体システム101の位置姿勢を算出する。算出された位置姿勢情報は、制御装置106に出力し、移動体システム101の自動運転制御に用いる。あるいは、位置姿勢情報を不図示の表示装置に出力し、UI上での移動体システムの現在位置の表示等に用いることができる。センサー入力情報取得部201が取得したセンサー情報を外部装置に通信部105を介して送信し、外部装置で算出した位置姿勢を、通信部105を介して位置姿勢取得部205で取得することも可能である。 The position / orientation acquisition unit 203 is based on the sensor information acquired by the sensor input information acquisition unit 201 and the impact / vibration information acquired by the impact / vibration information acquisition unit 202, and the position / orientation of the moving body system 101 at the time when the sensor information is acquired. Is calculated. The calculated position / attitude information is output to the control device 106 and used for the automatic operation control of the mobile system 101. Alternatively, the position / orientation information can be output to a display device (not shown) and used for displaying the current position of the mobile system on the UI. It is also possible to transmit the sensor information acquired by the sensor input information acquisition unit 201 to the external device via the communication unit 105, and acquire the position / posture calculated by the external device by the position / attitude acquisition unit 205 via the communication unit 105. Is.

(位置姿勢計測処理)
次に、本実施形態の情報処理装置を使用した情報処理方法に係る、位置姿勢計測処理について図3~図6を参照し説明する。図3および以降に示すフローチャートが表す処理は、CPU111がROM112または記憶部114に記憶されるプログラムを読出し情報の演算または加工、各ハードウェアの制御を行うことで実現される。なお、各フローチャートに示すステップの一部ないし全部をASICやFPGAなどのハードウェアで実現してもよい。
(Position / posture measurement processing)
Next, the position / orientation measurement process according to the information processing method using the information processing apparatus of the present embodiment will be described with reference to FIGS. 3 to 6. The processing represented by the flowcharts shown in FIGS. 3 and later is realized by the CPU 111 reading a program stored in the ROM 112 or the storage unit 114 to calculate or process reading information and control each hardware. Note that some or all of the steps shown in each flowchart may be realized by hardware such as ASIC or FPGA.

図3は、本実施形態における位置姿勢計測処理の流れを示すフローチャートである。 FIG. 3 is a flowchart showing the flow of the position / posture measurement process in the present embodiment.

ステップS301では情報処理装置103の初期化を行う。情報処理装置は移動体システム101の現在の位置を環境中の原点、現在の姿勢を所定の方向(例えばY軸正方向)として初期の位置姿勢を設定する。また、センサー入力情報取得部201が各センサー(本実施形態ではカメラ104)から最初のセンサー情報を取得し、ステップS302の初回実行時に取得する「前の時刻のセンサー情報」としてワークメモリ上に保持する。 In step S301, the information processing apparatus 103 is initialized. The information processing apparatus sets the initial position and orientation with the current position of the mobile system 101 as the origin in the environment and the current posture as a predetermined direction (for example, the positive direction of the Y axis). Further, the sensor input information acquisition unit 201 acquires the first sensor information from each sensor (camera 104 in this embodiment) and holds it in the work memory as "sensor information of the previous time" acquired at the first execution of step S302. do.

続くステップS302からステップS304の処理は、ユーザー等により位置姿勢計測の終了が指示されるまで繰り返し実行される。以降の説明では、1回のステップS302からステップS304までの一連の処理を、ある時刻tの処理として説明する。ここでtは整数値であり、一連の処理を1回実施するごとに1増加する。また、時刻t=1までは平坦な面を走行していた移動体システム101が、時刻t=2において衝撃で各センサーの姿勢が大きく上方向に振られた状況を想定して説明する。衝撃の具体的な状況としては、移動体が歩道などの段差に乗り上げた状況、石や枝などの障害物をタイヤで踏んだ状況、石畳などから断続的な振動を受けている状況が考えられる。 Subsequent processes from step S302 to step S304 are repeatedly executed until the user or the like instructs the end of the position / posture measurement. In the following description, a series of processes from one step S302 to step S304 will be described as a process at a certain time t. Here, t is an integer value, and is incremented by 1 each time a series of processes is performed. Further, the description will be made assuming a situation in which the moving body system 101, which has been traveling on a flat surface until time t = 1, has the posture of each sensor greatly swung upward due to an impact at time t = 2. Specific situations of impact may be a situation where a moving object rides on a step such as a sidewalk, a situation where an obstacle such as a stone or a branch is stepped on with a tire, or a situation where an intermittent vibration is received from a stone pavement or the like. ..

ステップS302では、センサー入力情報取得部201が各センサーから最新のセンサー情報を取得する。また、ワークメモリ上に保持された1つ前の時刻のセンサー情報を取得する。 In step S302, the sensor input information acquisition unit 201 acquires the latest sensor information from each sensor. In addition, the sensor information of the previous time held in the work memory is acquired.

ステップS303では、衝撃振動情報取得部202が移動体システム101に加わった衝撃や振動の情報を取得する。ステップS303の処理の詳細については後述する。 In step S303, the impact vibration information acquisition unit 202 acquires information on the impact and vibration applied to the moving body system 101. The details of the process of step S303 will be described later.

ステップS304では、位置姿勢取得部203が移動体システム101の位置姿勢を算出する。ステップS304の処理の詳細については後述する。 In step S304, the position / posture acquisition unit 203 calculates the position / posture of the moving body system 101. The details of the process of step S304 will be described later.

ステップS305は、位置姿勢計測処理を終了するか否かの分岐である。ユーザーの指示等により位置姿勢計測を終了する場合、処理を終了する。そうでない場合、ステップS302に戻り次の時刻の処理を行う。 Step S305 is a branch of whether or not to end the position / posture measurement process. When the position / posture measurement is terminated by the user's instruction or the like, the process is terminated. If not, the process returns to step S302 and the next time is processed.

(衝撃振動情報取得処理の詳細)
次に、S303に示した衝撃振動情報取得処理の詳細について説明する。本実施形態では、カメラ104で取得された画像データに基づき移動体システム101が受けた衝撃や振動の大きさと方向を解析する。図4は、本実施形態における衝撃振動情報取得処理の流れを示すフローチャートである。
(Details of impact vibration information acquisition processing)
Next, the details of the impact vibration information acquisition process shown in S303 will be described. In the present embodiment, the magnitude and direction of the impact and vibration received by the moving body system 101 are analyzed based on the image data acquired by the camera 104. FIG. 4 is a flowchart showing the flow of impact vibration information acquisition processing in the present embodiment.

ステップ401では、衝撃振動情報取得部202が、ステップS302で取得した最新および1つ前の時刻のセンサー情報のそれぞれから、カメラ104で取得された画像データを取得する。 In step 401, the impact vibration information acquisition unit 202 acquires image data acquired by the camera 104 from each of the latest and previous time sensor information acquired in step S302.

ステップS402では、衝撃振動情報取得部202が、ステップS401で取得した2枚の画像の間で特徴点の検出と追跡を行い、追跡に成功した特徴点のモーションベクトルを取得する。 In step S402, the impact vibration information acquisition unit 202 detects and tracks the feature points between the two images acquired in step S401, and acquires the motion vector of the feature points that have been successfully tracked.

図5(a)は、時刻t=1に取得した画像と、その1つ前の時刻(t=0)の画像との間での特徴点追跡の結果を図示したものである。図中の罰点は追跡に成功した特徴点、罰点に付随する矢印は前の時刻からの特徴点の移動量(モーションベクトル)を示している。 FIG. 5A illustrates the result of feature point tracking between the image acquired at time t = 1 and the image at the previous time (t = 0). The penalties in the figure indicate the feature points that were successfully tracked, and the arrows attached to the penalties indicate the amount of movement (motion vector) of the feature points from the previous time.

また、図5(b)は、次の時刻t=2に取得した画像と、その1つ前の時刻(t=1)の画像との間での特徴点追跡の結果を図示したものである。時刻t=2では、撮影時にカメラ104に衝撃が加わった結果、画像が縦方向にぶれを生じている。また、画像にぶれが生じた結果、図5(a)では追跡に成功していた特徴点のうち、一部の特徴点の追跡に失敗している。 Further, FIG. 5B illustrates the result of feature point tracking between the image acquired at the next time t = 2 and the image at the previous time (t = 1). .. At time t = 2, the image is blurred in the vertical direction as a result of the impact applied to the camera 104 during shooting. Further, as a result of blurring in the image, some of the feature points that were successfully tracked in FIG. 5A have failed to be tracked.

また、図5(c)は、時刻t=2に取得した画像の画像ぶれを補正した上で、時刻(t=1)の画像との間での特徴点追跡の結果を図示したものである。 Further, FIG. 5C illustrates the result of feature point tracking with the image at time (t = 1) after correcting the image blur of the image acquired at time t = 2. ..

ステップS403では、衝撃振動情報取得部202が、ステップS402で取得したモーションベクトル群と、1つ前の時刻に算出したモーションベクトル群を比較し、移動体システム101に加わった衝撃の大きさと方向を解析する。具体的には、双方の時刻で追跡に成功した特徴点のモーションベクトルの差分ベクトルを算出し、その平均ベクトルを、該当時刻における衝撃ベクトル(衝撃の大きさと方向)として取得する。 In step S403, the impact vibration information acquisition unit 202 compares the motion vector group acquired in step S402 with the motion vector group calculated at the previous time, and determines the magnitude and direction of the impact applied to the moving body system 101. To analyze. Specifically, the difference vector of the motion vector of the feature points that have been successfully tracked at both times is calculated, and the average vector is acquired as the impact vector (impact magnitude and direction) at the corresponding time.

(位置姿勢算出処理の詳細)
次に、S304に示した位置姿勢算出処理の詳細について説明する。本実施形態では、カメラ104で取得された画像データに基づき移動体システム101の位置姿勢を算出する。カメラ104は移動体システム101上に固定されており、その相対的な位置姿勢は既知でありRAM113に保持され、カメラ104の位置姿勢値と移動体システム101の位置姿勢値は相互に変換可能である。説明の簡便のため、以降の説明ではカメラ104と移動体システム101の位置姿勢値は同一であるものとする。
(Details of position / attitude calculation process)
Next, the details of the position / orientation calculation process shown in S304 will be described. In the present embodiment, the position and orientation of the moving body system 101 are calculated based on the image data acquired by the camera 104. The camera 104 is fixed on the moving body system 101, its relative position / orientation is known and held in the RAM 113, and the position / orientation value of the camera 104 and the position / orientation value of the moving body system 101 can be mutually converted. be. For the sake of simplicity, it is assumed that the position and orientation values of the camera 104 and the mobile system 101 are the same in the following description.

図6は、本実施形態における位置姿勢算出処理の流れを示すフローチャートである。 FIG. 6 is a flowchart showing the flow of the position / orientation calculation process in the present embodiment.

ステップS601は、位置姿勢算出にあたり画像ぶれ補正が必要か否かの分岐である。ここでは、ステップS403で取得した衝撃ベクトルの大きさが事前に設定された閾値以上である場合、画像の補正が必要であると判断し、ステップS602の処理へ進む。衝撃ベクトルの大きさの閾値は、移動体が坂道を上るときやカーブを曲がるときには画像の補正は不要と判断されるように設定する。画像の補正が不要な場合、処理はS604へ進む。ここで判定の方法は衝撃ベクトルの大きさに限定されず、例えば追跡に成功した特徴点の数または割合が閾値以下である場合に画像の補正を必要とするような判定を行うことも可能である。 Step S601 is a branch of whether or not image blur correction is necessary for calculating the position and orientation. Here, if the magnitude of the impact vector acquired in step S403 is equal to or greater than a preset threshold value, it is determined that image correction is necessary, and the process proceeds to step S602. The threshold value of the magnitude of the impact vector is set so that it is judged that the image correction is unnecessary when the moving object goes up a slope or turns a curve. If no image correction is required, the process proceeds to S604. Here, the judgment method is not limited to the size of the impact vector, and for example, it is possible to make a judgment that the image needs to be corrected when the number or ratio of the feature points that have been successfully tracked is less than the threshold value. be.

ステップS602では、衝撃振動情報取得部202が、ステップS403で取得した衝撃ベクトルに基づき、最新の画像に対し画像ぶれの回復処理を行う。具体的には、まず取得した衝撃ベクトルを画像の縦方向成分と横方向成分とに分解し、各々の方向の成分の大きさを算出する。続いて、既知の2次元フーリエ変換を用いて画像を空間周波数成分に変換する。その後、各空間周波数について、縦方向の周波数と衝撃ベクトルの縦方向成分の大きさとを入力とする、予め用意した2次元ルックアップテーブルに基づいて回復係数を取得し、それを積算する。これにより、縦方向の振動に起因するぼけによって低減した周波数成分の回復を行う。横方向についても同様に周波数成分の回復を行う。最後に、周波数成分を回復した空間周波数成分画像に2次元逆フーリエ変換を行い、周波数成分を回復した輝度画像を取得する。 In step S602, the impact vibration information acquisition unit 202 performs image blur recovery processing on the latest image based on the impact vector acquired in step S403. Specifically, first, the acquired impact vector is decomposed into a vertical component and a horizontal component of the image, and the magnitude of the component in each direction is calculated. Subsequently, the image is transformed into a spatial frequency component using a known two-dimensional Fourier transform. After that, for each spatial frequency, the recovery coefficient is acquired based on a two-dimensional look-up table prepared in advance, which inputs the vertical frequency and the magnitude of the vertical component of the impact vector, and the recovery coefficient is integrated. As a result, the frequency component reduced by the blur caused by the vibration in the vertical direction is recovered. Similarly, the frequency component is recovered in the lateral direction. Finally, a two-dimensional inverse Fourier transform is performed on the spatial frequency component image in which the frequency component has been recovered, and a luminance image in which the frequency component has been recovered is acquired.

ステップS603では、位置姿勢取得部203がステップS602で補正後の画像を使用して、再度、2つの画像間の特徴点の検出と追跡処理を行う。 In step S603, the position / orientation acquisition unit 203 uses the image corrected in step S602 to detect and track the feature points between the two images again.

ステップS604では、位置姿勢取得部203が移動体システム101の現在位置姿勢の更新を行う。具体的には、位置姿勢取得部203は画像の補正が実施された場合は、ステップS603で、そうでない場合はステップS402での特徴点検出結果に基づき、移動体システム101の前時刻との位置姿勢差分を算出する。位置姿勢差分の算出は、具体的には、既知のバンドル調整処理を用いて行う。これは、特徴点追跡に成功した少なくとも8点以上の特徴点について、その空間中での三次元座標を仮定し、双方の画像への再投影結果と画像上での特徴点の検出位置の差(再投影誤差)が小さくなるように画像間の相対位置姿勢と特徴点の三次元座標を最適化する処理である。その際、ステレオカメラによるステレオ距離計測や過去の特徴点追跡結果から特徴点の三次元座標の推測が可能な場合は、それを三次元座標の初期値や固定値として用いることができる。 In step S604, the position / posture acquisition unit 203 updates the current position / posture of the moving body system 101. Specifically, the position / posture acquisition unit 203 is the position with respect to the previous time of the moving body system 101 based on the feature point detection result in step S603 when the image correction is performed, and in step S402 otherwise. Calculate the posture difference. Specifically, the position / orientation difference is calculated using a known bundle adjustment process. This assumes three-dimensional coordinates in the space for at least eight feature points that have been successfully tracked, and the difference between the reprojection result on both images and the detection position of the feature points on the image. This is a process that optimizes the relative position and orientation between images and the three-dimensional coordinates of feature points so that (reprojection error) becomes small. At that time, if the three-dimensional coordinates of the feature points can be estimated from the stereo distance measurement by the stereo camera and the past feature point tracking results, it can be used as the initial value or the fixed value of the three-dimensional coordinates.

ステップS605では、位置姿勢取得部203は前の時刻の位置姿勢にステップS604で算出した位置姿勢差分を加算し、最新の時刻の位置姿勢値を算出する。 In step S605, the position / posture acquisition unit 203 adds the position / posture difference calculated in step S604 to the position / posture at the previous time, and calculates the position / posture value at the latest time.

以上の処理により、位置姿勢計測に用いるカメラに衝撃が加わった場合においても、位置姿勢計測を安定して継続することができる。 By the above processing, even if an impact is applied to the camera used for the position / posture measurement, the position / posture measurement can be stably continued.

[第2の実施形態]
第1の実施形態では、位置姿勢計測用のセンサーとしてカメラを単体で使用し、カメラ画像から取得された衝撃情報に応じた位置姿勢計測処理を行う例について説明した。本実施形態では、複数のセンサーを組み合わせて位置姿勢計測処理を行う例について説明する。
[Second Embodiment]
In the first embodiment, an example in which a camera is used alone as a sensor for position / posture measurement and position / posture measurement processing is performed according to impact information acquired from a camera image has been described. In this embodiment, an example of performing position / posture measurement processing by combining a plurality of sensors will be described.

本実施形態では、位置姿勢計測用のセンサーとして、カメラに加えIMUやタイヤの駆動量を用いた位置姿勢計測を行う。これらの複数の計測方法は、その原理に応じて振動や衝撃に対する耐性が異なる。 In the present embodiment, as a sensor for position / attitude measurement, position / attitude measurement is performed using the drive amount of the IMU and the tire in addition to the camera. These plurality of measurement methods have different resistance to vibration and impact depending on the principle.

例えばある種のIMUに用いられる静電容量式の加速度センサーは、想定以上の強い加速度や継続的な振動が加わった場合に精度が低下する。タイヤの駆動量を積分して移動量を求める方法は、平面上の移動を仮定するため地面の凹凸によって精度が低下し、特に段差などの縦方向の衝撃によってタイヤが浮いて空転した場合には正しい移動量の算出が困難になる。また、横方向の強い衝撃によってタイヤがスリップした場合にも正しい移動量の算出が困難になるが、このとき、衝撃の強さと移動量の推定精度の低下度合いの関係は、縦方向と横方向で差が生じる。カメラは第一の実施形態で説明したように画像ぶれが発生するものの、衝撃や振動の影響を直接受けるような機械的構造を持たないため、相対的には振動や衝撃に強いセンサーと言える。 For example, the capacitive accelerometer used in some IMUs has reduced accuracy when a stronger acceleration or continuous vibration than expected is applied. The method of integrating the drive amount of the tire to obtain the movement amount is assumed to move on a flat surface, so the accuracy decreases due to the unevenness of the ground, especially when the tire floats and slips due to a vertical impact such as a step. It becomes difficult to calculate the correct amount of movement. In addition, it is difficult to calculate the correct amount of movement even when the tire slips due to a strong impact in the horizontal direction. At this time, the relationship between the strength of the impact and the degree of decrease in the estimation accuracy of the amount of movement is in the vertical and horizontal directions. Makes a difference. Although the camera causes image blur as described in the first embodiment, it does not have a mechanical structure that is directly affected by shock or vibration, so that it can be said to be a sensor that is relatively resistant to vibration or shock.

本実施形態では、振動や衝撃の発生状況に応じて位置姿勢計測精度が高いと推定されるセンサーの寄与度を相対的に高く設定し、複数のセンサーによる位置姿勢計測の結果を寄与度に応じて合成することにより、高精度な位置姿勢計測を実現する。 In the present embodiment, the contribution of the sensor estimated to have high position / posture measurement accuracy is set relatively high according to the occurrence of vibration or impact, and the result of the position / posture measurement by a plurality of sensors is set according to the contribution. Highly accurate position and orientation measurement is realized by synthesizing.

(移動体システム、位置姿勢計測システムの構成)
図7は、本実施形態に係る移動体システム701の構成の一例を示す図である。本実施形態の位置姿勢計測システム702は、情報処理装置103、カメラ104、IMU704で構成されている。情報処理装置103のハードウェア構成、およびカメラ104については第一の実施形態と同様であるため、説明を省略する。本実施形態では、カメラ104、制御装置106、IMU704の3つが位置姿勢計測用のセンサーとして機能する。
(Structure of mobile system and position / posture measurement system)
FIG. 7 is a diagram showing an example of the configuration of the mobile system 701 according to the present embodiment. The position / orientation measurement system 702 of this embodiment includes an information processing device 103, a camera 104, and an IMU704. Since the hardware configuration of the information processing apparatus 103 and the camera 104 are the same as those in the first embodiment, the description thereof will be omitted. In the present embodiment, the camera 104, the control device 106, and the IMU704 function as sensors for position and orientation measurement.

IMU704は移動体システム701上に固定された慣性センサーである。IMU704はカメラ104と同様に、汎用I/F115を通じて情報処理装置103に接続されている。IMU704は移動体システム701に加わる三次元の加速度と角速度を取得する。一方で閾値以上の強い加速度が加わった場合には加速度と角速度の取得精度が低下する特性を持つ。 The IMU704 is an inertial sensor fixed on the mobile system 701. Like the camera 104, the IMU 704 is connected to the information processing apparatus 103 through the general-purpose I / F 115. The IMU704 acquires the three-dimensional acceleration and angular velocity applied to the mobile system 701. On the other hand, when a strong acceleration exceeding the threshold value is applied, the acquisition accuracy of the acceleration and the angular velocity is lowered.

説明の簡便のため、IMU704は移動体システム701の中心に取り付けられているものとし、以降の説明では移動体システム701の位置姿勢や加速度・角速度と、IMU704の位置姿勢や加速度・角速度は同一であるものとする。 For the sake of simplicity of explanation, it is assumed that the IMU 704 is attached to the center of the moving body system 701. In the following description, the position / attitude / acceleration / angular velocity of the moving body system 701 and the position / orientation / acceleration / angular velocity of the IMU 704 are the same. Suppose there is.

また、カメラ104とIMU704はともに移動体システム701上に固定されており、その相対的な位置姿勢は既知であり、RAM113に保持されている。従って、カメラ104の位置姿勢情報とIMU704の位置姿勢情報(すなわち、移動体システム701の位置姿勢情報)は相互に変換が可能である。説明の簡便のため、以降の説明では、カメラ104を用いて計測された位置姿勢情報は、IMU704の位置姿勢情報に変換済みの値を示しているものとする。 Further, both the camera 104 and the IMU 704 are fixed on the mobile system 701, their relative positions and orientations are known, and they are held in the RAM 113. Therefore, the position / orientation information of the camera 104 and the position / attitude information of the IMU 704 (that is, the position / attitude information of the moving body system 701) can be converted into each other. For the sake of simplicity, in the following description, it is assumed that the position / orientation information measured by using the camera 104 indicates a value converted into the position / attitude information of the IMU704.

本実施形態に係る情報処理装置103の機能構成についても、図2に示した第1の実施形態の構成と同様のため、その詳細な説明は省略する。また、位置姿勢計測処理の基本的な流れ及び、衝撃振動情報取得処理の詳細についても、図3および図4に示した第1の実施形態と同様のため、その詳細な説明は省略する。 Since the functional configuration of the information processing apparatus 103 according to the present embodiment is the same as the configuration of the first embodiment shown in FIG. 2, detailed description thereof will be omitted. Further, since the basic flow of the position / posture measurement process and the details of the impact vibration information acquisition process are the same as those of the first embodiment shown in FIGS. 3 and 4, the detailed description thereof will be omitted.

(位置姿勢算出処理の詳細)
以下、本実施形態における、S304に示した位置姿勢算出処理の詳細について説明する。本実施形態では、カメラ104、制御装置106、IMU704から取得されたデータに基づき移動体システム701の位置姿勢を算出する。
(Details of position / attitude calculation process)
Hereinafter, the details of the position / orientation calculation process shown in S304 in the present embodiment will be described. In the present embodiment, the position and orientation of the mobile system 701 are calculated based on the data acquired from the camera 104, the control device 106, and the IMU704.

図8は、本実施形態における位置姿勢算出処理の流れを示すフローチャートである。また、ステップS801からステップS803の処理は、各センサーについて同期的に並列実行される処理である。 FIG. 8 is a flowchart showing the flow of the position / orientation calculation process in the present embodiment. Further, the processes of steps S801 to S803 are processes that are synchronously executed in parallel for each sensor.

ステップS801では、位置姿勢取得部203が第一の実施形態と同様に、カメラ104に基づく前の時刻との位置姿勢差分値を算出する。この処理は、第一の実施形態で説明したステップS601からS604の処理と同様であるため、詳細な説明を省略する。 In step S801, the position / posture acquisition unit 203 calculates the position / posture difference value from the previous time based on the camera 104, as in the first embodiment. Since this process is the same as the process of steps S601 to S604 described in the first embodiment, detailed description thereof will be omitted.

ステップS802では、位置姿勢取得部203が、カメラ104が1つ前の画像を取得してから最新の画像を取得するまでの間に得られた加速度と角速度の値を積分し、IMUに基づく位置姿勢差分値を算出する。 In step S802, the position / orientation acquisition unit 203 integrates the acceleration and angular velocity values obtained between the acquisition of the previous image by the camera 104 and the acquisition of the latest image, and the position based on the IMU. Calculate the posture difference value.

ステップS803では、位置姿勢取得部203が、カメラ104が1つ前の画像を取得してから最新の画像を取得するまでの間に得られたタイヤの駆動量を積分し、タイヤの駆動量に基づいた位置姿勢差分値を算出する。この位置姿勢差分値は、移動体システム101が平面上を走行している仮定で算出される。従ってこの位置姿勢差分値は床など平面に相当するxy平面上での移動ベクトルと、平面に垂直なz軸に対する回転量とで構成される。 In step S803, the position / posture acquisition unit 203 integrates the tire drive amount obtained between the time when the camera 104 acquires the previous image and the time when the camera 104 acquires the latest image, and adds the tire drive amount to the tire drive amount. Calculate the position-posture difference value based on this. This position-posture difference value is calculated on the assumption that the moving body system 101 is traveling on a plane. Therefore, this position-posture difference value is composed of a movement vector on an xy plane corresponding to a plane such as a floor and a rotation amount with respect to the z-axis perpendicular to the plane.

ステップS804では、位置姿勢取得部203が、各センサーに基づいて算出された位置姿勢差分値を合成する際に使用する各センサーの寄与度を決定する。寄与度の算出は、衝撃振動情報取得部203によって算出された衝撃ベクトルに基づいて決定される。具体的には、取得した衝撃ベクトルを画像の縦方向成分と横方向成分とに分解し、各々の方向の成分の大きさと、事前にセンサーごとに設定された算出方法に基づいて寄与度の値を決定する。 In step S804, the position / attitude acquisition unit 203 determines the contribution of each sensor used when synthesizing the position / attitude difference value calculated based on each sensor. The calculation of the contribution is determined based on the impact vector calculated by the impact vibration information acquisition unit 203. Specifically, the acquired impact vector is decomposed into a vertical component and a horizontal component of the image, and the contribution value is based on the size of the component in each direction and the calculation method set in advance for each sensor. To decide.

各センサーの寄与度の算出方法は、各軸の衝撃や振動の大きさを引数とした所定の関数を使用する。本実施形態では、カメラ104は他のセンサーより振動や衝撃に強いと考えられることから、位置姿勢計測の基準となるセンサーとし、カメラ104の寄与度は固定で1とする。 The method of calculating the contribution of each sensor uses a predetermined function with the magnitude of impact or vibration of each axis as an argument. In the present embodiment, since the camera 104 is considered to be more resistant to vibration and shock than other sensors, the sensor is used as a reference for position / posture measurement, and the contribution of the camera 104 is fixed to 1.

IMU704は、カメラ104の画像から取得される振動や衝撃の方向とは無関係に、所定の強さ以上の加速度が加わった場合に精度が低下する。従って、IMU704の寄与度は衝撃ベクトルの大きさのみを参照し、衝撃ベクトルの大きさが閾値α1以下では寄与度1、閾値α2以上では寄与度0、閾値α1とα2の間では線形に減少するような関数を使用する。閾値α1とα2は使用するIMUの耐振動性能に応じて定義した値である。 The accuracy of the IMU 704 is reduced when an acceleration of a predetermined strength or more is applied regardless of the direction of vibration or impact acquired from the image of the camera 104. Therefore, the contribution of the IMU704 refers only to the magnitude of the impact vector, and the magnitude of the impact vector decreases linearly between the thresholds α1 and α2, the contribution is 1 when the impact vector is less than or equal to the threshold value α1, the contribution is 0 when the threshold value is α2 or more. Use a function like. The threshold values α1 and α2 are values defined according to the vibration resistance performance of the IMU used.

タイヤの駆動量に基づく位置姿勢差分計測は、衝撃ベクトルの縦方向成分と横方向成分のそれぞれについて寄与度を算出し、それを積算する方法をとる。縦方向については、地面の凹凸によって精度が低下し、特に衝撃によってタイヤが空転した場合に大きく精度が低下する。そのため、衝撃ベクトルの縦方向成分が0である場合には寄与度1とし、閾値β1以上である場合は寄与度0とし、0と閾値βの間では線形に減少するような関数を使用する。閾値βは、移動体システム101に垂直方向に重力加速度1G相当の衝撃が加わった場合の衝撃ベクトルの縦方向成分の大きさとして定義した値である。 The position-posture difference measurement based on the driving amount of the tire takes a method of calculating the contribution degree for each of the vertical component and the horizontal component of the impact vector and integrating them. In the vertical direction, the accuracy is reduced due to the unevenness of the ground, and especially when the tire slips due to an impact, the accuracy is greatly reduced. Therefore, when the vertical component of the impact vector is 0, the contribution degree is 1, and when the threshold value β1 or more, the contribution degree is 0, and a function that decreases linearly between 0 and the threshold value β is used. The threshold value β is a value defined as the magnitude of the vertical component of the impact vector when an impact equivalent to a gravitational acceleration of 1 G is applied to the moving body system 101 in the vertical direction.

横方向については、タイヤがスリップしない範囲での衝撃は駆動量に基づく位置姿勢計測に大きな悪影響を生じないと考えられる一方、スリップが生じた場合は正確な位置姿勢差分の算出は不可能となる。そのため、衝撃ベクトルの横方向成分が閾値γ未満の場合は寄与度を1とし、閾値γ以上の場合は0とする。閾値γは、タイヤと想定される地面との間の摩擦係数に基づいて定義した値である。 In the lateral direction, it is considered that the impact in the range where the tire does not slip does not have a great adverse effect on the position / attitude measurement based on the driving amount, but when slip occurs, it becomes impossible to calculate the accurate position / attitude difference. .. Therefore, when the lateral component of the impact vector is less than the threshold value γ, the contribution degree is set to 1, and when it is equal to or more than the threshold value, it is set to 0. The threshold value γ is a value defined based on the coefficient of friction between the tire and the assumed ground.

ステップS805では、位置姿勢取得部203が、ステップS801からS803で算出した各センサーに基づく位置姿勢差分値と、ステップS804で算出した各センサーの寄与度に基づき、移動体システム701の位置姿勢差分値を算出する。基本的には、各センサーで算出した位置姿勢差分をx、y、z軸の位置差分とx軸、y軸、z軸に対する回転量に分離し、各々について各センサーの寄与度を重み値とした加重平均値を算出する。ここで、タイヤの駆動量に基づいた位置姿勢差分値はz軸方向の位置差分とx軸、y軸に対する回転量の情報を持たないため、それらの重みは0として扱う。 In step S805, the position / posture acquisition unit 203 sets the position / posture difference value of the moving body system 701 based on the position / posture difference value calculated in steps S801 to S803 based on each sensor and the contribution of each sensor calculated in step S804. Is calculated. Basically, the position / orientation difference calculated by each sensor is divided into the position difference on the x, y, and z axes and the amount of rotation with respect to the x, y, and z axes, and the contribution of each sensor is used as the weight value for each. Calculate the weighted average value. Here, since the position / posture difference value based on the drive amount of the tire does not have information on the position difference in the z-axis direction and the rotation amount with respect to the x-axis and the y-axis, their weights are treated as 0.

ステップS806では、位置姿勢取得部203は前の時刻の位置姿勢にステップS805で算出した位置姿勢差分を加算し、最新の時刻の位置姿勢値を算出し、位置姿勢を決定する。 In step S806, the position / posture acquisition unit 203 adds the position / posture difference calculated in step S805 to the position / posture at the previous time, calculates the position / posture value at the latest time, and determines the position / posture.

以上の処理により、複数のセンサーを組み合わせて位置姿勢計測処理を行う場合においても、衝撃や振動による精度の低下を抑制して位置姿勢計測を安定して行うことができる。 By the above processing, even when the position / orientation measurement processing is performed by combining a plurality of sensors, it is possible to suppress the decrease in accuracy due to impact or vibration and perform the position / attitude measurement in a stable manner.

[変形例]
第一の実施形態ではカメラを使用した位置姿勢計測方法として、複数の画像の特徴点追跡結果から算出した位置姿勢差分を初期位置姿勢値に加算していく方法を例にとり説明したが、カメラを使用した位置姿勢計測方法はこれに限定されない。例えばSLAM(Simultaneous Localization and Mapping)やSVO(Semi-Direct Monocular Visual Odometry)といった既知の位置姿勢計測方法を利用しても良い。
[Modification example]
In the first embodiment, as a position / posture measurement method using a camera, a method of adding the position / posture difference calculated from the feature point tracking results of a plurality of images to the initial position / posture value has been described as an example. The position / attitude measurement method used is not limited to this. For example, a known position / orientation measuring method such as SLAM (Simultaneus Localization and Mapping) or SVO (Semi-Direct Monocular Visual Odometry) may be used.

SLAMを用いる場合について、具体的に説明する。移動体システムは、環境の地図情報として、カメラを載せた移動体が走行する環境における物体の形状特徴を示す3次元点群の情報を保持する。3次元点群の情報は、画像特徴点の世界座標における3次元座標のことである。環境に存在する物体の形状を撮像した画像をもとに、あらかじめ環境の地図情報が生成され、記憶装置に保持されている。位置姿勢取得部203は、入力画像と地図情報とに基づいて、入力画像上の特徴点(形状を示すエッジ特徴)の位置と、入力画像を撮像したときのカメラの位置姿勢を用いて地図上の特徴点を入力画像上に投影したときの位置の差(再投影誤差)を最小化する。これによりカメラの位置姿勢を推定する。 The case of using SLAM will be specifically described. The moving body system holds information on a three-dimensional point cloud indicating the shape characteristics of an object in the environment in which the moving body on which the camera is mounted travels as map information of the environment. The information of the three-dimensional point cloud is the three-dimensional coordinates in the world coordinates of the image feature points. The map information of the environment is generated in advance based on the image obtained by capturing the shape of the object existing in the environment, and is stored in the storage device. Based on the input image and the map information, the position / orientation acquisition unit 203 uses the positions of the feature points (edge features indicating the shape) on the input image and the position / orientation of the camera when the input image is captured on the map. Minimize the difference in position (reprojection error) when the feature points of are projected onto the input image. This estimates the position and orientation of the camera.

また、それらの手法を用いて位置姿勢計測と同時に移動体周囲の環境地図を作成するような環境地図作成システムについても、本発明の範疇である。 Further, an environmental map creation system that creates an environmental map around a moving body at the same time as measuring the position and orientation by using these methods is also within the scope of the present invention.

第二の実施形態ではカメラ、IMU、タイヤ駆動量のそれぞれのセンサーに基づく位置姿勢計測を行い、その結果を振動衝撃情報に基づいて合成する方法を説明したが、使用可能なセンサーはこれらに限定されない。例えばセンサーにLiDAR(Laser Imaging Detection and Ranging)を追加したり、一部を置き換えたりしても良い。一般にミラー回転式のLiDARは機械的な回転機構を持つため衝撃によって精度が低下し易く、振動や衝撃の発生時はカメラより低い寄与度を設定するのが良い。一方でMEMS(Micro Electro Mechanical Systems)式のLiDARは機械的な機構を持たず。カメラのような画像ぶれが小さいため、強い衝撃に対してはカメラより高い寄与度を設定する。 In the second embodiment, a method of measuring the position and posture based on the sensors of the camera, the IMU, and the tire drive amount and synthesizing the results based on the vibration impact information has been described, but the sensors that can be used are limited to these. Not done. For example, LiDAR (Laser Imaging Detection and Ranging) may be added to the sensor, or a part thereof may be replaced. Generally, since the mirror rotation type LiDAR has a mechanical rotation mechanism, the accuracy tends to decrease due to an impact, and it is better to set a lower contribution than the camera when vibration or an impact occurs. On the other hand, the MEMS (Micro Electro Electrical Systems) type LiDAR does not have a mechanical mechanism. Since the image blur is small like a camera, a higher contribution than the camera is set for a strong impact.

あるいは、GNSS(Global Navigation Satellite System)により取得した位置情報を利用したり、移動体の外に設置されたカメラ等のセンサーで移動体システムを観測した結果から算出した位置姿勢値を使用しても良い。例えば、走行中の移動体システムを捉えた監視カメラの映像をサーバーマシン上で処理し、映像中で画像認識された移動体システムの位置姿勢情報算出し、通信部を通じて移動体システムに伝達する方法が考えられる。 Alternatively, the position information acquired by GNSS (Global Navigation Satellite System) can be used, or the position / attitude value calculated from the result of observing the moving body system with a sensor such as a camera installed outside the moving body can be used. good. For example, a method of processing the image of a surveillance camera that captures a moving moving body system on a server machine, calculating the position and orientation information of the moving body system recognized as an image in the image, and transmitting it to the moving body system through a communication unit. Can be considered.

第二の実施形態では所定の数式に基づいて各センサーの寄与度の算出を行った。しかしながら、寄与度の算出方法はこれに限らず、取得した振動や衝撃の情報から推定される位置姿勢計測精度が高いセンサーに相対的に高い寄与度を設定する方法であれば良い。例えば衝撃ベクトルの縦方向成分と横方向成分の大きさを入力とした二次元ルックアップテーブルを使用しても良い。あるいは該当の時刻に取得された衝撃ベクトルのみでなく、直近の各時刻における衝撃ベクトルの履歴に基づいて寄与度を決定してもよい。 In the second embodiment, the contribution of each sensor was calculated based on a predetermined mathematical formula. However, the method of calculating the contribution is not limited to this, and any method may be used as long as it is a method of setting a relatively high contribution to a sensor having a high position / attitude measurement accuracy estimated from the acquired vibration and impact information. For example, a two-dimensional look-up table may be used in which the magnitudes of the vertical component and the horizontal component of the impact vector are input. Alternatively, the contribution may be determined based on the history of the impact vector at each of the latest times as well as the impact vector acquired at the corresponding time.

あるいは、振動や衝撃の情報以外の情報を加味して寄与度を決定しても良い。例えば、タイヤの駆動量やGNSSに基づく位置姿勢計測は理想状態においても他のセンサーより相対的に精度が低いと考え、寄与度をより低く設定する処理を行っても良い。あるいは、前輪後輪を持つような車両ではステアリング操作中にタイヤに一定の滑りが発生することから、移動体をカーブさせる制御を行っている間はタイヤの駆動量に基づく位置姿勢計測の寄与度を下げる処理を行っても良い。 Alternatively, the contribution may be determined by adding information other than vibration and impact information. For example, it may be considered that the accuracy of the position / posture measurement based on the tire drive amount and the GNSS is relatively lower than that of other sensors even in the ideal state, and a process of setting the contribution to a lower degree may be performed. Alternatively, in a vehicle having front wheels and rear wheels, a certain amount of slippage occurs in the tires during steering operation, so the contribution of position / attitude measurement based on the driving amount of the tires is performed while controlling the curve of the moving body. You may perform the process of lowering.

第一の実施形態および第二の実施形態では衝撃振動取得手段としてカメラ画像の特徴点追跡結果を利用したが、本発明に利用可能な衝撃振動取得手段はこれに限定されない。また、第一の実施形態および第二の実施形態では衝撃や振動の大きさに加えて方向を2軸で取得したが、衝撃や振動の方向の取得は必須ではなく、また取得する場合の形式もこれに限定されない。例えばIMUから加速度の値を3軸で取得しても良い。あるいは、衝撃や振動の大きさのみを取得しても良い。 In the first embodiment and the second embodiment, the feature point tracking result of the camera image is used as the impact vibration acquisition means, but the impact vibration acquisition means that can be used in the present invention is not limited to this. Further, in the first embodiment and the second embodiment, the direction is acquired in two axes in addition to the magnitude of the impact and the vibration, but the acquisition of the direction of the impact and the vibration is not indispensable, and the form in which the direction is acquired. Is not limited to this. For example, the acceleration value may be acquired from the IMU on three axes. Alternatively, only the magnitude of impact or vibration may be acquired.

また、衝撃や振動情報の取得は移動体システム上のセンサーの情報以外を利用しても良い。例えば、走行中の移動体システムを観測可能な位置から捉えた監視カメラなどの外部装置の映像をサーバーマシン上で処理し、映像中で画像認識された移動体システムの揺動具合を解析し、通信部を通じて移動体システムに伝達しても良い。振動具合は、映像を解析して得られる特徴点を追跡することにより得られる。特徴点の追跡方法は、ステップS402で説明した方法を用いることができる。あるいは、情報処理装置上に記憶された電子的な地図データから、位置姿勢情報に紐づいて予測される振動や衝撃の大きさを取得しても良い。具体的には、地図上に記録された段差や悪路の位置情報を取得し、その箇所では所定の大きさの衝撃や振動が発生するものとして位置姿勢計測を行う。 Further, the acquisition of shock and vibration information may be performed by using information other than the information of the sensor on the mobile system. For example, the image of an external device such as a surveillance camera that captures the moving mobile system from an observable position is processed on the server machine, and the swing condition of the mobile system recognized as an image in the image is analyzed. It may be transmitted to the mobile system through the communication unit. The vibration condition is obtained by tracking the feature points obtained by analyzing the image. As the feature point tracking method, the method described in step S402 can be used. Alternatively, the magnitude of vibration or impact predicted in association with the position / orientation information may be acquired from the electronic map data stored in the information processing device. Specifically, the position information of the step or the rough road recorded on the map is acquired, and the position / posture measurement is performed assuming that an impact or vibration of a predetermined magnitude is generated at that location.

第一の実施形態のように画像に対しぶれ補正処理を行う場合で、3軸の衝撃や振動の情報を取得した場合、3軸の情報を画像平面上に投影して2軸の衝撃や振動の情報に変換することで、第一の実施形態と同様にぶれ補正処理を実施することができる。あるいは衝撃や振動の大きさのみの情報を取得した場合、画像上の方向の区別をせずにぶれ補正処理を行う。 When blur correction processing is performed on an image as in the first embodiment, when information on 3-axis impact or vibration is acquired, information on 3-axis is projected on an image plane and 2-axis impact or vibration is performed. By converting to the information of the above, the blur correction process can be carried out in the same manner as in the first embodiment. Alternatively, when information on only the magnitude of impact or vibration is acquired, blur correction processing is performed without distinguishing the direction on the image.

また第二の実施形態のように振動や衝撃の情報に応じて各センサーの寄与度の設定を行う場合では、取得した振動や衝撃の情報の軸数に応じた関数やルックアップテーブルを使用して寄与度を算出して良い。あるいはより少ない軸数に変換した振動や衝撃の情報に基づいて寄与度を算出して良い。 When setting the contribution of each sensor according to the vibration or impact information as in the second embodiment, a function or look-up table according to the number of axes of the acquired vibration or impact information is used. The contribution may be calculated. Alternatively, the contribution may be calculated based on the vibration or impact information converted to a smaller number of axes.

第一の実施形態および第二の実施形態では車輪部として複数のタイヤを具備した移動体システムを例にとり説明したが、移動体システムの車輪部はこれに限定されない。例えばマルチコプターのような飛行物体であっても良いし、複数の脚部を持つ歩行型の移動体であってもよい。また、ユーザーが搭乗し直接操作できるような有人の移動体であっても良い。さらには、事前に設定したルート上を自律走行する機能を備えた移動体であってもよい。 In the first embodiment and the second embodiment, the moving body system including a plurality of tires as the wheel parts has been described as an example, but the wheel parts of the moving body system are not limited thereto. For example, it may be a flying object such as a multicopter, or it may be a walking object having a plurality of legs. Further, it may be a manned mobile body that the user can board and operate directly. Further, it may be a moving body having a function of autonomously traveling on a preset route.

本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピューターにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101 移動体システム
102 位置姿勢計測システム
103 情報処理装置
104 カメラ
105 通信部
106 制御装置
107 車輪部
201 センサー入力情報取得部
202 衝撃振動情報取得部
203 位置姿勢取得部
101 Mobile system 102 Position / posture measurement system 103 Information processing device 104 Camera 105 Communication unit 106 Control device 107 Wheel unit 201 Sensor input information acquisition unit 202 Impact vibration information acquisition unit 203 Position / posture acquisition unit

Claims (10)

移動体に搭載されたセンサーからの入力情報を取得する入力情報取得手段と、
前記移動体の振動によって前記センサーが受ける振動の大きさと方向を含む振動情報を取得する振動情報取得手段と、
前記振動情報を用いて補正した補正後の入力情報に基づいて、前記移動体の位置姿勢を取得する位置姿勢取得手段と、を有することを特徴とする情報処理装置。
Input information acquisition means for acquiring input information from sensors mounted on moving objects, and
A vibration information acquisition means for acquiring vibration information including the magnitude and direction of the vibration received by the sensor due to the vibration of the moving body, and a vibration information acquisition means.
An information processing apparatus comprising: a position / posture acquisition means for acquiring the position / posture of the moving body based on the corrected input information corrected by using the vibration information.
前記位置姿勢取得手段は、前記移動体が閾値を超える大きさの振動を受けている場合に、前記入力情報取得手段で取得した前記入力情報を、前記振動情報を用いて補正した補正後の入力情報に基づいて、前記移動体の位置姿勢を取得することを特徴とする請求項1に記載の情報処理装置。 When the moving body is subjected to vibration of a magnitude exceeding the threshold value, the position / orientation acquisition means corrects the input information acquired by the input information acquisition means by using the vibration information, and then inputs the corrected input. The information processing apparatus according to claim 1, wherein the position and orientation of the moving body are acquired based on the information. 前記振動情報取得手段は、前記移動体を観測可能な外部装置が撮像した前記移動体の画像情報から得られる特徴点を追跡することにより、前記振動情報を取得することを特徴とする請求項1または2に記載の情報処理装置。 The vibration information acquisition means is characterized in that it acquires the vibration information by tracking the feature points obtained from the image information of the moving body captured by an external device capable of observing the moving body. Or the information processing apparatus according to 2. 前記入力情報取得手段は、前記移動体に搭載された撮像センサーから画像情報を取得し、
前記振動情報取得手段は、前記画像情報から得られる特徴点を追跡することにより、前記振動情報を取得することを特徴とする請求項1または2に記載の情報処理装置。
The input information acquisition means acquires image information from an image pickup sensor mounted on the moving body, and obtains image information.
The information processing apparatus according to claim 1 or 2, wherein the vibration information acquisition means acquires the vibration information by tracking feature points obtained from the image information.
前記位置姿勢取得手段は、前記追跡が可能な特徴点の割合が閾値以下である場合に、前記入力情報を、前記振動情報を用いて補正した補正後の入力情報に基づいて、前記移動体の位置姿勢を取得することを特徴とする請求項4に記載の情報処理装置。 When the ratio of the feature points that can be traced is equal to or less than the threshold value, the position / posture acquisition means of the moving body receives the input information based on the corrected input information corrected by using the vibration information. The information processing apparatus according to claim 4, wherein the position and orientation are acquired. 前記移動体が移動する環境の地図情報を取得する手段をさらに有し、
前記振動情報取得手段は、前記地図情報に含まれる環境の情報に基づいて、前記振動情報を取得することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。
Further having a means for acquiring map information of the environment in which the moving body moves,
The information processing apparatus according to any one of claims 1 to 5, wherein the vibration information acquisition means acquires the vibration information based on the environmental information included in the map information.
移動体に搭載された複数のセンサーそれぞれからの入力情報を取得する入力情報取得手段と、
前記移動体が受ける振動の大きさと方向を含む振動情報を取得する振動情報取得手段と、
前記振動情報に基づいて、前記入力情報それぞれを用いて取得した前記移動体の位置姿勢に重みを付けて前記移動体の位置姿勢を決定する位置姿勢決定手段と、を有することを特徴とする情報処理装置。
Input information acquisition means for acquiring input information from each of multiple sensors mounted on the moving object,
Vibration information acquisition means for acquiring vibration information including the magnitude and direction of vibration received by the moving body, and
Information characterized by having a position / posture determining means for determining the position / posture of the moving body by weighting the position / posture of the moving body acquired by using each of the input information based on the vibration information. Processing equipment.
移動体に搭載されたセンサーからの入力情報を取得する入力情報取得工程と、
前記移動体の振動によって前記センサーが受ける振動の大きさと方向を含む振動情報を取得する振動情報取得工程と、
前記振動情報を用いて補正した補正後の入力情報に基づいて、前記移動体の位置姿勢を取得する位置姿勢取得工程と、を有することを特徴とする情報処理方法。
The input information acquisition process to acquire the input information from the sensor mounted on the moving body, and
A vibration information acquisition process for acquiring vibration information including the magnitude and direction of vibration received by the sensor due to the vibration of the moving body, and a vibration information acquisition process.
An information processing method comprising: a position / posture acquisition step of acquiring the position / posture of the moving body based on the corrected input information corrected by using the vibration information.
移動体に搭載された複数のセンサーそれぞれからの入力情報を取得する入力情報取得工程と、
前記移動体の振動によって前記センサーが受ける振動の大きさと方向を含む振動情報を取得する振動情報取得工程と、
前記振動情報に基づいて、前記入力情報それぞれを用いて取得した前記移動体の位置姿勢に重みを付けて前記移動体の位置姿勢を決定する位置姿勢決定工程と、を有することを特徴とする情報処理方法。
Input information acquisition process to acquire input information from each of multiple sensors mounted on the moving body,
A vibration information acquisition process for acquiring vibration information including the magnitude and direction of vibration received by the sensor due to the vibration of the moving body, and a vibration information acquisition process.
Information characterized by having a position / posture determination step of weighting the position / posture of the moving body acquired by using each of the input information based on the vibration information to determine the position / posture of the moving body. Processing method.
コンピューターを、請求項1乃至7のいずれか1項に記載の情報処理装置の各手段として機能させるプログラム。 A program that causes a computer to function as each means of the information processing apparatus according to any one of claims 1 to 7.
JP2020204920A 2020-12-10 2020-12-10 Information processing apparatus, information processing method, and program Pending JP2022092236A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020204920A JP2022092236A (en) 2020-12-10 2020-12-10 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020204920A JP2022092236A (en) 2020-12-10 2020-12-10 Information processing apparatus, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2022092236A true JP2022092236A (en) 2022-06-22

Family

ID=82068034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020204920A Pending JP2022092236A (en) 2020-12-10 2020-12-10 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2022092236A (en)

Similar Documents

Publication Publication Date Title
US10133278B2 (en) Apparatus of controlling movement of mobile robot mounted with wide angle camera and method thereof
KR101776622B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
US10762643B2 (en) Method for evaluating image data of a vehicle camera
CN109885080B (en) Autonomous control system and autonomous control method
US8564657B2 (en) Object motion detection system based on combining 3D warping techniques and a proper object motion detection
KR101776621B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
CN105931275A (en) Monocular and IMU fused stable motion tracking method and device based on mobile terminal
KR101439921B1 (en) Slam system for mobile robot based on vision sensor data and motion sensor data fusion
EP1975878B1 (en) Projective transformation convergence calculation method
JP5023186B2 (en) Object motion detection system based on combination of 3D warping technique and proper object motion (POM) detection
CN110865650B (en) Unmanned aerial vehicle pose self-adaptive estimation method based on active vision
US20190347808A1 (en) Monocular Visual Odometry: Speed And Yaw Rate Of Vehicle From Rear-View Camera
US10846541B2 (en) Systems and methods for classifying road features
WO2015025897A1 (en) Object estimation device and object estimation method
CN108027230B (en) Information processing apparatus, information processing method, and program
KR102219843B1 (en) Estimating location method and apparatus for autonomous driving
WO2020137110A1 (en) Movement amount estimation device
KR20160120467A (en) Azimuth correction apparatus and method of 2-dimensional radar for vehicle
CN113223161A (en) Robust panoramic SLAM system and method based on IMU and wheel speed meter tight coupling
EP3227634B1 (en) Method and system for estimating relative angle between headings
Park et al. A novel line of sight control system for a robot vision tracking system, using vision feedback and motion-disturbance feedforward compensation
KR102493994B1 (en) Digital image recorder for automotive with image stabilization function
JP2022092236A (en) Information processing apparatus, information processing method, and program
JP2020064029A (en) Mobile body controller
US11461928B2 (en) Location estimation apparatus

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231208

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213