JP2019197350A - Self-position estimation system, autonomous mobile system and self-position estimation method - Google Patents

Self-position estimation system, autonomous mobile system and self-position estimation method Download PDF

Info

Publication number
JP2019197350A
JP2019197350A JP2018090404A JP2018090404A JP2019197350A JP 2019197350 A JP2019197350 A JP 2019197350A JP 2018090404 A JP2018090404 A JP 2018090404A JP 2018090404 A JP2018090404 A JP 2018090404A JP 2019197350 A JP2019197350 A JP 2019197350A
Authority
JP
Japan
Prior art keywords
unit
self
position estimation
state feature
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018090404A
Other languages
Japanese (ja)
Inventor
祐樹 金山
Yuki Kanayama
祐樹 金山
泰士 上田
Taishi UEDA
泰士 上田
一野瀬 亮子
Ryoko Ichinose
亮子 一野瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018090404A priority Critical patent/JP2019197350A/en
Priority to PCT/JP2019/007886 priority patent/WO2019216005A1/en
Publication of JP2019197350A publication Critical patent/JP2019197350A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

To allow self-position estimation robust against environmental variation.SOLUTION: A self-position estimation system includes: a camera 11 which captures an image of an environment surrounding a moving body; a state feature quantity acquisition unit 151 which acquires a state feature quantity during capturing the image; a learning device 2 which calculates an optimal value of a parameter for use in self-position estimation by learning processing on the basis of the state feature quantity and the image captured by the camera 11; and a self-position estimation unit 153 which uses the optimal value of the parameter to perform self-position estimation processing.SELECTED DRAWING: Figure 1

Description

本発明は、自己位置推定システム、自律移動システム及び自己位置推定方法の技術に関する。   The present invention relates to a technology of a self-position estimation system, an autonomous movement system, and a self-position estimation method.

カメラ画像を用いた自己位置推定手法では、事前に取得した参照画像と、ロボット移動時に取得する実画像とを比較して自己位置を推定することが行われている。このような手法では、明るさや天候等の周囲環境が変化した際に、参照画像と実画像とのマッチング精度が低下することが課題の一つとしてある。また、環境条件が変化したときにおける対応を人手でルール化し、実装しておく必要がある。   In the self-position estimation method using a camera image, a self-position is estimated by comparing a reference image acquired in advance with an actual image acquired when the robot moves. One of the problems with such a technique is that the matching accuracy between the reference image and the actual image decreases when the surrounding environment such as brightness and weather changes. In addition, it is necessary to manually implement the response when the environmental conditions change, by making rules manually.

このような課題への対策として、例えば、特許文献1がある。特許文献1には、「ロボット1は、カメラ部101によって作業環境内に存在する物体を撮像した画像データを入力し、レーザレンジファインダ107によって作業環境内に存在する物体との距離を計測して得たレンジデータを入力する。また、i)再投影誤差算出部103が、画像データから検出したランドマークの画像上での位置と、記憶部106に格納された地図情報に含まれる作業空間におけるランドマークの位置を前記画像データに再投影した位置との再投影誤差を算出し、ii)位置誤差算出部108が、レンジデータと地図情報に含まれる形状データとの位置合わせ誤差を算出する。さらに、最適化部109が、これら再投影誤差及び位置合わせ誤差を含む目的関数をロボット1の周囲環境に応じて決定し、決定した目的関数を最適化してロボット1の自己位置を算出する」移動装置及び移動装置の自己位置推定方法が開示されている(要約参照)。   As a countermeasure against such a problem, there is, for example, Patent Document 1. In Patent Document 1, “Robot 1 inputs image data obtained by imaging an object existing in the work environment by camera unit 101, and measures the distance from the object present in the work environment by laser range finder 107. In addition, i) the reprojection error calculation unit 103 detects the position of the landmark detected from the image data on the image and the work space included in the map information stored in the storage unit 106. A re-projection error between the position of the landmark and the re-projected position on the image data is calculated, and ii) the position error calculation unit calculates a registration error between the range data and the shape data included in the map information. Further, the optimization unit 109 determines an objective function including the reprojection error and the alignment error according to the surrounding environment of the robot 1, and determines the determined objective function as the maximum. It turned into a self-position estimation method of calculating to "mobile device and the mobile device its own position of the robot 1 is disclosed (see Abstract).

特開2007−322138号公報JP 2007-322138 A

特許文献1に記載の技術では、2つの自己位置推定方法を組み合わせなければならない。そのため、経済的あるいは時間的なコストが、自己位置推定手段が単一の場合と比べて高く、好ましくない。また、特許文献1に記載の技術では、距離センサを用いなければならない。しかし、距離センサはカメラと比較して価格が高い物が多いため、カメラのみを用いることが望ましい。   In the technique described in Patent Document 1, two self-position estimation methods must be combined. For this reason, the cost in terms of economy or time is high as compared with a case where the self-position estimation means is single, which is not preferable. In the technique described in Patent Document 1, a distance sensor must be used. However, since many distance sensors are more expensive than cameras, it is desirable to use only a camera.

このような背景に鑑みて本発明がなされたのであり、本発明は、環境変化に対してロバストな自己位置推定システム、自律移動システム及び自己位置推定方法を提供することを課題とする。   The present invention has been made in view of such a background, and an object of the present invention is to provide a self-position estimation system, an autonomous mobile system, and a self-position estimation method that are robust against environmental changes.

前記した課題を解決するため、本発明は、移動体の周囲環境を撮像する撮像部と、前記撮像部による撮像時における状態特徴量を取得する状態特徴量取得部と、前記状態特徴量と、前記撮像部で撮像された画像とを基に、自己位置推定に用いるパラメータの最適値を導出するための情報であるパラメータ情報を、学習処理によって生成する学習処理部と、前記撮像部が撮像した現在の周囲環境の画像と、前記状態特徴量取得部が取得した現在の状態特徴量と、前記パラメータ情報とを用いて、前記パラメータを算出し、算出した前記パラメータを基に自己位置推定処理を行う自己位置推定部と、を有することを特徴とする。
その他の解決手段は、実施形態において適宜記載する。
In order to solve the above-described problem, the present invention provides an imaging unit that captures an environment around a moving body, a state feature amount acquisition unit that acquires a state feature amount at the time of imaging by the imaging unit, and the state feature amount, Based on the image captured by the imaging unit, a learning processing unit for generating parameter information, which is information for deriving an optimum value of a parameter used for self-position estimation, by a learning process, and the imaging unit captured The parameter is calculated using an image of the current surrounding environment, the current state feature amount acquired by the state feature amount acquisition unit, and the parameter information, and self-position estimation processing is performed based on the calculated parameter. And a self-position estimation unit for performing.
Other solutions are described as appropriate in the embodiments.

本発明によれば、環境変化に対してロバストな自己位置推定システム、自律移動システム及び自己位置推定方法を提供することができる。   According to the present invention, it is possible to provide a self-position estimation system, an autonomous mobile system, and a self-position estimation method that are robust against environmental changes.

第1実施形態に係る自己位置推定システムの構成例を示す図である。It is a figure which shows the structural example of the self-position estimation system which concerns on 1st Embodiment. 第1実施形態における学習装置の構成例を示す図である。It is a figure which shows the structural example of the learning apparatus in 1st Embodiment. 第1実施形態で用いられるパラメータ操作式の学習処理を説明する図である。It is a figure explaining the learning process of the parameter operation type used in 1st Embodiment. 第1実施形態で行われる自己位置推定処理の手順を示す図である。It is a figure which shows the procedure of the self-position estimation process performed in 1st Embodiment. 第1実施形態の自己位置推定システムで行われる全体処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the whole process performed with the self-position estimation system of 1st Embodiment. 第1実施形態で行われる本移動処理の詳細手順を示すフローチャートである。It is a flowchart which shows the detailed procedure of this movement process performed in 1st Embodiment. 移動体1が複数存在する自己位置推定システムの例を示す図である。It is a figure which shows the example of the self-position estimation system in which the several mobile body 1 exists. 第2実施形態に係る自己位置推定システムの構成例を示す図である。It is a figure which shows the structural example of the self-position estimation system which concerns on 2nd Embodiment. 第3実施形態における学習装置の構成例を示す図である。It is a figure which shows the structural example of the learning apparatus in 3rd Embodiment. 雨環境下における画像を仮想的に生成する手順を示す図(その1)である。It is FIG. (The 1) which shows the procedure which produces | generates the image in a rainy environment virtually. 雨環境下における画像を仮想的に生成する手順を示す図(その2)である。It is FIG. (2) which shows the procedure which produces | generates the image in a rainy environment virtually. 視野角の狭いカメラで撮像された画像を仮想的に生成する手順を示す図(その1)である。FIG. 10 is a diagram (No. 1) illustrating a procedure for virtually generating an image captured by a camera with a narrow viewing angle. 視野角の狭いカメラで撮像された画像を仮想的に生成する手順を示す図(その2)である。It is FIG. (2) which shows the procedure which produces | generates virtually the image imaged with the camera with a narrow viewing angle. 第4実施形態における自己位置推定システムの構成例を示す図である。It is a figure which shows the structural example of the self-position estimation system in 4th Embodiment.

次に、本発明を実施するための形態(「実施形態」という)について、適宜図面を参照しながら詳細に説明する。   Next, modes for carrying out the present invention (referred to as “embodiments”) will be described in detail with reference to the drawings as appropriate.

本実施形態の自己位置推定システムは、明るさや天候等の周囲環境が変化した際に、自己位置推定の計算に使用する様々なパラメータの値を、変化した周囲環境に適した値に自動的に調整する。このようにすることで、本実施形態の自己位置推定システムは、自己位置推定精度の悪化を防ぐことを可能とする。また、本実施形態の自己位置推定システムは、パラメータを自動的に計算するために、環境に応じたパラメータを算出するためのパラメータ操作式を用いる。また、パラメータ操作式は、事前にカメラ等によって収集されたデータに基づいて学習装置が学習することで生成される。   When the surrounding environment such as brightness and weather changes, the self-position estimation system of this embodiment automatically changes the values of various parameters used for calculation of self-location to values suitable for the changed surrounding environment. adjust. By doing in this way, the self-position estimation system of this embodiment makes it possible to prevent deterioration of self-position estimation accuracy. In addition, the self-position estimation system according to the present embodiment uses a parameter operation formula for calculating a parameter corresponding to the environment in order to automatically calculate the parameter. Further, the parameter operation formula is generated by the learning device learning based on data collected in advance by a camera or the like.

[第1実施形態]
図1〜図7を参照して、第1実施形態について説明する。
[First Embodiment]
The first embodiment will be described with reference to FIGS.

(システム構成図及び移動体1)
図1は、第1実施形態に係る自己位置推定システムZの構成例を示す図である。
自己位置推定システム(自律移動システム)Zは、移動体1及び学習装置2を有している。
なお、図1では、移動体1は1台としているが、後記するように複数台存在していてもよい。
移動体1は、カメラ(撮像部)11、状態情報取得部12、自己位置推定結果表示部13、動作入力部14、計算部15及び記憶部16を有している。
カメラ11は、画像を撮像する取得する。また、カメラ11は、1台以上のカメラから構成されている。それぞれのカメラ11は、CCDイメージセンサまたはCMOSイメージセンサ等の撮像素子を備えている。これらのカメラ11により、外界を撮像して得られたデジタル画像は、状態特徴量取得部151と、自己位置推定部153と、学習用データ一時記憶部161と、に出力される。
(System configuration diagram and mobile 1)
FIG. 1 is a diagram illustrating a configuration example of a self-position estimation system Z according to the first embodiment.
The self-position estimation system (autonomous movement system) Z includes a moving body 1 and a learning device 2.
In addition, in FIG. 1, although the mobile body 1 is 1 unit | set, multiple units | sets may exist so that it may mention later.
The moving body 1 includes a camera (imaging unit) 11, a state information acquisition unit 12, a self-position estimation result display unit 13, an operation input unit 14, a calculation unit 15, and a storage unit 16.
The camera 11 acquires an image. The camera 11 is composed of one or more cameras. Each camera 11 includes an image sensor such as a CCD image sensor or a CMOS image sensor. Digital images obtained by imaging the outside world with these cameras 11 are output to the state feature quantity acquisition unit 151, the self-position estimation unit 153, and the learning data temporary storage unit 161.

なお、走行環境を広く撮像するため、複数のカメラ11を搭載したり、広角レンズや超広角レンズを備えたカメラ11を搭載したりするのが望ましい。さらに、夜間等の暗所を走行する場合、赤外線カメラを搭載するのが望ましい。また、複数のカメラ11を搭載する場合、移動体1の周囲を満遍なく撮像できるような位置に搭載するのが望ましい。さらに、広角レンズや超広角レンズを備えたカメラ11を搭載する場合、移動体1の最も高い位置、かつ、上向きにカメラ11が搭載されるのが望ましい。このようにカメラ11を搭載することで、ロバスト性を向上させることができる。
さらに、搭載時において、カメラ11の姿勢が動かないよう、固定するのが望ましい。しかし、カメラ11の姿勢を常に把握するシステムを搭載している場合、カメラ11の姿勢は固定されなくてもよい。さらに、カメラ11で撮像する画像はカラー画像でもグレースケール画像でもよい。
In order to capture a wide range of driving environments, it is desirable to mount a plurality of cameras 11 or a camera 11 having a wide-angle lens or a super-wide-angle lens. Furthermore, when traveling in a dark place such as at night, it is desirable to install an infrared camera. In addition, when a plurality of cameras 11 are mounted, it is desirable to mount them at positions where the periphery of the moving body 1 can be imaged uniformly. Further, when the camera 11 having a wide-angle lens or a super-wide-angle lens is mounted, it is desirable that the camera 11 is mounted at the highest position of the moving body 1 and upward. By mounting the camera 11 in this manner, robustness can be improved.
Furthermore, it is desirable to fix the camera 11 so that it does not move during mounting. However, when a system for constantly grasping the posture of the camera 11 is installed, the posture of the camera 11 may not be fixed. Further, the image captured by the camera 11 may be a color image or a gray scale image.

状態情報取得部12は、センシングの状態(状態情報)を取得する。
具体的には、状態情報取得部12は、カメラ11で取得された画像等から状態に関する情報(以下、状態情報と称する)を取得する。状態とは、例えば画像の明るさ等である。また、移動体1がインターネットに接続していれば、状態情報取得部12は、天候等の外部要素に関する情報を状態情報として取得する。また、状態情報として、カメラ11の視野角等の移動体1の内部要素に関する情報がある。移動体1の内部要素に関する情報は、例えば、キーボードからの入力(つまり、ユーザの手入力)や、設定ファイルの記述等を通して得られる。
The state information acquisition unit 12 acquires a sensing state (state information).
Specifically, the state information acquisition unit 12 acquires state information (hereinafter referred to as state information) from an image or the like acquired by the camera 11. The state is, for example, the brightness of the image. If the mobile unit 1 is connected to the Internet, the state information acquisition unit 12 acquires information about external elements such as weather as state information. The state information includes information related to internal elements of the moving body 1 such as the viewing angle of the camera 11. Information relating to the internal elements of the moving body 1 is obtained, for example, through input from a keyboard (that is, manual input by a user), description of a setting file, and the like.

自己位置推定結果表示部13は、自己位置推定結果を表示するディスプレイ等である。自己位置推定結果表示部13には、自己位置推定部153から移動体1の位置、姿勢といった現在の自己位置情報が入力されることで、移動体1の位置、姿勢が表示される。表示方法としては、位置・姿勢を周辺地図上に矢印や点で表示してもよいし、特定の原点に基づいて計算された数値を表示してもよい。なお、図1の例では、自己位置推定結果表示部13が移動体1に搭載されているが、図示しない制御用PC等に搭載されてもよい。   The self-position estimation result display unit 13 is a display or the like that displays the self-position estimation result. The self-position estimation result display unit 13 receives the current self-position information such as the position and posture of the moving body 1 from the self-position estimation unit 153, thereby displaying the position and posture of the moving body 1. As a display method, the position / orientation may be displayed with an arrow or a point on the surrounding map, or a numerical value calculated based on a specific origin may be displayed. In the example of FIG. 1, the self-position estimation result display unit 13 is mounted on the moving body 1, but may be mounted on a control PC or the like (not shown).

動作入力部14は、ハンドルやアクセルペダルやジョイスティック等といった人間が移動体1に移動指令を与えるためのインターフェースである。動作入力部14としては、これら以外に、タブレット上に表示した地図上で目的地が指定されるものでもよいし、キーボードによって目的地の座標が直接入力されるものでもよい。
動作入力部14は、後記する地図データや、学習データを収集するため、移動体1を手動で操作する際に用いられる。
なお、移動体1は、自律移動を行うものであるが、地図データや、学習データを収集する際では、ユーザが動作入力部14を用いて操縦を行う。
The motion input unit 14 is an interface for giving a movement command to the moving body 1 by a human, such as a handle, an accelerator pedal, or a joystick. In addition to these, the motion input unit 14 may be one in which a destination is designated on a map displayed on a tablet, or may be one in which coordinates of a destination are directly input by a keyboard.
The motion input unit 14 is used when manually operating the mobile body 1 to collect map data and learning data to be described later.
In addition, although the mobile body 1 performs autonomous movement, when collecting map data and learning data, a user performs operation using the operation input unit 14.

計算部15は、状態特徴量取得部151、パラメータ操作量算出部152、自己位置推定部153及び動作制御部154を有している。
なお、移動体1の記憶部16にはプログラムが格納されている。そして、このプログラムが、図示しないメモリにロードされ、図示しないCPU(Central Processing Unit)によって実行される。これにより、状態特徴量取得部151、パラメータ操作量算出部152、自己位置推定部153及び動作制御部154が具現化する。
The calculation unit 15 includes a state feature amount acquisition unit 151, a parameter operation amount calculation unit 152, a self-position estimation unit 153, and an operation control unit 154.
A program is stored in the storage unit 16 of the mobile body 1. This program is loaded into a memory (not shown) and executed by a CPU (Central Processing Unit) (not shown). Thereby, the state feature amount acquisition unit 151, the parameter operation amount calculation unit 152, the self-position estimation unit 153, and the motion control unit 154 are realized.

状態特徴量取得部151は、状態情報取得部12で得られた状態情報を状態特徴量へ変換する。状態特徴量とは、状態を1つ以上の数値で定量的に示した指標である。学習装置2における学習では、状態特徴量が用いられることで、学習演算が行われる。例えば、カメラの高さや視野角等の低次元で表現される情報は、そのまま状態特徴量として利用される。
また、状態特徴量取得部151は、カメラ11から取得した画像からも状態特徴量を取得する。なお、画像等の高次元で表現される情報は、画像の明るさ(輝度)の指標や、画面内の障害物の占める割合等の低次元で表現される情報に変換される。ちなみに、状態情報取得部12で取得される明るさは、周囲環境の明るさである。
The state feature amount acquisition unit 151 converts the state information obtained by the state information acquisition unit 12 into a state feature amount. The state feature amount is an index that quantitatively indicates the state by one or more numerical values. In learning in the learning device 2, a learning calculation is performed by using the state feature amount. For example, information expressed in a low dimension such as the height and viewing angle of the camera is used as a state feature amount as it is.
The state feature amount acquisition unit 151 also acquires a state feature amount from an image acquired from the camera 11. Note that information expressed in a high dimension such as an image is converted into information expressed in a low dimension such as an index of brightness (luminance) of the image and a ratio of obstacles in the screen. Incidentally, the brightness acquired by the state information acquisition unit 12 is the brightness of the surrounding environment.

パラメータ操作量算出部152は、学習装置2で学習された係数行列W、シフト量bと、状態特徴量xとを基にパラメータuを算出する。パラメータ操作量算出部152が行う処理については後記する。
自己位置推定部153は、カメラ11が取得した現在の画像と、入力されたパラメータuを用いて自己位置推定を行う。
The parameter operation amount calculation unit 152 calculates the parameter u based on the coefficient matrix W, the shift amount b, and the state feature amount x learned by the learning device 2. The processing performed by the parameter operation amount calculation unit 152 will be described later.
The self-position estimation unit 153 performs self-position estimation using the current image acquired by the camera 11 and the input parameter u.

動作制御部154は、自己位置推定部153から入力された移動体1の位置、姿勢といった現在の自己位置情報や、動作入力部141から入力された移動指令に従って、移動体1のアクチュエータを制御する。   The motion control unit 154 controls the actuator of the mobile unit 1 according to the current self-position information such as the position and orientation of the mobile unit 1 input from the self-position estimation unit 153 and the movement command input from the operation input unit 141. .

記憶部16は、学習用データ一時記憶部161及びパラメータ操作式記憶部162を有している。
学習用データ一時記憶部161は、カメラ11から入力された画像と、状態特徴量取得部151で取得された状態特徴量とで構成される学習用データとを一時的に保存している。なお、学習用データは、画像と状態特徴量の時刻同期のとれたセットデータである。
また、学習用データ一時記憶部161に一時的に保存された学習用データは、定期的あるいは学習を行う際に、学習装置2の学習用データ蓄積部221にコピーされる。これにより、学習装置2の学習用データ蓄積部221に学習用データが蓄積されていく。そして、学習装置2は、学習用データを使用して学習を行う。
The storage unit 16 includes a learning data temporary storage unit 161 and a parameter operation expression storage unit 162.
The learning data temporary storage unit 161 temporarily stores learning data including the image input from the camera 11 and the state feature amount acquired by the state feature amount acquisition unit 151. Note that the learning data is set data in which the time of the image and the state feature amount is synchronized.
The learning data temporarily stored in the learning data temporary storage unit 161 is copied to the learning data storage unit 221 of the learning device 2 periodically or when learning is performed. As a result, learning data is accumulated in the learning data accumulation unit 221 of the learning device 2. The learning device 2 performs learning using the learning data.

パラメータ操作式記憶部162は、後記する学習処理によって学習されたパラメータ操作式を、学習装置2の学習結果記憶部222から適宜取得する。パラメータ操作式については後記する。この取得のタイミングは、一例として、移動体1の運用前等が挙げられる。   The parameter operation expression storage unit 162 appropriately acquires the parameter operation expression learned by the learning process described later from the learning result storage unit 222 of the learning device 2. The parameter operation formula will be described later. As an example of this acquisition timing, before the mobile body 1 is operated, and the like.

学習装置2については、図2を参照して後記する。
なお、移動体1と学習装置2間の通信は、電線、光ファイバ等の有線通信路、または無線通信を介して行うことができる。
The learning device 2 will be described later with reference to FIG.
In addition, communication between the mobile body 1 and the learning device 2 can be performed via a wired communication path such as an electric wire or an optical fiber, or wireless communication.

(学習装置2)
図2は、第1実施形態における学習装置2の構成例を示す図である。
学習装置2は、計算部21と、記憶部22とを有している。
計算部21は、状態特徴量入力部211と、画像データ入力部212と、報酬計算用自己位置推定部(学習処理部)213と、報酬計算部(学習処理部)214と、パラメータ操作式学習部(学習処理部)215とを有している。
なお、記憶部22にはプログラムが格納されている。このプログラムが図示しないメモリにロードされ、図示しないCPUによって実行されることにより、状態特徴量入力部211と、画像データ入力部212と、報酬計算用自己位置推定部213と、報酬計算部214と、パラメータ操作式学習部215とが具現化する。
(Learning device 2)
FIG. 2 is a diagram illustrating a configuration example of the learning device 2 according to the first embodiment.
The learning device 2 includes a calculation unit 21 and a storage unit 22.
The calculation unit 21 includes a state feature amount input unit 211, an image data input unit 212, a reward calculation self-position estimation unit (learning processing unit) 213, a reward calculation unit (learning processing unit) 214, and parameter operation formula learning. Part (learning processing part) 215.
The storage unit 22 stores a program. When this program is loaded into a memory (not shown) and executed by a CPU (not shown), a state feature amount input unit 211, an image data input unit 212, a reward calculation self-position estimation unit 213, a reward calculation unit 214, The parameter operation formula learning unit 215 is embodied.

記憶部22は、学習用データ蓄積部221と、学習結果記憶部222とを有している。
学習用データ蓄積部221は、移動体1の移動中において、移動体1が学習用データ一時記憶部161に蓄積した学習用データを蓄積する。前記したように、この蓄積は、例えば定期的に行われる。学習処理において、学習用データのうち画像データが画像データ入力部212に入力される。また、学習データのうち、状態特徴量は状態特徴量入力部211に入力される。
The storage unit 22 includes a learning data storage unit 221 and a learning result storage unit 222.
The learning data storage unit 221 stores the learning data stored in the learning data temporary storage unit 161 by the mobile unit 1 while the mobile unit 1 is moving. As described above, this accumulation is performed periodically, for example. In the learning process, image data of the learning data is input to the image data input unit 212. Of the learning data, the state feature amount is input to the state feature amount input unit 211.

状態特徴量入力部211は、学習用データ蓄積部221から入力された状態特徴量をパラメータ操作式学習部215へ出力する。同様に、画像データ入力部212は、学習用データ蓄積部221から入力された画像データを報酬計算用自己位置推定部213へ出力する。   The state feature amount input unit 211 outputs the state feature amount input from the learning data storage unit 221 to the parameter operation formula learning unit 215. Similarly, the image data input unit 212 outputs the image data input from the learning data storage unit 221 to the reward calculation self-position estimation unit 213.

報酬計算用自己位置推定部213は、後記する学習処理で利用する報酬を計算するために画像と、パラメータ操作式学習部215から取得するパラメータを基に、移動体1の自己位置を推定する。自己位置推定の手法として、特徴点ベースの手法等が挙げられる。特徴点ベースの手法としては、例えば、特開2017−21427号公報に記載の手法等が用いられる。
報酬計算部214は、報酬計算用自己位置推定部213の処理結果に基づいて、重みの係数行列W、シフト量bを微小変化させる目安となる報酬を算出する。
パラメータ操作式学習部215は、報酬計算部214が算出した報酬に基づいて、係数行列W、シフト量bを微小変化させる。
The reward calculation self-position estimation unit 213 estimates the self-position of the moving body 1 based on an image and a parameter acquired from the parameter operation formula learning unit 215 in order to calculate a reward used in a learning process described later. As a technique for self-position estimation, a feature point based technique or the like can be cited. As the feature point-based method, for example, the method described in Japanese Patent Application Laid-Open No. 2017-21427 is used.
Based on the processing result of the reward calculation self-position estimation unit 213, the reward calculation unit 214 calculates a reward that serves as a guide for minutely changing the weighting coefficient matrix W and the shift amount b.
The parameter operation formula learning unit 215 slightly changes the coefficient matrix W and the shift amount b based on the reward calculated by the reward calculation unit 214.

(学習処理)
次に、パラメータ操作式を学習するための、学習処理について説明する。パラメータは、自己位置推定において手動で設定しなければならない指示事項である。パラメータは、例えば、地図と画像とのマッチングを行う際に利用する画像特徴点の検出数や、地図を構成する画像特徴点と実画像中の画像特徴点とのマッチングにおける実画像の利用範囲等が挙げられる。このようなパラメータを状態(明るさ等)にあわせて適切に設定することで、より正確に自己位置推定を行うことができる。
まず、パラメータ操作式の一例として式(1)がある。
(Learning process)
Next, a learning process for learning the parameter operation formula will be described. Parameters are instructions that must be set manually in the self-position estimation. Parameters include, for example, the number of detected image feature points used when matching a map with an image, the range of use of an actual image in matching between image feature points constituting a map and image feature points in an actual image, etc. Is mentioned. By appropriately setting such parameters according to the state (brightness, etc.), it is possible to perform self-position estimation more accurately.
First, there is a formula (1) as an example of the parameter operation formula.

u=Wx+b ・・・ (1)   u = Wx + b (1)

式(1)においてxは状態特徴量から構成されるベクトルである。uは自己位置推定のパラメータから構成されるベクトルである。また、Wはxの重み係数行列である。そして、bはシフト量を表す係数ベクトルである。
本実施形態における学習処理は、状態特徴量xが入力された際に出力されるパラメータuが、自己位置推定精度を改善するように、係数行列Wとシフト量bを調整する処理である。移動体1は、自己位置推定時において、式(1)における学習済みの係数行列Wとシフト量bを用いたパラメータ操作式により、状態特徴量xに対して適切な自己位置推定パラメータを推定可能となる。
In Expression (1), x is a vector composed of state feature quantities. u is a vector composed of self-position estimation parameters. W is a weighting coefficient matrix of x. B is a coefficient vector representing the shift amount.
The learning process in the present embodiment is a process of adjusting the coefficient matrix W and the shift amount b so that the parameter u output when the state feature quantity x is input improves the self-position estimation accuracy. The mobile unit 1 can estimate an appropriate self-position estimation parameter for the state feature quantity x by the parameter operation formula using the learned coefficient matrix W and the shift amount b in the formula (1) at the time of self-position estimation. It becomes.

図3は、第1実施形態で用いられるパラメータ操作式の学習処理を説明する図である。
まず、状態特徴量入力部211は、状態特徴量xをパラメータ操作式学習部215へ出力する。パラメータ操作式学習部215は、入力された状態特徴量xに係数行列Wの初期値と、シフト量bの初期値を用いた式(1)を演算し、自己位置推定のパラメータuを算出する。そして、パラメータ操作式学習部215は、算出したパラメータuを報酬計算用自己位置推定部213に出力する。
FIG. 3 is a diagram for explaining the learning process of the parameter operation formula used in the first embodiment.
First, the state feature quantity input unit 211 outputs the state feature quantity x to the parameter operation formula learning unit 215. The parameter operation equation learning unit 215 calculates the equation (1) using the initial value of the coefficient matrix W and the initial value of the shift amount b for the input state feature value x, and calculates the self-position estimation parameter u. . Then, the parameter operation formula learning unit 215 outputs the calculated parameter u to the reward calculation self-position estimation unit 213.

報酬計算用自己位置推定部213は、パラメータuと、画像データ入力部212から入力された画像を用いて、自己位置推定の安定性を表す指標(安定性指標)を算出する。そして、報酬計算用自己位置推定部213は、算出した安定性指標を報酬計算部214に出力する。なお、安定性指標については後記する。   The reward calculation self-position estimation unit 213 uses the parameter u and the image input from the image data input unit 212 to calculate an index (stability index) representing the stability of self-position estimation. Then, the reward calculation self-position estimation unit 213 outputs the calculated stability index to the reward calculation unit 214. The stability index will be described later.

報酬計算部214は、入力された安定性指標に基づいて、パラメータuに対する報酬を算出する。そして、報酬計算部214は、算出した安定性指標をパラメータ操作式学習部215へ出力する。そして、パラメータ操作式学習部215は、入力された報酬に基づいて、係数行列Wとシフト量bを微小量変化させる。そして、パラメータ操作式学習部215は、微小量変化させた係数行列W及びシフト量bを用いたパラメータ操作式(式(1))を用いて、パラメータuを再度算出する。そして、パラメータ操作式学習部215は、報酬計算用自己位置推定部213へ算出した自己位置推定のパラメータuを出力する。   The reward calculation unit 214 calculates a reward for the parameter u based on the input stability index. Then, the reward calculation unit 214 outputs the calculated stability index to the parameter operation formula learning unit 215. Then, the parameter operation equation learning unit 215 changes the coefficient matrix W and the shift amount b by a minute amount based on the input reward. Then, the parameter operation equation learning unit 215 calculates the parameter u again using the parameter operation equation (equation (1)) using the coefficient matrix W and the shift amount b changed by a minute amount. Then, the parameter operation equation learning unit 215 outputs the calculated self-position estimation parameter u to the reward calculation self-position estimation unit 213.

そして、前回と同様の流れで報酬が算出される。
パラメータ操作式学習部215は、算出した今回の報酬と、前回の計算で得られた報酬に基づいて、係数行列Wとシフト量bの変化量と、報酬の変化量との関係を算出する。そして、パラメータ操作式学習部215は、報酬がより高くなるように係数行列Wとシフト量bを微小変化させる。そして、同様の処理が繰り返され報酬が算出される。報酬は、パラメータuが適切な値に向かえば向かうほど高くなるよう設定される。
Then, the reward is calculated in the same flow as the previous time.
The parameter operation equation learning unit 215 calculates a relationship between the coefficient matrix W, the change amount of the shift amount b, and the change amount of the reward based on the calculated current reward and the reward obtained in the previous calculation. Then, the parameter operation formula learning unit 215 slightly changes the coefficient matrix W and the shift amount b so that the reward becomes higher. Then, the same process is repeated to calculate a reward. The reward is set so as to increase as the parameter u approaches an appropriate value.

以上の手順が繰り返されることで、報酬の変化量が一定値以下となるまで、パラメータ操作式が更新し続けられる。図3に示す一連の流れが学習処理である。
学習処理は、学習データのセット毎(すなわち、画像毎)に行われる。
こうして得られたパラメータ操作式によって出力されるパラメータuが、当該環境で取得した状態特徴量xに対する最適パラメータとみなされる。そして、様々な環境下で蓄積されたすべての学習用データで学習処理が行われることで、様々な状態特徴量xに対して、最適なパラメータuを推定するパラメータ操作式が作成される。そして、このように作成された学習済みの係数行列Wとシフト量bが学習結果記憶部222に記憶される。
なお、画像処理に用いられた状態特徴量xと、学習された係数行列W、シフト量bとが組のデータとして学習結果記憶部222に格納される。
By repeating the above procedure, the parameter operation formula is continuously updated until the amount of change in the reward becomes a certain value or less. A series of flows shown in FIG. 3 is a learning process.
The learning process is performed for each set of learning data (that is, for each image).
The parameter u output by the parameter operation formula thus obtained is regarded as the optimum parameter for the state feature value x acquired in the environment. Then, a learning process is performed on all the learning data accumulated in various environments, thereby creating a parameter operation expression for estimating the optimum parameter u for various state feature quantities x. Then, the learned coefficient matrix W and the shift amount b created in this way are stored in the learning result storage unit 222.
The state feature amount x used for image processing, the learned coefficient matrix W, and the shift amount b are stored in the learning result storage unit 222 as a set of data.

なお、安定性指標として、例えば、事前に記憶してある地図を構成する特徴点と現在の画像中の特徴点のマッチングした個数等が挙げられる。特徴点のマッチングした個数が多いほど、自己位置推定の安定性が高いと判定される。
また、報酬として、例えば、自己位置推定の安定性を表す指標が目標安定性の規定範囲外にある場合、マイナスの報酬が設定され、目標安定性の規定範囲内であれば、プラスの報酬を設定するようにする。このような規定範囲は、事前に手動で設定される。
そして、パラメータuが適切な値となれば、学習処理が完了する。
The stability index includes, for example, the number of feature points constituting a map stored in advance and the number of feature points in the current image that are matched. It is determined that the greater the number of matched feature points, the higher the stability of self-position estimation.
In addition, as a reward, for example, if the index indicating the stability of self-position estimation is outside the target stability regulation range, a negative compensation is set, and if it is within the target stability regulation range, a positive compensation is given. Try to set. Such a prescribed range is set manually in advance.
When the parameter u becomes an appropriate value, the learning process is completed.

例えば、周囲環境(状態特徴量x)が暗い場合、特徴点を検出する感度(パラメータuに相当)を高くする。つまり、明るい環境下では、角ばった箇所のみ特徴量として使用されるが、暗い環境下では、これらの特徴量がマッチングに十分な量を取得できない場合がある。このような場合、例えば、やや丸みをおびた箇所も特徴量として算出する等といったパラメータuの調整が行われる。
図3に示すような学習処理が行われることにより、効率的な学習を行うことができ、安定した結果を得ることができる。
For example, when the surrounding environment (state feature amount x) is dark, the sensitivity (corresponding to the parameter u) for detecting a feature point is increased. In other words, in a bright environment, only the corners are used as feature amounts, but in a dark environment, there are cases where these feature amounts cannot acquire a sufficient amount for matching. In such a case, for example, the parameter u is adjusted such that a slightly rounded part is calculated as a feature amount.
By performing the learning process as shown in FIG. 3, efficient learning can be performed and a stable result can be obtained.

図4は、第1実施形態で行われる自己位置推定処理の手順を示す図である。
図4では、図3に示す学習処理で算出されたパラメータ操作式(係数行列W、シフト量b)を用いた自己位置推定処理を説明する。。
状態特徴量取得部151は、現在の状態特徴量xをパラメータ操作量算出部152に出力する。
パラメータ操作量算出部152は、図3による学習済みの係数行列Wとシフト量bのうち、取得した状態特徴量xに対応する係数行列Wとシフト量bとをパラメータ操作式記憶部162から取得する。また、パラメータ操作量算出部152は、状態特徴量xを状態特徴量取得部151から取得する。
次に、パラメータ操作量算出部152は、学習済みの係数行列Wとシフト量bを式(1)に当てはめたパラメータ操作式に、状態特徴量xを代入する。このようにすることで、パラメータuが算出される。パラメータ操作量算出部152は、算出したパラメータuを自己位置推定部153に出力する。自己位置推定部153は、カメラ11が取得した現在の画像と、入力されたパラメータuを用いて自己位置推定を行う。
FIG. 4 is a diagram illustrating a procedure of self-position estimation processing performed in the first embodiment.
In FIG. 4, a self-position estimation process using the parameter operation formula (coefficient matrix W, shift amount b) calculated in the learning process shown in FIG. 3 will be described. .
The state feature amount acquisition unit 151 outputs the current state feature amount x to the parameter operation amount calculation unit 152.
The parameter operation amount calculation unit 152 acquires, from the parameter operation expression storage unit 162, the coefficient matrix W and the shift amount b corresponding to the acquired state feature amount x among the learned coefficient matrix W and the shift amount b shown in FIG. To do. The parameter operation amount calculation unit 152 acquires the state feature amount x from the state feature amount acquisition unit 151.
Next, the parameter operation amount calculation unit 152 substitutes the state feature amount x into the parameter operation equation obtained by applying the learned coefficient matrix W and the shift amount b to Equation (1). In this way, the parameter u is calculated. The parameter operation amount calculation unit 152 outputs the calculated parameter u to the self-position estimation unit 153. The self-position estimation unit 153 performs self-position estimation using the current image acquired by the camera 11 and the input parameter u.

(全体処理)
図5は、第1実施形態の自己位置推定システムZで行われる全体処理の手順を示すフローチャートである。適宜、図1及び図2を参照する。
初めて、本実施形態の自己位置推定システムZを利用する場合、まず学習用のデータを収集する必要がある。そこで、まず、移動体1が手動運転されることで学習用データを収集し(S1)、収集した学習用データを学習用データ一時記憶部161に記憶する。
学習用データ一時記憶部161に格納された学習用データは、所定のタイミングで学習装置2に送信される。
そして、学習装置2は、送信された学習用データを用いて、図3を参照して前記した学習処理を実行する(S2)。すなわち、学習装置2は、学習用データ蓄積部221に蓄積された学習用データを基にパラメータ操作式の学習を行う。ステップS2の処理は図3で説明したものである。パラメータ操作式学習部215は、学習処理の結果算出されたパラメータ操作式(係数行列W及びシフト量b)を学習結果記憶部222に保存する。学習結果記憶部222に保存されたパラメータ操作式は、所定及びタイミングで移動体1のパラメータ操作式記憶部162に送信される。
(Overall processing)
FIG. 5 is a flowchart showing the procedure of the entire process performed in the self-position estimation system Z of the first embodiment. Reference is made to FIGS. 1 and 2 as appropriate.
When using the self-position estimation system Z of the present embodiment for the first time, it is necessary to collect learning data first. Therefore, learning data is first collected by manually operating the moving body 1 (S1), and the collected learning data is stored in the learning data temporary storage unit 161.
The learning data stored in the learning data temporary storage unit 161 is transmitted to the learning device 2 at a predetermined timing.
Then, the learning device 2 executes the learning process described above with reference to FIG. 3 using the transmitted learning data (S2). That is, the learning device 2 learns the parameter operation formula based on the learning data stored in the learning data storage unit 221. The processing in step S2 has been described with reference to FIG. The parameter operation expression learning unit 215 stores the parameter operation expression (coefficient matrix W and shift amount b) calculated as a result of the learning process in the learning result storage unit 222. The parameter operation formula stored in the learning result storage unit 222 is transmitted to the parameter operation formula storage unit 162 of the moving body 1 at a predetermined timing.

なお、学習処理が終了した旨が、学習装置2の図示しない表示部や、移動体1の自己位置推定結果表示部13等に表示されてもよい。このようにすることで、ユーザは学習の終了を確認することができる。   Note that the fact that the learning process has ended may be displayed on a display unit (not shown) of the learning device 2, the self-position estimation result display unit 13 of the moving body 1, or the like. In this way, the user can confirm the end of learning.

以上によって学習が済めば、移動体1は学習した環境内おいて自由に自己位置推定をしながら移動することが可能となる。そして、保存された学習済みのパラメータ操作式を基に、移動体1は本移動処理を実行する(S3)。本移動処理は、学習されたパラメータ操作式を用いて、移動体1が自己位置推定を行いながら移動を行うことである。ステップS3の処理は図6で後記する。   When learning is completed as described above, the moving body 1 can move while performing self-position estimation freely in the learned environment. Then, based on the stored learned parameter operation formula, the moving body 1 performs the movement process (S3). This movement process is that the moving body 1 moves while performing self-position estimation using the learned parameter operation formula. The process of step S3 will be described later with reference to FIG.

図5のステップS1における学習用データを収集する際、ハンドルやアクセルやジョイスティック等の動作入力部14をユーザが操作して、想定走行環境内をくまなく走行する。そして、走行中の学習用データが収集される。そして、センシングの状態を変えて、同じ走行経路で学習用データが収集される。例えば、外光が差し込む走行環境であれば、朝、昼、夜と学習用データが収集されるのが望ましい。また、屋外であれば晴天時、雨天時の学習用データが、異なるセンシング状態の学習用データとして収集される。移動体1に搭載される状態情報取得部12は、利用する可能性のある様々なセンサや、様々な取付位置で学習用データを収集することが望ましい。   When collecting the learning data in step S1 in FIG. 5, the user operates the operation input unit 14 such as a steering wheel, an accelerator, or a joystick to travel all within the assumed traveling environment. Then, learning data during traveling is collected. Then, the learning data is collected on the same travel route by changing the sensing state. For example, in a driving environment in which external light is inserted, it is desirable to collect learning data for morning, noon, and night. In addition, if it is outdoors, learning data in fine weather and rainy weather are collected as learning data in different sensing states. It is desirable that the state information acquisition unit 12 mounted on the moving body 1 collects learning data at various sensors that may be used and at various attachment positions.

(本移動処理)
図6は、第1実施形態で行われる本移動処理(図5のステップS3)の詳細手順を示すフローチャートである。適宜、図1及び図2を参照する。
まず、カメラ11は、周囲の環境を撮像することで画像を撮像する(S301)。
次に、状態特徴量取得部151が、前記した手法で状態特徴量を取得する(S302)。
そして、パラメータ操作量算出部152が、パラメータ操作式記憶部162に記憶されたパラメータ操作式(係数行列W及びシフト量b)と、状態特徴量とに基づいて、パラメータuを算出する(S303)。ステップS303の処理は図4で説明したものである。
(This move process)
FIG. 6 is a flowchart illustrating a detailed procedure of the main movement process (step S3 in FIG. 5) performed in the first embodiment. Reference is made to FIGS. 1 and 2 as appropriate.
First, the camera 11 captures an image by capturing the surrounding environment (S301).
Next, the state feature amount acquisition unit 151 acquires the state feature amount by the above-described method (S302).
Then, the parameter operation amount calculation unit 152 calculates the parameter u based on the parameter operation equation (coefficient matrix W and shift amount b) stored in the parameter operation equation storage unit 162 and the state feature amount (S303). . The processing in step S303 has been described with reference to FIG.

続いて、自己位置推定部153が、算出したパラメータuに基づいて自己位置推定を行う(S304)。ステップS304の処理は、公知の技術なので詳細を省略する。
次に、自己位置推定部153は、自己位置推定が成功したか否かを判定する(S305)。自己位置推定の成功判定方法は、特開2016−110576号公報に記載されている方法等があるが、その他の判定方法が用いられてもよい。
ステップS305の結果、自己位置推定が失敗した場合(S305→No)、その時の画像及び状態情報を新たな学習用データとして学習用データ一時記憶部161に格納する(S311)。そして、計算部15は、ステップS301へ処理を戻す。
Subsequently, the self-position estimation unit 153 performs self-position estimation based on the calculated parameter u (S304). Since the process in step S304 is a known technique, its details are omitted.
Next, the self-position estimating unit 153 determines whether or not the self-position estimation is successful (S305). Although the self-position estimation success determination method includes the method described in Japanese Patent Application Laid-Open No. 2016-110576, other determination methods may be used.
If the result of step S305 is that the self-position estimation has failed (S305 → No), the image and state information at that time are stored in the learning data temporary storage unit 161 as new learning data (S311). And the calculation part 15 returns a process to step S301.

ステップS305の結果、自己位置推定が成功した場合(S305→Yes)、自己位置推定結果表示部13が、自己位置推定結果を表示する(S321)。なお、ステップS305の処理後、自己位置推定の結果として「正常」、「不安定」、「計算負荷」等が自己位置推定結果表示部13に表示されてもよい。このようにすることで、トラッキングロストへの対応が可能となる。   As a result of step S305, when the self-position estimation is successful (S305 → Yes), the self-position estimation result display unit 13 displays the self-position estimation result (S321). In addition, after the process of step S305, “normal”, “unstable”, “calculation load”, and the like may be displayed on the self-position estimation result display unit 13 as a result of self-position estimation. By doing so, it becomes possible to cope with tracking lost.

そして、動作制御部154は、移動終了条件を満たしているか否かを判定する(S322)。移動終了条件としては、例えば、移動体1の自己位置推定結果が、移動終了目標地点からあらかじめ設定された一定距離以内であるかである。あるいは、移動終了条件が、動作制御部154が、動作入力部14からの停止信号を受信したかであってもよい。あるいは、自己位置推定が失敗し、再度学習用データの収集が必要となるか、等が考えられる。
ステップS322の結果、動作終了条件を満たしている場合(S322→Yes)、計算部15は処理を終了する。
ステップS322の結果、動作終了条件を満たしていない場合(S322→No)、例えば、タブレット上等の地図で指定された目的地と移動体1の現在の自己位置とを基に、動作制御部154が移動体1を移動させる(S323)。具体的には、動作制御部154が目的地への経路を生成し、その経路をたどれるような信号を移動体1の移動機構(不図示)に送る。
そして、計算部15はステップS301へ処理を戻す。
Then, the operation control unit 154 determines whether or not the movement end condition is satisfied (S322). As the movement end condition, for example, the self-position estimation result of the moving body 1 is within a predetermined distance set in advance from the movement end target point. Alternatively, the movement end condition may be whether the operation control unit 154 has received a stop signal from the operation input unit 14. Alternatively, it may be possible that the self-position estimation has failed and it is necessary to collect learning data again.
As a result of step S322, when the operation end condition is satisfied (S322 → Yes), the calculation unit 15 ends the process.
As a result of step S322, when the operation end condition is not satisfied (S322 → No), for example, the operation control unit 154 is based on the destination specified on the map on the tablet or the like and the current self-position of the moving body 1. Moves the moving body 1 (S323). Specifically, the operation control unit 154 generates a route to the destination, and sends a signal that can follow the route to a moving mechanism (not shown) of the moving body 1.
And the calculation part 15 returns a process to step S301.

なお、ステップS311に示すように、本移動処理が行われている際でも、移動体1の学習用データ一時記憶部161に学習用データが記憶される。そして、本移動処理が行われない時間に学習装置2の学習用データ蓄積部221に、蓄積された学習用データが移行される。そして、学習装置2が、パラメータ操作式の学習ステップS201を、その都度行うことでパラメータ操作式が更新される。具体的には、移動体1が商業施設で運用される場合、商業施設の営業時間内は、移動体1が本移動処理を行いながら、自己位置推定に失敗したデータを学習用データとして、移動体1の学習用データ一時記憶部161に蓄積する。そして、営業時間終了後、移動体1の学習用データ一時記憶部161から学習装置2の学習用データ蓄積部221に学習用データが移行される。そして、営業時間外に、学習装置2がパラメータ操作式の学習処理(S2)を行い、学習処理に用いられている状態特徴量に対応するパラメータ操作式(係数行列W及びシフト量b)を新たに生成する。そして、翌営業時間前に更新されたパラメータ操作式が移動体1のパラメータ操作式記憶部162に移される。このようにすることで、最新のセンシング状態にあわせた自己位置推定を移動体1が行える。
なお、取得された学習データが学習処理に対し不適切である場合、その学習データは破棄される。
As shown in step S311, the learning data is stored in the learning data temporary storage unit 161 of the moving body 1 even when the moving process is being performed. Then, the accumulated learning data is transferred to the learning data storage unit 221 of the learning device 2 at a time when the moving process is not performed. Then, the learning device 2 performs the parameter operation equation learning step S201 each time, thereby updating the parameter operation equation. Specifically, when the mobile unit 1 is operated in a commercial facility, during the business hours of the commercial facility, the mobile unit 1 performs the main movement process and moves the data for which self-position estimation has failed as learning data. The data is stored in the learning data temporary storage unit 161 of the body 1. After the business hours, the learning data is transferred from the learning data temporary storage unit 161 of the mobile body 1 to the learning data storage unit 221 of the learning device 2. Then, outside of business hours, the learning device 2 performs a parameter operation expression learning process (S2), and newly sets a parameter operation expression (coefficient matrix W and shift amount b) corresponding to the state feature amount used in the learning process. To generate. Then, the parameter operation formula updated before the next business hours is transferred to the parameter operation formula storage unit 162 of the moving body 1. By doing in this way, the mobile body 1 can perform self-position estimation according to the latest sensing state.
If the acquired learning data is inappropriate for the learning process, the learning data is discarded.

(システム例)
図7は、移動体1が複数存在する自己位置推定システムZの例を示す図である。
図7の例のように、自己位置推定システムZが複数の移動体1A〜1C(1)を有する場合、複数の移動体1A〜1Cで収集した学習用データを共通の学習装置2に蓄積する。そして、この学習用データを基に、学習装置2が学習を行う。
(System example)
FIG. 7 is a diagram illustrating an example of a self-position estimation system Z in which a plurality of moving objects 1 exist.
When the self-position estimation system Z has a plurality of moving bodies 1A to 1C (1) as in the example of FIG. 7, learning data collected by the plurality of moving bodies 1A to 1C is stored in the common learning device 2. . Then, the learning device 2 performs learning based on the learning data.

本実施形態における自己位置推定システムZは、状態特徴量xを用いて、適切なパラメータuとなるよう係数行列W及びシフト量bを学習する。そして、自己位置推定システムZは、現在の状態特徴量xを用いて、学習済みの係数行列W及びシフト量bによりパラメータuを算出し、算出したパラメータuを基に自己位置推定を行う。   The self-position estimation system Z in the present embodiment learns the coefficient matrix W and the shift amount b so as to be appropriate parameters u using the state feature amount x. Then, the self-position estimation system Z calculates the parameter u using the learned coefficient matrix W and the shift amount b using the current state feature quantity x, and performs self-position estimation based on the calculated parameter u.

以上のような構成により、自己位置推定する自動車やロボット等の移動体1が、カメラ11を用いた自己位置推定手方法で、環境変化に対してロバストな自己位置推定を提供することができる。   With the above configuration, the mobile object 1 such as an automobile or a robot that performs self-position estimation can provide self-position estimation that is robust against environmental changes by a self-position estimation method using the camera 11.

また、本実施形態に係る自己位置推定システムZは、移動体1とは異なる学習装置で学習処理を行うことにより、効率的な学習と、移動体1の移動とを行うことができる。   In addition, the self-position estimation system Z according to the present embodiment can perform efficient learning and movement of the moving body 1 by performing learning processing with a learning device different from the moving body 1.

[第2実施形態]
次に、図8を参照して、本発明の第2実施形態を説明する。
第1実施形態では、データ収集と自己位置推定とが同じ移動体1を用いて行われていた。これに対して、第2実施形態では、学習データ収集を自己位置推定時に利用する移動体1とは別のデータ収集用の移動体を用いて、手動で行う場合について説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIG.
In the first embodiment, data collection and self-position estimation are performed using the same moving body 1. On the other hand, in the second embodiment, a case will be described in which learning data collection is manually performed using a moving body for data collection different from the moving body 1 used for self-position estimation.

(システム構成図)
図8は、第2実施形態に係る自己位置推定システムZaの構成例を示す図である。
前記したように、自己位置推定システムZaが、図1に示す自己位置推定システムZと大きく違う点は、学習用データを収集する専門のデータ収集用移動体3が備えられている点である。
(System Configuration)
FIG. 8 is a diagram illustrating a configuration example of the self-position estimation system Za according to the second embodiment.
As described above, the self-position estimation system Za differs greatly from the self-position estimation system Z shown in FIG. 1 in that a specialized data collection moving body 3 that collects learning data is provided.

データ収集用移動体3は、カメラ31、状態情報取得部32、動作入力部34、計算部35及び記憶部36を有している。
計算部35は、状態特徴量取得部351及び動作制御部354を有している。
また、記憶部36は、学習用データ一時記憶部161を有している。
データ収集用移動体3における各部31,32,34,351,354及び学習用データ一時記憶部161は、図1における移動体1の各部11,12,14,151,154,161と同様であるので、ここでの説明を省略する。ただし、動作制御部354は自律移動を行う機能を有さない。
The data collection moving body 3 includes a camera 31, a state information acquisition unit 32, an operation input unit 34, a calculation unit 35, and a storage unit 36.
The calculation unit 35 includes a state feature amount acquisition unit 351 and an operation control unit 354.
The storage unit 36 includes a learning data temporary storage unit 161.
The units 31, 32, 34, 351, 354 and the learning data temporary storage unit 161 in the data collection mobile unit 3 are the same as the units 11, 12, 14, 151, 154, 161 of the mobile unit 1 in FIG. Therefore, explanation here is omitted. However, the operation control unit 354 does not have a function of performing autonomous movement.

学習装置2は、図1及び図2と同様の構成を有するため、ここでの説明を省略する。
そして、移動体1aは、図1に示す移動体1から学習用データ一時記憶部161を省略した構成を有している。しかし、移動体1aに学習用データ一時記憶部161が搭載されていてもよい。
Since the learning device 2 has the same configuration as that shown in FIGS. 1 and 2, the description thereof is omitted here.
And the moving body 1a has the structure which abbreviate | omitted the learning data temporary storage part 161 from the moving body 1 shown in FIG. However, the learning data temporary storage unit 161 may be mounted on the moving body 1a.

(動作)
なお、第2実施形態における自己位置推定装置の動作は、図5の学習用データ収集処理(S1)がデータ収集用移動体3で行われる以外は、第1実施形態と同じである。
(Operation)
The operation of the self-position estimation apparatus in the second embodiment is the same as that in the first embodiment, except that the learning data collection process (S1) in FIG.

学習用データ収集処理がデータ収集用移動体3で行われることにより、移動体1aのメモリ消費量を削減できること等が期待できる。これにより、移動体1aは、製品としてデザイン・設計共に高品質なものとし、一方で、データ収集用移動体3は、デザイン・設計のコストを抑えたものとすることができる。
また、データ収集用移動体3がデータ収集を専門に行うことで、データ収集と本移動処理それぞれの稼動効率を向上させることができ、またデータ収集時の移動体1(図1参照)の故障リスクも低減できる。
It can be expected that the memory consumption of the mobile 1a can be reduced by performing the learning data collection process on the data collection mobile 3. As a result, the mobile body 1a can be designed and manufactured as a high quality product, while the data collection mobile body 3 can be designed with reduced design and design costs.
In addition, since the data collection mobile unit 3 specializes in data collection, it is possible to improve the operation efficiency of each of the data collection and the main movement process, and the failure of the mobile unit 1 (see FIG. 1) during data collection. Risk can also be reduced.

[第3実施形態]
次に、図9〜図11Bを参照して、本発明の第3実施形態を説明する。
第3実施形態では、収集したデータを基に、様々な状態におけるデータを人工的に生成する手法について説明する。これにより、実際には収集が難しい状態のデータも取得することができる。
[Third Embodiment]
Next, a third embodiment of the present invention will be described with reference to FIGS. 9 to 11B.
In the third embodiment, a method for artificially generating data in various states based on collected data will be described. This makes it possible to acquire data that is actually difficult to collect.

移動体1の構成は図1に示す移動体1の構成と同様であるので、ここでの図示及び説明を省略する。
(学習装置2b)
図9は、第3実施形態における学習装置2bの構成例を示す図である。
図9に示す学習装置2bは、図2に示す学習装置2の構成に対し、計算部21bにおいて学習用データ生成部(画像生成部)216を追加したものである。その他の構成は、図2に示す学習装置2と同様の構成を有するので、同一の符号を付して、説明を省略する。
Since the structure of the mobile body 1 is the same as that of the mobile body 1 shown in FIG. 1, illustration and description here are omitted.
(Learning device 2b)
FIG. 9 is a diagram illustrating a configuration example of the learning device 2b according to the third embodiment.
The learning device 2b shown in FIG. 9 is obtained by adding a learning data generation unit (image generation unit) 216 in the calculation unit 21b to the configuration of the learning device 2 shown in FIG. Other configurations have the same configuration as that of the learning device 2 shown in FIG.

学習装置2bにおける学習用データ生成部216は、まず、学習用データ蓄積部221に蓄積された学習用データを受け取る。そして、受け取った学習データに対して、様々なセンシングの状態における学習用データ(画像データと状態特徴量のセットデータ)を仮想的(人工的)に生成する。さらに、学習用データ生成部216は、仮想的に(人工的に)生成された学習用データを学習用データ蓄積部221に記憶する。なお、学習用データ生成部216は、1つの画像が入力されると、様々なセンシング状態の画像を自動的に生成することが望ましい。   The learning data generation unit 216 in the learning device 2b first receives the learning data stored in the learning data storage unit 221. Then, learning data (image data and set data of state feature values) in various sensing states is generated virtually (artificially) for the received learning data. Further, the learning data generation unit 216 stores the learning data generated virtually (artificially) in the learning data storage unit 221. It is desirable that the learning data generation unit 216 automatically generate images in various sensing states when one image is input.

(学習用データ生成部216によって仮想的に生成された画像の例)
図10A及び図10Bは、雨環境下における画像402を仮想的に生成する手順を示す図である。
図10Aには、晴天下で撮像された画像(元画像401)が示されている。
そして、図10Bに示す画像402は、図10Aの元画像401から学習用データ生成部216によって仮想的(人工的)に生成されたものである。ここでは、学習用データ生成部216が、図10Aの元画像401に対してコントラストを下げた上で、雨粒等を追加することで、視界を遮蔽させた画像402を生成する。
(Example of image virtually generated by learning data generation unit 216)
10A and 10B are diagrams illustrating a procedure for virtually generating an image 402 in a rainy environment.
FIG. 10A shows an image (original image 401) captured in fine weather.
10B is generated virtually (artificially) by the learning data generation unit 216 from the original image 401 in FIG. 10A. Here, the learning data generation unit 216 generates an image 402 whose field of view is blocked by adding raindrops or the like after reducing the contrast with respect to the original image 401 of FIG. 10A.

また、図11A及び図11Bは、視野角の狭いカメラ11で撮像された画像403を仮想的に生成する手順を示す図である。
図11Aに示す元画像401は、図10Aに示す元画像401と同じ画像である。
ぞして、図11Bに示す画像403は、図11Aの元画像401から学習用データ生成部216によって仮想的(人工的)に生成されたものである。
学習用データ生成部216は、図11Aに示す元画像401に対して、画像領域を狭くするためのトリミングを施した画像403を生成する。
FIGS. 11A and 11B are diagrams illustrating a procedure for virtually generating an image 403 captured by the camera 11 having a narrow viewing angle.
An original image 401 shown in FIG. 11A is the same image as the original image 401 shown in FIG. 10A.
In other words, an image 403 shown in FIG. 11B is generated virtually (artificially) by the learning data generation unit 216 from the original image 401 in FIG. 11A.
The learning data generation unit 216 generates an image 403 obtained by performing trimming for narrowing the image area on the original image 401 illustrated in FIG. 11A.

図10B、図11Bでは、雨環境下の画像402、視野角の狭いカメラで撮像された画像403を示しているが、この他にもセンシングの状態が暗い/明るい場合の画像生成や、画像全体のコントラストを調整すること等が挙げられる。ここに挙げた例は一例であり、他の状態下での画像が仮想的に生成されてもよい。   10B and 11B show an image 402 in a rainy environment and an image 403 captured by a camera with a narrow viewing angle. In addition to this, image generation when the sensing state is dark / bright or the entire image For example, adjusting the contrast. The example given here is an example, and an image under another state may be virtually generated.

(全体処理)
次に、第3実施形態で行われる自己位置推定システムZの動作について説明する。
図5のステップS1で、移動体1が想定走行環境内の学習用データを収集した後、学習用データ生成部216が学習用データを仮想的に生成する。そして、その後、パラメータ操作式の学習処理(S2)及び本移動処理(S3)が行われる。
(Overall processing)
Next, the operation of the self-position estimation system Z performed in the third embodiment will be described.
In step S <b> 1 of FIG. 5, after the mobile unit 1 has collected learning data in the assumed driving environment, the learning data generation unit 216 virtually generates learning data. After that, the parameter operation expression learning process (S2) and the main movement process (S3) are performed.

第3実施形態によれば、学習用データが仮想的に生成されることで、学習用データ収集の労力を低減することができる。また、実際には収集が難しいようなセンシングの状態の学習用データも利用することができるようになる。   According to the third embodiment, learning data is virtually generated, so that the labor for collecting learning data can be reduced. In addition, learning data in a sensing state that is actually difficult to collect can be used.

[第4実施形態]
次に、図12を参照して、本発明の第4実施形態を説明する。
第4実施形態では、第2実施形態の構成に加えて、環境特徴量を学習用データ収集処理(図3のS1)で可視化する。このようにすることで、無駄なデータの重複収集を防ぎ効率的な学習データの収集を実現する実施形態について説明する。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described with reference to FIG.
In the fourth embodiment, in addition to the configuration of the second embodiment, the environmental feature amount is visualized by a learning data collection process (S1 in FIG. 3). An embodiment that realizes efficient collection of learning data by preventing duplicate collection of useless data in this way will be described.

図12は、第4実施形態における自己位置推定システムZcの構成例を示す図である。
図12に示す自己位置推定システムZcは、図8に示す自己位置推定システムZaの構成を拡張したものとなっている。
ここで、移動体1aと学習装置2とは、図8に示すものと同じ構成であるので、同一の符号を付して、説明を省略する。
データ収集用移動体3cは、図8のデータ収集用移動体3に状態特徴量表示部(表示部)37及び状態特徴量蓄積部361が追加された構成となっている。その他の構成は、図8のデータ収集用移動体3と同様の構成を有する。
状態特徴量蓄積部361は、学習用データ一時記憶部161から学習用データの状態特徴量を蓄積する。状態特徴量蓄積部361には、データ収集用移動体3cが過去に収集した学習用データの状態特徴量が蓄積される。そして、過去に蓄積された状態特徴量は状態特徴量表示部37に出力される。なお、記憶部36cのメモリ削減のために、収集した学習用データの状態特徴量が直接記憶されるのではなく、平均や分散といった統計量や、分布という形式で記憶されてもよい。
FIG. 12 is a diagram illustrating a configuration example of the self-position estimation system Zc in the fourth embodiment.
The self-position estimation system Zc shown in FIG. 12 is an extension of the configuration of the self-position estimation system Za shown in FIG.
Here, since the mobile body 1a and the learning device 2 have the same configuration as that shown in FIG. 8, the same reference numerals are given and description thereof is omitted.
The data collection mobile unit 3c has a configuration in which a state feature amount display unit (display unit) 37 and a state feature amount storage unit 361 are added to the data collection mobile unit 3 of FIG. Other configurations are the same as those of the data collection moving body 3 of FIG.
The state feature amount storage unit 361 stores the state feature amount of the learning data from the learning data temporary storage unit 161. The state feature amount storage unit 361 stores state feature amounts of learning data collected by the data collection mobile unit 3c in the past. Then, the state feature amount accumulated in the past is output to the state feature amount display unit 37. In order to reduce the memory of the storage unit 36c, the state feature amount of the collected learning data is not directly stored, but may be stored in the form of a statistic such as an average or variance, or a distribution.

状態特徴量表示部37は、過去に収集した学習用データの情報特徴量を状態特徴量蓄積部361から受け取る。また、現在、カメラ11でセンシング中の状態特徴量を状態特徴量取得部351から受け取る。そして、状態特徴量表示部37は、過去のデータ収集時の環境特徴量と、現在センシング中の環境特徴量を比較して可視化して表示する。可視化の方法として、例えば、過去に収集したデータに現在値を重ねて分布する等の方法をとる等が挙げられるが、別の方法がとられてもよい。   The state feature amount display unit 37 receives information feature amounts of learning data collected in the past from the state feature amount storage unit 361. In addition, the state feature quantity currently being sensed by the camera 11 is received from the state feature quantity acquisition unit 351. Then, the state feature amount display unit 37 compares and visualizes the environmental feature amount at the time of past data collection and the environmental feature amount currently being sensed. As a visualization method, for example, a method of superimposing a current value on data collected in the past and distributing the data may be used, but another method may be used.

第4実施形態によれば、過去に収集したデータと現在値を比較しながらデータ収集を行うことができるため、無駄なデータの重複収集を防ぐことができる。その結果、効率的な学習データの収集を実現することができる。
なお、状態特徴量表示部37には、重複したセンシング状態の学習データが表示され、ユーザが、当該表示をみながら、不要な学習データを破棄するようにしてもよい。
According to the fourth embodiment, it is possible to collect data while comparing the data collected in the past with the current value, and therefore it is possible to prevent redundant collection of unnecessary data. As a result, efficient collection of learning data can be realized.
Note that the state feature value display unit 37 may display the learning data of the overlapping sensing state, and the user may discard unnecessary learning data while viewing the display.

[第5実施形態]
状態情報取得部12は、照度計等外部のセンサを使ってもよいし、計算部15から手入力でカメラ11の高さ(取付位置)等が入力されてもよい。このようにすることで、状態特徴量を増やすことができ、自己位置推定の精度を向上させることができる。
[Fifth Embodiment]
The state information acquisition unit 12 may use an external sensor such as an illuminometer, or may be manually input from the calculation unit 15 such as the height (attachment position) of the camera 11. By doing in this way, a state feature-value can be increased and the precision of self-position estimation can be improved.

本実施形態の自己位置推定システムZは、自動運転システム、携帯電話の位置推定サービス、自己位置推定を用いたバーチャルリアリティ機器、自己位置を基に移動距離を計算するシューズや、携帯機器に適用可能である。   The self-position estimation system Z of the present embodiment can be applied to an automatic driving system, a mobile phone position estimation service, a virtual reality device using self-position estimation, shoes for calculating a moving distance based on the self-position, and a mobile device. It is.

本発明は前記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明したすべての構成を有するものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   The present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to having all the configurations described. In addition, a part of the configuration of a certain embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of a certain embodiment. In addition, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

また、前記した各構成、機能、各部151〜154,211〜216,351,354記憶部16,22,36等は、それらの一部またはすべてを、例えば集積回路で設計すること等によりハードウェアで実現してもよい。また、前記した各構成、機能等は、CPU等のプロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、HD(Hard Disk)に格納すること以外に、メモリや、SSD(Solid State Drive)等の記録装置、または、IC(Integrated Circuit)カードや、SD(Secure Digital)カード、DVD(Digital Versatile Disc)等の記録媒体に格納することができる。
また、各実施形態において、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には、ほとんどすべての構成が相互に接続されていると考えてよい。
Further, each of the above-described configurations, functions, units 151 to 154, 211 to 216, 351, 354, storage units 16, 22, 36, etc. can be realized by designing a part or all of them by, for example, an integrated circuit. It may be realized with. Further, each configuration, function, and the like described above may be realized by software by a processor such as a CPU interpreting and executing a program that realizes each function. In addition to storing information such as programs, tables, and files for realizing each function in an HD (Hard Disk), a memory, a recording device such as an SSD (Solid State Drive), an IC (Integrated Circuit) card, It can be stored in a recording medium such as an SD (Secure Digital) card or a DVD (Digital Versatile Disc).
In each embodiment, control lines and information lines are those that are considered necessary for explanation, and not all control lines and information lines are necessarily shown on the product. In practice, it can be considered that almost all configurations are connected to each other.

1,1a,1A〜1C 移動体
2,2b 学習装置
3,3c データ収集用移動体
11,31 カメラ(撮像部)
37 状態特徴量表示部(表示部)
151,351 状態特徴量取得部
153 自己位置推定部
213 報酬計算用自己位置推定部(学習処理部)
214 報酬計算部(学習処理部)
215 パラメータ操作式学習部(学習処理部)
216 学習用データ生成部(画像生成部)
Z,Za,Zc 自己位置推定システム(自律移動システム)
1, 1a, 1A to 1C Moving object 2, 2b Learning device 3, 3c Moving object for data collection 11, 31 Camera (imaging unit)
37 State feature amount display part (display part)
151, 351 State feature value acquisition unit 153 Self-position estimation unit 213 Reward calculation self-position estimation unit (learning processing unit)
214 Reward calculator (learning processor)
215 Parameter operation expression learning unit (learning processing unit)
216 Learning data generation unit (image generation unit)
Z, Za, Zc Self-position estimation system (autonomous mobile system)

Claims (9)

移動体の周囲環境を撮像する撮像部と、
前記撮像部による撮像時における状態特徴量を取得する状態特徴量取得部と、
前記状態特徴量と、前記撮像部で撮像された画像とを基に、自己位置推定に用いるパラメータの最適値を導出するための情報であるパラメータ情報を、学習処理によって生成する学習処理部と、
前記撮像部が撮像した現在の周囲環境の画像と、前記状態特徴量取得部が取得した現在の状態特徴量と、前記パラメータ情報とを用いて、前記パラメータを算出し、算出した前記パラメータを基に自己位置推定処理を行う自己位置推定部と、
を有することを特徴とする自己位置推定システム。
An imaging unit that images the surrounding environment of the moving body;
A state feature amount acquisition unit for acquiring a state feature amount at the time of imaging by the imaging unit;
A learning processing unit that generates, by learning processing, parameter information that is information for deriving an optimum value of a parameter used for self-position estimation based on the state feature amount and an image captured by the imaging unit;
The parameter is calculated using an image of the current surrounding environment captured by the imaging unit, the current state feature amount acquired by the state feature amount acquisition unit, and the parameter information, and the calculated parameter is used as a basis. A self-position estimation unit that performs self-position estimation processing,
A self-position estimation system comprising:
移動体の周囲環境を撮像する撮像部と、
前記撮像部による撮像時における状態特徴量を取得する状態特徴量取得部と、
前記状態特徴量と、前記撮像部で撮像された画像とを基に、自己位置推定に用いるパラメータの最適値を導出するための情報であるパラメータ情報を、学習処理によって生成する学習処理部と、
前記撮像部が撮像した現在の周囲環境の画像と、前記状態特徴量取得部が取得した現在の状態特徴量と、前記パラメータ情報とを用いて、前記パラメータを算出し、算出した前記パラメータを基に自己位置推定処理を行う自己位置推定部と、
前記自己位置推定処理の結果に基づいて移動を行う動作制御部と、
を有することを特徴とする自律移動システム。
An imaging unit that images the surrounding environment of the moving body;
A state feature amount acquisition unit for acquiring a state feature amount at the time of imaging by the imaging unit;
A learning processing unit that generates, by learning processing, parameter information that is information for deriving an optimum value of a parameter used for self-position estimation based on the state feature amount and an image captured by the imaging unit;
The parameter is calculated using an image of the current surrounding environment captured by the imaging unit, the current state feature amount acquired by the state feature amount acquisition unit, and the parameter information, and the calculated parameter is used as a basis. A self-position estimation unit that performs self-position estimation processing,
An operation control unit that moves based on a result of the self-position estimation process;
An autonomous mobile system characterized by comprising:
前記撮像部、前記状態特徴量取得部、前記自己位置推定部及び前記動作制御部は、移動体に設けられ、
前記学習処理部は、学習装置に設けられる
ことを特徴とする請求項2に記載の自律移動システム。
The imaging unit, the state feature quantity acquisition unit, the self-position estimation unit, and the motion control unit are provided in a moving body,
The autonomous mobile system according to claim 2, wherein the learning processing unit is provided in a learning device.
前記撮像部及び前記状態特徴量取得部は、データ収集用移動体に設けられ、
前記自己位置推定部及び前記動作制御部は、移動体に設けられ、
前記学習処理部は、学習装置に設けられる
ことを特徴とする請求項2に記載の自律移動システム。
The imaging unit and the state feature quantity acquisition unit are provided in a data collection moving body,
The self-position estimating unit and the motion control unit are provided in a moving body,
The autonomous mobile system according to claim 2, wherein the learning processing unit is provided in a learning device.
前記データ収集用移動体には、
収集した前記状態特徴量に関する情報を表示する表示部が備えられている
ことを特徴とする請求項4に記載の自律移動システム。
The mobile body for data collection includes
The autonomous mobile system according to claim 4, further comprising a display unit that displays information on the collected state feature amount.
所定の画像から、条件の異なる画像を生成する画像生成部を有し、
前記状態特徴量取得部は、
前記画像生成部によって生成された前記画像から、前記状態特徴量を取得する
ことを特徴とする請求項2に記載の自律移動システム。
An image generation unit that generates images with different conditions from a predetermined image,
The state feature acquisition unit
The autonomous mobile system according to claim 2, wherein the state feature amount is acquired from the image generated by the image generation unit.
状態特徴量取得部は、照度計を含む
ことを特徴とする請求項2に記載の自律移動システム。
The autonomous mobile system according to claim 2, wherein the state feature quantity acquisition unit includes an illuminometer.
前記自己位置推定部が、
自己位置推定に失敗した画像及び状態特徴量を、前記学習処理部へ送る
ことを特徴とする請求項2に記載の自律移動システム。
The self-position estimating unit
The autonomous mobile system according to claim 2, wherein the image and the state feature amount that have failed in the self-position estimation are sent to the learning processing unit.
撮像部が、移動体の周囲環境を撮像する第1の撮像ステップを行い、
状態特徴量取得部が、前記第1の撮像ステップによる撮像時における状態特徴量を取得する第1の状態特徴量取得ステップを行い、
学習処理部が、前記状態特徴量と、前記撮像部で撮像された画像とを基に、自己位置推定に用いるパラメータの最適値を導出するための情報であるパラメータ情報を、学習処理によって生成する学習処理ステップを行い、
前記撮像部が、現在の移動体の周囲環境を撮像する第2の撮像ステップを行い、
前記状態特徴量取得部が、前記第2の撮像ステップによる撮像時における状態特徴量を取得する第2の状態特徴量取得ステップを行い、
自己位置推定部が、前記第2の撮像ステップで撮像された現在の周囲環境の画像と、前記第2の状態特徴量取得ステップで取得された現在の状態特徴量と、前記パラメータ情報とを用いて、前記パラメータを算出し、算出した前記パラメータを基に自己位置推定処理を行う自己位置推定ステップを行う
ことを特徴とする自己位置推定方法。
The imaging unit performs a first imaging step of imaging the surrounding environment of the moving body,
The state feature amount acquisition unit performs a first state feature amount acquisition step of acquiring a state feature amount at the time of imaging by the first imaging step,
A learning processing unit generates parameter information, which is information for deriving an optimum value of a parameter used for self-position estimation, based on the state feature amount and the image captured by the image capturing unit by a learning process. Perform learning process steps,
The imaging unit performs a second imaging step of imaging the surrounding environment of the current moving body,
The state feature amount acquisition unit performs a second state feature amount acquisition step of acquiring a state feature amount at the time of imaging by the second imaging step,
The self-position estimation unit uses the current surrounding environment image captured in the second imaging step, the current state feature amount acquired in the second state feature amount acquisition step, and the parameter information. A self-position estimation step of calculating the parameter and performing a self-position estimation process based on the calculated parameter.
JP2018090404A 2018-05-09 2018-05-09 Self-position estimation system, autonomous mobile system and self-position estimation method Pending JP2019197350A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018090404A JP2019197350A (en) 2018-05-09 2018-05-09 Self-position estimation system, autonomous mobile system and self-position estimation method
PCT/JP2019/007886 WO2019216005A1 (en) 2018-05-09 2019-02-28 Self-position estimation system, autonomous movement system, and self-position estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018090404A JP2019197350A (en) 2018-05-09 2018-05-09 Self-position estimation system, autonomous mobile system and self-position estimation method

Publications (1)

Publication Number Publication Date
JP2019197350A true JP2019197350A (en) 2019-11-14

Family

ID=68467918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018090404A Pending JP2019197350A (en) 2018-05-09 2018-05-09 Self-position estimation system, autonomous mobile system and self-position estimation method

Country Status (2)

Country Link
JP (1) JP2019197350A (en)
WO (1) WO2019216005A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021095463A1 (en) * 2019-11-13 2021-05-20 オムロン株式会社 Self-position estimation model learning method, self-position estimation model learning device, self-position estimation model learning program, self-position estimation method, self-position estimation device, self-position estimation program, and robot
KR20210064998A (en) * 2019-11-26 2021-06-03 한국교통대학교산학협력단 A method and apparatus for driving ability training and evaluation for autonomous vehicle
US20220291686A1 (en) * 2019-10-01 2022-09-15 Sony Semiconductor Solutions Corporation Self-location estimation device, autonomous mobile body, self-location estimation method, and program
JP2022146888A (en) * 2021-03-22 2022-10-05 株式会社リコー Display system, communication system, display control method, and program
JP7461737B2 (en) 2019-12-25 2024-04-04 株式会社日立製作所 Mobile object and its navigation system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9232687B2 (en) 2010-09-15 2016-01-12 Dawn Equipment Company Agricultural systems

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5310285B2 (en) * 2009-06-12 2013-10-09 日産自動車株式会社 Self-position estimation apparatus and self-position estimation method
US10949712B2 (en) * 2016-03-30 2021-03-16 Sony Corporation Information processing method and information processing device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220291686A1 (en) * 2019-10-01 2022-09-15 Sony Semiconductor Solutions Corporation Self-location estimation device, autonomous mobile body, self-location estimation method, and program
WO2021095463A1 (en) * 2019-11-13 2021-05-20 オムロン株式会社 Self-position estimation model learning method, self-position estimation model learning device, self-position estimation model learning program, self-position estimation method, self-position estimation device, self-position estimation program, and robot
KR20210064998A (en) * 2019-11-26 2021-06-03 한국교통대학교산학협력단 A method and apparatus for driving ability training and evaluation for autonomous vehicle
KR102278692B1 (en) 2019-11-26 2021-07-16 한국교통대학교산학협력단 A method and apparatus for driving ability training and evaluation for autonomous vehicle
JP7461737B2 (en) 2019-12-25 2024-04-04 株式会社日立製作所 Mobile object and its navigation system
JP2022146888A (en) * 2021-03-22 2022-10-05 株式会社リコー Display system, communication system, display control method, and program
JP7447922B2 (en) 2021-03-22 2024-03-12 株式会社リコー Display system, communication system, display control method and program

Also Published As

Publication number Publication date
WO2019216005A1 (en) 2019-11-14

Similar Documents

Publication Publication Date Title
WO2019216005A1 (en) Self-position estimation system, autonomous movement system, and self-position estimation method
US11295456B2 (en) Visual-inertial odometry with an event camera
CN107016367B (en) Tracking control method and tracking control system
EP3753685B1 (en) Control system and control method
US9071829B2 (en) Method and system for fusing data arising from image sensors and from motion or position sensors
JP4633841B2 (en) Estimating 3D road layout from video sequences by tracking pedestrians
JP2021517685A (en) Image enhancement depth sensing using machine learning
JP7131994B2 (en) Self-position estimation device, self-position estimation method, self-position estimation program, learning device, learning method and learning program
JP2018522348A (en) Method and system for estimating the three-dimensional posture of a sensor
CN113316755B (en) Environmental model maintenance using event-based visual sensors
JP2007322138A (en) Moving device, and own position estimation method for moving device
CN111507132B (en) Positioning method, device and equipment
Maanpää et al. Multimodal end-to-end learning for autonomous steering in adverse road and weather conditions
JP2022039719A (en) Position and posture estimation device, position and posture estimation method, and program
WO2022198508A1 (en) Lens abnormality prompt method and apparatus, movable platform, and readable storage medium
CN115272452A (en) Target detection positioning method and device, unmanned aerial vehicle and storage medium
CN114821544B (en) Perception information generation method and device, vehicle, electronic equipment and storage medium
CN115930937A (en) Multi-sensor simultaneous positioning and mapping method, terminal and storage medium
CN117330050A (en) Indoor scene radar fusion data acquisition method and system based on closed loop path
WO2021210492A1 (en) Information processing device, information processing method, and program
CN114979418A (en) Image processing apparatus
JP4812099B2 (en) Camera position detection method
WO2024127824A1 (en) Information processing device, information processing method, and program
CN117207190B (en) Accurate robot system that snatchs based on vision and sense of touch fuse
JP7511781B2 (en) Surveillance camera image analysis system