JP2017129438A - Data processing device, data processing method, and data processing program - Google Patents

Data processing device, data processing method, and data processing program Download PDF

Info

Publication number
JP2017129438A
JP2017129438A JP2016008472A JP2016008472A JP2017129438A JP 2017129438 A JP2017129438 A JP 2017129438A JP 2016008472 A JP2016008472 A JP 2016008472A JP 2016008472 A JP2016008472 A JP 2016008472A JP 2017129438 A JP2017129438 A JP 2017129438A
Authority
JP
Japan
Prior art keywords
information
sensor
time
data
data processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016008472A
Other languages
Japanese (ja)
Other versions
JP6448564B2 (en
Inventor
尚幸 梶原
Naoyuki Kajiwara
尚幸 梶原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2016008472A priority Critical patent/JP6448564B2/en
Publication of JP2017129438A publication Critical patent/JP2017129438A/en
Application granted granted Critical
Publication of JP6448564B2 publication Critical patent/JP6448564B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a data processing device with which it is possible to realize realtime capability by a simple configuration.SOLUTION: The data processing device comprises: a storage unit 150 for storing a plurality of sensor information 320 in which a processing complete time at which each sensor data of a plurality of sensor data became usable is added to each sensor information; a time setting unit 120 for setting, on the basis of the processing complete time of sensor information in which a difference between the latest processing complete time and the present time is largest among the plurality of sensor information 320, a target time 121 that is a time of day at which mobile entity information is calculated; and a calculation unit 130 for calculating mobile entity information using each sensor information of the plurality of sensor information 320 in which a processing complete time preceding the target time 121 and closest to the target time 121 is added.SELECTED DRAWING: Figure 1

Description

本発明は、自律センサと補強センサとを複合利用して移動体の位置及び姿勢を標定するデータ処理装置、データ処理方法及びデータ処理プログラムに関する。   The present invention relates to a data processing apparatus, a data processing method, and a data processing program for locating a position and posture of a moving body by using an autonomous sensor and a reinforcement sensor in combination.

位置姿勢標定装置では、慣性装置のような自律センサと、GPS(Global・Positioning・System)のような補強センサとを複合利用している。このような位置姿勢標定装置では、演算処理と結果出力をリアルタイム化することが望まれている。リアルタイム化とは、演算結果のタイムタグと演算結果を出力した時刻とにずれがないようにすることである。従来、アルゴリズムの開発・評価を実施する作業はログデータの後処理において実施していた。   The position and orientation determination device uses an autonomous sensor such as an inertial device and a reinforcement sensor such as GPS (Global Positioning System) in combination. In such a position / orientation locator, it is desired to perform real-time calculation processing and result output. Realization means that there is no deviation between the time tag of the calculation result and the time when the calculation result is output. Conventionally, algorithms are developed and evaluated in post processing of log data.

通常、自律センサと補強センサとには遅れ時間が存在する。よって、リアルタイム化の際に、位置姿勢標定処理のターゲット時刻をリアルタイムとしてしまうと、データが利用不可である上に、各センサデータの更新周期のタイミングもまちまちであることから、何らかの工夫によりデータのハンドリングを行わなければならない(特許文献1参照)。   Usually, there is a delay time between the autonomous sensor and the reinforcement sensor. Therefore, if the target time of the position / orientation determination processing is set to real time in real time, the data cannot be used and the timing of the update cycle of each sensor data varies. Handling must be performed (see Patent Document 1).

特開2007−155581号公報JP 2007-155581 A

従来のリアルタイム化では、時刻を遡った処理やその分先に進める(もどす)処理といった煩雑な処理を実装する必要があるという課題があった。
本発明は、簡単な構成でリアルタイム化を実現することができるデータ処理装置を提供することを目的とする。
Conventional real-time processing has a problem in that it is necessary to implement complicated processing such as processing that goes back in time and processing that advances (returns) ahead.
An object of this invention is to provide the data processor which can implement | achieve real time realization by simple structure.

本発明に係るデータ処理装置は、移動体に搭載された複数のセンサにより取得された複数のセンサデータに基づいて、前記移動体の状態を移動体情報として算出するデータ処理装置において、
前記複数のセンサデータが前記移動体情報の算出に用いられる情報に処理された複数のセンサ情報であって、前記複数のセンサデータの各センサデータの処理が完了した処理完了時刻が各センサ情報に付与された複数のセンサ情報を記憶する記憶部と、
前記複数のセンサ情報のうち、最新の処理完了時刻と現在時刻との差が最も大きいセンサ情報の処理完了時刻に基づいて、前記移動体情報を算出する対象の時刻であるターゲット時刻を設定する時刻設定部と、
前記ターゲット時刻の以前で、かつ、前記ターゲット時刻に最も近い処理完了時刻が付与された前記複数のセンサ情報の各センサ情報を用いて、前記移動体情報を算出する算出部とを備えた。
The data processing apparatus according to the present invention is a data processing apparatus that calculates the state of the moving body as moving body information based on a plurality of sensor data acquired by a plurality of sensors mounted on the moving body.
The plurality of sensor data is a plurality of sensor information processed into information used for calculation of the moving body information, and the processing completion time when the processing of each sensor data of the plurality of sensor data is completed is the sensor information. A storage unit for storing the given sensor information;
A time for setting a target time, which is a target time for calculating the mobile body information, based on a process completion time of sensor information having the largest difference between the latest process completion time and the current time among the plurality of sensor information. A setting section;
A calculation unit that calculates the moving body information using each sensor information of the plurality of sensor information to which the processing completion time closest to the target time is given before the target time.

本発明に係るデータ処理装置によれば、時刻設定部が、複数のセンサ情報のうち、最新の処理完了時刻と現在時刻との差が最も大きいセンサ情報、すなわち最も遅れ時間の大きいセンサ情報の処理完了時刻に基づいて、ターゲット時刻を設定し、算出部が、ターゲット時刻の直前の処理完了時刻、すなわちターゲット時刻より前の直近の処理完了時刻が付与された複数のセンサ情報の各センサ情報に基づいて移動体情報を算出するので、簡単な構成で、最もリアルタイムに近く、かつ、高精度の移動体情報を算出することができるという効果を奏する。   According to the data processing device of the present invention, the time setting unit processes sensor information having the largest difference between the latest processing completion time and the current time among the plurality of sensor information, that is, sensor information having the longest delay time. Based on the completion time, the target time is set, and the calculation unit is based on the sensor information of the plurality of sensor information to which the processing completion time immediately before the target time, that is, the latest processing completion time before the target time is given. Thus, the moving body information is calculated, so that it is possible to calculate the moving body information with the simple configuration and the most accurate real-time information.

実施の形態1に係るデータ処理装置100の構成について説明する。A configuration of the data processing apparatus 100 according to the first embodiment will be described. 実施の形態1に係るデータ処理装置100のデータ処理方法510及びデータ処理プログラム520のデータ処理S100を示すフロー図である。FIG. 6 is a flowchart showing a data processing method 510 of the data processing apparatus 100 and a data processing S100 of the data processing program 520 according to the first embodiment. 実施の形態1に係る時刻設定処理S120を示すフロー図である。It is a flowchart which shows time setting process S120 which concerns on Embodiment 1. FIG. 実施の形態1に係る時刻設定処理S120を示す模式図である。It is a schematic diagram which shows time setting process S120 which concerns on Embodiment 1. FIG. 実施の形態1に係る算出処理S130を示すフロー図である。FIG. 6 is a flowchart showing calculation processing S130 according to the first embodiment. 実施の形態1の変形例に係るデータ処理装置100の構成について説明する。A configuration of data processing apparatus 100 according to a modification of the first embodiment will be described. 実施の形態2に係るデータ処理装置100aの構成を示す図である。It is a figure which shows the structure of the data processor 100a which concerns on Embodiment 2. FIG. 実施の形態2に係るデータ処理装置100aによるデータ処理S100aを示すフロー図である。It is a flowchart which shows data processing S100a by the data processor 100a which concerns on Embodiment 2. FIG. 実施の形態2に係る補間処理S140を示すフロー図である。It is a flowchart which shows the interpolation process S140 which concerns on Embodiment 2. 実施の形態2に係る補間処理S140を示す模式図である。It is a schematic diagram which shows the interpolation process S140 which concerns on Embodiment 2. FIG. 実施の形態3に係るデータ処理装置100bの構成を示す図である。It is a figure which shows the structure of the data processor 100b which concerns on Embodiment 3. FIG. 実施の形態3に係るフォーマット情報300の一例を示す図である。It is a figure which shows an example of the format information 300 which concerns on Embodiment 3. FIG. 実施の形態3の効果を示す模式図である。FIG. 10 is a schematic diagram showing the effect of the third embodiment.

実施の形態1.
***構成の説明***
図1を用いて、本実施の形態に係るデータ処理装置100の構成について説明する。
本実施の形態において、データ処理装置100は、コンピュータである。データ処理装置100は、プロセッサ910、記憶装置920、入力インタフェース930、出力インタフェース940といったハードウェアを備える。記憶装置920は、メモリ921と補助記憶装置922とを含む。
Embodiment 1 FIG.
*** Explanation of configuration ***
The configuration of the data processing apparatus 100 according to the present embodiment will be described with reference to FIG.
In the present embodiment, data processing apparatus 100 is a computer. The data processing apparatus 100 includes hardware such as a processor 910, a storage device 920, an input interface 930, and an output interface 940. The storage device 920 includes a memory 921 and an auxiliary storage device 922.

また、データ処理装置100は、機能構成として、時刻設定部120と、算出部130と、センサデータ処理部140と、記憶部150とを備える。センサデータ処理部140は、自律センサデータ処理部141、補強センサデータA処理部142、補強センサデータB処理部143を備える。以下の説明では、データ処理装置100における時刻設定部120と、算出部130と、センサデータ処理部140との機能を、データ処理装置100の「部」の機能という。データ処理装置100の「部」の機能は、ソフトウェアで実現される。   Further, the data processing apparatus 100 includes a time setting unit 120, a calculation unit 130, a sensor data processing unit 140, and a storage unit 150 as functional configurations. The sensor data processing unit 140 includes an autonomous sensor data processing unit 141, a reinforcement sensor data A processing unit 142, and a reinforcement sensor data B processing unit 143. In the following description, the functions of the time setting unit 120, the calculation unit 130, and the sensor data processing unit 140 in the data processing device 100 are referred to as “units” of the data processing device 100. The function of “unit” of the data processing apparatus 100 is realized by software.

また、記憶部150は、メモリ921により実現される。記憶部150には、複数のセンサ情報320が記憶される。複数のセンサ情報320の各センサ情報は、自律センサ情報11、補強センサA情報12、補強センサB情報13が記憶される。本実施の形態では、記憶部150はメモリ921により実現されているが、メモリ921及び補助記憶装置922により実現されていてもよい。記憶部150の実現方法は任意である。   The storage unit 150 is realized by the memory 921. A plurality of sensor information 320 is stored in the storage unit 150. As each sensor information of the plurality of sensor information 320, autonomous sensor information 11, reinforcement sensor A information 12, and reinforcement sensor B information 13 are stored. In the present embodiment, the storage unit 150 is realized by the memory 921, but may be realized by the memory 921 and the auxiliary storage device 922. A method for realizing the storage unit 150 is arbitrary.

プロセッサ910は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
プロセッサ910は、プロセッシングを行うIC(Integrated・Circuit)である。プロセッサ910は、CPU(Central・Processing・Unit)である。
The processor 910 is connected to other hardware via a signal line, and controls these other hardware.
The processor 910 is an integrated circuit (IC) that performs processing. The processor 910 is a CPU (Central Processing Unit).

メモリ921は、具体的には、RAM(Random・Access・Memory)である。補助記憶装置922は、具体的には、ROM(Read・Only・Memory)、フラッシュメモリ、又は、HDD(Hard・Disk・Drive)である。   Specifically, the memory 921 is a RAM (Random Access Memory). Specifically, the auxiliary storage device 922 is a ROM (Read / Only / Memory), a flash memory, or an HDD (Hard / Disk / Drive).

入力インタフェース930は、複数のセンサ200に接続されるポートである。本実施の形態では、複数のセンサ200は自律センサ201、補強センサA202、補強センサB203である。入力インタフェース930は、複数のセンサ200の各々で計測されたセンサデータ310をデータ処理装置100に取り込む。入力インタフェース930により取り込まれたセンサデータ310はメモリ921に記憶される。入力インタフェース930は、マウス、キーボード、タッチパネルといった入力装置と接続されるポートであってもよい。入力インタフェース930は、具体的には、USB(Universal・Serial・Bus)端子、シリアルインタフェース(RS−232C)などである。なお、入力インタフェース930は、LAN(Local・Area・Network)と接続されるポートであってもよい。   The input interface 930 is a port connected to the plurality of sensors 200. In the present embodiment, the plurality of sensors 200 are an autonomous sensor 201, a reinforcement sensor A202, and a reinforcement sensor B203. The input interface 930 loads the sensor data 310 measured by each of the plurality of sensors 200 into the data processing apparatus 100. Sensor data 310 captured by the input interface 930 is stored in the memory 921. The input interface 930 may be a port connected to an input device such as a mouse, a keyboard, or a touch panel. Specifically, the input interface 930 is a USB (Universal / Serial / Bus) terminal, a serial interface (RS-232C), or the like. The input interface 930 may be a port connected to a LAN (Local / Area / Network).

出力インタフェース940は、ディスプレイといった表示機器のケーブルが接続されるポートである。出力インタフェース940は、具体的には、USB端子、HDMI(登録商標)(High・Definition・Multimedia・Interface)端子、シリアルインタフェース(RS−232C)などである。ディスプレイは、具体的には、LCD(Liquid・Crystal・Display)である。   The output interface 940 is a port to which a cable of a display device such as a display is connected. Specifically, the output interface 940 includes a USB terminal, an HDMI (registered trademark) (High Definition, Multimedia, Interface) terminal, a serial interface (RS-232C), and the like. Specifically, the display is an LCD (Liquid / Crystal / Display).

補助記憶装置922には、「部」の機能を実現するプログラムが記憶されている。「部」の機能を実現するプログラムをデータ処理プログラム520ともいう。このプログラムは、メモリ921にロードされ、プロセッサ910に読み込まれ、プロセッサ910によって実行される。また、補助記憶装置922には、OS(Operating・System)も記憶されている。OSの少なくとも一部がメモリ921にロードされ、プロセッサ910はOSを実行しながら、「部」の機能を実現するプログラムを実行する。   The auxiliary storage device 922 stores a program that realizes the function of “unit”. A program that realizes the function of “unit” is also referred to as a data processing program 520. This program is loaded into the memory 921, read into the processor 910, and executed by the processor 910. The auxiliary storage device 922 also stores an OS (Operating System). At least a part of the OS is loaded into the memory 921, and the processor 910 executes a program that realizes the function of “unit” while executing the OS.

データ処理装置100は、1つのプロセッサ910のみを備えていてもよいし、複数のプロセッサ910を備えていてもよい。複数のプロセッサ910が「部」の機能を実現するプログラムを連携して実行してもよい。   The data processing apparatus 100 may include only one processor 910, or may include a plurality of processors 910. A plurality of processors 910 may execute a program for realizing the function of “unit” in cooperation with each other.

「部」の処理の結果を示す情報、データ、信号値、及び、変数値は、補助記憶装置922、メモリ921、又は、プロセッサ910内のレジスタ又はキャッシュメモリに記憶される。
なお、図1において、各部と記憶部150とを結ぶ矢印は、各部が処理の結果を記憶部150に記憶すること、あるいは、各部が記憶部150から情報を読み出すことを表している。また、各部を結ぶ矢印は、制御あるいはデータの流れを表している。
Information, data, signal values, and variable values indicating the result of the processing of “part” are stored in the auxiliary storage device 922, the memory 921, or a register or cache memory in the processor 910.
In FIG. 1, an arrow connecting each unit and the storage unit 150 indicates that each unit stores the processing result in the storage unit 150 or that each unit reads information from the storage unit 150. In addition, arrows connecting the respective parts represent the flow of control or data.

「部」の機能を実現するプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD(Digital・Versatile・Disc)といった可搬記録媒体に記憶されてもよい。
なお、データ処理プログラムプロダクトと称されるものは、「部」として説明している機能を実現するプログラムが記録された記憶媒体及び記憶装置であり、見た目の形式に関わらず、コンピュータ読み取り可能なプログラムをロードしているものである。
The program for realizing the function of “part” may be stored in a portable recording medium such as a magnetic disk, a flexible disk, an optical disk, a compact disk, a Blu-ray (registered trademark) disk, or a DVD (Digital Versatile Disc).
In addition, what is called a data processing program product is a storage medium and a storage device in which a program that realizes the function described as “part” is recorded, and is a computer-readable program regardless of the appearance format. Is what you are loading.

***動作の説明***
図2は、本実施の形態に係るデータ処理装置100のデータ処理方法510及びデータ処理プログラム520のデータ処理S100を示すフロー図である。
データ処理装置100は、移動体に搭載された複数のセンサ200により取得された複数のセンサデータ310に基づいて、移動体の状態を移動体情報131として算出する。
移動体の状態を表す移動体情報131とは、具体的には、移動体の位置及び姿勢である。移動体情報131を算出するとは移動体の位置及び姿勢を標定することであり、データ処理装置100は移動体の位置及び姿勢を標定する位置姿勢標定装置ともいう。また、データ処理方法510を位置姿勢標定方法、データ処理プログラム520を位置姿勢標定プログラムともいう。
*** Explanation of operation ***
FIG. 2 is a flowchart showing the data processing method 510 of the data processing apparatus 100 and the data processing S100 of the data processing program 520 according to the present embodiment.
The data processing apparatus 100 calculates the state of the moving body as the moving body information 131 based on the plurality of sensor data 310 acquired by the plurality of sensors 200 mounted on the moving body.
The moving body information 131 representing the state of the moving body is specifically the position and posture of the moving body. The calculation of the moving body information 131 is to determine the position and orientation of the moving body, and the data processing apparatus 100 is also referred to as a position / orientation orientation apparatus that determines the position and orientation of the moving body. The data processing method 510 is also referred to as a position / orientation determination method, and the data processing program 520 is also referred to as a position / orientation determination program.

記憶処理S110において、記憶部150は、複数のセンサデータ310が移動体情報131の算出に用いられる情報に処理された複数のセンサ情報320を記憶する。
ここで、複数のセンサデータ310とは複数のセンサ200の各々により取得されるセンサデータである。具体的には、自律センサ201により取得される自律センサデータ311、補強センサA202により取得される補強センサデータA312、補強センサB203により取得される補強センサデータB313である。
また、複数のセンサ情報320とは、複数のセンサデータ310の各々が、各センサデータに対応するセンサデータ処理部140により、移動体情報131の算出に用いられる情報に処理されたものである。具体的には、自律センサデータ処理部141により利用可能に処理された自律センサ情報11、補強センサデータA処理部142により利用可能に処理された補強センサA情報12、補強センサデータB処理部143により利用可能に処理された補強センサB情報13である。
In the storage process S <b> 110, the storage unit 150 stores a plurality of sensor information 320 obtained by processing a plurality of sensor data 310 into information used for calculating the mobile object information 131.
Here, the plurality of sensor data 310 is sensor data acquired by each of the plurality of sensors 200. Specifically, autonomous sensor data 311 acquired by the autonomous sensor 201, reinforcement sensor data A312 acquired by the reinforcement sensor A202, and reinforcement sensor data B313 acquired by the reinforcement sensor B203.
The plurality of sensor information 320 is information obtained by processing each of the plurality of sensor data 310 into information used for calculating the mobile body information 131 by the sensor data processing unit 140 corresponding to each sensor data. Specifically, the autonomous sensor information 11 processed to be usable by the autonomous sensor data processing unit 141, the reinforcing sensor A information 12 processed to be usable by the reinforcing sensor data A processing unit 142, and the reinforcing sensor data B processing unit 143. It is the reinforcement sensor B information 13 processed so that it can be used.

複数のセンサ情報320には、複数のセンサデータの各センサデータの処理が完了した時刻である処理完了時刻が各センサ情報に付与されている。処理完了時刻は、複数のセンサデータ310の各センサデータが利用可能となった時刻である。すなわち、複数のセンサ情報320では、複数のセンサデータ310の各センサデータが利用可能となった時刻を表す処理完了時刻が各センサ情報に付与されている。また、各センサ情報には複数のセンサデータ310の各々が複数のセンサ200の各々により取得された取得時刻も付与されている。   In the plurality of sensor information 320, a process completion time, which is a time when processing of each sensor data of the plurality of sensor data is completed, is given to each sensor information. The processing completion time is a time when each sensor data of the plurality of sensor data 310 becomes usable. That is, in the plurality of sensor information 320, a process completion time indicating the time when each sensor data of the plurality of sensor data 310 becomes available is given to each sensor information. Each sensor information is also given an acquisition time when each of the plurality of sensor data 310 is acquired by each of the plurality of sensors 200.

なお、センサデータ処理部140は、対応するセンサデータが入力されるとメモリ921にバッファリングした上で、センサデータを利用可能となるように順に処理し、センサ情報として記憶部150に記憶する。具体的には、自律センサデータ310が入力されると、対応する自律センサデータ処理部141がメモリ921にバッファリングし、バッファリングした自律センサデータ310を利用可能となるように順に処理し、自律センサ情報11として記憶部150に記憶する。他のセンサデータ処理部140についても同様である。   When the corresponding sensor data is input, the sensor data processing unit 140 buffers the memory 921 and sequentially processes the sensor data so that the sensor data can be used, and stores the sensor data in the storage unit 150 as sensor information. Specifically, when the autonomous sensor data 310 is input, the corresponding autonomous sensor data processing unit 141 buffers the memory 921 and sequentially processes the buffered autonomous sensor data 310 so that it can be used. The sensor information 11 is stored in the storage unit 150. The same applies to the other sensor data processing units 140.

時刻設定処理S120において、時刻設定部120は、複数のセンサ情報320のうち、最新の処理完了時刻と現在時刻との差が最も大きいセンサ情報の処理完了時刻に基づいて、移動体情報131を算出する対象の時刻であるターゲット時刻121を設定する。
時刻設定処理S120については後で詳しく説明する。
In the time setting process S120, the time setting unit 120 calculates the mobile body information 131 based on the process completion time of the sensor information having the largest difference between the latest process completion time and the current time among the plurality of sensor information 320. A target time 121 that is a target time to be set is set.
The time setting process S120 will be described in detail later.

算出処理S130において、算出部130は、ターゲット時刻121の以前の処理完了時刻が付与され、かつ、使用されずにバッファリングされている複数のセンサ情報320の各センサ情報を用いて、移動体情報131を算出する。なお、ターゲット時刻121の以前の処理完了時刻が付与され、かつ、使用されずにバッファリングされているセンサ情報には、ターゲット時刻121の以前で、かつ、ターゲット時刻121に最も近い処理完了時刻が付与されたセンサ情報が含まれる。すなわち、算出部130は、ターゲット時刻121の以前で、かつ、ターゲット時刻121に最も近い処理完了時刻が付与された複数のセンサ情報320の各センサ情報を用いて、移動体情報131を算出する。
算出処理S130については後で詳しく説明する。
In the calculation process S130, the calculation unit 130 uses the sensor information of the plurality of sensor information 320 to which the process completion time prior to the target time 121 is given and is buffered without being used, and the moving body information 131 is calculated. It should be noted that the process completion time prior to the target time 121 is given, and the sensor information buffered without being used has the process completion time closest to the target time 121 before the target time 121. The given sensor information is included. That is, the calculation unit 130 calculates the mobile body information 131 by using each sensor information of the plurality of sensor information 320 to which the process completion time closest to the target time 121 is given before the target time 121.
The calculation process S130 will be described in detail later.

<時刻設定処理S120>
図3は、本実施の形態に係る時刻設定処理S120を示すフロー図である。
図4は、本実施の形態に係る時刻設定処理S120を示す模式図である。
図3及び図4を用いて、本実施の形態に係る時刻設定処理S120について説明する。
<Time setting process S120>
FIG. 3 is a flowchart showing the time setting process S120 according to the present embodiment.
FIG. 4 is a schematic diagram showing time setting processing S120 according to the present embodiment.
The time setting process S120 according to the present embodiment will be described with reference to FIGS.

図4は、時間の流れ、データ処理装置100でのリアルタイムにおけるセンサ情報の利用可能状況、及び実際にデータ処理S100で使用しているセンサ情報を示している。白抜きのセンサ情報は移動体情報131の算出に利用できない利用不可のセンサ情報であり、ハッチングされているセンサ情報は利用可能なデータである。黒枠のセンサ情報は利用可能なセンサ情報のうち使用しているセンサ情報を示している。また、時間の流れにおける目盛りは、データ処理装置100が処理を実行するタイミングを示している。
図4に示すように、センサ情報のリアルタイム性は、自律センサ情報11、補強センサB情報13、補強センサA情報12の順に悪くなる。
FIG. 4 shows the flow of time, the availability of sensor information in real time in the data processing apparatus 100, and the sensor information actually used in the data processing S100. The white sensor information is unusable sensor information that cannot be used to calculate the moving body information 131, and the hatched sensor information is usable data. The sensor information in the black frame indicates the sensor information being used among the available sensor information. Further, the scale in the flow of time indicates the timing at which the data processing apparatus 100 executes processing.
As shown in FIG. 4, the real-time property of sensor information becomes worse in the order of autonomous sensor information 11, reinforcement sensor B information 13, and reinforcement sensor A information 12.

ステップS121において、時刻設定部120は、各センサ情報について、最新のセンサ情報の処理完了時刻を取得する。図4に示すように、自律センサ情報11についての最新の処理完了時刻はT1である。また、補強センサA情報12についての最新の処理完了時刻はT2である。また、補強センサB情報13についての最新の処理完了時刻はT3である。   In step S121, the time setting unit 120 acquires the latest sensor information processing completion time for each sensor information. As shown in FIG. 4, the latest processing completion time for the autonomous sensor information 11 is T1. The latest processing completion time for the reinforcement sensor A information 12 is T2. The latest processing completion time for the reinforcement sensor B information 13 is T3.

ステップ122において、時刻設定部120は、最新の処理完了時刻と現在時刻Trとの差を算出する。最新の処理完了時刻と現在時刻Trとの差は、センサ情報の遅れ時間を示している。時刻設定部120は、最新の処理完了時刻と現在時刻Trとの差が最も大きいセンサ情報を判定する。図4に示すように、最新の処理完了時刻と現在時刻Trとの差が最も大きいセンサ情報は、補強センサA情報12である。補強センサA情報12は、複数のセンサ情報320のうちリアルタイム性が最も悪いセンサ情報である。   In step 122, the time setting unit 120 calculates the difference between the latest processing completion time and the current time Tr. The difference between the latest processing completion time and the current time Tr indicates the delay time of the sensor information. The time setting unit 120 determines sensor information having the largest difference between the latest processing completion time and the current time Tr. As shown in FIG. 4, sensor information having the largest difference between the latest processing completion time and the current time Tr is reinforcement sensor A information 12. The reinforcement sensor A information 12 is sensor information having the worst real-time property among the plurality of sensor information 320.

ステップ123において、時刻設定部120は、最新の処理完了時刻と現在時刻との差が最も大きいセンサ情報の処理完了時刻に基づいて、移動体情報131を算出する対象の時刻であるターゲット時刻121を設定する。図4に示すように、ターゲット時刻121をTtとし、現在時刻をTrとする。時刻設定部120は、補強センサA情報12の処理完了時刻T2に基づいて、ターゲット時刻Ttを設定する。時刻設定部120は、処理完了時刻T2より現在時刻Trに近く、かつ、処理完了時刻T2に最も近い実行タイミングをターゲット時刻Ttとして設定する。すなわち、時刻設定部120は、処理完了時刻T2より以降の直近の実行タイミングをターゲット時刻Ttとして設定する。なお、時刻設定部120は、処理完了時刻T2そのものをターゲット時刻Ttとして設定しても構わない。   In step 123, the time setting unit 120 sets the target time 121, which is the target time for calculating the mobile body information 131, based on the process completion time of the sensor information having the largest difference between the latest process completion time and the current time. Set. As shown in FIG. 4, the target time 121 is Tt, and the current time is Tr. The time setting unit 120 sets the target time Tt based on the processing completion time T2 of the reinforcement sensor A information 12. The time setting unit 120 sets an execution timing that is closer to the current time Tr than the processing completion time T2 and closest to the processing completion time T2 as the target time Tt. That is, the time setting unit 120 sets the latest execution timing after the processing completion time T2 as the target time Tt. Note that the time setting unit 120 may set the processing completion time T2 itself as the target time Tt.

図5は、本実施の形態に係る算出処理S130を示すフロー図である。
ステップS131において、算出部130は、ターゲット時刻Ttの以前の処理完了時刻が付与され、かつ、使用されずにバッファリングされている複数のセンサ情報320の各センサ情報を用いて、移動体情報131を算出する。処理完了時刻がターゲット時刻Ttと等しい場合は、その処理完了時刻のセンサ情報を用いてもよい。
なお、図4では、ターゲット時刻Ttの以前の処理完了時刻が付与され、かつ、使用されずにバッファリングされているセンサ情報は、ターゲット時刻Ttの以前で、かつ、ターゲット時刻Ttに最も近い処理完了時刻が付与されたセンサ情報のみである場合を示している。
図4に示すように、自律センサ情報11において、ターゲット時刻Tt以前で、かつ、ターゲット時刻Ttに最も近い処理完了時刻はT1bである。また、補強センサA情報12において、ターゲット時刻Tt以前で、かつ、ターゲット時刻Ttに最も近い処理完了時刻はT2b、すなわちT2である。また、補強センサB情報13において、ターゲット時刻Tt以前で、かつ、ターゲット時刻Ttに最も近い処理完了時刻はT3bである。
FIG. 5 is a flowchart showing the calculation process S130 according to the present embodiment.
In step S131, the calculation unit 130 uses the sensor information of the plurality of sensor information 320 to which the processing completion time before the target time Tt is given and which is buffered without being used, and the moving body information 131. Is calculated. When the process completion time is equal to the target time Tt, sensor information of the process completion time may be used.
In FIG. 4, the sensor information that is given the processing completion time before the target time Tt and is buffered without being used is the processing that is closest to the target time Tt before the target time Tt. A case where only the sensor information to which the completion time is given is shown.
As shown in FIG. 4, in the autonomous sensor information 11, the processing completion time closest to the target time Tt and before the target time Tt is T1b. In the reinforcement sensor A information 12, the processing completion time closest to the target time Tt and before the target time Tt is T2b, that is, T2. In the reinforcement sensor B information 13, the processing completion time closest to the target time Tt and before the target time Tt is T3b.

よって、算出部130は、処理完了時刻T1bが付与された自律センサ情報11bと、処理完了時刻T2bが付与された補強センサA情報12bと、処理完了時刻T3bが付与された補強センサB情報13bとに基づいて、移動体情報131を算出する。具体的には、算出部130は、自律センサ情報11bから前の自律センサ情報11と、補強センサA情報12bから前の補強センサA情報12と、補強センサB情報13bから前の補強センサB情報13とを用いて、移動体の位置及び姿勢を標定し、移動体情報131とする。
算出部130は、出力インタフェース940を介して移動体情報131を出力する。
Therefore, the calculation unit 130 includes the autonomous sensor information 11b to which the processing completion time T1b is given, the reinforcement sensor A information 12b to which the processing completion time T2b is given, and the reinforcement sensor B information 13b to which the processing completion time T3b is given. Based on the above, the mobile body information 131 is calculated. Specifically, the calculation unit 130 calculates the previous autonomous sensor information 11 from the autonomous sensor information 11b, the previous reinforcing sensor A information 12 from the reinforcing sensor A information 12b, and the previous reinforcing sensor B information from the reinforcing sensor B information 13b. 13 is used to determine the position and orientation of the moving body as moving body information 131.
The calculation unit 130 outputs the mobile body information 131 via the output interface 940.

以上で、本実施の形態に係るデータ処理S100の説明を終わる。   Above, description of data processing S100 concerning this embodiment is finished.

***他の構成***
本実施の形態では、データ処理装置100は、入力インタフェース930を介して複数のセンサデータ310を取得し、出力インタフェース940をして移動体情報131を出力する構成であった。しかし、データ処理装置100が通信装置を備え、通信装置を介して複数のセンサデータ310を受信してもよい。また、データ処理装置100は、通信装置を介して移動体情報131を送信してもよい。この場合、通信装置はレシーバとトランスミッタとを備える。具体的には、通信装置は通信チップまたはNIC(Network・Interface・Card)である。通信装置はデータを通信する通信部として機能する。レシーバはデータを受信する受信部として機能し、トランスミッタはデータを送信する送信部として機能する。
*** Other configurations ***
In the present embodiment, the data processing apparatus 100 is configured to acquire a plurality of sensor data 310 via the input interface 930 and output the moving body information 131 via the output interface 940. However, the data processing apparatus 100 may include a communication device and receive a plurality of sensor data 310 via the communication device. In addition, the data processing device 100 may transmit the mobile body information 131 via a communication device. In this case, the communication device includes a receiver and a transmitter. Specifically, the communication device is a communication chip or a NIC (Network, Interface, Card). The communication device functions as a communication unit that communicates data. The receiver functions as a receiving unit that receives data, and the transmitter functions as a transmitting unit that transmits data.

また、本実施の形態では、データ処理装置100の「部」の機能がソフトウェアで実現されるが、変形例として、データ処理装置100の「部」の機能がハードウェアで実現されてもよい。
図6を用いて、本実施の形態の変形例に係るデータ処理装置100の構成について説明する。
図6に示すように、データ処理装置100は、処理回路909、入力インタフェース930、出力インタフェース940といったハードウェアを備える。
In the present embodiment, the function of the “unit” of the data processing device 100 is realized by software. However, as a modification, the function of the “unit” of the data processing device 100 may be realized by hardware.
The configuration of the data processing apparatus 100 according to the modification of the present embodiment will be described using FIG.
As shown in FIG. 6, the data processing apparatus 100 includes hardware such as a processing circuit 909, an input interface 930, and an output interface 940.

処理回路909は、前述した「部」の機能及び記憶部150を実現する専用の電子回路である。処理回路909は、具体的には、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate・Array)、ASIC(Application・Specific・Integrated・Circuit)、又は、FPGA(Field−Programmable・Gate・Array)である。   The processing circuit 909 is a dedicated electronic circuit that realizes the function of the “unit” and the storage unit 150 described above. Specifically, the processing circuit 909 includes a single circuit, a composite circuit, a programmed processor, a processor programmed in parallel, a logic IC, a GA (Gate Array), an ASIC (Application Specific Integrated Circuit), or , FPGA (Field-Programmable Gate Gate Array).

「部」の機能及び記憶部150は、1つの処理回路909で実現されてもよいし、複数の処理回路909に分散して実現されてもよい。   The function of “unit” and the storage unit 150 may be realized by a single processing circuit 909 or may be realized by being distributed to a plurality of processing circuits 909.

別の変形例として、データ処理装置100の機能がソフトウェアとハードウェアとの組合せで実現されてもよい。すなわち、データ処理装置100の一部の機能が専用のハードウェアで実現され、残りの機能がソフトウェアで実現されてもよい。   As another modification, the function of the data processing apparatus 100 may be realized by a combination of software and hardware. That is, some functions of the data processing apparatus 100 may be realized by dedicated hardware, and the remaining functions may be realized by software.

プロセッサ910、記憶装置920、及び、処理回路909を、総称して「プロセッシングサーキットリ」という。つまり、データ処理装置100の構成が図1及び図4のいずれに示した構成であっても、「部」の機能及び記憶部150は、プロセッシングサーキットリにより実現される。   The processor 910, the storage device 920, and the processing circuit 909 are collectively referred to as a “processing circuit”. That is, regardless of the configuration of the data processing apparatus 100 shown in FIGS. 1 and 4, the function of “unit” and the storage unit 150 are realized by a processing circuit.

「部」を「工程」又は「手順」又は「処理」に読み替えてもよい。また、「部」の機能をファームウェアで実現してもよい。   “Part” may be read as “step” or “procedure” or “processing”. Further, the function of “unit” may be realized by firmware.

***本実施の形態の効果の説明***
センサデータのリアルタイム性、すなわちセンシングしてからこのセンサデータが位置姿勢標定装置であるデータ処理装置で利用可能となるまでの遅れ時間の少なさは、各センサによるデータ処理時間や通信等による伝送時間により、センサ毎にまちまちである。
これらリアルタイム性の異なるセンサデータを複合利用してリアルタイム演算処理を行うためには、プログラムの実装において、時刻が前後して利用可能となる各センサデータに対応するため、処理する時刻を前に遡らせたり逆に先に進めたりするなど、適切にハンドリングすることが必要となり、処理が複雑化する。
本実施の形態に係るデータ処理装置によれば、利用可能となったセンサ情報を一度バッファリングし、処理した後にその時刻より古いタイムタグのセンサ情報が利用可能となることのない、可能な限りリアルタイムに近い時刻をデータ処理のターゲット時刻として設定し、処理を実施する。このようにすることで、データ処理の後に、その時刻より古いタイムタグを持ったセンサ情報が利用可能となることがなく、時刻を遡った処理やその分先に進める(もどす)といった煩雑な処理は発生しない。
よって、本実施の形態に係るデータ処理装置によれば、処理が複雑化することを避けることができ、かつ、リアルタイム性が高く精度のよい移動体情報、すなわち位置姿勢標定結果を得ることができる。
*** Explanation of effects of this embodiment ***
The real-time nature of sensor data, that is, the short delay time from sensing until the sensor data can be used by a data processing device, which is a position / orientation locating device, is the data processing time by each sensor and the transmission time by communication etc. Therefore, it is different for each sensor.
In order to perform real-time arithmetic processing using these sensor data having different real-time characteristics, the processing time is traced back to correspond to each sensor data that can be used before and after the time in the program implementation. It is necessary to handle appropriately, such as moving forward or moving forward, and the processing becomes complicated.
According to the data processing apparatus according to the present embodiment, sensor information that has become available is buffered once, and after processing, sensor information of a time tag older than that time is not available as much as possible. A time near real time is set as a target time for data processing, and processing is performed. In this way, after data processing, sensor information having a time tag older than that time is not available, and complicated processing such as processing that goes back in time or that is advanced (returned) ahead. Does not occur.
Therefore, according to the data processing device according to the present embodiment, it is possible to avoid complicated processing, and it is possible to obtain mobile object information that is highly real-time and accurate, that is, a position and orientation determination result. .

実施の形態2.
***構成の説明***
本実施の形態では、主に、実施の形態1との差異について説明する。
図7は、本実施の形態に係るデータ処理装置100aの構成を示す図である。
実施の形態1では、最もリアルタイム性の低いセンサ情報が利用可能となるのを待って、データ処理を実施するので、待つ分だけ処理結果である移動体情報131のタイムタグのリアルタイム性が損なわれてしまう。カーナビのような地図上での自己位置の表示といった、あまりリアルタイム性が必要とされない用途であれば、これで十分であるが、車両の運転制御のフィードバックとして使用する場合は、リアルタイム性を確保する必要がある。
本実施の形態では、リアルタイム性の遅いセンサ情報が利用可能となることを待って処理することによる遅れを補間することができるデータ処理装置100aについて説明する。データ処理装置100aは、リアルタイム性の高い自律センサ情報11を用いて、自律航法によりリアルタイム直前まで処理する。
データ処理装置100aにおいて、実施の形態1で説明した構成と同様の構成についてはその説明を省略する。
Embodiment 2. FIG.
*** Explanation of configuration ***
In the present embodiment, differences from the first embodiment will be mainly described.
FIG. 7 is a diagram showing a configuration of the data processing apparatus 100a according to the present embodiment.
In the first embodiment, since the data processing is performed after the sensor information with the lowest real-time property is available, the real-time property of the time tag of the mobile object information 131 that is the processing result is impaired by the amount of waiting. End up. This is sufficient for applications that do not require real-time performance, such as the display of self-location on a map such as a car navigation system. However, real-time performance is ensured when used as feedback for vehicle driving control. There is a need.
In the present embodiment, a data processing apparatus 100a capable of interpolating a delay caused by processing after waiting for sensor information having a slow real-time property to be used will be described. The data processing device 100a performs processing up to immediately before real time by autonomous navigation using the autonomous sensor information 11 having high real time property.
In the data processing device 100a, the description of the same configuration as that described in Embodiment 1 is omitted.

図7に示すように、データ処理装置100aは、実施の形態1で説明したデータ処理装置100の構成に加えて、補間部160を備える。すなわち、実施の形態1で説明した「部」の機能には、補間部160の機能が加わる。その他の構成については、実施の形態1と同様である。   As illustrated in FIG. 7, the data processing device 100 a includes an interpolation unit 160 in addition to the configuration of the data processing device 100 described in the first embodiment. That is, the function of the interpolation unit 160 is added to the function of the “unit” described in the first embodiment. Other configurations are the same as those in the first embodiment.

***動作の説明***
図8は、本実施の形態に係るデータ処理装置100aによるデータ処理S100aを示すフロー図である。
図8に示すように、データ処理S100aは、実施の形態1で説明したデータ処理S100に加えて、補間処理S140を備える。
補間処理S140において、補間部160は、最新の処理完了時刻と現在時刻との差が最も小さいセンサ情報である自律センサ情報11を用いて、ターゲット時刻Ttより後の移動体情報131を自律航法により算出する。
*** Explanation of operation ***
FIG. 8 is a flowchart showing data processing S100a performed by the data processing apparatus 100a according to the present embodiment.
As shown in FIG. 8, the data processing S100a includes an interpolation processing S140 in addition to the data processing S100 described in the first embodiment.
In the interpolation process S140, the interpolation unit 160 uses the autonomous sensor information 11 which is the sensor information having the smallest difference between the latest process completion time and the current time, and the mobile body information 131 after the target time Tt is obtained by autonomous navigation. calculate.

図9は、本実施の形態に係る補間処理S140を示すフロー図である。
図10は、本実施の形態に係る補間処理S140を示す模式図である。
ステップS141において、補間部160は、ターゲット時刻Ttから後の移動体情報131を、自律センサ情報11を用いて自律航法により算出する。
図10に示すように、自律センサ情報11はターゲット時刻Ttから後の時刻Tsまでしか利用可能となっていない。そこで、図10の実線の曲線矢印に示すように、ターゲット時刻Ttから時刻Tsまで、移動体情報131を自律航法で算出する。このように、ターゲット時刻Ttから後の移動体情報131を自律航法により算出する場合でも、自律センサデータが利用可能となった時刻Tsまでしか算出できない可能性がある。
その場合、補間部160は、移動体情報131の自律航法による算出が完了した時刻Tsから現在時刻Trまでの移動体情報131を外挿法により算出する。
FIG. 9 is a flowchart showing the interpolation processing S140 according to the present embodiment.
FIG. 10 is a schematic diagram showing the interpolation processing S140 according to the present embodiment.
In step S <b> 141, the interpolation unit 160 calculates the moving body information 131 after the target time Tt by autonomous navigation using the autonomous sensor information 11.
As shown in FIG. 10, the autonomous sensor information 11 can be used only from the target time Tt to a later time Ts. Therefore, as shown by the solid curve arrow in FIG. 10, the mobile body information 131 is calculated by the autonomous navigation from the target time Tt to the time Ts. Thus, even when the moving body information 131 after the target time Tt is calculated by autonomous navigation, there is a possibility that it can be calculated only until the time Ts when the autonomous sensor data becomes available.
In this case, the interpolation unit 160 calculates the moving body information 131 from the time Ts when the calculation by the autonomous navigation of the moving body information 131 is completed to the current time Tr by an extrapolation method.

ステップS142において、補間部160は、移動体情報131を現在時刻Trまで算出したか否かを判定する。現在時刻Trまで算出したと判定した場合、処理を終了する。
現在時刻Trまで算出されていないと判定した場合、ステップS143に進む。
In step S142, the interpolation unit 160 determines whether or not the mobile object information 131 has been calculated up to the current time Tr. If it is determined that the current time Tr has been calculated, the process ends.
If it is determined that the current time Tr has not been calculated, the process proceeds to step S143.

ステップS143において、補間部160は、移動体情報131の算出が完了した時刻Tsから現在時刻Trまでの移動体情報131を外挿法により算出する。具体的には、補間部160は、積分により時刻Tsから現在時刻Trまでの位置及び姿勢の予測値を算出する。なお、図10に示すように、補間部160は、外挿法を用いて、現在時刻Trより未来の時刻まで、移動体情報を予測しても構わない。   In step S143, the interpolation unit 160 calculates the moving body information 131 from the time Ts when the calculation of the moving body information 131 is completed to the current time Tr by an extrapolation method. Specifically, the interpolation unit 160 calculates a predicted value of the position and orientation from time Ts to the current time Tr by integration. As illustrated in FIG. 10, the interpolation unit 160 may predict moving body information from the current time Tr to a future time using an extrapolation method.

***本実施の形態の効果の説明***
本実施の形態に係るデータ処理装置100aでは、リアルタイム性の遅い補強センサデータが利用可能となることを待って処理することにより発生した遅れを、リアルタイム性の高い自律センサデータを用いて、自律航法によりリアルタイム直前まで処理する。さらに、自律センサデータもまだ利用可能ではないリアルタイム、すなわちデータ出力時刻のデータ処理については外挿計算を実施することで補う。よって、本実施の形態に係るデータ処理装置100aでは、処理結果である移動体情報のリアルタイム性をより高めることができる。
*** Explanation of effects of this embodiment ***
In data processing apparatus 100a according to the present embodiment, autonomous navigation is performed by using autonomous sensor data with high real-time characteristics for delays caused by processing after waiting for the availability of reinforcement sensor data with slow real-time characteristics. Is processed until just before real time. Further, the real-time processing in which the autonomous sensor data is not yet available, that is, the data processing at the data output time is supplemented by performing extrapolation calculation. Therefore, in the data processing device 100a according to the present embodiment, the real-time property of the moving body information that is the processing result can be further improved.

実施の形態3.
***構成の説明***
本実施の形態では、主に、実施の形態1,2との差異について説明する。
図11は、本実施の形態に係るデータ処理装置100bの構成を示す図である。
実施の形態1,2では、補強センサを追加する場合、その都度、追加する補強センサに応じたセンサデータ処理部を付け加える改修をする必要がある。この場合、GPSを使用できない地下において、磁気マーカーのような補強センサを使用するといった補強センサの最適選択をすることが難しい。また、新たに使用可能となった補強センサが出るたびに、対応するセンサデータ処理部を追加するためのプログラム改修が発生する。
本実施の形態では、補強センサからデータ処理装置への入力データの標準化を行い、プログラムの改修なしで簡単に新たな補強センサを追加することができる構成を有するデータ処理装置100bについて説明する。
データ処理装置100bにおいて、実施の形態1,2で説明した構成と同様の構成についてはその説明を省略する。
Embodiment 3 FIG.
*** Explanation of configuration ***
In the present embodiment, differences from the first and second embodiments will be mainly described.
FIG. 11 is a diagram showing a configuration of the data processing apparatus 100b according to the present embodiment.
In the first and second embodiments, when a reinforcement sensor is added, it is necessary to add a sensor data processing unit corresponding to the reinforcement sensor to be added each time. In this case, it is difficult to optimally select a reinforcement sensor such as using a reinforcement sensor such as a magnetic marker in the underground where GPS cannot be used. Further, every time a reinforcing sensor that can be newly used comes out, a program modification for adding a corresponding sensor data processing unit occurs.
In the present embodiment, a data processing apparatus 100b having a configuration in which input data from a reinforcement sensor to a data processing apparatus is standardized and a new reinforcement sensor can be easily added without modifying the program will be described.
In the data processing apparatus 100b, the description of the same configuration as that described in the first and second embodiments is omitted.

図11は実施の形態2で説明した図7に対応する。図11に示すように、データ処理装置100bにおいて、実施の形態2で説明したデータ処理装置100aと異なる点はセンサデータ処理部140bである。本実施の形態に係るセンサデータ処理部140bは、実施の形態2で説明した各センサデータに対応するセンサデータ処理部、すなわち、自律センサデータ処理部141、補強センサデータA処理部142、補強センサデータB処理部143を備えていない。本実施の形態に係るセンサデータ処理部140bは、標準処理部146を備える。
すなわち、実施の形態2で説明した「部」の機能には、自律センサデータ処理部141、補強センサデータA処理部142、補強センサデータB処理部143に替わり、標準処理部146の機能が加わる。その他の構成については、実施の形態2と同様である。
FIG. 11 corresponds to FIG. 7 described in the second embodiment. As shown in FIG. 11, the data processing device 100b is different from the data processing device 100a described in the second embodiment in a sensor data processing unit 140b. The sensor data processing unit 140b according to the present embodiment is a sensor data processing unit corresponding to each sensor data described in the second embodiment, that is, an autonomous sensor data processing unit 141, a reinforcement sensor data A processing unit 142, and a reinforcement sensor. The data B processing unit 143 is not provided. The sensor data processing unit 140b according to the present embodiment includes a standard processing unit 146.
That is, the function of “standard” described in Embodiment 2 is added to the function of the standard processing unit 146 instead of the autonomous sensor data processing unit 141, the reinforcement sensor data A processing unit 142, and the reinforcement sensor data B processing unit 143. . Other configurations are the same as those in the second embodiment.

***動作の説明***
本実施の形態では、複数のセンサ200の各センサは、移動体情報131の算出に用いられるフォーマット情報300を含むセンサデータを出力するものとする。すなわち、自律センサデータ311b、補強センサデータA312b、補強センサデータB313bには、各々フォーマット情報300が含まれる。
*** Explanation of operation ***
In the present embodiment, each sensor of the plurality of sensors 200 outputs sensor data including format information 300 used for calculation of the moving body information 131. That is, the autonomous sensor data 311b, the reinforcement sensor data A 312b, and the reinforcement sensor data B 313b each include format information 300.

図12は、本実施の形態に係るフォーマット情報300の一例を示す図である。
上述したように、追加が想定される補強センサには、インフラを必要とするものも少なくなく、今後新たな補強センサのシステムが構築されることも考えられる。そこで、フォーマット情報300は、データ処理装置100bが補強センサデータを使用するうえで必要となる情報がすべて含まれるように、補強センサからデータ処理装置100bに入力されるデータを標準化したものである。
必要となる情報の一例は、時刻、観測データ、観測誤差、観測方程式、観測物パラメータである。時刻は観測データをセンシングした時刻、観測データはセンシングデータである。また、観測誤差はセンシングデータの誤差分散である。観測方程式はデータ処理装置、すなわち位置姿勢認識装置の状態量と観測データとの関係式である。観測物パラメータは、データ処理装置が観測値を予測するのに必要となる、被センシング物のパラメータである。観測物パラメータの具体例としては、被センシング物の位置情報等がある。
FIG. 12 is a diagram showing an example of the format information 300 according to the present embodiment.
As described above, there are not a few reinforcement sensors that are expected to be added, but infrastructure may be required, and a new reinforcement sensor system may be constructed in the future. Therefore, the format information 300 standardizes data input from the reinforcement sensor to the data processing apparatus 100b so that all information necessary for the data processing apparatus 100b to use the reinforcement sensor data is included.
Examples of necessary information are time, observation data, observation error, observation equation, and observation object parameter. The time is the time when the observation data is sensed, and the observation data is the sensing data. The observation error is the error variance of the sensing data. The observation equation is a relational expression between the state quantity of the data processing device, that is, the position and orientation recognition device, and the observation data. The observation object parameter is a parameter of the object to be sensed that is necessary for the data processing apparatus to predict the observation value. Specific examples of the observation object parameter include position information of the object to be sensed.

記憶処理S110において、標準処理部146は、各センサデータにフォーマット情報300が含まれる複数のセンサデータ310bを取得する。標準処理部146は、複数のセンサデータ310bの各センサデータに含まれるフォーマット情報300を各センサ情報として複数のセンサ情報320を記憶部150に記憶させる。
その他の処理は、実施の形態1,2で説明したものと同様である。
In the storage process S110, the standard processing unit 146 acquires a plurality of sensor data 310b in which the format information 300 is included in each sensor data. The standard processing unit 146 stores the plurality of sensor information 320 in the storage unit 150 using the format information 300 included in each sensor data of the plurality of sensor data 310b as each sensor information.
Other processes are the same as those described in the first and second embodiments.

***本実施の形態の効果の説明***
位置姿勢標定装置であるデータ処理装置は、慣性装置のような自律センサデータによる自律航法をベースとしているため、これだけではセンサ誤差により精度が劣化する。そこで、位置姿勢の絶対的な観測情報を持つ補強センサのデータを使用することで、劣化した精度を補正する必要がある。上述の通り、補強センサデータのリアルタイム性はセンサ毎まちまちであるが、本実施の形態に係るデータ処理装置によれば、補強センサを増やしても処理が煩雑となることがないため、多くの補強センサを複合利用することで、位置姿勢標定装置の処理のロバスト性を向上することができる。
*** Explanation of effects of this embodiment ***
Since the data processing device, which is a position and orientation determination device, is based on autonomous navigation based on autonomous sensor data such as an inertial device, the accuracy deteriorates due to a sensor error. Therefore, it is necessary to correct the deteriorated accuracy by using the data of the reinforcement sensor having the absolute observation information of the position and orientation. As described above, the real-time property of the reinforcement sensor data varies from sensor to sensor. However, according to the data processing device according to the present embodiment, the processing does not become complicated even if the number of reinforcement sensors is increased. By using the sensor in combination, the robustness of the processing of the position / orientation locator can be improved.

図13は、本実施の形態の効果を示す模式図である。図13に示すように、レーザー、カメラ、磁気マーカー、RFID(Radio・Frequency・Identification)といった補強センサに加え、新たにセンサ1、センサ2、・・・、センサ5等を加える場合でも、プログラムを改修することなく追加することができる。
本実施の形態に係るデータ処理装置は、入力された補強センサデータを時刻順に並べ替えた後にバッファリングする。そして、データ処理装置は、ターゲット時刻前後に補強センサデータがある場合、同じくバッファリングされている観測方程式やパラメータをコールして、自律航法を観測更新して精度維持ができるようにする。これにより、用途や使用場所に応じた複数補強センサを選択することができると共に、データ処理装置に接続するだけで、ロバスト性の高い移動体情報、すなわち位置姿勢標定結果を容易に得ることが可能となる。また、通常は後処理にて開発・評価を実施する位置姿勢標定プログラムを、インタフェースを変更するだけで簡単にリアルタイム処理化することが可能であり、リアルタイム実装後の確認も後処理との比較により容易に確認することができる。
FIG. 13 is a schematic diagram showing the effect of the present embodiment. As shown in FIG. 13, in addition to reinforcing sensors such as a laser, a camera, a magnetic marker, and RFID (Radio Frequency Frequency Identification), a program can be added even when a sensor 1, a sensor 2,. It can be added without renovation.
The data processing apparatus according to the present embodiment buffers the input reinforcement sensor data after rearranging the data in order of time. Then, when there is reinforcing sensor data before and after the target time, the data processing device calls the observation equations and parameters that are also buffered, and observes and updates the autonomous navigation so that the accuracy can be maintained. This makes it possible to select a plurality of reinforcing sensors according to the application and use location, and it is possible to easily obtain highly robust moving body information, that is, a position / orientation determination result simply by connecting to a data processing device. It becomes. In addition, it is possible to easily convert a position / orientation positioning program, which is usually developed and evaluated by post-processing, into a real-time process simply by changing the interface. It can be easily confirmed.

上記の実施の形態では、「部」の各々が独立した機能ブロックとしてデータ処理装置を構成している。しかし、上記のような構成でなくてもよく、データ処理装置の構成は任意である。データ処理装置の機能ブロックは、上記の実施の形態で説明した機能を実現することができれば、任意である。これらの機能ブロックを、他のどのような組み合わせ、あるいは任意のブロック構成で、データ処理装置を構成しても構わない。
また、データ処理装置は、1つの装置でなく、複数の装置から構成されたシステムでもよい。
In the above-described embodiment, each “unit” constitutes the data processing device as an independent functional block. However, the configuration may not be as described above, and the configuration of the data processing apparatus is arbitrary. The functional blocks of the data processing apparatus are arbitrary as long as the functions described in the above embodiments can be realized. These functional blocks may be configured in any other combination or arbitrary block configuration to form a data processing apparatus.
Further, the data processing device may be a system constituted by a plurality of devices instead of a single device.

また、データ処理装置は、移動体に搭載され、計測しながらリアルタイムあるいは準リアルタイムに移動体情報を確認することができるものである。しかし、移動体に搭載されていなくてもよい。また、データ処理装置を、移動体と通信装置を介して接続された遠隔地のセンターに搭載し、リアルタイムあるいは準リアルタイムに移動体情報を算出する構成でもよい。   The data processing apparatus is mounted on a moving body and can check moving body information in real time or near real time while measuring. However, it may not be mounted on the moving body. Alternatively, the data processing device may be mounted in a remote center connected to the mobile body via the communication device, and the mobile body information may be calculated in real time or near real time.

実施の形態1から3について説明したが、これらの実施の形態のうち、複数の部分を組み合わせて実施しても構わない。あるいは、これらの実施の形態のうち、1つの部分を実施しても構わない。その他、これらの実施の形態を、全体としてあるいは部分的に、どのように組み合わせて実施しても構わない。
なお、上記の実施の形態は、本質的に好ましい例示であって、本発明、その適用物及び用途の範囲を制限することを意図するものではなく、必要に応じて種々の変更が可能である。
Although Embodiments 1 to 3 have been described, a combination of a plurality of portions may be implemented among these embodiments. Alternatively, one part of these embodiments may be implemented. In addition, these embodiments may be implemented in any combination as a whole or in part.
In addition, said embodiment is an essentially preferable illustration, Comprising: It does not intend restrict | limiting the range of this invention, its application thing, and a use, A various change is possible as needed. .

11 自律センサ情報、12 補強センサA情報、13 補強センサB情報、100,100a,100b データ処理装置、120 時刻設定部、121,Tt ターゲット時刻、130 算出部、131 移動体情報、140,140b センサデータ処理部、141 自律センサデータ処理部、142 補強センサデータA処理部、143 補強センサデータB処理部、146 標準処理部、150 記憶部、160 補間部、200 複数のセンサ、201 自律センサ、202 補強センサA、203 補強センサB、300 フォーマット情報、310,310b センサデータ、311,311b 自律センサデータ、312,312b 補強センサデータA、313,313b 補強センサデータB、320 複数のセンサ情報、321 自律センサ情報、322 補強センサA情報、323 補強センサB情報、510 データ処理方法、520 データ処理プログラム、909 処理回路、910 プロセッサ、920 記憶装置、921 メモリ、922 補助記憶装置、930 入力インタフェース、940 出力インタフェース、S100,S100a データ処理、S110 記憶処理、S120 時刻設定処理、S130 算出処理、S140 補間処理、Tr 現在時刻。   DESCRIPTION OF SYMBOLS 11 Autonomous sensor information, 12 Reinforcement sensor A information, 13 Reinforcement sensor B information, 100, 100a, 100b Data processing device, 120 Time setting part, 121, Tt Target time, 130 Calculation part, 131 Mobile body information, 140, 140b Sensor Data processing unit, 141 Autonomous sensor data processing unit, 142 Reinforcement sensor data A processing unit, 143 Reinforcement sensor data B processing unit, 146 Standard processing unit, 150 Storage unit, 160 Interpolation unit, 200 Multiple sensors, 201 Autonomous sensor, 202 Reinforcement sensor A, 203 Reinforcement sensor B, 300 Format information, 310, 310b Sensor data, 311, 311b Autonomous sensor data, 312, 312b Reinforcement sensor data A, 313, 313b Reinforcement sensor data B, 320 Multiple sensor information, 321 Autonomous Sensor information, 322 Reinforcement sensor A information, 323 Reinforcement sensor B information, 510 Data processing method, 520 Data processing program, 909 Processing circuit, 910 Processor, 920 Storage device, 921 Memory, 922 Auxiliary storage device, 930 Input interface, 940 Output Interface, S100, S100a Data processing, S110 storage processing, S120 time setting processing, S130 calculation processing, S140 interpolation processing, Tr current time.

Claims (6)

移動体に搭載された複数のセンサにより取得された複数のセンサデータに基づいて、前記移動体の状態を移動体情報として算出するデータ処理装置において、
前記複数のセンサデータが前記移動体情報の算出に用いられる情報に処理された複数のセンサ情報であって、前記複数のセンサデータの各センサデータの処理が完了した処理完了時刻が各センサ情報に付与された複数のセンサ情報を記憶する記憶部と、
前記複数のセンサ情報のうち、最新の処理完了時刻と現在時刻との差が最も大きいセンサ情報の処理完了時刻に基づいて、前記移動体情報を算出する対象の時刻であるターゲット時刻を設定する時刻設定部と、
前記ターゲット時刻の以前で、かつ、前記ターゲット時刻に最も近い処理完了時刻が付与された前記複数のセンサ情報の各センサ情報を用いて、前記移動体情報を算出する算出部と
を備えたデータ処理装置。
In a data processing device that calculates the state of the moving body as moving body information based on a plurality of sensor data acquired by a plurality of sensors mounted on the moving body,
The plurality of sensor data is a plurality of sensor information processed into information used for calculation of the moving body information, and the processing completion time when the processing of each sensor data of the plurality of sensor data is completed is the sensor information. A storage unit for storing the given sensor information;
A time for setting a target time, which is a target time for calculating the mobile body information, based on a process completion time of sensor information having the largest difference between the latest process completion time and the current time among the plurality of sensor information. A setting section;
Data processing comprising: a calculation unit that calculates the moving body information using each sensor information of the plurality of sensor information to which the processing completion time closest to the target time is given before the target time apparatus.
前記データ処理装置は、さらに、
最新の処理完了時刻と現在時刻との差が最も小さいセンサ情報である自律センサ情報を用いて、前記ターゲット時刻より後の前記移動体情報を算出する補間部を備えた請求項1に記載のデータ処理装置。
The data processing device further includes:
The data according to claim 1, further comprising an interpolation unit that calculates the moving body information after the target time using autonomous sensor information that is sensor information having a smallest difference between the latest processing completion time and the current time. Processing equipment.
前記補間部は、
前記移動体情報の算出が完了した時刻から現在時刻までの前記移動体情報を外挿法により算出する請求項2に記載のデータ処理装置。
The interpolation unit
The data processing apparatus according to claim 2, wherein the moving body information from the time when the calculation of the moving body information is completed to the current time is calculated by an extrapolation method.
前記データ処理装置は、さらに、
前記移動体情報の算出に用いられるフォーマット情報を各センサデータが含む前記複数のセンサデータを取得し、前記複数のセンサデータの各センサデータに含まれる前記フォーマット情報を各センサ情報として前記複数のセンサ情報を前記記憶部に記憶させる標準処理部を備えた請求項1から3のいずれか1項に記載のデータ処理装置。
The data processing device further includes:
The plurality of sensor data including each piece of sensor data including format information used for calculating the mobile body information, and the plurality of sensors using the format information included in each sensor data of the plurality of sensor data as sensor information. The data processing apparatus according to claim 1, further comprising a standard processing unit that stores information in the storage unit.
移動体に搭載された複数のセンサにより取得された複数のセンサデータに基づいて、前記移動体の状態を移動体情報として算出するデータ処理装置のデータ処理方法において、
記憶部が、前記複数のセンサデータが前記移動体情報の算出に用いられる情報に処理された複数のセンサ情報であって、前記複数のセンサデータの各センサデータの処理が完了した処理完了時刻が各センサ情報に付与された複数のセンサ情報を記憶し、
時刻設定部が、前記複数のセンサ情報のうち、最新の処理完了時刻と現在時刻との差が最も大きいセンサ情報の処理完了時刻に基づいて、前記移動体情報を算出する対象の時刻であるターゲット時刻を設定し、
算出部が、前記ターゲット時刻の直前の処理完了時刻が付与された前記複数のセンサ情報の各センサ情報を用いて、前記移動体情報を算出するデータ処理方法。
In a data processing method of a data processing device for calculating a state of the moving body as moving body information based on a plurality of sensor data acquired by a plurality of sensors mounted on the moving body,
The storage unit is a plurality of pieces of sensor information in which the plurality of sensor data is processed into information used for calculating the mobile body information, and a processing completion time when processing of each sensor data of the plurality of sensor data is completed A plurality of sensor information assigned to each sensor information is stored,
A target that is a time for which the mobile object information is calculated based on the processing completion time of the sensor information having the largest difference between the latest processing completion time and the current time among the plurality of sensor information. Set the time,
A data processing method in which the calculation unit calculates the mobile body information using each sensor information of the plurality of sensor information to which a process completion time immediately before the target time is given.
移動体に搭載された複数のセンサにより取得された複数のセンサデータに基づいて、前記移動体の状態を移動体情報として算出するデータ処理装置のデータ処理プログラムにおいて、
前記複数のセンサデータが前記移動体情報の算出に用いられる情報に処理された複数のセンサ情報であって、前記複数のセンサデータの各センサデータの処理が完了した処理完了時刻が各センサ情報に付与された複数のセンサ情報を記憶する記憶処理と、
前記複数のセンサ情報のうち、最新の処理完了時刻と現在時刻との差が最も大きいセンサ情報の処理完了時刻に基づいて、前記移動体情報を算出する対象の時刻であるターゲット時刻を設定する時刻設定処理と、
前記ターゲット時刻の直前の処理完了時刻が付与された前記複数のセンサ情報の各センサ情報を用いて、前記移動体情報を算出する算出処理とをコンピュータに実行させるデータ処理プログラム。
In a data processing program of a data processing device that calculates the state of the moving body as moving body information based on a plurality of sensor data acquired by a plurality of sensors mounted on the moving body,
The plurality of sensor data is a plurality of sensor information processed into information used for calculation of the moving body information, and the processing completion time when the processing of each sensor data of the plurality of sensor data is completed is the sensor information. A storage process for storing the given sensor information;
A time for setting a target time, which is a target time for calculating the mobile body information, based on a process completion time of sensor information having the largest difference between the latest process completion time and the current time among the plurality of sensor information. Configuration process,
A data processing program for causing a computer to execute a calculation process of calculating the moving body information using each sensor information of the plurality of sensor information to which a process completion time immediately before the target time is given.
JP2016008472A 2016-01-20 2016-01-20 Data processing apparatus, data processing method, and data processing program Active JP6448564B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016008472A JP6448564B2 (en) 2016-01-20 2016-01-20 Data processing apparatus, data processing method, and data processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016008472A JP6448564B2 (en) 2016-01-20 2016-01-20 Data processing apparatus, data processing method, and data processing program

Publications (2)

Publication Number Publication Date
JP2017129438A true JP2017129438A (en) 2017-07-27
JP6448564B2 JP6448564B2 (en) 2019-01-09

Family

ID=59396159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016008472A Active JP6448564B2 (en) 2016-01-20 2016-01-20 Data processing apparatus, data processing method, and data processing program

Country Status (1)

Country Link
JP (1) JP6448564B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001324560A (en) * 2000-05-16 2001-11-22 Sony Corp Navigation device and gps receiver
JP2012177564A (en) * 2011-02-25 2012-09-13 Seiko Epson Corp Mobile body positioning method, and mobile body positioning device
JP2013533961A (en) * 2010-06-02 2013-08-29 クアルコム,インコーポレイテッド Positioning using measurements from past and current epochs
WO2015146048A1 (en) * 2014-03-25 2015-10-01 セイコーエプソン株式会社 Error estimation method, motion analysis method, error estimation device, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001324560A (en) * 2000-05-16 2001-11-22 Sony Corp Navigation device and gps receiver
JP2013533961A (en) * 2010-06-02 2013-08-29 クアルコム,インコーポレイテッド Positioning using measurements from past and current epochs
JP2012177564A (en) * 2011-02-25 2012-09-13 Seiko Epson Corp Mobile body positioning method, and mobile body positioning device
WO2015146048A1 (en) * 2014-03-25 2015-10-01 セイコーエプソン株式会社 Error estimation method, motion analysis method, error estimation device, and program

Also Published As

Publication number Publication date
JP6448564B2 (en) 2019-01-09

Similar Documents

Publication Publication Date Title
US10049567B2 (en) Traffic flow rate calculation method and device
CN109871019B (en) Method and device for acquiring coordinates by automatic driving
JP6305663B2 (en) Information processing apparatus, information processing method, and information processing program
CN111625764B (en) Mobile data calibration method, device, electronic equipment and storage medium
CN112884837B (en) Road positioning method, device, equipment and storage medium
US9778047B2 (en) Methods and apparatus for route comparison
KR101303417B1 (en) Information processing device, information processing method, and storage medium
US9470535B2 (en) Center device, program, map information transmission method, and navigation device
JP6448564B2 (en) Data processing apparatus, data processing method, and data processing program
CN109729488B (en) Information management apparatus and non-transitory computer-readable recording medium recording program
JP7371609B2 (en) Information processing device, information processing method, information processing program, and information processing system
US8933993B1 (en) Hybrid local and cloud based method for pose determination of a mobile device
JP6324408B2 (en) Distance coefficient learning apparatus, distance coefficient learning method, and current position calculation apparatus
US11391808B2 (en) Method for direction finding of at least one stationary and/or moving transmitter as well as system for direction finding
JP2008008691A (en) Tracking processing apparatus, and method and program therefor
JP6735696B2 (en) Composite positioning device, composite positioning method, and composite positioning program
CN110084298B (en) Method and device for detecting image similarity
CN114088093A (en) Point cloud map construction method, device and system and storage medium
CN112597174A (en) Map updating method and device, electronic equipment and computer readable medium
WO2018139093A1 (en) Travel history conversion method, information processing device and information system
CN114158119B (en) Driving direction identification method and device, electronic equipment and medium
JP2020135595A (en) Graph structure estimation device, slam device, graph structure estimation method, computer program and storage medium
CN114088085B (en) Position determining method and device for robot, electronic equipment and storage medium
JPWO2020044907A1 (en) Update area determination method, information processing device, and program
CN111325712B (en) Method and device for detecting image validity

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180110

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181031

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181204

R150 Certificate of patent or registration of utility model

Ref document number: 6448564

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250