JP2017129438A - Data processing device, data processing method, and data processing program - Google Patents
Data processing device, data processing method, and data processing program Download PDFInfo
- Publication number
- JP2017129438A JP2017129438A JP2016008472A JP2016008472A JP2017129438A JP 2017129438 A JP2017129438 A JP 2017129438A JP 2016008472 A JP2016008472 A JP 2016008472A JP 2016008472 A JP2016008472 A JP 2016008472A JP 2017129438 A JP2017129438 A JP 2017129438A
- Authority
- JP
- Japan
- Prior art keywords
- information
- sensor
- time
- data
- data processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 218
- 238000003672 processing method Methods 0.000 title claims description 8
- 238000004364 calculation method Methods 0.000 claims abstract description 32
- 238000000034 method Methods 0.000 claims description 52
- 238000013213 extrapolation Methods 0.000 claims description 5
- 230000002787 reinforcement Effects 0.000 description 56
- 230000006870 function Effects 0.000 description 25
- 230000003014 reinforcing effect Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 4
- 239000000872 buffer Substances 0.000 description 3
- 239000003550 marker Substances 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000009418 renovation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000004148 unit process Methods 0.000 description 1
Images
Landscapes
- Navigation (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
Abstract
Description
本発明は、自律センサと補強センサとを複合利用して移動体の位置及び姿勢を標定するデータ処理装置、データ処理方法及びデータ処理プログラムに関する。 The present invention relates to a data processing apparatus, a data processing method, and a data processing program for locating a position and posture of a moving body by using an autonomous sensor and a reinforcement sensor in combination.
位置姿勢標定装置では、慣性装置のような自律センサと、GPS(Global・Positioning・System)のような補強センサとを複合利用している。このような位置姿勢標定装置では、演算処理と結果出力をリアルタイム化することが望まれている。リアルタイム化とは、演算結果のタイムタグと演算結果を出力した時刻とにずれがないようにすることである。従来、アルゴリズムの開発・評価を実施する作業はログデータの後処理において実施していた。 The position and orientation determination device uses an autonomous sensor such as an inertial device and a reinforcement sensor such as GPS (Global Positioning System) in combination. In such a position / orientation locator, it is desired to perform real-time calculation processing and result output. Realization means that there is no deviation between the time tag of the calculation result and the time when the calculation result is output. Conventionally, algorithms are developed and evaluated in post processing of log data.
通常、自律センサと補強センサとには遅れ時間が存在する。よって、リアルタイム化の際に、位置姿勢標定処理のターゲット時刻をリアルタイムとしてしまうと、データが利用不可である上に、各センサデータの更新周期のタイミングもまちまちであることから、何らかの工夫によりデータのハンドリングを行わなければならない(特許文献1参照)。 Usually, there is a delay time between the autonomous sensor and the reinforcement sensor. Therefore, if the target time of the position / orientation determination processing is set to real time in real time, the data cannot be used and the timing of the update cycle of each sensor data varies. Handling must be performed (see Patent Document 1).
従来のリアルタイム化では、時刻を遡った処理やその分先に進める(もどす)処理といった煩雑な処理を実装する必要があるという課題があった。
本発明は、簡単な構成でリアルタイム化を実現することができるデータ処理装置を提供することを目的とする。
Conventional real-time processing has a problem in that it is necessary to implement complicated processing such as processing that goes back in time and processing that advances (returns) ahead.
An object of this invention is to provide the data processor which can implement | achieve real time realization by simple structure.
本発明に係るデータ処理装置は、移動体に搭載された複数のセンサにより取得された複数のセンサデータに基づいて、前記移動体の状態を移動体情報として算出するデータ処理装置において、
前記複数のセンサデータが前記移動体情報の算出に用いられる情報に処理された複数のセンサ情報であって、前記複数のセンサデータの各センサデータの処理が完了した処理完了時刻が各センサ情報に付与された複数のセンサ情報を記憶する記憶部と、
前記複数のセンサ情報のうち、最新の処理完了時刻と現在時刻との差が最も大きいセンサ情報の処理完了時刻に基づいて、前記移動体情報を算出する対象の時刻であるターゲット時刻を設定する時刻設定部と、
前記ターゲット時刻の以前で、かつ、前記ターゲット時刻に最も近い処理完了時刻が付与された前記複数のセンサ情報の各センサ情報を用いて、前記移動体情報を算出する算出部とを備えた。
The data processing apparatus according to the present invention is a data processing apparatus that calculates the state of the moving body as moving body information based on a plurality of sensor data acquired by a plurality of sensors mounted on the moving body.
The plurality of sensor data is a plurality of sensor information processed into information used for calculation of the moving body information, and the processing completion time when the processing of each sensor data of the plurality of sensor data is completed is the sensor information. A storage unit for storing the given sensor information;
A time for setting a target time, which is a target time for calculating the mobile body information, based on a process completion time of sensor information having the largest difference between the latest process completion time and the current time among the plurality of sensor information. A setting section;
A calculation unit that calculates the moving body information using each sensor information of the plurality of sensor information to which the processing completion time closest to the target time is given before the target time.
本発明に係るデータ処理装置によれば、時刻設定部が、複数のセンサ情報のうち、最新の処理完了時刻と現在時刻との差が最も大きいセンサ情報、すなわち最も遅れ時間の大きいセンサ情報の処理完了時刻に基づいて、ターゲット時刻を設定し、算出部が、ターゲット時刻の直前の処理完了時刻、すなわちターゲット時刻より前の直近の処理完了時刻が付与された複数のセンサ情報の各センサ情報に基づいて移動体情報を算出するので、簡単な構成で、最もリアルタイムに近く、かつ、高精度の移動体情報を算出することができるという効果を奏する。 According to the data processing device of the present invention, the time setting unit processes sensor information having the largest difference between the latest processing completion time and the current time among the plurality of sensor information, that is, sensor information having the longest delay time. Based on the completion time, the target time is set, and the calculation unit is based on the sensor information of the plurality of sensor information to which the processing completion time immediately before the target time, that is, the latest processing completion time before the target time is given. Thus, the moving body information is calculated, so that it is possible to calculate the moving body information with the simple configuration and the most accurate real-time information.
実施の形態1.
***構成の説明***
図1を用いて、本実施の形態に係るデータ処理装置100の構成について説明する。
本実施の形態において、データ処理装置100は、コンピュータである。データ処理装置100は、プロセッサ910、記憶装置920、入力インタフェース930、出力インタフェース940といったハードウェアを備える。記憶装置920は、メモリ921と補助記憶装置922とを含む。
*** Explanation of configuration ***
The configuration of the data processing apparatus 100 according to the present embodiment will be described with reference to FIG.
In the present embodiment, data processing apparatus 100 is a computer. The data processing apparatus 100 includes hardware such as a processor 910, a storage device 920, an
また、データ処理装置100は、機能構成として、時刻設定部120と、算出部130と、センサデータ処理部140と、記憶部150とを備える。センサデータ処理部140は、自律センサデータ処理部141、補強センサデータA処理部142、補強センサデータB処理部143を備える。以下の説明では、データ処理装置100における時刻設定部120と、算出部130と、センサデータ処理部140との機能を、データ処理装置100の「部」の機能という。データ処理装置100の「部」の機能は、ソフトウェアで実現される。
Further, the data processing apparatus 100 includes a
また、記憶部150は、メモリ921により実現される。記憶部150には、複数のセンサ情報320が記憶される。複数のセンサ情報320の各センサ情報は、自律センサ情報11、補強センサA情報12、補強センサB情報13が記憶される。本実施の形態では、記憶部150はメモリ921により実現されているが、メモリ921及び補助記憶装置922により実現されていてもよい。記憶部150の実現方法は任意である。
The storage unit 150 is realized by the memory 921. A plurality of
プロセッサ910は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
プロセッサ910は、プロセッシングを行うIC(Integrated・Circuit)である。プロセッサ910は、CPU(Central・Processing・Unit)である。
The processor 910 is connected to other hardware via a signal line, and controls these other hardware.
The processor 910 is an integrated circuit (IC) that performs processing. The processor 910 is a CPU (Central Processing Unit).
メモリ921は、具体的には、RAM(Random・Access・Memory)である。補助記憶装置922は、具体的には、ROM(Read・Only・Memory)、フラッシュメモリ、又は、HDD(Hard・Disk・Drive)である。
Specifically, the memory 921 is a RAM (Random Access Memory). Specifically, the
入力インタフェース930は、複数のセンサ200に接続されるポートである。本実施の形態では、複数のセンサ200は自律センサ201、補強センサA202、補強センサB203である。入力インタフェース930は、複数のセンサ200の各々で計測されたセンサデータ310をデータ処理装置100に取り込む。入力インタフェース930により取り込まれたセンサデータ310はメモリ921に記憶される。入力インタフェース930は、マウス、キーボード、タッチパネルといった入力装置と接続されるポートであってもよい。入力インタフェース930は、具体的には、USB(Universal・Serial・Bus)端子、シリアルインタフェース(RS−232C)などである。なお、入力インタフェース930は、LAN(Local・Area・Network)と接続されるポートであってもよい。
The
出力インタフェース940は、ディスプレイといった表示機器のケーブルが接続されるポートである。出力インタフェース940は、具体的には、USB端子、HDMI(登録商標)(High・Definition・Multimedia・Interface)端子、シリアルインタフェース(RS−232C)などである。ディスプレイは、具体的には、LCD(Liquid・Crystal・Display)である。
The
補助記憶装置922には、「部」の機能を実現するプログラムが記憶されている。「部」の機能を実現するプログラムをデータ処理プログラム520ともいう。このプログラムは、メモリ921にロードされ、プロセッサ910に読み込まれ、プロセッサ910によって実行される。また、補助記憶装置922には、OS(Operating・System)も記憶されている。OSの少なくとも一部がメモリ921にロードされ、プロセッサ910はOSを実行しながら、「部」の機能を実現するプログラムを実行する。
The
データ処理装置100は、1つのプロセッサ910のみを備えていてもよいし、複数のプロセッサ910を備えていてもよい。複数のプロセッサ910が「部」の機能を実現するプログラムを連携して実行してもよい。 The data processing apparatus 100 may include only one processor 910, or may include a plurality of processors 910. A plurality of processors 910 may execute a program for realizing the function of “unit” in cooperation with each other.
「部」の処理の結果を示す情報、データ、信号値、及び、変数値は、補助記憶装置922、メモリ921、又は、プロセッサ910内のレジスタ又はキャッシュメモリに記憶される。
なお、図1において、各部と記憶部150とを結ぶ矢印は、各部が処理の結果を記憶部150に記憶すること、あるいは、各部が記憶部150から情報を読み出すことを表している。また、各部を結ぶ矢印は、制御あるいはデータの流れを表している。
Information, data, signal values, and variable values indicating the result of the processing of “part” are stored in the
In FIG. 1, an arrow connecting each unit and the storage unit 150 indicates that each unit stores the processing result in the storage unit 150 or that each unit reads information from the storage unit 150. In addition, arrows connecting the respective parts represent the flow of control or data.
「部」の機能を実現するプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD(Digital・Versatile・Disc)といった可搬記録媒体に記憶されてもよい。
なお、データ処理プログラムプロダクトと称されるものは、「部」として説明している機能を実現するプログラムが記録された記憶媒体及び記憶装置であり、見た目の形式に関わらず、コンピュータ読み取り可能なプログラムをロードしているものである。
The program for realizing the function of “part” may be stored in a portable recording medium such as a magnetic disk, a flexible disk, an optical disk, a compact disk, a Blu-ray (registered trademark) disk, or a DVD (Digital Versatile Disc).
In addition, what is called a data processing program product is a storage medium and a storage device in which a program that realizes the function described as “part” is recorded, and is a computer-readable program regardless of the appearance format. Is what you are loading.
***動作の説明***
図2は、本実施の形態に係るデータ処理装置100のデータ処理方法510及びデータ処理プログラム520のデータ処理S100を示すフロー図である。
データ処理装置100は、移動体に搭載された複数のセンサ200により取得された複数のセンサデータ310に基づいて、移動体の状態を移動体情報131として算出する。
移動体の状態を表す移動体情報131とは、具体的には、移動体の位置及び姿勢である。移動体情報131を算出するとは移動体の位置及び姿勢を標定することであり、データ処理装置100は移動体の位置及び姿勢を標定する位置姿勢標定装置ともいう。また、データ処理方法510を位置姿勢標定方法、データ処理プログラム520を位置姿勢標定プログラムともいう。
*** Explanation of operation ***
FIG. 2 is a flowchart showing the data processing method 510 of the data processing apparatus 100 and the data processing S100 of the data processing program 520 according to the present embodiment.
The data processing apparatus 100 calculates the state of the moving body as the moving
The moving
記憶処理S110において、記憶部150は、複数のセンサデータ310が移動体情報131の算出に用いられる情報に処理された複数のセンサ情報320を記憶する。
ここで、複数のセンサデータ310とは複数のセンサ200の各々により取得されるセンサデータである。具体的には、自律センサ201により取得される自律センサデータ311、補強センサA202により取得される補強センサデータA312、補強センサB203により取得される補強センサデータB313である。
また、複数のセンサ情報320とは、複数のセンサデータ310の各々が、各センサデータに対応するセンサデータ処理部140により、移動体情報131の算出に用いられる情報に処理されたものである。具体的には、自律センサデータ処理部141により利用可能に処理された自律センサ情報11、補強センサデータA処理部142により利用可能に処理された補強センサA情報12、補強センサデータB処理部143により利用可能に処理された補強センサB情報13である。
In the storage process S <b> 110, the storage unit 150 stores a plurality of
Here, the plurality of
The plurality of
複数のセンサ情報320には、複数のセンサデータの各センサデータの処理が完了した時刻である処理完了時刻が各センサ情報に付与されている。処理完了時刻は、複数のセンサデータ310の各センサデータが利用可能となった時刻である。すなわち、複数のセンサ情報320では、複数のセンサデータ310の各センサデータが利用可能となった時刻を表す処理完了時刻が各センサ情報に付与されている。また、各センサ情報には複数のセンサデータ310の各々が複数のセンサ200の各々により取得された取得時刻も付与されている。
In the plurality of
なお、センサデータ処理部140は、対応するセンサデータが入力されるとメモリ921にバッファリングした上で、センサデータを利用可能となるように順に処理し、センサ情報として記憶部150に記憶する。具体的には、自律センサデータ310が入力されると、対応する自律センサデータ処理部141がメモリ921にバッファリングし、バッファリングした自律センサデータ310を利用可能となるように順に処理し、自律センサ情報11として記憶部150に記憶する。他のセンサデータ処理部140についても同様である。
When the corresponding sensor data is input, the sensor data processing unit 140 buffers the memory 921 and sequentially processes the sensor data so that the sensor data can be used, and stores the sensor data in the storage unit 150 as sensor information. Specifically, when the
時刻設定処理S120において、時刻設定部120は、複数のセンサ情報320のうち、最新の処理完了時刻と現在時刻との差が最も大きいセンサ情報の処理完了時刻に基づいて、移動体情報131を算出する対象の時刻であるターゲット時刻121を設定する。
時刻設定処理S120については後で詳しく説明する。
In the time setting process S120, the
The time setting process S120 will be described in detail later.
算出処理S130において、算出部130は、ターゲット時刻121の以前の処理完了時刻が付与され、かつ、使用されずにバッファリングされている複数のセンサ情報320の各センサ情報を用いて、移動体情報131を算出する。なお、ターゲット時刻121の以前の処理完了時刻が付与され、かつ、使用されずにバッファリングされているセンサ情報には、ターゲット時刻121の以前で、かつ、ターゲット時刻121に最も近い処理完了時刻が付与されたセンサ情報が含まれる。すなわち、算出部130は、ターゲット時刻121の以前で、かつ、ターゲット時刻121に最も近い処理完了時刻が付与された複数のセンサ情報320の各センサ情報を用いて、移動体情報131を算出する。
算出処理S130については後で詳しく説明する。
In the calculation process S130, the
The calculation process S130 will be described in detail later.
<時刻設定処理S120>
図3は、本実施の形態に係る時刻設定処理S120を示すフロー図である。
図4は、本実施の形態に係る時刻設定処理S120を示す模式図である。
図3及び図4を用いて、本実施の形態に係る時刻設定処理S120について説明する。
<Time setting process S120>
FIG. 3 is a flowchart showing the time setting process S120 according to the present embodiment.
FIG. 4 is a schematic diagram showing time setting processing S120 according to the present embodiment.
The time setting process S120 according to the present embodiment will be described with reference to FIGS.
図4は、時間の流れ、データ処理装置100でのリアルタイムにおけるセンサ情報の利用可能状況、及び実際にデータ処理S100で使用しているセンサ情報を示している。白抜きのセンサ情報は移動体情報131の算出に利用できない利用不可のセンサ情報であり、ハッチングされているセンサ情報は利用可能なデータである。黒枠のセンサ情報は利用可能なセンサ情報のうち使用しているセンサ情報を示している。また、時間の流れにおける目盛りは、データ処理装置100が処理を実行するタイミングを示している。
図4に示すように、センサ情報のリアルタイム性は、自律センサ情報11、補強センサB情報13、補強センサA情報12の順に悪くなる。
FIG. 4 shows the flow of time, the availability of sensor information in real time in the data processing apparatus 100, and the sensor information actually used in the data processing S100. The white sensor information is unusable sensor information that cannot be used to calculate the moving
As shown in FIG. 4, the real-time property of sensor information becomes worse in the order of
ステップS121において、時刻設定部120は、各センサ情報について、最新のセンサ情報の処理完了時刻を取得する。図4に示すように、自律センサ情報11についての最新の処理完了時刻はT1である。また、補強センサA情報12についての最新の処理完了時刻はT2である。また、補強センサB情報13についての最新の処理完了時刻はT3である。
In step S121, the
ステップ122において、時刻設定部120は、最新の処理完了時刻と現在時刻Trとの差を算出する。最新の処理完了時刻と現在時刻Trとの差は、センサ情報の遅れ時間を示している。時刻設定部120は、最新の処理完了時刻と現在時刻Trとの差が最も大きいセンサ情報を判定する。図4に示すように、最新の処理完了時刻と現在時刻Trとの差が最も大きいセンサ情報は、補強センサA情報12である。補強センサA情報12は、複数のセンサ情報320のうちリアルタイム性が最も悪いセンサ情報である。
In step 122, the
ステップ123において、時刻設定部120は、最新の処理完了時刻と現在時刻との差が最も大きいセンサ情報の処理完了時刻に基づいて、移動体情報131を算出する対象の時刻であるターゲット時刻121を設定する。図4に示すように、ターゲット時刻121をTtとし、現在時刻をTrとする。時刻設定部120は、補強センサA情報12の処理完了時刻T2に基づいて、ターゲット時刻Ttを設定する。時刻設定部120は、処理完了時刻T2より現在時刻Trに近く、かつ、処理完了時刻T2に最も近い実行タイミングをターゲット時刻Ttとして設定する。すなわち、時刻設定部120は、処理完了時刻T2より以降の直近の実行タイミングをターゲット時刻Ttとして設定する。なお、時刻設定部120は、処理完了時刻T2そのものをターゲット時刻Ttとして設定しても構わない。
In step 123, the
図5は、本実施の形態に係る算出処理S130を示すフロー図である。
ステップS131において、算出部130は、ターゲット時刻Ttの以前の処理完了時刻が付与され、かつ、使用されずにバッファリングされている複数のセンサ情報320の各センサ情報を用いて、移動体情報131を算出する。処理完了時刻がターゲット時刻Ttと等しい場合は、その処理完了時刻のセンサ情報を用いてもよい。
なお、図4では、ターゲット時刻Ttの以前の処理完了時刻が付与され、かつ、使用されずにバッファリングされているセンサ情報は、ターゲット時刻Ttの以前で、かつ、ターゲット時刻Ttに最も近い処理完了時刻が付与されたセンサ情報のみである場合を示している。
図4に示すように、自律センサ情報11において、ターゲット時刻Tt以前で、かつ、ターゲット時刻Ttに最も近い処理完了時刻はT1bである。また、補強センサA情報12において、ターゲット時刻Tt以前で、かつ、ターゲット時刻Ttに最も近い処理完了時刻はT2b、すなわちT2である。また、補強センサB情報13において、ターゲット時刻Tt以前で、かつ、ターゲット時刻Ttに最も近い処理完了時刻はT3bである。
FIG. 5 is a flowchart showing the calculation process S130 according to the present embodiment.
In step S131, the
In FIG. 4, the sensor information that is given the processing completion time before the target time Tt and is buffered without being used is the processing that is closest to the target time Tt before the target time Tt. A case where only the sensor information to which the completion time is given is shown.
As shown in FIG. 4, in the
よって、算出部130は、処理完了時刻T1bが付与された自律センサ情報11bと、処理完了時刻T2bが付与された補強センサA情報12bと、処理完了時刻T3bが付与された補強センサB情報13bとに基づいて、移動体情報131を算出する。具体的には、算出部130は、自律センサ情報11bから前の自律センサ情報11と、補強センサA情報12bから前の補強センサA情報12と、補強センサB情報13bから前の補強センサB情報13とを用いて、移動体の位置及び姿勢を標定し、移動体情報131とする。
算出部130は、出力インタフェース940を介して移動体情報131を出力する。
Therefore, the
The
以上で、本実施の形態に係るデータ処理S100の説明を終わる。 Above, description of data processing S100 concerning this embodiment is finished.
***他の構成***
本実施の形態では、データ処理装置100は、入力インタフェース930を介して複数のセンサデータ310を取得し、出力インタフェース940をして移動体情報131を出力する構成であった。しかし、データ処理装置100が通信装置を備え、通信装置を介して複数のセンサデータ310を受信してもよい。また、データ処理装置100は、通信装置を介して移動体情報131を送信してもよい。この場合、通信装置はレシーバとトランスミッタとを備える。具体的には、通信装置は通信チップまたはNIC(Network・Interface・Card)である。通信装置はデータを通信する通信部として機能する。レシーバはデータを受信する受信部として機能し、トランスミッタはデータを送信する送信部として機能する。
*** Other configurations ***
In the present embodiment, the data processing apparatus 100 is configured to acquire a plurality of
また、本実施の形態では、データ処理装置100の「部」の機能がソフトウェアで実現されるが、変形例として、データ処理装置100の「部」の機能がハードウェアで実現されてもよい。
図6を用いて、本実施の形態の変形例に係るデータ処理装置100の構成について説明する。
図6に示すように、データ処理装置100は、処理回路909、入力インタフェース930、出力インタフェース940といったハードウェアを備える。
In the present embodiment, the function of the “unit” of the data processing device 100 is realized by software. However, as a modification, the function of the “unit” of the data processing device 100 may be realized by hardware.
The configuration of the data processing apparatus 100 according to the modification of the present embodiment will be described using FIG.
As shown in FIG. 6, the data processing apparatus 100 includes hardware such as a processing circuit 909, an
処理回路909は、前述した「部」の機能及び記憶部150を実現する専用の電子回路である。処理回路909は、具体的には、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate・Array)、ASIC(Application・Specific・Integrated・Circuit)、又は、FPGA(Field−Programmable・Gate・Array)である。 The processing circuit 909 is a dedicated electronic circuit that realizes the function of the “unit” and the storage unit 150 described above. Specifically, the processing circuit 909 includes a single circuit, a composite circuit, a programmed processor, a processor programmed in parallel, a logic IC, a GA (Gate Array), an ASIC (Application Specific Integrated Circuit), or , FPGA (Field-Programmable Gate Gate Array).
「部」の機能及び記憶部150は、1つの処理回路909で実現されてもよいし、複数の処理回路909に分散して実現されてもよい。 The function of “unit” and the storage unit 150 may be realized by a single processing circuit 909 or may be realized by being distributed to a plurality of processing circuits 909.
別の変形例として、データ処理装置100の機能がソフトウェアとハードウェアとの組合せで実現されてもよい。すなわち、データ処理装置100の一部の機能が専用のハードウェアで実現され、残りの機能がソフトウェアで実現されてもよい。 As another modification, the function of the data processing apparatus 100 may be realized by a combination of software and hardware. That is, some functions of the data processing apparatus 100 may be realized by dedicated hardware, and the remaining functions may be realized by software.
プロセッサ910、記憶装置920、及び、処理回路909を、総称して「プロセッシングサーキットリ」という。つまり、データ処理装置100の構成が図1及び図4のいずれに示した構成であっても、「部」の機能及び記憶部150は、プロセッシングサーキットリにより実現される。 The processor 910, the storage device 920, and the processing circuit 909 are collectively referred to as a “processing circuit”. That is, regardless of the configuration of the data processing apparatus 100 shown in FIGS. 1 and 4, the function of “unit” and the storage unit 150 are realized by a processing circuit.
「部」を「工程」又は「手順」又は「処理」に読み替えてもよい。また、「部」の機能をファームウェアで実現してもよい。 “Part” may be read as “step” or “procedure” or “processing”. Further, the function of “unit” may be realized by firmware.
***本実施の形態の効果の説明***
センサデータのリアルタイム性、すなわちセンシングしてからこのセンサデータが位置姿勢標定装置であるデータ処理装置で利用可能となるまでの遅れ時間の少なさは、各センサによるデータ処理時間や通信等による伝送時間により、センサ毎にまちまちである。
これらリアルタイム性の異なるセンサデータを複合利用してリアルタイム演算処理を行うためには、プログラムの実装において、時刻が前後して利用可能となる各センサデータに対応するため、処理する時刻を前に遡らせたり逆に先に進めたりするなど、適切にハンドリングすることが必要となり、処理が複雑化する。
本実施の形態に係るデータ処理装置によれば、利用可能となったセンサ情報を一度バッファリングし、処理した後にその時刻より古いタイムタグのセンサ情報が利用可能となることのない、可能な限りリアルタイムに近い時刻をデータ処理のターゲット時刻として設定し、処理を実施する。このようにすることで、データ処理の後に、その時刻より古いタイムタグを持ったセンサ情報が利用可能となることがなく、時刻を遡った処理やその分先に進める(もどす)といった煩雑な処理は発生しない。
よって、本実施の形態に係るデータ処理装置によれば、処理が複雑化することを避けることができ、かつ、リアルタイム性が高く精度のよい移動体情報、すなわち位置姿勢標定結果を得ることができる。
*** Explanation of effects of this embodiment ***
The real-time nature of sensor data, that is, the short delay time from sensing until the sensor data can be used by a data processing device, which is a position / orientation locating device, is the data processing time by each sensor and the transmission time by communication etc. Therefore, it is different for each sensor.
In order to perform real-time arithmetic processing using these sensor data having different real-time characteristics, the processing time is traced back to correspond to each sensor data that can be used before and after the time in the program implementation. It is necessary to handle appropriately, such as moving forward or moving forward, and the processing becomes complicated.
According to the data processing apparatus according to the present embodiment, sensor information that has become available is buffered once, and after processing, sensor information of a time tag older than that time is not available as much as possible. A time near real time is set as a target time for data processing, and processing is performed. In this way, after data processing, sensor information having a time tag older than that time is not available, and complicated processing such as processing that goes back in time or that is advanced (returned) ahead. Does not occur.
Therefore, according to the data processing device according to the present embodiment, it is possible to avoid complicated processing, and it is possible to obtain mobile object information that is highly real-time and accurate, that is, a position and orientation determination result. .
実施の形態2.
***構成の説明***
本実施の形態では、主に、実施の形態1との差異について説明する。
図7は、本実施の形態に係るデータ処理装置100aの構成を示す図である。
実施の形態1では、最もリアルタイム性の低いセンサ情報が利用可能となるのを待って、データ処理を実施するので、待つ分だけ処理結果である移動体情報131のタイムタグのリアルタイム性が損なわれてしまう。カーナビのような地図上での自己位置の表示といった、あまりリアルタイム性が必要とされない用途であれば、これで十分であるが、車両の運転制御のフィードバックとして使用する場合は、リアルタイム性を確保する必要がある。
本実施の形態では、リアルタイム性の遅いセンサ情報が利用可能となることを待って処理することによる遅れを補間することができるデータ処理装置100aについて説明する。データ処理装置100aは、リアルタイム性の高い自律センサ情報11を用いて、自律航法によりリアルタイム直前まで処理する。
データ処理装置100aにおいて、実施の形態1で説明した構成と同様の構成についてはその説明を省略する。
Embodiment 2. FIG.
*** Explanation of configuration ***
In the present embodiment, differences from the first embodiment will be mainly described.
FIG. 7 is a diagram showing a configuration of the data processing apparatus 100a according to the present embodiment.
In the first embodiment, since the data processing is performed after the sensor information with the lowest real-time property is available, the real-time property of the time tag of the
In the present embodiment, a data processing apparatus 100a capable of interpolating a delay caused by processing after waiting for sensor information having a slow real-time property to be used will be described. The data processing device 100a performs processing up to immediately before real time by autonomous navigation using the
In the data processing device 100a, the description of the same configuration as that described in
図7に示すように、データ処理装置100aは、実施の形態1で説明したデータ処理装置100の構成に加えて、補間部160を備える。すなわち、実施の形態1で説明した「部」の機能には、補間部160の機能が加わる。その他の構成については、実施の形態1と同様である。
As illustrated in FIG. 7, the data processing device 100 a includes an
***動作の説明***
図8は、本実施の形態に係るデータ処理装置100aによるデータ処理S100aを示すフロー図である。
図8に示すように、データ処理S100aは、実施の形態1で説明したデータ処理S100に加えて、補間処理S140を備える。
補間処理S140において、補間部160は、最新の処理完了時刻と現在時刻との差が最も小さいセンサ情報である自律センサ情報11を用いて、ターゲット時刻Ttより後の移動体情報131を自律航法により算出する。
*** Explanation of operation ***
FIG. 8 is a flowchart showing data processing S100a performed by the data processing apparatus 100a according to the present embodiment.
As shown in FIG. 8, the data processing S100a includes an interpolation processing S140 in addition to the data processing S100 described in the first embodiment.
In the interpolation process S140, the
図9は、本実施の形態に係る補間処理S140を示すフロー図である。
図10は、本実施の形態に係る補間処理S140を示す模式図である。
ステップS141において、補間部160は、ターゲット時刻Ttから後の移動体情報131を、自律センサ情報11を用いて自律航法により算出する。
図10に示すように、自律センサ情報11はターゲット時刻Ttから後の時刻Tsまでしか利用可能となっていない。そこで、図10の実線の曲線矢印に示すように、ターゲット時刻Ttから時刻Tsまで、移動体情報131を自律航法で算出する。このように、ターゲット時刻Ttから後の移動体情報131を自律航法により算出する場合でも、自律センサデータが利用可能となった時刻Tsまでしか算出できない可能性がある。
その場合、補間部160は、移動体情報131の自律航法による算出が完了した時刻Tsから現在時刻Trまでの移動体情報131を外挿法により算出する。
FIG. 9 is a flowchart showing the interpolation processing S140 according to the present embodiment.
FIG. 10 is a schematic diagram showing the interpolation processing S140 according to the present embodiment.
In step S <b> 141, the
As shown in FIG. 10, the
In this case, the
ステップS142において、補間部160は、移動体情報131を現在時刻Trまで算出したか否かを判定する。現在時刻Trまで算出したと判定した場合、処理を終了する。
現在時刻Trまで算出されていないと判定した場合、ステップS143に進む。
In step S142, the
If it is determined that the current time Tr has not been calculated, the process proceeds to step S143.
ステップS143において、補間部160は、移動体情報131の算出が完了した時刻Tsから現在時刻Trまでの移動体情報131を外挿法により算出する。具体的には、補間部160は、積分により時刻Tsから現在時刻Trまでの位置及び姿勢の予測値を算出する。なお、図10に示すように、補間部160は、外挿法を用いて、現在時刻Trより未来の時刻まで、移動体情報を予測しても構わない。
In step S143, the
***本実施の形態の効果の説明***
本実施の形態に係るデータ処理装置100aでは、リアルタイム性の遅い補強センサデータが利用可能となることを待って処理することにより発生した遅れを、リアルタイム性の高い自律センサデータを用いて、自律航法によりリアルタイム直前まで処理する。さらに、自律センサデータもまだ利用可能ではないリアルタイム、すなわちデータ出力時刻のデータ処理については外挿計算を実施することで補う。よって、本実施の形態に係るデータ処理装置100aでは、処理結果である移動体情報のリアルタイム性をより高めることができる。
*** Explanation of effects of this embodiment ***
In data processing apparatus 100a according to the present embodiment, autonomous navigation is performed by using autonomous sensor data with high real-time characteristics for delays caused by processing after waiting for the availability of reinforcement sensor data with slow real-time characteristics. Is processed until just before real time. Further, the real-time processing in which the autonomous sensor data is not yet available, that is, the data processing at the data output time is supplemented by performing extrapolation calculation. Therefore, in the data processing device 100a according to the present embodiment, the real-time property of the moving body information that is the processing result can be further improved.
実施の形態3.
***構成の説明***
本実施の形態では、主に、実施の形態1,2との差異について説明する。
図11は、本実施の形態に係るデータ処理装置100bの構成を示す図である。
実施の形態1,2では、補強センサを追加する場合、その都度、追加する補強センサに応じたセンサデータ処理部を付け加える改修をする必要がある。この場合、GPSを使用できない地下において、磁気マーカーのような補強センサを使用するといった補強センサの最適選択をすることが難しい。また、新たに使用可能となった補強センサが出るたびに、対応するセンサデータ処理部を追加するためのプログラム改修が発生する。
本実施の形態では、補強センサからデータ処理装置への入力データの標準化を行い、プログラムの改修なしで簡単に新たな補強センサを追加することができる構成を有するデータ処理装置100bについて説明する。
データ処理装置100bにおいて、実施の形態1,2で説明した構成と同様の構成についてはその説明を省略する。
Embodiment 3 FIG.
*** Explanation of configuration ***
In the present embodiment, differences from the first and second embodiments will be mainly described.
FIG. 11 is a diagram showing a configuration of the data processing apparatus 100b according to the present embodiment.
In the first and second embodiments, when a reinforcement sensor is added, it is necessary to add a sensor data processing unit corresponding to the reinforcement sensor to be added each time. In this case, it is difficult to optimally select a reinforcement sensor such as using a reinforcement sensor such as a magnetic marker in the underground where GPS cannot be used. Further, every time a reinforcing sensor that can be newly used comes out, a program modification for adding a corresponding sensor data processing unit occurs.
In the present embodiment, a data processing apparatus 100b having a configuration in which input data from a reinforcement sensor to a data processing apparatus is standardized and a new reinforcement sensor can be easily added without modifying the program will be described.
In the data processing apparatus 100b, the description of the same configuration as that described in the first and second embodiments is omitted.
図11は実施の形態2で説明した図7に対応する。図11に示すように、データ処理装置100bにおいて、実施の形態2で説明したデータ処理装置100aと異なる点はセンサデータ処理部140bである。本実施の形態に係るセンサデータ処理部140bは、実施の形態2で説明した各センサデータに対応するセンサデータ処理部、すなわち、自律センサデータ処理部141、補強センサデータA処理部142、補強センサデータB処理部143を備えていない。本実施の形態に係るセンサデータ処理部140bは、標準処理部146を備える。
すなわち、実施の形態2で説明した「部」の機能には、自律センサデータ処理部141、補強センサデータA処理部142、補強センサデータB処理部143に替わり、標準処理部146の機能が加わる。その他の構成については、実施の形態2と同様である。
FIG. 11 corresponds to FIG. 7 described in the second embodiment. As shown in FIG. 11, the data processing device 100b is different from the data processing device 100a described in the second embodiment in a sensor data processing unit 140b. The sensor data processing unit 140b according to the present embodiment is a sensor data processing unit corresponding to each sensor data described in the second embodiment, that is, an autonomous sensor
That is, the function of “standard” described in Embodiment 2 is added to the function of the
***動作の説明***
本実施の形態では、複数のセンサ200の各センサは、移動体情報131の算出に用いられるフォーマット情報300を含むセンサデータを出力するものとする。すなわち、自律センサデータ311b、補強センサデータA312b、補強センサデータB313bには、各々フォーマット情報300が含まれる。
*** Explanation of operation ***
In the present embodiment, each sensor of the plurality of
図12は、本実施の形態に係るフォーマット情報300の一例を示す図である。
上述したように、追加が想定される補強センサには、インフラを必要とするものも少なくなく、今後新たな補強センサのシステムが構築されることも考えられる。そこで、フォーマット情報300は、データ処理装置100bが補強センサデータを使用するうえで必要となる情報がすべて含まれるように、補強センサからデータ処理装置100bに入力されるデータを標準化したものである。
必要となる情報の一例は、時刻、観測データ、観測誤差、観測方程式、観測物パラメータである。時刻は観測データをセンシングした時刻、観測データはセンシングデータである。また、観測誤差はセンシングデータの誤差分散である。観測方程式はデータ処理装置、すなわち位置姿勢認識装置の状態量と観測データとの関係式である。観測物パラメータは、データ処理装置が観測値を予測するのに必要となる、被センシング物のパラメータである。観測物パラメータの具体例としては、被センシング物の位置情報等がある。
FIG. 12 is a diagram showing an example of the format information 300 according to the present embodiment.
As described above, there are not a few reinforcement sensors that are expected to be added, but infrastructure may be required, and a new reinforcement sensor system may be constructed in the future. Therefore, the format information 300 standardizes data input from the reinforcement sensor to the data processing apparatus 100b so that all information necessary for the data processing apparatus 100b to use the reinforcement sensor data is included.
Examples of necessary information are time, observation data, observation error, observation equation, and observation object parameter. The time is the time when the observation data is sensed, and the observation data is the sensing data. The observation error is the error variance of the sensing data. The observation equation is a relational expression between the state quantity of the data processing device, that is, the position and orientation recognition device, and the observation data. The observation object parameter is a parameter of the object to be sensed that is necessary for the data processing apparatus to predict the observation value. Specific examples of the observation object parameter include position information of the object to be sensed.
記憶処理S110において、標準処理部146は、各センサデータにフォーマット情報300が含まれる複数のセンサデータ310bを取得する。標準処理部146は、複数のセンサデータ310bの各センサデータに含まれるフォーマット情報300を各センサ情報として複数のセンサ情報320を記憶部150に記憶させる。
その他の処理は、実施の形態1,2で説明したものと同様である。
In the storage process S110, the
Other processes are the same as those described in the first and second embodiments.
***本実施の形態の効果の説明***
位置姿勢標定装置であるデータ処理装置は、慣性装置のような自律センサデータによる自律航法をベースとしているため、これだけではセンサ誤差により精度が劣化する。そこで、位置姿勢の絶対的な観測情報を持つ補強センサのデータを使用することで、劣化した精度を補正する必要がある。上述の通り、補強センサデータのリアルタイム性はセンサ毎まちまちであるが、本実施の形態に係るデータ処理装置によれば、補強センサを増やしても処理が煩雑となることがないため、多くの補強センサを複合利用することで、位置姿勢標定装置の処理のロバスト性を向上することができる。
*** Explanation of effects of this embodiment ***
Since the data processing device, which is a position and orientation determination device, is based on autonomous navigation based on autonomous sensor data such as an inertial device, the accuracy deteriorates due to a sensor error. Therefore, it is necessary to correct the deteriorated accuracy by using the data of the reinforcement sensor having the absolute observation information of the position and orientation. As described above, the real-time property of the reinforcement sensor data varies from sensor to sensor. However, according to the data processing device according to the present embodiment, the processing does not become complicated even if the number of reinforcement sensors is increased. By using the sensor in combination, the robustness of the processing of the position / orientation locator can be improved.
図13は、本実施の形態の効果を示す模式図である。図13に示すように、レーザー、カメラ、磁気マーカー、RFID(Radio・Frequency・Identification)といった補強センサに加え、新たにセンサ1、センサ2、・・・、センサ5等を加える場合でも、プログラムを改修することなく追加することができる。
本実施の形態に係るデータ処理装置は、入力された補強センサデータを時刻順に並べ替えた後にバッファリングする。そして、データ処理装置は、ターゲット時刻前後に補強センサデータがある場合、同じくバッファリングされている観測方程式やパラメータをコールして、自律航法を観測更新して精度維持ができるようにする。これにより、用途や使用場所に応じた複数補強センサを選択することができると共に、データ処理装置に接続するだけで、ロバスト性の高い移動体情報、すなわち位置姿勢標定結果を容易に得ることが可能となる。また、通常は後処理にて開発・評価を実施する位置姿勢標定プログラムを、インタフェースを変更するだけで簡単にリアルタイム処理化することが可能であり、リアルタイム実装後の確認も後処理との比較により容易に確認することができる。
FIG. 13 is a schematic diagram showing the effect of the present embodiment. As shown in FIG. 13, in addition to reinforcing sensors such as a laser, a camera, a magnetic marker, and RFID (Radio Frequency Frequency Identification), a program can be added even when a
The data processing apparatus according to the present embodiment buffers the input reinforcement sensor data after rearranging the data in order of time. Then, when there is reinforcing sensor data before and after the target time, the data processing device calls the observation equations and parameters that are also buffered, and observes and updates the autonomous navigation so that the accuracy can be maintained. This makes it possible to select a plurality of reinforcing sensors according to the application and use location, and it is possible to easily obtain highly robust moving body information, that is, a position / orientation determination result simply by connecting to a data processing device. It becomes. In addition, it is possible to easily convert a position / orientation positioning program, which is usually developed and evaluated by post-processing, into a real-time process simply by changing the interface. It can be easily confirmed.
上記の実施の形態では、「部」の各々が独立した機能ブロックとしてデータ処理装置を構成している。しかし、上記のような構成でなくてもよく、データ処理装置の構成は任意である。データ処理装置の機能ブロックは、上記の実施の形態で説明した機能を実現することができれば、任意である。これらの機能ブロックを、他のどのような組み合わせ、あるいは任意のブロック構成で、データ処理装置を構成しても構わない。
また、データ処理装置は、1つの装置でなく、複数の装置から構成されたシステムでもよい。
In the above-described embodiment, each “unit” constitutes the data processing device as an independent functional block. However, the configuration may not be as described above, and the configuration of the data processing apparatus is arbitrary. The functional blocks of the data processing apparatus are arbitrary as long as the functions described in the above embodiments can be realized. These functional blocks may be configured in any other combination or arbitrary block configuration to form a data processing apparatus.
Further, the data processing device may be a system constituted by a plurality of devices instead of a single device.
また、データ処理装置は、移動体に搭載され、計測しながらリアルタイムあるいは準リアルタイムに移動体情報を確認することができるものである。しかし、移動体に搭載されていなくてもよい。また、データ処理装置を、移動体と通信装置を介して接続された遠隔地のセンターに搭載し、リアルタイムあるいは準リアルタイムに移動体情報を算出する構成でもよい。 The data processing apparatus is mounted on a moving body and can check moving body information in real time or near real time while measuring. However, it may not be mounted on the moving body. Alternatively, the data processing device may be mounted in a remote center connected to the mobile body via the communication device, and the mobile body information may be calculated in real time or near real time.
実施の形態1から3について説明したが、これらの実施の形態のうち、複数の部分を組み合わせて実施しても構わない。あるいは、これらの実施の形態のうち、1つの部分を実施しても構わない。その他、これらの実施の形態を、全体としてあるいは部分的に、どのように組み合わせて実施しても構わない。
なお、上記の実施の形態は、本質的に好ましい例示であって、本発明、その適用物及び用途の範囲を制限することを意図するものではなく、必要に応じて種々の変更が可能である。
Although
In addition, said embodiment is an essentially preferable illustration, Comprising: It does not intend restrict | limiting the range of this invention, its application thing, and a use, A various change is possible as needed. .
11 自律センサ情報、12 補強センサA情報、13 補強センサB情報、100,100a,100b データ処理装置、120 時刻設定部、121,Tt ターゲット時刻、130 算出部、131 移動体情報、140,140b センサデータ処理部、141 自律センサデータ処理部、142 補強センサデータA処理部、143 補強センサデータB処理部、146 標準処理部、150 記憶部、160 補間部、200 複数のセンサ、201 自律センサ、202 補強センサA、203 補強センサB、300 フォーマット情報、310,310b センサデータ、311,311b 自律センサデータ、312,312b 補強センサデータA、313,313b 補強センサデータB、320 複数のセンサ情報、321 自律センサ情報、322 補強センサA情報、323 補強センサB情報、510 データ処理方法、520 データ処理プログラム、909 処理回路、910 プロセッサ、920 記憶装置、921 メモリ、922 補助記憶装置、930 入力インタフェース、940 出力インタフェース、S100,S100a データ処理、S110 記憶処理、S120 時刻設定処理、S130 算出処理、S140 補間処理、Tr 現在時刻。
DESCRIPTION OF
Claims (6)
前記複数のセンサデータが前記移動体情報の算出に用いられる情報に処理された複数のセンサ情報であって、前記複数のセンサデータの各センサデータの処理が完了した処理完了時刻が各センサ情報に付与された複数のセンサ情報を記憶する記憶部と、
前記複数のセンサ情報のうち、最新の処理完了時刻と現在時刻との差が最も大きいセンサ情報の処理完了時刻に基づいて、前記移動体情報を算出する対象の時刻であるターゲット時刻を設定する時刻設定部と、
前記ターゲット時刻の以前で、かつ、前記ターゲット時刻に最も近い処理完了時刻が付与された前記複数のセンサ情報の各センサ情報を用いて、前記移動体情報を算出する算出部と
を備えたデータ処理装置。 In a data processing device that calculates the state of the moving body as moving body information based on a plurality of sensor data acquired by a plurality of sensors mounted on the moving body,
The plurality of sensor data is a plurality of sensor information processed into information used for calculation of the moving body information, and the processing completion time when the processing of each sensor data of the plurality of sensor data is completed is the sensor information. A storage unit for storing the given sensor information;
A time for setting a target time, which is a target time for calculating the mobile body information, based on a process completion time of sensor information having the largest difference between the latest process completion time and the current time among the plurality of sensor information. A setting section;
Data processing comprising: a calculation unit that calculates the moving body information using each sensor information of the plurality of sensor information to which the processing completion time closest to the target time is given before the target time apparatus.
最新の処理完了時刻と現在時刻との差が最も小さいセンサ情報である自律センサ情報を用いて、前記ターゲット時刻より後の前記移動体情報を算出する補間部を備えた請求項1に記載のデータ処理装置。 The data processing device further includes:
The data according to claim 1, further comprising an interpolation unit that calculates the moving body information after the target time using autonomous sensor information that is sensor information having a smallest difference between the latest processing completion time and the current time. Processing equipment.
前記移動体情報の算出が完了した時刻から現在時刻までの前記移動体情報を外挿法により算出する請求項2に記載のデータ処理装置。 The interpolation unit
The data processing apparatus according to claim 2, wherein the moving body information from the time when the calculation of the moving body information is completed to the current time is calculated by an extrapolation method.
前記移動体情報の算出に用いられるフォーマット情報を各センサデータが含む前記複数のセンサデータを取得し、前記複数のセンサデータの各センサデータに含まれる前記フォーマット情報を各センサ情報として前記複数のセンサ情報を前記記憶部に記憶させる標準処理部を備えた請求項1から3のいずれか1項に記載のデータ処理装置。 The data processing device further includes:
The plurality of sensor data including each piece of sensor data including format information used for calculating the mobile body information, and the plurality of sensors using the format information included in each sensor data of the plurality of sensor data as sensor information. The data processing apparatus according to claim 1, further comprising a standard processing unit that stores information in the storage unit.
記憶部が、前記複数のセンサデータが前記移動体情報の算出に用いられる情報に処理された複数のセンサ情報であって、前記複数のセンサデータの各センサデータの処理が完了した処理完了時刻が各センサ情報に付与された複数のセンサ情報を記憶し、
時刻設定部が、前記複数のセンサ情報のうち、最新の処理完了時刻と現在時刻との差が最も大きいセンサ情報の処理完了時刻に基づいて、前記移動体情報を算出する対象の時刻であるターゲット時刻を設定し、
算出部が、前記ターゲット時刻の直前の処理完了時刻が付与された前記複数のセンサ情報の各センサ情報を用いて、前記移動体情報を算出するデータ処理方法。 In a data processing method of a data processing device for calculating a state of the moving body as moving body information based on a plurality of sensor data acquired by a plurality of sensors mounted on the moving body,
The storage unit is a plurality of pieces of sensor information in which the plurality of sensor data is processed into information used for calculating the mobile body information, and a processing completion time when processing of each sensor data of the plurality of sensor data is completed A plurality of sensor information assigned to each sensor information is stored,
A target that is a time for which the mobile object information is calculated based on the processing completion time of the sensor information having the largest difference between the latest processing completion time and the current time among the plurality of sensor information. Set the time,
A data processing method in which the calculation unit calculates the mobile body information using each sensor information of the plurality of sensor information to which a process completion time immediately before the target time is given.
前記複数のセンサデータが前記移動体情報の算出に用いられる情報に処理された複数のセンサ情報であって、前記複数のセンサデータの各センサデータの処理が完了した処理完了時刻が各センサ情報に付与された複数のセンサ情報を記憶する記憶処理と、
前記複数のセンサ情報のうち、最新の処理完了時刻と現在時刻との差が最も大きいセンサ情報の処理完了時刻に基づいて、前記移動体情報を算出する対象の時刻であるターゲット時刻を設定する時刻設定処理と、
前記ターゲット時刻の直前の処理完了時刻が付与された前記複数のセンサ情報の各センサ情報を用いて、前記移動体情報を算出する算出処理とをコンピュータに実行させるデータ処理プログラム。 In a data processing program of a data processing device that calculates the state of the moving body as moving body information based on a plurality of sensor data acquired by a plurality of sensors mounted on the moving body,
The plurality of sensor data is a plurality of sensor information processed into information used for calculation of the moving body information, and the processing completion time when the processing of each sensor data of the plurality of sensor data is completed is the sensor information. A storage process for storing the given sensor information;
A time for setting a target time, which is a target time for calculating the mobile body information, based on a process completion time of sensor information having the largest difference between the latest process completion time and the current time among the plurality of sensor information. Configuration process,
A data processing program for causing a computer to execute a calculation process of calculating the moving body information using each sensor information of the plurality of sensor information to which a process completion time immediately before the target time is given.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016008472A JP6448564B2 (en) | 2016-01-20 | 2016-01-20 | Data processing apparatus, data processing method, and data processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016008472A JP6448564B2 (en) | 2016-01-20 | 2016-01-20 | Data processing apparatus, data processing method, and data processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017129438A true JP2017129438A (en) | 2017-07-27 |
JP6448564B2 JP6448564B2 (en) | 2019-01-09 |
Family
ID=59396159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016008472A Active JP6448564B2 (en) | 2016-01-20 | 2016-01-20 | Data processing apparatus, data processing method, and data processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6448564B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001324560A (en) * | 2000-05-16 | 2001-11-22 | Sony Corp | Navigation device and gps receiver |
JP2012177564A (en) * | 2011-02-25 | 2012-09-13 | Seiko Epson Corp | Mobile body positioning method, and mobile body positioning device |
JP2013533961A (en) * | 2010-06-02 | 2013-08-29 | クアルコム,インコーポレイテッド | Positioning using measurements from past and current epochs |
WO2015146048A1 (en) * | 2014-03-25 | 2015-10-01 | セイコーエプソン株式会社 | Error estimation method, motion analysis method, error estimation device, and program |
-
2016
- 2016-01-20 JP JP2016008472A patent/JP6448564B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001324560A (en) * | 2000-05-16 | 2001-11-22 | Sony Corp | Navigation device and gps receiver |
JP2013533961A (en) * | 2010-06-02 | 2013-08-29 | クアルコム,インコーポレイテッド | Positioning using measurements from past and current epochs |
JP2012177564A (en) * | 2011-02-25 | 2012-09-13 | Seiko Epson Corp | Mobile body positioning method, and mobile body positioning device |
WO2015146048A1 (en) * | 2014-03-25 | 2015-10-01 | セイコーエプソン株式会社 | Error estimation method, motion analysis method, error estimation device, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6448564B2 (en) | 2019-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10049567B2 (en) | Traffic flow rate calculation method and device | |
CN109871019B (en) | Method and device for acquiring coordinates by automatic driving | |
JP6305663B2 (en) | Information processing apparatus, information processing method, and information processing program | |
CN111625764B (en) | Mobile data calibration method, device, electronic equipment and storage medium | |
CN112884837B (en) | Road positioning method, device, equipment and storage medium | |
US9778047B2 (en) | Methods and apparatus for route comparison | |
KR101303417B1 (en) | Information processing device, information processing method, and storage medium | |
US9470535B2 (en) | Center device, program, map information transmission method, and navigation device | |
JP6448564B2 (en) | Data processing apparatus, data processing method, and data processing program | |
CN109729488B (en) | Information management apparatus and non-transitory computer-readable recording medium recording program | |
JP7371609B2 (en) | Information processing device, information processing method, information processing program, and information processing system | |
US8933993B1 (en) | Hybrid local and cloud based method for pose determination of a mobile device | |
JP6324408B2 (en) | Distance coefficient learning apparatus, distance coefficient learning method, and current position calculation apparatus | |
US11391808B2 (en) | Method for direction finding of at least one stationary and/or moving transmitter as well as system for direction finding | |
JP2008008691A (en) | Tracking processing apparatus, and method and program therefor | |
JP6735696B2 (en) | Composite positioning device, composite positioning method, and composite positioning program | |
CN110084298B (en) | Method and device for detecting image similarity | |
CN114088093A (en) | Point cloud map construction method, device and system and storage medium | |
CN112597174A (en) | Map updating method and device, electronic equipment and computer readable medium | |
WO2018139093A1 (en) | Travel history conversion method, information processing device and information system | |
CN114158119B (en) | Driving direction identification method and device, electronic equipment and medium | |
JP2020135595A (en) | Graph structure estimation device, slam device, graph structure estimation method, computer program and storage medium | |
CN114088085B (en) | Position determining method and device for robot, electronic equipment and storage medium | |
JPWO2020044907A1 (en) | Update area determination method, information processing device, and program | |
CN111325712B (en) | Method and device for detecting image validity |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180110 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181031 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181204 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6448564 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |