JP2022510418A - Time synchronization processing method, electronic devices and storage media - Google Patents

Time synchronization processing method, electronic devices and storage media Download PDF

Info

Publication number
JP2022510418A
JP2022510418A JP2021531851A JP2021531851A JP2022510418A JP 2022510418 A JP2022510418 A JP 2022510418A JP 2021531851 A JP2021531851 A JP 2021531851A JP 2021531851 A JP2021531851 A JP 2021531851A JP 2022510418 A JP2022510418 A JP 2022510418A
Authority
JP
Japan
Prior art keywords
angular velocity
different sensors
information
velocity information
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021531851A
Other languages
Japanese (ja)
Inventor
シアオフォン ワン
ユーチエン リウ
グオフォン ジャン
Original Assignee
シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド filed Critical シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド
Publication of JP2022510418A publication Critical patent/JP2022510418A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • G01C25/005Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass initial alignment, calibration or starting-up of inertial devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data

Abstract

時間同期処理方法であって、前記方法は、2つの異なるセンサにより収集された角速度情報をそれぞれ得ること(S101)であって、角速度情報は、電子機器が回転運動を行う時の角速度情報であり、2つの異なるセンサはいずれも、電子機器に設けられ、且つ固定に接続される、こと(S101)と、得られた2つの角速度情報に対してアライメント処理を行い、2つの異なるセンサ間の遅延時間情報を決定すること(S102)と、遅延時間情報に基づいて、2つの異なるセンサのそれぞれの測定結果に対して時間同期処理を行うこと(S103)と、を含む。時間同期処理装置、電子機器及びコンピュータ可読記憶媒体を更に開示する。It is a time synchronization processing method, and the method is to obtain angular velocity information collected by two different sensors, respectively (S101), and the angular velocity information is angular velocity information when an electronic device performs a rotational motion. Both of the two different sensors are provided in the electronic device and are fixedly connected (S101), and the two different angular velocity information obtained are aligned and the delay between the two different sensors is performed. It includes determining the time information (S102) and performing time synchronization processing on the measurement results of the two different sensors based on the delay time information (S103). Further discloses time synchronization processing devices, electronic devices and computer readable storage media.

Description

(関連出願の相互参照)
本願は、2019年6月21日に提出された、出願番号が201910545218.8である中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
(Mutual reference of related applications)
This application claims priority based on the Chinese patent application filed June 21, 2019, with application number 201910545218.8, the entire contents of which Chinese patent application is incorporated herein by reference.

本願は、コンピュータビジョン分野に関し、具体的には時間同期処理方法、電子機器及び記憶媒体に関する。 The present application relates to the field of computer vision, and specifically to a time synchronization processing method, an electronic device and a storage medium.

視覚慣性オドメトリは、現在のコンピュータビジョン分野の焦点になっており、電子機器のナビゲーション及び娯楽に広く適用されている。その主な原理は、視覚と慣性センサをフュージョンすることで、動き過程において、カメラ自体の位置及び姿勢を推定し、正確な測位情報を得ることであり、これは、自律ナビゲーションに属する。 Visual inertia odometry has become the focus of today's computer vision field and is widely applied in the navigation and entertainment of electronic devices. The main principle is to estimate the position and orientation of the camera itself in the movement process by fusing the visual and inertial sensors to obtain accurate positioning information, which belongs to autonomous navigation.

異なるセンサに、異なるトリガ遅延及び伝送遅延が存在するため、電子機器は、異なるセンサの測定結果をフュージョンする時に、異なるセンサ間の遅延時間情報を決定する必要がある。現在、一般的には、三次元空間における動きにより、異なるセンサ間の遅延時間情報をキャリブレーションし、又は、異なるセンサ間の時間遅延を常数として処理を行う。しかしながら、電子機器の動き過程において、異なるセンサ間の遅延時間が変わるものであるため、時間同期精度が低いという課題がある。 Due to the different trigger and transmission delays present in different sensors, the electronic device needs to determine the delay time information between the different sensors when fusing the measurement results of the different sensors. Currently, in general, the delay time information between different sensors is calibrated by the movement in the three-dimensional space, or the time delay between different sensors is treated as a constant. However, since the delay time between different sensors changes in the movement process of the electronic device, there is a problem that the time synchronization accuracy is low.

本願の実施例は、時間同期処理方法、電子機器及び記憶媒体を提供することが望ましい。 It is desirable that the embodiments of the present application provide a time synchronization processing method, an electronic device and a storage medium.

第1態様によれば、本願の実施例は、時間同期処理方法を提供する。前記方法は、2つの異なるセンサにより収集された角速度情報をそれぞれ得ることであって、前記角速度情報は、電子機器が回転運動を行う時の角速度情報であり、前記2つの異なるセンサはいずれも、前記電子機器に設けられ、且つ固定に接続される、ことと、得られた2つの角速度情報に対してアライメント処理を行い、前記2つの異なるセンサ間の遅延時間情報を決定することと、前記遅延時間情報に基づいて、前記2つの異なるセンサのそれぞれの測定結果に対して時間同期処理を行うことと、を含む。 According to the first aspect, the embodiments of the present application provide a time synchronization processing method. The method is to obtain the angular velocity information collected by two different sensors, respectively. The angular velocity information is the angular velocity information when the electronic device performs a rotational motion, and the two different sensors both have the angular velocity information. It is provided in the electronic device and is fixedly connected, alignment processing is performed on the obtained two angular velocity information, and delay time information between the two different sensors is determined, and the delay is described. It includes performing time synchronization processing on the measurement results of each of the two different sensors based on the time information.

第2態様によれば、本願の実施例は、時間同期処理装置を提供する。前記装置は、第1取得モジュールと、アライメントモジュールと、同期モジュールと、を備え、前記第1取得モジュールは、2つの異なるセンサにより収集された角速度情報をそれぞれ得るように構成され、前記角速度情報は、電子機器が回転運動を行う時の角速度情報であり、前記2つの異なるセンサはいずれも、前記電子機器に設けられ、且つ固定に接続され、前記アライメントモジュールは、得られた2つの角速度情報に対してアライメント処理を行い、前記2つの異なるセンサ間の遅延時間情報を決定するように構成され、前記同期モジュールは、前記遅延時間情報に基づいて、前記2つの異なるセンサのそれぞれの測定結果に対して時間同期処理を行うように構成される。 According to the second aspect, the embodiment of the present application provides a time synchronization processing apparatus. The apparatus includes a first acquisition module, an alignment module, and a synchronization module, and the first acquisition module is configured to obtain angular velocity information collected by two different sensors, respectively. , Angular velocity information when the electronic device performs a rotational motion, both of the two different sensors are provided in the electronic device and are fixedly connected, and the alignment module is attached to the obtained two angular velocity information. It is configured to perform alignment processing on the object and determine the delay time information between the two different sensors, and the synchronization module is based on the delay time information with respect to the measurement result of each of the two different sensors. It is configured to perform time synchronization processing.

第3態様によれば、本願の実施例は、電子機器を提供する。前記電子機器は少なくとも、プロセッサと、プロセッサで実行可能なコンピュータプログラムを記憶するように構成されるメモリと、を備え、前記プロセッサは、前記コンピュータプログラムを実行する時、上記時間同期処理方法におけるステップを実行するように構成される。 According to the third aspect, the embodiment of the present application provides an electronic device. The electronic device comprises at least a processor and a memory configured to store a computer program that can be executed by the processor, and when the processor executes the computer program, the step in the time synchronization processing method is performed. Configured to run.

第4態様によれば、本願の実施例は、コンピュータ可読記憶媒体を提供する。前記コンピュータ可読記憶媒体にコンピュータプログラムが記憶されており、前記コンピュータプログラムがプロセッサにより実行される時、上記時間同期処理方法におけるステップを実現する。 According to a fourth aspect, the embodiments of the present application provide a computer-readable storage medium. When the computer program is stored in the computer-readable storage medium and the computer program is executed by the processor, the steps in the time synchronization processing method are realized.

本願の実施例は、時間同期処理方法、電子機器及び記憶媒体を提供する。電子機器に設けられて固定に接続される2つの異なるセンサにより、2つの異なるセンサにより収集された角速度情報をそれぞれ得て、得られた2つの角速度情報に対してアライメント処理を行い、異なる2つのセンサ間の遅延時間情報を決定し、更に遅延時間情報に基づいて、2つの異なるセンサのそれぞれの測定結果に対して時間同期処理を行う。これにより、固定に接続されることによって角速度情報が同じであるという原理を十分に利用して、異なるセンサの時間同期を実現する。 The embodiments of the present application provide time synchronization processing methods, electronic devices and storage media. Two different sensors provided in the electronic device and fixedly connected obtain angular velocity information collected by the two different sensors, perform alignment processing on the obtained two angular velocity information, and perform two different angular velocity information. The delay time information between the sensors is determined, and based on the delay time information, time synchronization processing is performed on the measurement results of the two different sensors. This makes full use of the principle that the angular velocity information is the same by being fixedly connected, and realizes time synchronization of different sensors.

本願の実施例による時間同期処理方法に適用されるシステム構造を示す第1概略図である。It is 1st schematic diagram which shows the system structure applied to the time synchronization processing method by an Example of this application. 本願の実施例による時間同期処理方法に適用されるシステムアーキテクチャを示す第2概略図である。2 is a second schematic diagram showing a system architecture applied to the time synchronization processing method according to the embodiment of the present application. 本願の実施例による時間同期処理方法に適用されるシステムアーキテクチャを示す第3概略図である。FIG. 3 is a third schematic diagram showing a system architecture applied to the time synchronization processing method according to the embodiment of the present application. 本願の実施例による時間同期処理方法の実現フローを示す第1概略図である。It is 1st schematic diagram which shows the realization flow of the time synchronization processing method by the Example of this application. 本願の実施例による例示的な視覚センサの角速度と慣性センサの角速度との間に時間遅延が存在する場合を示す概略図である。FIG. 3 is a schematic diagram showing a case where there is a time delay between the angular velocity of an exemplary visual sensor and the angular velocity of an inertial sensor according to an embodiment of the present application. 本願の実施例による例示的な視覚センサの角速度と慣性センサの角速度が同期されたことを示す概略図である。It is a schematic diagram which shows that the angular velocity of an exemplary visual sensor and the angular velocity of an inertial sensor are synchronized according to the embodiment of the present application. 本願の実施例による時間同期処理方法の実現フローを示す第2概略図である。It is a 2nd schematic diagram which shows the realization flow of the time synchronization processing method by the Example of this application. 本願の実施例による時間同期処理方法の実現フローを示す第3概略図である。It is a 3rd schematic diagram which shows the realization flow of the time synchronization processing method by the Example of this application. 本願の実施例による時間同期処理方法の実現フローを示す第4概略図である。It is a 4th schematic diagram which shows the realization flow of the time synchronization processing method by the Example of this application. 本願の実施例による四元数で、位置姿勢型センサにより測定された位置姿勢回転行列情報を表すことを示す第1概略図である。It is the first schematic diagram which shows that the position-posture rotation matrix information measured by the position-posture type sensor is represented by the quaternion according to the embodiment of the present application. 本願の実施例による四元数で、位置姿勢型センサにより測定された位置姿勢回転行列情報を表すことを示す第2概略図である。It is a 2nd schematic diagram which shows that the position-posture rotation matrix information measured by the position-posture type sensor is represented by the quaternion according to the embodiment of the present application. 本願の実施例による時間同期処理装置の構造を示す概略図である。It is a schematic diagram which shows the structure of the time synchronization processing apparatus according to the Example of this application. 本願の実施例による電子機器の構造を示す概略図である。It is a schematic diagram which shows the structure of the electronic device by the Example of this application.

本願の目的、技術的解決手段及び利点をより明確にするために、以下、本願の実施例における図面を参照しながら、本願の実施例における技術的解決手段を明瞭かつ完全に説明する。説明される実施例は、本願の実施例を限定するものと認められるべきではなく、当業者が創造的な労力なしに得られる他の実施例の全ては、本発明の保護範囲に含まれる。 In order to further clarify the object, technical solution and advantage of the present application, the technical solution in the embodiment of the present application will be clearly and completely described below with reference to the drawings in the embodiment of the present application. The embodiments described should not be acknowledged as limiting the embodiments of the present application, and all other embodiments obtained by those skilled in the art without creative effort are within the scope of the invention.

図1は、本願の実施例による時間同期処理方法に適用されるシステム構造を示す第1概略図である。図1に示すように、該システムは、プロセッサ11と、2つの異なるセンサ12と、メモリ13とを備えてもよい。2つの異なるセンサ12はそれぞれ取得した情報をプロセッサ11に送信して処理する。2つの異なるセンサ12のうちの1つのセンサは、角速度を直接測定するセンサであってもよく、もう1つのセンサは、角速度を間接的に測定するセンサであってもよい。角速度を間接的に測定するセンサは、センサ自体の回転運動を独立して推定できる(つまり、位置姿勢回転行列情報を取得する)センサである。2つの異なるセンサ12は、他の構造のセンサであってもよく、本願の実施例は、2つの異なるセンサの構造を限定しない。 FIG. 1 is a first schematic diagram showing a system structure applied to the time synchronization processing method according to the embodiment of the present application. As shown in FIG. 1, the system may include a processor 11, two different sensors 12, and a memory 13. The two different sensors 12 transmit the acquired information to the processor 11 for processing. One of the two different sensors 12 may be a sensor that directly measures the angular velocity, and the other sensor may be a sensor that indirectly measures the angular velocity. The sensor that indirectly measures the angular velocity is a sensor that can independently estimate the rotational motion of the sensor itself (that is, acquire position-attitude rotation matrix information). The two different sensors 12 may be sensors of other structures, and the embodiments of the present application do not limit the structure of the two different sensors.

ここで、2つの異なるセンサ12のうちの2つのセンサは、剛性的に固定される。つまり、電子機器の2つの異なるセンサ12間は、相対的に固定される。動き過程において、異なるセンサが同一の時刻で測定した角速度は同じである。2つの異なるセンサ12はそれぞれ、取得した情報をプロセッサ11に入力する。プロセッサ11は、本願の実施例で提供される方法を実行することで、時間同期処理を行う。 Here, two of the two different sensors 12 are rigidly fixed. That is, the two different sensors 12 of the electronic device are relatively fixed. In the process of movement, the angular velocities measured by different sensors at the same time are the same. Each of the two different sensors 12 inputs the acquired information to the processor 11. The processor 11 performs the time synchronization process by executing the method provided in the embodiment of the present application.

幾つかの実施例において、電子機器は、時間同期処理装置及び2つの異なるセンサ12を備えてもよい。時間同期処理装置は、上記プロセッサ11及びメモリ13を備えてもよい。電子機器に上記2つの異なるセンサ12を設けることで、2つの異なるセンサにより収集された角速度情報をそれぞれ得る。2つの異なるセンサ12はそれぞれ、得られた情報をプロセッサ11に入力する。プロセッサ11は、本願の実施例で提供される方法を実行することで、時間同期処理を行う。 In some embodiments, the electronic device may include a time synchronization processor and two different sensors 12. The time synchronization processing device may include the processor 11 and the memory 13. By providing the above two different sensors 12 in the electronic device, the angular velocity information collected by the two different sensors can be obtained respectively. Each of the two different sensors 12 inputs the obtained information to the processor 11. The processor 11 performs the time synchronization process by executing the method provided in the embodiment of the present application.

また幾つかの実施例において、該時間同期処理方法のシステムアーキテクチャは、図2A及び2Bに示す通りであってもよい。該システムは、時間同期処理装置20、第1センサ22a及び第2センサ22bを備える。第1センサ22a及び第2センサ22bは、例えば、車両の電子機器に設けられる。時間同期処理装置20は、車両内の車載機器であってもよい。第1センサ22a及び第2センサ22bは、電気的接続又は無線通信接続により、取得された情報を時間同期処理装置20に送信することができる。時間同期処理装置20は、プロセッサと、メモリと、を備え、第1センサ22a及び第2センサ22bは、得られた情報を時間同期処理装置20に送信し、プロセッサより処理を行い、本願の実施例で提供される時間同期処理方法を実現することが理解されるべきである。 Further, in some embodiments, the system architecture of the time synchronization processing method may be as shown in FIGS. 2A and 2B. The system includes a time synchronization processing device 20, a first sensor 22a and a second sensor 22b. The first sensor 22a and the second sensor 22b are provided in, for example, an electronic device of a vehicle. The time synchronization processing device 20 may be an in-vehicle device in the vehicle. The first sensor 22a and the second sensor 22b can transmit the acquired information to the time synchronization processing device 20 by an electrical connection or a wireless communication connection. The time synchronization processing device 20 includes a processor and a memory, and the first sensor 22a and the second sensor 22b transmit the obtained information to the time synchronization processing device 20 and perform processing from the processor, and carry out the present application. It should be understood to implement the time synchronization processing method provided in the example.

図2A及び図2Bに示すように、第1センサ22a及び第2センサ22bは、車両における異なる位置に設けられてもよく、車両における同一の位置に設けられてもよい。例えば、図2Bに示すように、第1センサ22a及び第2センサ22bはいずれも車両のタイヤ部に設けられてもよい。また例えば、図2Aに示すように、第1センサ22aは、車両のタイヤ部に設けられ、第2センサ22bは車両の他の部位に設けられてもよい。例えば、車載装置部に設けられる。本願の実施例は、第1センサ22a及び第2センサ22bの配置位置を限定しない。 As shown in FIGS. 2A and 2B, the first sensor 22a and the second sensor 22b may be provided at different positions in the vehicle or may be provided at the same position in the vehicle. For example, as shown in FIG. 2B, both the first sensor 22a and the second sensor 22b may be provided on the tire portion of the vehicle. Further, for example, as shown in FIG. 2A, the first sensor 22a may be provided on the tire portion of the vehicle, and the second sensor 22b may be provided on another portion of the vehicle. For example, it is provided in an in-vehicle device unit. The embodiments of the present application do not limit the arrangement positions of the first sensor 22a and the second sensor 22b.

プロセッサが異なるセンサからの情報を処理する方式は異なる。例えば、センサが角速度を直接測定するセンサである場合、プロセッサは、得られた角速度情報を直接処理することができる。センサが角速度を間接的に測定するセンサである場合、プロセッサは、まず、位置姿勢回転行列情報を得て、位置姿勢回転行列情報に基づいて、角速度情報を取得してから、取得された角速度情報を処理する。 Different processors process information from different sensors in different ways. For example, if the sensor is a sensor that directly measures the angular velocity, the processor can directly process the obtained angular velocity information. When the sensor is a sensor that indirectly measures the angular velocity, the processor first obtains the position / orientation rotation matrix information, obtains the angular velocity information based on the position / orientation rotation matrix information, and then obtains the acquired angular velocity information. To process.

一般的には、時間同期処理装置は、実行過程において、情報処理能力を有する種々のタイプの電子機器に適用可能である。時間同期処理装置は、オンライン方式で、2つの異なるセンサにより収集されたデータをリアルタイムで取得し、本願の実施例の技術的解決手段により時間同期処理を行うことができる。時間同期処理装置は、オフライン方式で、2つの異なるセンサにより収集されたデータを取得し、本願の実施例の技術的解決手段により時間同期処理を行うこともできる。ここで、オフライン方式で2つの異なるセンサにより収集されたデータを取得することは、2つの異なるセンサにより収集されたデータを記憶し、必要に応じて、記憶されたデータを導出し、異なるセンサのそれぞれの測定結果に対して同期処理を行うことを含んでもよい。オンライン方式で2つの異なるセンサにより収集されたデータを取得することは、2つの異なるセンサにより収集されたデータをリアルタイムで取得し、異なるセンサのそれぞれの測定結果に対して同期処理を行うことを含んでもよい。 In general, the time synchronization processing device can be applied to various types of electronic devices having information processing capability in the execution process. The time synchronization processing apparatus can acquire data collected by two different sensors in real time in an online manner and perform time synchronization processing by the technical solution means of the embodiment of the present application. The time synchronization processing apparatus can also acquire data collected by two different sensors in an offline manner and perform time synchronization processing by the technical solution means of the embodiment of the present application. Here, to acquire the data collected by two different sensors in an offline method stores the data collected by the two different sensors, and if necessary, derives the stored data, and of the different sensors. It may include performing synchronous processing for each measurement result. Acquiring the data collected by two different sensors in an online manner involves acquiring the data collected by two different sensors in real time and performing synchronous processing on the measurement results of each of the different sensors. But it may be.

ここで、時間同期処理装置は、電子機器内に設けられてもよく、電子機器外に設けられてもよい。2つの異なるセンサは、電子機器内に設けられる。ここで、電子機器は例えば、移動ロボット機器、無人運転機器又は種々の携帯端末などの機器であってもよい。ここで、無人運転機器は、車両、飛行機又は艦艇を含んでもよいが、これらに限定されない。本願の実施例は、ここで限定しない。 Here, the time synchronization processing device may be provided inside the electronic device or may be provided outside the electronic device. Two different sensors are provided in the electronic device. Here, the electronic device may be, for example, a device such as a mobile robot device, an unmanned driving device, or various mobile terminals. Here, the unmanned driving equipment may include, but is not limited to, a vehicle, an airplane, or a ship. The embodiments of the present application are not limited here.

上記アーキテクチャによれば、本願の実施例は、異なるセンサ間の時間遅延のキャリブレーションの精度が低くて複雑であるという課題を解決できる時間同期処理方法を提供する。該時間同期処理方法により実現される機能は、時間同期処理装置におけるプロセッサにより実行可能な命令を呼び出すことで実現してもよい。勿論、実行可能な命令は、メモリの記憶媒体に記憶されてもよい。従って、該時間同期処理装置は少なくともプロセッサ及び記憶媒体を備える。 According to the above architecture, the embodiments of the present application provide a time synchronization processing method that can solve the problem that the calibration of the time delay between different sensors is inaccurate and complicated. The function realized by the time synchronization processing method may be realized by calling an instruction which can be executed by a processor in the time synchronization processing apparatus. Of course, the executable instruction may be stored in the storage medium of the memory. Therefore, the time synchronization processing device includes at least a processor and a storage medium.

図3は、本願の実施例による時間同期処理方法の実現フローを示す第1概略図である。該方法は時間同期処理装置に適用される。図3に示すように、前記時間同期処理方法は以下を含む。 FIG. 3 is a first schematic diagram showing a flow for realizing the time synchronization processing method according to the embodiment of the present application. The method is applied to a time synchronization processing device. As shown in FIG. 3, the time synchronization processing method includes the following.

S101において、2つの異なるセンサにより収集された角速度情報をそれぞれ得て、前記角速度情報は、電子機器が回転運動を行う時の角速度情報であり、前記2つの異なるセンサはいずれも、前記電子機器に設けられ、且つ固定に接続される。 In S101, the angular velocity information collected by two different sensors is obtained, and the angular velocity information is the angular velocity information when the electronic device performs a rotational motion, and both of the two different sensors are attached to the electronic device. Provided and fixedly connected.

本願の実施例において、2つの異なるセンサは、固定に接続される。つまり、2つの異なるセンサは、相対的に固定される。電子機器が回転運動を行う過程において、2つの異なるセンサが同一の時刻で取得した角速度情報で表される角速度は同じである。 In the embodiments of the present application, two different sensors are fixedly connected. That is, the two different sensors are relatively fixed. In the process of rotating the electronic device, the angular velocities represented by the angular velocity information acquired by two different sensors at the same time are the same.

本願の実施例における2つの異なるセンサは、構造が異なるセンサを含み、又は、構造が同じであるが配置位置が異なるセンサを含む。 The two different sensors in the embodiments of the present application include sensors having different structures, or sensors having the same structure but different placement positions.

例えば、2つの異なるセンサは、構造が異なるセンサである場合、前記2つの異なるセンサは、視覚センサ、慣性センサ、磁力センサ、レーザレーダーセンサ及びホイールセンサのうちのいずれか2つの構造を含んでもよく、本願の実施例は、ここで限定しない。 For example, if the two different sensors are sensors with different structures, the two different sensors may include any two structures of a visual sensor, an inertial sensor, a magnetic force sensor, a laser radar sensor and a wheel sensor. , The embodiment of the present application is not limited here.

また例えば、2つの異なるセンサは、構造が同じであって位置が異なるセンサである場合、前記2つの異なるセンサは、電子機器における異なる位置に配置される視覚センサ又は磁力センサなどであってもよく、本願の実施例は、ここで限定しない。 Further, for example, when the two different sensors are sensors having the same structure but different positions, the two different sensors may be visual sensors or magnetic sensors arranged at different positions in an electronic device. , The embodiments of the present application are not limited here.

本願の実施例において、前記角速度情報は、2つの異なるセンサによりそれぞれ取得された、所定の期間内で電子機器が回転運動を行う時の角速度情報であってもよい。つまり、電子機器が回転運動を行う時、一定の角度で回転し、更に、所定の期間内で、異なるセンサにより収集された角速度情報をそれぞれ取得することができる。 In the embodiment of the present application, the angular velocity information may be angular velocity information when the electronic device performs a rotational motion within a predetermined period acquired by two different sensors, respectively. That is, when the electronic device rotates, it rotates at a constant angle, and further, it is possible to acquire the angular velocity information collected by different sensors within a predetermined period.

上記所定の期間は、ユーザにより実際の状況に応じて設定されたものであってもよく、例えば、該所定の期間を半時間又は15分間などとしてもよく、本願の実施例は、これを限定しない。 The predetermined period may be set by the user according to an actual situation, and the predetermined period may be, for example, half an hour or 15 minutes, and the embodiments of the present application limit this. do not do.

上記2つの異なるセンサは、角速度情報を直接取得するという方式又は角速度情報を間接的に取得するという方式のような取得方式に応じて分類されることができる。例示的に、1つのタイプのセンサは、角速度情報を直接測定できるジャイロセンサであり、もう1つのタイプのセンサは、角速度情報を間接的に測定できる位置姿勢センサである。又は、上記2つの異なるセンサをセンサの構造に基づいて分類することもできる。例示的に、ジャイロセンサ及び位置姿勢センサは、構造が異なるセンサである。 The above two different sensors can be classified according to an acquisition method such as a method of directly acquiring angular velocity information or a method of indirectly acquiring angular velocity information. Illustratively, one type of sensor is a gyro sensor that can directly measure angular velocity information, and another type of sensor is a position and attitude sensor that can indirectly measure angular velocity information. Alternatively, the above two different sensors can be classified based on the sensor structure. Illustratively, a gyro sensor and a position / attitude sensor are sensors having different structures.

本願の実施例における幾つかの選択可能な実施例において、前記2つの異なるセンサのうちの少なくとも1つは、位置姿勢センサであり、2つの異なるセンサにより収集された角速度情報をそれぞれ得ることは、位置姿勢センサにより収集された位置姿勢回転行列情報を得ることと、位置姿勢回転行列情報により、電子機器が回転運動を行う時の角速度情報を決定することと、を含む。 In some selectable embodiments in the embodiments of the present application, at least one of the two different sensors is a position-orientation sensor, and obtaining angular velocity information collected by the two different sensors, respectively. It includes obtaining the position / attitude rotation matrix information collected by the position / attitude sensor and determining the angular velocity information when the electronic device performs a rotational motion based on the position / attitude rotation matrix information.

本願の実施例における幾つかの選択可能な実施例において、前記2つの異なるセンサのうちの少なくとも1つは、ジャイロセンサであり、2つの異なるセンサにより収集された角速度情報をそれぞれ得ることは、ジャイロセンサにより収集された角速度情報を得ることを含む。 In some selectable embodiments in the embodiments of the present application, at least one of the two different sensors is a gyro sensor, and obtaining angular velocity information collected by each of the two different sensors is a gyro. Includes obtaining angular velocity information collected by the sensor.

本願の実施例において、2つの異なるセンサにより、電子機器が回転運動を行う時の角速度情報を得ることは、下記複数の適用シーンを含む。 In the embodiment of the present application, obtaining angular velocity information when an electronic device performs a rotational motion by two different sensors includes the following plurality of application scenes.

シーン1において、2つの異なるセンサは、いずれもジャイロセンサであり、2つのジャイロセンサの配置位置は異なる。2つのジャイロセンサにより、電子機器が回転運動を行う時の角速度情報を直接収集する。 In scene 1, the two different sensors are both gyro sensors, and the positions of the two gyro sensors are different. Two gyro sensors directly collect angular velocity information when an electronic device makes a rotational motion.

シーン2において、2つの異なるセンサはいずれも位置姿勢センサであり、2つの位置姿勢センサの配置位置は異なる。2つの位置姿勢センサにより、電子機器が回転運動を行う時の位置姿勢回転行列情報をそれぞれ得て、更に、位置姿勢回転行列情報により、電子機器が回転運動を行う時の角速度情報をそれぞれ算出する。 In the scene 2, the two different sensors are both position / attitude sensors, and the positions of the two position / attitude sensors are different. The two position / orientation sensors obtain position / attitude rotation matrix information when the electronic device performs rotational movement, and the position / attitude rotation matrix information further calculates angular velocity information when the electronic device performs rotational movement. ..

シーン3において、2つの異なるセンサのうち、1つは、位置姿勢センサであり、もう1つは、ジャイロセンサである。位置姿勢センサにより、電子機器が回転運動を行う時の位置姿勢回転行列情報を得て、更に、位置姿勢回転行列情報により、電子機器が回転運動を行う時の角速度情報を算出することができる。一方で、ジャイロセンサにより、電子機器が回転運動を行う時の角速度情報を直接収集することができる。 In Scene 3, one of the two different sensors is the position-attitude sensor and the other is the gyro sensor. The position / attitude sensor can obtain the position / attitude rotation matrix information when the electronic device performs the rotational movement, and further, the position / attitude rotation matrix information can be used to calculate the angular velocity information when the electronic device performs the rotational movement. On the other hand, the gyro sensor can directly collect the angular velocity information when the electronic device performs a rotational motion.

例示的に、ジャイロセンサは、慣性センサ、磁力センサ及びホイールオドメトリーセンサのうちのいずれか1つのセンサを含み、位置姿勢センサは、視覚センサ及びレーザレーダーセンサのうちのいずれか1つのセンサを含む。 Illustratively, a gyro sensor includes any one of an inertial sensor, a magnetic force sensor and a wheel odometry sensor, and a position / orientation sensor includes any one of a visual sensor and a laser radar sensor. ..

S102において、得られた2つの角速度情報に対してアライメント処理を行い、2つの異なるセンサ間の遅延時間情報を決定する。 In S102, alignment processing is performed on the two obtained angular velocity information, and the delay time information between the two different sensors is determined.

本願の実施例において、異なるセンサのデータ取得頻度が異なるため、2つの角速度情報を得た後、2つの角速度情報に対してアライメント処理を行い、2つの異なるセンサ間の遅延時間情報を決定する必要がある。 In the embodiment of the present application, since the data acquisition frequencies of different sensors are different, it is necessary to obtain the two angular velocity information and then perform the alignment process on the two angular velocity information to determine the delay time information between the two different sensors. There is.

本願の実施例において、2つの角速度情報に対してアライメント処理を行うことは、2つの異なるセンサによりそれぞれ取得される角速度情報を頻度で一致させることを目的とする。これにより、アライメントした2つの角速度情報に基づいて、2つの異なるセンサ間の遅延時間情報を決定することができる。 In the embodiment of the present application, it is an object of performing the alignment process on the two angular velocity information to match the angular velocity information acquired by the two different sensors with frequency. This makes it possible to determine the delay time information between two different sensors based on the two aligned angular velocity information.

本願の実施例において、2つの角速度に対して補間処理を行うことで、2つの角速度情報をアライメントすることができる。 In the embodiment of the present application, the two angular velocity information can be aligned by performing the interpolation processing on the two angular velocities.

例示的に、補間処理は、線形補間、三次スプライン補間及び球面補間のうちのいずれか1つの補間処理方式を用いることができ、本願の実施例は、ここで限定しない。 Illustratively, the interpolation processing can use any one of linear interpolation, cubic spline interpolation, and spherical interpolation processing method, and the embodiment of the present application is not limited here.

S103において、遅延時間情報に基づいて、2つの異なるセンサのそれぞれの測定結果に対して時間同期処理を行う。 In S103, time synchronization processing is performed on the measurement results of the two different sensors based on the delay time information.

本願の実施例において、2つの異なるセンサ間の遅延時間情報を決定した後、遅延時間情報に基づいて、2つの異なるセンサのそれぞれの測定結果に対して時間同期処理を行うことができる。2つの異なるセンサのそれぞれの測定結果に対して時間同期処理を行うことは、同一の時刻での2つの異なるセンサのそれぞれの測定結果を決定することである。これにより、異なるセンサの間のトリガ遅延及び伝送遅延による時間同期精度が低いという課題を解決することができる。 In the embodiment of the present application, after the delay time information between the two different sensors is determined, the time synchronization processing can be performed on the measurement results of the two different sensors based on the delay time information. Performing time synchronization processing on the measurement results of the two different sensors is to determine the measurement results of the two different sensors at the same time. This solves the problem of low time synchronization accuracy due to trigger delay and transmission delay between different sensors.

本願の実施例において、2つの異なるセンサのそれぞれの測定結果は、電子機器が回転運動を行う時、該2つの異なるセンサがそれぞれ電子機器の回転運動を測定することで得られた測定結果である。 In the embodiment of the present application, the measurement result of each of the two different sensors is the measurement result obtained by measuring the rotational motion of the electronic device by the two different sensors when the electronic device performs the rotational motion. ..

例示的に、2つの異なるセンサによりそれぞれ得られた測定結果は、角速度情報、方向位置角度情報及び加速度情報のうちの少なくとも1つの情報を含んでもよい。例えば、慣性センサの測定結果は、電子機器が回転運動を行う時の角速度情報及び加速度情報を含んでもよく、磁力センサの測定結果は、電子機器が回転運動を行う時の方向位置角度情報を含んでもよい。 Illustratively, the measurement results obtained by each of the two different sensors may include at least one of angular velocity information, directional position angle information and acceleration information. For example, the measurement result of the inertial sensor may include the angular velocity information and the acceleration information when the electronic device performs a rotary motion, and the measurement result of the magnetic force sensor includes the direction position angle information when the electronic device performs a rotary motion. But it may be.

1つの実施例において、電子機器に少なくとも3つのセンサが設けられてもよく、該少なくとも3つのセンサは、固定に接続される。該少なくとも3つのセンサにより収集された角速度情報をそれぞれ得る。得られた3つの角速度情報に対してアライメント処理を行い、少なくとも3つのセンサ間の遅延時間情報を決定する。遅延時間情報に基づいて、少なくとも3つのセンサのそれぞれの測定結果に対して時間同期処理を行う。 In one embodiment, the electronic device may be provided with at least three sensors, the at least three sensors being fixedly connected. The angular velocity information collected by the at least three sensors is obtained respectively. Alignment processing is performed on the obtained three angular velocity information, and the delay time information between at least three sensors is determined. Based on the delay time information, time synchronization processing is performed on the measurement results of each of the at least three sensors.

電子機器に少なくとも3つのセンサが設けられる場合、少なくとも3つのセンサを2つずつ組み合わせ、任意の2つのセンサ間の遅延時間情報を取得し、更に、該遅延時間情報により、同一の時刻で対応する2つのセンサのそれぞれの測定結果に対して時間同期処理を行い、少なくとも3つのセンサの時間同期処理を実現する。 When at least three sensors are provided in an electronic device, at least two sensors are combined to acquire delay time information between any two sensors, and the delay time information is used to correspond at the same time. Time synchronization processing is performed on the measurement results of each of the two sensors, and time synchronization processing of at least three sensors is realized.

例示的に、電子機器に設けられる2つの異なるセンサがそれぞれ視覚センサ及び慣性センサである場合、取得された視覚センサと慣性センサとの間の遅延時間情報に基づいて、視覚センサの測定結果及び慣性センサの測定結果に対して時間同期処理を行い、視覚センサの測定結果と慣性センサの測定結果との時間同期を実現することができる。 Illustratively, when two different sensors provided in an electronic device are a visual sensor and an inertial sensor, respectively, the measurement result and inertia of the visual sensor are based on the acquired delay time information between the visual sensor and the inertial sensor. It is possible to perform time synchronization processing on the measurement result of the sensor and realize time synchronization between the measurement result of the visual sensor and the measurement result of the inertial sensor.

例示的に、電子機器に設けられる3つのセンサがそれぞれ視覚センサ、慣性センサ及びレーザレーダーセンサである場合、まず、視覚センサと慣性センサとの間の遅延時間情報を決定し、該遅延時間情報に基づいて、視覚センサの測定結果及び慣性センサの測定結果に対して時間同期処理を行い、視覚センサの測定結果と慣性センサの測定結果との時間同期を実現する。続いて、視覚センサとレーザレーダーセンサとの間の遅延時間情報を決定し、該遅延時間情報に基づいて、視覚センサの測定結果及びレーザレーダーセンサの測定結果に対して時間同期処理を行い、視覚センサの測定結果とレーザレーダーセンサの測定結果との時間同期を実現する。このように、2回の時間同期処理により、視覚センサ、慣性センサ及びレーザレーダーセンサという3つのセンサ間の測定結果の時間同期を実現する。 Illustratively, when the three sensors provided in the electronic device are a visual sensor, an inertial sensor and a laser radar sensor, respectively, first, the delay time information between the visual sensor and the inertial sensor is determined, and the delay time information is used. Based on this, time synchronization processing is performed on the measurement result of the visual sensor and the measurement result of the inertial sensor, and the time synchronization between the measurement result of the visual sensor and the measurement result of the inertial sensor is realized. Subsequently, the delay time information between the visual sensor and the laser radar sensor is determined, and based on the delay time information, the measurement result of the visual sensor and the measurement result of the laser radar sensor are subjected to time synchronization processing to perform visual observation. Realizes time synchronization between the measurement result of the sensor and the measurement result of the laser radar sensor. In this way, the time synchronization of the measurement results between the three sensors, the visual sensor, the inertial sensor, and the laser radar sensor, is realized by the two time synchronization processes.

2つの異なるセンサの測定結果の、同期前後の相違点をより明確に表現するために、以下、2つの異なるセンサのうちの1つのセンサが視覚センサであり、もう1つのセンサが慣性センサであり、測定結果が角速度情報であることを例として、本願の実施例における時間同期処理を説明する。 In order to more clearly express the difference between the measurement results of the two different sensors before and after synchronization, one of the two different sensors is the visual sensor and the other sensor is the inertial sensor. The time synchronization process in the embodiment of the present application will be described by taking as an example that the measurement result is the angular velocity information.

図4は、本願の実施例による例示的な視覚センサの角速度と慣性センサの角速度との間に時間遅延が存在する場合を示す概略図である。図5は、本願の実施例による例示的な視覚センサの角速度と慣性センサの角速度が同期されたことを示す概略図である。図4及び図5において、破線は、視覚線センサの角速度を表し、実線は、慣性センサの角速度を表す。 FIG. 4 is a schematic diagram showing a case where there is a time delay between the angular velocity of the exemplary visual sensor and the angular velocity of the inertial sensor according to the embodiment of the present application. FIG. 5 is a schematic diagram showing that the angular velocity of the exemplary visual sensor and the angular velocity of the inertial sensor according to the embodiment of the present application are synchronized. In FIGS. 4 and 5, the broken line represents the angular velocity of the visual line sensor, and the solid line represents the angular velocity of the inertial sensor.

図4から分かるように、視覚センサの角速度曲線と慣性センサの角速度曲線は、ずれており、しかも視覚センサの角速度曲線は、タイムラグがある。視覚センサと慣性センサとの間の遅延時間情報により、視覚センサの角速度に対して同期を行った後、図5から分かるように、視覚センサの角速度曲線と慣性センサの角速度曲線はアライメントされたものであり、ずれていない。これにより、決定された遅延時間情報に基づいて、視覚センサと慣性センサの角速度情報の時間同期処理を実現することができる。 As can be seen from FIG. 4, the angular velocity curve of the visual sensor and the angular velocity curve of the inertial sensor are out of alignment, and the angular velocity curve of the visual sensor has a time lag. After synchronizing with the angular velocity of the visual sensor by the delay time information between the visual sensor and the inertial sensor, as can be seen from FIG. 5, the angular velocity curve of the visual sensor and the angular velocity curve of the inertial sensor are aligned. And it is not out of alignment. Thereby, it is possible to realize the time synchronization processing of the angular velocity information of the visual sensor and the inertial sensor based on the determined delay time information.

本願の実施例において、2つの異なるセンサ間の遅延時間情報を決定した後、直接遅延時間情報に基づいて、2つの異なるセンサのそれぞれの測定結果に対して時間同期処理を行うことができる。 In the embodiment of the present application, after the delay time information between the two different sensors is determined, the time synchronization processing can be performed on the measurement results of the two different sensors based on the direct delay time information.

1つの実施例において、得られた2つの角速度情報に対してアライメント処理を行い、2つの異なるセンサ間の遅延時間情報を決定した後、遅延時間情報を記憶することもできる。電子機器が非運動状態である場合、記憶された遅延時間情報に基づいて、2つの異なるセンサのそれぞれの測定結果に対して時間同期処理を行う。 In one embodiment, it is also possible to perform an alignment process on the two obtained angular velocity information, determine the delay time information between the two different sensors, and then store the delay time information. When the electronic device is in a non-moving state, time synchronization processing is performed on the measurement results of each of the two different sensors based on the stored delay time information.

本願の実施例の技術的解決手段は、オンライン時間同期処理を実現することができるだけでなく、オフライン時間同期処理を実現することもでき、その時間同期処理はより柔軟である。それと同時に、本願の実施例における時間同期処理は、格子画像のようなキャリブレーション参照物に依存することなく、その時間同期はより便利かつ簡単であり、適応性が高い。 The technical solution of the embodiment of the present application can not only realize the online time synchronization process but also the offline time synchronization process, and the time synchronization process is more flexible. At the same time, the time synchronization process in the embodiment of the present application is more convenient, simpler, and more adaptable without relying on a calibration reference such as a grid image.

本願の実施例において、回転運動を実行できることが電子機器に求められる。つまり、電子機器は少なくとも回転軸の周りを回転さえすれば、電子機器における異なるセンサ間の遅延時間情報をキャリブレーションすることができる。複数軸の周りを回転するように動作する必要がなく、異なるセンサの時間同期の複雑さを低減させ、異なるシーンの需要に適応することができる。また、本願の実施例は、電子機器が複数の軸の周りを回転することで発生した回転運動に基づいて、遅延時間をキャリブレーションすることもできる。これにより、より豊かな回転情報を得て、時間同期の精度を向上させることができる。本願の実施例において、センサが角速度情報を独立して取得できることが求められる。これにより、異なるセンサ間の遅延時間情報を決定することができる。複数のセンサ間の時間同期に広く適用可能であり、汎用適応性を有する。本願の実施例において、ソフトウェアに基づいて時間同期を実現する方法であり、時間同期のための専用ハードウェアを別途配置する必要がない。本願の実施例において、リアルタイムで取得された遅延時間情報に基づいて、時間同期を行い、時間同期処理をオンラインで行うことができる。本願の実施例において、電子機器が回転運動を行う時に取得された角速度情報に基づいて遅延時間情報を決定する。遅延時間情報を常数として処理することなく、時間同期の精度を向上させる。 In the embodiment of the present application, the electronic device is required to be able to perform a rotary motion. That is, the electronic device can calibrate the delay time information between different sensors in the electronic device as long as it rotates at least around the axis of rotation. It does not have to rotate around multiple axes, reducing the time synchronization complexity of different sensors and adapting to the demands of different scenes. Also, in the embodiments of the present application, the delay time can be calibrated based on the rotational motion generated by the rotation of the electronic device around a plurality of axes. As a result, richer rotation information can be obtained and the accuracy of time synchronization can be improved. In the embodiment of the present application, it is required that the sensor can independently acquire the angular velocity information. This makes it possible to determine the delay time information between different sensors. It is widely applicable to time synchronization between multiple sensors and has general-purpose adaptability. In the embodiment of the present application, it is a method of realizing time synchronization based on software, and it is not necessary to separately arrange dedicated hardware for time synchronization. In the embodiment of the present application, time synchronization can be performed and time synchronization processing can be performed online based on the delay time information acquired in real time. In the embodiment of the present application, the delay time information is determined based on the angular velocity information acquired when the electronic device performs the rotational motion. Improves the accuracy of time synchronization without processing the delay time information as a constant.

図6は、本願の実施例による時間同期処理方法の実現フローを示す第2概略図である。図6に示すように、本願の実施例において、2つの異なるセンサのそれぞれが取得した角速度情報に対してアライメント処理を行うことで、2つの異なるセンサ間の遅延時間情報を決定するステップS102は、以下のように、S102a及びS102bを含んでもよい。 FIG. 6 is a second schematic diagram showing a flow for realizing the time synchronization processing method according to the embodiment of the present application. As shown in FIG. 6, in the embodiment of the present application, step S102 of determining the delay time information between two different sensors by performing an alignment process on the angular velocity information acquired by each of the two different sensors is S102a and S102b may be included as follows.

S102aにおいて、2つの角速度情報のうちの少なくとも1つに対して補間処理を行い、2つの角速度をアライメントする。 In S102a, interpolation processing is performed on at least one of the two angular velocity information, and the two angular velocities are aligned.

本願の実施例において、構造が異なるセンサの補間処理は、構造が同じであるセンサの処理方式と異なる可能性がある。従って、2つのセンサの異なる構造に基づいて、2つの角速度情報のうちの少なくとも1つに対して補間処理を行い、2つの角速度情報をアライメントする。 In the embodiment of the present application, the interpolation processing of the sensors having different structures may be different from the processing method of the sensors having the same structure. Therefore, based on the different structures of the two sensors, interpolation processing is performed on at least one of the two angular velocity information, and the two angular velocity information are aligned.

例えば、2つの異なるセンサがいずれもジャイロセンサである場合、得られた2つのジャイロセンサのそれぞれが収集した角速度情報のうちの少なくとも1つに対して補間処理を行い、2つの角速度情報をアライメントする。 For example, when the two different sensors are both gyro sensors, the two different angular velocity information are aligned by performing interpolation processing on at least one of the angular velocity information collected by each of the obtained two gyro sensors. ..

また例えば、2つの異なるセンサがいずれも位置姿勢センサである場合、2つの位置姿勢センサのそれぞれにより収集された位置姿勢回転行列情報のうちの少なくとも1つに対して補間処理を行い、2つの角速度情報をアライメントする。 Further, for example, when the two different sensors are both position / attitude sensors, at least one of the position / attitude rotation matrix information collected by each of the two position / attitude sensors is subjected to interpolation processing, and the two angular velocities are performed. Align the information.

また例えば、2つの異なるセンサがそれぞれ位置姿勢センサ及びジャイロセンサである場合、位置姿勢センサにより収集された位置姿勢回転行列情報に対して補間処理を行い、2つの角速度情報をアライメントする。 Further, for example, when the two different sensors are the position / attitude sensor and the gyro sensor, the position / attitude rotation matrix information collected by the position / attitude sensor is subjected to interpolation processing to align the two angular velocity information.

2つの角速度情報のうちの少なくとも1つに対して補間処理を行うことは、2つの角速度情報に対していずれも補間処理を行うことと、2つの角速度情報のうちのいずれか1つに対して補間処理を行うことと、を含む。 To perform interpolation processing on at least one of the two angular velocity information is to perform interpolation processing on both of the two angular velocity information and to perform interpolation processing on any one of the two angular velocity information. Includes performing interpolation processing.

1つの実施例において、2つの角速度情報に対して補間処理を行うことは、そのうちの1つのデータ取得頻度を標準データ取得頻度として選択し、該標準データ取得頻度に基づいて、2つの角速度情報に対して補間処理を行うことを含む。ここで、該標準データ取得頻度は、2つのセンサのそれぞれのデータ取得頻度の間であってもよく、又は2つのセンサのそれぞれのデータ取得頻度より高くてもよい。 In one embodiment, performing interpolation processing on two angular velocity information selects one of the data acquisition frequencies as the standard data acquisition frequency, and based on the standard data acquisition frequency, the two angular velocity information are obtained. It includes performing interpolation processing for the data. Here, the standard data acquisition frequency may be between the data acquisition frequencies of the two sensors, or may be higher than the data acquisition frequency of the two sensors.

例示的に、2つのセンサのデータ取得頻度がそれぞれ10Hz及び15Hzであると、該2つのセンサのデータ取得頻度より高いものを標準データ取得頻度として選択することができる。例えば、標準データ取得頻度は、17Hzである。勿論、2つのセンサのデータ取得頻度の間の頻度を標準データ取得頻度として選択することもできる。例えば、標準データ取得頻度は、13Hzである。 Illustratively, when the data acquisition frequencies of the two sensors are 10 Hz and 15 Hz, respectively, a data acquisition frequency higher than that of the two sensors can be selected as the standard data acquisition frequency. For example, the standard data acquisition frequency is 17 Hz. Of course, the frequency between the data acquisition frequencies of the two sensors can also be selected as the standard data acquisition frequency. For example, the standard data acquisition frequency is 13 Hz.

選択された標準データ取得頻度が13Hzである場合、標準データ取得頻度に基づいて、2つのセンサにより取得された角速度情報に対して補間処理を行い、第1センサの角速度取得頻度と第2センサの角速度取得頻度をそれぞれ標準データ取得頻度と同じであるようにし、いずれも13Hzにする。このように、異なるセンサのデータ取得頻度が不一致することにより、データ処理に偏差が存在するという課題を解決することができる。アライメントされた角速度に基づいて、より正確な遅延時間情報を得ることに寄与する。 When the selected standard data acquisition frequency is 13 Hz, the angular velocity information acquired by the two sensors is subjected to interpolation processing based on the standard data acquisition frequency, and the angular velocity acquisition frequency of the first sensor and the angular velocity acquisition frequency of the second sensor are performed. The angular velocity acquisition frequency is set to be the same as the standard data acquisition frequency, and both are set to 13 Hz. As described above, the problem that the data processing has a deviation can be solved by the fact that the data acquisition frequencies of different sensors do not match. It contributes to obtaining more accurate delay time information based on the aligned angular velocity.

1つの実施例において、2つの異なるセンサをそれぞれ第1センサ及び第2センサと表記し、第1センサのデータ取得頻度が第2センサのデータ取得頻度より高いとすれば、2つのセンサのうちの1つのセンサに対して補間処理を行うことは、第1センサのデータ取得頻度に基づいて、取得された、第2センサにより収集された角速度情報に対して補間処理を行うことを含む。 In one embodiment, if two different sensors are referred to as a first sensor and a second sensor, respectively, and the data acquisition frequency of the first sensor is higher than the data acquisition frequency of the second sensor, the two sensors are included. Performing the interpolation processing for one sensor includes performing the interpolation processing for the angular velocity information acquired by the second sensor based on the data acquisition frequency of the first sensor.

例示的に、第1センサのデータ取得頻度が15Hzであり、第2センサのデータ取得頻度が10Hzである場合、第1センサのデータ取得頻度15Hzに基づいて、第2センサにより取得された角速度情報に対して補間処理を行い、第1センサの角速度取得頻度と第2センサの角速度取得頻度を同じであるようにし、いずれも15Hzにする。このように、異なるセンサのデータ取得頻度が不一致することにより、データ処理に偏差が存在するという課題を解決することができる。アライメントされた角速度に基づいて、より正確な遅延時間情報を得ることに寄与する。 Illustratively, when the data acquisition frequency of the first sensor is 15 Hz and the data acquisition frequency of the second sensor is 10 Hz, the angular velocity information acquired by the second sensor is based on the data acquisition frequency of the first sensor of 15 Hz. Is subjected to interpolation processing so that the angular velocity acquisition frequency of the first sensor and the angular velocity acquisition frequency of the second sensor are the same, and both are set to 15 Hz. As described above, the problem that the data processing has a deviation can be solved by the fact that the data acquisition frequencies of different sensors do not match. It contributes to obtaining more accurate delay time information based on the aligned angular velocity.

1つの実施例において、電子機器における2つの異なるセンサがそれぞれ位置姿勢センサ及びジャイロセンサである場合、取得された、位置姿勢センサにより収集された位置姿勢回転行列情報に対して補間処理を行い、2つの角速度情報をアライメントする。具体的には、以下のように、S01、S02及びS03を含んでもよい。 In one embodiment, when two different sensors in the electronic device are the position / attitude sensor and the gyro sensor, respectively, the position / attitude rotation matrix information collected by the position / attitude sensor is subjected to interpolation processing. Align two angular velocity information. Specifically, S01, S02 and S03 may be included as follows.

S01において、複数の位置姿勢回転行列情報から、隣接する位置姿勢回転行列情報を取得する。 In S01, the adjacent position / orientation rotation matrix information is acquired from the plurality of position / attitude rotation matrix information.

本願の実施例において、複数の位置姿勢回転行列情報を取得した後、複数の位置姿勢回転行列情報から、隣接する位置姿勢回転行列情報を取得することができる。位置姿勢センサが所定の期間内で収集した位置姿勢回転行列情報は、複数の位置姿勢回転行列情報である。 In the embodiment of the present application, after acquiring a plurality of position / orientation rotation matrix information, it is possible to acquire adjacent position / orientation rotation matrix information from the plurality of position / attitude rotation matrix information. The position / attitude rotation matrix information collected by the position / attitude sensor within a predetermined period is a plurality of position / attitude rotation matrix information.

例示的に、位置姿勢センサが視覚センサである場合、隣接するフレーム画像の位置姿勢回転行列情報を取得することができる。位置姿勢センサがレーザレーダーセンサである場合、レーザレーダーセンサにより、所定の期間内の位置姿勢回転行列情報を単独で取得して、電子機器の回転運動の推定に用いることができる。 Illustratively, when the position / orientation sensor is a visual sensor, the position / orientation rotation matrix information of adjacent frame images can be acquired. When the position / attitude sensor is a laser radar sensor, the position / attitude rotation matrix information within a predetermined period can be independently acquired by the laser radar sensor and used for estimating the rotational motion of the electronic device.

S02、ジャイロセンサで取得された角速度情報の頻度に基づいて、隣接する位置姿勢回転行列情報に対して補間処理を行い、補間後の回転行列情報を得る。 S02, Based on the frequency of the angular velocity information acquired by the gyro sensor, the adjacent position / attitude rotation matrix information is subjected to the interpolation processing, and the rotation matrix information after the interpolation is obtained.

本願の実施例において、隣接する位置姿勢回転行列情報を取得した後、隣接する位置姿勢回転行列情報に基づいて、補間後の回転行列情報を取得することができる。 In the embodiment of the present application, after the adjacent position / orientation rotation matrix information is acquired, the rotation matrix information after interpolation can be acquired based on the adjacent position / orientation rotation matrix information.

隣接する位置姿勢回転行列情報に基づいて、補間後の回転行列情報を取得する過程において、補間モデルを構築し、更に、補間モデル及び隣接する位置姿勢回転行列情報により、補間後の回転行列情報を取得することができる。 In the process of acquiring the rotation matrix information after interpolation based on the adjacent position / orientation rotation matrix information, an interpolation model is constructed, and further, the rotation matrix information after interpolation is obtained by the interpolation model and the adjacent position / orientation rotation matrix information. Can be obtained.

補間モデルは、隣接の位置姿勢回転情報の限られている数の点における値により、隣接の位置姿勢回転情報の間の他の隣接の位置姿勢回転情報を推算するために用いられる。 Interpolation models are used to infer other adjacent position-orientation rotation information between adjacent position-orientation rotation information by values at a limited number of adjacent position-orientation rotation information.

例示的に、該補間モデルは、球面線形補間(Spherical Linear Interpolation)モデル、三次スプライン補間(Cubic Spline Interpolation)モデル及び最近傍補間モデルを含んでもよく、本願の実施例は、補間モデルを限定しない。 Illustratively, the interpolation model may include a spherical linear interpolation model, a cubic spline interpolation model, and a nearest neighbor interpolation model, and the examples of the present application do not limit the interpolation model.

S03において、補間後の回転行列情報に対して微分処理を行い、位置姿勢センサに対応する角速度情報を得て、位置姿勢センサ及びジャイロセンサのそれぞれにより取得された2つの角速度情報をアライメントする。 In S03, differential processing is performed on the rotation matrix information after interpolation, angular velocity information corresponding to the position / attitude sensor is obtained, and the two angular velocity information acquired by each of the position / attitude sensor and the gyro sensor are aligned.

本願の実施例において、補間後の回転行列情報を取得した後、幾何方式で、補間後の回転行列情報に対して微分処理を行い、位置姿勢センサに対応する角速度情報を取得することができる。 In the embodiment of the present application, after the rotation matrix information after interpolation is acquired, the rotation matrix information after interpolation is subjected to differential processing by a geometric method, and the angular velocity information corresponding to the position / orientation sensor can be acquired.

補間後の回転行列情報に対して微分処理を行い、位置姿勢センサに対応する角速度情報を取得する過程において、微分モデルを構築することができる。構築された微分モデル及び補間後の回転行列情報により、位置姿勢センサに対応する角速度情報を取得する。 A differential model can be constructed in the process of performing differential processing on the rotation matrix information after interpolation and acquiring angular velocity information corresponding to the position / attitude sensor. The angular velocity information corresponding to the position / attitude sensor is acquired from the constructed differential model and the rotation matrix information after interpolation.

例示的に、微分モデルは、式(1)を満たす。

Figure 2022510418000002
(1) Illustratively, the derivative model satisfies Eq. (1).
Figure 2022510418000002
(1)

ここで、

Figure 2022510418000003
は、微分位置姿勢回転行列情報であり、
Figure 2022510418000004
は、第2サブ角速度情報であり、
Figure 2022510418000005
は、補間後の位置姿勢回転行列情報である。 here,
Figure 2022510418000003
Is the differential position / attitude rotation matrix information,
Figure 2022510418000004
Is the second sub-angular velocity information,
Figure 2022510418000005
Is the position / orientation rotation matrix information after interpolation.

本願の実施例における微分モデルは、角速度情報を表すためのモデルである。幾つかの可能な実現形態において、該微分モデルは、四元数微分モデル又は他の数学的表現形態のモデルであってもよく、本願の実施例は、ここで限定しない。 The differential model in the embodiment of the present application is a model for expressing angular velocity information. In some possible implementations, the derivative model may be a quaternion derivative model or a model of other mathematical representations, and the embodiments of the present application are not limited herein.

S102bにおいて、アライメント後の2つの角速度情報に基づいて、2つの異なるセンサ間の遅延時間情報を決定する。 In S102b, the delay time information between the two different sensors is determined based on the two angular velocity information after the alignment.

本願の実施例において、電子機器が回転運動を行う過程において、異なるセンサが同一時刻で取得した角速度情報が同じであるため、アライメント後の2つの角速度情報に基づいて、2つの異なるセンサ間の遅延時間情報を決定することができる。 In the embodiment of the present application, since the angular velocity information acquired by different sensors at the same time is the same in the process of rotating the electronic device, the delay between the two different sensors is based on the two angular velocity information after alignment. Time information can be determined.

アライメント後の2つの角速度情報に基づいて、2つの異なるセンサ間の遅延時間情報を決定する前に、まず、誤差モデルを構築し、続いて、アライメント後の2つの角速度情報及び該誤差モデルに基づいて、2つの異なるセンサ間の遅延時間情報を決定することができる。 Before determining the delay time information between two different sensors based on the two post-aligned angular velocity information, first build an error model, then based on the two post-aligned angular velocity information and the error model. It is possible to determine the delay time information between two different sensors.

本願の実施例において、誤差モデルを構築する過程において、異なるセンサが、異なる座標軸に対応し、異なるセンサの角速度情報を比較する時に、同一の座標系に対応する座標軸で行う必要があるため、誤差モデルを構築する場合、2つの異なるセンサのそれぞれに対応する異なる座標軸の間の回転パラメータを導入することで、同一の時刻での2つの異なるセンサの角速度情報を同一の座標軸にする。 In the embodiment of the present application, in the process of constructing the error model, different sensors correspond to different coordinate axes, and when comparing the angular velocity information of different sensors, it is necessary to perform the error with the coordinate axes corresponding to the same coordinate system. When constructing the model, the angular velocity information of the two different sensors at the same time is set to the same axis by introducing the rotation parameter between the different axes corresponding to each of the two different sensors.

また、異なるセンサにより取得された角速度情報に偏差が存在するため、誤差モデルを構築する時に、2つのセンサ間の誤差パラメータを導入し、誤差モデルにより決定された遅延時間情報をより正確にする。 In addition, since there is a deviation in the angular velocity information acquired by different sensors, an error parameter between the two sensors is introduced when constructing the error model, and the delay time information determined by the error model is made more accurate.

例示的に、誤差モデルは、式(2)に示す通りである。

Figure 2022510418000006
(2) Illustratively, the error model is as shown in Eq. (2).
Figure 2022510418000006
(2)

ここで、

Figure 2022510418000007
は、2つの異なるセンサのそれぞれに対応する異なる座標軸の間の回転パラメータであり、
Figure 2022510418000008
は、2つの異なるセンサ間の遅延時間情報であり、
Figure 2022510418000009
は、2つの異なるセンサの間の誤差パラメータであり、
Figure 2022510418000010
及び
Figure 2022510418000011
はそれぞれ、同一の時刻tで、2つの異なるセンサのそれぞれにより取得された角速度情報であり、
Figure 2022510418000012
は、角速度間の誤差である。 here,
Figure 2022510418000007
Is the rotation parameter between the different axes corresponding to each of the two different sensors.
Figure 2022510418000008
Is the delay time information between two different sensors,
Figure 2022510418000009
Is the error parameter between two different sensors
Figure 2022510418000010
as well as
Figure 2022510418000011
Is the angular velocity information acquired by each of the two different sensors at the same time t, respectively.
Figure 2022510418000012
Is the error between the angular velocities.

1つの実施例において、取得された2つの角速度情報に対してアライメント処理を行い、2つの異なるセンサ間の遅延時間情報を決定した後、前記方法は、2つの角速度情報に対してアライメント処理を行うことで、2つの異なるセンサ間の外部パラメータを決定することであって、外部パラメータは、2つの異なるセンサのそれぞれに対応する異なる座標軸の間の回転パラメータ及び2つの異なるセンサの間の誤差パラメータを含む、ことを更に含む。 In one embodiment, after performing alignment processing on the acquired two angular velocity information and determining delay time information between two different sensors, the method performs alignment processing on the two angular velocity information. By determining the external parameters between the two different sensors, the external parameters are the rotation parameter between the different axes corresponding to each of the two different sensors and the error parameter between the two different sensors. Including, further including.

本願の実施例において、アライメント後の2つの角速度情報により、遅延時間情報だけでなく、2つの異なるセンサ間の回転パラメータ及び誤差パラメータも取得でき、電子機器の機能をより豊かにすることができる。 In the embodiment of the present application, not only the delay time information but also the rotation parameter and the error parameter between the two different sensors can be acquired by the two angular velocity information after the alignment, and the function of the electronic device can be further enriched.

図7は、本願の実施例による時間同期処理方法の実現フローを示す第3概略図である。図7に示すように、アライメント後の2つの角速度情報に基づいて、2つの異なるセンサ間の遅延時間情報を決定するステップS102bは、以下のように、S102b1、S102b2及びS102b3を含んでもよい。 FIG. 7 is a third schematic diagram showing a flow for realizing the time synchronization processing method according to the embodiment of the present application. As shown in FIG. 7, step S102b for determining the delay time information between two different sensors based on the two angular velocity information after alignment may include S102b1, S102b2 and S102b3 as follows.

S102b1において、アライメント後の2つの角速度情報に基づいて、2つの異なるセンサの異なる時刻に対応するサブ誤差方程式を決定する。 In S102b1, the sub-error equations corresponding to different times of the two different sensors are determined based on the two angular velocity information after the alignment.

本願の実施例において、2つの角速度情報をアライメントした後、アライメント後の2つの角速度情報に基づいて、電子機器が回転運動を行う過程において、2つの異なるセンサの異なる時刻に対応するサブ誤差方程式を決定することができる。 In the embodiment of the present application, after aligning the two angular velocity information, the sub-error equation corresponding to the different time of the two different sensors is obtained in the process of the electronic device performing the rotational motion based on the two angular velocity information after the alignment. Can be decided.

所定の期間内の異なる時刻nは、実際の状況に応じて事前設定されてもよい。例えば、所定の期間内で、15個の時刻又は20個の時刻を設定し、更に、各時刻に対応するサブ誤差方程式を得ることができる。 The different time n within a predetermined period may be preset according to the actual situation. For example, within a predetermined period, 15 times or 20 times can be set, and a sub-error equation corresponding to each time can be obtained.

例示的に、時刻1に対応する異なるセンサにより収集された角速度情報がそれぞれ

Figure 2022510418000013
及び
Figure 2022510418000014
であり、時刻2に対応する異なるセンサにより収集された角速度情報がそれぞれ
Figure 2022510418000015
及び
Figure 2022510418000016
であり、このように類推して、時刻nに対応する異なるセンサにより収集された角速度情報がそれぞれ
Figure 2022510418000017
及び
Figure 2022510418000018
であると、誤差モデルが式(2)を満たす場合、その異なる時刻nに対応するサブ誤差方程式は、以下の通りである。 Illustratively, the angular velocity information collected by different sensors corresponding to time 1 is each.
Figure 2022510418000013
as well as
Figure 2022510418000014
The angular velocity information collected by the different sensors corresponding to time 2 is
Figure 2022510418000015
as well as
Figure 2022510418000016
By analogy with this, the angular velocity information collected by different sensors corresponding to the time n is each.
Figure 2022510418000017
as well as
Figure 2022510418000018
Then, when the error model satisfies the equation (2), the sub-error equations corresponding to the different time n are as follows.

時刻1に対応するサブ誤差方程式は、式(3)を満たす。

Figure 2022510418000019
(3) The sub-error equation corresponding to time 1 satisfies equation (3).
Figure 2022510418000019
(3)

時刻2に対応するサブ誤差方程式は、式(4)を満たす。

Figure 2022510418000020
(4) The sub-error equation corresponding to time 2 satisfies equation (4).
Figure 2022510418000020
(4)

このように類推して、時刻nに対応するサブ誤差方程式は、式(5)を満たす。

Figure 2022510418000021
(5) By analogy with this, the sub-error equation corresponding to the time n satisfies the equation (5).
Figure 2022510418000021
(5)

S102b2において、異なる時刻に対応するサブ誤差方程式の和を算出し、最終的な誤差方程式を得る。 In S102b2, the sum of the sub-error equations corresponding to different times is calculated to obtain the final error equation.

本願の実施例において、各時刻に対応するサブ誤差方程式を決定した後、異なる時刻に対応するサブ誤差方程式の和を算出し、最終的な誤差方程式を得る。 In the embodiment of the present application, after the sub-error equations corresponding to each time are determined, the sum of the sub-error equations corresponding to different times is calculated to obtain the final error equation.

本願の実施例において、異なる時刻の累積誤差を求めることで、遅延時間情報を取得し、更に、異なる時刻に対応するサブ誤差方程式の和を算出して、最終的な誤差方程式を得る。 In the embodiment of the present application, the delay time information is acquired by obtaining the cumulative error at different times, and the sum of the sub-error equations corresponding to the different times is calculated to obtain the final error equation.

例示的に、異なる時刻に対応するサブ誤差方程式はそれぞれ上記式(3)、式(4)及び式(5)である場合、対応する最終的誤差方程式は、式(6)を満たす。

Figure 2022510418000022
(6) Illustratively, when the sub-error equations corresponding to different times are the above equations (3), (4) and (5), respectively, the corresponding final error equations satisfy equation (6).
Figure 2022510418000022
(6)

S102b3において、最終的な誤差方程式に対して最小値処理を行い、遅延時間情報を得る。 In S102b3, the minimum value processing is performed on the final error equation, and the delay time information is obtained.

本願の実施例において、最終的な誤差方程式を得た後、最終的な誤差方程式に対して最小値処理を行い、遅延時間情報を得ることができる。 In the embodiment of the present application, after the final error equation is obtained, the final error equation can be subjected to the minimum value processing to obtain the delay time information.

上記最小値処理は、最終的な誤差方程式の値を最小化し、更に、誤差モデルにおける遅延時間情報、回転パラメータ及びセンサ間の誤差パラメータを推定するためのものである。 The minimum value processing is for minimizing the value of the final error equation and further estimating the delay time information, the rotation parameter, and the error parameter between the sensors in the error model.

例示的に、最終的な誤差方程式に対して最小値処理を行う場合、非線形モデル又は反復最接近点モデルにより、最終的な誤差方程式に対して最小値処理を行うことができる。 Illustratively, when the minimum value processing is performed on the final error equation, the minimum value processing can be performed on the final error equation by a nonlinear model or an iterative closest point model.

本願の実施例において、最終的な誤差方程式に対して最小値処理を行い、遅延時間情報を得る過程は、最終的な誤差方程式に対して反復最接近点処理を行い、第2最小化方程式を得ることと、解が所定第2閾値を満たすまで第2最小化方程式を解き、第2最小化方程式の解が所定第2閾値を満たすようになってから、第2最小化方程式における遅延時間情報を取得することと、を含んでもよい。 In the embodiment of the present application, in the process of performing the minimum value processing on the final error equation and obtaining the delay time information, the iterative closest point processing is performed on the final error equation, and the second minimization equation is obtained. Obtaining and solving the second minimization equation until the solution satisfies the predetermined second threshold, and after the solution of the second minimization equation satisfies the predetermined second threshold, the delay time information in the second minimization equation. And may include.

最終的な誤差方程式に対して反復最接近点処理を行い、第2最小化方程式を得る場合、遅延時間を所定の期間内にすることができる。例えば、黄金分割法で1つの遅延時間を選択し、更に誤差モデルに代入する。この場合、得られた誤差項は、回転パラメータ及びセンサ間の誤差パラメータという2つの未知数だけである。ここで、反復最接近点処理を再び行うことで、回転パラメータ及びセンサ間の誤差パラメータを取得することができる。 When the final error equation is repeatedly subjected to the closest point processing to obtain the second minimization equation, the delay time can be set within a predetermined period. For example, one delay time is selected by the golden section method and further substituted into the error model. In this case, the obtained error terms are only two unknowns, the rotation parameter and the error parameter between the sensors. Here, the rotation parameter and the error parameter between the sensors can be acquired by performing the iterative closest point processing again.

例示的に、遅延時間情報が

Figure 2022510418000023
の間にあり、黄金分割法で選択される遅延時間が0.3であるとすれば、得られた第2最小化方程式は、式(7)を満たす。
Figure 2022510418000024
(7) Illustratively, the delay time information
Figure 2022510418000023
If the delay time selected by the golden section method is 0.3, the obtained second minimization equation satisfies Eq. (7).
Figure 2022510418000024
(7)

ここで、

Figure 2022510418000025
は、角速度間の誤差であり、nは、最近傍点対の数であり、
Figure 2022510418000026
は、2つのセンサ間の回転行列であり、
Figure 2022510418000027
は、2つのセンサ間の誤差パラメータであり、
Figure 2022510418000028
及び
Figure 2022510418000029
はそれぞれ、2つのセンサにそれぞれ対応する角速度ポイントクラウドにおける1つのポイントである。 here,
Figure 2022510418000025
Is the error between the angular velocities, n is the number of pairs of nearest emphasis marks, and
Figure 2022510418000026
Is the rotation matrix between the two sensors
Figure 2022510418000027
Is the error parameter between the two sensors
Figure 2022510418000028
as well as
Figure 2022510418000029
Is one point in the angular velocity point cloud corresponding to each of the two sensors.

本願の実施例において、最終的な誤差方程式に対して最小値処理を行い、遅延時間情報を得る過程は、最終的な誤差方程式に対して非線形最適化処理を行い、第1最小化方程式を得ることと、解が所定第1閾値を満たすまで第1最小化方程式を解き、第1最小化方程式の解が所定第1閾値を満たすようになってから、第1最小化方程式における遅延時間情報を取得することと、を更に含んでもよい。 In the embodiment of the present application, the process of performing the minimum value processing on the final error equation and obtaining the delay time information performs the nonlinear optimization processing on the final error equation to obtain the first minimization equation. That, the first minimization equation is solved until the solution satisfies the predetermined first threshold, and after the solution of the first minimization equation satisfies the predetermined first threshold, the delay time information in the first minimization equation is obtained. It may further include to obtain.

最終的な誤差方程式が非線形関数であるため、それに対してテーラー展開を行う必要があり、最終的な誤差方程式に対して最小化反復を行うことで、所定第1閾値を満たす時に対応する遅延時間情報を探し、それによって最終的な誤差方程式を最小値まで降下させる。 Since the final error equation is a non-linear function, it is necessary to perform a Taylor expansion on it, and by performing a minimization iteration on the final error equation, the delay time corresponding to when the predetermined first threshold is satisfied. It looks for information, thereby lowering the final error equation to the minimum.

本願の実施例において、最終的な誤差方程式に対して非線形最適化処理を行い、第1最小化方程式を得る過程において、非線形最適化モデルを構築することができる。最終的な誤差方程式及び非線形最適化モデルに基づいて、第1最小化方程式を決定する。 In the embodiment of the present application, a nonlinear optimization model can be constructed in the process of performing the nonlinear optimization process on the final error equation and obtaining the first minimization equation. The first minimization equation is determined based on the final error equation and the nonlinear optimization model.

例示的に、所定の非線形最適化モデルは、ガウスニュートン(Gauss-Newton)アルゴリズムモデル又はレーベンバーグ・マルカート(Levenberg-Marquardt)アルゴリズムモデルを含んでもよく、第1閾値は、ユーザの実際の需要に応じて設定されてもよく、例えば、0.1又は0.01であり、本願の実施例は、ここで限定しない。 Illustratively, a given nonlinear optimization model may include a Gauss-Newton algorithm model or a Levenberg-Marquardt algorithm model, where the first threshold depends on the user's actual needs. It may be set, for example, 0.1 or 0.01, and the embodiment of the present application is not limited here.

本願の実施例において、解が所定第1閾値を満たすまで第1最小化方程式を解き、第1最小化方程式の解が所定第1閾値を満たすようになってから、第1最小化方程式における遅延時間情報を取得することは、初回目の遅延時間情報の決定であると決定した場合、所定の初期変数値及び所定の非線形最適化モデルに基づいて、現在変数値を取得することと、初期変数値、現在変数値及び第1最小化方程式に基づいて、最小化方程式の現在の解の値を決定し、該解の値が所定第1閾値を満たす場合、第1最小化方程式における遅延時間情報を取得することと、を含む。 In the embodiment of the present application, the first minimization equation is solved until the solution satisfies the predetermined first threshold, and after the solution of the first minimization equation satisfies the predetermined first threshold, the delay in the first minimization equation is reached. When it is determined that acquiring the time information is the determination of the delay time information for the first time, the current variable value is acquired based on the predetermined initial variable value and the predetermined nonlinear optimization model, and the initial variable is acquired. The delay time information in the first minimization equation is determined when the value of the current solution of the minimization equation is determined based on the value, the current variable value and the first minimization equation, and the value of the solution satisfies a predetermined first threshold. To get and include.

第1方程式は、隣接する変数値に対応する最終的な誤差方程式からなる。例えば、第1最小化方程式は、式(8)であってもよい。

Figure 2022510418000030
(8) The first equation consists of the final error equations corresponding to adjacent variable values. For example, the first minimization equation may be Eq. (8).
Figure 2022510418000030
(8)

ここで、

Figure 2022510418000031
は、現在変数値であり、
Figure 2022510418000032
は、初期変数値であり、
Figure 2022510418000033
は、最小化方程式の現在の解の値である。 here,
Figure 2022510418000031
Is the current variable value,
Figure 2022510418000032
Is the initial variable value,
Figure 2022510418000033
Is the value of the current solution of the minimization equation.

初回前の遅延時間情報の決定ではないと決定した場合、前回の変数値を取得する。前回の変数値及び所定の非線形最適化モデルに基づいて、現在変数値を取得する。前回の変数値、現在変数値及び第1最小化方程式に基づいて、最小化方程式の現在の解の値を決定し、該現在の解の値が所定第1閾値を満たす場合、第1最小化方程式における遅延時間情報を取得する。 If it is determined that the delay time information before the first time is not determined, the previous variable value is acquired. Get the current variable value based on the previous variable value and a given nonlinear optimization model. The value of the current solution of the minimization equation is determined based on the previous variable value, the current variable value, and the first minimization equation, and if the value of the current solution satisfies a predetermined first threshold value, the first minimization Get the delay time information in the equation.

該現在の解の値が所定第1閾値を満たしない場合、現在変数値及び所定の非線形最適化モデルに基づいて、次の変数値を取得する必要がある。次の変数値、現在変数値及び第1最小化方程式に基づいて、最小化方程式の次回の解の値を決定し、該次回の解の値が所定第1閾値を満たすかどうかを繰り返して順次判定し、次回の解の値が該所定第1閾値を満たすまで、反復を終了し、第1最小化方程式における遅延時間情報を決定する。 If the value of the current solution does not meet the predetermined first threshold, it is necessary to obtain the next variable value based on the current variable value and the predetermined nonlinear optimization model. Based on the next variable value, the current variable value, and the first minimization equation, the value of the next solution of the minimization equation is determined, and whether the value of the next solution satisfies the predetermined first threshold value is repeated and sequentially sequentially. The determination is made, the iteration is terminated, and the delay time information in the first minimization equation is determined until the value of the next solution satisfies the predetermined first threshold value.

本願の実施例において、最終的な誤差方程式に対して最小化処理を行い、遅延時間情報を得ると同時に、回転パラメータ及びセンサ偏差パラメータを得ることもできる。このように、得られた回転パラメータにより、異なる座標系の測定情報を同一の座標系に変換することができる。 In the embodiment of the present application, the final error equation can be minimized to obtain the delay time information, and at the same time, the rotation parameter and the sensor deviation parameter can be obtained. In this way, the measurement information of different coordinate systems can be converted into the same coordinate system by the obtained rotation parameters.

1つの実施例において、前記遅延時間情報に基づいて、前記2つの異なるセンサのそれぞれの測定結果に対して時間同期処理を行った後、同期後の測定結果に対してフュージョン処理を行うことと、フュージョン処理後の測定結果に基づいて、測位処理、距離測定処理、電子機器の所在するシーンにおけるターゲット検出、地図の生成又は更新のうちの少なくとも1つを実行することと、を更に含んでもよい。 In one embodiment, based on the delay time information, time synchronization processing is performed on the measurement results of each of the two different sensors, and then fusion processing is performed on the measurement results after synchronization. It may further include performing at least one of positioning processing, distance measurement processing, target detection in the scene where the electronic device is located, and map generation or update based on the measurement result after the fusion processing.

本願の実施例において、同期後の2つの測定結果に対してフュージョン処理を行うことは、同一の時刻での2つの測定結果に対して分析及び統合を行い、確実なフュージョン処理結果を得ることを含む。 In the embodiment of the present application, performing fusion processing on two measurement results after synchronization means that analysis and integration are performed on two measurement results at the same time to obtain a reliable fusion processing result. include.

例示的に、フュージョン処理結果を測位処理プロセスに適用することで、電子機器に対する正確な測位を実現することができる。フュージョン処理結果を距離測定処理プロセスに適用することで、測定精度を向上させることができる。フュージョン処理結果を、電子機器の所在するシーンにおけるターゲット検出プロセスに適用することで、正確なターゲット検出結果を得ることができる。フュージョン処理結果を地図の生成又は更新プロセスに適用することで、正確な地図を得ることができる。 Illustratively, by applying the fusion processing result to the positioning processing process, accurate positioning for an electronic device can be realized. By applying the fusion processing result to the distance measurement processing process, the measurement accuracy can be improved. By applying the fusion processing result to the target detection process in the scene where the electronic device is located, an accurate target detection result can be obtained. Accurate maps can be obtained by applying the fusion processing results to the map generation or update process.

本願の実施例において、同期後の測定結果に対してフュージョンを行う過程において、フュージョンアルゴリズムモデルを構築し、正確なフュージョン処理結果を得ることができる。 In the embodiment of the present application, a fusion algorithm model can be constructed and an accurate fusion processing result can be obtained in the process of performing fusion with respect to the measurement result after synchronization.

例示的に、フュージョンアルゴリズムモデルは、カルマンフィルタリングフュージョンアルゴリズムモデル及びクラスタリング分析認識アルゴリズムモデルを含んでもよく、本願の実施例は、ここで限定しない。 Illustratively, the fusion algorithm model may include a Kalman filtering fusion algorithm model and a clustering analysis recognition algorithm model, and the embodiments of the present application are not limited herein.

1つの実施例において、カルマンフィルタリングフュージョンアルゴリズムモデルを用いて、同期後の測定結果に対してフュージョン処理を行うことは、電子機器に設けられる2つの異なるセンサの測定結果を利用して、状態伝播を行い、前の時刻の第1測定結果の位置姿勢推定から、現在の時刻の位置姿勢の推定を得て、更に、現在の時刻の第2測定結果を観測情報として、現在の時刻の位置姿勢の一次推定を補正し、現在の時刻の位置姿勢の最適な推定を得ることであって、該最適な推定は、フュージョン処理結果である、ことを含む。 In one embodiment, using the Kalman filtering fusion algorithm model, performing fusion processing on the measured results after synchronization uses the measurement results of two different sensors provided in the electronic device to perform state propagation. The position and orientation of the current time are estimated from the position and orientation estimation of the first measurement result of the previous time, and the second measurement result of the current time is used as observation information. It is to correct the primary estimation to obtain the optimum estimation of the position and orientation at the current time, and the optimum estimation includes the fusion processing result.

本願の実施例における時間同期処理方法は同様に3つ以上のセンサに適用可能である。電子機器に少なくとも3つのセンサが設けられる場合、2つずつのセンサの時間同期処理された測定結果を取得し、時間同期処理された測定結果に対してフュージョン処理を行い、フュージョン処理結果を得る。2つのセンサに対応する測定結果に対するフュージョン処理に比べて、少なくとも3つのセンサに対応する測定結果に対してフュージョン処理を行うことで、より正確な測定結果を得ることができる。 The time synchronization processing method in the embodiment of the present application is similarly applicable to three or more sensors. When the electronic device is provided with at least three sensors, the time-synchronized measurement results of the two sensors are acquired, the time-synchronized measurement results are fused, and the fusion-processed results are obtained. A more accurate measurement result can be obtained by performing the fusion process on the measurement results corresponding to at least three sensors as compared with the fusion process on the measurement results corresponding to the two sensors.

図8は、本願の実施例による時間同期処理方法の実現フローを示す第4概略図である。図8に示すように、本願の実施例において、電子機器に設けられる2つの異なるセンサはそれぞれ視覚センサ及び慣性センサであり、本実施例の時間同期処理方法は下記ステップを含んでもよい。 FIG. 8 is a fourth schematic diagram showing a flow for realizing the time synchronization processing method according to the embodiment of the present application. As shown in FIG. 8, in the embodiment of the present application, the two different sensors provided in the electronic device are a visual sensor and an inertial sensor, respectively, and the time synchronization processing method of the present embodiment may include the following steps.

S201において、慣性センサにより、電子機器が回転運動を行う時の第1角速度情報を取得する。 In S201, the inertial sensor acquires the first angular velocity information when the electronic device performs a rotational motion.

本願の実施例において、電子機器における慣性センサは、独自で角速度情報を取得することができる。慣性センサにジャイロユニットが設けられるため、ジャイロユニットにより、電子機器が回転運動を行う時の角速度情報を直接取得することができる。 In the embodiment of the present application, the inertial sensor in the electronic device can independently acquire the angular velocity information. Since the gyro unit is provided in the inertial sensor, the gyro unit can directly acquire the angular velocity information when the electronic device performs a rotational motion.

慣性センサは、三軸姿勢角(又は角速度)及び加速度を測定するセンサであり、該慣性センサは、ジャイロユニットに加えて、加速度ユニットを更に含んでもよく、ここで、加速度ユニットは、その座標の3本の軸での電子機器の加速度情報を検出することができる。 The inertial sensor is a sensor that measures triaxial attitude angle (or angular velocity) and acceleration, and the inertial sensor may further include an acceleration unit in addition to the gyro unit, where the acceleration unit is of its coordinates. Acceleration information of electronic devices on three axes can be detected.

S202において、視覚センサにより、電子機器が回転運動を行う時の位置姿勢回転行列情報を取得する。 In S202, the position-posture rotation matrix information when the electronic device performs a rotational movement is acquired by a visual sensor.

本願の実施例において、電子機器における視覚センサは、位置姿勢回転行列情報を独自で取得することができる。視覚センサに位置姿勢推定ユニットが設けられ、位置姿勢推定ユニットにより、電子機器が回転運動を行う時の位置姿勢回転行列情報を取得することができる。 In the embodiment of the present application, the visual sensor in the electronic device can independently acquire the position / orientation rotation matrix information. A position / attitude estimation unit is provided in the visual sensor, and the position / attitude estimation unit can acquire information on the position / attitude rotation matrix when the electronic device performs a rotational movement.

視覚センサは主に、1つ又は2つのグラフィックセンサからなる。また、光投射器及び他の補助機器を配置する必要もある。これは、所定期間内のオリジナル画像を取得し、取得された画像をメモリにおける基準と比較して分析することで、位置姿勢回転行列情報を得て、更に、電子機器の位置姿勢回転行列情報を解くことができる。 The visual sensor mainly consists of one or two graphic sensors. It is also necessary to place a light projector and other auxiliary equipment. This is to obtain the position / orientation rotation matrix information by acquiring the original image within a predetermined period and comparing the acquired image with the reference in the memory, and further, the position / orientation rotation matrix information of the electronic device is obtained. Can be solved.

例示的に、四元数で電子機器の回転運動を表すことができる。また、三次元回転群で電子機器の回転運動を表すこともでき、本願の実施例は、これを限定しない。 Illustratively, a quaternion can represent the rotational motion of an electronic device. Further, the rotational motion of the electronic device can be represented by the three-dimensional rotation group, and the embodiments of the present application do not limit this.

S203において、位置姿勢回転行列情報に基づいて、第2角速度情報を決定し、第2角速度情報と第1角速度情報をアライメントする。 In S203, the second angular velocity information is determined based on the position / attitude rotation matrix information, and the second angular velocity information and the first angular velocity information are aligned.

本願の実施例において、視覚センサの画像頻度が一般的に10Hzであり、慣性センサの頻度が一般的に100Hzであり、視覚センサによる2フレームの画像の間に、ほぼ10個の、慣性センサにより測定された第1角速度情報があるため、視覚センサの位置姿勢回転行列情報に対して補間処理を行い、視覚センサと慣性センサの頻度を一致させ、更に、補間後の位置姿勢回転行列情報により取得された第2角速度情報は、第1角速度情報とアライメントすることができる。 In the embodiment of the present application, the image frequency of the visual sensor is generally 10 Hz, the frequency of the inertial sensor is generally 100 Hz, and approximately 10 inertial sensors are used between the two frames of the image by the visual sensor. Since there is the measured first angular velocity information, the position / orientation rotation matrix information of the visual sensor is interpolated, the frequencies of the visual sensor and the inertial sensor are matched, and the position / orientation rotation matrix information after the interpolation is used for acquisition. The generated second angular velocity information can be aligned with the first angular velocity information.

本実施例において、補間モデルにより、第2角速度情報及び第1角速度情報のうちの少なくとも1つに対して補間処理を行うことができる。電子機器の回転運動の様々な表現形態によって、用いられる補間モデルも異なる。例えば、四元数で表される回転運動に対して、球面線形補間モデルにより、該位置姿勢回転行列に対して補間処理を行うことができる。三次元回転群で表される回転運動に対して、三次スプライン補間モデル及び最近傍補間モデルにより、位置姿勢回転行列情報に対して補間処理を行うことができる。 In this embodiment, the interpolation process can be performed on at least one of the second angular velocity information and the first angular velocity information by the interpolation model. The interpolation model used also differs depending on the various forms of representation of the rotational motion of the electronic device. For example, for a rotational motion represented by a quaternion, interpolation processing can be performed on the position-posture rotation matrix by a spherical linear interpolation model. For the rotational motion represented by the three-dimensional rotation group, interpolation processing can be performed on the position-orientation rotation matrix information by the cubic spline interpolation model and the nearest neighbor interpolation model.

四元数で表される回転運動に対して、4つのパラメータで三次元回転を表すことが求められる。三次元回転群で表される回転運動に対して、9個のパラメータで三次元回転を表すことが求められる。 For rotational motion represented by a quaternion, it is required to represent three-dimensional rotation with four parameters. For the rotational motion represented by the three-dimensional rotation group, it is required to represent the three-dimensional rotation with nine parameters.

以下、四元数で表される回転運動に対して、球面線形補間モデルを例として、視覚センサの位置姿勢回転行列情報に対して補間処理を行うプロセスを例示的に説明する。 Hereinafter, a process of performing interpolation processing on the position / orientation rotation matrix information of the visual sensor will be exemplified by taking a spherical linear interpolation model as an example for the rotational motion represented by a quaternion.

例示的に、四元数は、式(9)に示すように、実数及び虚数からなるものである。

Figure 2022510418000034
(9) Illustratively, a quaternion consists of a real number and an imaginary number, as shown in equation (9).
Figure 2022510418000034
(9)

ここで、

Figure 2022510418000035

Figure 2022510418000036

Figure 2022510418000037

Figure 2022510418000038
は、実数であり、i、j、kは、相互直交する虚数単位であり、qは、四元数で表される位置姿勢回転行列情報である。 here,
Figure 2022510418000035
,
Figure 2022510418000036
,
Figure 2022510418000037
,
Figure 2022510418000038
Is a real number, i, j, and k are imaginary units that are orthogonal to each other, and q is position-orientation rotation matrix information represented by a quaternion.

四元数で位置姿勢回転行列情報を表す方式は、三角式及び指数式を含み、ここで、指数式表現は、式(10)に示す通りである。 The method for expressing the position-posture rotation matrix information by a quaternion includes a triangular expression and an exponential expression, and the exponential expression expression is as shown in the equation (10).

Figure 2022510418000039
(10)
Figure 2022510418000039
(10)

ここで、

Figure 2022510418000040
here,
Figure 2022510418000040

は、角速度であり、tは時刻であり、qは、四元数の指数マッピングで表される位置姿勢回転行列情報である。 Is the angular velocity, t is the time, and q is the position-posture rotation matrix information represented by the exponential mapping of the quaternion.

例示的に、構築された球面補間モデルは、式(11)に示す通りである。

Figure 2022510418000041
(11) Illustratively, the constructed spherical interpolation model is as shown in Eq. (11).
Figure 2022510418000041
(11)

ここで、

Figure 2022510418000042
及び
Figure 2022510418000043
はそれぞれ、隣接する姿勢回転行列であり、
Figure 2022510418000044
は、姿勢回転行列に対して球面補間処理を行うことで得られた補間後の位置姿勢回転行列情報である。 here,
Figure 2022510418000042
as well as
Figure 2022510418000043
Are adjacent attitude rotation matrices, respectively.
Figure 2022510418000044
Is the position / orientation rotation matrix information after interpolation obtained by performing the spherical interpolation processing on the attitude rotation matrix.

姿勢回転行列情報

Figure 2022510418000045

Figure 2022510418000046
及び球面補間モデルにより、補間後の位置姿勢回転行列情報を取得することができる。 Posture rotation matrix information
Figure 2022510418000045
,
Figure 2022510418000046
The position / orientation rotation matrix information after interpolation can be acquired by the spherical interpolation model.

例示的に、図9は、本願の実施例による四元数で、位置姿勢型センサにより測定された位置姿勢回転行列情報を表すことを示す第1概略図である。図9に示すように、電子機器は、連続的に運動して前の時刻から現在時刻まで回転する。つまり、実線円から点線円まで回転する。図10は、本願の実施例による四元数で、位置姿勢型センサにより測定された位置姿勢回転行列情報を表すことを示す第2概略図である。図10に示すように、図9から取り出した点線枠の平面図である。 Illustratively, FIG. 9 is a first schematic diagram showing that the quaternion according to the embodiment of the present application represents the position / attitude rotation matrix information measured by the position / attitude type sensor. As shown in FIG. 9, the electronic device continuously moves and rotates from the previous time to the current time. That is, it rotates from a solid line circle to a dotted line circle. FIG. 10 is a second schematic diagram showing that the quaternion according to the embodiment of the present application represents the position / attitude rotation matrix information measured by the position / attitude type sensor. As shown in FIG. 10, it is a plan view of the dotted line frame taken out from FIG.

Figure 2022510418000047
及び
Figure 2022510418000048
はそれぞれ、隣接する姿勢回転行列であり、
Figure 2022510418000049
は、姿勢回転行列に対して球面補間処理を行うことで得られた補間後の位置姿勢回転行列情報であり、回転角度は、
Figure 2022510418000050
であり、tは時間であり、0≦t≦1である。
Figure 2022510418000047
as well as
Figure 2022510418000048
Are adjacent attitude rotation matrices, respectively.
Figure 2022510418000049
Is the position / attitude rotation matrix information after interpolation obtained by performing spherical interpolation processing on the attitude rotation matrix, and the rotation angle is
Figure 2022510418000050
T is time, and 0 ≦ t ≦ 1.

本願の実施例において、補間後の位置姿勢回転行列情報に基づいて、第2角速度情報を取得する過程において、補間後の位置姿勢回転行列情報及び微分モデルに基づいて、視覚センサに対応する角速度情報を決定することができる。該微分モデルは、式(1)に示す通りである。 In the embodiment of the present application, in the process of acquiring the second angular velocity information based on the position / orientation rotation matrix information after interpolation, the angular velocity information corresponding to the visual sensor is based on the position / orientation rotation matrix information after interpolation and the differential model. Can be determined. The differential model is as shown in Eq. (1).

位置姿勢回転行列情報に対して、まず、補間処理を行い、続いて微分処理を行うことで、第2角速度情報を間接的に取得することができ、このように、多くのセンサ間の時間同期に適応でき、汎用性を有することが理解されるべきである。 The second angular velocity information can be indirectly acquired by first performing interpolation processing on the position / attitude rotation matrix information and then performing differential processing. In this way, time synchronization between many sensors is performed. It should be understood that it is adaptable and versatile.

S204において、視覚センサと慣性センサとの間の遅延時間情報を決定する。 In S204, the delay time information between the visual sensor and the inertial sensor is determined.

本願の実施例において、第1角速度情報及び第2角速度情報に対してアライメント処理を行った後、第1角速度情報及び第2角速度情報に基づいて、視覚センサと慣性センサとの間の時間遅延情報を決定することもできる。 In the embodiment of the present application, after the alignment processing is performed on the first angular velocity information and the second angular velocity information, the time delay information between the visual sensor and the inertial sensor is based on the first angular velocity information and the second angular velocity information. Can also be determined.

他の実施例において、第1角速度情報及び第2角速度情報により、視覚センサと慣性センサとの間の遅延時間情報を解くことができるだけでなく、回転パラメータとセンサとの間の誤差パラメータを解くこともできる。 In another embodiment, the first angular velocity information and the second angular velocity information can be used not only to solve the delay time information between the visual sensor and the inertial sensor, but also to solve the error parameter between the rotation parameter and the sensor. You can also.

S205において、遅延時間情報に基づいて、視覚センサの測定結果及び慣性センサの測定結果に対して時間同期処理を行う。 In S205, time synchronization processing is performed on the measurement result of the visual sensor and the measurement result of the inertial sensor based on the delay time information.

本願の実施例で提供される時間同期処理方法は、無人運転又は移動ロボットナビゲーションに適用可能である。無人運転又は移動ロボットナビゲーション過程において、該無人運転電子機器又は移動ロボット電子機器は、本願の実施例で提供される時間同期処理方法で、正確な測位を実現することができる。 The time synchronization processing method provided in the embodiment of the present application is applicable to unmanned driving or mobile robot navigation. In the unmanned driving or mobile robot navigation process, the unmanned driving electronic device or the mobile robot electronic device can realize accurate positioning by the time synchronization processing method provided in the embodiment of the present application.

なお、本願の実施例において、視覚センサ及び慣性センサを例として、電子機器による時間同期処理方法のプロセスを説明するだけであり、本願の実施例で提供される時間同期処理方法は、視覚センサ及び慣性センサという2つのセンサに限定されず、他のセンサにも適用可能である。他のセンサは、角速度情報及び位置姿勢回転行列情報を独自で取得できればよい。それと同時に、本願の実施例は、3つ以上のセンサを含む電子機器にも適用可能であり、つまり、上記時間同期処理方法は同様に、3つ以上のセンサを含む電子機器に適用可能である。 In the embodiment of the present application, only the process of the time synchronization processing method by the electronic device will be described by taking the visual sensor and the inertial sensor as an example, and the time synchronization processing method provided in the embodiment of the present application is the visual sensor and the time synchronization processing method. It is not limited to the two sensors called the inertia sensor, and can be applied to other sensors. Other sensors may be able to independently acquire angular velocity information and position / attitude rotation matrix information. At the same time, the embodiments of the present application are also applicable to electronic devices including three or more sensors, that is, the time synchronization processing method is similarly applicable to electronic devices including three or more sensors. ..

上記時間同期処理方法を基に、本願の実施例は、時間同期処理装置を提供する。図11は、本願の実施例による時間同期処理装置の構造を示す概略図である。図11に示すように、時間同期処理装置300は、第1取得モジュール301と、アライメントモジュール302と、同期モジュール303と、を備え、
第1取得モジュール301は、2つの異なるセンサにより収集された角速度情報をそれぞれ得るように構成され、前記角速度情報は、電子機器が回転運動を行う時の角速度情報であり、前記2つの異なるセンサはいずれも、前記電子機器に設けられ、且つ固定に接続され、
アライメントモジュール302は、得られた2つの角速度情報に対してアライメント処理を行い、前記2つの異なるセンサ間の遅延時間情報を決定するように構成され、
同期モジュール303は、前記遅延時間情報に基づいて、前記2つの異なるセンサのそれぞれの測定結果に対して時間同期処理を行うように構成される。
Based on the above time synchronization processing method, the embodiment of the present application provides a time synchronization processing apparatus. FIG. 11 is a schematic view showing the structure of the time synchronization processing apparatus according to the embodiment of the present application. As shown in FIG. 11, the time synchronization processing device 300 includes a first acquisition module 301, an alignment module 302, and a synchronization module 303.
The first acquisition module 301 is configured to acquire angular velocity information collected by two different sensors, respectively, and the angular velocity information is angular velocity information when an electronic device performs a rotational motion, and the two different sensors are Both are provided in the electronic device and are fixedly connected.
The alignment module 302 is configured to perform an alignment process on the obtained two angular velocity information and determine the delay time information between the two different sensors.
The synchronization module 303 is configured to perform time synchronization processing on the measurement results of the two different sensors based on the delay time information.

本願の実施例の時間同期処理装置は、電子機器が回転運動を実行できることが求められる。つまり、電子機器は少なくとも回転軸周りの回転を実行すれば、電子機器における異なるセンサ間の遅延時間情報をキャリブレーションすることができる。複数軸周りの動きを必要とせず、異なるセンサの時間同期の複雑さを低減させ、異なるシーンの需要に適応することができる。また、本願の実施例は、電子機器が複数の軸の周りを回転することで発生した回転運動に基づいて、遅延時間をキャリブレーションすることもできる。これにより、より豊かな回転情報を得て、時間同期の精度を向上させることができる。本願の実施例において、センサが角速度情報を独自で取得することができることが求められる。これにより、異なるセンサ間の遅延時間情報を決定することができる。複数のセンサ間の時間同期に広く適用可能であり、汎用適応性を有する。本願の実施例において、ソフトウェアに基づいて時間同期を実現する方法であり、時間同期のための専用ハードウェアを別途配置する必要がない。本願の実施例において、リアルタイムで取得された遅延時間情報に基づいて、時間同期を行い、時間同期処理をオンラインで行うことができる。本願の実施例において、電子機器が回転運動を行う時に取得された角速度情報に基づいて遅延時間情報を決定する。遅延時間情報を常数として処理することなく、時間同期の精度を向上させる。 The time synchronization processing device of the embodiment of the present application is required to be capable of performing a rotary motion of an electronic device. That is, the electronic device can calibrate the delay time information between different sensors in the electronic device if it performs at least rotation about the axis of rotation. It does not require movement around multiple axes, reduces the time synchronization complexity of different sensors, and can adapt to the demands of different scenes. Also, in the embodiments of the present application, the delay time can be calibrated based on the rotational motion generated by the rotation of the electronic device around a plurality of axes. As a result, richer rotation information can be obtained and the accuracy of time synchronization can be improved. In the embodiment of the present application, it is required that the sensor can acquire the angular velocity information independently. This makes it possible to determine the delay time information between different sensors. It is widely applicable to time synchronization between multiple sensors and has general-purpose adaptability. In the embodiment of the present application, it is a method of realizing time synchronization based on software, and it is not necessary to separately arrange dedicated hardware for time synchronization. In the embodiment of the present application, time synchronization can be performed and time synchronization processing can be performed online based on the delay time information acquired in real time. In the embodiment of the present application, the delay time information is determined based on the angular velocity information acquired when the electronic device performs the rotational motion. Improves the accuracy of time synchronization without processing the delay time information as a constant.

他の実施例において、第1取得モジュール301は、位置姿勢センサにより収集された位置姿勢回転行列情報を取得し、前記位置姿勢回転行列情報に基づいて、電子機器が回転運動を行う時の角速度情報を決定するように構成され、前記2つの異なるセンサのうちの少なくとも1つは、位置姿勢センサである。 In another embodiment, the first acquisition module 301 acquires the position / orientation rotation matrix information collected by the position / attitude sensor, and based on the position / attitude rotation matrix information, the angular velocity information when the electronic device performs a rotational motion. At least one of the two different sensors is a position-attitude sensor.

他の実施例において、第1取得モジュール301は、ジャイロセンサにより収集された角速度情報を取得するように構成され、前記2つの異なるセンサのうちの少なくとも1つは、ジャイロセンサである。 In another embodiment, the first acquisition module 301 is configured to acquire the angular velocity information collected by the gyro sensor, and at least one of the two different sensors is a gyro sensor.

他の実施例において、前記アライメントモジュール302は、前記2つの角速度情報のうちの少なくとも1つに対して補間処理を行い、前記2つの角速度情報をアライメントし、アライメント後の2つの角速度情報に基づいて、前記2つの異なるセンサ間の遅延時間情報を決定するように構成される。 In another embodiment, the alignment module 302 performs an interpolation process on at least one of the two angular velocity information, aligns the two angular velocity information, and is based on the two post-alignment angular velocity information. , It is configured to determine the delay time information between the two different sensors.

他の実施例において、前記アライメントモジュール302は、前記2つの異なるセンサがいずれもジャイロセンサである場合、取得された、前記2つのジャイロセンサのそれぞれにより収集された角速度情報のうちの少なくとも1つに対して補間処理を行い、前記2つの角速度情報をアライメントするように構成される。 In another embodiment, the alignment module 302 is attached to at least one of the acquired angular velocity information collected by each of the two gyro sensors when the two different sensors are both gyro sensors. It is configured to perform interpolation processing on the surface and align the two angular velocity information.

他の実施例において、前記アライメントモジュール302は、前記2つの異なるセンサがいずれも位置姿勢センサである場合、取得された、前記2つの位置姿勢センサのそれぞれにより収集された位置姿勢回転行列情報のうちの少なくとも1つに対して補間処理を行い、前記2つの角速度情報をアライメントするように構成される。 In another embodiment, the alignment module 302 has the position / orientation rotation matrix information acquired by each of the two position / attitude sensors when the two different sensors are both position / attitude sensors. It is configured to perform an interpolation process on at least one of the two angular velocity information to align the two angular velocity information.

他の実施例において、前記アライメントモジュール302は、前記2つの異なるセンサがそれぞれ位置姿勢センサ及びジャイロセンサである場合、取得された、前記位置姿勢センサにより収集された位置姿勢回転行列情報に対して補間処理を行い、前記2つの角速度情報をアライメントするように構成される。 In another embodiment, the alignment module 302 interpolates with the acquired position-attitude rotation matrix information collected by the position-attitude sensor when the two different sensors are a position-attitude sensor and a gyro sensor, respectively. It is configured to perform processing and align the two angular velocity information.

他の実施例において、時間同期処理装置300は、前記アライメントモジュール302により前記2つの角速度情報に対してアライメント処理を行い、前記2つの異なるセンサ間の外部パラメータを決定するように構成される第2取得モジュール304を更に備え、前記外部パラメータは、前記2つの異なるセンサのそれぞれに対応する異なる座標軸の間の回転パラメータ及び前記2つの異なるセンサの間の誤差パラメータを含む。 In another embodiment, the time synchronization processing device 300 is configured to perform alignment processing on the two angular velocity information by the alignment module 302 and determine an external parameter between the two different sensors. Further comprising an acquisition module 304, said external parameters include rotation parameters between different axes corresponding to each of the two different sensors and error parameters between the two different sensors.

他の実施例において、時間同期処理装置300は、前記遅延時間情報を記憶するように構成される記憶モジュール305を更に備え、
前記同期モジュールは、前記電子機器が非運動状態である場合、前記記憶モジュール305により記憶された前記遅延時間情報に基づいて、前記2つの異なるセンサのそれぞれの測定結果に対して時間同期処理を行うように構成される。
In another embodiment, the time synchronization processing device 300 further comprises a storage module 305 configured to store the delay time information.
When the electronic device is in a non-moving state, the synchronization module performs time synchronization processing on the measurement results of the two different sensors based on the delay time information stored by the storage module 305. It is configured as follows.

他の実施例において、前記アライメントモジュール302は、前記アライメント後の2つの角速度情報に基づいて、前記2つの異なるセンサの異なる時刻に対応するサブ誤差方程式を決定し、前記異なる時刻に対応するサブ誤差方程式の和を算出し、最終的な誤差方程式を得て、前記最終的な誤差方程式に対して最小値処理を行い、前記遅延時間情報を得るように構成される。 In another embodiment, the alignment module 302 determines sub-error equations corresponding to different times of the two different sensors based on the two angular velocity information after the alignment, and the sub-errors corresponding to the different times. It is configured to calculate the sum of the equations, obtain the final error equation, perform the minimum value processing on the final error equation, and obtain the delay time information.

他の実施例において、前記アライメントモジュール302は、前記最終的な誤差方程式に対して非線形処理を行い、第1最小化方程式を得て、解が所定第1閾値を満たすまで前記第1最小化方程式を解き、前記第1最小化方程式の解が所定第1閾値を満たすようになってから、前記第1最小化方程式における前記遅延時間情報を取得するように構成される。 In another embodiment, the alignment module 302 performs non-linear processing on the final error equation to obtain a first minimization equation and the first minimization equation until the solution meets a predetermined first threshold. Is solved, and after the solution of the first minimization equation satisfies a predetermined first threshold value, the delay time information in the first minimization equation is acquired.

他の実施例において、前記アライメントモジュール302は、前記最終的な誤差方程式に対して反復最接近点処理を行い、第2最小化方程式を得て、解が所定第2閾値を満たすまで前記第2最小化方程式を解き、前記第2最小化方程式の解が所定第2閾値を満たすようになってから、前記第2最小化方程式における前記遅延時間情報を取得するように構成される。 In another embodiment, the alignment module 302 performs iterative closest point processing on the final error equation to obtain a second minimization equation and the second until the solution meets a predetermined second threshold. It is configured to solve the minimization equation and acquire the delay time information in the second minimization equation after the solution of the second minimization equation satisfies a predetermined second threshold value.

他の実施例において、時間同期処理装置300は、
同期後の測定結果に対してフュージョン処理を行うように構成されるフュージョンモジュール307と、
フュージョン処理後の測定結果に基づいて、測位処理、距離測定処理、電子機器の所在するシーンにおけるターゲット検出、地図の生成又は更新のうちの少なくとも1つを実行するように構成される実行モジュール308と、を更に備える。
In another embodiment, the time synchronization processing device 300 is
A fusion module 307 configured to perform fusion processing on the measured results after synchronization,
With an execution module 308 configured to perform at least one of positioning processing, distance measurement processing, target detection in the scene where the electronic device is located, map generation or update, based on the measurement results after fusion processing. , Are further provided.

上記実施例で提供される時間同期処理装置が時間同期処理を行う場合、上記各プログラムモジュールの分割を例として説明するだけであり、実際の適用において、必要に応じて、異なるプログラムモジュールにより上記処理を完了することができる。つまり、装置の内部構造を異なるプログラムモジュールに分割し、上述した全て又は一部の処理を完了する。なお、上記実施例で提供される時間同期処理装置は、時間同期処理方法と同一の構想に属し、その具体的な実現過程は、方法の実施例を参照されたい。ここで詳細な説明を省略する。 When the time synchronization processing apparatus provided in the above embodiment performs the time synchronization processing, only the division of each of the above program modules will be described as an example, and in the actual application, the above processing will be performed by different program modules as needed. Can be completed. That is, the internal structure of the device is divided into different program modules, and all or part of the above-mentioned processing is completed. The time synchronization processing apparatus provided in the above embodiment belongs to the same concept as the time synchronization processing method, and for the specific realization process, refer to the example of the method. A detailed description will be omitted here.

本願の実施例は、電子機器を更に提供する。図12は、本願の実施例による電子機器の構造を示す概略図である。図12に示すように、電子機器は少なくとも、プロセッサ21と、プロセッサで実行可能なコンピュータプログラムを記憶するように構成されるメモリ23と、を備え、プロセッサ21は、前記コンピュータプログラムを実行する時、上記実施例で提供される時間同期処理方法におけるステップを実行するように構成される。 The embodiments of the present application further provide electronic devices. FIG. 12 is a schematic view showing the structure of an electronic device according to an embodiment of the present application. As shown in FIG. 12, the electronic device comprises at least a processor 21 and a memory 23 configured to store a computer program that can be executed by the processor, when the processor 21 executes the computer program. It is configured to perform a step in the time synchronization processing method provided in the above embodiment.

本実施例における上記実施例で提供される時間同期処理方法におけるステップを実行するための電子機器は、2つの異なるセンサが設けられる電子機器と同じであっても異なってもよい。 The electronic device for performing the steps in the time synchronization processing method provided in the above embodiment in this embodiment may be the same as or different from the electronic device provided with the two different sensors.

任意選択的に、電子機器は、通信インタフェース24を更に備えてもよく、通信インタフェース24は、角速度情報及び位置姿勢回転行列情報を取得するように構成される。電子機器における各コンポーネントは、バスシステム25を介して結合される。バスシステム25は、これらのコンポーネント間の接続及び通信を実現するためのものであることが理解されるべきである。バスシステム25はデータバスを含む以外、電源バス、制御バス及び状態信号バスを含む。しかしながら、明確に説明するために、図12において、全てのバスをバスシステム25と表記する。 Optionally, the electronic device may further include a communication interface 24, which is configured to acquire angular velocity information and position / attitude rotation matrix information. Each component in an electronic device is coupled via a bus system 25. It should be understood that the bus system 25 is intended to provide connectivity and communication between these components. The bus system 25 includes a power bus, a control bus, and a status signal bus, in addition to including a data bus. However, for the sake of clarity, all buses are referred to as bus system 25 in FIG.

理解すべき点として、メモリ23は、揮発性メモリ又は不揮発性メモリであってもよいし、揮発性メモリと不揮発性メモリの両方であってもよい。ここで、不揮発性メモリは、読み取り専用メモリ(ROM:Read Only Memory)、プログラマブル読み取り専用メモリ(PROM:Programmable Read-Only Memory)、消去可能なプログラマブル読み取り専用メモリ(EPROM:Erasable Programmable Read-Only Memory)、電気的消去可能なプログラマブル読み取り専用メモリ(EEPROM:Electrically Erasable Programmable Read-Only Memory)、磁気ランダムアクセスメモリ(FRAM:ferromagnetic random access memory)、フラッシュメモリ(Flash Memory)、磁気面メモリ、光ディスク、又は読み出し専用型光ディスク(CD-ROM:Compact Disc Read-Only Memory)であってもよい。磁気面メモリは、磁気ディスクメモリ又は磁気テープメモリであってもよい。揮発性メモリは、外部キャッシュとして用いられるランダムアクセスメモリ(RAM:Random Access Memory)であってもよい。非限定的な例証として、RAMは、スタティックランダムアクセスメモリ(SRAM:Static Random Access Memory)、同期スタティックランダムアクセスメモリ(SSRAM:Synchronous Static Random Access Memory)、ダイナミックランダムアクセスメモリ(DRAM:Dynamic Random Access Memory)、同期ダイナミックランダムアクセスメモリ(SDRAM:Synchronous Dynamic Random Access Memory)、ダブルデータレート同期ダイナミックランダムアクセスメモリ(DDRSDRAM:Double Data Rate Synchronous Dynamic Random Access Memory)、エンハンスト同期ダイナミックランダムアクセスメモリ(ESDRAM:Enhanced Synchronous Dynamic Random Access Memory)、同期リンクダイナミックランダムアクセスメモリ(SLDRAM:Synchlink Dynamic Random Access Memory)及びダイレクトラムバスランダムアクセスメモリ(DRRAM:Direct Rambus Random Access Memory)などの多数の形態で使用可能である。本発明の実施例に記載されているメモリ23は、これら及び任意の他の適切な形態のメモリを含むが、これらに限定されない。 It should be understood that the memory 23 may be a volatile memory or a non-volatile memory, or may be both a volatile memory and a non-volatile memory. Here, the non-volatile memory includes a read-only memory (ROM: Read Only Memory), a programmable read-only memory (PROM: Programmable Read-Only Memory), and an erasable programmable read-only memory (EPROM: Erasable Programmable Read-Only Memory). , Electrically erasable programmable read-only memory (EEPROM: Electrically Erasable Read-Only Memory), Magnetic Random Access Memory (FRAM: ferromagnetic random access memory), Flash memory (Flash memory), Flash memory (Flash memory) It may be a dedicated optical disk (CD-ROM: Compact Disc Read-Only Memory). The magnetic surface memory may be a magnetic disk memory or a magnetic tape memory. The volatile memory may be a random access memory (RAM: Random Access Memory) used as an external cache. As a non-limiting example, the RAM includes a static random access memory (SRAM: Static Random Access Memory), a synchronous static random access memory (SSRAM: Synchronous Static Access Memory), and a dynamic random access memory (DRAM: Dynamic Random Access Memory). , Synchronous Dynamic Random Access Memory (SDRAM: Synchronous Dynamic Random Access Memory), Double Data Rate Synchronous Dynamic Random Access Memory (DDR DRAM: Double Data Synchronous Dynamic Random Memory Synchronous Dynamic Random Access Memory) Synchronous Dynamic Random Access Memory (Synchronous Dynamic Random Access Memory) Use in many forms such as Access Memory), Synchronic Dynamic Random Access Memory (SLRAM: Synchlink Dynamic Random Access Memory) and Direct Rambus Random Access Memory (DRRAM: Direct Rambus Random Access Memory). The memory 23 described in the embodiments of the present invention includes, but is not limited to, these and any other suitable form of memory.

上記本発明の実施例に開示された方法はプロセッサ21に適用されるか、又はプロセッサ21により実現される。プロセッサ21は、信号を処理する能力を有する集積回路チップであり得る。上記方法の各ステップは、実現する過程において、プロセッサ21におけるハードウェアの集積論理回路又はソフトウェアの形の指令により完成することができる。上記プロセッサ21は、汎用プロセッサ、DSP、又は他のプログラマブルロジックデバイス、ディスクリートゲート又はトランジスタロジックデバイス、ディスクリートハードウェアコンポーネント等であってもよい。プロセッサ21は、本発明の実施例に開示されている各方法、ステップ及び論理的ブロック図を実現又は実行することができる。汎用プロセッサはマイクロプロセッサであってもよいし、該プロセッサは如何なる従来のプロセッサ等であってもよい。本発明の実施例に開示されている方法のステップに合わせて、ハードウェア解読プロセッサによって実行し、又は解読プロセッサ内のハードウェアとソフトウェアモジュールとの組み合わせで実行して完成するように示す。ソフトウェアモジュールは、記憶媒体内に存在してもよい。該記憶媒体は、メモリ23内に位置し、プロセッサ21はメモリ23中の情報を読み取り、そのハードウェアと共に上記方法のステップを完了する。 The method disclosed in the embodiment of the present invention is applied to or realized by the processor 21. The processor 21 can be an integrated circuit chip capable of processing signals. Each step of the above method can be completed by a command in the form of a hardware integrated logic circuit or software in the processor 21 in the process of realization. The processor 21 may be a general purpose processor, DSP, or other programmable logic device, discrete gate or transistor logic device, discrete hardware component, or the like. The processor 21 can realize or execute each method, step and logical block diagram disclosed in the embodiments of the present invention. The general-purpose processor may be a microprocessor, and the processor may be any conventional processor or the like. In accordance with the steps of the method disclosed in the examples of the present invention, it is shown to be executed by a hardware decoding processor or executed by a combination of hardware and software modules in the decoding processor to be completed. The software module may reside in the storage medium. The storage medium is located in memory 23 and the processor 21 reads the information in memory 23 and completes the steps of the above method with its hardware.

ロジックエラーを生成しないか又は矛盾しない限り、本願の実施例で提供される複数の方法又は機器の実施例に開示されている特徴を任意に組み合わせて、新たな方法の実施例又は機器の実施例を得ることができる。 Any combination of the features disclosed in the embodiments of the plurality of methods or devices provided in the embodiments of the present application, as long as no logic error is generated or inconsistent, is an embodiment of the new method or an embodiment of the device. Can be obtained.

上述した実施例を基に、本願の実施例は、コンピュータ可読記憶媒体を提供する。前記コンピュータ可読記憶媒体にコンピュータプログラムが記憶されており、該コンピュータプログラムが上記プロセッサにより実行される時、上記実施例における時間同期処理方法のステップを実現する。 Based on the embodiments described above, the embodiments of the present application provide a computer-readable storage medium. When a computer program is stored in the computer-readable storage medium and the computer program is executed by the processor, the steps of the time synchronization processing method in the above embodiment are realized.

本願で提供される幾つかの実施例において、開示される装置及び方法は、他の方式によって実現できることを理解すべきである。例えば、以上に記載した装置の実施例はただ例示的なもので、例えば、前記ユニットの分割はただロジック機能の分割で、実際に実現する時は他の分割方式によってもよい。例えば、複数のユニット又は組立体を組み合わせてもよいし、別のシステムに組み込んでもよい。又は若干の特徴を無視してもよいし、実行しなくてもよい。また、示したか或いは検討した相互間の結合又は直接的な結合又は通信接続は、幾つかのインタフェース、装置又はユニットによる間接的な結合又は通信接続であってもよく、電気的、機械的または他の形態であってもよい。 It should be understood that in some of the embodiments provided herein, the disclosed devices and methods can be implemented by other methods. For example, the embodiment of the device described above is merely an example. For example, the division of the unit is merely a division of a logic function, and when it is actually realized, another division method may be used. For example, a plurality of units or assemblies may be combined or incorporated into another system. Alternatively, some features may or may not be implemented. Also, the mutual or direct coupling or communication connection shown or considered may be an indirect coupling or communication connection by some interface, device or unit, electrical, mechanical or other. It may be in the form of.

分離部材として説明した上記ユニットは、物理的に別個のものであってもよいし、そうでなくてもよい。ユニットとして示された部材は、物理的ユニットであってもよいし、そうでなくてもよい。即ち、同一の位置に位置してもよいし、複数のネットワークに分布してもよい。実際の需要に応じてそのうちの一部又は全てのユニットにより本実施例の方策の目的を実現することができる。 The unit described as a separating member may or may not be physically separate. The member shown as a unit may or may not be a physical unit. That is, it may be located at the same position or may be distributed over a plurality of networks. The objectives of the measures of this embodiment can be achieved by some or all of the units depending on the actual demand.

また、本願の各実施例における各機能ユニットは一つの処理ユニットに集積されてもよいし、各ユニットが物理的に別個のものとして存在してもよいし、2つ以上のユニットが一つのユニットに集積されてもよい。上記集積したユニットはハードウェアとして実現してもよく、ハードウェアとソフトウェア機能ユニットとの組み合わせで実現してもよい。 Further, each functional unit in each embodiment of the present application may be integrated in one processing unit, each unit may exist as physically separate units, or two or more units may be one unit. It may be accumulated in. The integrated unit may be realized as hardware, or may be realized by a combination of hardware and a software function unit.

上記各方法に係る実施例の全部又は一部のステップはプログラム命令に係るハードウェアにより実現され、前記プログラムはコンピュータ読み取り可能な記憶媒体に記憶されてもよく、該プログラムが実行される時、上記方法の実施例におけるステップを実行し、前記記憶媒体は、携帯型記憶装置、ROM、RAM、磁気ディスク又は光ディスクなど、プログラムコードを記憶可能な各種の媒体を含むことは、当業者でれば、理解すべきである。 All or part of the steps of the embodiment according to each of the above methods are realized by the hardware related to the program instruction, and the program may be stored in a computer-readable storage medium, and when the program is executed, the above-mentioned program is executed. It is possible for those skilled in the art to carry out the steps in the embodiment of the method and that the storage medium includes various media capable of storing the program code, such as a portable storage device, ROM, RAM, magnetic disk or optical disk. Should be understood.

又は、本願の上記集積したユニットがソフトウェア機能ユニットの形で実現され、かつ独立した製品として販売または使用されるとき、コンピュータにより読み取り可能な記憶媒体内に記憶されてもよい。このような理解のもと、本願の技術的解決手段は、本質的に、又は、従来技術に対して貢献をもたらした部分又は該技術的解決手段の一部は、ソフトウェア製品の形式で具現することができ、このようなコンピュータソフトウェア製品は、記憶媒体に記憶しても良く、また、コンピュータ機器(パーソナルコンピュータ、サーバ又はネットワーク装置など)に、本願の各実施例に記載の方法の全部又は一部のステップを実行させるための若干の命令を含む。前記の記憶媒体は、携帯型記憶装置、ROM、RAM、磁気ディスク、又は光ディスクなど、プログラムコードを記憶可能な各種の媒体を含む。 Alternatively, when the integrated unit of the present application is realized in the form of a software functional unit and sold or used as an independent product, it may be stored in a computer-readable storage medium. Based on this understanding, the technical solutions of the present application essentially, or parts that have contributed to the prior art, or parts of the technical solutions, are embodied in the form of software products. Such computer software products may be stored in storage media and may be stored in computer equipment (personal computers, servers, network devices, etc.) in all or one of the methods described in each embodiment of the present application. Includes some instructions to execute the steps of the part. The storage medium includes various media capable of storing a program code, such as a portable storage device, a ROM, a RAM, a magnetic disk, or an optical disk.

以上は本願の実施形態に過ぎず、本願の保護の範囲はそれらに制限されるものではなく、当業者が本願に開示された技術範囲内で容易に想到しうる変更や置換はいずれも、本願の保護範囲内に含まれるべきである。従って、本願の保護範囲は特許請求の範囲の保護範囲を基準とするべきである。 The above are merely embodiments of the present application, and the scope of protection of the present application is not limited thereto, and any changes or substitutions that can be easily conceived by those skilled in the art within the technical scope disclosed in the present application are described in the present application. Should be included within the scope of protection of. Therefore, the scope of protection of the present application should be based on the scope of protection of the claims.

Claims (28)

時間同期処理方法であって、
2つの異なるセンサにより収集された角速度情報をそれぞれ得ることであって、前記角速度情報は、電子機器が回転運動を行う時の角速度情報であり、前記2つの異なるセンサはいずれも、前記電子機器に設けられ、且つ固定に接続される、ことと、
得られた2つの角速度情報に対してアライメント処理を行い、前記2つの異なるセンサ間の遅延時間情報を決定することと、
前記遅延時間情報に基づいて、前記2つの異なるセンサのそれぞれの測定結果に対して時間同期処理を行うことと、を含む、時間同期処理方法。
It is a time synchronization processing method
Obtaining angular velocity information collected by two different sensors, the angular velocity information is angular velocity information when an electronic device performs a rotational motion, and both of the two different sensors are attached to the electronic device. Being provided and fixedly connected,
Alignment processing is performed on the two obtained angular velocity information to determine the delay time information between the two different sensors.
A time synchronization processing method including performing time synchronization processing on the measurement results of each of the two different sensors based on the delay time information.
前記2つの異なるセンサのうちの少なくとも1つは、位置姿勢センサであり、2つの異なるセンサにより収集された角速度情報をそれぞれ得ることは、
前記位置姿勢センサにより収集された位置姿勢回転行列情報を取得し、前記位置姿勢回転行列情報に基づいて、前記電子機器が回転運動を行う時の角速度情報を決定することを含むことを特徴とする
請求項1に記載の方法。
At least one of the two different sensors is a position-attitude sensor, and obtaining angular velocity information collected by the two different sensors can be obtained.
It is characterized by acquiring the position / orientation rotation matrix information collected by the position / attitude sensor and determining the angular velocity information when the electronic device performs a rotational motion based on the position / attitude rotation matrix information. The method according to claim 1.
前記2つの異なるセンサのうちの少なくとも1つは、ジャイロセンサであり、2つの異なるセンサにより収集された角速度情報をそれぞれ得ることは、
前記ジャイロセンサにより収集された角速度情報を取得することを含むことを特徴とする
請求項1又は2に記載の方法。
At least one of the two different sensors is a gyro sensor, and obtaining angular velocity information collected by the two different sensors can be obtained.
The method according to claim 1 or 2, wherein the method comprises acquiring the angular velocity information collected by the gyro sensor.
得られた2つの角速度情報に対してアライメント処理を行い、前記2つの異なるセンサ間の遅延時間情報を決定することは、
前記2つの角速度情報のうちの少なくとも1つに対して補間処理を行い、前記2つの角速度情報をアライメントすることと、
アライメント後の2つの角速度情報に基づいて、前記2つの異なるセンサ間の遅延時間情報を決定することと、を含むことを特徴とする
請求項1に記載の方法。
Alignment processing is performed on the two obtained angular velocity information to determine the delay time information between the two different sensors.
Interpolation processing is performed on at least one of the two angular velocity information to align the two angular velocity information.
The method according to claim 1, wherein the delay time information between the two different sensors is determined based on the two angular velocity information after the alignment.
前記2つの角速度情報のうちの少なくとも1つに対して補間処理を行うことは、
前記2つの異なるセンサがいずれもジャイロセンサである場合、取得された、前記2つのジャイロセンサのそれぞれにより収集された角速度情報のうちの少なくとも1つに対して補間処理を行うことを含むことを特徴とする
請求項4に記載の方法。
Performing interpolation processing on at least one of the two angular velocity information is possible.
When both of the two different sensors are gyro sensors, it is characterized by including performing interpolation processing on at least one of the acquired angular velocity information collected by each of the two gyro sensors. The method according to claim 4.
前記2つの角速度情報のうちの少なくとも1つに対して補間処理を行うことは、
前記2つの異なるセンサがいずれも位置姿勢センサである場合、取得された、前記2つの位置姿勢センサのそれぞれにより収集された位置姿勢回転行列情報のうちの少なくとも1つに対して補間処理を行うことを含むことを特徴とする
請求項4に記載の方法。
Performing interpolation processing on at least one of the two angular velocity information is possible.
When both of the two different sensors are position / attitude sensors, the interpolation process is performed on at least one of the acquired position / attitude rotation matrix information collected by each of the two position / attitude sensors. The method according to claim 4, wherein the method comprises.
前記2つの角速度情報のうちの少なくとも1つに対して補間処理を行うことは、
前記2つの異なるセンサがそれぞれ位置姿勢センサ及びジャイロセンサである場合、取得された、前記位置姿勢センサにより収集された位置姿勢回転行列情報に対して補間処理を行うことを含むことを特徴とする
請求項4に記載の方法。
Performing interpolation processing on at least one of the two angular velocity information is possible.
When the two different sensors are a position / attitude sensor and a gyro sensor, respectively, the claim comprises performing an interpolation process on the acquired position / attitude rotation matrix information collected by the position / attitude sensor. Item 4. The method according to Item 4.
得られた2つの角速度情報に対してアライメント処理を行い、前記2つの異なるセンサ間の遅延時間情報を決定した後、前記方法は、
前記2つの角速度情報に対してアライメント処理を行うことで、前記2つの異なるセンサ間の外部パラメータを決定することであって、前記外部パラメータは、前記2つの異なるセンサのそれぞれに対応する異なる座標軸の間の回転パラメータ及び前記2つの異なるセンサの間の誤差パラメータを含む、ことを更に含むことを特徴とする
請求項1-7のいずれか一項に記載の方法。
After performing an alignment process on the obtained two angular velocity information and determining the delay time information between the two different sensors, the method is performed.
By performing alignment processing on the two angular velocity information, an external parameter between the two different sensors is determined, and the external parameter is a different coordinate axis corresponding to each of the two different sensors. The method of any one of claims 1-7, further comprising: including a rotation parameter between and an error parameter between the two different sensors.
得られた2つの角速度情報に対してアライメント処理を行い、前記2つの異なるセンサ間の遅延時間情報を決定した後、前記方法は、
前記遅延時間情報を記憶することと、
前記電子機器が非運動状態である場合、記憶された前記遅延時間情報に基づいて、前記2つの異なるセンサのそれぞれの測定結果に対して時間同期処理を行うことと、を更に含むことを特徴とする
請求項1-8のいずれか一項に記載の方法。
After performing an alignment process on the obtained two angular velocity information and determining the delay time information between the two different sensors, the method is performed.
To store the delay time information and
When the electronic device is in a non-moving state, it is characterized by further including performing time synchronization processing on the measurement results of each of the two different sensors based on the stored delay time information. The method according to any one of claims 1-8.
アライメント後の2つの角速度情報に基づいて、前記2つの異なるセンサ間の遅延時間情報を決定することは、
前記アライメント後の2つの角速度情報に基づいて、前記2つの異なるセンサの異なる時刻に対応するサブ誤差方程式を決定することと、
前記異なる時刻に対応するサブ誤差方程式の和を算出し、最終的な誤差方程式を得ることと、
前記最終的な誤差方程式に対して最小値処理を行い、前記遅延時間情報を得ることと、を含むことを特徴とする
請求項4に記載の方法。
Determining the delay time information between the two different sensors based on the two angular velocity information after alignment can be done.
To determine the sub-error equations corresponding to different times of the two different sensors based on the two angular velocity information after the alignment.
To obtain the final error equation by calculating the sum of the sub-error equations corresponding to the different times,
The method according to claim 4, further comprising performing minimum value processing on the final error equation to obtain the delay time information.
前記最終的な誤差方程式に対して最小値処理を行い、前記遅延時間情報を得ることは、
前記最終的な誤差方程式に対して非線形処理を行い、第1最小化方程式を得ることと、
解が所定第1閾値を満たすまで前記第1最小化方程式を解き、前記第1最小化方程式の解が所定第1閾値を満たすようになってから、前記第1最小化方程式における前記遅延時間情報を取得することと、を含むことを特徴とする
請求項10に記載の方法。
Performing minimum value processing on the final error equation and obtaining the delay time information is not possible.
Non-linear processing is performed on the final error equation to obtain the first minimization equation.
The delay time information in the first minimization equation is solved after the first minimization equation is solved until the solution satisfies the predetermined first threshold value and the solution of the first minimization equation satisfies the predetermined first threshold value. 10. The method of claim 10, wherein the method comprises:
前記最終的な誤差方程式に対して最小値処理を行い、前記遅延時間情報を得ることは、
前記最終的な誤差方程式に対して反復最接近点処理を行い、第2最小化方程式を得ることと、
解が所定第2閾値を満たすまで前記第2最小化方程式を解き、前記第2最小化方程式の解が所定第2閾値を満たすようになってから、前記第2最小化方程式における前記遅延時間情報を取得することと、を含むことを特徴とする
請求項10に記載の方法。
Performing minimum value processing on the final error equation and obtaining the delay time information is not possible.
Iterative closest point processing is performed on the final error equation to obtain the second minimization equation.
The second minimization equation is solved until the solution satisfies the predetermined second threshold value, and after the solution of the second minimization equation satisfies the predetermined second threshold value, the delay time information in the second minimization equation is satisfied. 10. The method of claim 10, wherein the method comprises:
前記遅延時間情報に基づいて、前記2つの異なるセンサのそれぞれの測定結果に対して時間同期処理を行った後、前記方法は、
同期後の測定結果に対してフュージョン処理を行うことと、
フュージョン処理後の測定結果に基づいて、測位処理、距離測定処理、電子機器の所在するシーンにおけるターゲット検出、地図の生成又は更新のうちの少なくとも1つを実行することと、を更に含むことを特徴とする
請求項1-12のいずれか一項に記載の方法。
After performing time synchronization processing on the measurement results of each of the two different sensors based on the delay time information, the method is:
Performing fusion processing on the measurement results after synchronization,
It is characterized by further including performing at least one of positioning processing, distance measurement processing, target detection in the scene where the electronic device is located, and map generation or update based on the measurement result after the fusion processing. The method according to any one of claims 1-12.
時間同期処理装置であって、前記装置は、第1取得モジュールと、アライメントモジュールと、同期モジュールと、を備え、
前記第1取得モジュールは、2つの異なるセンサにより収集された角速度情報をそれぞれ得るように構成され、前記角速度情報は、電子機器が回転運動を行う時の角速度情報であり、前記2つの異なるセンサはいずれも、前記電子機器に設けられ、且つ固定に接続され、
前記アライメントモジュールは、得られた2つの角速度情報に対してアライメント処理を行い、前記2つの異なるセンサ間の遅延時間情報を決定するように構成され、
前記同期モジュールは、前記遅延時間情報に基づいて、前記2つの異なるセンサのそれぞれの測定結果に対して時間同期処理を行うように構成される、時間同期処理装置。
A time synchronization processing device, the device including a first acquisition module, an alignment module, and a synchronization module.
The first acquisition module is configured to acquire angular velocity information collected by two different sensors, respectively, and the angular velocity information is angular velocity information when an electronic device performs a rotational motion, and the two different sensors Both are provided in the electronic device and are fixedly connected.
The alignment module is configured to perform an alignment process on the obtained two angular velocity information and determine the delay time information between the two different sensors.
The synchronization module is a time synchronization processing device configured to perform time synchronization processing on the measurement results of each of the two different sensors based on the delay time information.
前記第1取得モジュールは、位置姿勢センサにより収集された位置姿勢回転行列情報を取得し、前記位置姿勢回転行列情報に基づいて、前記電子機器が回転運動を行う時の角速度情報を決定するように構成され、前記2つの異なるセンサのうちの少なくとも1つは、位置姿勢センサであることを特徴とする
請求項14に記載の装置。
The first acquisition module acquires the position / orientation rotation matrix information collected by the position / attitude sensor, and determines the angular velocity information when the electronic device performs a rotational motion based on the position / attitude rotation matrix information. The device of claim 14, wherein at least one of the two different sensors configured is a position-attitude sensor.
前記第1取得モジュールは、ジャイロセンサにより収集された角速度情報を取得するように構成され、前記2つの異なるセンサのうちの少なくとも1つは、ジャイロセンサであることを特徴とする
請求項14又は15に記載の装置。
The first acquisition module is configured to acquire the angular velocity information collected by the gyro sensor, and claim 14 or 15 is characterized in that at least one of the two different sensors is a gyro sensor. The device described in.
前記アライメントモジュールは、前記2つの角速度情報のうちの少なくとも1つに対して補間処理を行い、前記2つの角速度情報をアライメントし、アライメント後の2つの角速度情報に基づいて、前記2つの異なるセンサ間の遅延時間情報を決定するように構成されることを特徴とする
請求項14に記載の装置。
The alignment module performs interpolation processing on at least one of the two angular velocity information, aligns the two angular velocity information, and based on the two post-aligned angular velocity information, between the two different sensors. 14. The apparatus of claim 14, wherein the device is configured to determine the delay time information of.
前記アライメントモジュールは、前記2つの異なるセンサがいずれもジャイロセンサである場合、取得された、前記2つのジャイロセンサのそれぞれにより収集された角速度情報のうちの少なくとも1つに対して補間処理を行い、前記2つの角速度情報をアライメントするように構成されることを特徴とする
請求項17に記載の装置。
When the two different sensors are both gyro sensors, the alignment module performs interpolation processing on at least one of the acquired angular velocity information collected by each of the two gyro sensors. 17. The apparatus according to claim 17, wherein the two angular velocity information are configured to be aligned.
前記アライメントモジュールは、前記2つの異なるセンサがいずれも位置姿勢センサである場合、取得された、前記2つの位置姿勢センサのそれぞれにより収集された位置姿勢回転行列情報のうちの少なくとも1つに対して補間処理を行い、前記2つの角速度情報をアライメントするように構成されることを特徴とする
請求項17に記載の装置。
The alignment module provides for at least one of the acquired position / attitude rotation matrix information collected by each of the two position / attitude sensors when the two different sensors are both position / attitude sensors. The apparatus according to claim 17, wherein the apparatus is configured to perform an interpolation process and align the two angular velocity information.
前記アライメントモジュールは、前記2つの異なるセンサがそれぞれ位置姿勢センサ及びジャイロセンサである場合、取得された、前記位置姿勢センサにより収集された位置姿勢回転行列情報に対して補間処理を行い、前記2つの角速度情報をアライメントするように構成されることを特徴とする
請求項17に記載の装置。
When the two different sensors are a position / attitude sensor and a gyro sensor, the alignment module performs interpolation processing on the acquired position / attitude rotation matrix information collected by the position / attitude sensor, and performs interpolation processing on the two different sensors. 17. The apparatus of claim 17, wherein the apparatus is configured to align angular velocity information.
前記装置は、
前記アライメントモジュールにより前記2つの角速度情報に対してアライメント処理を行い、前記2つの異なるセンサ間の外部パラメータを決定するように構成される第2取得モジュールを更に備え、前記外部パラメータは、前記2つの異なるセンサのそれぞれに対応する異なる座標軸の間の回転パラメータ及び前記2つの異なるセンサの間の誤差パラメータを含むことを特徴とする
請求項14-20のいずれか一項に記載の装置。
The device is
A second acquisition module configured to perform alignment processing on the two angular velocity information by the alignment module and determine an external parameter between the two different sensors is further provided, and the external parameter is the two. The apparatus according to any one of claims 14-20, comprising: a rotation parameter between different axes corresponding to each of the different sensors and an error parameter between the two different sensors.
前記装置は、
前記遅延時間情報を記憶するように構成される記憶モジュールを更に備え、
前記同期モジュールは、前記電子機器が非運動状態である場合、前記記憶モジュールにより記憶された前記遅延時間情報に基づいて、前記2つの異なるセンサのそれぞれの測定結果に対して時間同期処理を行うように構成されることを特徴とする
請求項14-21のいずれか一項に記載の装置。
The device is
A storage module configured to store the delay time information is further provided.
When the electronic device is in a non-moving state, the synchronization module performs time synchronization processing on the measurement results of the two different sensors based on the delay time information stored by the storage module. The apparatus according to any one of claims 14-21.
前記アライメントモジュールは、前記アライメント後の2つの角速度情報に基づいて、前記2つの異なるセンサの異なる時刻に対応するサブ誤差方程式を決定し、前記異なる時刻に対応するサブ誤差方程式の和を算出し、最終的な誤差方程式を得て、前記最終的な誤差方程式に対して最小値処理を行い、前記遅延時間情報を得るように構成されることを特徴とする
請求項17に記載の装置。
The alignment module determines the sub-error equations corresponding to different times of the two different sensors based on the two angular velocity information after the alignment, and calculates the sum of the sub-error equations corresponding to the different times. The apparatus according to claim 17, wherein the apparatus is configured to obtain a final error equation, perform minimum value processing on the final error equation, and obtain the delay time information.
前記アライメントモジュールは、前記最終的な誤差方程式に対して非線形処理を行い、第1最小化方程式を得て、解が所定第1閾値を満たすまで前記第1最小化方程式を解き、前記第1最小化方程式の解が所定第1閾値を満たすようになってから、前記第1最小化方程式における前記遅延時間情報を取得するように構成されることを特徴とする
請求項23に記載の装置。
The alignment module performs non-linear processing on the final error equation, obtains a first minimization equation, solves the first minimization equation until the solution satisfies a predetermined first threshold value, and the first minimum. 23. The apparatus of claim 23, wherein the delay time information in the first minimization equation is acquired after the solution of the equation of equations satisfies a predetermined first threshold value.
前記アライメントモジュールは、前記最終的な誤差方程式に対して反復最接近点処理を行い、第2最小化方程式を得て、解が所定第2閾値を満たすまで前記第2最小化方程式を解き、前記第2最小化方程式の解が所定第2閾値を満たすようになってから、前記第2最小化方程式における前記遅延時間情報を取得するように構成されることを特徴とする
請求項23に記載の装置。
The alignment module performs iterative closest point processing on the final error equation, obtains a second minimization equation, solves the second minimization equation until the solution satisfies a predetermined second threshold value, and then performs the second minimization equation. 23. The second aspect of claim 23 is characterized in that the delay time information in the second minimization equation is acquired after the solution of the second minimization equation satisfies a predetermined second threshold value. Device.
前記装置は、
同期後の測定結果に対してフュージョン処理を行うように構成されるフュージョンモジュールと、
フュージョン処理後の測定結果に基づいて、測位処理、距離測定処理、電子機器の所在するシーンにおけるターゲット検出、地図の生成又は更新のうちの少なくとも1つを実行するように構成される実行モジュールと、を更に備えることを特徴とする
請求項14-25のいずれか一項に記載の装置。
The device is
A fusion module configured to perform fusion processing on the measured results after synchronization,
An execution module configured to perform at least one of positioning processing, distance measurement processing, target detection in a scene where an electronic device is located, map generation or update, based on the measurement results after fusion processing. The apparatus according to any one of claims 14-25, further comprising:
電子機器であって、前記電子機器は少なくとも、プロセッサと、プロセッサで実行可能なコンピュータプログラムを記憶するように構成されるメモリと、を備え、前記プロセッサは、前記コンピュータプログラムを実行する時、請求項1から13のいずれか一項に記載の方法を実行するように構成される、電子機器。 An electronic device, wherein the electronic device comprises at least a processor and a memory configured to store a computer program that can be executed by the processor, and the processor is claimed when the computer program is executed. An electronic device configured to perform the method according to any one of 1 to 13. コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体にコンピュータプログラムが記憶されており、前記コンピュータプログラムがプロセッサにより実行される時、請求項1から13のいずれか一項に記載の方法を実現する、コンピュータ可読記憶媒体。 A computer-readable storage medium, wherein a computer program is stored in the computer-readable storage medium, and when the computer program is executed by a processor, the method according to any one of claims 1 to 13 is realized. , Computer readable storage medium.
JP2021531851A 2019-06-21 2020-02-26 Time synchronization processing method, electronic devices and storage media Pending JP2022510418A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910545218.8A CN112113582A (en) 2019-06-21 2019-06-21 Time synchronization processing method, electronic device, and storage medium
CN201910545218.8 2019-06-21
PCT/CN2020/076836 WO2020253260A1 (en) 2019-06-21 2020-02-26 Time synchronization processing method, electronic apparatus, and storage medium

Publications (1)

Publication Number Publication Date
JP2022510418A true JP2022510418A (en) 2022-01-26

Family

ID=73796638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021531851A Pending JP2022510418A (en) 2019-06-21 2020-02-26 Time synchronization processing method, electronic devices and storage media

Country Status (4)

Country Link
JP (1) JP2022510418A (en)
KR (1) KR20210084622A (en)
CN (1) CN112113582A (en)
WO (1) WO2020253260A1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113177440A (en) * 2021-04-09 2021-07-27 深圳市商汤科技有限公司 Image synchronization method and device, electronic equipment and computer storage medium
CN113310505B (en) * 2021-06-15 2024-04-09 苏州挚途科技有限公司 External parameter calibration method and device of sensor system and electronic equipment
CN113848696B (en) * 2021-09-15 2022-09-16 北京易航远智科技有限公司 Multi-sensor time synchronization method based on position information
CN114217665A (en) * 2021-12-21 2022-03-22 清华大学 Camera and laser radar time synchronization method, device and storage medium
CN114413878B (en) * 2021-12-24 2024-02-13 苏州浪潮智能科技有限公司 Time calibration system, method, electronic equipment and storage medium
CN115235527B (en) * 2022-07-20 2023-05-12 上海木蚁机器人科技有限公司 Sensor external parameter calibration method and device and electronic equipment
CN115979277B (en) * 2023-02-22 2023-06-02 广州导远电子科技有限公司 Time synchronization method, apparatus, electronic device, and computer-readable storage medium
CN117034201A (en) * 2023-10-08 2023-11-10 东营航空产业技术研究院 Multi-source real-time data fusion method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002090151A (en) * 2000-09-14 2002-03-27 Japan Aviation Electronics Industry Ltd Sensor abnormality determination circuit and steering control device
CN108680196A (en) * 2018-04-28 2018-10-19 远形时空科技(北京)有限公司 A kind of time delay adjustment method, system and computer-readable medium
CN109506617A (en) * 2018-12-28 2019-03-22 歌尔科技有限公司 Sensing data processing method, storage medium, electronic equipment

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2770339B1 (en) * 2013-02-26 2019-11-27 Hexagon Technology Center GmbH Sensor synchronisation method and corresponding sensor measuring system
CN103616710A (en) * 2013-12-17 2014-03-05 靳文瑞 Multi-sensor combined navigation time synchronizing system based on field programmable gate array (FPGA)
CN104501817A (en) * 2014-11-24 2015-04-08 李青花 Error elimination-based vehicle navigation system
CN107728617B (en) * 2017-09-27 2021-07-06 速感科技(北京)有限公司 Multi-view online calibration method, mobile robot and system
CN108871311B (en) * 2018-05-31 2021-01-19 北京字节跳动网络技术有限公司 Pose determination method and device
CN109029433B (en) * 2018-06-28 2020-12-11 东南大学 Method for calibrating external parameters and time sequence based on vision and inertial navigation fusion SLAM on mobile platform
CN109186596B (en) * 2018-08-14 2020-11-10 深圳清华大学研究院 IMU measurement data generation method, system, computer device and readable storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002090151A (en) * 2000-09-14 2002-03-27 Japan Aviation Electronics Industry Ltd Sensor abnormality determination circuit and steering control device
CN108680196A (en) * 2018-04-28 2018-10-19 远形时空科技(北京)有限公司 A kind of time delay adjustment method, system and computer-readable medium
CN109506617A (en) * 2018-12-28 2019-03-22 歌尔科技有限公司 Sensing data processing method, storage medium, electronic equipment

Also Published As

Publication number Publication date
KR20210084622A (en) 2021-07-07
WO2020253260A1 (en) 2020-12-24
CN112113582A (en) 2020-12-22

Similar Documents

Publication Publication Date Title
JP2022510418A (en) Time synchronization processing method, electronic devices and storage media
CN109084732B (en) Positioning and navigation method, device and processing equipment
Heng et al. Self-calibration and visual slam with a multi-camera system on a micro aerial vehicle
CN111156998B (en) Mobile robot positioning method based on RGB-D camera and IMU information fusion
CN106803271B (en) Camera calibration method and device for visual navigation unmanned aerial vehicle
KR102016551B1 (en) Apparatus and method for estimating position
Schmid et al. Autonomous vision‐based micro air vehicle for indoor and outdoor navigation
Panahandeh et al. Vision-aided inertial navigation based on ground plane feature detection
JP6198230B2 (en) Head posture tracking using depth camera
CN108235735A (en) Positioning method and device, electronic equipment and computer program product
US20210183100A1 (en) Data processing method and apparatus
CN111427061A (en) Robot mapping method and device, robot and storage medium
US10841570B2 (en) Calibration device and method of operating the same
TW201832185A (en) Camera auto-calibration with gyroscope
CN112230242A (en) Pose estimation system and method
Zhang et al. Vision-aided localization for ground robots
Tomažič et al. Fusion of visual odometry and inertial navigation system on a smartphone
WO2019191288A1 (en) Direct sparse visual-inertial odometry using dynamic marginalization
KR101985344B1 (en) Sliding windows based structure-less localization method using inertial and single optical sensor, recording medium and device for performing the method
Deng et al. Global optical flow-based estimation of velocity for multicopters using monocular vision in GPS-denied environments
CN113587934A (en) Robot, indoor positioning method and device and readable storage medium
Hinzmann et al. Flexible stereo: constrained, non-rigid, wide-baseline stereo vision for fixed-wing aerial platforms
CN114111776A (en) Positioning method and related device
CN116952229A (en) Unmanned aerial vehicle positioning method, device, system and storage medium
Qayyum et al. Inertial-kinect fusion for outdoor 3d navigation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210603

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230418