RU2789923C2 - Methods and systems for synchronizing sensors of unmanned vehicles (sdv) online - Google Patents

Methods and systems for synchronizing sensors of unmanned vehicles (sdv) online Download PDF

Info

Publication number
RU2789923C2
RU2789923C2 RU2019143603A RU2019143603A RU2789923C2 RU 2789923 C2 RU2789923 C2 RU 2789923C2 RU 2019143603 A RU2019143603 A RU 2019143603A RU 2019143603 A RU2019143603 A RU 2019143603A RU 2789923 C2 RU2789923 C2 RU 2789923C2
Authority
RU
Russia
Prior art keywords
time
lidar
camera
data
camera system
Prior art date
Application number
RU2019143603A
Other languages
Russian (ru)
Other versions
RU2019143603A3 (en
RU2019143603A (en
Inventor
Алексей Евгеньевич Голомедов
Виталий Владимирович Подколзин
Константин Олегович Киселев
Original Assignee
Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии"
Filing date
Publication date
Application filed by Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" filed Critical Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии"
Priority to RU2019143603A priority Critical patent/RU2789923C2/en
Priority to EP20197957.2A priority patent/EP3842835A1/en
Priority to US17/039,972 priority patent/US11892571B2/en
Publication of RU2019143603A publication Critical patent/RU2019143603A/en
Publication of RU2019143603A3 publication Critical patent/RU2019143603A3/ru
Application granted granted Critical
Publication of RU2789923C2 publication Critical patent/RU2789923C2/en

Links

Images

Abstract

FIELD: unmanned vehicles.
SUBSTANCE: invention relates to computerized methods and systems for synchronizing sensors used by an unmanned vehicle (SDV) for navigation, in particular to synchronizing a lidar (LIDAR) and a camera. A method for synchronizing data for operation of an unmanned vehicle comprises: causing, by means of an electronic device, a camera system and a lidar system, to provide image data and map data to the electronic device at a common time reference, determining, by means of the electronic device, a first timestamp for map data, a second timestamp for the image data; and a time offset between the first timestamp and the second timestamp. The time offset is used to initiate a delay between successive snapshots generated by the camera system.
EFFECT: reliability of the system during operation is increased.
20 cl, 9 dwg

Description

Область техники, к которой относится изобретениеThe technical field to which the invention belongs

[0001] Настоящая технология относится к компьютеризированным способам и системам для синхронизации датчиков, используемых беспилотным транспортным средством (SDV) для осуществления навигации; более конкретно, настоящая технология относится к синхронизации лидара (LIDAR) и камеры.[0001] The present technology relates to computerized methods and systems for synchronizing sensors used by an unmanned vehicle (SDV) for navigation; more specifically, the present technology relates to lidar (LIDAR) and camera synchronization.

Уровень техникиState of the art

[0002] В предшествующем уровне техники предложены и реализованы несколько компьютерных навигационных систем, которые выполнены с возможностью помощи при навигации и/или управлении транспортным средством. Эти системы варьируются от более базовых решений на основе картографической локализации (т.е. от использования компьютерной системы для того, чтобы помогать водителю в осуществлении навигации по маршруту из начального пункта в пункт назначения) до более сложных решений (компьютеризированных и/или автономных от водителя систем вождения).[0002] In the prior art, several computer navigation systems have been proposed and implemented that are capable of assisting in navigation and/or driving. These systems range from more basic map-based localization solutions (i.e. using a computer system to assist the driver in navigating a route from a starting point to a destination) to more complex solutions (computerized and/or driver-autonomous). driving systems).

[0003] Некоторые из этих систем реализуются как то, что общеизвестно в качестве системы "оптимального регулирования скорости" или системы “круиз-контроля”. В этих системах компьютерная система на борту транспортных средств поддерживает заданную пользователем скорость транспортного средства. Часть системы оптимального регулирования скорости реализует систему "интеллектуального управления дистанцией", за счет которой пользователь может устанавливать дистанцию до потенциального автомобиля впереди (к примеру, выбирать значение, выражаемое в числе транспортных средств), и компьютерная система регулирует скорость транспортного средства, по меньшей мере частично на основе транспортного средства, приближающегося к впереди идущему потенциальному транспортному средству в пределах предварительно заданной дистанции. Некоторые системы оптимального регулирования скорости дополнительно оснащаются системой управления столкновениями, причем эти системы при обнаружении транспортного средства (или другого препятствия) перед движущимся транспортным средством замедляют или останавливают транспортное средство.[0003] Some of these systems are implemented as what is commonly known as "optimum rate control" or "cruise control" systems. In these systems, the computer system on board the vehicles maintains a user-specified vehicle speed. Part of the optimal speed control system implements an "intelligent distance control" system whereby a user can set a distance to a potential vehicle ahead (eg, select a value expressed in terms of number of vehicles) and the computer system adjusts the vehicle's speed at least partially based on a vehicle approaching a potential vehicle ahead within a predetermined distance. Some speed control systems are additionally equipped with a collision control system, and these systems, when a vehicle (or other obstacle) is detected in front of a moving vehicle, slow or stop the vehicle.

[0004] Некоторые усовершенствованные системы обеспечивают полностью автономное вождение транспортного средства без прямого управления оператора (т.е. водителя). Эти автономные транспортные средства (также, называемые в данном документе "беспилотными транспортными средствами", "SDV") включают в себя компьютерные системы, которые могут побуждать транспортное средство ускоряться, тормозить, останавливаться, сменять полосу движения и автоматически парковаться.[0004] Some advanced systems provide fully autonomous driving of a vehicle without the direct control of an operator (ie driver). These autonomous vehicles (also referred to herein as "unmanned vehicles", "SDVs") include computer systems that can cause a vehicle to accelerate, brake, stop, change lanes, and park automatically.

[0005] Чтобы эффективно выполнять эти действия, компьютерные системы включают в себя или иным образом соединены с возможностью связи с множеством датчиков, включающих в себя, например, камеру и лидарный (LIDAR) датчик на основе оптического обнаружения и дальнометрии. При установке на транспортном средстве, лидарный датчик и камера, по умолчанию работают независимо, собирая данные, указывающие окрестность транспортного средства. Лидарный датчик вращается, с предварительно определенной частотой вращения (например, с одним циклом вращения в 200 мс), вокруг своей вертикальной центральной оси, собирая данные в форме облаков лидарных точек. Камера собирает данные в форме съемки моментальных снимков в идентичном направлении (поскольку жестко зафиксирована в нем) с предварительно определенной частотой съемки (например, один раз в 30 мс). Во время процесса установки (или, например, процесса техобслуживания), лидарный датчик и камера могут синхронизироваться, чтобы иметь возможность собирать данные, указывающие один и тот же предварительно определенный участок окрестностей транспортного средства, в идентичный момент времени.[0005] To efficiently perform these actions, computer systems include or are otherwise communicatively coupled to a plurality of sensors including, for example, a camera and a lidar (LIDAR) sensor based on optical detection and ranging. When installed on a vehicle, the lidar sensor and camera, by default, operate independently, collecting data indicating the vehicle's surroundings. The lidar sensor rotates, at a predetermined rate of rotation (eg, one rotation cycle of 200 ms), around its vertical central axis, collecting data in the form of lidar point clouds. The camera collects data in the form of taking snapshots in the same direction (because it is rigidly fixed in it) at a predetermined shooting frequency (for example, once every 30 ms). During an installation process (or, for example, a maintenance process), the lidar sensor and the camera may be synchronized to be able to collect data indicative of the same predetermined area of the vehicle's surroundings at an identical point in time.

[0006] Тем не менее, в ходе работы транспортного средства лидарный датчик и камера могут десинхронизироваться вследствие различных причин. Эти причины могут включать в себя, например, различные моменты времени обновлений данных лидара и камеры, или некоторые механические эффекты: резкое ускорение/замедление транспортного средства, вождение по дорожной неровности или в резком повороте. Все эти причины могут вызывать десинхронизацию лидара и камеры, которая приводит в результате, например, приему компьютерной системой транспортного средства несогласованных данных относительно объекта (другого транспортного средства, пешехода или любого препятствия) из лидара и камеры.[0006] However, during operation of the vehicle, the lidar sensor and the camera may become out of sync due to various reasons. These reasons may include, for example, different times of lidar and camera data updates, or some mechanical effects: sudden acceleration/deceleration of the vehicle, driving over bumps or in a sharp turn. All of these reasons can cause desynchronization of the lidar and the camera, which results, for example, in the vehicle computer system receiving inconsistent data regarding the object (another vehicle, a pedestrian, or any obstacle) from the lidar and the camera.

[0007] Острота этой проблемы проиллюстрирована посредством следующего гипотетического сценария. Предположим, что SDV едет по маршруту, определенному посредством компьютерной системы, на основе данных, принимаемых из лидара и камеры. В один момент, компьютерная система транспортного средства может принимать, из лидарного датчика, данные, указывающие другое транспортное средство, перемещающееся впереди транспортного средства; тогда как согласно данным, принимаемым из камеры, это транспортное средство уже может выходить из вида SDV. Такое несоответствие во входных данных, принимаемых из различных датчиков, ассоциированных с SDV, может усложнять формирование траектории для SDV.[0007] The severity of this problem is illustrated by the following hypothetical scenario. Assume that the SDV travels along a route determined by a computer system based on data received from the lidar and camera. At one point, the vehicle's computer system may receive, from the lidar sensor, data indicative of another vehicle moving in front of the vehicle; whereas, according to the data received from the camera, this vehicle may already be moving out of the SDV view. This discrepancy in the input data received from the various sensors associated with the SDV can complicate the formation of a trajectory for the SDV.

[0008] Международная заявка номер WO 2019079511 A1, опубликованная 25 апреля 2019 года, принадлежащая DeepMap, Inc. и озаглавленная "LIDAR and Camera Synchronization", раскрывает способ и систему для синхронизации лидара и камеры на автономном транспортном средстве. Система выбирает множество выборок с трассы для маршрута, включающих в себя сканирование лидара и изображение. Для каждой выборки с трассы, система вычисляет сдвиг по времени посредством итеративного прохождения по множеству дельт времени. Для каждой дельты времени, система регулирует временную метку камеры посредством этой дельты времени, проецирует сканирование лидара на изображение в качестве проецирования лидара согласно отрегулированной временной метке камеры и вычисляет количественный показатель совмещения проецирования лидара для этой дельты времени. Система задает сдвиг по времени для каждой выборки с трассы в качестве дельты времени с наибольшим количественным показателем совмещения. Система затем моделирует уход времени камеры по сравнению с лидаром на основе вычисленных сдвигов по времени для выборок с трассы и синхронизирует лидар и камеру согласно смоделированному уходу времени.[0008] International application number WO 2019079511 A1, published April 25, 2019, owned by DeepMap, Inc. and entitled "LIDAR and Camera Synchronization" discloses a method and system for synchronizing lidar and camera on an autonomous vehicle. The system selects a set of trace samples for the route, including a lidar scan and an image. For each trace sample, the system calculates the time offset by iterating through a set of time deltas. For each time delta, the system adjusts the camera timestamp by that time delta, projects the lidar scan onto the image as a lidar projection according to the adjusted camera timestamp, and calculates the lidar projection alignment score for that time delta. The system specifies the time offset for each trace sample as the time delta with the largest overlap score. The system then models the time drift of the camera versus lidar based on the computed time offsets for trace samples, and synchronizes the lidar and camera according to the simulated time drift.

Сущность изобретенияThe essence of the invention

[0009] Задача настоящей технологии заключается в том, чтобы улучшать по меньшей мере некоторые неудобства, присутствующие в предшествующем уровне техники. Варианты осуществления настоящей технологии могут обеспечивать и/или расширять объем подходов и/или способов достижения целей и задач настоящей технологии.[0009] The objective of the present technology is to improve at least some of the inconveniences present in the prior art. Embodiments of the present technology may provide and/or expand the scope of approaches and/or methods for achieving the goals and objectives of the present technology.

[0010] Разработчики настоящей технологии принимают во внимание по меньшей мере одну техническую проблему, ассоциированную с подходами предшествующего уровня техники.[0010] The developers of the present technology take into account at least one technical problem associated with prior art approaches.

[0011] Разработчики выявили, что имеется потребность в динамической синхронизации времени, когда камера осуществляет моментальный снимок, со временем, когда лидарный датчик проецирует свой лазер(ы). Другими словами, неограничивающие варианты осуществления настоящей технологии разработаны на основе оценки разработчиками потребности в синхронизации данных, сформированных посредством камеры и лидарного датчика в реальном времени в то время, когда транспортное средство перемещается. Более конкретно, разработчики намереваются создавать способ синхронизации камеры и лидарного датчика без необходимости специального техобслуживания транспортного средства для синхронизации, остановки для синхронизации или иной необходимости синхронизации в условиях гаража или лаборатории. За счет этого компьютерная система должна получать дополнительную устойчивость к вышеуказанным механическим эффектам, вызывающим десинхронизацию лидарного датчика и камеры, что позволяет уменьшать время (и финансовые затраты) для техобслуживания транспортного средства.[0011] The developers have recognized that there is a need to dynamically synchronize the time when the camera takes a snapshot with the time when the lidar sensor projects its laser(s). In other words, the non-limiting embodiments of the present technology are developed based on the developers' assessment of the need to synchronize the data generated by the camera and the lidar sensor in real time while the vehicle is moving. More specifically, the developers intend to create a way to synchronize a camera and a lidar sensor without the need for special vehicle maintenance to synchronize, stop to synchronize, or otherwise need to synchronize in a garage or laboratory environment. Due to this, the computer system should receive additional resistance to the above mechanical effects that cause desynchronization of the lidar sensor and the camera, which allows to reduce the time (and financial costs) for vehicle maintenance.

[0012] Разработчики настоящей технологии выяснили, что идентифицированная проблема, ассоциированная с синхронизацией лидарного датчика и камеры, может разрешаться посредством ассоциирования предварительно определенной частоты сканирования лидара и предварительно определенной частоты сканирования камеры с астрономическим временем. За счет этого, компьютерная система, во-первых, может определять соответствующие первые и вторые временные метки, в которых лидар и камера собирают данные предварительно определенного участка окрестности транспортного средства; и, во-вторых, компьютерная система может определять временное смещение между первыми и вторыми временными метками. После определения временного смещения компьютерная система может использовать его для того, чтобы модифицировать (например, уменьшать) предварительно определенную частоту сканирования камеры, чтобы синхронизироваться с лидарным датчиком для сбора данных предварительно определенного участка окрестностей транспортного средства одновременно.[0012] The developers of the present technology have learned that an identified problem associated with lidar sensor and camera synchronization can be resolved by associating a predetermined lidar scan rate and a predetermined camera scan rate with astronomical time. Due to this, the computer system, firstly, can determine the respective first and second timestamps at which the lidar and the camera collect data of a predetermined area of the vehicle's vicinity; and secondly, the computer system can determine the time offset between the first and second timestamps. Once the time offset is determined, the computer system can use it to modify (eg, reduce) the predetermined camera scan rate to synchronize with the lidar sensor to collect data from the predetermined area of the vehicle's surroundings at the same time.

[0013] Разработчики принимают во внимание, что итеративное повторение вышеуказанных этапов должно поддерживать синхронизацию лидарного датчика и камеры "на ходу", т.е. в реальном времени, по меньшей мере частично разрешая рекуррентные случаи десинхронизации.[0013] The developers take into account that iterative repetition of the above steps should keep the lidar sensor and camera synchronized "on the fly", i.e. in real time, at least partially resolving recurrent cases of desynchronization.

[0014] В отличие от некоторых подходов предшествующего уровня техники настоящая технология для определения временного смещения использует общее начало отсчета времени на основе астрономического времени вместо общих объектов, идентифицированных как в моментальном снимке с помощью камеры, так и в соответствующем облаке лидарных точек.[0014] In contrast to some prior art approaches, the present technology uses a common astronomical time-based reference to determine time offset instead of common objects identified in both the camera snapshot and the corresponding lidar point cloud.

[0015] В соответствии с одним широким аспектом настоящей технологии предусмотрен компьютерно-реализуемый способ синхронизации данных для работы беспилотного транспортного средства (SDV). Данные формируются посредством камерной системы и лидарной системы, и камерная система и лидарная система соединена с возможностью связи с электронным устройством. Данные включают в себя: (i) данные изображений камерной системы, установленной на SDV для формирования данных изображений относительно предварительно определенного участка окрестностей SDV, причем данные камер имеют форму последовательности моментальных снимков, сформированных посредством камерной системы, причем последовательность моментальных снимков представляет предварительно определенный участок в различные моменты времени, и (ii) картографические данные из лидарной системы, установленной на SDV для формирования картографических данных относительно окрестностей SDV, включающих в себя предварительно определенный участок, причем картографические данные имеют форму точек данных, сформированных посредством лидарной системы, причем точки данных представляют объекты, расположенные в различных участках окрестностей SDV, в различные моменты времени. Способ содержит: побуждение, посредством электронного устройства, камерной системы и лидарной системы обеспечивать данные изображений и картографические данные в электронное устройство в общем начале отсчета времени, при этом общее начало отсчета времени представляет собой индикатор абсолютного времени, в течение которого формируются данные; определение, посредством электронного устройства, первой временной метки для картографических данных, причем первая временная метка соответствует данному моменту времени в общем начале отсчета времени, в течение которого лидарная система формирует точки данных, представляющие объекты, расположенные в предварительно определенном участке; определение, посредством электронного устройства, второй временной метки для данных изображений, причем вторые временные метки соответствуют другому данному моменту времени в общем начале отсчета времени, в течение которого камерная система формирует данный моментальный снимок предварительно определенного участка; определение, посредством электронного устройства, временного смещения между первой временной меткой и второй временной меткой, причем временное смещение указывает разность между данным моментом времени и другим данным моментом времени в общем начале отсчета времени; использование, посредством электронного устройства, временного смещения для того, чтобы инициировать задержку между последующими моментальными снимками, сформированными посредством камерной системы, так что (i) по меньшей мере один последующий моментальный снимок формируется посредством камерной системы, и (ii) последующие точки данных относительно предварительно определенного участка формируются посредством лидарной системы в идентичный будущий момент времени в общем начале отсчета времени.[0015] In accordance with one broad aspect of the present technology, a computer-implemented method for synchronizing data for operation of an unmanned vehicle (SDV) is provided. Data is generated by the camera system and the lidar system, and the camera system and the lidar system are communicatively coupled to the electronic device. The data includes: (i) image data of a camera system installed on the SDV to form image data about a predetermined area of the SDV's surroundings, the camera data being in the form of a sequence of snapshots generated by the camera system, the sequence of snapshots representing a predetermined area in different points in time, and (ii) mapping data from a lidar system mounted on the SDV to generate mapping data regarding the vicinity of the SDV including a predefined area, wherein the mapping data is in the form of data points generated by the lidar system, wherein the data points represent objects located in different parts of the SDV neighborhood at different times. The method comprises: causing, by means of an electronic device, a camera system and a lidar system to provide image data and mapping data to the electronic device at a common time reference, the common time reference being an indication of the absolute time during which the data is generated; determining, by means of an electronic device, a first timestamp for the map data, the first timestamp corresponding to a given point in time in the common time reference, during which the lidar system generates data points representing objects located in the predetermined area; determining, by means of an electronic device, a second timestamp for the image data, the second timestamps corresponding to another given point in time in the common time reference, during which the camera system generates a given snapshot of the predetermined area; determining, by means of an electronic device, a time offset between the first timestamp and the second timestamp, the time offset indicating the difference between a given time and another given time at a common time origin; using, by the electronic device, a time offset to initiate a delay between successive snapshots generated by the camera system such that (i) at least one successive snapshot is generated by the camera system, and (ii) successive data points are relative to the previously of a certain section are formed by the lidar system at an identical future moment of time at a common time reference.

[0016] В некоторых реализациях способа использование временного смещения выполняется в ходе работы SDV.[0016] In some implementations of the method, the use of the temporal offset is performed during operation of the SDV.

[0017] В некоторых реализациях способа синхронизация данных для работы SDV выполняется по существу непрерывно в ходе работы SDV.[0017] In some implementations of the method, data synchronization for SDV operation is performed substantially continuously during SDV operation.

[0018] В некоторых реализациях способа побуждение камерной системы обеспечивать данные изображений выполняется в ходе первой итерации операции камерной системы, и при этом использование выполняется для последующей операции камерной системы.[0018] In some implementations of the method, causing the camera system to provide image data is performed during the first iteration of the camera system operation, and the use is made for a subsequent camera system operation.

[0019] В некоторых реализациях способа последующая операция представляет собой предварительно определенное число последующих итераций.[0019] In some implementations of the method, the subsequent operation is a predetermined number of subsequent iterations.

[0020] В некоторых реализациях способа вышеописанный способ повторяется после предварительно определенного числа последующих итераций для дополнительного числа последующих итераций.[0020] In some implementations of the method, the above method is repeated after a predetermined number of subsequent iterations for an additional number of subsequent iterations.

[0021] В некоторых реализациях способа камерная система имеет поле зрения, которое совпадает с предварительно определенным участком окрестностей SDV при монтаже на SDV.[0021] In some implementations of the method, the camera system has a field of view that matches a predetermined portion of the SDV's neighborhood when mounted on the SDV.

[0022] В некоторых реализациях способа побуждение включает в себя использование PTP-протокола посредством электронного устройства для передачи индикатора абсолютного времени в систему камер и лидарную систему.[0022] In some implementations of the method, prompting includes using the PTP protocol by means of an electronic device to transmit an absolute time indicator to the camera system and the lidar system.

[0023] В некоторых реализациях способа индикатор абсолютного времени представляет собой индикатор астрономического времени.[0023] In some implementations of the method, the absolute time indicator is an astronomical time indicator.

[0024] В некоторых реализациях способа лидарная система представляет собой вращательную лидарную систему таким образом, что лидарная система формирует точки данных, представляющие объекты, расположенные в первом участке окрестностей SDV в первый момент времени, и при этом первый участок ассоциирован с угловой позицией лидарной системы в первый момент времени.[0024] In some implementations of the method, the lidar system is a rotational lidar system such that the lidar system generates data points representing objects located in a first region of the SDV neighborhood at a first point in time, and wherein the first region is associated with the angular position of the lidar system at first moment in time.

[0025] В некоторых реализациях способа лидарная система формирует точки данных, представляющие объекты, расположенные во втором участке окрестностей SDV во второй момент времени, и при этом второй участок ассоциирован с угловой позицией лидарной системы во второй момент времени, причем угловая позиция лидарной системы отличается в первый момент времени и во второй момент времени, при этом первый участок отличается от второго участка.[0025] In some implementations of the method, the lidar system generates data points representing objects located in a second region of the SDV neighborhood at a second point in time, wherein the second region is associated with the angular position of the lidar system at the second point in time, wherein the angular position of the lidar system differs in the first time point and at the second time point, wherein the first section is different from the second section.

[0026] В некоторых реализациях способа определение первой временной метки содержит: получение, посредством электронного устройства, индикатора предварительно определенной угловой позиции лидарной системы таким образом, что когда лидар находится в предварительно определенной угловой позиции, лидар формирует точки данных относительно объектов, расположенных в предварительно определенном участке, определение, посредством электронного устройства, первой временной метки в качестве момента времени в общем начале отсчета времени, в который лидарная система находится в предварительно определенной угловой позиции.[0026] In some implementations of the method, determining the first timestamp comprises: obtaining, by means of an electronic device, an indicator of a predetermined angular position of the lidar system such that when the lidar is in a predetermined angular position, the lidar generates data points relative to objects located in a predetermined section, determining, by means of an electronic device, the first timestamp as the point in time in the common time reference at which the lidar system is at a predetermined angular position.

[0027] В некоторых реализациях способа определение первой временной метки выполняется посредством электронного устройства с использованием алгоритма определения временных меток.[0027] In some implementations of the method, the determination of the first timestamp is performed by the electronic device using a timestamp determination algorithm.

[0028] В некоторых реализациях способа данный моментальный снимок формируется посредством камерной системы в течение интервала времени для формирования моментального снимка, при этом вторая временная метка представляет собой момент времени в общем начале отсчета времени, который соответствует средней точке в интервале времени для формирования моментального снимка.[0028] In some implementations of the method, a given snapshot is generated by the camera system during the time interval to generate the snapshot, wherein the second timestamp is a point in time in the common time origin that corresponds to the midpoint in the time interval to generate the snapshot.

[0029] В некоторых реализациях способа использование посредством электронного устройства временного смещения для инициирования задержки между последующими моментальными снимками, сформированными посредством камерной системы, содержит: побуждение камерной системы добавлять временную задержку моментального снимка после данного будущего моментального снимка.[0029] In some implementations of the method, using a time offset electronically to initiate a delay between successive snapshots generated by the camera system comprises: causing the camera system to add a snapshot time delay after a given future snapshot.

[0030] В некоторых реализациях способа временная задержка моментального снимка представляет собой множество временных задержек моментального снимка, добавленных после соответствующих будущих моментальных снимков, которые равны по времени длительности временного смещения.[0030] In some implementations of the method, a snapshot time delay is a set of snapshot time delays added after respective future snapshots that are equal in time to the duration of the time offset.

[0031] В некоторых реализациях способа, в которых лидарная система работает в циклах вращения, указывающих частоту сканирования лидара, и камерная система работает в фазах сканирования, указывающих частоту сканирования камеры, и при этом данный цикл вращения лидарной системы равен предварительно определенному числу-множителю фаз сканирования камерной системы, и при этом множество временных задержек моментального снимка распределены по числу будущих моментальных снимков, соответствующему предварительно определенному числу-множителю фаз сканирования камерной системы.[0031] In some implementations of the method, in which the lidar system operates in rotation cycles indicating the scan rate of the lidar, and the camera system operates in scan phases indicating the scan rate of the camera, and this rotation cycle of the lidar system is equal to a predetermined phase multiplier scanning the camera system, wherein the plurality of snapshot time delays are distributed over a number of future snapshots corresponding to a predetermined multiplier of the camera system scan phases.

[0032] В соответствии с другим широким аспектом настоящей технологии предусмотрено электронное устройство. Электронное устройство содержит процессор; машиночитаемый носитель долговременной памяти, содержащий данные, причем данные формируются посредством камерной системы и лидарной системы, соединенных с возможностью связи, через интерфейс связи, с процессором и установленных на беспилотном транспортном средстве (SDV). Данные включают в себя: (i) данные изображений камерной системы, установленной на SDV для формирования данных изображений относительно предварительно определенного участка окрестностей SDV, причем данные камер имеют форму последовательности моментальных снимков, сформированных посредством камерной системы, причем последовательность моментальных снимков представляет предварительно определенный участок в различные моменты времени, и (ii) картографические данные из лидарной системы, установленной на SDV для формирования картографических данных относительно окрестностей SDV, включающих в себя предварительно определенный участок, причем картографические данные имеют форму точек данных, сформированных посредством лидарной системы, причем точки данных представляют объекты, расположенные в различных участках окрестностей SDV, в различные моменты времени. Процессор выполнен с возможностью побуждать систему камер и лидарную систему обеспечивать данные изображений и картографические данные в общем начале отсчета времени, при этом общее начало отсчета времени представляет собой индикатор абсолютного времени, в течение которого формируются данные; определять первую временную метку для картографических данных, причем первая временная метка соответствует данному моменту времени в общем начале отсчета времени, в течение которого лидарная система формирует точки данных, представляющие объекты, расположенные в предварительно определенном участке; определять вторую временную метку для данных изображений, причем вторые временные метки соответствуют другому данному моменту времени в общем начале отсчета времени, в течение которого камерная система формирует данный моментальный снимок предварительно определенного участка; определять, посредством электронного устройства, временное смещение между первой временной меткой и второй временной меткой, причем временное смещение указывает разность между данным моментом времени и другим данным моментом времени в общем начале отсчета времени; использовать временное смещение для того, чтобы инициировать задержку между последующими моментальными снимками, сформированными посредством камерной системы, так что (i) по меньшей мере один последующий моментальный снимок формируется посредством камерной системы, и (ii) последующие точки данных относительно предварительно определенного участка формируются посредством лидарной системы в идентичный будущий момент времени в общем начале отсчета времени.[0032] In accordance with another broad aspect of the present technology, an electronic device is provided. The electronic device contains a processor; a computer-readable non-volatile storage medium containing data, wherein the data is generated by a camera system and a lidar system communicatively connected via a communication interface to a processor and mounted on an unmanned vehicle (SDV). The data includes: (i) image data of a camera system installed on the SDV to form image data about a predetermined area of the SDV's surroundings, the camera data being in the form of a sequence of snapshots generated by the camera system, the sequence of snapshots representing a predetermined area in different points in time, and (ii) mapping data from a lidar system mounted on the SDV to generate mapping data regarding the vicinity of the SDV including a predefined area, wherein the mapping data is in the form of data points generated by the lidar system, wherein the data points represent objects located in different parts of the SDV neighborhood at different times. The processor is configured to cause the camera system and the lidar system to provide image data and mapping data at a common time reference, the common time reference being an indication of the absolute time over which data is generated; determining a first timestamp for the map data, the first timestamp corresponding to a given point in time in the common time origin, during which the lidar system generates data points representing objects located in the predetermined area; determine a second timestamp for the image data, the second timestamps corresponding to another given point in time in the common time origin, during which the camera system generates a given snapshot of the predetermined area; determine, by means of an electronic device, a time offset between the first timestamp and the second timestamp, the time offset indicating the difference between a given time and another given time at a common time origin; use a time offset to initiate a delay between successive snapshots generated by the camera system such that (i) at least one successive snapshot is generated by the camera system, and (ii) successive data points relative to a predetermined area are generated by the lidar systems at an identical future point in time at the common origin.

[0033] В некоторых реализациях электронного устройства процессор выполнен с возможностью использовать временное смещение в ходе работы SDV.[0033] In some implementations of the electronic device, the processor is configured to use the time offset during operation of the SDV.

[0034] В некоторых реализациях электронного устройства процессор дополнительно выполнен с возможностью побуждать систему камер обеспечивать данные изображений в ходе первой итерации операции камерной системы, дополнительно выполнен с возможностью использовать временное смещение для последующей операции камерной системы.[0034] In some implementations of the electronic device, the processor is further configured to cause the camera system to provide image data during the first iteration of the camera system operation, further configured to use a time offset for a subsequent camera system operation.

[0035] В контексте настоящего описания изобретения "сервер" представляет собой компьютерную программу, которая выполняется на соответствующих аппаратных средствах и допускает прием запросов (например, из клиентских устройств) по сети и выполнение этих запросов либо побуждение выполнения этих запросов. Аппаратные средства могут реализовываться как один физический компьютер или одна физическая компьютерная система, но ни одно из означенного не должно обязательно иметь место относительно настоящей технологии. В настоящем контексте использование выражения "сервер" не означает, что каждая задача (например, принимаемые инструкции или запросы) или любая конкретная задача должна приниматься, выполняться или побуждаться к выполнению посредством идентичного сервера (т.е. идентичного программного обеспечения и/или аппаратных средств); оно означает, что любое число программных элементов или аппаратных устройств может быть предусмотрено при приеме/отправке, выполнении или побуждении к выполнению любой задачи или запроса либо результатов любой задачи или запроса; и все это программное обеспечение и аппаратные средства могут представлять собой один сервер либо несколько серверов, причем все из означенного включается в выражение "по меньшей мере один сервер".[0035] As used herein, a "server" is a computer program that runs on appropriate hardware and is capable of receiving requests (eg, from client devices) over a network and making those requests or causing those requests to be made. The hardware may be implemented as one physical computer or one physical computer system, but neither need be the case with respect to the present technology. In the present context, the use of the term "server" does not imply that every task (e.g., instructions or requests received) or any particular task must be received, executed, or caused to be executed by an identical server (i.e., identical software and/or hardware). ); it means that any number of software elements or hardware devices may be provided in receiving/sending, performing or inducing any task or request, or the results of any task or request; and all such software and hardware may be a single server or multiple servers, all of which is included in the expression "at least one server".

[0036] В контексте настоящего описания изобретения "электронное устройство" представляет собой любые компьютерные аппаратные средства, которые допускают выполнение программного обеспечения, соответствующего рассматриваемой релевантной задаче. В контексте настоящего описания изобретения термин "электронное устройство" подразумевает, что устройство может функционировать в качестве сервера для других электронных устройств и клиентских устройств; тем не менее, это не должно обязательно иметь место относительно настоящей технологии. Таким образом, некоторые (неограничивающие) примеры электронных устройств включают в себя персональные компьютеры (настольные компьютеры, переносные компьютеры, нетбуки и т.д.), смартфоны и планшеты, а также сетевое оборудование, такое как маршрутизаторы, коммутаторы и шлюзы. Следует понимать, что в настоящем контексте тот факт, что устройство функционирует в качестве электронного устройства, не означает того, что оно не может функционировать в качестве сервера для других электронных устройств. Использование выражения "электронное устройство" не исключает использование нескольких клиентских устройств при приеме/отправке, выполнении или побуждении к выполнению любой задачи или запроса либо результатов любой задачи или запроса, или этапов любого способа, описанного в данном документе.[0036] As used herein, an "electronic device" is any computer hardware that is capable of executing software that is appropriate for the relevant task in question. In the context of the present description of the invention, the term "electronic device" means that the device can function as a server for other electronic devices and client devices; however, this need not necessarily be the case with the present technology. Thus, some (non-limiting) examples of electronic devices include personal computers (desktops, laptops, netbooks, etc.), smartphones and tablets, and network equipment such as routers, switches, and gateways. It should be understood that in the present context, the fact that a device functions as an electronic device does not mean that it cannot function as a server for other electronic devices. The use of the term "electronic device" does not preclude the use of multiple client devices in receiving/sending, performing or causing any task or request, or the results of any task or request, or steps in any method described herein.

[0037] В контексте настоящего описания изобретения "клиентское устройство" представляет собой любые компьютерные аппаратные средства, которые допускают выполнение программного обеспечения, соответствующего рассматриваемой релевантной задаче. В контексте настоящего описания изобретения в общем термин "клиентское устройство" ассоциирован с пользователем клиентского устройства. Таким образом, некоторые (неограничивающие) примеры клиентских устройств включают в себя персональные компьютеры (настольные компьютеры, переносные компьютеры, нетбуки и т.д.), смартфоны и планшеты, а также сетевое оборудование, такое как маршрутизаторы, коммутаторы и шлюзы. Следует отметить, что устройство, выступающее в качестве клиентского устройства в настоящем контексте, не исключается из выступания в качестве сервера для других клиентских устройств. Использование выражения "клиентское устройство" не исключает использование нескольких клиентских устройств при приеме/отправке, выполнении или побуждении к выполнению любой задачи или запроса либо результатов любой задачи или запроса, или этапов любого способа, описанного в данном документе.[0037] As used herein, a "client device" is any computer hardware that is capable of executing software that is appropriate for the relevant task in question. In the context of the present description of the invention in General, the term "client device" is associated with the user of the client device. Thus, some (non-limiting) examples of client devices include personal computers (desktops, laptops, netbooks, etc.), smartphones and tablets, and network equipment such as routers, switches, and gateways. It should be noted that a device serving as a client device in the present context is not excluded from serving as a server for other client devices. The use of the term "client device" does not preclude the use of multiple client devices in receiving/sending, performing or causing any task or request, or the results of any task or request, or steps in any method described herein.

[0038] В контексте настоящего описания изобретения выражение "информация" включает в себя информацию вообще любого характера или вида, допускающую сохранение в базе данных. Таким образом, информация включает в себя, но не только, аудиовизуальные произведения (изображения, фильмы, звукозаписи, презентации и т.д.), данные (данные местоположения, числовые данные и т.д.), текст (мнения, комментарии, вопросы, сообщения и т.д.), документы, электронные таблицы и т.д.[0038] In the context of the present description of the invention, the expression "information" includes information in general of any nature or kind, capable of being stored in a database. Thus, information includes, but is not limited to, audiovisual works (images, films, sound recordings, presentations, etc.), data (location data, numerical data, etc.), text (opinions, comments, questions , messages, etc.), documents, spreadsheets, etc.

[0039] В контексте настоящего описания изобретения выражение "программный компонент" включает в себя программное обеспечение (соответствующее конкретному аппаратному контексту), которое является необходимым и достаточным для того, чтобы осуществлять конкретную упоминаемую функцию(и).[0039] In the context of the present description of the invention, the expression "software component" includes software (corresponding to a specific hardware context) that is necessary and sufficient in order to implement the specific referenced function(s).

[0040] В контексте настоящего описания изобретения выражение "компьютерные носители хранения информации" (также называемые "носителями хранения данных") включает в себя носители вообще любого характера и вида, в том числе, без ограничения, RAM, ROM, диски (CD-ROM, DVD, гибкие диски, накопители на жестких дисках и т.д.), флэш-накопители, полупроводниковые накопители, накопители на ленте и т.д. Множество компонентов могут комбинироваться, чтобы формировать компьютерные носители хранения информации, включающие в себя два или более компонентов носителей идентичного типа и/или два или более компонентов носителей различных типов.[0040] In the context of the present description of the invention, the expression "computer storage media" (also referred to as "data storage media") includes media in general of any nature and form, including, without limitation, RAM, ROM, disks (CD-ROM , DVD, floppy disks, hard disk drives, etc.), flash drives, semiconductor drives, tape drives, etc. A plurality of components may be combined to form computer storage media including two or more media components of the same type and/or two or more media components of different types.

[0041] В контексте настоящего описания изобретения "база данных" представляет собой любую структурированную совокупность данных, независимо от ее конкретной структуры, программного обеспечения управления базами данных или компьютерных аппаратных средств, на которых данные сохраняются, реализуются или становятся доступными иными способами для использования. База данных может постоянно размещаться в идентичных аппаратных средствах с процессом, который сохраняет или использует информацию, сохраненную в базе данных, либо она может постоянно размещаться в отдельных аппаратных средствах, таких как выделенный сервер или множество серверов.[0041] As used herein, a "database" is any structured collection of data, regardless of its particular structure, database management software, or computer hardware on which the data is stored, implemented, or otherwise made available for use. The database may reside on identical hardware with a process that stores or uses the information stored in the database, or it may reside on separate hardware such as a dedicated server or multiple servers.

[0042] В контексте настоящего описания изобретения слова "первый", "второй", "третий" и т.д. использованы в качестве прилагательных только для целей обеспечения различения существительных, которые они модифицируют, друг от друга, а не для целей описания конкретных взаимосвязей между этими существительными. Таким образом, например, следует понимать, что использование терминов "первая база данных" и "третий сервер" не подразумевает конкретный порядок, тип, хронологию, иерархию или ранжирование (например) относительно сервера, и их использование не (непосредственно) подразумевает то, что "второй сервер" должен обязательно существовать в любой данной ситуации. Дополнительно, как пояснено в данном документе в других контекстах, ссылка на "первый" элемент и "второй" элемент не исключает того, что два элемента представляют собой идентичный фактический элемент реального мира. Таким образом, например, в некоторых случаях, "первый" сервер и "второй" сервер могут представлять собой идентичные программные и/или аппаратные компоненты, в других случаях они могут представлять собой различные программные и/или аппаратные компоненты.[0042] In the context of the present description of the invention, the words "first", "second", "third", etc. are used as adjectives only for the purpose of distinguishing the nouns they modify from each other, and not for the purpose of describing specific relationships between those nouns. Thus, for example, it should be understood that the use of the terms "first database" and "third server" does not imply a particular order, type, chronology, hierarchy, or ranking (for example) relative to the server, and their use does not (directly) imply that the "second server" must necessarily exist in any given situation. Additionally, as explained herein in other contexts, reference to a "first" element and a "second" element does not preclude that the two elements represent an identical actual real world element. Thus, for example, in some cases, the "first" server and the "second" server may be identical software and/or hardware components, in other cases they may be different software and/or hardware components.

[0043] Реализации настоящей технологии имеют, по меньшей мере, одну из вышеуказанных целей и/или аспектов, но не обязательно имеют все из них. Следует понимать, что некоторые аспекты настоящей технологии, полученные в результате попытки достигнуть вышеуказанной цели, могут не удовлетворять этой цели и/или могут удовлетворять другим целям, не изложенным конкретно в данном документе.[0043] Implementations of the present technology have at least one of the above objectives and/or aspects, but do not necessarily have all of them. It should be understood that some aspects of the present technology resulting from an attempt to achieve the above goal may not satisfy this goal and/or may satisfy other goals not specifically set forth in this document.

[0044] Дополнительные и/или альтернативные признаки, аспекты и преимущества реализаций настоящей технологии должны становиться очевидными из нижеприведенного описания, прилагаемых чертежей и прилагаемой формулы изобретения.[0044] Additional and/or alternative features, aspects, and advantages of implementations of the present technology should become apparent from the description below, the accompanying drawings, and the appended claims.

Краткое описание чертежейBrief description of the drawings

[0045] Эти и другие признаки, аспекты и преимущества настоящей технологии должны становиться более понятными при рассмотрении нижеприведенного описания, прилагаемой формулы изобретения и прилагаемых чертежей, на которых:[0045] These and other features, aspects, and advantages of the present technology should become more apparent upon consideration of the following description, the appended claims, and the accompanying drawings, in which:

[0046] Фиг. 1 иллюстрирует принципиальную схему примерной компьютерной системы для реализации конкретных вариантов осуществления систем и/или способов настоящей технологии.[0046] FIG. 1 illustrates a schematic diagram of an exemplary computer system for implementing specific embodiments of systems and/or methods of the present technology.

[0047] Фиг. 2 иллюстрирует сетевое вычислительное окружение, подходящее для использования с некоторыми реализациями настоящей технологии.[0047] FIG. 2 illustrates a networked computing environment suitable for use with some implementations of the present technology.

[0048] Фиг. 3 иллюстрирует принципиальную схему системы синхронизации, в соответствии с неограничивающими вариантами осуществления настоящей технологии.[0048] FIG. 3 illustrates a schematic diagram of a timing system, in accordance with non-limiting embodiments of the present technology.

[0049] Фиг. 4 иллюстрирует принципиальную схему вида сверху транспортного средства сетевого вычислительного окружения по фиг. 2, в соответствии с неограничивающими вариантами осуществления настоящей технологии.[0049] FIG. 4 illustrates a schematic top view of the vehicle of the networked computing environment of FIG. 2 in accordance with non-limiting embodiments of the present technology.

[0050] Фиг. 5 иллюстрирует временную диаграмму работы, посредством процессора компьютерной системы по фиг. 1, камерной системы сетевого вычислительного окружения по фиг. 2, в соответствии с неограничивающими вариантами осуществления настоящей технологии.[0050] FIG. 5 illustrates a timing diagram of operation by means of the processor of the computer system of FIG. 1 of the camera system of the network computing environment of FIG. 2 in accordance with non-limiting embodiments of the present technology.

[0051] Фиг. 6 иллюстрирует временную диаграмму работы, посредством процессора компьютерной системы по фиг. 1, лидарной системы сетевого вычислительного окружения по фиг. 2, в соответствии с неограничивающими вариантами осуществления настоящей технологии.[0051] FIG. 6 illustrates a timing diagram of operation by means of the processor of the computer system of FIG. 1 of the lidar system of the networked computing environment of FIG. 2 in accordance with non-limiting embodiments of the present technology.

[0052] Фиг. 7 иллюстрирует комбинированную временную диаграмму работы, посредством процессора компьютерной системы по фиг. 1, камерной системы сетевого вычислительного окружения по фиг. 2 и лидарной системы сетевого вычислительного окружения по фиг. 2 до их синхронизации, в соответствии с неограничивающими вариантами осуществления настоящей технологии.[0052] FIG. 7 illustrates a combined timing diagram of operation by the processor of the computer system of FIG. 1 of the camera system of the networked computing environment of FIG. 2 and the lidar network computing environment system of FIG. 2 prior to their synchronization, in accordance with non-limiting embodiments of the present technology.

[0053] Фиг. 8 иллюстрирует комбинированную временную диаграмму работы, посредством процессора компьютерной системы по фиг. 1, камерной системы сетевого вычислительного окружения по фиг. 2 и лидарной системы сетевого вычислительного окружения по фиг. 2 после их синхронизации, в соответствии с неограничивающими вариантами осуществления настоящей технологии.[0053] FIG. 8 illustrates a combined timing diagram of operation by the computer system processor of FIG. 1 of the camera system of the networked computing environment of FIG. 2 and the lidar network computing environment system of FIG. 2 after they are synchronized, in accordance with non-limiting embodiments of the present technology.

[0054] Фиг. 9 иллюстрирует блок-схему последовательности операций способа для синхронизации данных для работы транспортного средства сетевого вычислительного окружения по фиг. 2, согласно неограничивающим вариантам осуществления настоящей технологии.[0054] FIG. 9 illustrates a flowchart for synchronizing data for operation of the networked computing environment vehicle of FIG. 2 according to non-limiting embodiments of the present technology.

Подробное описание изобретенияDetailed description of the invention

[0055] Примеры и условный язык, изложенный в данном документе, преимущественно помогают читателю в понимании принципов настоящей технологии, а не ограничивать ее объем такими конкретно изложенными примерами и условиями. Следует принимать во внимание, что специалисты в данной области техники могут разрабатывать различные компоновки, которые, хотя и не описаны или показаны явно в данном документе, тем не менее, осуществляют принципы настоящей технологии и включаются в пределы ее сущности и объема.[0055] The examples and conventions set forth herein are intended primarily to assist the reader in understanding the principles of the present technology, and not to limit its scope to such specifically set forth examples and terms. It should be appreciated that those skilled in the art may devise various arrangements that, although not explicitly described or shown herein, nevertheless implement the principles of the present technology and are included within its spirit and scope.

[0056] Кроме того, в качестве помощи в понимании, нижеприведенное описание может описывать относительно упрощенные реализации настоящей технологии. Специалисты в данной области техники должны понимать, что различные реализации настоящей технологии могут иметь большую сложность.[0056] In addition, as an aid to understanding, the following description may describe relatively simplified implementations of the present technology. Those skilled in the art will appreciate that various implementations of the present technology may be highly complex.

[0057] В некоторых случаях также может быть изложено то, что считается полезными примерами модификаций настоящей технологии. Это осуществляется просто в качестве помощи в понимании и, кроме того, не должно не задавать объем или излагать ограничения настоящей технологии. Эти модификации не представляют собой исчерпывающий список, и специалисты в данной области техники могут вносить другие модификации при одновременном пребывании в пределах объема настоящей технологии. Дополнительно, если примеры модификаций не изложены, не следует интерпретировать это таким образом, что модификации невозможны, и/или таким образом, что то, что описывается, представляет собой единственный способ реализации этого элемента настоящей технологии.[0057] In some cases, what are considered useful examples of modifications to the present technology may also be set forth. This is merely as an aid to understanding and furthermore, it is not intended to limit the scope or set forth the limitations of the present technology. These modifications are not intended to be an exhaustive list, and other modifications may be made by those skilled in the art while staying within the scope of the present technology. Additionally, if examples of modifications are not set forth, this should not be interpreted in such a way that modifications are not possible, and/or in such a way that what is described is the only way to implement this element of the present technology.

[0058] Кроме того, все утверждения в данном документе, излагающие принципы, аспекты и реализации технологии, а также их конкретные примеры, охватывают их конструктивные и функциональные эквиваленты независимо от того, являются они известными в настоящее время или разрабатываются в будущем. Таким образом, например, специалисты в данной области техники должны признавать, что блок-схемы в данном документе представляют концептуальные виды иллюстративной схемы, осуществляющей принципы настоящей технологии. Аналогично следует принимать во внимание, что все блок-схемы последовательности операций, блок-схемы, схемы переходов состояния, псевдокод и т.п. представляют различные процессы, которые могут представляться большей частью на машиночитаемых носителях, и в силу этого выполняются посредством компьютера или процессора, независимо от того, показан или нет в явной форме такой компьютер или процессор.[0058] In addition, all statements in this document that set forth the principles, aspects and implementations of the technology, as well as their specific examples, cover their design and functional equivalents, regardless of whether they are currently known or developed in the future. Thus, for example, those skilled in the art will recognize that the flowcharts herein represent conceptual views of an illustrative circuit embodying the principles of the present technology. Likewise, it should be appreciated that all flowcharts, block diagrams, state transition diagrams, pseudocode, and the like. represent various processes, which may be represented for the most part on computer-readable media, and are therefore executed by a computer or processor, whether or not such computer or processor is explicitly shown.

[0059] Функции различных элементов, показанных на чертежах, включающих в себя все функциональные блоки, помеченные как "процессор", могут обеспечиваться с помощью специализированных аппаратных средств, а также аппаратных средств, допускающих выполнение программного обеспечения, в ассоциации с надлежащим программным обеспечением. При обеспечении посредством процессора, функции могут обеспечиваться посредством одного специализированного процессора, посредством одного совместно используемого процессора или посредством множества отдельных процессоров, некоторые из которых могут совместно использоваться. Кроме того, явное использование термина "процессор" или "контроллер" не должно истолковываться как означающее исключительно аппаратные средства, допускающие выполнение программного обеспечения, и может неявно включать в себя, без ограничений, аппаратные средства процессора цифровых сигналов (DSP), сетевой процессор, специализированную интегральную схему (ASIC), программируемую пользователем вентильную матрицу (FPGA), постоянное запоминающее устройство (ROM) для сохранения программного обеспечения, оперативное запоминающее устройство (RAM) и энергонезависимое устройство хранения. Также могут быть включены другие аппаратные средства, традиционные и/или специализированные.[0059] The functions of the various elements shown in the drawings, including all functional blocks labeled "processor", may be provided by dedicated hardware, as well as hardware capable of executing software, in association with appropriate software. When provided by a processor, the functions may be provided by a single dedicated processor, by a single shared processor, or by a plurality of separate processors, some of which may be shared. In addition, explicit use of the term "processor" or "controller" should not be construed as meaning solely hardware capable of executing software, and may implicitly include, without limitation, digital signal processor (DSP) hardware, network processor, dedicated an integrated circuit (ASIC), a field programmable gate array (FPGA), a read-only memory (ROM) for storing software, a random access memory (RAM) and a non-volatile storage device. Other hardware, conventional and/or specialized, may also be included.

[0060] Программные модули или просто модули, которые подразумеваются как программные, могут представляться в данном документе в качестве любой комбинации элементов блок-схемы последовательности операций способа или других элементов, указывающих выполнение этапов процесса, и/или текстового описания. Такие модули могут выполняться посредством аппаратных средств, которые показаны явно или неявно.[0060] Software modules, or simply modules that are meant to be software, may be represented herein as any combination of flowchart elements, or other elements indicating the execution of process steps, and/or textual description. Such modules may be implemented by hardware, which is shown explicitly or implicitly.

[0061] С учетом этих основных принципов, далее рассматриваются некоторые неограничивающие примеры, чтобы иллюстрировать различные реализации аспектов настоящей технологии.[0061] With these basic principles in mind, some non-limiting examples are discussed below to illustrate various implementations of aspects of the present technology.

Компьютерная системаcomputer system

[0062] При обращении первоначально к фиг. 1, показана компьютерная система 100, подходящая для использования с некоторыми реализациями настоящей технологии, причем компьютерная система 100 содержит различные аппаратные компоненты, включающие в себя один или более одно- или многоядерных процессоров, совместно представленных посредством процессора 110, полупроводниковый накопитель 120, запоминающее устройство 130, которое может представлять собой оперативное запоминающее устройство или любой другой тип запоминающего устройства. Связь между различными компонентами компьютерной системы 100 может осуществляться посредством одной или более внутренних и/или внешних шин (не показаны) (например, посредством PCI-шины, универсальной последовательной шины, шины по стандарту IEEE1394 Firewire, шины SCSI, шины Serial ATA и т.д.), с которыми электронно соединяются различные аппаратные компоненты. Согласно вариантам осуществления настоящей технологии полупроводниковый накопитель 120 сохраняет программные инструкции, подходящие для загрузки в запоминающее устройство 130 и выполняемые посредством процессора 110 для определения присутствия объекта. Например, программные инструкции могут представлять собой часть управляющего приложения транспортного средства, выполняемого посредством процессора 110. Следует отметить, что компьютерная система 100 может иметь дополнительные и/или необязательные компоненты (не проиллюстрированы), такие как модули сетевой связи, модули локализации и т.п.[0062] Referring initially to FIG. 1, a computer system 100 is shown suitable for use with some implementations of the present technology, the computer system 100 comprising various hardware components including one or more single or multi-core processors collectively represented by a processor 110, a semiconductor storage device 120, a storage device 130 , which can be random access memory or any other type of storage device. Communication between various components of computer system 100 may be via one or more internal and/or external buses (not shown) (e.g., PCI bus, Universal Serial Bus, IEEE1394 Firewire bus, SCSI bus, Serial ATA bus, etc.). to which various hardware components are electronically connected. In accordance with embodiments of the present technology, semiconductor drive 120 stores program instructions suitable for loading into storage device 130 and executed by processor 110 to determine the presence of an object. For example, the program instructions may be part of a vehicle control application executed by processor 110. It should be noted that computer system 100 may have additional and/or optional components (not illustrated), such as network communication modules, localization modules, and the like. .

Сетевое компьютерное окружениеnetworked computer environment

[0063] Фиг. 2 иллюстрирует сетевое компьютерное окружение 200, подходящее для использования с некоторыми вариантами осуществления систем и/или способов настоящей технологии. Сетевое компьютерное окружение 200 содержит электронное устройство 210, ассоциированное с транспортным средством 220 или ассоциированное с пользователем (не проиллюстрирован), который может управлять транспортным средством 220. Сетевое компьютерное окружение 200 дополнительно содержит сервер 235, поддерживающий связь с электронным устройством 210 через сеть 245 связи (например, через Интернет и т.п., как подробнее описывается ниже в данном документе). Необязательно, сетевое компьютерное окружение 200 также может включать в себя GPS-спутник (не проиллюстрирован), передающий и/или принимающий GPS-сигнал в/из электронного устройства 210. Следует понимать, что настоящая технология не ограничена GPS и может использовать технологию позиционирования, отличную от GPS. Следует отметить, что GPS-спутник может вообще опускаться.[0063] FIG. 2 illustrates a networked computing environment 200 suitable for use with some embodiments of systems and/or methods of the present technology. The networked computing environment 200 includes an electronic device 210 associated with the vehicle 220 or associated with a user (not illustrated) that can operate the vehicle 220. The networked computing environment 200 further comprises a server 235 communicating with the electronic device 210 via a communications network 245 ( for example, via the Internet, etc., as described in more detail later in this document). Optionally, the networked computing environment 200 may also include a GPS satellite (not illustrated) transmitting and/or receiving a GPS signal to/from the electronic device 210. It should be understood that the present technology is not limited to GPS and may use positioning technology other than from GPS. It should be noted that the GPS satellite can go down at all.

[0064] Транспортное средство 220, с которым ассоциировано электронное устройство 210, может содержать любое туристическое или перевозное транспортное средство, такое как личный или коммерческий автомобиль, грузовик, мотоцикл и т.п. Транспортное средство может представлять собой управляемое пользователем или безоператорное транспортное средство. Следует отметить, что конкретные параметры транспортного средства 220 не являются ограничивающими, причем эти конкретные параметры включают в себя: производителя транспортных средств, модель транспортного средства, год изготовления транспортного средства, вес транспортного средства, габариты транспортного средства, распределение веса транспортного средства, площадь поверхности транспортного средства, высоту транспортного средства, тип приводной передачи (например, 2x или 4x), тип шин, тормозную систему, топливную систему, пробег, идентификационный номер транспортного средства и рабочий объем двигателя.[0064] The vehicle 220 with which the electronic device 210 is associated may include any touring or transportation vehicle, such as a personal or commercial vehicle, truck, motorcycle, or the like. The vehicle may be a user driven or driverless vehicle. It should be noted that the specific parameters of the vehicle 220 are not limiting, and these specific parameters include: vehicle manufacturer, vehicle model, year of manufacture of the vehicle, vehicle weight, vehicle dimensions, vehicle weight distribution, vehicle surface area vehicle, vehicle height, drive train type (eg 2x or 4x), tire type, brake system, fuel system, mileage, vehicle identification number and engine displacement.

[0065] Реализация электронного устройства 210 не ограничена конкретным образом, но в качестве примера, электронное устройство 210 может реализовываться как блок управления двигателем транспортного средства, CPU транспортного средства, навигационное устройство транспортного средства (например, TomTomTM, GarminTM), планшетный компьютер, персональный компьютер, встроенный в транспортное средство 220, и т.п. Таким образом, следует отметить, что электронное устройство 210 может или не может быть постоянно ассоциировано с транспортным средством 220. Дополнительно или альтернативно электронное устройство 210 может реализовываться в устройстве беспроводной связи, таком как мобильный телефон (например, смартфон или радиотелефон). В конкретных вариантах осуществления электронное устройство 210 имеет дисплей 270.[0065] The implementation of the electronic device 210 is not specifically limited, but as an example, the electronic device 210 may be implemented as a vehicle engine control unit, a vehicle CPU, a vehicle navigation device (e.g., TomTomTM , GarminTM ), a tablet computer, a personal computer built into the vehicle 220, or the like. Thus, it should be noted that electronic device 210 may or may not be permanently associated with vehicle 220. Additionally or alternatively, electronic device 210 may be implemented in a wireless communication device such as a mobile phone (eg, smartphone or cordless phone). In specific embodiments, the electronic device 210 has a display 270.

[0066] Электронное устройство 210 может содержать часть или все компоненты компьютерной системы 100, проиллюстрированной на фиг. 1. В конкретных вариантах осуществления электронное устройство 210 представляет собой бортовое компьютерное устройство и содержит процессор 110, полупроводниковый накопитель 120 и запоминающее устройство 130. Другими словами, электронное устройство 210 содержит аппаратные средства и/или программное обеспечение, и/или микропрограммное обеспечение либо комбинацию вышеозначенного для определения присутствия объекта вокруг транспортного средства 220, как подробнее описано ниже.[0066] The electronic device 210 may include some or all of the components of the computer system 100 illustrated in FIG. 1. In particular embodiments, electronic device 210 is an on-board computer device and includes a processor 110, a semiconductor drive 120, and a storage device 130. In other words, electronic device 210 includes hardware and/or software and/or firmware, or a combination of the foregoing. to determine the presence of an object around the vehicle 220, as described in more detail below.

[0067] В соответствии с неограничивающими вариантами осуществления настоящей технологии электронное устройство 210 дополнительно содержит или имеет доступ к первому датчику 230. Дополнительно электронное устройство 210 дополнительно может содержать второй датчик 240. Первый датчик 230 выполнен с возможностью захватывать изображение окружающей области 250, и второй датчик 240 выполнен с возможностью захватывать облако лидарных точек окружающей области 250 и других датчиков (не проиллюстрированы). Первый датчик 230 и второй датчик 240 соединен с возможностью связи с процессором 110 для передачи такой захваченной информации в процессор 110 для ее обработки, как подробнее описывается ниже в данном документе.[0067] In accordance with non-limiting embodiments of the present technology, the electronic device 210 further comprises or has access to a first sensor 230. Additionally, the electronic device 210 may further comprise a second sensor 240. The first sensor 230 is configured to capture an image of the surrounding area 250, and the second sensor 240 is configured to capture the lidar point cloud of the surrounding area 250 and other sensors (not illustrated). First sensor 230 and second sensor 240 are communicatively coupled to processor 110 to transfer such captured information to processor 110 for processing, as described in more detail hereinafter.

Первый датчикFirst sensor

[0068] В конкретном неограничивающем примере первый датчик 230 содержит камеру. То, как камера реализуется, не ограничено конкретным образом. Например, в конкретных неограничивающих вариантах осуществления настоящей технологии камера может реализовываться как монокамера с разрешением, достаточным для того, чтобы обнаруживать объекты на предварительно определенных дистанциях около до 30 м (хотя камеры с другими разрешениями и дальностями находятся в пределах объема настоящего раскрытия сущности). Камера может устанавливаться в салоне, в верхнем участке ветрового стекла транспортного средства 220, но другие местоположения находятся в пределах объема настоящего раскрытия сущности, в том числе заднее окно, боковые окна, передний капот, крыша, решетка радиатора или передний бампер транспортного средства 220. В некоторых неограничивающих вариантах осуществления настоящей технологии первый датчик 230 может устанавливаться в выделенном корпусе (не проиллюстрирован), установленном на крыше транспортного средства 220.[0068] In a specific non-limiting example, the first sensor 230 includes a camera. How the camera is implemented is not limited in a particular way. For example, in specific non-limiting embodiments of the present technology, the camera may be implemented as a single camera with sufficient resolution to detect objects at predetermined distances of up to about 30 m (although cameras with other resolutions and ranges are within the scope of this disclosure). The camera may be mounted in the cabin, in the upper portion of the windshield of the vehicle 220, but other locations are within the scope of this disclosure, including the rear window, side windows, front hood, roof, grille, or front bumper of the vehicle 220. In some non-limiting embodiments of the present technology, the first sensor 230 may be mounted in a dedicated housing (not illustrated) mounted on the roof of the vehicle 220.

[0069] В некоторых неограничивающих вариантах осуществления настоящей технологии первый датчик 230 может реализовываться как множество камер. Например, множество камер могут иметь достаточное число камер для того, чтобы захватывать окружающее/панорамное изображение окружающих областей 250.[0069] In some non-limiting embodiments of the present technology, the first sensor 230 may be implemented as a plurality of cameras. For example, a plurality of cameras may have a sufficient number of cameras to capture an ambient/panoramic image of the surrounding areas 250.

[0070] В некоторых неограничивающих вариантах осуществления настоящей технологии камера (либо одна или более камер, которые составляют реализацию первого датчика 230) выполнена с возможностью захватывать предварительно определенный участок окружающей области 250 вокруг транспортного средства 220. В некоторых вариантах осуществления настоящей технологии камера выполнена с возможностью захватывать изображение (или последовательность изображений), которое представляет около 90 градусов окружающей области 250 вокруг транспортного средства 220, т.е. вдоль пути перемещения транспортного средства 220.[0070] In some non-limiting embodiments of the present technology, the camera (or one or more cameras that constitute an implementation of the first sensor 230) is configured to capture a predetermined portion of the surrounding area 250 around the vehicle 220. In some embodiments of the present technology, the camera is configured to capture an image (or sequence of images) that represents about 90 degrees of the surrounding area 250 around the vehicle 220, i. e. along the path of the vehicle 220.

[0071] В других неограничивающих вариантах осуществления настоящей технологии камера выполнена с возможностью захватывать изображение (или последовательность изображений), которое представляет около 180 градусов окружающей области 250 вокруг транспортного средства 220, т.е. вдоль пути перемещения транспортного средства 220.[0071] In other non-limiting embodiments of the present technology, the camera is configured to capture an image (or sequence of images) that represents about 180 degrees of the surrounding area 250 around the vehicle 220, i. along the path of the vehicle 220.

[0072] В еще дополнительных вариантах осуществления настоящей технологии камера выполнена с возможностью захватывать изображение (или последовательность изображений), которое представляет около 360 градусов окружающей области 250 вокруг транспортного средства 220, т.е. вдоль пути перемещения транспортного средства 220 (другими словами, полностью окружающую область вокруг транспортного средства 220).[0072] In still further embodiments of the present technology, the camera is configured to capture an image (or sequence of images) that represents about 360 degrees of the surrounding area 250 around the vehicle 220, i. along the path of the vehicle 220 (in other words, the entire surrounding area around the vehicle 220).

[0073] В конкретном неограничивающем примере первый датчик 230 может быть реализован, может иметь тип, предлагаемый компанией FLIR Integrated Imaging Solutions Inc., 12051 Riverside Way, Ричмонд, BC, V6W 1K7, Канада. Следует четко понимать, что первый датчик 230 может реализовываться в любом другом подходящем оборудовании.[0073] In a specific non-limiting example, the first sensor 230 may be implemented, may be of the type offered by FLIR Integrated Imaging Solutions Inc., 12051 Riverside Way, Richmond, BC, V6W 1K7, Canada. It should be clearly understood that the first sensor 230 may be implemented in any other suitable equipment.

[0074] В неограничивающих вариантах осуществления настоящей технологии первый датчик 230 может быть выполнен с возможностью осуществлять моментальные снимки с предварительно определенной частотой сканирования камеры (например, один моментальный снимок в 30 мс), за счет этого формируя данные изображений предварительно определенного участка (проиллюстрирован на фиг. 4) окружающей области 250 транспортного средства 220.[0074] In non-limiting embodiments of the present technology, the first sensor 230 may be configured to take snapshots at a predetermined camera scan rate (e.g., one snapshot every 30ms), thereby generating image data of a predetermined area (illustrated in FIG. 4) the surrounding area 250 of the vehicle 220.

Второй датчикSecond sensor

[0075] В конкретном неограничивающем примере второй датчик 240 содержит лидарный (LIDAR) измерительный прибор на основе оптического обнаружения и дальнометрии. Лидар означает оптическое обнаружение и дальнометрию. Предполагается, что специалисты в данной области техники должны понимать функциональность лидарного измерительного прибора, но вкратце, передающее устройство (не проиллюстрировано) второго датчика 240, реализованного в качестве лидара, отправляет лазерный импульс, и световые частицы (фотоны) рассеиваются обратно в приемное устройство (не проиллюстрировано) второго датчика 240, реализованного в качестве лидарного измерительного прибора. Фотоны, которые возвращаются в приемное устройство, собираются с помощью телескопа и подсчитываются в качестве функции от времени. С использованием скорости света (~3×108 м/с) процессор 110 затем может вычислять то, насколько далеко перемещены фотоны (при полном обходе). Фотоны могут рассеиваться с отражением от многих различных объектов, окружающих транспортное средство 220, таких как другие частицы (аэрозоли или молекулы) в атмосфере, другой автомобиль, стационарные объекты или потенциальные преграды в окружающей области 250 транспортного средства 220. Эти фотоны содержат так называемые облака лидарных точек и указывают картографические данные, сформированные посредством второго датчика 240.[0075] In a specific non-limiting example, the second sensor 240 includes a lidar (LIDAR) measuring device based on optical detection and ranging. Lidar stands for optical detection and ranging. It is intended that those skilled in the art understand the functionality of a lidar measurement instrument, but in brief, the transmitter (not illustrated) of the second sensor 240 implemented as a lidar sends a laser pulse and the light particles (photons) are scattered back to the receiver (not illustrated) of the second sensor 240 implemented as a lidar measuring instrument. The photons that return to the receiver are collected by the telescope and counted as a function of time. Using the speed of light (~3×10 8 m/s), processor 110 can then calculate how far the photons have traveled (when going around). Photons can be reflected back from many different objects surrounding the vehicle 220, such as other particles (aerosols or molecules) in the atmosphere, another vehicle, stationary objects, or potential obstructions in the surrounding area 250 of the vehicle 220. These photons comprise so-called lidar clouds. points and indicate map data generated by the second sensor 240.

[0076] В конкретном неограничивающем примере второй датчик 240 может реализовываться как лидарный датчик, который может иметь тип, предлагаемый компанией Velodyne LiDAR, Inc. 5521 Hellyer Avenue, Сан-Хосе, CA 95138, США. Следует четко понимать, что второй датчик 240 может реализовываться в любом другом подходящем оборудовании.[0076] In a specific non-limiting example, the second sensor 240 may be implemented as a lidar sensor, which may be of the type offered by Velodyne LiDAR, Inc. 5521 Hellyer Avenue, San Jose, CA 95138, USA. It should be clearly understood that the second sensor 240 may be implemented in any other suitable equipment.

[0077] В некоторых вариантах осуществления настоящей технологии второй датчик 240 может реализовываться как множество лидарных датчиков, к примеру, как три, например, или любое другое подходящее число. В некоторых вариантах осуществления настоящей технологии второй датчик 240 (независимо от того, реализован он в качестве одного лидарного датчика либо нескольких лидарных датчиков) может размещаться в вышеуказанном корпусе (не проиллюстрирован отдельно), расположенном на крыше транспортного средства 220.[0077] In some embodiments of the present technology, the second sensor 240 may be implemented as a plurality of lidar sensors, such as three, for example, or any other suitable number. In some embodiments of the present technology, the second sensor 240 (regardless of whether it is implemented as a single lidar sensor or multiple lidar sensors) may be housed in the above housing (not illustrated separately) located on the roof of the vehicle 220.

[0078] В тех вариантах осуществления настоящей технологии в которых второй датчик 240 реализуется как несколько лидарных датчиков, размещенных в корпусе (не проиллюстрирован), пространственное размещение нескольких лидарных датчиков может проектироваться с учетом конкретной технической конфигурации нескольких лидарных датчиков, конфигурации корпуса, погодных условий области, в которой должно использоваться транспортное средство 220 (к примеру, частый дождь, снег и другие элементы), и т.п.[0078] In those embodiments of the present technology in which the second sensor 240 is implemented as multiple lidar sensors placed in a housing (not illustrated), the spatial placement of the multiple lidar sensors can be designed taking into account the specific technical configuration of the multiple lidar sensors, the configuration of the housing, the weather conditions of the area in which the vehicle 220 is to be used (for example, frequent rain, snow, and other elements), and the like.

[0079] В неограничивающих вариантах осуществления настоящей технологии второй датчик 240 может устанавливаться на транспортном средстве 220 с вращением на нем с предварительно определенной частотой (например, с одним циклом вращения в 200 мс), что упоминается в данном документе как предварительно определенная частота сканирования лидара. В связи с этим, второй датчик 240 может быть выполнен с возможностью формировать картографические данные окружающей области 250 транспортного средства 220 с предварительно определенной частотой сканирования лидара.[0079] In non-limiting embodiments of the present technology, the second sensor 240 may be mounted on the vehicle 220 and rotate thereon at a predetermined rate (e.g., one rotation cycle of 200 ms), which is referred to herein as the predetermined lidar scan rate. In this regard, the second sensor 240 may be configured to generate mapping data of the surrounding area 250 of the vehicle 220 at a predetermined lidar scan rate.

Другие датчикиOther sensors

[0080] В дополнительных неограничивающих вариантах осуществления настоящей технологии электронное устройство 210 дополнительно может содержать или иметь доступ к третьему датчику (не проиллюстрирован). Третий датчик (не проиллюстрирован) может содержать (радарный) измерительный прибор на основе радиообнаружения и дальнометрии. Вкратце, радарный измерительный прибор представляет собой обнаруживающий измерительный прибор с использованием радиоволн, чтобы определять дальность, угол и/или скорость объектов. Радарный измерительный прибор включает в себя передающее устройство, формирующее электромагнитные волны, антенну, используемую для передачи и приема электромагнитных волн, приемное устройство и процессор для того, чтобы определять свойства обнаруженных объектов. В альтернативных вариантах осуществления настоящей технологии могут быть предусмотрены отдельная антенна для приема волн и отдельная антенна для передачи волн. Процессор, используемый для определения свойств окружающих объектов, может представлять собой процессор 110.[0080] In additional non-limiting embodiments of the present technology, the electronic device 210 may further comprise or have access to a third sensor (not illustrated). The third sensor (not illustrated) may contain a (radar) measuring device based on radio detection and ranging. Briefly, a radar meter is a detecting meter using radio waves to determine the range, angle, and/or speed of objects. The radar instrument includes a transmitter for generating electromagnetic waves, an antenna used for transmitting and receiving electromagnetic waves, a receiver, and a processor for determining properties of detected objects. In alternative embodiments of the present technology, a separate antenna for receiving waves and a separate antenna for transmitting waves may be provided. The processor used to determine the properties of surrounding objects may be processor 110.

[0081] В некоторых вариантах осуществления настоящей технологии третий датчик (не проиллюстрирован) может содержать радарные датчики большой, средней и малой дальности действия. В качестве неограничивающего примера, радарный датчик большой дальности действия может использоваться для адаптивной системы оптимального регулирования скорости, автоматического экстренного торможения и системы выдачи предупреждений относительно прямых столкновений, в то время как радарные датчики средней и малой дальности действия могут использоваться для помощи при парковке, оповещения относительно пересекающихся потоков движения, помощи на скрещении дорог и обнаружения на слепой стороне.[0081] In some embodiments of the present technology, the third sensor (not illustrated) may comprise long, medium, and short range radar sensors. As a non-limiting example, a long range radar sensor can be used for adaptive speed control, automatic emergency braking, and forward collision warning, while medium and short range radar sensors can be used for parking assistance, traffic alerts. cross traffic, crossroads assistance and blind side detection.

[0082] В конкретном неограничивающем примере третий датчик (не проиллюстрирован) может иметь тип, предлагаемый компанией Robert Bosch GmbH Robert-Bosch-Platz 1, 70839 Герлинген, Германия. Следует четко понимать, что третий датчик (не проиллюстрирован) может реализовываться в любом другом подходящем оборудовании.[0082] In a specific non-limiting example, the third sensor (not illustrated) may be of the type offered by Robert Bosch GmbH Robert-Bosch-Platz 1, 70839 Gerlingen, Germany. It should be clearly understood that the third sensor (not illustrated) may be implemented in any other suitable equipment.

[0083] В некоторых вариантах осуществления настоящей технологии первый датчик 230 и второй датчик 240 могут калиброваться таким образом, что для изображения, захваченного посредством первого датчика 230, и облака лидарных точек, захваченного посредством второго датчика 240, процессор 110 выполнен с возможностью идентифицировать данную область изображения, которая соответствует данной области облака лидарных точек, захваченного посредством второго датчика 240. В других вариантах осуществления настоящей технологии первый датчик 230, второй датчик 240 и третий датчик (не проиллюстрирован) калибруются таким образом, что для изображения, захваченного посредством первого датчика 230, облака лидарных точек, захваченного посредством второго датчика 240, и радарных данных, захваченных посредством третьего датчика (не проиллюстрирован), процессор 110 выполнен с возможностью идентифицировать данную область изображения, которая соответствует данной области облака лидарных точек и радарным данным.[0083] In some embodiments of the present technology, the first sensor 230 and the second sensor 240 can be calibrated such that for an image captured by the first sensor 230 and a lidar point cloud captured by the second sensor 240, the processor 110 is configured to identify a given area image that corresponds to a given area of the lidar point cloud captured by the second sensor 240. In other embodiments of the present technology, the first sensor 230, the second sensor 240, and the third sensor (not illustrated) are calibrated such that for an image captured by the first sensor 230, of the lidar point cloud captured by the second sensor 240 and the radar data captured by the third sensor (not illustrated), the processor 110 is configured to identify a given area of the image that corresponds to the given area of the lidar point cloud and the radar data.

[0084] Третий датчик (не проиллюстрирован) в силу этого может обеспечивать дополнительную информацию или пополнять то, что получается посредством первого датчика 230 и/или второго датчика 240. В качестве неограничивающего примера, показано, что в определенных случаях радарный датчик может работать лучше лидарного измерительного прибора при конкретных погодных условиях, к примеру, при тумане, дожде, снеге и пыли. Дополнительно радарный датчик может точно определять относительную скорость трафика или скорость движущегося объекта с использованием сдвига доплеровской частоты. Таким образом, третий датчик (не проиллюстрирован) может использоваться в комбинации с первым датчиком 230, в комбинации со вторым датчиком 240 либо в комбинации с первым датчиком 230 и вторым датчиком 240. В некоторых вариантах осуществления настоящей технологии третий датчик (не проиллюстрирован), например, может использоваться только временно, к примеру, при сложных погодных условиях.[0084] A third sensor (not illustrated) may therefore provide additional information or supplement what is obtained by the first sensor 230 and/or the second sensor 240. As a non-limiting example, it is shown that in certain cases, a radar sensor can perform better than a lidar instrument under specific weather conditions such as fog, rain, snow and dust. Additionally, the radar sensor can accurately determine the relative speed of traffic or the speed of a moving object using Doppler frequency shift. Thus, the third sensor (not illustrated) may be used in combination with the first sensor 230, in combination with the second sensor 240, or in combination with the first sensor 230 and the second sensor 240. In some embodiments of the present technology, the third sensor (not illustrated), for example , can only be used temporarily, for example, in difficult weather conditions.

[0085] В неограничивающих вариантах осуществления настоящей технологии электронное устройство 210 дополнительно может содержать или иметь доступ к другим датчикам (не проиллюстрированы). Другие датчики (не проиллюстрированы) включают в себя одно или более из следующего: блок инерциальных измерений (IMU), измерительный прибор на основе глобальной навигационной спутниковой системы (GNSS), радары скорости относительно земли, ультразвуковые сонарные датчики, одометрические датчики, включающие в себя акселерометры и гироскопы, механические датчики наклона, магнитный компас и другие датчики, обеспечивающие работу транспортного средства 220.[0085] In non-limiting embodiments of the present technology, the electronic device 210 may additionally contain or have access to other sensors (not illustrated). Other sensors (not illustrated) include one or more of the following: an inertial measurement unit (IMU), a global navigation satellite system (GNSS) instrument, ground speed radars, ultrasonic sonar sensors, odometer sensors including accelerometers and gyroscopes, mechanical tilt sensors, magnetic compass, and other sensors that enable vehicle 220 to operate.

[0086] В качестве неограничивающего примера, IMU может прикрепляться к транспортному средству 220 и содержать три гироскопа и три акселерометра для обеспечения данных по вращательному движению и прямолинейному движению транспортного средства 220, которые могут использоваться для того, чтобы вычислять движение и позицию транспортного средства 220.[0086] As a non-limiting example, the IMU may be attached to vehicle 220 and include three gyroscopes and three accelerometers to provide rotational and linear motion data of vehicle 220 that may be used to calculate the movement and position of vehicle 220.

[0087] Эта калибровка может выполняться во время изготовления и/или установки транспортного средства 220. Альтернативно, калибровка может выполняться в любое подходящее время после этого, либо, другими словами, калибровка может выполняться во время модернизации транспортного средства 220 за счет первого датчика 230, второго датчика 240 и третьего датчика 236 в соответствии с неограничивающими вариантами осуществления настоящей технологии, предполагаемыми в данном документе. Альтернативно, калибровка может выполняться во время оснащения транспортного средства 220 первым датчиком 230, вторым датчиком 240 и третьим датчиком 236 в соответствии с неограничивающими вариантами осуществления настоящей технологии, предполагаемыми в данном документе.[0087] This calibration may be performed during the manufacture and/or installation of the vehicle 220. Alternatively, the calibration may be performed at any suitable time thereafter, or, in other words, the calibration may be performed during the upgrade of the vehicle 220 by the first sensor 230, a second sensor 240 and a third sensor 236, in accordance with the non-limiting embodiments of the present technology contemplated herein. Alternatively, calibration may be performed while equipping vehicle 220 with first sensor 230, second sensor 240, and third sensor 236 in accordance with the non-limiting embodiments of the present technology contemplated herein.

Сеть связиCommunication network

[0088] В некоторых вариантах осуществления настоящей технологии сеть 245 связи представляет собой Интернет. В альтернативных неограничивающих вариантах осуществления сеть связи может реализовываться как любая подходящая локальная вычислительная сеть (LAN), глобальная вычислительная сеть (WAN), частная сеть связи и т.п. Следует четко понимать, что реализации для сети связи предназначаются только для целей иллюстрации. То, как реализуется линия связи (без отдельной ссылки с номером) между электронным устройством 210 и сетью 245 связи, должно зависеть, в числе прочего, от того, как реализуется электронное устройство 210. Просто в качестве примера, а не в качестве ограничения, в тех вариантах осуществления настоящей технологии, в которых электронное устройство 210 реализуется как устройство беспроводной связи, такое как смартфон или навигационное устройство, линия связи может реализовываться как линия беспроводной связи. Примеры линий беспроводной связи включают в себя, но не только, сетевую 3G-линию связи, сетевую 4G-линию связи и т.п. Сеть 245 связи также может использовать беспроводное соединение с сервером 215.[0088] In some embodiments of the present technology, communication network 245 is the Internet. In alternative non-limiting embodiments, the communications network may be implemented as any suitable local area network (LAN), wide area network (WAN), private communications network, and the like. It should be clearly understood that the communications network implementations are for purposes of illustration only. How the communication link (without a separate reference number) between the electronic device 210 and the communication network 245 is implemented will depend on, among other things, how the electronic device 210 is implemented. Just by way of example, and not as a limitation, in In those embodiments of the present technology in which the electronic device 210 is implemented as a wireless communication device, such as a smartphone or navigation device, the communication link may be implemented as a wireless communication link. Examples of wireless links include, but are not limited to, a 3G network link, a 4G network link, and the like. Communication network 245 may also use a wireless connection to server 215.

СерверServer

[0089] В некоторых вариантах осуществления настоящей технологии сервер 215 реализуется как традиционный компьютер-сервер и может содержать часть или все компоненты компьютерной системы 1 по фиг. 1. В одном неограничивающем примере сервер 112 реализуется как сервер Dell™ PowerEdge™ под управлением операционной системы Windows Server™ Microsoft™, но также может реализовываться в любых других подходящих аппаратных средствах, программном обеспечении и/или микропрограммном обеспечении либо в комбинации вышеозначенного. В проиллюстрированных неограничивающих вариантах осуществления настоящей технологии сервер представляет собой один сервер. В альтернативных неограничивающих вариантах осуществления настоящей технологии (не показаны) функциональность сервера 215 может распределяться и может реализовываться через несколько серверов.[0089] In some embodiments of the present technology, the server 215 is implemented as a traditional server computer and may include some or all of the components of the computer system 1 of FIG. 1. In one non-limiting example, server 112 is implemented as a Dell™ PowerEdge™ server running the Microsoft™ Windows Server™ operating system, but may also be implemented in any other suitable hardware, software and/or firmware, or a combination of the foregoing. In the illustrated non-limiting embodiments of the present technology, the server is a single server. In alternative non-limiting embodiments of the present technology (not shown), the functionality of server 215 may be distributed and may be implemented across multiple servers.

[0090] В некоторых неограничивающих вариантах осуществления настоящей технологии процессор 110 электронного устройства 210 может поддерживать связь с сервером 215, чтобы принимать одно или более обновлений. Обновления могут представлять собой, но не только, обновления программного обеспечения, обновления карт, обновления маршрутов, обновления прогноза погоды и т.п. В некоторых вариантах осуществления настоящей технологии процессор 110 также может быть выполнен с возможностью передавать на сервер 215 определенные рабочие данные, такие как проезжаемые маршруты, данные трафика, данные рабочих характеристик и т.п. Некоторые или все данные, передаваемые между транспортным средством 220 и сервером 215, могут шифроваться и/или анонимизироваться.[0090] In some non-limiting embodiments of the present technology, the processor 110 of the electronic device 210 may communicate with the server 215 to receive one or more updates. Updates may include, but are not limited to, software updates, map updates, route updates, weather updates, and the like. In some embodiments of the present technology, processor 110 may also be configured to transmit certain operational data, such as driving routes, traffic data, performance data, and the like, to server 215. Some or all of the data transmitted between vehicle 220 and server 215 may be encrypted and/or anonymized.

[0091] В неограничивающих вариантах осуществления настоящей технологии сервер 215 выполнен с возможностью обеспечивать, через сеть 245 связи, в электронное устройство 210 индикаторы абсолютного времени, что описывается ниже со ссылкой на фиг. 3.[0091] In non-limiting embodiments of the present technology, server 215 is configured to provide, via communications network 245, absolute time indicators to electronic device 210, as described below with reference to FIG. 3.

Система синхронизацииSynchronization system

[0092] Ссылаясь теперь на фиг. 3, проиллюстрирована система 300 синхронизации, реализованная в соответствии с неограничивающим вариантом осуществления настоящей технологии. Система 300 синхронизации выполнена с возможностью синхронизации работы первого датчика 230 и второго датчика 240, в соответствии с неограничивающими вариантами осуществления настоящей технологии. Система 300 синхронизации включает в себя процессор (например, процессор 110 электронного устройства 210), камерную систему 302, содержащую первый датчик 230, и лидарную систему 304, содержащую второй датчик 240.[0092] Referring now to FIG. 3, a synchronization system 300 implemented in accordance with a non-limiting embodiment of the present technology is illustrated. The synchronization system 300 is configured to synchronize the operation of the first sensor 230 and the second sensor 240, in accordance with non-limiting embodiments of the present technology. Synchronization system 300 includes a processor (e.g., processor 110 of electronic device 210), a camera system 302 including a first sensor 230, and a lidar system 304 including a second sensor 240.

[0093] Согласно неограничивающим вариантам осуществления настоящей технологии камерная система 302дополнительно может содержать компонент 306 синхронизации камеры. Лидарная система 304 дополнительно может содержать компонент 308 синхронизации лидара.[0093] According to non-limiting embodiments of the present technology, the camera system 302 may further comprise a camera synchronization component 306. The lidar system 304 may further comprise a lidar synchronization component 308 .

[0094] Вообще говоря, система 300 синхронизации выполнена с возможностью совмещать, во времени, захват данных 310 изображений предварительно определенного участка окружающей области 250, сформированных посредством камерной системы 302, с захватом картографических данных 312, представляющих точки данных объектов, расположенных в предварительно определенном участке, картографических данных, которые сформированы посредством лидарной системы 304. С этой целью в неограничивающих вариантах осуществления настоящей технологии процессор 110 выполнен с возможностью обеспечивать для камерной системы 302 и лидарной системы 304 общую привязку по времени для захвата и обработки данных.[0094] Generally speaking, the timing system 300 is configured to coincide, in time, capturing image data 310 of a predetermined area of the surrounding area 250 generated by the camera system 302 with capturing map data 312 representing data points of objects located in the predetermined area. , map data that is generated by lidar system 304. To this end, in non-limiting embodiments of the present technology, processor 110 is configured to provide camera system 302 and lidar system 304 with a common time reference for capturing and processing data.

[0095] В этом отношении, как упомянуто выше, процессор 110 может быть выполнен с возможностью принимать, из сервера 215, индикатор 320 абсолютного времени. В неограничивающих вариантах осуществления настоящей технологии абсолютное время представляет собой астрономическое время.[0095] In this regard, as mentioned above, the processor 110 may be configured to receive, from the server 215, the absolute time indicator 320. In non-limiting embodiments of the present technology, absolute time is astronomical time.

[0096] В неограничивающих вариантах осуществления настоящей технологии астрономическое время представляет собой UT1-версию всемирного времени. Более конкретно, астрономическое время представляет собой среднее солнечное время на долготе в 0°. Астрономическое время вычисляется из наблюдений за дальними квазарами с использованием интерферометрии с длинными базами, лазерной дальнометрии Луны и искусственных спутников, а также определения орбит GPS-спутников. Астрономическое время, как упомянуто в данном документе, является идентичным на всей планете Земля и является пропорциональным углу вращения Земли относительно дальних квазаров, а именно, согласно Международной небесной системы координат (ICRF), с игнорированием некоторых небольших регулирований.[0096] In non-limiting embodiments of the present technology, astronomical time is the UT1 version of UTC. More specifically, astronomical time is mean solar time at 0° longitude. Astronomical time is calculated from observations of distant quasars using long baseline interferometry, laser ranging of the Moon and artificial satellites, and determination of the orbits of GPS satellites. Astronomical time, as mentioned in this document, is identical throughout planet Earth and is proportional to the angle of rotation of the Earth relative to distant quasars, namely, according to the International Celestial Reference Frame (ICRF), ignoring some small adjustments.

[0097] В некоторых неограничивающих вариантах осуществления настоящей технологии астрономическое время дополнительно может аппроксимироваться посредством UTC-версии всемирного времени (всемирного координированного времени). В этих вариантах осуществления, астрономическое время представляет атомную временную шкалу для UT1, при этом оно отсчитывается с помощью секунд, обеспеченных посредством стандарта международного атомного времени (TAI-стандарта), что приводит к 86400 секунд в день с эпизодическими введениями потерянной секунды.[0097] In some non-limiting embodiments of the present technology, astronomical time may further be approximated by a UTC version of Universal Time (Coordinated Universal Time). In these embodiments, astronomical time represents the atomic time scale for UT1, where it is counted using seconds provided by the International Atomic Time (TAI) standard, resulting in 86400 seconds per day with occasional introductions of a lost second.

[0098] Как упомянуто выше, камерная система 302 включает в себя первый датчик 230 и компонент 306 синхронизации камеры. Компонент 306 синхронизации камеры соединяется с возможностью связи с первым датчиком 230 с использованием любого совместимого интерфейса в зависимости от типа компонента 306 синхронизации камеры и типа первого датчика 230 и соответствующего программного обеспечения (драйверов). С процессором 110 компонент 306 синхронизации камеры соединен с возможностью связи через линию 314 связи.[0098] As mentioned above, the camera system 302 includes a first sensor 230 and a camera synchronization component 306. The camera sync component 306 is communicatively coupled to the first sensor 230 using any compatible interface depending on the type of camera sync component 306 and the type of the first sensor 230 and associated software (drivers). To the processor 110, the camera synchronization component 306 is communicatively coupled via a communication link 314 .

[0099] В конкретных неограничивающих вариантах осуществления настоящей технологии компонент 306 синхронизации камеры может иметь тип Jetson TX2, предлагаемый компанией NVIDIA Corporation, расположенной по адресу 2788 San Tomas Expy, Санта-Клара, CA 95051, США. Следует четко понимать, что компонент 306 синхронизации камеры может реализовываться в любом другом подходящем оборудовании.[0099] In specific non-limiting embodiments of the present technology, the camera synchronization component 306 may be of the Jetson TX2 type available from NVIDIA Corporation, located at 2788 San Tomas Expy, Santa Clara, CA 95051, USA. It should be clearly understood that the camera synchronization component 306 may be implemented in any other suitable hardware.

[0100] Вообще говоря, компонент 306 синхронизации камеры выполнен с возможностью передачи в процессор 110, через линию 314 связи, данных, указывающих фазы сканирования первого датчика 230. Дополнительно компонент 306 синхронизации камеры выполнен с возможностью приема, из процессора 110, на основе индикатора 320 абсолютного времени, отрегулированного расписания для работы первого датчика 230. Расписание формируется таким образом, что по меньшей мере один из последующих моментальных снимков данных 310 изображений осуществляется, посредством первого датчика 230, в будущий момент времени, одновременно со вторым датчиком 240, формирующим картографические данные 312 объектов в нем (т.е. чтобы обеспечивать то, что осуществление последующих моментальных снимков данных 310 изображений координируется во времени с формированием картографических данных 312). Ниже описываются фазы сканирования первого датчика 230 и формирование расписания со ссылкой на фиг. 4-8.[0100] Generally speaking, the camera synchronization component 306 is configured to transmit to the processor 110, via the communication line 314, data indicative of the scanning phases of the first sensor 230. Additionally, the camera synchronization component 306 is configured to receive, from the processor 110, based on the indicator 320 absolute time adjusted schedule for the operation of the first sensor 230. The schedule is generated such that at least one of the subsequent snapshots of the image data 310 is taken, by the first sensor 230, at a future point in time, simultaneously with the second sensor 240 generating the map data 312 objects in it (ie, to ensure that subsequent snapshots of image data 310 are coordinated in time with the generation of map data 312). The scanning phases of the first sensor 230 and scheduling are described below with reference to FIG. 4-8.

[0101] В некоторых неограничивающих вариантах осуществления настоящей технологии линия 314 связи может быть основана на протоколе точного времени (PTP). Вкратце, PTP-протокол задается в стандарте IEEE 1588 в качестве высокоточной тактовой синхронизации для сетевых измерительных и управляющих систем и разработан для того, чтобы синхронизировать тактовые генераторы в сетях с коммутацией пакетов, которые включают в себя распределенные тактовые генераторы устройств с варьирующейся точностью и стабильностью. Стандарты IEEE 1588, задающие PTP-протокол, описывают иерархическую архитектуру с ведущими и ведомыми узлами для распределения общих привязок по времени. Согласно этой архитектуре, компоненты системы 300 синхронизации могут представляться как любой источник (например, "ведущий узел", процессор 110 в системе 300 синхронизации) или назначение (например, "ведомый узел", компонент 306 синхронизации камеры) для опорного сигнала синхронизации (индикатора 320 абсолютного времени). PTP-протокол основан на TAI-стандарте времени, по сути, UTC-время может вычисляться из времени, принимаемого посредством гроссмейстерского (корневого исходного) PTP-времени. Соответственно, в локальной вычислительной сети, PTP-протокол может достигать точности тактовых генераторов в диапазоне долей микросекунд.[0101] In some non-limiting embodiments of the present technology, link 314 may be based on Precision Time Protocol (PTP). Briefly, the PTP protocol is specified in the IEEE 1588 standard as a high-precision clock for network measurement and control systems and is designed to synchronize clocks in packet-switched networks that include distributed device clocks with varying accuracy and stability. The IEEE 1588 standards that define the PTP protocol describe a hierarchical master-slave architecture for distributing common time references. According to this architecture, the components of the timing system 300 can be represented as any source (eg, "master node", processor 110 in the synchronization system 300) or destination (eg, "slave node", camera timing component 306) for a timing reference (indicator 320 absolute time). The PTP protocol is based on the TAI time standard, in fact, UTC time can be calculated from the time received via the PTP grandmaster (root origin) time. Accordingly, in a local area network, the PTP protocol can achieve clock accuracy in the sub-microsecond range.

[0102] В других неограничивающих вариантах осуществления настоящей технологии линия 314 связи может быть основана на протоколе сетевого времени (NTP). Вкратце, NTP-протокол представляет собой протокол, используемый для того, чтобы синхронизировать времена компьютерного такта в сети, которая типично использует сервер-клиентскую архитектуру. NTP-клиент инициирует обмен временными запросами с NTP-сервером. Как результат этого обмена, клиент имеет возможность вычислять задержку в линии связи и свое локальное смещение и регулировать своей локальный тактовый генератор таким образом, что он совпадает с тактовым генератором в компьютере сервера. NTP-протокол использует UTC для того, чтобы синхронизировать времена компьютерного такта, и, по сути, может достигаться точность синхронизации менее чем в 1 миллисекунду в локальной вычислительной сети и точность синхронизации по Интернету в десятки миллисекунд.[0102] In other non-limiting embodiments of the present technology, link 314 may be based on Network Time Protocol (NTP). Briefly, the NTP protocol is a protocol used to synchronize computer clock times in a network that typically uses a server-client architecture. The NTP client initiates the exchange of temporary requests with the NTP server. As a result of this exchange, the client is able to calculate the link delay and its local offset and adjust its local clock to match that of the server computer. The NTP protocol uses UTC to synchronize computer clock times, and, in fact, synchronization accuracy of less than 1 millisecond on a local area network and synchronization accuracy of tens of milliseconds over the Internet can be achieved.

[0103] В неограничивающих вариантах осуществления настоящей технологии компонент 308 синхронизации лидара выполнен с возможностью передавать в процессор 110, через линию 316 связи, данные, указывающие моменты времени и соответствующие угловые позиции второго датчика 240 в данном цикле. Затем, компонент 308 синхронизации лидара выполнен с возможностью принимать, из процессора 110, временные метки лидара, сформированные на основе индикатора 320 абсолютного времени для последующих циклов операции второго датчика 240. Каждая из временных меток лидара соответствует будущим моментам времени, когда второй датчик 240 находится в предварительно определенной угловой позиции, для формирования картографических данных 312 объектов, расположенных в предварительно определенном участке окружающей области 250. В дальнейшем подробно описывается то, как лидарная система 304 выполнена с возможностью формировать картографические данные 312, и то, как процессор 110 выполнен с возможностью формировать временные метки лидара со ссылкой на фиг. 4 и 6.[0103] In non-limiting embodiments of the present technology, the lidar timing component 308 is configured to transmit to processor 110, via link 316, data indicative of times and corresponding angular positions of second sensor 240 in a given cycle. Then, the lidar timing component 308 is configured to receive, from the processor 110, lidar timestamps generated based on the absolute time indicator 320 for subsequent cycles of operation of the second sensor 240. Each of the lidar timestamps corresponds to future times when the second sensor 240 is in a predetermined angular position, to generate map data 312 of objects located in a predefined area of the surrounding area 250. The following describes in detail how the lidar system 304 is configured to generate map data 312, and how the processor 110 is configured to generate temporal lidar tags with reference to FIG. 4 and 6.

[0104] Согласно неограничивающим вариантам осуществления настоящей технологии линия 316 связи может быть основана на PTP-протоколе, описанном выше.[0104] According to non-limiting embodiments of the present technology, link 316 may be based on the PTP protocol described above.

[0105] Вообще говоря, в неограничивающих вариантах осуществления настоящей технологии компонент 308 синхронизации лидара может реализовываться как отдельная плата, включающая в себя микроконтроллер (не проиллюстрирован). Микроконтроллер (не проиллюстрирован) соединяется с процессором 110 через линию 316 связи, как описано выше, например, с использованием Ethernet-интерфейса. Микроконтроллер (не проиллюстрирован) дополнительно соединяется со вторым датчиком 240 с использованием интерфейса универсальных асинхронных приемо-передающих устройств (UART) и сигналов числа импульсов в секунду (PPS), сформированных точно один раз в секунду. Это обеспечивает возможность компоненту 308 синхронизации лидара передавать временные метки лидара, принятые из процессора 110, за счет этого управляя вторым датчиком 240 в общей привязке по времени, как подробнее описано ниже со ссылкой на фиг. 4-8.[0105] Generally speaking, in non-limiting embodiments of the present technology, the lidar timing component 308 may be implemented as a separate board including a microcontroller (not illustrated). A microcontroller (not illustrated) is connected to processor 110 via link 316 as described above, for example using an Ethernet interface. A microcontroller (not illustrated) further couples to the second sensor 240 using a universal asynchronous transceiver (UART) interface and pulses per second (PPS) signals generated exactly once per second. This allows the lidar timing component 308 to transmit the lidar timestamps received from the processor 110, thereby driving the second sensor 240 in a common time reference, as described in more detail below with reference to FIG. 4-8.

[0106] Ниже со ссылкой на фиг. 4 схематично проиллюстрирован вид сверху транспортного средства 220, включающего в себя камерную систему 302 и лидарную систему 304, установленные на нем, согласно неограничивающим вариантам осуществления настоящей технологии. В вариантах осуществления по фиг. 4 камерная система 302 жестко установлена на транспортном средстве 220 таким образом, что первый датчик 230 направлен на предварительно определенный участок 402 окружающей области 250. Иначе говоря, первый датчик 230 имеет поле зрения, которое совпадает с предварительно определенным участком 402 окружающей области 250. С этой целью камерная система 302 выполнена с возможностью захватывать, с использованием первого датчика 230, данные 310 изображений предварительно определенного участка 402 окружающей области 250 в различные моменты времени.[0106] Referring to FIG. 4 is a schematic top view of a vehicle 220 including a camera system 302 and a lidar system 304 mounted thereon, in accordance with non-limiting embodiments of the present technology. In the embodiments of FIG. 4, the camera system 302 is rigidly mounted on the vehicle 220 such that the first sensor 230 is directed to a predetermined portion 402 of the surrounding area 250. In other words, the first sensor 230 has a field of view that coincides with the predetermined portion 402 of the surrounding area 250. From this purpose, the camera system 302 is configured to capture, using the first sensor 230, image data 310 of a predetermined portion 402 of the surrounding area 250 at various points in time.

[0107] В неограничивающих вариантах осуществления настоящей технологии лидарная система 304, установленная на крыше транспортного средства 220 и работающая одновременно с камерной системой 302, может представлять собой вращательную лидарную систему. С этой целью, второй датчик 240 вращается в направлении 414 вокруг своей центральной вертикальной оси. Соответственно, лидарная система 304 может быть выполнена с возможностью формировать, посредством использования второго датчика 240, картографические данные объектов, расположенных в окружающей области 250 транспортного средства 220. Чтобы принимать как данные 310 изображений, так и картографические данные 312 предварительно определенного участка 402 одновременно, процессор 110 может быть выполнен с возможностью синхронизировать работу камерной системы 302 и лидарной системы 304 на основе индикатора 320 абсолютного времени, принимаемого из сервера 215. Ниже описывается то, как реализуется синхронизация со ссылкой на фиг. 7-8.[0107] In non-limiting embodiments of the present technology, the lidar system 304 mounted on the roof of the vehicle 220 and operating simultaneously with the camera system 302 may be a rotational lidar system. To this end, the second sensor 240 rotates in direction 414 about its central vertical axis. Accordingly, the lidar system 304 may be configured to generate, through the use of the second sensor 240, map data of objects located in the surrounding area 250 of the vehicle 220. To receive both image data 310 and map data 312 of the predefined area 402 at the same time, the processor 110 may be configured to synchronize the operation of the camera system 302 and the lidar system 304 based on the absolute time indicator 320 received from the server 215. The following describes how the synchronization is implemented with reference to FIG. 7-8.

[0108] Теперь следует обратиться к фиг. 4 и 5. На фиг. 5, проиллюстрирована временная диаграмма 500 работы, посредством процессора 110, первого датчика 230 камерной системы 302, согласно неограничивающим вариантам осуществления настоящей технологии. Первый датчик 230 выполнен с возможностью, посредством процессора 110, работать в фазах сканирования; в каждой фазе сканирования, первый датчик 230 осуществляет соответствующий моментальный снимок предварительно определенного участка 402, за счет этого формируя данные 310 изображений, которые включают в себя множество моментальных снимков предварительно определенного участка 402.[0108] Referring now to FIG. 4 and 5. In FIG. 5, illustrated is a timing diagram 500 of operation, by processor 110, of first sensor 230 of camera system 302, in accordance with non-limiting embodiments of the present technology. The first sensor 230 is configured, via the processor 110, to operate in scan phases; in each scanning phase, the first sensor 230 takes a corresponding snapshot of the predetermined area 402, thereby generating image data 310 that includes a plurality of snapshots of the predetermined area 402.

[0109] Фаза 502 сканирования первого датчика 230 включает в себя фазу 504 съемки и фазу 506 паузы в работе. Длительность фазы 502 сканирования зависит от рабочей частоты первого датчика 230, которая, например, может составлять один моментальный снимок предварительно определенного участка 402 за 30 мс. Фаза 504 съемки представляет собой фазу, в которой первый датчик 230 осуществляет данный моментальный снимок предварительно определенного участка 402. Фаза 506 паузы в работе представляет собой фазу, в которой первый датчик 230 подготавливается к осуществлению следующего моментального снимка предварительно определенного участка 402. То, как фаза 502 сканирования разбивается на фазу 504 съемки и фазу 506 паузы в работе, не ограничено, и по сути, их длительность может быть предварительно определена посредством конкретной конфигурации первого датчика 230.[0109] The scan phase 502 of the first sensor 230 includes a capture phase 504 and a pause phase 506. The duration of the scan phase 502 depends on the operating frequency of the first sensor 230, which may be one snapshot of a predefined area 402 per 30 ms, for example. The capture phase 504 is the phase in which the first sensor 230 takes a given snapshot of the predefined area 402. The pause phase 506 is the phase in which the first sensor 230 prepares to take the next snapshot of the predefined area 402. How the phase The scan 502 is broken down into a capture phase 504 and a pause phase 506, is not limited, and as such, their duration can be predetermined by a particular configuration of the first sensor 230.

[0110] В неограничивающих вариантах осуществления настоящей технологии длительность фазы 506 паузы в работе может модифицироваться (например, увеличиваться), что вызывает соответствующее изменение длительности фазы 502 сканирования.[0110] In non-limiting embodiments of the present technology, the duration of the idle phase 506 may be modified (eg, increased) which causes a corresponding change in the duration of the scan phase 502.

[0111] Ссылаясь на фиг. 3 и 5, в неограничивающих вариантах осуществления настоящей технологии компонент 306 синхронизации камеры камерной системы 302 может быть выполнен с возможностью принимать, из первого датчика 230, данные, указывающие начало и конец фазы 504 съемки. Дополнительно компонент 306 синхронизации камеры может быть выполнен с возможностью передавать принимаемые данные в процессор 110. Соответственно, процессор 110, на основе общей привязки 510 по времени, принимаемой из сервера 215, может быть выполнен с возможностью формировать временные метки 508 камеры для последующих фаз сканирования первого датчика 230 и передавать данные, указывающие их, обратно назад в компонент 306 синхронизации камеры. За счет этого, процессор 110 выполнен с возможностью побуждать камерную систему 302 формировать данные 310 изображений предварительно определенного участка 402 в общей привязке 510 по времени.[0111] Referring to FIG. 3 and 5, in non-limiting embodiments of the present technology, the camera synchronization component 306 of the camera system 302 may be configured to receive, from the first sensor 230, data indicative of the start and end of the shooting phase 504. Additionally, the camera timing component 306 may be configured to pass received data to processor 110. Accordingly, processor 110, based on the common time reference 510 received from server 215, may be configured to generate camera timestamps 508 for subsequent scan phases of the first sensor 230 and transmit data indicating them back to the camera synchronization component 306 . Due to this, the processor 110 is configured to cause the camera system 302 to generate image data 310 of a predetermined area 402 in a common reference 510 in time.

[0112] В некоторых неограничивающих вариантах осуществления настоящей технологии каждая из временных меток 508 камеры может выбираться в качестве средней точки соответствующей фазы съемки. Например, временная метка t1 камеры из временных меток 508 камеры выбирается в качестве средней точки фазы 504 съемки. В неограничивающих вариантах осуществления настоящей технологии первый датчик 230 выполнен с возможностью формировать каждый моментальный снимок данных 310 изображений, в фазе 504 съемки, посредством пиксельных линий: линия за линией, сверху вниз. В связи с этим, средняя точка фазы 504 съемки может вычисляться, посредством процессора 110, так что она соответствует моменту времени, когда первый датчик 230 сканирует половину пиксельных линий соответствующего моментального снимка данных 310 изображений.[0112] In some non-limiting embodiments of the present technology, each of the camera timestamps 508 may be selected as the midpoint of the respective shooting phase. For example, the camera timestamp t 1 of the camera timestamps 508 is selected as the midpoint of the shooting phase 504 . In non-limiting embodiments of the present technology, the first sensor 230 is configured to generate each snapshot of the image data 310, in the capture phase 504, by pixel lines: line by line, top to bottom. In this regard, the midpoint of the shooting phase 504 can be calculated by the processor 110 so that it corresponds to the point in time when the first sensor 230 scans half of the pixel lines of the corresponding snapshot of the image data 310.

[0113] Тем не менее, способ выбора посредством процессора 110 временных меток 508 камеры не ограничен, и в других неограничивающих вариантах осуществления настоящей технологии может включать в себя выбор данной временной метки камеры в начале соответствующей фазы съемки или в ее конце.[0113] However, the method of selecting a camera timestamp 508 by the processor 110 is not limited, and in other non-limiting embodiments of the present technology, may include selecting a given camera timestamp at the start or end of the corresponding capture phase.

[0114] Теперь, следует обратиться к фиг. 4 и 6. На фиг. 6, проиллюстрирована временная диаграмма 600 работы, посредством процессора 110, второго датчика 240 лидарной системы 304, согласно неограничивающим вариантам осуществления настоящей технологии. Второй датчик 240 выполнен с возможностью формировать картографические данные 602 окружающей области 250 транспортного средства 220 в циклах вращения. Один цикл вращения (например, цикл 604 вращения), например, может составлять 200 мс. Цикл 604 вращения соответствует времени полного оборота на 360 градусов второго датчика 240 вокруг своей центральной вертикальной оси, которое может быть предварительно определено посредством конфигурации второго датчика 240. С этой целью, в каждый момент времени в цикле 604 вращения, второй датчик 240 имеет различную соответствующую угловую позицию, после чего второй датчик 240 выполнен с возможностью формировать картографические данные объектов, расположенных в соответствующих участках окружающей области 250 транспортного средства 220.[0114] Now, referring to FIG. 4 and 6. In FIG. 6, illustrated is a timing diagram 600 of operation, by means of processor 110, of second sensor 240 of lidar system 304, in accordance with non-limiting embodiments of the present technology. The second sensor 240 is configured to generate map data 602 of the surrounding area 250 of the vehicle 220 in rotation cycles. One rotation cycle (eg, rotation cycle 604), for example, may be 200 ms. The rotation cycle 604 corresponds to the time of a full 360 degree rotation of the second sensor 240 about its central vertical axis, which can be predetermined by the configuration of the second sensor 240. To this end, at each time in the rotation cycle 604, the second sensor 240 has a different corresponding angular position, after which the second sensor 240 is configured to generate map data of objects located in the respective areas of the surrounding area 250 of the vehicle 220.

[0115] Таким образом, в вариантах осуществления фиг. 4 и 6, проиллюстрированы три угловых позиции второго датчика 240, соответствующие трем соответствующим моментам времени в цикле 604 вращения второго датчика 240: первая угловая позиция 408 в первый момент T1 времени, вторая угловая позиция 410 во второй момент T2 времени и третья угловая позиция в третий момент T3 времени. В этом отношении, датчик 234, в первой угловой позиции 408, выполнен с возможностью формировать картографические данные 312 объектов, расположенных в предварительно определенном участке 402 в первый момент T1 времени. Во второй угловой позиции 410, соответствующей второму моменту T2 времени, второй датчик 240 выполнен с возможностью формировать картографические данные (не проиллюстрированы) объектов, расположенных во втором участке 404 окружающей области 250. В завершение, в третьей угловой позиции 412, соответствующей третьему моменту T3 времени, второй датчик 240 выполнен с возможностью формировать картографические данные (не проиллюстрированы) объектов, расположенных в третьем участке 406 окружающей области 250.[0115] Thus, in the embodiments of FIG. 4 and 6, three angular positions of the second sensor 240 are illustrated corresponding to three respective times in the rotation cycle 604 of the second sensor 240: the first angular position 408 at the first time T 1 , the second angular position 410 at the second time T 2 and the third angular position at the third moment T 3 of time. In this regard, the sensor 234, at the first angular position 408, is configured to generate map data 312 of objects located in the predetermined area 402 at the first time T 1 . At the second angular position 410 corresponding to the second time T 2 , the second sensor 240 is configured to generate map data (not illustrated) of objects located in the second portion 404 of the surrounding area 250. Finally, at the third angular position 412 corresponding to the third time T 3 times, the second sensor 240 is configured to generate map data (not illustrated) of objects located in the third area 406 of the surrounding area 250.

[0116] Также ссылаясь на фиг. 3, согласно неограничивающим вариантам осуществления настоящей технологии компонент 308 синхронизации лидара выполнен с возможностью, посредством процессора 110, записывать, в каждый из моментов T1, T2 и T3 времени, данные, указывающие первую угловую позицию 408, вторую угловую позицию 410 и третью угловую позицию 412, соответственно. Дополнительно компонент 308 синхронизации лидара выполнен с возможностью передавать записанные данные, указывающие угловые позиции второго датчика 240, в процессор 110. Процессор 110, на основе общей привязки 510 по времени, выполнен с возможностью формировать временные метки 608 лидара для последующих циклов вращения второго датчика 240 и передавать назад их индикатор в компонент 308 синхронизации лидара. Каждая из временных меток 608 лидара соответствует надлежащему моменту времени в цикле вращения второго датчика 240, когда второй датчик 240 находится в первой угловой позиции 408. Например, временная метка Tl2 лидара из временных меток 608 лидара соответствует первой угловой позиции второго датчика 240 в цикле вращения после цикла 604 вращения. За счет этого, процессор 110 выполнен с возможностью побуждать лидарную систему 304 формировать картографические данные 312 предварительно определенного участка 402 в общей привязке 510 по времени.[0116] Also referring to FIG. 3, according to non-limiting embodiments of the present technology, the lidar timing component 308 is configured, by the processor 110, to record, at each of times T 1 , T 2 , and T 3 , data indicative of a first angular position 408, a second angular position 410, and a third corner position 412, respectively. Additionally, the lidar synchronization component 308 is configured to transmit recorded data indicative of the angular positions of the second sensor 240 to the processor 110. The processor 110, based on the common time reference 510, is configured to generate lidar timestamps 608 for subsequent rotation cycles of the second sensor 240 and send back their indicator to the lidar synchronization component 308 . Each of the lidar timestamps 608 corresponds to a proper point in time in the rotation cycle of the second sensor 240 when the second sensor 240 is at the first angular position 408. For example, the lidar timestamp Tl 2 of the lidar timestamps 608 corresponds to the first angular position of the second sensor 240 in the rotation cycle after the rotation cycle 604. Due to this, the processor 110 is configured to cause the lidar system 304 to generate map data 312 of a predetermined area 402 in a common reference 510 in time.

[0117] Следует четко понимать, что первая угловая позиция 408, вторая угловая позиция 410 и третья угловая позиция 412 второго датчика 240 проиллюстрированы на фиг. 4 просто в качестве помощи в понимании настоящей технологии; и в неограничивающих вариантах осуществления настоящей технологии компонент 308 синхронизации лидара может быть выполнен с возможностью записывать и передавать данные, указывающие более чем трех угловых позиций второго датчика 240, причем их число может составлять сотни, тысячи или даже сотни тысяч.[0117] It should be clearly understood that the first angle position 408, the second angle position 410, and the third angle position 412 of the second sensor 240 are illustrated in FIG. 4 just as an aid to understanding the present technology; and in non-limiting embodiments of the present technology, the lidar synchronization component 308 may be configured to record and transmit data indicative of more than three angular positions of the second sensor 240, which may be in the hundreds, thousands, or even hundreds of thousands.

[0118] После формирования временных меток 508 камеры и временных меток 608 лидара на основе общей привязки 510 по времени, процессор 110 дополнительно может быть выполнен с возможностью синхронизировать фазы сканирования камерной системы 302 и, по меньшей мере один последующий цикл вращения лидарной системы 304.[0118] After generating camera timestamps 508 and lidar timestamps 608 based on a common time reference 510, processor 110 can further be configured to synchronize the scan phases of the camera system 302 and at least one subsequent rotation cycle of the lidar system 304.

[0119] Со ссылкой на фиг. 7 проиллюстрирована комбинированная временная диаграмма 700, включающая в себя временную диаграмму 600 лидарной системы 304 и временную диаграмму 500 камерной системы 302 . Согласно временной диаграмме 700, камерная система 302 выполнена с возможностью формировать каждый моментальный снимок данных 310 изображений в соответствующей одной из временных меток 508 камеры; и лидарная система 304 выполнена с возможностью формировать картографические данные 312 объектов, расположенных в предварительно определенном участке 402, в соответствующей одной из временных меток 608 лидара. Таким образом, как камерная система 302, так и лидарная система 304 побуждается, посредством процессора 110, обеспечивать данные 310 изображений и картографические данные 312 в общей привязке 510 по времени.[0119] With reference to FIG. 7 illustrates a combined timing diagram 700 including timing diagram 600 of lidar system 304 and timing diagram 500 of camera system 302'. According to the timing diagram 700, the camera system 302 is configured to generate each snapshot of the image data 310 at a corresponding one of the camera timestamps 508; and the lidar system 304 is configured to generate mapping data 312 of objects located in the predetermined area 402 at a corresponding one of the lidar timestamps 608 . Thus, both camera system 302 and lidar system 304 are driven, by processor 110, to provide image data 310 and map data 312 at a common time reference 510.

[0120] Допустим, что в вариантах осуществления по фиг. 7 временная метка t1 камеры из временных меток 508 камеры соответствует текущей фазе сканирования камерной системы 302. Из временной диаграммы 700 можно принимать во внимание, что фазы сканирования камерной системы 302 и циклы вращения лидарной системы 304 десинхронизируются, поскольку временная метка t1 камеры из временных меток 508 камеры не совпадает с временной меткой Tl1 лидара из временных меток 608 лидара. Соответственно, процессор 110 может быть выполнен с возможностью синхронизировать идущую сразу временную метку Tl2 лидара из временных меток 608 лидара с ближайшей к нему последующей из временных меток 508 камеры, например, с временной меткой t7 камеры. Другими словами, процессор 110 может быть выполнен с возможностью определять временную метку лидара для синхронизации в качестве ближайшей временной метки лидара, соответствующей моменту времени, когда второй датчик 240 находится в первой угловой позиции 408. С этой целью в неограничивающих вариантах осуществления настоящей технологии процессор 110 также может быть выполнен с возможностью принимать, из компонента 308 синхронизации лидара, индикатор первой угловой позиции 408.[0120] Assume that in the embodiments of FIG. 7, the camera timestamp t 1 from the camera timestamps 508 corresponds to the current scanning phase of the camera system 302. From the timing diagram 700, it can be taken into account that the scan phases of the camera system 302 and the rotation cycles of the lidar system 304 are desynchronized because the camera timestamp t 1 from the time the camera labels 508 do not match the lidar timestamp Tl 1 of the lidar timestamps 608 . Accordingly, the processor 110 may be configured to synchronize the immediately following lidar timestamp Tl 2 from the lidar timestamps 608 with its nearest successor from the camera timestamps 508, eg, the camera timestamp t 7 . In other words, processor 110 may be configured to determine the lidar timestamp for synchronization as the nearest lidar timestamp corresponding to the point in time when the second sensor 240 is at the first angular position 408. To this end, in non-limiting embodiments of the present technology, the processor 110 also may be configured to receive, from the lidar timing component 308, an indicator of the first angular position 408.

[0121] В некоторых неограничивающих вариантах осуществления настоящей технологии процессор 110 может быть выполнен с возможностью применять алгоритм определения временных меток для определения временной метки лидара для синхронизации.[0121] In some non-limiting embodiments of the present technology, processor 110 may be configured to apply a timestamping algorithm to determine a lidar timestamp for synchronization.

[0122] Во-первых, согласно неограничивающим вариантам осуществления настоящей технологии процессор 110 выполнен с возможностью определять временное смещение 702 между временной меткой t7 камеры и временной меткой Tl2 лидара в общей привязке 510 по времени. Во-вторых, после определения временного смещения 702, процессор 110 выполнен с возможностью использовать его для того, чтобы инициировать задержку между последующими моментальными снимками данных 310 изображений таким образом, что временная метка t7 камеры и временная метка Tl2 лидара должны совпадать в будущий момент времени, за счет этого формируя отрегулированное расписание для работы первого датчика 230.[0122] First, according to non-limiting embodiments of the present technology, the processor 110 is configured to determine the time offset 702 between the timestamp t7 cameras and timestamp Tl2 lidar in a common binding of 510 in time. Second, once the time offset 702 is determined, the processor 110 is configured to use it to initiate a delay between successive snapshots of the image data 310 such that the timestamp t7 cameras and timestamp Tl2 lidars must match at a future point in time, thereby generating an adjusted schedule for the operation of the first sensor 230.

[0123] В некоторых неограничивающих вариантах осуществления настоящей технологии процессор 110 выполнен с возможностью использовать временное смещение 702 в реальном времени в то время, когда транспортное средство перемещается 220. В других неограничивающих вариантах осуществления настоящей технологии процессор 110 выполнен с возможностью использовать временное смещение 702 в то время, когда транспортное средство 220 не перемещается (т.е. остановлено, припарковано и т.п.).[0123] In some non-limiting embodiments of the present technology, processor 110 is configured to use real-time time offset 702 at the time the vehicle is moving 220. In other non-limiting embodiments of the present technology, processor 110 is configured to use time offset 702 at that time. the time when the vehicle 220 is not moving (ie stopped, parked, etc.).

[0124] Со ссылкой на фиг. 8 проиллюстрирована временная диаграмма 800 работы камерной системы 302 и лидарной системы 304 в общей привязке 510 по времени. Временная диаграмма 800 отличается от временной диаграммы 700 только в том, что временная диаграмма 500 работы камерной системы 302 заменена временной диаграммой 802.[0124] With reference to FIG. 8 illustrates a timing diagram 800 of the operation of the camera system 302 and lidar system 304 in a common time reference 510. Timing chart 800 differs from timing chart 700 only in that timing chart 500 of camera system 302 has been replaced by timing chart 802.

[0125] В некоторых неограничивающих вариантах осуществления настоящей технологии процессор 110 может быть выполнен с возможностью использовать временное смещение 702 посредством его одинакового разделения между всеми фазами сканирования камерной системы 302, предшествующими временной метке лидара, за счет чего процессор 110 выполнен с возможностью выполнять синхронизацию, т.е. в вариантах осуществления по фиг. 8, временной метки Tl2 лидара. Следовательно, из временной диаграммы 802 можно принимать во внимание, что процессор 110 может быть выполнен с возможностью увеличивать фазы паузы в работе соответствующих фаз сканирования, соответствующих временным меткам t1, t2, t3, t4, t5 и t6 камеры из временных меток 508 камеры, посредством временной задержки 804, при этом временная задержка 804 составляет одну шестую от временного смещения 702.[0125] In some non-limiting embodiments of the present technology, processor 110 may be configured to use time offset 702 by dividing it equally between all scan phases of camera system 302 prior to the lidar timestamp, whereby processor 110 is configured to perform synchronization, i.e., .e. in the embodiments of FIG. 8, timestamp Tl 2 of the lidar. Therefore, from the timing diagram 802, it can be appreciated that the processor 110 can be configured to increase the pause phases of the corresponding scan phases corresponding to camera timestamps t 1 , t 2 , t 3 , t 4 , t 5 , and t 6 of the camera timestamps 508 by time delay 804, where time delay 804 is one sixth of time offset 702.

[0126] Таким образом, в тех неограничивающих вариантах осуществления настоящей технологии, в которых цикл вращения второго датчика 240 равен предварительно определенному числу-множителю фаз сканирования первого датчика 230, процессор 110 выполнен с возможностью использовать временное смещение 702 посредством его равномерного распределения между предварительно определенным числом-множителем последующих фаз сканирования первого датчика 230, предшествующих временной метке Tl2 лидара в общей привязке 510 по времени.[0126] Thus, in those non-limiting embodiments of the present technology, in which the rotation cycle of the second sensor 240 is equal to a predetermined scan phase multiplier of the first sensor 230, the processor 110 is configured to use the time offset 702 by evenly distributing it between a predetermined number -multiplier of subsequent scan phases of the first sensor 230 preceding the lidar timestamp Tl 2 in a common time reference 510.

[0127] Таким образом, посредством добавления временной задержки 804 во все фазы сканирования, предшествующие временную метке Tl2 лидара в общей привязке 510 по времени, камерной системы 302, процессор 110 выполнен с возможностью сдвигать временную метку t7 камеры таким образом, что она должна совпадать с временной меткой Tl2 лидара.[0127] Thus, by adding a time delay 804 to all scan phases preceding the lidar timestamp Tl 2 in the common time reference 510 of the camera system 302, the processor 110 is configured to shift the camera timestamp t 7 such that it should coincide with the timestamp Tl 2 of the lidar.

[0128] В других неограничивающих вариантах осуществления настоящей технологии процессор 110 выполнен с возможностью использовать временное смещение 702, чтобы инициировать задержку только между двумя данными последовательными моментальными снимками данных 310 изображений. С этой целью, процессор 110 может быть выполнен с возможностью увеличивать фазу паузы в работе только одной фазы сканирования, соответствующей надлежащей одной из временных меток 508 камеры, предшествующих временной метке Tl2 лидара в общей привязке 510 по времени.[0128] In other non-limiting embodiments of the present technology, processor 110 is configured to use time offset 702 to initiate a delay between only two given consecutive snapshots of image data 310. To this end, the processor 110 may be configured to increase the pause phase in the operation of only one scan phase corresponding to a proper one of the camera timestamps 508 preceding the lidar timestamp Tl 2 in the common time reference 510.

[0129] В некоторых неограничивающих вариантах осуществления настоящей технологии процессор 110 может быть выполнен с возможностью использовать временное смещение 702 для инициирования задержки между последующими моментальными снимками данных 310 изображений посредством реализации задержки на уровне кадра, которая может вставляться между концом считывания последней строки и началом сброса первой строки следующего кадра. Это типично упоминается в качестве периода гашения горизонтальной развертки в перечнях технических характеристик изготовителей камер.[0129] In some non-limiting embodiments of the present technology, processor 110 may be configured to use time offset 702 to initiate a delay between successive snapshots of image data 310 by implementing a frame-level delay that may be inserted between the end of reading the last row and the start of flushing the first lines of the next frame. This is typically referred to as the horizontal blanking period in camera manufacturer's datasheets.

[0130] Если такой вариант не доступен, в некоторых неограничивающих вариантах осуществления настоящей технологии процессор 110 может быть выполнен с возможностью использовать временное смещение 702 для инициирования задержки между последующими моментальными снимками данных 310 изображений, посредством побуждения компонента 306 синхронизации камеры формировать соответствующий электрический сигнал в моменты, соответствующие надлежащим из множества временных меток 508 камеры. Соответственно, первый датчик 230 выполнен с возможностью осуществлять последующий моментальный снимок данных 310 изображений в соответствующем электрическом сигнале, сформированном посредством компонента 306 синхронизации камеры. В некоторых неограничивающих вариантах осуществления настоящей технологии побуждение компонента 306 синхронизации камеры формировать соответствующий электрический сигнал выполняется с использованием начала кадровой синхронизации (FSIN).[0130] If such an option is not available, in some non-limiting embodiments of the present technology, the processor 110 may be configured to use the time offset 702 to initiate a delay between subsequent snapshots of the image data 310 by causing the camera synchronization component 306 to generate an appropriate electrical signal at times , corresponding to the appropriate ones from the plurality of camera timestamps 508 . Accordingly, the first sensor 230 is configured to perform a subsequent snapshot of the image data 310 in a corresponding electrical signal generated by the camera timing component 306 . In some non-limiting embodiments of the present technology, causing the camera sync component 306 to generate an appropriate electrical signal is performed using a start of frame sync (FSIN).

[0131] Снова ссылаясь на фиг. 3, после модификации фаз сканирования камерной системы 302, предшествующих временной метке Tl2 лидара в общей привязке 510 по времени, процессор 110 выполнен с возможностью передавать модифицированные фазы сканирования, т.е. отрегулированное расписание, в компонент 306 синхронизации камерной системы 302 для работы первого датчика 230, за счет этого модифицируя его предварительно определенную частоту сканирования камеры. Таким образом, камерная система 302 должна формировать, по меньшей мере один последующий моментальный снимок данных 310 изображений (соответствующий временной метке t7 камеры), и лидарная система 304 формирует картографические данные 312 объектов, расположенных в предварительно определенном участке 402 в идентичный будущий момент времени, на основе общей привязки 510 по времени.[0131] Referring again to FIG. 3, after modifying the scan phases of the camera system 302 preceding the lidar timestamp Tl 2 in the common time reference 510, the processor 110 is configured to transmit the modified scan phases, i.e. adjusted schedule, to the timing component 306 of the camera system 302 for operating the first sensor 230, thereby modifying its predetermined camera scan rate. Thus, the camera system 302 must generate at least one subsequent snapshot of the image data 310 (corresponding to the camera timestamp t 7 ), and the lidar system 304 generates mapping data 312 of objects located in the predetermined area 402 at the same future time, based on a common reference 510 in time.

[0132] В некоторых неограничивающих вариантах осуществления настоящей технологии процессор 110 дополнительно может быть выполнен с возможностью повторять процедуру синхронизации, описанную выше со ссылкой на фиг. 4-8, с некоторой периодичностью. Например, процессор 110 может быть выполнен с возможностью повторять процедуру синхронизации для каждого последующего цикла вращения второго датчика 240, т.е. синхронизацию, по меньшей мере одной последующей из временных меток 508 камеры с каждой последующей из временных меток 608 лидара. Другими словами, синхронизация данных 310 изображений и картографических данных 312 может выполняться по существу непрерывно в ходе работы транспортного средства 220, т.е. в каждом последующем будущем цикле вращения второго датчика 240.[0132] In some non-limiting embodiments of the present technology, processor 110 may further be configured to repeat the synchronization procedure described above with reference to FIG. 4-8, with some periodicity. For example, processor 110 may be configured to repeat the timing procedure for each successive rotation cycle of second sensor 240, i. e. synchronization of at least one successive of the camera timestamps 508 with each successive of the lidar timestamps 608. In other words, synchronization of image data 310 and map data 312 may be performed substantially continuously during vehicle 220 operation, i. in each subsequent future cycle of rotation of the second sensor 240.

[0133] В других неограничивающих вариантах осуществления настоящей технологии процессор 110 может быть выполнен с возможностью повторять процедуру синхронизации после предварительно определенного числа циклов вращения второго датчика 240.[0133] In other non-limiting embodiments of the present technology, the processor 110 may be configured to repeat the synchronization procedure after a predetermined number of rotation cycles of the second sensor 240.

[0134] В некоторых неограничивающих вариантах осуществления настоящей технологии такое определенное временное смещение 702 используется для одного цикла вращения второго датчика 240. В других неограничивающих вариантах осуществления настоящей технологии такое определенное временное смещение 702 используется для предварительно определенного числа будущих циклов вращения второго датчика 240. Соответственно, процессор 110 может быть выполнен с возможностью, в последующем цикле вращения второго датчика 240, итеративно повторно вычислять временное смещение 702 в реальном времени, в ходе работы транспортного средства 220, после вышеприведенного описания в отношении фиг. 6-8.[0134] In some non-limiting embodiments of the present technology, such a specific time offset 702 is used for one rotation cycle of the second sensor 240. In other non-limiting embodiments of the present technology, such a specific time offset 702 is used for a predetermined number of future rotation cycles of the second sensor 240. Accordingly, processor 110 may be configured, in a subsequent rotation cycle of second sensor 240, to iteratively recalculate time offset 702 in real time, during operation of vehicle 220, following the above description with respect to FIG. 6-8.

[0135] Таким образом, в неограничивающих вариантах осуществления настоящей технологии после побуждения камерной системы 302 обеспечивать данные 310 изображений в общей привязке 510 по времени в данной фазе сканирования (например, в фазе сканирования, соответствующей временной метке t1 из временных меток 508 камеры) и вычислять временное смещение 702, процессор 110 выполнен с возможностью использовать его, по меньшей мере для предварительно определенного числа последующих фаз сканирования камерной системы 302 (например, пяти (5) последующих фаз сканирования, как проиллюстрировано в вариантах осуществления по фиг. 7 и 8) для синхронизации только в одном последующем цикле вращения второго датчика 240 (например, в цикле вращения, соответствующем временной метке Tl2 лидара из временных меток 608 лидара).[0135] Thus, in non-limiting embodiments of the present technology, after causing the camera system 302 to provide image data 310 at a common time reference 510 in a given scan phase (e.g., in the scan phase corresponding to timestamp t 1 of camera timestamps 508), and compute time offset 702, processor 110 is configured to use it for at least a predetermined number of subsequent scan phases of camera system 302 (e.g., five (5) subsequent scan phases as illustrated in the embodiments of FIGS. 7 and 8) for synchronization in only one subsequent rotation cycle of the second sensor 240 (eg, in the rotation cycle corresponding to the lidar timestamp Tl 2 of the lidar timestamps 608).

[0136] В других неограничивающих вариантах осуществления процессор 110 выполнен с возможностью использовать временное смещение 702 для дополнительного предварительно определенного числа фаз сканирования камерной системы 302 для синхронизации в пределах более одного последующего цикла вращения второго датчика 240.[0136] In other non-limiting embodiments, processor 110 is configured to use time offset 702 for an additional predetermined number of scan phases of camera system 302 to synchronize within more than one subsequent rotation cycle of second sensor 240.

[0137] С учетом архитектуры и примеров, обеспеченных выше, можно осуществлять способ синхронизации данных для работы SDV (например, транспортного средства 220). Со ссылкой теперь на фиг. 9 проиллюстрирована блок-схема последовательности операций способа 900, согласно неограничивающим вариантам осуществления настоящей технологии. Способ 900 осуществляется посредством процессора 110. Процессор 110, например, может представлять собой часть электронного устройства 210.[0137] Given the architecture and examples provided above, a data synchronization method for operating an SDV (eg, vehicle 220) can be implemented. With reference now to FIG. 9 illustrates a flow diagram of a method 900 according to non-limiting embodiments of the present technology. Method 900 is performed by processor 110. Processor 110 may be part of electronic device 210, for example.

[0138] В неограничивающих вариантах осуществления настоящей технологии процессор 110 соединен с возможностью связи с камерной системой и лидарной системой (например, с камерной системой 302 и лидарной системой 304, проиллюстрированными на фиг. 3), установленными на транспортном средстве 220. Камерная система 302 включает в себя первый датчик 230 и компонент 306 синхронизации камеры. Лидарная система 304 включает в себя второй датчик 240 и компонент 308 синхронизации лидара.[0138] In non-limiting embodiments of the present technology, processor 110 is communicatively coupled to a camera system and a lidar system (e.g., camera system 302 and lidar system 304 illustrated in FIG. 3) mounted on vehicle 220. Camera system 302 includes including the first sensor 230 and the camera synchronization component 306 . The lidar system 304 includes a second sensor 240 and a lidar synchronization component 308.

[0139] Камерная система 302 выполнена с возможностью захватывать, посредством первого датчика 230, данные 310 изображений предварительно определенного участка 402 окружающей области 250 транспортного средства 220. Данные 310 изображений содержат последовательность моментальных снимков, сформированных посредством первого датчика 230, предварительно определенного участка 402 в различные моменты времени с предварительно определенной частотой сканирования камеры. В связи с этим, в некоторых неограничивающих вариантах осуществления настоящей технологии первый датчик 230 камерной системы 302 имеет поле зрения, которое совпадает с предварительно определенным участком 402, когда камерная система 302 установлена на транспортном средстве 220.[0139] The camera system 302 is configured to capture, by way of the first sensor 230, image data 310 of a predetermined area 402 of the surrounding area 250 of the vehicle 220. points in time at a predetermined camera scan rate. In this regard, in some non-limiting embodiments of the present technology, the first sensor 230 of the camera system 302 has a field of view that coincides with the predefined area 402 when the camera system 302 is installed on the vehicle 220.

[0140] Как подробно описано со ссылкой на фиг. 4 и 5, камерная система 302 выполнена с возможностью работать в фазах сканирования, длительность которых указывает предварительно определенную частоту сканирования камеры. Каждая фаза сканирования имеет фазу съемки и фазу паузы в работе (например, фаза 502 сканирования включает в себя фазу 504 съемки и фазу 506 паузы в работе). В фазе 504 съемки, камерная система 302 выполнена с возможностью формировать данный моментальный снимок данных 310 изображений. В фазе 506 паузы в работе, камерная система 302 находится в режиме ожидания (т.е. без осуществления моментальных снимков) с тем, чтобы подготавливаться к осуществлению последующего моментального снимка. Как фаза 504 съемки, так и фаза 506 паузы в работе могут быть предварительно определены посредством конкретной конфигурации камерной системы 302. В некоторых неограничивающих вариантах осуществления настоящей технологии фаза 506 паузы в работе может модифицироваться (например, увеличиваться).[0140] As described in detail with reference to FIG. 4 and 5, the camera system 302 is configured to operate in scan phases whose duration indicates a predetermined camera scan rate. Each scan phase has a capture phase and an operational pause phase (eg, scan phase 502 includes a capture phase 504 and an operational pause phase 506). In the capture phase 504, the camera system 302 is configured to generate a given snapshot of the image data 310. In the pause phase 506, the camera system 302 is idle (ie, not taking snapshots) in order to prepare to take a subsequent snapshot. Both the capture phase 504 and the idle phase 506 may be predetermined by a specific configuration of the camera system 302. In some non-limiting embodiments of the present technology, the idle phase 506 may be modified (eg, increased).

[0141] Лидарная система 304 выполнена с возможностью формировать, посредством второго датчика 240, картографические данные окружающей области 250 транспортного средства 220. Картографические данные окружающей области 250 транспортного средства 220 содержат точки данных, сформированные посредством второго датчика 240. Точки данных представляют объекты, расположенные в окружающей области 250 транспортного средства 220 в различные моменты времени. Картографические данные окружающей области 250 включают в себя картографические данные 312 предварительно определенного участка 402.[0141] The lidar system 304 is configured to generate, by means of the second sensor 240, map data of the surrounding area 250 of the vehicle 220. The map data of the surrounding area 250 of the vehicle 220 comprises data points generated by the second sensor 240. The data points represent objects located in the surrounding area 250 of the vehicle 220 at various points in time. The map data of the surrounding area 250 includes the map data 312 of the predefined area 402.

[0142] В некоторых неограничивающих вариантах осуществления настоящей технологии лидарная система 304 может представлять собой вращательную лидарную систему. В этом отношении, лидарная система 304 выполнена с возможностью формировать картографические данные окружающей области 250 транспортного средства 220 в циклах вращения, причем каждый цикл вращения соответствует полному обороту на 360 градусов второго датчика 240 вокруг своей центральной вертикальной оси, например, в направлении 414, как проиллюстрировано на фиг. 4. В связи с этим, лидарная система 304 выполнена с возможностью, в каждой угловой позиции второго датчика 240, формировать картографические данные объектов, расположенных в соответствующем участке окружающей области 250 транспортного средства 220.[0142] In some non-limiting embodiments of the present technology, the lidar system 304 may be a rotational lidar system. In this regard, the lidar system 304 is configured to generate mapping data of the surrounding area 250 of the vehicle 220 in rotation cycles, with each rotation cycle corresponding to a full 360 degree rotation of the second sensor 240 about its central vertical axis, for example, in direction 414, as illustrated. in fig. 4. In this regard, the lidar system 304 is configured, at each angular position of the second sensor 240, to generate cartographic data of objects located in the corresponding area of the surrounding area 250 of the vehicle 220.

[0143] Как описано со ссылкой на фиг. 4 и 6, в неограничивающих вариантах осуществления настоящей технологии лидарная система 304 выполнена с возможностью формировать картографические данные 312 объектов, расположенных в предварительно определенном участке 402 окружающей области 250, когда второй датчик 240 находится в первой угловой позиции 408.[0143] As described with reference to FIG. 4 and 6, in non-limiting embodiments of the present technology, the lidar system 304 is configured to generate mapping data 312 of objects located in a predefined area 402 of the surrounding area 250 when the second sensor 240 is at the first angular position 408.

ЭТАП 902 - ПОБУЖДЕНИЕ, ПОСРЕДСТВОМ ЭЛЕКТРОННОГО УСТРОЙСТВА, КАМЕРНОЙ СИСТЕМЫ И ЛИДАРНОЙ СИСТЕМЫ ОБЕСПЕЧИТЬ ДАННЫЕ ИЗОБРАЖЕНИЙ И КАРТОГРАФИЧЕСКИЕ ДАННЫЕ В ЭЛЕКТРОННОЕ УСТРОЙСТВО В ОБЩЕМ НАЧАЛЕ ОТСЧЕТА ВРЕМЕНИSTEP 902 - CAUSING, THROUGH THE ELECTRONIC DEVICE, THE CAMERA SYSTEM, AND THE LIDAR SYSTEM, TO PROVIDE IMAGE DATA AND MAP DATA TO THE ELECTRONIC DEVICE AT A COMMON TIME ORIGIN

[0144] На этапе 902, процессор 110 выполнен с возможностью побуждать камерную систему 302 и лидарную систему 304 обеспечить данные 310 изображений предварительно определенного участка 402 и картографические данные 312 объектов, расположенных в предварительно определенном участке в общей привязке по времени, например, в общей привязке 510 по времени.[0144] In step 902, the processor 110 is configured to cause the camera system 302 and the lidar system 304 to provide image data 310 of a predefined area 402 and map data 312 of objects located in the predefined area in a common time reference, for example, in a common reference 510 in time.

[0145] С этой целью сначала процессор 110 выполнен с возможностью принимать индикатор абсолютного времени (например, индикатор 320 абсолютного времени, принимаемый из сервера 215). Как подробно описано выше со ссылкой на фиг. 3, индикатор 320 абсолютного времени может представлять собой индикатор астрономического времени.[0145] To this end, first, the processor 110 is configured to receive an absolute time indicator (eg, an absolute time indicator 320 received from the server 215). As detailed above with reference to FIG. 3, the absolute time indicator 320 may be an astronomical time indicator.

[0146] Во-вторых, как подробно описано выше со ссылкой на фиг. 3 и 5, компонент 306 синхронизации камерной системы 302 выполнен с возможностью регистрировать данные, указывающие начало и конец фазы 504 съемки фазы 502 сканирования, и передавать эти данные, через линию 314 связи, в процессор 110. Дополнительно процессор 110 выполнен с возможностью, на основе принимаемых данных, формировать временные метки 508 камеры в общей привязке 510 по времени для последующих фаз сканирования. В завершение, процессор 110 выполнен с возможностью передавать, через линию 314 связи, данные, указывающие сформированные временные метки 508 камеры обратно в компонент 306 синхронизации камеры.[0146] Second, as detailed above with reference to FIG. 3 and 5, the synchronization component 306 of the camera system 302 is configured to register data indicating the start and end of the shooting phase 504 of the scanning phase 502 and to transmit this data, via the communication line 314, to the processor 110. Additionally, the processor 110 is configured, based on received data, generate camera timestamps 508 in a common time reference 510 for subsequent scan phases. Finally, processor 110 is configured to transmit, via link 314, data indicative of generated camera timestamps 508 back to camera sync component 306 .

[0147] В некоторых неограничивающих вариантах осуществления настоящей технологии каждая из временных меток 508 камеры может вычисляться, посредством процессора, в качестве средней точки фазы 504 съемки, как подробно описано выше со ссылкой на фиг. 5.[0147] In some non-limiting embodiments of the present technology, each of the camera timestamps 508 may be calculated, by the processor, as the midpoint of the shooting phase 504, as detailed above with reference to FIG. 5.

[0148] Относительно лидарной системы 304, во-первых, компонент 308 синхронизации лидара выполнен с возможностью регистрировать данные, указывающие множество угловых позиций второго датчика 240 и соответствующих моментов времени в одном цикле вращения (например, в цикле 604 вращения, как проиллюстрировано на фиг. 6). Во-вторых, как подробно описано со ссылкой на фиг. 3, 4 и 6, компонент 308 синхронизации лидара выполнен с возможностью передавать эти данные, через линию 316 связи, в процессор 110. В ответ, процессор 110, на основе передаваемых данных, выполнен с возможностью формировать множество временных меток 608 лидара в общей привязке 510 по времени. Каждая из множества временных меток 608 лидара соответствует будущему моменту времени, когда второй датчик 240 должен находиться в первой угловой позиции 408 в последующем цикле вращения второго датчика 240. Другими словами, каждая из множества временных меток 608 лидара соответствует моменту времени, когда второй датчик 240 формирует картографические данные 312 объектов, расположенных в предварительно определенном участке 402 окружающей области 250. В завершение, процессор 110, через линию 316 связи, выполнен с возможностью передавать множество временных меток 608 лидара в компонент 308 синхронизации лидара.[0148] With respect to the lidar system 304, first, the lidar timing component 308 is configured to record data indicative of a plurality of angular positions of the second sensor 240 and corresponding times in one rotation cycle (e.g., in rotation cycle 604 as illustrated in FIG. 6). Second, as detailed with reference to FIG. 3, 4, and 6, the lidar timing component 308 is configured to transmit this data, via the link 316, to the processor 110. In response, the processor 110, based on the transmitted data, is configured to generate a plurality of lidar timestamps 608 in a common reference 510 by time. Each of the plurality of lidar timestamps 608 corresponds to a future point in time when the second sensor 240 should be at the first angular position 408 in a subsequent rotation cycle of the second sensor 240. In other words, each of the plurality of lidar timestamps 608 corresponds to the point in time when the second sensor 240 generates map data 312 of objects located in a predetermined area 402 of the surrounding area 250. Finally, the processor 110, via the link 316, is configured to transmit a plurality of lidar timestamps 608 to the lidar synchronization component 308 .

[0149] В неограничивающих вариантах осуществления настоящей технологии линия 314 связи и линия 316 связи основаны на PTP-протоколе, описанном выше со ссылкой на фиг. 3.[0149] In non-limiting embodiments of the present technology, link 314 and link 316 are based on the PTP protocol described above with reference to FIG. 3.

ЭТАП 904 - ОПРЕДЕЛЕНИЕ ПОСРЕДСТВОМ ЭЛЕКТРОННОГО УСТРОЙСТВА ПЕРВОЙ ВРЕМЕННОЙ МЕТКИ ДЛЯ КАРТОГРАФИЧЕСКИХ ДАННЫХSTEP 904 - ELECTRONICALLY DEFINING FIRST TIME STAMP FOR MAP DATA

[0150] На этапе 904, процессор выполнен с возможностью определять последующую временную метку лидара из множества временных меток 608 лидара, посредством которой процессор 110 должен синхронизировать захват данных 310 изображения и захват картографических данных 312. С этой целью, процессор 110 выполнен с возможностью принимать, из компонента 308 синхронизации лидара, индикатор первой угловой позиции 408 второго датчика 240.[0150] At step 904, the processor is configured to determine the next lidar timestamp from the plurality of lidar timestamps 608 by which processor 110 is to synchronize capture of image data 310 and capture of map data 312. To this end, processor 110 is configured to receive, from the lidar synchronization component 308, the first angular position indicator 408 of the second sensor 240.

[0151] В некоторых неограничивающих вариантах осуществления настоящей технологии процессор 110 выполнен с возможностью определять последующую временную метку лидара в качестве идущей сразу последующей временной метки лидара из множества временных меток 608 лидара, например, временной метки Tl2 лидара в вариантах осуществления по фиг. 7.[0151] In some non-limiting embodiments of the present technology, processor 110 is configured to determine a subsequent lidar timestamp as the immediately following lidar timestamp from a plurality of lidar timestamps 608, such as the lidar timestamp Tl 2 in the embodiments of FIG. 7.

[0152] В других неограничивающих вариантах осуществления настоящей технологии процессор 110 выполнен с возможностью использовать алгоритм определения временных меток для определения временной метки лидара для синхронизации данных 310 изображений и картографических данных 312.[0152] In other non-limiting embodiments of the present technology, processor 110 is configured to use a timestamping algorithm to determine a lidar timestamp to synchronize image data 310 and map data 312.

ЭТАП 906 - ОПРЕДЕЛЕНИЕ ПОСРЕДСТВОМ ЭЛЕКТРОННОГО УСТРОЙСТВА ВТОРОЙ ВРЕМЕННОЙ МЕТКИ ДЛЯ ДАННЫХ ИЗОБРАЖЕНИЙSTEP 906 - ELECTRONICALLY DETERMINING A SECOND TIME STAMP FOR IMAGE DATA

[0153] На этапе 906, процессор выполнен с возможностью определять последующую временную метку камеры из временных меток 508 камеры. В некоторых неограничивающих вариантах осуществления настоящей технологии процессор 110 определяет последующую временную метку камеры в качестве последующей временной метки камеры из временных меток 508 камеры, предшествующих временной метке Tl2 лидара в общей привязке 510 по времени, которая в вариантах осуществления по фиг. 7 представляет собой временную метку t7 камеры.[0153] At 906, the processor is configured to determine the next camera timestamp from the camera timestamps 508. In some non-limiting embodiments of the present technology, processor 110 determines the subsequent camera timestamp as the subsequent camera timestamp from the camera timestamps 508 preceding the lidar timestamp Tl 2 in a common time reference 510, which in the embodiments of FIG. 7 is the timestamp t 7 of the camera.

ЭТАП 908 - ОПРЕДЕЛЕНИЕ ПОСРЕДСТВОМ ЭЛЕКТРОННОГО УСТРОЙСТВА ВРЕМЕННОГО СМЕЩЕНИЯ МЕЖДУ ПЕРВОЙ ВРЕМЕННОЙ МЕТКОЙ И ВТОРОЙ ВРЕМЕННОЙ МЕТКОЙSTEP 908 - ELECTRONICALLY DEFINING THE TIME OFFSET BETWEEN THE FIRST TIME STAMP AND THE SECOND TIME STAMP

[0154] На этапе 908, после определения временной метки Tl2 лидара и временной метки t7 камеры для синхронизации данных 310 изображений и картографических данных 312, процессор 110 дополнительно выполнен с возможностью вычислять временное смещение между ними, которое примерно иллюстрируется посредством временного смещения 702 и описывается выше со ссылкой на фиг. 7.[0154] In step 908, after determining the lidar timestamp Tl 2 and the camera timestamp t 7 for synchronizing image data 310 and map data 312, processor 110 is further configured to calculate a time offset between them, which is roughly illustrated by time offset 702 and described above with reference to FIG. 7.

[0155] В неограничивающих вариантах осуществления настоящей технологии временное смещение 702 указывает разность между моментами времени, в общей привязке 510 по времени, надлежащим образом соответствующей временной метке Tl2 лидара и временной метке t7 камеры.[0155] In non-limiting embodiments of the present technology, time offset 702 indicates the difference between times, in a common time reference 510, appropriately corresponding to the lidar timestamp Tl 2 and the camera timestamp t 7 .

ЭТАП 910 - ИСПОЛЬЗОВАНИЕ ПОСРЕДСТВОМ ЭЛЕКТРОННОГО УСТРОЙСТВА ВРЕМЕННОГО СМЕЩЕНИЯ ДЛЯ ТОГО, ЧТОБЫ ИНИЦИИРОВАТЬ ЗАДЕРЖКУ МЕЖДУ ПОСЛЕДУЮЩИМИ МОМЕНТАЛЬНЫМИ СНИМКАМИ, СФОРМИРОВАННЫМИ ПОСРЕДСТВОМ КАМЕРНОЙ СИСТЕМЫ, ТАК ЧТО (I) ПО МЕНЬШЕЙ МЕРЕ ОДИН ПОСЛЕДУЮЩИЙ МОМЕНТАЛЬНЫЙ СНИМОК ФОРМИРУЕТСЯ ПОСРЕДСТВОМ КАМЕРНОЙ СИСТЕМЫ, И (II) ПОСЛЕДУЮЩИЕ ТОЧКИ ДАННЫХ ОТНОСИТЕЛЬНО ПРЕДВАРИТЕЛЬНО ОПРЕДЕЛЕННОГО УЧАСТКА ФОРМИРУЮТСЯ ПОСРЕДСТВОМ ЛИДАРНОЙ СИСТЕМЫ В ИДЕНТИЧНЫЙ БУДУЩИЙ МОМЕНТ ВРЕМЕНИ В ОБЩЕМ НАЧАЛЕ ОТСЧЕТА ВРЕМЕНИSTAGE 910 - the use of temporary displacement through an electronic device in order to initiate a delay between subsequent instant images formed by means of a chamber system, so that (I) at least one subsequent instant picture is formed through a chamber system, and (II) subsequent data points relatively previously defined SECTIONS ARE FORMED BY THE LIDAR SYSTEM AT THE IDENTICAL FUTURE TIME AT THE COMMON ORIGIN OF TIME

[0156] На этапе 910, процессор выполнен с возможностью использовать временное смещение 702 для того, чтобы инициировать задержку между последующими моментальными снимками данных 310 изображений таким образом, что временная метка Tl2 лидара и временная метка t7 камеры должны совпадать в будущий момент времени, и в силу этого захват данных 310 изображений и захват картографических данных 312 синхронизируются посредством этого будущего момента времени, за счет этого формируя отрегулированное расписание для работы первого датчика 230.[0156] At step 910, the processor is configured to use the time offset 702 to initiate a delay between subsequent snapshots of the image data 310 such that the lidar timestamp Tl 2 and the camera timestamp t 7 must match at a future time, and therefore, the capture of image data 310 and the capture of map data 312 are synchronized by this future point in time, thereby generating an adjusted schedule for the operation of the first sensor 230.

[0157] В неограничивающих вариантах осуществления настоящей технологии процессор 110 выполнен с возможностью использовать временное смещение 702 посредством увеличения фаз паузы в работе из соответствующих фаз сканирования первого датчика 230, за счет этого модифицируя предварительно определенную частоту сканирования камеры.[0157] In non-limiting embodiments of the present technology, processor 110 is configured to utilize time offset 702 by increasing idle phases of operation from corresponding scan phases of first sensor 230, thereby modifying a predetermined camera scan rate.

[0158] В некоторых неограничивающих вариантах осуществления настоящей технологии процессор 110 выполнен с возможностью увеличивать фазу паузы в работе только одной соответствующей последующей фазы сканирования. В этих вариантах осуществления процессор 110 выполнен с возможностью инициировать задержку только между двумя последующими фазами съемки соответствующих фаз сканирования первого датчика 230, предшествующих временной метке Tl2 лидара в общей привязке 510 по времени.[0158] In some non-limiting embodiments of the present technology, processor 110 is configured to extend the pause phase of only one corresponding subsequent scan phase. In these embodiments, the processor 110 is configured to initiate a delay between only two subsequent survey phases of the respective scan phases of the first sensor 230 preceding the lidar timestamp Tl 2 in the common time reference 510.

[0159] В других неограничивающих вариантах осуществления настоящей технологии процессор 110 выполнен с возможностью разделять временное смещение 702 одинаково между последующими фазами сканирования первого датчика 230, предшествующими временной метке Tl2 лидара в общей привязке 510 по времени, и дополнительно одинаково увеличивать каждую соответствующую фазу паузы в работе. В этих вариантах осуществления процессор 110 выполнен с возможностью инициировать равную задержку между каждыми двумя последовательными фазами съемки соответствующих фаз сканирования первого датчика 230, предшествующими временной метке Tl2 лидара в общей привязке 510 по времени.[0159] In other non-limiting embodiments of the present technology, the processor 110 is configured to divide the time offset 702 equally between subsequent scan phases of the first sensor 230 preceding the lidar timestamp Tl 2 in the common time reference 510, and further equally increase each corresponding pause phase in work. In these embodiments, the processor 110 is configured to initiate an equal delay between each two successive survey phases of the respective scan phases of the first sensor 230 preceding the lidar timestamp Tl 2 in the common time reference 510.

[0160] В связи с этим, в тех неограничивающих вариантах осуществления настоящей технологии, в которых цикл вращения второго датчика 240 равен предварительно определенному числу-множителю фаз сканирования первого датчика 230, процессор 110 выполнен с возможностью использовать временное смещение 702 посредством его равномерного распределения между предварительно определенным числом-множителем последующих фаз сканирования первого датчика 230, предшествующих временной метке Tl2 лидара в общей привязке 510 по времени.[0160] In this regard, in those non-limiting embodiments of the present technology, in which the rotation cycle of the second sensor 240 is equal to a predetermined number-multiplier of the scan phases of the first sensor 230, the processor 110 is configured to use the time offset 702 by evenly distributing it between the predetermined a certain multiplier of the subsequent scan phases of the first sensor 230 preceding the lidar timestamp Tl 2 in the common time reference 510.

[0161] В неограничивающих вариантах осуществления настоящей технологии процессор 110 дополнительно выполнен с возможностью передавать такие модифицированные фазы сканирования, т.е. отрегулированное расписание для работы первого датчика 230, в компонент 306 синхронизации камеры.[0161] In non-limiting embodiments of the present technology, processor 110 is further configured to transmit such modified scan phases, i. the adjusted schedule for the operation of the first sensor 230, to the camera synchronization component 306 .

[0162] В неограничивающих вариантах осуществления настоящей технологии процессор 110 выполнен с возможностью выполнять вышеописанную процедуру синхронизации, включающую в себя использование временного смещения 702, в ходе работы транспортного средства 220, т.е. в реальном времени, например, в то время, когда транспортное средство 220 перемещается.[0162] In non-limiting embodiments of the present technology, processor 110 is configured to perform the synchronization procedure described above, including using time offset 702, during operation of vehicle 220, i. in real time, for example, while the vehicle 220 is moving.

[0163] В неограничивающих вариантах осуществления настоящей технологии процессор 110 может быть выполнен с возможностью повторно вычислять временное смещение 702, за счет этого повторяя процедуру синхронизации, описанную выше.[0163] In non-limiting embodiments of the present technology, processor 110 may be configured to recalculate time offset 702, thereby repeating the synchronization procedure described above.

[0164] В некоторых вариантах осуществления настоящей технологии процессор 110 выполнен с возможностью повторять процедуру синхронизации перед каждой последующей временной меткой лидара из множества временных меток 608 лидара, т.е. для каждого последующего цикла вращения второго датчика 240. Таким образом, можно сказать, что процессор 110 может быть выполнен с возможностью синхронизации захвата данных 310 изображений и захвата картографических данных 312 по существу непрерывно в ходе работы транспортного средства 220.[0164] In some embodiments of the present technology, the processor 110 is configured to repeat the synchronization procedure before each subsequent lidar timestamp from the plurality of lidar timestamps 608, i. for each subsequent rotation cycle of the second sensor 240. Thus, it can be said that the processor 110 can be configured to synchronize the capture of image data 310 and the capture of map data 312 substantially continuously during the operation of the vehicle 220.

[0165] В других неограничивающих вариантах осуществления настоящей технологии процессор 110 выполнен с возможностью повторять процедуру синхронизации после предварительно определенного числа последующих циклов вращения второго датчика 240.[0165] In other non-limiting embodiments of the present technology, the processor 110 is configured to repeat the synchronization procedure after a predetermined number of subsequent rotation cycles of the second sensor 240.

[0166] Таким образом, в неограничивающих вариантах осуществления настоящей технологии после побуждения камерной системы 302 обеспечить данные 310 изображений в общей привязке 510 по времени в данной фазе сканирования (например, в фазе сканирования, соответствующей временной метке t1 из временных меток 508 камеры) и вычислять временное смещение 702, процессор 110 выполнен с возможностью использовать его, по меньшей мере для предварительно определенного числа последующих фаз сканирования камерной системы 302 (например, пяти (5), в вариантах осуществления фиг. 7 и 8) для синхронизации только в одном последующем цикле вращения второго датчика 240 (например, в цикле вращения, соответствующем временной метке Tl2 лидара из временных меток 608 лидара).[0166] Thus, in non-limiting embodiments of the present technology, after causing the camera system 302 to provide image data 310 at a common time reference 510 in a given scan phase (e.g., in the scan phase corresponding to timestamp t 1 of camera timestamps 508), and calculate the time offset 702, the processor 110 is configured to use it for at least a predetermined number of subsequent scanning phases of the camera system 302 (e.g., five (5), in the embodiments of Figs. 7 and 8) to synchronize in only one subsequent cycle rotation of the second sensor 240 (eg, in a rotation cycle corresponding to the lidar timestamp Tl 2 of the lidar timestamps 608).

[0167] В других неограничивающих вариантах осуществления процессор 110 выполнен с возможностью использовать временное смещение 702 для дополнительного предварительно определенного числа фаз сканирования камерной системы 302 для синхронизации, с использованием такого определенного временного смещения 702, в пределах более одного последующего цикла вращения второго датчика 240.[0167] In other non-limiting embodiments, processor 110 is configured to use time offset 702 for an additional predetermined number of scan phases of camera system 302 to synchronize, using such defined time offset 702, within more than one subsequent rotation cycle of second sensor 240.

[0168] Следует четко понимать, что не все технические эффекты, упомянутые в данном документе, должны использоваться в каждом варианте осуществления настоящей технологии.[0168] It should be clearly understood that not all technical effects mentioned in this document should be used in every embodiment of the present technology.

[0169] Модификации и улучшения вышеописанных реализаций настоящей технологии могут становиться очевидными для специалистов в данной области техники. Вышеприведенное описание должно быть примерным, а не ограничивающим. В силу этого, объем настоящей технологии может быть ограничен исключительно объемом прилагаемой формулы изобретения.[0169] Modifications and improvements to the above-described implementations of the present technology may become apparent to those skilled in the art. The above description is intended to be exemplary and not limiting. As such, the scope of the present technology may be limited solely by the scope of the appended claims.

Claims (64)

1. Компьютеризированный способ синхронизации данных для работы беспилотного транспортного средства (SDV), причем данные формируют посредством камерной системы и лидарной системы, причем камерная система и лидарная система соединены с возможностью связи с электронным устройством,1. A computerized data synchronization method for operating an unmanned vehicle (SDV), wherein the data is generated by a camera system and a lidar system, the camera system and the lidar system being communicatively coupled to an electronic device, причем данные включают в себя:where the data includes: (i) данные изображений камерной системы, установленной на SDV для формирования данных изображений о предварительно определенном участке окрестностей SDV,(i) image data of a camera system installed on the SDV to generate image data about a predetermined area of the SDV's surroundings, причем данные камеры имеют форму последовательности моментальных снимков, сформированных посредством камерной системы с частотой сканирования камеры,wherein the camera data is in the form of a sequence of snapshots generated by the camera system at a camera scan rate, причем последовательность моментальных снимков представляет предварительно определенный участок в различные моменты времени,moreover, the sequence of snapshots represents a predetermined area at various points in time, (ii) картографические данные от лидарной системы, установленной на SDV для формирования картографических данных об окрестностях SDV, включающих в себя предварительно определенный участок,(ii) mapping data from a lidar system installed on the SDV to generate map data about the vicinity of the SDV, including a predetermined area, причем картографические данные имеют форму точек данных, сформированных посредством лидарной системы,wherein the mapping data is in the form of data points generated by the lidar system, причем точки данных представляют объекты, расположенные в различных участках окрестностей SDV в различные моменты времени,moreover, the data points represent objects located in different parts of the SDV neighborhood at different points in time, причем способ осуществляют посредством электронного устройства, при этом способ содержит этапы, на которых:wherein the method is carried out by means of an electronic device, the method comprising the steps of: побуждают посредством электронного устройства камерную систему и лидарную систему обеспечить данные изображений и картографические данные в электронное устройство в общем начале отсчета времени,causing, by means of the electronic device, the camera system and the lidar system to provide image data and mapping data to the electronic device at a common time reference, причем общее начало отсчета времени представляет собой индикатор абсолютного времени, в течение которого формируют данные;moreover, the common time reference is an indicator of the absolute time during which the data is generated; определяют посредством электронного устройства первую временную метку для картографических данных,determining by means of the electronic device a first timestamp for the map data, причем первая временная метка соответствует данному моменту времени в общем начале отсчета времени, в течение которого лидарная система формирует точки данных, представляющие объекты, расположенные в предварительно определенном участке;wherein the first timestamp corresponds to a given point in time in a common time origin during which the lidar system generates data points representing objects located in a predetermined area; определяют посредством электронного устройства вторую временную метку для данных изображений,determining by means of the electronic device a second timestamp for the image data, причем вторые временные метки соответствуют другому данному моменту времени в общем начале отсчета времени, в течение которого камерная система формирует данный моментальный снимок предварительно определенного участка;wherein the second timestamps correspond to another given point in time at the common time origin during which the camera system generates a given snapshot of the predetermined area; определяют посредством электронного устройства временное смещение между первой временной меткой и второй временной меткой,determining by means of an electronic device a time offset between the first timestamp and the second timestamp, причем временное смещение указывает разность между данным моментом времени и другим данным моментом времени в общем начале отсчета времени;moreover, the time offset indicates the difference between a given point in time and another given point in time in the common origin of time; используют посредством электронного устройства временное смещение для того, чтобы инициировать задержку между последующими моментальными снимками, сформированными посредством камерной системы,use by means of an electronic device a time offset in order to initiate a delay between successive snapshots generated by the camera system, причем регулируют частоту сканирования камеры путем деления длительности временного смещения между несколькими последующими снимками для добавления к ним соответствующей временной задержки, так что (i) по меньшей мере один последующий моментальный снимок формируют посредством камерной системы, и (ii) последующие точки данных относительно предварительно определенного участка формируют посредством лидарной системы в идентичный будущий момент времени в общем начале отсчета времени.moreover, the camera scan rate is adjusted by dividing the duration of the time offset between several subsequent pictures to add an appropriate time delay to them, so that (i) at least one subsequent snapshot is formed by the camera system, and (ii) subsequent data points relative to a predetermined area are formed by the lidar system at an identical future time point at a common time origin. 2. Способ по п. 1, в котором использование временного смещения выполняют в ходе работы SDV.2. The method of claim. 1, in which the use of a temporary offset is performed during the operation of the SDV. 3. Способ по п. 1, в котором синхронизацию данных для работы SDV выполняют по существу непрерывно в ходе работы SDV.3. The method of claim 1, wherein data synchronization for SDV operation is performed substantially continuously during SDV operation. 4. Способ по п. 1, в котором побуждение системы камер обеспечить данные изображений выполняют в ходе первой итерации операции камерной системы, и при этом использование выполняют для последующей операции камерной системы.4. The method of claim 1, wherein causing the camera system to provide image data is performed during the first iteration of the camera system operation, and the use is performed for a subsequent camera system operation. 5. Способ по п. 4, в котором последующая операция представляет собой предварительно определенное число последующих итераций.5. The method of claim 4, wherein the subsequent operation is a predetermined number of subsequent iterations. 6. Способ по п. 5, при этом способ по п. 1 повторяют после предварительно определенного числа последующих итераций для дополнительного числа последующих итераций.6. The method of claim 5, wherein the method of claim 1 is repeated after a predetermined number of subsequent iterations for an additional number of subsequent iterations. 7. Способ по п. 1, в котором камерная система имеет поле зрения, которое совпадает с предварительно определенным участком окрестностей SDV при установке на SDV.7. The method of claim 1, wherein the camera system has a field of view that matches a predetermined portion of the SDV's neighborhood when mounted on the SDV. 8. Способ по п. 1, в котором побуждение включает в себя этап, на котором используют PTP-протокол (протокол точного времени) посредством электронного устройства для того, чтобы передавать индикатор абсолютного времени в камерную систему и лидарную систему.8. The method of claim 1, wherein the prompting includes using the PTP protocol (Precision Time Protocol) by the electronic device to transmit an absolute time indicator to the camera system and the lidar system. 9. Способ по п. 1, в котором индикатор абсолютного времени представляет собой индикатор астрономического времени.9. The method of claim 1, wherein the absolute time indicator is an astronomical time indicator. 10. Способ по п. 1, в котором лидарная система представляет собой вращательную лидарную систему, таким образом, что лидарная система формирует точки данных, представляющие объекты, расположенные в первом участке окрестностей SDV в первый момент времени, и при этом первый участок ассоциирован с угловой позицией лидарной системы в первый момент времени.10. The method of claim 1, wherein the lidar system is a rotational lidar system, such that the lidar system generates data points representing objects located in a first region of the SDV neighborhood at a first point in time, and wherein the first region is associated with an angular position of the lidar system at the first moment of time. 11. Способ по п. 10, в котором лидарная система формирует точки данных, представляющие объекты, расположенные во втором участке окрестностей SDV во второй момент времени, и при этом второй участок ассоциирован с угловой позицией лидарной системы во второй момент времени,11. The method of claim 10, wherein the lidar system generates data points representing objects located in the second region of the SDV neighborhood at the second point in time, and wherein the second region is associated with the angular position of the lidar system at the second point in time, причем угловая позиция лидарной системы отличается в первый момент времени и во второй момент времени, при этом первый участок отличается от второго участка.moreover, the angular position of the lidar system differs at the first moment of time and at the second moment of time, while the first section differs from the second section. 12. Способ по п. 10, в котором определение первой временной метки содержит этапы, на которых:12. The method of claim 10, wherein determining the first timestamp comprises the steps of: получают посредством электронного устройства индикатор предварительно определенной угловой позиции лидарной системы,receiving by means of an electronic device an indicator of a predetermined angular position of the lidar system, так что, когда лидар находится в предварительно определенной угловой позиции, лидар формирует точки данных относительно объектов, расположенных в предварительно определенном участке,so that when the lidar is at a predefined angular position, the lidar generates data points about objects located in the predefined area, определяют посредством электронного устройства первую временную метку в качестве момента времени в общем начале отсчета времени, в который лидарная система находится в предварительно определенной угловой позиции.determining by means of an electronic device the first timestamp as the point in time in the common time reference at which the lidar system is in a predetermined angular position. 13. Способ по п. 12, в котором определение первой временной метки выполняют посредством электронного устройства с использованием алгоритма определения временных меток.13. The method of claim 12, wherein the determination of the first timestamp is performed by the electronic device using a timestamp determination algorithm. 14. Способ по п. 1, в котором данный моментальный снимок формируют посредством камерной системы в течение интервала времени для формирования моментального снимка, при этом вторая временная метка представляет собой момент времени в общем начале отсчета времени, который соответствует средней точке в интервале времени для формирования моментального снимка.14. The method of claim. 1, in which this snapshot is formed by the camera system during the time interval for forming a snapshot, while the second timestamp is a point in time in a common time reference that corresponds to a midpoint in the time interval for forming snapshot. 15. Способ по п. 1, в котором использование посредством электронного устройства временного смещения для того, чтобы инициировать задержку между последующими моментальными снимками, сформированными посредством камерной системы, содержит этап, на котором: побуждают камерную систему добавлять временную задержку моментального снимка после данного будущего моментального снимка.15. The method of claim 1, wherein using the time offset electronically to initiate a delay between successive snapshots generated by the camera system comprises: causing the camera system to add a snapshot time delay after a given future snapshot. snapshot. 16. Способ по п. 15, в котором временная задержка моментального снимка представляет собой множество временных задержек моментального снимка, добавленных после соответствующих будущих моментальных снимков, которые равны по времени длительности временного смещения.16. The method of claim 15, wherein the snapshot time delay is a set of snapshot time delays added after respective future snapshots that are equal in time to the duration of the time offset. 17. Способ по п. 16, в котором лидарная система работает в циклах вращения, указывающих частоту сканирования лидара, и камерная система работает в фазах сканирования, указывающих частоту сканирования камеры, и при этом данный цикл вращения лидарной системы равен предварительно определенному числу-множителю фаз сканирования камерной системы, и при этом множество временных задержек моментального снимка распределены по числу будущих моментальных снимков, соответствующему предварительно определенному числу-множителю фаз сканирования камерной системы.17. The method of claim 16 wherein the lidar system operates in rotation cycles indicating the lidar scan rate and the camera system operates in scan phases indicative of the camera scan rate, and wherein the rotation cycle of the lidar system is equal to a predetermined phase multiplier. scanning the camera system, wherein the plurality of snapshot time delays are distributed over a number of future snapshots corresponding to a predetermined multiplier of the camera system scan phases. 18. Электронное устройство, содержащее:18. An electronic device containing: процессор;CPU; машиночитаемый носитель долговременной памяти, содержащий данные, причем данные формируются посредством камерной системы и лидарной системы, соединенных с возможностью связи, через интерфейс связи, с процессором,a machine-readable non-volatile memory carrier containing data, wherein the data is generated by a camera system and a lidar system connected in communication, via a communication interface, to the processor, причем данные включают в себя:where the data includes: (i) данные изображений камерной системы, установленной на SDV для формирования данных изображений относительно предварительно определенного участка окрестностей SDV,(i) image data of a camera system installed on the SDV to generate image data about a predetermined area of the SDV's surroundings, причем данные камеры имеют форму последовательности моментальных снимков, сформированных посредством камерной системы с частотой сканирования камеры,wherein the camera data is in the form of a sequence of snapshots generated by the camera system at a camera scan rate, причем последовательность моментальных снимков представляет предварительно определенный участок в различные моменты времени,moreover, the sequence of snapshots represents a predetermined area at various points in time, (ii) картографические данные от лидарной системы, установленной на SDV для формирования картографических данных относительно окрестностей SDV, включающих в себя предварительно определенный участок,(ii) mapping data from a lidar system installed on the SDV to generate mapping data regarding the vicinity of the SDV, including a predetermined area, причем картографические данные имеют форму точек данных, сформированных посредством лидарной системы,wherein the mapping data is in the form of data points generated by the lidar system, причем точки данных представляют объекты, расположенные в различных участках окрестностей SDV в различные моменты времени,moreover, the data points represent objects located in different parts of the SDV neighborhood at different points in time, причем электронное устройство устанавливается на беспилотном транспортном средстве (SDV);wherein the electronic device is mounted on an unmanned vehicle (SDV); причем процессор выполнен с возможностью:wherein the processor is configured to: побуждать камерную систему и лидарную систему обеспечить данные изображений и картографические данные в общем начале отсчета времени,cause the camera system and the lidar system to provide image data and mapping data at a common time reference, причем общее начало отсчета времени представляет собой индикатор абсолютного времени, в течение которого формируются данные;moreover, the common origin of time is an indicator of the absolute time during which the data is generated; определять первую временную метку для картографических данных,determine the first timestamp for map data, причем первая временная метка соответствует данному моменту времени в общем начале отсчета времени, в течение которого лидарная система формирует точки данных, представляющие объекты, расположенные в предварительно определенном участке;wherein the first timestamp corresponds to a given point in time in a common time origin during which the lidar system generates data points representing objects located in a predetermined area; определять вторую временную метку для данных изображений,determine a second timestamp for the image data, причем вторые временные метки соответствуют другому данному моменту времени в общем начале отсчета времени, в течение которого камерная система формирует данный моментальный снимок предварительно определенного участка;wherein the second timestamps correspond to another given point in time at the common time origin during which the camera system generates a given snapshot of the predetermined area; определять посредством электронного устройства временное смещение между первой временной меткой и второй временной меткой,determine by means of an electronic device the time offset between the first timestamp and the second timestamp, причем временное смещение указывает разность между данным моментом времени и другим данным моментом времени в общем начале отсчета времени;moreover, the time offset indicates the difference between a given point in time and another given point in time in the common origin of time; использовать временное смещение для того, чтобы инициировать задержку между последующими моментальными снимками, сформированными посредством камерной системы,use a time offset to initiate a delay between successive snapshots generated by the camera system, регулировать частоту сканирования камеры путем деления длительности временного смещения между несколькими последующими снимками для добавления к ним соответствующей временной задержки,adjust the camera scan rate by dividing the duration of the time shift between several subsequent shots to add an appropriate time delay to them, так что (i) по меньшей мере один последующий моментальный снимок формируется посредством камерной системы, и (ii) последующие точки данных относительно предварительно определенного участка формируются посредством лидарной системы в идентичный будущий момент времени в общем начале отсчета времени.so that (i) at least one subsequent snapshot is generated by the camera system, and (ii) subsequent data points about the predetermined area are generated by the lidar system at the same future time point at the common time origin. 19. Электронное устройство по п. 18, в котором процессор дополнительно выполнен с возможностью использовать временное смещение в ходе работы SDV.19. The electronic device of claim 18, wherein the processor is further configured to use the time offset during operation of the SDV. 20. Электронное устройство по п. 18, в котором процессор дополнительно выполнен с возможностью побуждать камерную систему обеспечивать данные изображений в ходе первой итерации операции камерной системы, дополнительно выполнен с возможностью использовать временное смещение для последующей операции камерной системы.20. The electronic device of claim 18, wherein the processor is further configured to cause the camera system to provide image data during the first iteration of the camera system operation, is further configured to use the time offset for subsequent camera system operation.
RU2019143603A 2019-12-24 2019-12-24 Methods and systems for synchronizing sensors of unmanned vehicles (sdv) online RU2789923C2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
RU2019143603A RU2789923C2 (en) 2019-12-24 Methods and systems for synchronizing sensors of unmanned vehicles (sdv) online
EP20197957.2A EP3842835A1 (en) 2019-12-24 2020-09-24 Methods and systems for online synchronization of sensors of self-driving vehicles (sdv)
US17/039,972 US11892571B2 (en) 2019-12-24 2020-09-30 Methods and systems for online synchronization of sensors of self-driving vehicles (SDV)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2019143603A RU2789923C2 (en) 2019-12-24 Methods and systems for synchronizing sensors of unmanned vehicles (sdv) online

Publications (3)

Publication Number Publication Date
RU2019143603A RU2019143603A (en) 2021-06-24
RU2019143603A3 RU2019143603A3 (en) 2021-08-16
RU2789923C2 true RU2789923C2 (en) 2023-02-14

Family

ID=

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8314816B2 (en) * 2009-06-08 2012-11-20 Honeywell International Inc. System and method for displaying information on a display element
RU2609434C2 (en) * 2014-04-03 2017-02-01 Эйрбас Дс Гмбх Detection of objects arrangement and location
EP3438777A1 (en) * 2017-08-04 2019-02-06 Bayerische Motoren Werke Aktiengesellschaft Method, apparatus and computer program for a vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8314816B2 (en) * 2009-06-08 2012-11-20 Honeywell International Inc. System and method for displaying information on a display element
RU2609434C2 (en) * 2014-04-03 2017-02-01 Эйрбас Дс Гмбх Detection of objects arrangement and location
EP3438777A1 (en) * 2017-08-04 2019-02-06 Bayerische Motoren Werke Aktiengesellschaft Method, apparatus and computer program for a vehicle

Similar Documents

Publication Publication Date Title
US11892571B2 (en) Methods and systems for online synchronization of sensors of self-driving vehicles (SDV)
US11131752B2 (en) Vehicle navigation system using pose estimation based on point cloud
EP3614176B1 (en) A hardware centralized time synchronization hub for an autonomous driving vehicle
CN110857993B (en) GPS-based high-precision timestamp generation circuit for autonomous vehicles
US11004224B2 (en) Generation of structured map data from vehicle sensors and camera arrays
EP3613648B1 (en) A time source recovery system for an autonomous driving vehicle
US11029165B2 (en) Sensor integration and synchronization unit for an autonomous driving vehicle
US10969783B2 (en) Time source ranking system for an autonomous driving vehicle
CN112861660B (en) Laser radar array and camera synchronization device, method, equipment and storage medium
CN113016153A (en) Verifying timing of sensors used in autonomous vehicles
CN112752954A (en) Synchronization sensor for autonomous vehicle
CN112383675A (en) Time synchronization method and device and terminal equipment
CN112179362A (en) High-precision map data acquisition system and acquisition method
CN112041767A (en) System and method for synchronizing vehicle sensors and devices
JP7355930B2 (en) Time determination of inertial navigation systems in automated driving systems
RU2789923C2 (en) Methods and systems for synchronizing sensors of unmanned vehicles (sdv) online
WO2022256976A1 (en) Method and system for constructing dense point cloud truth value data and electronic device
RU2772620C1 (en) Creation of structured map data with vehicle sensors and camera arrays
Fasano et al. Real-time hardware-in-the-loop laboratory testing for multisensor sense and avoid systems
Nayak et al. Evaluation of Infrastructure-Assisted Cooperative Tracking of Vehicles Using Various Motion Models
CN111486837B (en) Vehicle position estimation method based on graph structure and vehicle using same
CN115825901A (en) Vehicle-mounted sensor perception performance evaluation truth value system
JP2020061048A (en) Information processing device