RU2789923C2 - Methods and systems for synchronizing sensors of unmanned vehicles (sdv) online - Google Patents
Methods and systems for synchronizing sensors of unmanned vehicles (sdv) online Download PDFInfo
- Publication number
- RU2789923C2 RU2789923C2 RU2019143603A RU2019143603A RU2789923C2 RU 2789923 C2 RU2789923 C2 RU 2789923C2 RU 2019143603 A RU2019143603 A RU 2019143603A RU 2019143603 A RU2019143603 A RU 2019143603A RU 2789923 C2 RU2789923 C2 RU 2789923C2
- Authority
- RU
- Russia
- Prior art keywords
- time
- lidar
- camera
- data
- camera system
- Prior art date
Links
Images
Abstract
Description
Область техники, к которой относится изобретениеThe technical field to which the invention belongs
[0001] Настоящая технология относится к компьютеризированным способам и системам для синхронизации датчиков, используемых беспилотным транспортным средством (SDV) для осуществления навигации; более конкретно, настоящая технология относится к синхронизации лидара (LIDAR) и камеры.[0001] The present technology relates to computerized methods and systems for synchronizing sensors used by an unmanned vehicle (SDV) for navigation; more specifically, the present technology relates to lidar (LIDAR) and camera synchronization.
Уровень техникиState of the art
[0002] В предшествующем уровне техники предложены и реализованы несколько компьютерных навигационных систем, которые выполнены с возможностью помощи при навигации и/или управлении транспортным средством. Эти системы варьируются от более базовых решений на основе картографической локализации (т.е. от использования компьютерной системы для того, чтобы помогать водителю в осуществлении навигации по маршруту из начального пункта в пункт назначения) до более сложных решений (компьютеризированных и/или автономных от водителя систем вождения).[0002] In the prior art, several computer navigation systems have been proposed and implemented that are capable of assisting in navigation and/or driving. These systems range from more basic map-based localization solutions (i.e. using a computer system to assist the driver in navigating a route from a starting point to a destination) to more complex solutions (computerized and/or driver-autonomous). driving systems).
[0003] Некоторые из этих систем реализуются как то, что общеизвестно в качестве системы "оптимального регулирования скорости" или системы “круиз-контроля”. В этих системах компьютерная система на борту транспортных средств поддерживает заданную пользователем скорость транспортного средства. Часть системы оптимального регулирования скорости реализует систему "интеллектуального управления дистанцией", за счет которой пользователь может устанавливать дистанцию до потенциального автомобиля впереди (к примеру, выбирать значение, выражаемое в числе транспортных средств), и компьютерная система регулирует скорость транспортного средства, по меньшей мере частично на основе транспортного средства, приближающегося к впереди идущему потенциальному транспортному средству в пределах предварительно заданной дистанции. Некоторые системы оптимального регулирования скорости дополнительно оснащаются системой управления столкновениями, причем эти системы при обнаружении транспортного средства (или другого препятствия) перед движущимся транспортным средством замедляют или останавливают транспортное средство.[0003] Some of these systems are implemented as what is commonly known as "optimum rate control" or "cruise control" systems. In these systems, the computer system on board the vehicles maintains a user-specified vehicle speed. Part of the optimal speed control system implements an "intelligent distance control" system whereby a user can set a distance to a potential vehicle ahead (eg, select a value expressed in terms of number of vehicles) and the computer system adjusts the vehicle's speed at least partially based on a vehicle approaching a potential vehicle ahead within a predetermined distance. Some speed control systems are additionally equipped with a collision control system, and these systems, when a vehicle (or other obstacle) is detected in front of a moving vehicle, slow or stop the vehicle.
[0004] Некоторые усовершенствованные системы обеспечивают полностью автономное вождение транспортного средства без прямого управления оператора (т.е. водителя). Эти автономные транспортные средства (также, называемые в данном документе "беспилотными транспортными средствами", "SDV") включают в себя компьютерные системы, которые могут побуждать транспортное средство ускоряться, тормозить, останавливаться, сменять полосу движения и автоматически парковаться.[0004] Some advanced systems provide fully autonomous driving of a vehicle without the direct control of an operator (ie driver). These autonomous vehicles (also referred to herein as "unmanned vehicles", "SDVs") include computer systems that can cause a vehicle to accelerate, brake, stop, change lanes, and park automatically.
[0005] Чтобы эффективно выполнять эти действия, компьютерные системы включают в себя или иным образом соединены с возможностью связи с множеством датчиков, включающих в себя, например, камеру и лидарный (LIDAR) датчик на основе оптического обнаружения и дальнометрии. При установке на транспортном средстве, лидарный датчик и камера, по умолчанию работают независимо, собирая данные, указывающие окрестность транспортного средства. Лидарный датчик вращается, с предварительно определенной частотой вращения (например, с одним циклом вращения в 200 мс), вокруг своей вертикальной центральной оси, собирая данные в форме облаков лидарных точек. Камера собирает данные в форме съемки моментальных снимков в идентичном направлении (поскольку жестко зафиксирована в нем) с предварительно определенной частотой съемки (например, один раз в 30 мс). Во время процесса установки (или, например, процесса техобслуживания), лидарный датчик и камера могут синхронизироваться, чтобы иметь возможность собирать данные, указывающие один и тот же предварительно определенный участок окрестностей транспортного средства, в идентичный момент времени.[0005] To efficiently perform these actions, computer systems include or are otherwise communicatively coupled to a plurality of sensors including, for example, a camera and a lidar (LIDAR) sensor based on optical detection and ranging. When installed on a vehicle, the lidar sensor and camera, by default, operate independently, collecting data indicating the vehicle's surroundings. The lidar sensor rotates, at a predetermined rate of rotation (eg, one rotation cycle of 200 ms), around its vertical central axis, collecting data in the form of lidar point clouds. The camera collects data in the form of taking snapshots in the same direction (because it is rigidly fixed in it) at a predetermined shooting frequency (for example, once every 30 ms). During an installation process (or, for example, a maintenance process), the lidar sensor and the camera may be synchronized to be able to collect data indicative of the same predetermined area of the vehicle's surroundings at an identical point in time.
[0006] Тем не менее, в ходе работы транспортного средства лидарный датчик и камера могут десинхронизироваться вследствие различных причин. Эти причины могут включать в себя, например, различные моменты времени обновлений данных лидара и камеры, или некоторые механические эффекты: резкое ускорение/замедление транспортного средства, вождение по дорожной неровности или в резком повороте. Все эти причины могут вызывать десинхронизацию лидара и камеры, которая приводит в результате, например, приему компьютерной системой транспортного средства несогласованных данных относительно объекта (другого транспортного средства, пешехода или любого препятствия) из лидара и камеры.[0006] However, during operation of the vehicle, the lidar sensor and the camera may become out of sync due to various reasons. These reasons may include, for example, different times of lidar and camera data updates, or some mechanical effects: sudden acceleration/deceleration of the vehicle, driving over bumps or in a sharp turn. All of these reasons can cause desynchronization of the lidar and the camera, which results, for example, in the vehicle computer system receiving inconsistent data regarding the object (another vehicle, a pedestrian, or any obstacle) from the lidar and the camera.
[0007] Острота этой проблемы проиллюстрирована посредством следующего гипотетического сценария. Предположим, что SDV едет по маршруту, определенному посредством компьютерной системы, на основе данных, принимаемых из лидара и камеры. В один момент, компьютерная система транспортного средства может принимать, из лидарного датчика, данные, указывающие другое транспортное средство, перемещающееся впереди транспортного средства; тогда как согласно данным, принимаемым из камеры, это транспортное средство уже может выходить из вида SDV. Такое несоответствие во входных данных, принимаемых из различных датчиков, ассоциированных с SDV, может усложнять формирование траектории для SDV.[0007] The severity of this problem is illustrated by the following hypothetical scenario. Assume that the SDV travels along a route determined by a computer system based on data received from the lidar and camera. At one point, the vehicle's computer system may receive, from the lidar sensor, data indicative of another vehicle moving in front of the vehicle; whereas, according to the data received from the camera, this vehicle may already be moving out of the SDV view. This discrepancy in the input data received from the various sensors associated with the SDV can complicate the formation of a trajectory for the SDV.
[0008] Международная заявка номер WO 2019079511 A1, опубликованная 25 апреля 2019 года, принадлежащая DeepMap, Inc. и озаглавленная "LIDAR and Camera Synchronization", раскрывает способ и систему для синхронизации лидара и камеры на автономном транспортном средстве. Система выбирает множество выборок с трассы для маршрута, включающих в себя сканирование лидара и изображение. Для каждой выборки с трассы, система вычисляет сдвиг по времени посредством итеративного прохождения по множеству дельт времени. Для каждой дельты времени, система регулирует временную метку камеры посредством этой дельты времени, проецирует сканирование лидара на изображение в качестве проецирования лидара согласно отрегулированной временной метке камеры и вычисляет количественный показатель совмещения проецирования лидара для этой дельты времени. Система задает сдвиг по времени для каждой выборки с трассы в качестве дельты времени с наибольшим количественным показателем совмещения. Система затем моделирует уход времени камеры по сравнению с лидаром на основе вычисленных сдвигов по времени для выборок с трассы и синхронизирует лидар и камеру согласно смоделированному уходу времени.[0008] International application number WO 2019079511 A1, published April 25, 2019, owned by DeepMap, Inc. and entitled "LIDAR and Camera Synchronization" discloses a method and system for synchronizing lidar and camera on an autonomous vehicle. The system selects a set of trace samples for the route, including a lidar scan and an image. For each trace sample, the system calculates the time offset by iterating through a set of time deltas. For each time delta, the system adjusts the camera timestamp by that time delta, projects the lidar scan onto the image as a lidar projection according to the adjusted camera timestamp, and calculates the lidar projection alignment score for that time delta. The system specifies the time offset for each trace sample as the time delta with the largest overlap score. The system then models the time drift of the camera versus lidar based on the computed time offsets for trace samples, and synchronizes the lidar and camera according to the simulated time drift.
Сущность изобретенияThe essence of the invention
[0009] Задача настоящей технологии заключается в том, чтобы улучшать по меньшей мере некоторые неудобства, присутствующие в предшествующем уровне техники. Варианты осуществления настоящей технологии могут обеспечивать и/или расширять объем подходов и/или способов достижения целей и задач настоящей технологии.[0009] The objective of the present technology is to improve at least some of the inconveniences present in the prior art. Embodiments of the present technology may provide and/or expand the scope of approaches and/or methods for achieving the goals and objectives of the present technology.
[0010] Разработчики настоящей технологии принимают во внимание по меньшей мере одну техническую проблему, ассоциированную с подходами предшествующего уровня техники.[0010] The developers of the present technology take into account at least one technical problem associated with prior art approaches.
[0011] Разработчики выявили, что имеется потребность в динамической синхронизации времени, когда камера осуществляет моментальный снимок, со временем, когда лидарный датчик проецирует свой лазер(ы). Другими словами, неограничивающие варианты осуществления настоящей технологии разработаны на основе оценки разработчиками потребности в синхронизации данных, сформированных посредством камеры и лидарного датчика в реальном времени в то время, когда транспортное средство перемещается. Более конкретно, разработчики намереваются создавать способ синхронизации камеры и лидарного датчика без необходимости специального техобслуживания транспортного средства для синхронизации, остановки для синхронизации или иной необходимости синхронизации в условиях гаража или лаборатории. За счет этого компьютерная система должна получать дополнительную устойчивость к вышеуказанным механическим эффектам, вызывающим десинхронизацию лидарного датчика и камеры, что позволяет уменьшать время (и финансовые затраты) для техобслуживания транспортного средства.[0011] The developers have recognized that there is a need to dynamically synchronize the time when the camera takes a snapshot with the time when the lidar sensor projects its laser(s). In other words, the non-limiting embodiments of the present technology are developed based on the developers' assessment of the need to synchronize the data generated by the camera and the lidar sensor in real time while the vehicle is moving. More specifically, the developers intend to create a way to synchronize a camera and a lidar sensor without the need for special vehicle maintenance to synchronize, stop to synchronize, or otherwise need to synchronize in a garage or laboratory environment. Due to this, the computer system should receive additional resistance to the above mechanical effects that cause desynchronization of the lidar sensor and the camera, which allows to reduce the time (and financial costs) for vehicle maintenance.
[0012] Разработчики настоящей технологии выяснили, что идентифицированная проблема, ассоциированная с синхронизацией лидарного датчика и камеры, может разрешаться посредством ассоциирования предварительно определенной частоты сканирования лидара и предварительно определенной частоты сканирования камеры с астрономическим временем. За счет этого, компьютерная система, во-первых, может определять соответствующие первые и вторые временные метки, в которых лидар и камера собирают данные предварительно определенного участка окрестности транспортного средства; и, во-вторых, компьютерная система может определять временное смещение между первыми и вторыми временными метками. После определения временного смещения компьютерная система может использовать его для того, чтобы модифицировать (например, уменьшать) предварительно определенную частоту сканирования камеры, чтобы синхронизироваться с лидарным датчиком для сбора данных предварительно определенного участка окрестностей транспортного средства одновременно.[0012] The developers of the present technology have learned that an identified problem associated with lidar sensor and camera synchronization can be resolved by associating a predetermined lidar scan rate and a predetermined camera scan rate with astronomical time. Due to this, the computer system, firstly, can determine the respective first and second timestamps at which the lidar and the camera collect data of a predetermined area of the vehicle's vicinity; and secondly, the computer system can determine the time offset between the first and second timestamps. Once the time offset is determined, the computer system can use it to modify (eg, reduce) the predetermined camera scan rate to synchronize with the lidar sensor to collect data from the predetermined area of the vehicle's surroundings at the same time.
[0013] Разработчики принимают во внимание, что итеративное повторение вышеуказанных этапов должно поддерживать синхронизацию лидарного датчика и камеры "на ходу", т.е. в реальном времени, по меньшей мере частично разрешая рекуррентные случаи десинхронизации.[0013] The developers take into account that iterative repetition of the above steps should keep the lidar sensor and camera synchronized "on the fly", i.e. in real time, at least partially resolving recurrent cases of desynchronization.
[0014] В отличие от некоторых подходов предшествующего уровня техники настоящая технология для определения временного смещения использует общее начало отсчета времени на основе астрономического времени вместо общих объектов, идентифицированных как в моментальном снимке с помощью камеры, так и в соответствующем облаке лидарных точек.[0014] In contrast to some prior art approaches, the present technology uses a common astronomical time-based reference to determine time offset instead of common objects identified in both the camera snapshot and the corresponding lidar point cloud.
[0015] В соответствии с одним широким аспектом настоящей технологии предусмотрен компьютерно-реализуемый способ синхронизации данных для работы беспилотного транспортного средства (SDV). Данные формируются посредством камерной системы и лидарной системы, и камерная система и лидарная система соединена с возможностью связи с электронным устройством. Данные включают в себя: (i) данные изображений камерной системы, установленной на SDV для формирования данных изображений относительно предварительно определенного участка окрестностей SDV, причем данные камер имеют форму последовательности моментальных снимков, сформированных посредством камерной системы, причем последовательность моментальных снимков представляет предварительно определенный участок в различные моменты времени, и (ii) картографические данные из лидарной системы, установленной на SDV для формирования картографических данных относительно окрестностей SDV, включающих в себя предварительно определенный участок, причем картографические данные имеют форму точек данных, сформированных посредством лидарной системы, причем точки данных представляют объекты, расположенные в различных участках окрестностей SDV, в различные моменты времени. Способ содержит: побуждение, посредством электронного устройства, камерной системы и лидарной системы обеспечивать данные изображений и картографические данные в электронное устройство в общем начале отсчета времени, при этом общее начало отсчета времени представляет собой индикатор абсолютного времени, в течение которого формируются данные; определение, посредством электронного устройства, первой временной метки для картографических данных, причем первая временная метка соответствует данному моменту времени в общем начале отсчета времени, в течение которого лидарная система формирует точки данных, представляющие объекты, расположенные в предварительно определенном участке; определение, посредством электронного устройства, второй временной метки для данных изображений, причем вторые временные метки соответствуют другому данному моменту времени в общем начале отсчета времени, в течение которого камерная система формирует данный моментальный снимок предварительно определенного участка; определение, посредством электронного устройства, временного смещения между первой временной меткой и второй временной меткой, причем временное смещение указывает разность между данным моментом времени и другим данным моментом времени в общем начале отсчета времени; использование, посредством электронного устройства, временного смещения для того, чтобы инициировать задержку между последующими моментальными снимками, сформированными посредством камерной системы, так что (i) по меньшей мере один последующий моментальный снимок формируется посредством камерной системы, и (ii) последующие точки данных относительно предварительно определенного участка формируются посредством лидарной системы в идентичный будущий момент времени в общем начале отсчета времени.[0015] In accordance with one broad aspect of the present technology, a computer-implemented method for synchronizing data for operation of an unmanned vehicle (SDV) is provided. Data is generated by the camera system and the lidar system, and the camera system and the lidar system are communicatively coupled to the electronic device. The data includes: (i) image data of a camera system installed on the SDV to form image data about a predetermined area of the SDV's surroundings, the camera data being in the form of a sequence of snapshots generated by the camera system, the sequence of snapshots representing a predetermined area in different points in time, and (ii) mapping data from a lidar system mounted on the SDV to generate mapping data regarding the vicinity of the SDV including a predefined area, wherein the mapping data is in the form of data points generated by the lidar system, wherein the data points represent objects located in different parts of the SDV neighborhood at different times. The method comprises: causing, by means of an electronic device, a camera system and a lidar system to provide image data and mapping data to the electronic device at a common time reference, the common time reference being an indication of the absolute time during which the data is generated; determining, by means of an electronic device, a first timestamp for the map data, the first timestamp corresponding to a given point in time in the common time reference, during which the lidar system generates data points representing objects located in the predetermined area; determining, by means of an electronic device, a second timestamp for the image data, the second timestamps corresponding to another given point in time in the common time reference, during which the camera system generates a given snapshot of the predetermined area; determining, by means of an electronic device, a time offset between the first timestamp and the second timestamp, the time offset indicating the difference between a given time and another given time at a common time origin; using, by the electronic device, a time offset to initiate a delay between successive snapshots generated by the camera system such that (i) at least one successive snapshot is generated by the camera system, and (ii) successive data points are relative to the previously of a certain section are formed by the lidar system at an identical future moment of time at a common time reference.
[0016] В некоторых реализациях способа использование временного смещения выполняется в ходе работы SDV.[0016] In some implementations of the method, the use of the temporal offset is performed during operation of the SDV.
[0017] В некоторых реализациях способа синхронизация данных для работы SDV выполняется по существу непрерывно в ходе работы SDV.[0017] In some implementations of the method, data synchronization for SDV operation is performed substantially continuously during SDV operation.
[0018] В некоторых реализациях способа побуждение камерной системы обеспечивать данные изображений выполняется в ходе первой итерации операции камерной системы, и при этом использование выполняется для последующей операции камерной системы.[0018] In some implementations of the method, causing the camera system to provide image data is performed during the first iteration of the camera system operation, and the use is made for a subsequent camera system operation.
[0019] В некоторых реализациях способа последующая операция представляет собой предварительно определенное число последующих итераций.[0019] In some implementations of the method, the subsequent operation is a predetermined number of subsequent iterations.
[0020] В некоторых реализациях способа вышеописанный способ повторяется после предварительно определенного числа последующих итераций для дополнительного числа последующих итераций.[0020] In some implementations of the method, the above method is repeated after a predetermined number of subsequent iterations for an additional number of subsequent iterations.
[0021] В некоторых реализациях способа камерная система имеет поле зрения, которое совпадает с предварительно определенным участком окрестностей SDV при монтаже на SDV.[0021] In some implementations of the method, the camera system has a field of view that matches a predetermined portion of the SDV's neighborhood when mounted on the SDV.
[0022] В некоторых реализациях способа побуждение включает в себя использование PTP-протокола посредством электронного устройства для передачи индикатора абсолютного времени в систему камер и лидарную систему.[0022] In some implementations of the method, prompting includes using the PTP protocol by means of an electronic device to transmit an absolute time indicator to the camera system and the lidar system.
[0023] В некоторых реализациях способа индикатор абсолютного времени представляет собой индикатор астрономического времени.[0023] In some implementations of the method, the absolute time indicator is an astronomical time indicator.
[0024] В некоторых реализациях способа лидарная система представляет собой вращательную лидарную систему таким образом, что лидарная система формирует точки данных, представляющие объекты, расположенные в первом участке окрестностей SDV в первый момент времени, и при этом первый участок ассоциирован с угловой позицией лидарной системы в первый момент времени.[0024] In some implementations of the method, the lidar system is a rotational lidar system such that the lidar system generates data points representing objects located in a first region of the SDV neighborhood at a first point in time, and wherein the first region is associated with the angular position of the lidar system at first moment in time.
[0025] В некоторых реализациях способа лидарная система формирует точки данных, представляющие объекты, расположенные во втором участке окрестностей SDV во второй момент времени, и при этом второй участок ассоциирован с угловой позицией лидарной системы во второй момент времени, причем угловая позиция лидарной системы отличается в первый момент времени и во второй момент времени, при этом первый участок отличается от второго участка.[0025] In some implementations of the method, the lidar system generates data points representing objects located in a second region of the SDV neighborhood at a second point in time, wherein the second region is associated with the angular position of the lidar system at the second point in time, wherein the angular position of the lidar system differs in the first time point and at the second time point, wherein the first section is different from the second section.
[0026] В некоторых реализациях способа определение первой временной метки содержит: получение, посредством электронного устройства, индикатора предварительно определенной угловой позиции лидарной системы таким образом, что когда лидар находится в предварительно определенной угловой позиции, лидар формирует точки данных относительно объектов, расположенных в предварительно определенном участке, определение, посредством электронного устройства, первой временной метки в качестве момента времени в общем начале отсчета времени, в который лидарная система находится в предварительно определенной угловой позиции.[0026] In some implementations of the method, determining the first timestamp comprises: obtaining, by means of an electronic device, an indicator of a predetermined angular position of the lidar system such that when the lidar is in a predetermined angular position, the lidar generates data points relative to objects located in a predetermined section, determining, by means of an electronic device, the first timestamp as the point in time in the common time reference at which the lidar system is at a predetermined angular position.
[0027] В некоторых реализациях способа определение первой временной метки выполняется посредством электронного устройства с использованием алгоритма определения временных меток.[0027] In some implementations of the method, the determination of the first timestamp is performed by the electronic device using a timestamp determination algorithm.
[0028] В некоторых реализациях способа данный моментальный снимок формируется посредством камерной системы в течение интервала времени для формирования моментального снимка, при этом вторая временная метка представляет собой момент времени в общем начале отсчета времени, который соответствует средней точке в интервале времени для формирования моментального снимка.[0028] In some implementations of the method, a given snapshot is generated by the camera system during the time interval to generate the snapshot, wherein the second timestamp is a point in time in the common time origin that corresponds to the midpoint in the time interval to generate the snapshot.
[0029] В некоторых реализациях способа использование посредством электронного устройства временного смещения для инициирования задержки между последующими моментальными снимками, сформированными посредством камерной системы, содержит: побуждение камерной системы добавлять временную задержку моментального снимка после данного будущего моментального снимка.[0029] In some implementations of the method, using a time offset electronically to initiate a delay between successive snapshots generated by the camera system comprises: causing the camera system to add a snapshot time delay after a given future snapshot.
[0030] В некоторых реализациях способа временная задержка моментального снимка представляет собой множество временных задержек моментального снимка, добавленных после соответствующих будущих моментальных снимков, которые равны по времени длительности временного смещения.[0030] In some implementations of the method, a snapshot time delay is a set of snapshot time delays added after respective future snapshots that are equal in time to the duration of the time offset.
[0031] В некоторых реализациях способа, в которых лидарная система работает в циклах вращения, указывающих частоту сканирования лидара, и камерная система работает в фазах сканирования, указывающих частоту сканирования камеры, и при этом данный цикл вращения лидарной системы равен предварительно определенному числу-множителю фаз сканирования камерной системы, и при этом множество временных задержек моментального снимка распределены по числу будущих моментальных снимков, соответствующему предварительно определенному числу-множителю фаз сканирования камерной системы.[0031] In some implementations of the method, in which the lidar system operates in rotation cycles indicating the scan rate of the lidar, and the camera system operates in scan phases indicating the scan rate of the camera, and this rotation cycle of the lidar system is equal to a predetermined phase multiplier scanning the camera system, wherein the plurality of snapshot time delays are distributed over a number of future snapshots corresponding to a predetermined multiplier of the camera system scan phases.
[0032] В соответствии с другим широким аспектом настоящей технологии предусмотрено электронное устройство. Электронное устройство содержит процессор; машиночитаемый носитель долговременной памяти, содержащий данные, причем данные формируются посредством камерной системы и лидарной системы, соединенных с возможностью связи, через интерфейс связи, с процессором и установленных на беспилотном транспортном средстве (SDV). Данные включают в себя: (i) данные изображений камерной системы, установленной на SDV для формирования данных изображений относительно предварительно определенного участка окрестностей SDV, причем данные камер имеют форму последовательности моментальных снимков, сформированных посредством камерной системы, причем последовательность моментальных снимков представляет предварительно определенный участок в различные моменты времени, и (ii) картографические данные из лидарной системы, установленной на SDV для формирования картографических данных относительно окрестностей SDV, включающих в себя предварительно определенный участок, причем картографические данные имеют форму точек данных, сформированных посредством лидарной системы, причем точки данных представляют объекты, расположенные в различных участках окрестностей SDV, в различные моменты времени. Процессор выполнен с возможностью побуждать систему камер и лидарную систему обеспечивать данные изображений и картографические данные в общем начале отсчета времени, при этом общее начало отсчета времени представляет собой индикатор абсолютного времени, в течение которого формируются данные; определять первую временную метку для картографических данных, причем первая временная метка соответствует данному моменту времени в общем начале отсчета времени, в течение которого лидарная система формирует точки данных, представляющие объекты, расположенные в предварительно определенном участке; определять вторую временную метку для данных изображений, причем вторые временные метки соответствуют другому данному моменту времени в общем начале отсчета времени, в течение которого камерная система формирует данный моментальный снимок предварительно определенного участка; определять, посредством электронного устройства, временное смещение между первой временной меткой и второй временной меткой, причем временное смещение указывает разность между данным моментом времени и другим данным моментом времени в общем начале отсчета времени; использовать временное смещение для того, чтобы инициировать задержку между последующими моментальными снимками, сформированными посредством камерной системы, так что (i) по меньшей мере один последующий моментальный снимок формируется посредством камерной системы, и (ii) последующие точки данных относительно предварительно определенного участка формируются посредством лидарной системы в идентичный будущий момент времени в общем начале отсчета времени.[0032] In accordance with another broad aspect of the present technology, an electronic device is provided. The electronic device contains a processor; a computer-readable non-volatile storage medium containing data, wherein the data is generated by a camera system and a lidar system communicatively connected via a communication interface to a processor and mounted on an unmanned vehicle (SDV). The data includes: (i) image data of a camera system installed on the SDV to form image data about a predetermined area of the SDV's surroundings, the camera data being in the form of a sequence of snapshots generated by the camera system, the sequence of snapshots representing a predetermined area in different points in time, and (ii) mapping data from a lidar system mounted on the SDV to generate mapping data regarding the vicinity of the SDV including a predefined area, wherein the mapping data is in the form of data points generated by the lidar system, wherein the data points represent objects located in different parts of the SDV neighborhood at different times. The processor is configured to cause the camera system and the lidar system to provide image data and mapping data at a common time reference, the common time reference being an indication of the absolute time over which data is generated; determining a first timestamp for the map data, the first timestamp corresponding to a given point in time in the common time origin, during which the lidar system generates data points representing objects located in the predetermined area; determine a second timestamp for the image data, the second timestamps corresponding to another given point in time in the common time origin, during which the camera system generates a given snapshot of the predetermined area; determine, by means of an electronic device, a time offset between the first timestamp and the second timestamp, the time offset indicating the difference between a given time and another given time at a common time origin; use a time offset to initiate a delay between successive snapshots generated by the camera system such that (i) at least one successive snapshot is generated by the camera system, and (ii) successive data points relative to a predetermined area are generated by the lidar systems at an identical future point in time at the common origin.
[0033] В некоторых реализациях электронного устройства процессор выполнен с возможностью использовать временное смещение в ходе работы SDV.[0033] In some implementations of the electronic device, the processor is configured to use the time offset during operation of the SDV.
[0034] В некоторых реализациях электронного устройства процессор дополнительно выполнен с возможностью побуждать систему камер обеспечивать данные изображений в ходе первой итерации операции камерной системы, дополнительно выполнен с возможностью использовать временное смещение для последующей операции камерной системы.[0034] In some implementations of the electronic device, the processor is further configured to cause the camera system to provide image data during the first iteration of the camera system operation, further configured to use a time offset for a subsequent camera system operation.
[0035] В контексте настоящего описания изобретения "сервер" представляет собой компьютерную программу, которая выполняется на соответствующих аппаратных средствах и допускает прием запросов (например, из клиентских устройств) по сети и выполнение этих запросов либо побуждение выполнения этих запросов. Аппаратные средства могут реализовываться как один физический компьютер или одна физическая компьютерная система, но ни одно из означенного не должно обязательно иметь место относительно настоящей технологии. В настоящем контексте использование выражения "сервер" не означает, что каждая задача (например, принимаемые инструкции или запросы) или любая конкретная задача должна приниматься, выполняться или побуждаться к выполнению посредством идентичного сервера (т.е. идентичного программного обеспечения и/или аппаратных средств); оно означает, что любое число программных элементов или аппаратных устройств может быть предусмотрено при приеме/отправке, выполнении или побуждении к выполнению любой задачи или запроса либо результатов любой задачи или запроса; и все это программное обеспечение и аппаратные средства могут представлять собой один сервер либо несколько серверов, причем все из означенного включается в выражение "по меньшей мере один сервер".[0035] As used herein, a "server" is a computer program that runs on appropriate hardware and is capable of receiving requests (eg, from client devices) over a network and making those requests or causing those requests to be made. The hardware may be implemented as one physical computer or one physical computer system, but neither need be the case with respect to the present technology. In the present context, the use of the term "server" does not imply that every task (e.g., instructions or requests received) or any particular task must be received, executed, or caused to be executed by an identical server (i.e., identical software and/or hardware). ); it means that any number of software elements or hardware devices may be provided in receiving/sending, performing or inducing any task or request, or the results of any task or request; and all such software and hardware may be a single server or multiple servers, all of which is included in the expression "at least one server".
[0036] В контексте настоящего описания изобретения "электронное устройство" представляет собой любые компьютерные аппаратные средства, которые допускают выполнение программного обеспечения, соответствующего рассматриваемой релевантной задаче. В контексте настоящего описания изобретения термин "электронное устройство" подразумевает, что устройство может функционировать в качестве сервера для других электронных устройств и клиентских устройств; тем не менее, это не должно обязательно иметь место относительно настоящей технологии. Таким образом, некоторые (неограничивающие) примеры электронных устройств включают в себя персональные компьютеры (настольные компьютеры, переносные компьютеры, нетбуки и т.д.), смартфоны и планшеты, а также сетевое оборудование, такое как маршрутизаторы, коммутаторы и шлюзы. Следует понимать, что в настоящем контексте тот факт, что устройство функционирует в качестве электронного устройства, не означает того, что оно не может функционировать в качестве сервера для других электронных устройств. Использование выражения "электронное устройство" не исключает использование нескольких клиентских устройств при приеме/отправке, выполнении или побуждении к выполнению любой задачи или запроса либо результатов любой задачи или запроса, или этапов любого способа, описанного в данном документе.[0036] As used herein, an "electronic device" is any computer hardware that is capable of executing software that is appropriate for the relevant task in question. In the context of the present description of the invention, the term "electronic device" means that the device can function as a server for other electronic devices and client devices; however, this need not necessarily be the case with the present technology. Thus, some (non-limiting) examples of electronic devices include personal computers (desktops, laptops, netbooks, etc.), smartphones and tablets, and network equipment such as routers, switches, and gateways. It should be understood that in the present context, the fact that a device functions as an electronic device does not mean that it cannot function as a server for other electronic devices. The use of the term "electronic device" does not preclude the use of multiple client devices in receiving/sending, performing or causing any task or request, or the results of any task or request, or steps in any method described herein.
[0037] В контексте настоящего описания изобретения "клиентское устройство" представляет собой любые компьютерные аппаратные средства, которые допускают выполнение программного обеспечения, соответствующего рассматриваемой релевантной задаче. В контексте настоящего описания изобретения в общем термин "клиентское устройство" ассоциирован с пользователем клиентского устройства. Таким образом, некоторые (неограничивающие) примеры клиентских устройств включают в себя персональные компьютеры (настольные компьютеры, переносные компьютеры, нетбуки и т.д.), смартфоны и планшеты, а также сетевое оборудование, такое как маршрутизаторы, коммутаторы и шлюзы. Следует отметить, что устройство, выступающее в качестве клиентского устройства в настоящем контексте, не исключается из выступания в качестве сервера для других клиентских устройств. Использование выражения "клиентское устройство" не исключает использование нескольких клиентских устройств при приеме/отправке, выполнении или побуждении к выполнению любой задачи или запроса либо результатов любой задачи или запроса, или этапов любого способа, описанного в данном документе.[0037] As used herein, a "client device" is any computer hardware that is capable of executing software that is appropriate for the relevant task in question. In the context of the present description of the invention in General, the term "client device" is associated with the user of the client device. Thus, some (non-limiting) examples of client devices include personal computers (desktops, laptops, netbooks, etc.), smartphones and tablets, and network equipment such as routers, switches, and gateways. It should be noted that a device serving as a client device in the present context is not excluded from serving as a server for other client devices. The use of the term "client device" does not preclude the use of multiple client devices in receiving/sending, performing or causing any task or request, or the results of any task or request, or steps in any method described herein.
[0038] В контексте настоящего описания изобретения выражение "информация" включает в себя информацию вообще любого характера или вида, допускающую сохранение в базе данных. Таким образом, информация включает в себя, но не только, аудиовизуальные произведения (изображения, фильмы, звукозаписи, презентации и т.д.), данные (данные местоположения, числовые данные и т.д.), текст (мнения, комментарии, вопросы, сообщения и т.д.), документы, электронные таблицы и т.д.[0038] In the context of the present description of the invention, the expression "information" includes information in general of any nature or kind, capable of being stored in a database. Thus, information includes, but is not limited to, audiovisual works (images, films, sound recordings, presentations, etc.), data (location data, numerical data, etc.), text (opinions, comments, questions , messages, etc.), documents, spreadsheets, etc.
[0039] В контексте настоящего описания изобретения выражение "программный компонент" включает в себя программное обеспечение (соответствующее конкретному аппаратному контексту), которое является необходимым и достаточным для того, чтобы осуществлять конкретную упоминаемую функцию(и).[0039] In the context of the present description of the invention, the expression "software component" includes software (corresponding to a specific hardware context) that is necessary and sufficient in order to implement the specific referenced function(s).
[0040] В контексте настоящего описания изобретения выражение "компьютерные носители хранения информации" (также называемые "носителями хранения данных") включает в себя носители вообще любого характера и вида, в том числе, без ограничения, RAM, ROM, диски (CD-ROM, DVD, гибкие диски, накопители на жестких дисках и т.д.), флэш-накопители, полупроводниковые накопители, накопители на ленте и т.д. Множество компонентов могут комбинироваться, чтобы формировать компьютерные носители хранения информации, включающие в себя два или более компонентов носителей идентичного типа и/или два или более компонентов носителей различных типов.[0040] In the context of the present description of the invention, the expression "computer storage media" (also referred to as "data storage media") includes media in general of any nature and form, including, without limitation, RAM, ROM, disks (CD-ROM , DVD, floppy disks, hard disk drives, etc.), flash drives, semiconductor drives, tape drives, etc. A plurality of components may be combined to form computer storage media including two or more media components of the same type and/or two or more media components of different types.
[0041] В контексте настоящего описания изобретения "база данных" представляет собой любую структурированную совокупность данных, независимо от ее конкретной структуры, программного обеспечения управления базами данных или компьютерных аппаратных средств, на которых данные сохраняются, реализуются или становятся доступными иными способами для использования. База данных может постоянно размещаться в идентичных аппаратных средствах с процессом, который сохраняет или использует информацию, сохраненную в базе данных, либо она может постоянно размещаться в отдельных аппаратных средствах, таких как выделенный сервер или множество серверов.[0041] As used herein, a "database" is any structured collection of data, regardless of its particular structure, database management software, or computer hardware on which the data is stored, implemented, or otherwise made available for use. The database may reside on identical hardware with a process that stores or uses the information stored in the database, or it may reside on separate hardware such as a dedicated server or multiple servers.
[0042] В контексте настоящего описания изобретения слова "первый", "второй", "третий" и т.д. использованы в качестве прилагательных только для целей обеспечения различения существительных, которые они модифицируют, друг от друга, а не для целей описания конкретных взаимосвязей между этими существительными. Таким образом, например, следует понимать, что использование терминов "первая база данных" и "третий сервер" не подразумевает конкретный порядок, тип, хронологию, иерархию или ранжирование (например) относительно сервера, и их использование не (непосредственно) подразумевает то, что "второй сервер" должен обязательно существовать в любой данной ситуации. Дополнительно, как пояснено в данном документе в других контекстах, ссылка на "первый" элемент и "второй" элемент не исключает того, что два элемента представляют собой идентичный фактический элемент реального мира. Таким образом, например, в некоторых случаях, "первый" сервер и "второй" сервер могут представлять собой идентичные программные и/или аппаратные компоненты, в других случаях они могут представлять собой различные программные и/или аппаратные компоненты.[0042] In the context of the present description of the invention, the words "first", "second", "third", etc. are used as adjectives only for the purpose of distinguishing the nouns they modify from each other, and not for the purpose of describing specific relationships between those nouns. Thus, for example, it should be understood that the use of the terms "first database" and "third server" does not imply a particular order, type, chronology, hierarchy, or ranking (for example) relative to the server, and their use does not (directly) imply that the "second server" must necessarily exist in any given situation. Additionally, as explained herein in other contexts, reference to a "first" element and a "second" element does not preclude that the two elements represent an identical actual real world element. Thus, for example, in some cases, the "first" server and the "second" server may be identical software and/or hardware components, in other cases they may be different software and/or hardware components.
[0043] Реализации настоящей технологии имеют, по меньшей мере, одну из вышеуказанных целей и/или аспектов, но не обязательно имеют все из них. Следует понимать, что некоторые аспекты настоящей технологии, полученные в результате попытки достигнуть вышеуказанной цели, могут не удовлетворять этой цели и/или могут удовлетворять другим целям, не изложенным конкретно в данном документе.[0043] Implementations of the present technology have at least one of the above objectives and/or aspects, but do not necessarily have all of them. It should be understood that some aspects of the present technology resulting from an attempt to achieve the above goal may not satisfy this goal and/or may satisfy other goals not specifically set forth in this document.
[0044] Дополнительные и/или альтернативные признаки, аспекты и преимущества реализаций настоящей технологии должны становиться очевидными из нижеприведенного описания, прилагаемых чертежей и прилагаемой формулы изобретения.[0044] Additional and/or alternative features, aspects, and advantages of implementations of the present technology should become apparent from the description below, the accompanying drawings, and the appended claims.
Краткое описание чертежейBrief description of the drawings
[0045] Эти и другие признаки, аспекты и преимущества настоящей технологии должны становиться более понятными при рассмотрении нижеприведенного описания, прилагаемой формулы изобретения и прилагаемых чертежей, на которых:[0045] These and other features, aspects, and advantages of the present technology should become more apparent upon consideration of the following description, the appended claims, and the accompanying drawings, in which:
[0046] Фиг. 1 иллюстрирует принципиальную схему примерной компьютерной системы для реализации конкретных вариантов осуществления систем и/или способов настоящей технологии.[0046] FIG. 1 illustrates a schematic diagram of an exemplary computer system for implementing specific embodiments of systems and/or methods of the present technology.
[0047] Фиг. 2 иллюстрирует сетевое вычислительное окружение, подходящее для использования с некоторыми реализациями настоящей технологии.[0047] FIG. 2 illustrates a networked computing environment suitable for use with some implementations of the present technology.
[0048] Фиг. 3 иллюстрирует принципиальную схему системы синхронизации, в соответствии с неограничивающими вариантами осуществления настоящей технологии.[0048] FIG. 3 illustrates a schematic diagram of a timing system, in accordance with non-limiting embodiments of the present technology.
[0049] Фиг. 4 иллюстрирует принципиальную схему вида сверху транспортного средства сетевого вычислительного окружения по фиг. 2, в соответствии с неограничивающими вариантами осуществления настоящей технологии.[0049] FIG. 4 illustrates a schematic top view of the vehicle of the networked computing environment of FIG. 2 in accordance with non-limiting embodiments of the present technology.
[0050] Фиг. 5 иллюстрирует временную диаграмму работы, посредством процессора компьютерной системы по фиг. 1, камерной системы сетевого вычислительного окружения по фиг. 2, в соответствии с неограничивающими вариантами осуществления настоящей технологии.[0050] FIG. 5 illustrates a timing diagram of operation by means of the processor of the computer system of FIG. 1 of the camera system of the network computing environment of FIG. 2 in accordance with non-limiting embodiments of the present technology.
[0051] Фиг. 6 иллюстрирует временную диаграмму работы, посредством процессора компьютерной системы по фиг. 1, лидарной системы сетевого вычислительного окружения по фиг. 2, в соответствии с неограничивающими вариантами осуществления настоящей технологии.[0051] FIG. 6 illustrates a timing diagram of operation by means of the processor of the computer system of FIG. 1 of the lidar system of the networked computing environment of FIG. 2 in accordance with non-limiting embodiments of the present technology.
[0052] Фиг. 7 иллюстрирует комбинированную временную диаграмму работы, посредством процессора компьютерной системы по фиг. 1, камерной системы сетевого вычислительного окружения по фиг. 2 и лидарной системы сетевого вычислительного окружения по фиг. 2 до их синхронизации, в соответствии с неограничивающими вариантами осуществления настоящей технологии.[0052] FIG. 7 illustrates a combined timing diagram of operation by the processor of the computer system of FIG. 1 of the camera system of the networked computing environment of FIG. 2 and the lidar network computing environment system of FIG. 2 prior to their synchronization, in accordance with non-limiting embodiments of the present technology.
[0053] Фиг. 8 иллюстрирует комбинированную временную диаграмму работы, посредством процессора компьютерной системы по фиг. 1, камерной системы сетевого вычислительного окружения по фиг. 2 и лидарной системы сетевого вычислительного окружения по фиг. 2 после их синхронизации, в соответствии с неограничивающими вариантами осуществления настоящей технологии.[0053] FIG. 8 illustrates a combined timing diagram of operation by the computer system processor of FIG. 1 of the camera system of the networked computing environment of FIG. 2 and the lidar network computing environment system of FIG. 2 after they are synchronized, in accordance with non-limiting embodiments of the present technology.
[0054] Фиг. 9 иллюстрирует блок-схему последовательности операций способа для синхронизации данных для работы транспортного средства сетевого вычислительного окружения по фиг. 2, согласно неограничивающим вариантам осуществления настоящей технологии.[0054] FIG. 9 illustrates a flowchart for synchronizing data for operation of the networked computing environment vehicle of FIG. 2 according to non-limiting embodiments of the present technology.
Подробное описание изобретенияDetailed description of the invention
[0055] Примеры и условный язык, изложенный в данном документе, преимущественно помогают читателю в понимании принципов настоящей технологии, а не ограничивать ее объем такими конкретно изложенными примерами и условиями. Следует принимать во внимание, что специалисты в данной области техники могут разрабатывать различные компоновки, которые, хотя и не описаны или показаны явно в данном документе, тем не менее, осуществляют принципы настоящей технологии и включаются в пределы ее сущности и объема.[0055] The examples and conventions set forth herein are intended primarily to assist the reader in understanding the principles of the present technology, and not to limit its scope to such specifically set forth examples and terms. It should be appreciated that those skilled in the art may devise various arrangements that, although not explicitly described or shown herein, nevertheless implement the principles of the present technology and are included within its spirit and scope.
[0056] Кроме того, в качестве помощи в понимании, нижеприведенное описание может описывать относительно упрощенные реализации настоящей технологии. Специалисты в данной области техники должны понимать, что различные реализации настоящей технологии могут иметь большую сложность.[0056] In addition, as an aid to understanding, the following description may describe relatively simplified implementations of the present technology. Those skilled in the art will appreciate that various implementations of the present technology may be highly complex.
[0057] В некоторых случаях также может быть изложено то, что считается полезными примерами модификаций настоящей технологии. Это осуществляется просто в качестве помощи в понимании и, кроме того, не должно не задавать объем или излагать ограничения настоящей технологии. Эти модификации не представляют собой исчерпывающий список, и специалисты в данной области техники могут вносить другие модификации при одновременном пребывании в пределах объема настоящей технологии. Дополнительно, если примеры модификаций не изложены, не следует интерпретировать это таким образом, что модификации невозможны, и/или таким образом, что то, что описывается, представляет собой единственный способ реализации этого элемента настоящей технологии.[0057] In some cases, what are considered useful examples of modifications to the present technology may also be set forth. This is merely as an aid to understanding and furthermore, it is not intended to limit the scope or set forth the limitations of the present technology. These modifications are not intended to be an exhaustive list, and other modifications may be made by those skilled in the art while staying within the scope of the present technology. Additionally, if examples of modifications are not set forth, this should not be interpreted in such a way that modifications are not possible, and/or in such a way that what is described is the only way to implement this element of the present technology.
[0058] Кроме того, все утверждения в данном документе, излагающие принципы, аспекты и реализации технологии, а также их конкретные примеры, охватывают их конструктивные и функциональные эквиваленты независимо от того, являются они известными в настоящее время или разрабатываются в будущем. Таким образом, например, специалисты в данной области техники должны признавать, что блок-схемы в данном документе представляют концептуальные виды иллюстративной схемы, осуществляющей принципы настоящей технологии. Аналогично следует принимать во внимание, что все блок-схемы последовательности операций, блок-схемы, схемы переходов состояния, псевдокод и т.п. представляют различные процессы, которые могут представляться большей частью на машиночитаемых носителях, и в силу этого выполняются посредством компьютера или процессора, независимо от того, показан или нет в явной форме такой компьютер или процессор.[0058] In addition, all statements in this document that set forth the principles, aspects and implementations of the technology, as well as their specific examples, cover their design and functional equivalents, regardless of whether they are currently known or developed in the future. Thus, for example, those skilled in the art will recognize that the flowcharts herein represent conceptual views of an illustrative circuit embodying the principles of the present technology. Likewise, it should be appreciated that all flowcharts, block diagrams, state transition diagrams, pseudocode, and the like. represent various processes, which may be represented for the most part on computer-readable media, and are therefore executed by a computer or processor, whether or not such computer or processor is explicitly shown.
[0059] Функции различных элементов, показанных на чертежах, включающих в себя все функциональные блоки, помеченные как "процессор", могут обеспечиваться с помощью специализированных аппаратных средств, а также аппаратных средств, допускающих выполнение программного обеспечения, в ассоциации с надлежащим программным обеспечением. При обеспечении посредством процессора, функции могут обеспечиваться посредством одного специализированного процессора, посредством одного совместно используемого процессора или посредством множества отдельных процессоров, некоторые из которых могут совместно использоваться. Кроме того, явное использование термина "процессор" или "контроллер" не должно истолковываться как означающее исключительно аппаратные средства, допускающие выполнение программного обеспечения, и может неявно включать в себя, без ограничений, аппаратные средства процессора цифровых сигналов (DSP), сетевой процессор, специализированную интегральную схему (ASIC), программируемую пользователем вентильную матрицу (FPGA), постоянное запоминающее устройство (ROM) для сохранения программного обеспечения, оперативное запоминающее устройство (RAM) и энергонезависимое устройство хранения. Также могут быть включены другие аппаратные средства, традиционные и/или специализированные.[0059] The functions of the various elements shown in the drawings, including all functional blocks labeled "processor", may be provided by dedicated hardware, as well as hardware capable of executing software, in association with appropriate software. When provided by a processor, the functions may be provided by a single dedicated processor, by a single shared processor, or by a plurality of separate processors, some of which may be shared. In addition, explicit use of the term "processor" or "controller" should not be construed as meaning solely hardware capable of executing software, and may implicitly include, without limitation, digital signal processor (DSP) hardware, network processor, dedicated an integrated circuit (ASIC), a field programmable gate array (FPGA), a read-only memory (ROM) for storing software, a random access memory (RAM) and a non-volatile storage device. Other hardware, conventional and/or specialized, may also be included.
[0060] Программные модули или просто модули, которые подразумеваются как программные, могут представляться в данном документе в качестве любой комбинации элементов блок-схемы последовательности операций способа или других элементов, указывающих выполнение этапов процесса, и/или текстового описания. Такие модули могут выполняться посредством аппаратных средств, которые показаны явно или неявно.[0060] Software modules, or simply modules that are meant to be software, may be represented herein as any combination of flowchart elements, or other elements indicating the execution of process steps, and/or textual description. Such modules may be implemented by hardware, which is shown explicitly or implicitly.
[0061] С учетом этих основных принципов, далее рассматриваются некоторые неограничивающие примеры, чтобы иллюстрировать различные реализации аспектов настоящей технологии.[0061] With these basic principles in mind, some non-limiting examples are discussed below to illustrate various implementations of aspects of the present technology.
Компьютерная системаcomputer system
[0062] При обращении первоначально к фиг. 1, показана компьютерная система 100, подходящая для использования с некоторыми реализациями настоящей технологии, причем компьютерная система 100 содержит различные аппаратные компоненты, включающие в себя один или более одно- или многоядерных процессоров, совместно представленных посредством процессора 110, полупроводниковый накопитель 120, запоминающее устройство 130, которое может представлять собой оперативное запоминающее устройство или любой другой тип запоминающего устройства. Связь между различными компонентами компьютерной системы 100 может осуществляться посредством одной или более внутренних и/или внешних шин (не показаны) (например, посредством PCI-шины, универсальной последовательной шины, шины по стандарту IEEE1394 Firewire, шины SCSI, шины Serial ATA и т.д.), с которыми электронно соединяются различные аппаратные компоненты. Согласно вариантам осуществления настоящей технологии полупроводниковый накопитель 120 сохраняет программные инструкции, подходящие для загрузки в запоминающее устройство 130 и выполняемые посредством процессора 110 для определения присутствия объекта. Например, программные инструкции могут представлять собой часть управляющего приложения транспортного средства, выполняемого посредством процессора 110. Следует отметить, что компьютерная система 100 может иметь дополнительные и/или необязательные компоненты (не проиллюстрированы), такие как модули сетевой связи, модули локализации и т.п.[0062] Referring initially to FIG. 1, a
Сетевое компьютерное окружениеnetworked computer environment
[0063] Фиг. 2 иллюстрирует сетевое компьютерное окружение 200, подходящее для использования с некоторыми вариантами осуществления систем и/или способов настоящей технологии. Сетевое компьютерное окружение 200 содержит электронное устройство 210, ассоциированное с транспортным средством 220 или ассоциированное с пользователем (не проиллюстрирован), который может управлять транспортным средством 220. Сетевое компьютерное окружение 200 дополнительно содержит сервер 235, поддерживающий связь с электронным устройством 210 через сеть 245 связи (например, через Интернет и т.п., как подробнее описывается ниже в данном документе). Необязательно, сетевое компьютерное окружение 200 также может включать в себя GPS-спутник (не проиллюстрирован), передающий и/или принимающий GPS-сигнал в/из электронного устройства 210. Следует понимать, что настоящая технология не ограничена GPS и может использовать технологию позиционирования, отличную от GPS. Следует отметить, что GPS-спутник может вообще опускаться.[0063] FIG. 2 illustrates a
[0064] Транспортное средство 220, с которым ассоциировано электронное устройство 210, может содержать любое туристическое или перевозное транспортное средство, такое как личный или коммерческий автомобиль, грузовик, мотоцикл и т.п. Транспортное средство может представлять собой управляемое пользователем или безоператорное транспортное средство. Следует отметить, что конкретные параметры транспортного средства 220 не являются ограничивающими, причем эти конкретные параметры включают в себя: производителя транспортных средств, модель транспортного средства, год изготовления транспортного средства, вес транспортного средства, габариты транспортного средства, распределение веса транспортного средства, площадь поверхности транспортного средства, высоту транспортного средства, тип приводной передачи (например, 2x или 4x), тип шин, тормозную систему, топливную систему, пробег, идентификационный номер транспортного средства и рабочий объем двигателя.[0064] The
[0065] Реализация электронного устройства 210 не ограничена конкретным образом, но в качестве примера, электронное устройство 210 может реализовываться как блок управления двигателем транспортного средства, CPU транспортного средства, навигационное устройство транспортного средства (например, TomTomTM, GarminTM), планшетный компьютер, персональный компьютер, встроенный в транспортное средство 220, и т.п. Таким образом, следует отметить, что электронное устройство 210 может или не может быть постоянно ассоциировано с транспортным средством 220. Дополнительно или альтернативно электронное устройство 210 может реализовываться в устройстве беспроводной связи, таком как мобильный телефон (например, смартфон или радиотелефон). В конкретных вариантах осуществления электронное устройство 210 имеет дисплей 270.[0065] The implementation of the
[0066] Электронное устройство 210 может содержать часть или все компоненты компьютерной системы 100, проиллюстрированной на фиг. 1. В конкретных вариантах осуществления электронное устройство 210 представляет собой бортовое компьютерное устройство и содержит процессор 110, полупроводниковый накопитель 120 и запоминающее устройство 130. Другими словами, электронное устройство 210 содержит аппаратные средства и/или программное обеспечение, и/или микропрограммное обеспечение либо комбинацию вышеозначенного для определения присутствия объекта вокруг транспортного средства 220, как подробнее описано ниже.[0066] The
[0067] В соответствии с неограничивающими вариантами осуществления настоящей технологии электронное устройство 210 дополнительно содержит или имеет доступ к первому датчику 230. Дополнительно электронное устройство 210 дополнительно может содержать второй датчик 240. Первый датчик 230 выполнен с возможностью захватывать изображение окружающей области 250, и второй датчик 240 выполнен с возможностью захватывать облако лидарных точек окружающей области 250 и других датчиков (не проиллюстрированы). Первый датчик 230 и второй датчик 240 соединен с возможностью связи с процессором 110 для передачи такой захваченной информации в процессор 110 для ее обработки, как подробнее описывается ниже в данном документе.[0067] In accordance with non-limiting embodiments of the present technology, the
Первый датчикFirst sensor
[0068] В конкретном неограничивающем примере первый датчик 230 содержит камеру. То, как камера реализуется, не ограничено конкретным образом. Например, в конкретных неограничивающих вариантах осуществления настоящей технологии камера может реализовываться как монокамера с разрешением, достаточным для того, чтобы обнаруживать объекты на предварительно определенных дистанциях около до 30 м (хотя камеры с другими разрешениями и дальностями находятся в пределах объема настоящего раскрытия сущности). Камера может устанавливаться в салоне, в верхнем участке ветрового стекла транспортного средства 220, но другие местоположения находятся в пределах объема настоящего раскрытия сущности, в том числе заднее окно, боковые окна, передний капот, крыша, решетка радиатора или передний бампер транспортного средства 220. В некоторых неограничивающих вариантах осуществления настоящей технологии первый датчик 230 может устанавливаться в выделенном корпусе (не проиллюстрирован), установленном на крыше транспортного средства 220.[0068] In a specific non-limiting example, the
[0069] В некоторых неограничивающих вариантах осуществления настоящей технологии первый датчик 230 может реализовываться как множество камер. Например, множество камер могут иметь достаточное число камер для того, чтобы захватывать окружающее/панорамное изображение окружающих областей 250.[0069] In some non-limiting embodiments of the present technology, the
[0070] В некоторых неограничивающих вариантах осуществления настоящей технологии камера (либо одна или более камер, которые составляют реализацию первого датчика 230) выполнена с возможностью захватывать предварительно определенный участок окружающей области 250 вокруг транспортного средства 220. В некоторых вариантах осуществления настоящей технологии камера выполнена с возможностью захватывать изображение (или последовательность изображений), которое представляет около 90 градусов окружающей области 250 вокруг транспортного средства 220, т.е. вдоль пути перемещения транспортного средства 220.[0070] In some non-limiting embodiments of the present technology, the camera (or one or more cameras that constitute an implementation of the first sensor 230) is configured to capture a predetermined portion of the surrounding
[0071] В других неограничивающих вариантах осуществления настоящей технологии камера выполнена с возможностью захватывать изображение (или последовательность изображений), которое представляет около 180 градусов окружающей области 250 вокруг транспортного средства 220, т.е. вдоль пути перемещения транспортного средства 220.[0071] In other non-limiting embodiments of the present technology, the camera is configured to capture an image (or sequence of images) that represents about 180 degrees of the surrounding
[0072] В еще дополнительных вариантах осуществления настоящей технологии камера выполнена с возможностью захватывать изображение (или последовательность изображений), которое представляет около 360 градусов окружающей области 250 вокруг транспортного средства 220, т.е. вдоль пути перемещения транспортного средства 220 (другими словами, полностью окружающую область вокруг транспортного средства 220).[0072] In still further embodiments of the present technology, the camera is configured to capture an image (or sequence of images) that represents about 360 degrees of the surrounding
[0073] В конкретном неограничивающем примере первый датчик 230 может быть реализован, может иметь тип, предлагаемый компанией FLIR Integrated Imaging Solutions Inc., 12051 Riverside Way, Ричмонд, BC, V6W 1K7, Канада. Следует четко понимать, что первый датчик 230 может реализовываться в любом другом подходящем оборудовании.[0073] In a specific non-limiting example, the
[0074] В неограничивающих вариантах осуществления настоящей технологии первый датчик 230 может быть выполнен с возможностью осуществлять моментальные снимки с предварительно определенной частотой сканирования камеры (например, один моментальный снимок в 30 мс), за счет этого формируя данные изображений предварительно определенного участка (проиллюстрирован на фиг. 4) окружающей области 250 транспортного средства 220.[0074] In non-limiting embodiments of the present technology, the
Второй датчикSecond sensor
[0075] В конкретном неограничивающем примере второй датчик 240 содержит лидарный (LIDAR) измерительный прибор на основе оптического обнаружения и дальнометрии. Лидар означает оптическое обнаружение и дальнометрию. Предполагается, что специалисты в данной области техники должны понимать функциональность лидарного измерительного прибора, но вкратце, передающее устройство (не проиллюстрировано) второго датчика 240, реализованного в качестве лидара, отправляет лазерный импульс, и световые частицы (фотоны) рассеиваются обратно в приемное устройство (не проиллюстрировано) второго датчика 240, реализованного в качестве лидарного измерительного прибора. Фотоны, которые возвращаются в приемное устройство, собираются с помощью телескопа и подсчитываются в качестве функции от времени. С использованием скорости света (~3×108 м/с) процессор 110 затем может вычислять то, насколько далеко перемещены фотоны (при полном обходе). Фотоны могут рассеиваться с отражением от многих различных объектов, окружающих транспортное средство 220, таких как другие частицы (аэрозоли или молекулы) в атмосфере, другой автомобиль, стационарные объекты или потенциальные преграды в окружающей области 250 транспортного средства 220. Эти фотоны содержат так называемые облака лидарных точек и указывают картографические данные, сформированные посредством второго датчика 240.[0075] In a specific non-limiting example, the
[0076] В конкретном неограничивающем примере второй датчик 240 может реализовываться как лидарный датчик, который может иметь тип, предлагаемый компанией Velodyne LiDAR, Inc. 5521 Hellyer Avenue, Сан-Хосе, CA 95138, США. Следует четко понимать, что второй датчик 240 может реализовываться в любом другом подходящем оборудовании.[0076] In a specific non-limiting example, the
[0077] В некоторых вариантах осуществления настоящей технологии второй датчик 240 может реализовываться как множество лидарных датчиков, к примеру, как три, например, или любое другое подходящее число. В некоторых вариантах осуществления настоящей технологии второй датчик 240 (независимо от того, реализован он в качестве одного лидарного датчика либо нескольких лидарных датчиков) может размещаться в вышеуказанном корпусе (не проиллюстрирован отдельно), расположенном на крыше транспортного средства 220.[0077] In some embodiments of the present technology, the
[0078] В тех вариантах осуществления настоящей технологии в которых второй датчик 240 реализуется как несколько лидарных датчиков, размещенных в корпусе (не проиллюстрирован), пространственное размещение нескольких лидарных датчиков может проектироваться с учетом конкретной технической конфигурации нескольких лидарных датчиков, конфигурации корпуса, погодных условий области, в которой должно использоваться транспортное средство 220 (к примеру, частый дождь, снег и другие элементы), и т.п.[0078] In those embodiments of the present technology in which the
[0079] В неограничивающих вариантах осуществления настоящей технологии второй датчик 240 может устанавливаться на транспортном средстве 220 с вращением на нем с предварительно определенной частотой (например, с одним циклом вращения в 200 мс), что упоминается в данном документе как предварительно определенная частота сканирования лидара. В связи с этим, второй датчик 240 может быть выполнен с возможностью формировать картографические данные окружающей области 250 транспортного средства 220 с предварительно определенной частотой сканирования лидара.[0079] In non-limiting embodiments of the present technology, the
Другие датчикиOther sensors
[0080] В дополнительных неограничивающих вариантах осуществления настоящей технологии электронное устройство 210 дополнительно может содержать или иметь доступ к третьему датчику (не проиллюстрирован). Третий датчик (не проиллюстрирован) может содержать (радарный) измерительный прибор на основе радиообнаружения и дальнометрии. Вкратце, радарный измерительный прибор представляет собой обнаруживающий измерительный прибор с использованием радиоволн, чтобы определять дальность, угол и/или скорость объектов. Радарный измерительный прибор включает в себя передающее устройство, формирующее электромагнитные волны, антенну, используемую для передачи и приема электромагнитных волн, приемное устройство и процессор для того, чтобы определять свойства обнаруженных объектов. В альтернативных вариантах осуществления настоящей технологии могут быть предусмотрены отдельная антенна для приема волн и отдельная антенна для передачи волн. Процессор, используемый для определения свойств окружающих объектов, может представлять собой процессор 110.[0080] In additional non-limiting embodiments of the present technology, the
[0081] В некоторых вариантах осуществления настоящей технологии третий датчик (не проиллюстрирован) может содержать радарные датчики большой, средней и малой дальности действия. В качестве неограничивающего примера, радарный датчик большой дальности действия может использоваться для адаптивной системы оптимального регулирования скорости, автоматического экстренного торможения и системы выдачи предупреждений относительно прямых столкновений, в то время как радарные датчики средней и малой дальности действия могут использоваться для помощи при парковке, оповещения относительно пересекающихся потоков движения, помощи на скрещении дорог и обнаружения на слепой стороне.[0081] In some embodiments of the present technology, the third sensor (not illustrated) may comprise long, medium, and short range radar sensors. As a non-limiting example, a long range radar sensor can be used for adaptive speed control, automatic emergency braking, and forward collision warning, while medium and short range radar sensors can be used for parking assistance, traffic alerts. cross traffic, crossroads assistance and blind side detection.
[0082] В конкретном неограничивающем примере третий датчик (не проиллюстрирован) может иметь тип, предлагаемый компанией Robert Bosch GmbH Robert-Bosch-Platz 1, 70839 Герлинген, Германия. Следует четко понимать, что третий датчик (не проиллюстрирован) может реализовываться в любом другом подходящем оборудовании.[0082] In a specific non-limiting example, the third sensor (not illustrated) may be of the type offered by Robert Bosch GmbH Robert-Bosch-Platz 1, 70839 Gerlingen, Germany. It should be clearly understood that the third sensor (not illustrated) may be implemented in any other suitable equipment.
[0083] В некоторых вариантах осуществления настоящей технологии первый датчик 230 и второй датчик 240 могут калиброваться таким образом, что для изображения, захваченного посредством первого датчика 230, и облака лидарных точек, захваченного посредством второго датчика 240, процессор 110 выполнен с возможностью идентифицировать данную область изображения, которая соответствует данной области облака лидарных точек, захваченного посредством второго датчика 240. В других вариантах осуществления настоящей технологии первый датчик 230, второй датчик 240 и третий датчик (не проиллюстрирован) калибруются таким образом, что для изображения, захваченного посредством первого датчика 230, облака лидарных точек, захваченного посредством второго датчика 240, и радарных данных, захваченных посредством третьего датчика (не проиллюстрирован), процессор 110 выполнен с возможностью идентифицировать данную область изображения, которая соответствует данной области облака лидарных точек и радарным данным.[0083] In some embodiments of the present technology, the
[0084] Третий датчик (не проиллюстрирован) в силу этого может обеспечивать дополнительную информацию или пополнять то, что получается посредством первого датчика 230 и/или второго датчика 240. В качестве неограничивающего примера, показано, что в определенных случаях радарный датчик может работать лучше лидарного измерительного прибора при конкретных погодных условиях, к примеру, при тумане, дожде, снеге и пыли. Дополнительно радарный датчик может точно определять относительную скорость трафика или скорость движущегося объекта с использованием сдвига доплеровской частоты. Таким образом, третий датчик (не проиллюстрирован) может использоваться в комбинации с первым датчиком 230, в комбинации со вторым датчиком 240 либо в комбинации с первым датчиком 230 и вторым датчиком 240. В некоторых вариантах осуществления настоящей технологии третий датчик (не проиллюстрирован), например, может использоваться только временно, к примеру, при сложных погодных условиях.[0084] A third sensor (not illustrated) may therefore provide additional information or supplement what is obtained by the
[0085] В неограничивающих вариантах осуществления настоящей технологии электронное устройство 210 дополнительно может содержать или иметь доступ к другим датчикам (не проиллюстрированы). Другие датчики (не проиллюстрированы) включают в себя одно или более из следующего: блок инерциальных измерений (IMU), измерительный прибор на основе глобальной навигационной спутниковой системы (GNSS), радары скорости относительно земли, ультразвуковые сонарные датчики, одометрические датчики, включающие в себя акселерометры и гироскопы, механические датчики наклона, магнитный компас и другие датчики, обеспечивающие работу транспортного средства 220.[0085] In non-limiting embodiments of the present technology, the
[0086] В качестве неограничивающего примера, IMU может прикрепляться к транспортному средству 220 и содержать три гироскопа и три акселерометра для обеспечения данных по вращательному движению и прямолинейному движению транспортного средства 220, которые могут использоваться для того, чтобы вычислять движение и позицию транспортного средства 220.[0086] As a non-limiting example, the IMU may be attached to
[0087] Эта калибровка может выполняться во время изготовления и/или установки транспортного средства 220. Альтернативно, калибровка может выполняться в любое подходящее время после этого, либо, другими словами, калибровка может выполняться во время модернизации транспортного средства 220 за счет первого датчика 230, второго датчика 240 и третьего датчика 236 в соответствии с неограничивающими вариантами осуществления настоящей технологии, предполагаемыми в данном документе. Альтернативно, калибровка может выполняться во время оснащения транспортного средства 220 первым датчиком 230, вторым датчиком 240 и третьим датчиком 236 в соответствии с неограничивающими вариантами осуществления настоящей технологии, предполагаемыми в данном документе.[0087] This calibration may be performed during the manufacture and/or installation of the
Сеть связиCommunication network
[0088] В некоторых вариантах осуществления настоящей технологии сеть 245 связи представляет собой Интернет. В альтернативных неограничивающих вариантах осуществления сеть связи может реализовываться как любая подходящая локальная вычислительная сеть (LAN), глобальная вычислительная сеть (WAN), частная сеть связи и т.п. Следует четко понимать, что реализации для сети связи предназначаются только для целей иллюстрации. То, как реализуется линия связи (без отдельной ссылки с номером) между электронным устройством 210 и сетью 245 связи, должно зависеть, в числе прочего, от того, как реализуется электронное устройство 210. Просто в качестве примера, а не в качестве ограничения, в тех вариантах осуществления настоящей технологии, в которых электронное устройство 210 реализуется как устройство беспроводной связи, такое как смартфон или навигационное устройство, линия связи может реализовываться как линия беспроводной связи. Примеры линий беспроводной связи включают в себя, но не только, сетевую 3G-линию связи, сетевую 4G-линию связи и т.п. Сеть 245 связи также может использовать беспроводное соединение с сервером 215.[0088] In some embodiments of the present technology,
СерверServer
[0089] В некоторых вариантах осуществления настоящей технологии сервер 215 реализуется как традиционный компьютер-сервер и может содержать часть или все компоненты компьютерной системы 1 по фиг. 1. В одном неограничивающем примере сервер 112 реализуется как сервер Dell™ PowerEdge™ под управлением операционной системы Windows Server™ Microsoft™, но также может реализовываться в любых других подходящих аппаратных средствах, программном обеспечении и/или микропрограммном обеспечении либо в комбинации вышеозначенного. В проиллюстрированных неограничивающих вариантах осуществления настоящей технологии сервер представляет собой один сервер. В альтернативных неограничивающих вариантах осуществления настоящей технологии (не показаны) функциональность сервера 215 может распределяться и может реализовываться через несколько серверов.[0089] In some embodiments of the present technology, the
[0090] В некоторых неограничивающих вариантах осуществления настоящей технологии процессор 110 электронного устройства 210 может поддерживать связь с сервером 215, чтобы принимать одно или более обновлений. Обновления могут представлять собой, но не только, обновления программного обеспечения, обновления карт, обновления маршрутов, обновления прогноза погоды и т.п. В некоторых вариантах осуществления настоящей технологии процессор 110 также может быть выполнен с возможностью передавать на сервер 215 определенные рабочие данные, такие как проезжаемые маршруты, данные трафика, данные рабочих характеристик и т.п. Некоторые или все данные, передаваемые между транспортным средством 220 и сервером 215, могут шифроваться и/или анонимизироваться.[0090] In some non-limiting embodiments of the present technology, the
[0091] В неограничивающих вариантах осуществления настоящей технологии сервер 215 выполнен с возможностью обеспечивать, через сеть 245 связи, в электронное устройство 210 индикаторы абсолютного времени, что описывается ниже со ссылкой на фиг. 3.[0091] In non-limiting embodiments of the present technology,
Система синхронизацииSynchronization system
[0092] Ссылаясь теперь на фиг. 3, проиллюстрирована система 300 синхронизации, реализованная в соответствии с неограничивающим вариантом осуществления настоящей технологии. Система 300 синхронизации выполнена с возможностью синхронизации работы первого датчика 230 и второго датчика 240, в соответствии с неограничивающими вариантами осуществления настоящей технологии. Система 300 синхронизации включает в себя процессор (например, процессор 110 электронного устройства 210), камерную систему 302, содержащую первый датчик 230, и лидарную систему 304, содержащую второй датчик 240.[0092] Referring now to FIG. 3, a
[0093] Согласно неограничивающим вариантам осуществления настоящей технологии камерная система 302дополнительно может содержать компонент 306 синхронизации камеры. Лидарная система 304 дополнительно может содержать компонент 308 синхронизации лидара.[0093] According to non-limiting embodiments of the present technology, the
[0094] Вообще говоря, система 300 синхронизации выполнена с возможностью совмещать, во времени, захват данных 310 изображений предварительно определенного участка окружающей области 250, сформированных посредством камерной системы 302, с захватом картографических данных 312, представляющих точки данных объектов, расположенных в предварительно определенном участке, картографических данных, которые сформированы посредством лидарной системы 304. С этой целью в неограничивающих вариантах осуществления настоящей технологии процессор 110 выполнен с возможностью обеспечивать для камерной системы 302 и лидарной системы 304 общую привязку по времени для захвата и обработки данных.[0094] Generally speaking, the
[0095] В этом отношении, как упомянуто выше, процессор 110 может быть выполнен с возможностью принимать, из сервера 215, индикатор 320 абсолютного времени. В неограничивающих вариантах осуществления настоящей технологии абсолютное время представляет собой астрономическое время.[0095] In this regard, as mentioned above, the
[0096] В неограничивающих вариантах осуществления настоящей технологии астрономическое время представляет собой UT1-версию всемирного времени. Более конкретно, астрономическое время представляет собой среднее солнечное время на долготе в 0°. Астрономическое время вычисляется из наблюдений за дальними квазарами с использованием интерферометрии с длинными базами, лазерной дальнометрии Луны и искусственных спутников, а также определения орбит GPS-спутников. Астрономическое время, как упомянуто в данном документе, является идентичным на всей планете Земля и является пропорциональным углу вращения Земли относительно дальних квазаров, а именно, согласно Международной небесной системы координат (ICRF), с игнорированием некоторых небольших регулирований.[0096] In non-limiting embodiments of the present technology, astronomical time is the UT1 version of UTC. More specifically, astronomical time is mean solar time at 0° longitude. Astronomical time is calculated from observations of distant quasars using long baseline interferometry, laser ranging of the Moon and artificial satellites, and determination of the orbits of GPS satellites. Astronomical time, as mentioned in this document, is identical throughout planet Earth and is proportional to the angle of rotation of the Earth relative to distant quasars, namely, according to the International Celestial Reference Frame (ICRF), ignoring some small adjustments.
[0097] В некоторых неограничивающих вариантах осуществления настоящей технологии астрономическое время дополнительно может аппроксимироваться посредством UTC-версии всемирного времени (всемирного координированного времени). В этих вариантах осуществления, астрономическое время представляет атомную временную шкалу для UT1, при этом оно отсчитывается с помощью секунд, обеспеченных посредством стандарта международного атомного времени (TAI-стандарта), что приводит к 86400 секунд в день с эпизодическими введениями потерянной секунды.[0097] In some non-limiting embodiments of the present technology, astronomical time may further be approximated by a UTC version of Universal Time (Coordinated Universal Time). In these embodiments, astronomical time represents the atomic time scale for UT1, where it is counted using seconds provided by the International Atomic Time (TAI) standard, resulting in 86400 seconds per day with occasional introductions of a lost second.
[0098] Как упомянуто выше, камерная система 302 включает в себя первый датчик 230 и компонент 306 синхронизации камеры. Компонент 306 синхронизации камеры соединяется с возможностью связи с первым датчиком 230 с использованием любого совместимого интерфейса в зависимости от типа компонента 306 синхронизации камеры и типа первого датчика 230 и соответствующего программного обеспечения (драйверов). С процессором 110 компонент 306 синхронизации камеры соединен с возможностью связи через линию 314 связи.[0098] As mentioned above, the
[0099] В конкретных неограничивающих вариантах осуществления настоящей технологии компонент 306 синхронизации камеры может иметь тип Jetson TX2, предлагаемый компанией NVIDIA Corporation, расположенной по адресу 2788 San Tomas Expy, Санта-Клара, CA 95051, США. Следует четко понимать, что компонент 306 синхронизации камеры может реализовываться в любом другом подходящем оборудовании.[0099] In specific non-limiting embodiments of the present technology, the
[0100] Вообще говоря, компонент 306 синхронизации камеры выполнен с возможностью передачи в процессор 110, через линию 314 связи, данных, указывающих фазы сканирования первого датчика 230. Дополнительно компонент 306 синхронизации камеры выполнен с возможностью приема, из процессора 110, на основе индикатора 320 абсолютного времени, отрегулированного расписания для работы первого датчика 230. Расписание формируется таким образом, что по меньшей мере один из последующих моментальных снимков данных 310 изображений осуществляется, посредством первого датчика 230, в будущий момент времени, одновременно со вторым датчиком 240, формирующим картографические данные 312 объектов в нем (т.е. чтобы обеспечивать то, что осуществление последующих моментальных снимков данных 310 изображений координируется во времени с формированием картографических данных 312). Ниже описываются фазы сканирования первого датчика 230 и формирование расписания со ссылкой на фиг. 4-8.[0100] Generally speaking, the
[0101] В некоторых неограничивающих вариантах осуществления настоящей технологии линия 314 связи может быть основана на протоколе точного времени (PTP). Вкратце, PTP-протокол задается в стандарте IEEE 1588 в качестве высокоточной тактовой синхронизации для сетевых измерительных и управляющих систем и разработан для того, чтобы синхронизировать тактовые генераторы в сетях с коммутацией пакетов, которые включают в себя распределенные тактовые генераторы устройств с варьирующейся точностью и стабильностью. Стандарты IEEE 1588, задающие PTP-протокол, описывают иерархическую архитектуру с ведущими и ведомыми узлами для распределения общих привязок по времени. Согласно этой архитектуре, компоненты системы 300 синхронизации могут представляться как любой источник (например, "ведущий узел", процессор 110 в системе 300 синхронизации) или назначение (например, "ведомый узел", компонент 306 синхронизации камеры) для опорного сигнала синхронизации (индикатора 320 абсолютного времени). PTP-протокол основан на TAI-стандарте времени, по сути, UTC-время может вычисляться из времени, принимаемого посредством гроссмейстерского (корневого исходного) PTP-времени. Соответственно, в локальной вычислительной сети, PTP-протокол может достигать точности тактовых генераторов в диапазоне долей микросекунд.[0101] In some non-limiting embodiments of the present technology, link 314 may be based on Precision Time Protocol (PTP). Briefly, the PTP protocol is specified in the IEEE 1588 standard as a high-precision clock for network measurement and control systems and is designed to synchronize clocks in packet-switched networks that include distributed device clocks with varying accuracy and stability. The IEEE 1588 standards that define the PTP protocol describe a hierarchical master-slave architecture for distributing common time references. According to this architecture, the components of the
[0102] В других неограничивающих вариантах осуществления настоящей технологии линия 314 связи может быть основана на протоколе сетевого времени (NTP). Вкратце, NTP-протокол представляет собой протокол, используемый для того, чтобы синхронизировать времена компьютерного такта в сети, которая типично использует сервер-клиентскую архитектуру. NTP-клиент инициирует обмен временными запросами с NTP-сервером. Как результат этого обмена, клиент имеет возможность вычислять задержку в линии связи и свое локальное смещение и регулировать своей локальный тактовый генератор таким образом, что он совпадает с тактовым генератором в компьютере сервера. NTP-протокол использует UTC для того, чтобы синхронизировать времена компьютерного такта, и, по сути, может достигаться точность синхронизации менее чем в 1 миллисекунду в локальной вычислительной сети и точность синхронизации по Интернету в десятки миллисекунд.[0102] In other non-limiting embodiments of the present technology, link 314 may be based on Network Time Protocol (NTP). Briefly, the NTP protocol is a protocol used to synchronize computer clock times in a network that typically uses a server-client architecture. The NTP client initiates the exchange of temporary requests with the NTP server. As a result of this exchange, the client is able to calculate the link delay and its local offset and adjust its local clock to match that of the server computer. The NTP protocol uses UTC to synchronize computer clock times, and, in fact, synchronization accuracy of less than 1 millisecond on a local area network and synchronization accuracy of tens of milliseconds over the Internet can be achieved.
[0103] В неограничивающих вариантах осуществления настоящей технологии компонент 308 синхронизации лидара выполнен с возможностью передавать в процессор 110, через линию 316 связи, данные, указывающие моменты времени и соответствующие угловые позиции второго датчика 240 в данном цикле. Затем, компонент 308 синхронизации лидара выполнен с возможностью принимать, из процессора 110, временные метки лидара, сформированные на основе индикатора 320 абсолютного времени для последующих циклов операции второго датчика 240. Каждая из временных меток лидара соответствует будущим моментам времени, когда второй датчик 240 находится в предварительно определенной угловой позиции, для формирования картографических данных 312 объектов, расположенных в предварительно определенном участке окружающей области 250. В дальнейшем подробно описывается то, как лидарная система 304 выполнена с возможностью формировать картографические данные 312, и то, как процессор 110 выполнен с возможностью формировать временные метки лидара со ссылкой на фиг. 4 и 6.[0103] In non-limiting embodiments of the present technology, the
[0104] Согласно неограничивающим вариантам осуществления настоящей технологии линия 316 связи может быть основана на PTP-протоколе, описанном выше.[0104] According to non-limiting embodiments of the present technology, link 316 may be based on the PTP protocol described above.
[0105] Вообще говоря, в неограничивающих вариантах осуществления настоящей технологии компонент 308 синхронизации лидара может реализовываться как отдельная плата, включающая в себя микроконтроллер (не проиллюстрирован). Микроконтроллер (не проиллюстрирован) соединяется с процессором 110 через линию 316 связи, как описано выше, например, с использованием Ethernet-интерфейса. Микроконтроллер (не проиллюстрирован) дополнительно соединяется со вторым датчиком 240 с использованием интерфейса универсальных асинхронных приемо-передающих устройств (UART) и сигналов числа импульсов в секунду (PPS), сформированных точно один раз в секунду. Это обеспечивает возможность компоненту 308 синхронизации лидара передавать временные метки лидара, принятые из процессора 110, за счет этого управляя вторым датчиком 240 в общей привязке по времени, как подробнее описано ниже со ссылкой на фиг. 4-8.[0105] Generally speaking, in non-limiting embodiments of the present technology, the
[0106] Ниже со ссылкой на фиг. 4 схематично проиллюстрирован вид сверху транспортного средства 220, включающего в себя камерную систему 302 и лидарную систему 304, установленные на нем, согласно неограничивающим вариантам осуществления настоящей технологии. В вариантах осуществления по фиг. 4 камерная система 302 жестко установлена на транспортном средстве 220 таким образом, что первый датчик 230 направлен на предварительно определенный участок 402 окружающей области 250. Иначе говоря, первый датчик 230 имеет поле зрения, которое совпадает с предварительно определенным участком 402 окружающей области 250. С этой целью камерная система 302 выполнена с возможностью захватывать, с использованием первого датчика 230, данные 310 изображений предварительно определенного участка 402 окружающей области 250 в различные моменты времени.[0106] Referring to FIG. 4 is a schematic top view of a
[0107] В неограничивающих вариантах осуществления настоящей технологии лидарная система 304, установленная на крыше транспортного средства 220 и работающая одновременно с камерной системой 302, может представлять собой вращательную лидарную систему. С этой целью, второй датчик 240 вращается в направлении 414 вокруг своей центральной вертикальной оси. Соответственно, лидарная система 304 может быть выполнена с возможностью формировать, посредством использования второго датчика 240, картографические данные объектов, расположенных в окружающей области 250 транспортного средства 220. Чтобы принимать как данные 310 изображений, так и картографические данные 312 предварительно определенного участка 402 одновременно, процессор 110 может быть выполнен с возможностью синхронизировать работу камерной системы 302 и лидарной системы 304 на основе индикатора 320 абсолютного времени, принимаемого из сервера 215. Ниже описывается то, как реализуется синхронизация со ссылкой на фиг. 7-8.[0107] In non-limiting embodiments of the present technology, the
[0108] Теперь следует обратиться к фиг. 4 и 5. На фиг. 5, проиллюстрирована временная диаграмма 500 работы, посредством процессора 110, первого датчика 230 камерной системы 302, согласно неограничивающим вариантам осуществления настоящей технологии. Первый датчик 230 выполнен с возможностью, посредством процессора 110, работать в фазах сканирования; в каждой фазе сканирования, первый датчик 230 осуществляет соответствующий моментальный снимок предварительно определенного участка 402, за счет этого формируя данные 310 изображений, которые включают в себя множество моментальных снимков предварительно определенного участка 402.[0108] Referring now to FIG. 4 and 5. In FIG. 5, illustrated is a timing diagram 500 of operation, by
[0109] Фаза 502 сканирования первого датчика 230 включает в себя фазу 504 съемки и фазу 506 паузы в работе. Длительность фазы 502 сканирования зависит от рабочей частоты первого датчика 230, которая, например, может составлять один моментальный снимок предварительно определенного участка 402 за 30 мс. Фаза 504 съемки представляет собой фазу, в которой первый датчик 230 осуществляет данный моментальный снимок предварительно определенного участка 402. Фаза 506 паузы в работе представляет собой фазу, в которой первый датчик 230 подготавливается к осуществлению следующего моментального снимка предварительно определенного участка 402. То, как фаза 502 сканирования разбивается на фазу 504 съемки и фазу 506 паузы в работе, не ограничено, и по сути, их длительность может быть предварительно определена посредством конкретной конфигурации первого датчика 230.[0109] The
[0110] В неограничивающих вариантах осуществления настоящей технологии длительность фазы 506 паузы в работе может модифицироваться (например, увеличиваться), что вызывает соответствующее изменение длительности фазы 502 сканирования.[0110] In non-limiting embodiments of the present technology, the duration of the
[0111] Ссылаясь на фиг. 3 и 5, в неограничивающих вариантах осуществления настоящей технологии компонент 306 синхронизации камеры камерной системы 302 может быть выполнен с возможностью принимать, из первого датчика 230, данные, указывающие начало и конец фазы 504 съемки. Дополнительно компонент 306 синхронизации камеры может быть выполнен с возможностью передавать принимаемые данные в процессор 110. Соответственно, процессор 110, на основе общей привязки 510 по времени, принимаемой из сервера 215, может быть выполнен с возможностью формировать временные метки 508 камеры для последующих фаз сканирования первого датчика 230 и передавать данные, указывающие их, обратно назад в компонент 306 синхронизации камеры. За счет этого, процессор 110 выполнен с возможностью побуждать камерную систему 302 формировать данные 310 изображений предварительно определенного участка 402 в общей привязке 510 по времени.[0111] Referring to FIG. 3 and 5, in non-limiting embodiments of the present technology, the
[0112] В некоторых неограничивающих вариантах осуществления настоящей технологии каждая из временных меток 508 камеры может выбираться в качестве средней точки соответствующей фазы съемки. Например, временная метка t1 камеры из временных меток 508 камеры выбирается в качестве средней точки фазы 504 съемки. В неограничивающих вариантах осуществления настоящей технологии первый датчик 230 выполнен с возможностью формировать каждый моментальный снимок данных 310 изображений, в фазе 504 съемки, посредством пиксельных линий: линия за линией, сверху вниз. В связи с этим, средняя точка фазы 504 съемки может вычисляться, посредством процессора 110, так что она соответствует моменту времени, когда первый датчик 230 сканирует половину пиксельных линий соответствующего моментального снимка данных 310 изображений.[0112] In some non-limiting embodiments of the present technology, each of the camera timestamps 508 may be selected as the midpoint of the respective shooting phase. For example, the camera timestamp t 1 of the camera timestamps 508 is selected as the midpoint of the
[0113] Тем не менее, способ выбора посредством процессора 110 временных меток 508 камеры не ограничен, и в других неограничивающих вариантах осуществления настоящей технологии может включать в себя выбор данной временной метки камеры в начале соответствующей фазы съемки или в ее конце.[0113] However, the method of selecting a
[0114] Теперь, следует обратиться к фиг. 4 и 6. На фиг. 6, проиллюстрирована временная диаграмма 600 работы, посредством процессора 110, второго датчика 240 лидарной системы 304, согласно неограничивающим вариантам осуществления настоящей технологии. Второй датчик 240 выполнен с возможностью формировать картографические данные 602 окружающей области 250 транспортного средства 220 в циклах вращения. Один цикл вращения (например, цикл 604 вращения), например, может составлять 200 мс. Цикл 604 вращения соответствует времени полного оборота на 360 градусов второго датчика 240 вокруг своей центральной вертикальной оси, которое может быть предварительно определено посредством конфигурации второго датчика 240. С этой целью, в каждый момент времени в цикле 604 вращения, второй датчик 240 имеет различную соответствующую угловую позицию, после чего второй датчик 240 выполнен с возможностью формировать картографические данные объектов, расположенных в соответствующих участках окружающей области 250 транспортного средства 220.[0114] Now, referring to FIG. 4 and 6. In FIG. 6, illustrated is a timing diagram 600 of operation, by means of
[0115] Таким образом, в вариантах осуществления фиг. 4 и 6, проиллюстрированы три угловых позиции второго датчика 240, соответствующие трем соответствующим моментам времени в цикле 604 вращения второго датчика 240: первая угловая позиция 408 в первый момент T1 времени, вторая угловая позиция 410 во второй момент T2 времени и третья угловая позиция в третий момент T3 времени. В этом отношении, датчик 234, в первой угловой позиции 408, выполнен с возможностью формировать картографические данные 312 объектов, расположенных в предварительно определенном участке 402 в первый момент T1 времени. Во второй угловой позиции 410, соответствующей второму моменту T2 времени, второй датчик 240 выполнен с возможностью формировать картографические данные (не проиллюстрированы) объектов, расположенных во втором участке 404 окружающей области 250. В завершение, в третьей угловой позиции 412, соответствующей третьему моменту T3 времени, второй датчик 240 выполнен с возможностью формировать картографические данные (не проиллюстрированы) объектов, расположенных в третьем участке 406 окружающей области 250.[0115] Thus, in the embodiments of FIG. 4 and 6, three angular positions of the
[0116] Также ссылаясь на фиг. 3, согласно неограничивающим вариантам осуществления настоящей технологии компонент 308 синхронизации лидара выполнен с возможностью, посредством процессора 110, записывать, в каждый из моментов T1, T2 и T3 времени, данные, указывающие первую угловую позицию 408, вторую угловую позицию 410 и третью угловую позицию 412, соответственно. Дополнительно компонент 308 синхронизации лидара выполнен с возможностью передавать записанные данные, указывающие угловые позиции второго датчика 240, в процессор 110. Процессор 110, на основе общей привязки 510 по времени, выполнен с возможностью формировать временные метки 608 лидара для последующих циклов вращения второго датчика 240 и передавать назад их индикатор в компонент 308 синхронизации лидара. Каждая из временных меток 608 лидара соответствует надлежащему моменту времени в цикле вращения второго датчика 240, когда второй датчик 240 находится в первой угловой позиции 408. Например, временная метка Tl2 лидара из временных меток 608 лидара соответствует первой угловой позиции второго датчика 240 в цикле вращения после цикла 604 вращения. За счет этого, процессор 110 выполнен с возможностью побуждать лидарную систему 304 формировать картографические данные 312 предварительно определенного участка 402 в общей привязке 510 по времени.[0116] Also referring to FIG. 3, according to non-limiting embodiments of the present technology, the
[0117] Следует четко понимать, что первая угловая позиция 408, вторая угловая позиция 410 и третья угловая позиция 412 второго датчика 240 проиллюстрированы на фиг. 4 просто в качестве помощи в понимании настоящей технологии; и в неограничивающих вариантах осуществления настоящей технологии компонент 308 синхронизации лидара может быть выполнен с возможностью записывать и передавать данные, указывающие более чем трех угловых позиций второго датчика 240, причем их число может составлять сотни, тысячи или даже сотни тысяч.[0117] It should be clearly understood that the
[0118] После формирования временных меток 508 камеры и временных меток 608 лидара на основе общей привязки 510 по времени, процессор 110 дополнительно может быть выполнен с возможностью синхронизировать фазы сканирования камерной системы 302 и, по меньшей мере один последующий цикл вращения лидарной системы 304.[0118] After generating
[0119] Со ссылкой на фиг. 7 проиллюстрирована комбинированная временная диаграмма 700, включающая в себя временную диаграмму 600 лидарной системы 304 и временную диаграмму 500 камерной системы 302 . Согласно временной диаграмме 700, камерная система 302 выполнена с возможностью формировать каждый моментальный снимок данных 310 изображений в соответствующей одной из временных меток 508 камеры; и лидарная система 304 выполнена с возможностью формировать картографические данные 312 объектов, расположенных в предварительно определенном участке 402, в соответствующей одной из временных меток 608 лидара. Таким образом, как камерная система 302, так и лидарная система 304 побуждается, посредством процессора 110, обеспечивать данные 310 изображений и картографические данные 312 в общей привязке 510 по времени.[0119] With reference to FIG. 7 illustrates a combined timing diagram 700 including timing diagram 600 of
[0120] Допустим, что в вариантах осуществления по фиг. 7 временная метка t1 камеры из временных меток 508 камеры соответствует текущей фазе сканирования камерной системы 302. Из временной диаграммы 700 можно принимать во внимание, что фазы сканирования камерной системы 302 и циклы вращения лидарной системы 304 десинхронизируются, поскольку временная метка t1 камеры из временных меток 508 камеры не совпадает с временной меткой Tl1 лидара из временных меток 608 лидара. Соответственно, процессор 110 может быть выполнен с возможностью синхронизировать идущую сразу временную метку Tl2 лидара из временных меток 608 лидара с ближайшей к нему последующей из временных меток 508 камеры, например, с временной меткой t7 камеры. Другими словами, процессор 110 может быть выполнен с возможностью определять временную метку лидара для синхронизации в качестве ближайшей временной метки лидара, соответствующей моменту времени, когда второй датчик 240 находится в первой угловой позиции 408. С этой целью в неограничивающих вариантах осуществления настоящей технологии процессор 110 также может быть выполнен с возможностью принимать, из компонента 308 синхронизации лидара, индикатор первой угловой позиции 408.[0120] Assume that in the embodiments of FIG. 7, the camera timestamp t 1 from the camera timestamps 508 corresponds to the current scanning phase of the
[0121] В некоторых неограничивающих вариантах осуществления настоящей технологии процессор 110 может быть выполнен с возможностью применять алгоритм определения временных меток для определения временной метки лидара для синхронизации.[0121] In some non-limiting embodiments of the present technology,
[0122] Во-первых, согласно неограничивающим вариантам осуществления настоящей технологии процессор 110 выполнен с возможностью определять временное смещение 702 между временной меткой t7 камеры и временной меткой Tl2 лидара в общей привязке 510 по времени. Во-вторых, после определения временного смещения 702, процессор 110 выполнен с возможностью использовать его для того, чтобы инициировать задержку между последующими моментальными снимками данных 310 изображений таким образом, что временная метка t7 камеры и временная метка Tl2 лидара должны совпадать в будущий момент времени, за счет этого формируя отрегулированное расписание для работы первого датчика 230.[0122] First, according to non-limiting embodiments of the present technology, the
[0123] В некоторых неограничивающих вариантах осуществления настоящей технологии процессор 110 выполнен с возможностью использовать временное смещение 702 в реальном времени в то время, когда транспортное средство перемещается 220. В других неограничивающих вариантах осуществления настоящей технологии процессор 110 выполнен с возможностью использовать временное смещение 702 в то время, когда транспортное средство 220 не перемещается (т.е. остановлено, припарковано и т.п.).[0123] In some non-limiting embodiments of the present technology,
[0124] Со ссылкой на фиг. 8 проиллюстрирована временная диаграмма 800 работы камерной системы 302 и лидарной системы 304 в общей привязке 510 по времени. Временная диаграмма 800 отличается от временной диаграммы 700 только в том, что временная диаграмма 500 работы камерной системы 302 заменена временной диаграммой 802.[0124] With reference to FIG. 8 illustrates a timing diagram 800 of the operation of the
[0125] В некоторых неограничивающих вариантах осуществления настоящей технологии процессор 110 может быть выполнен с возможностью использовать временное смещение 702 посредством его одинакового разделения между всеми фазами сканирования камерной системы 302, предшествующими временной метке лидара, за счет чего процессор 110 выполнен с возможностью выполнять синхронизацию, т.е. в вариантах осуществления по фиг. 8, временной метки Tl2 лидара. Следовательно, из временной диаграммы 802 можно принимать во внимание, что процессор 110 может быть выполнен с возможностью увеличивать фазы паузы в работе соответствующих фаз сканирования, соответствующих временным меткам t1, t2, t3, t4, t5 и t6 камеры из временных меток 508 камеры, посредством временной задержки 804, при этом временная задержка 804 составляет одну шестую от временного смещения 702.[0125] In some non-limiting embodiments of the present technology,
[0126] Таким образом, в тех неограничивающих вариантах осуществления настоящей технологии, в которых цикл вращения второго датчика 240 равен предварительно определенному числу-множителю фаз сканирования первого датчика 230, процессор 110 выполнен с возможностью использовать временное смещение 702 посредством его равномерного распределения между предварительно определенным числом-множителем последующих фаз сканирования первого датчика 230, предшествующих временной метке Tl2 лидара в общей привязке 510 по времени.[0126] Thus, in those non-limiting embodiments of the present technology, in which the rotation cycle of the
[0127] Таким образом, посредством добавления временной задержки 804 во все фазы сканирования, предшествующие временную метке Tl2 лидара в общей привязке 510 по времени, камерной системы 302, процессор 110 выполнен с возможностью сдвигать временную метку t7 камеры таким образом, что она должна совпадать с временной меткой Tl2 лидара.[0127] Thus, by adding a
[0128] В других неограничивающих вариантах осуществления настоящей технологии процессор 110 выполнен с возможностью использовать временное смещение 702, чтобы инициировать задержку только между двумя данными последовательными моментальными снимками данных 310 изображений. С этой целью, процессор 110 может быть выполнен с возможностью увеличивать фазу паузы в работе только одной фазы сканирования, соответствующей надлежащей одной из временных меток 508 камеры, предшествующих временной метке Tl2 лидара в общей привязке 510 по времени.[0128] In other non-limiting embodiments of the present technology,
[0129] В некоторых неограничивающих вариантах осуществления настоящей технологии процессор 110 может быть выполнен с возможностью использовать временное смещение 702 для инициирования задержки между последующими моментальными снимками данных 310 изображений посредством реализации задержки на уровне кадра, которая может вставляться между концом считывания последней строки и началом сброса первой строки следующего кадра. Это типично упоминается в качестве периода гашения горизонтальной развертки в перечнях технических характеристик изготовителей камер.[0129] In some non-limiting embodiments of the present technology,
[0130] Если такой вариант не доступен, в некоторых неограничивающих вариантах осуществления настоящей технологии процессор 110 может быть выполнен с возможностью использовать временное смещение 702 для инициирования задержки между последующими моментальными снимками данных 310 изображений, посредством побуждения компонента 306 синхронизации камеры формировать соответствующий электрический сигнал в моменты, соответствующие надлежащим из множества временных меток 508 камеры. Соответственно, первый датчик 230 выполнен с возможностью осуществлять последующий моментальный снимок данных 310 изображений в соответствующем электрическом сигнале, сформированном посредством компонента 306 синхронизации камеры. В некоторых неограничивающих вариантах осуществления настоящей технологии побуждение компонента 306 синхронизации камеры формировать соответствующий электрический сигнал выполняется с использованием начала кадровой синхронизации (FSIN).[0130] If such an option is not available, in some non-limiting embodiments of the present technology, the
[0131] Снова ссылаясь на фиг. 3, после модификации фаз сканирования камерной системы 302, предшествующих временной метке Tl2 лидара в общей привязке 510 по времени, процессор 110 выполнен с возможностью передавать модифицированные фазы сканирования, т.е. отрегулированное расписание, в компонент 306 синхронизации камерной системы 302 для работы первого датчика 230, за счет этого модифицируя его предварительно определенную частоту сканирования камеры. Таким образом, камерная система 302 должна формировать, по меньшей мере один последующий моментальный снимок данных 310 изображений (соответствующий временной метке t7 камеры), и лидарная система 304 формирует картографические данные 312 объектов, расположенных в предварительно определенном участке 402 в идентичный будущий момент времени, на основе общей привязки 510 по времени.[0131] Referring again to FIG. 3, after modifying the scan phases of the
[0132] В некоторых неограничивающих вариантах осуществления настоящей технологии процессор 110 дополнительно может быть выполнен с возможностью повторять процедуру синхронизации, описанную выше со ссылкой на фиг. 4-8, с некоторой периодичностью. Например, процессор 110 может быть выполнен с возможностью повторять процедуру синхронизации для каждого последующего цикла вращения второго датчика 240, т.е. синхронизацию, по меньшей мере одной последующей из временных меток 508 камеры с каждой последующей из временных меток 608 лидара. Другими словами, синхронизация данных 310 изображений и картографических данных 312 может выполняться по существу непрерывно в ходе работы транспортного средства 220, т.е. в каждом последующем будущем цикле вращения второго датчика 240.[0132] In some non-limiting embodiments of the present technology,
[0133] В других неограничивающих вариантах осуществления настоящей технологии процессор 110 может быть выполнен с возможностью повторять процедуру синхронизации после предварительно определенного числа циклов вращения второго датчика 240.[0133] In other non-limiting embodiments of the present technology, the
[0134] В некоторых неограничивающих вариантах осуществления настоящей технологии такое определенное временное смещение 702 используется для одного цикла вращения второго датчика 240. В других неограничивающих вариантах осуществления настоящей технологии такое определенное временное смещение 702 используется для предварительно определенного числа будущих циклов вращения второго датчика 240. Соответственно, процессор 110 может быть выполнен с возможностью, в последующем цикле вращения второго датчика 240, итеративно повторно вычислять временное смещение 702 в реальном времени, в ходе работы транспортного средства 220, после вышеприведенного описания в отношении фиг. 6-8.[0134] In some non-limiting embodiments of the present technology, such a specific time offset 702 is used for one rotation cycle of the
[0135] Таким образом, в неограничивающих вариантах осуществления настоящей технологии после побуждения камерной системы 302 обеспечивать данные 310 изображений в общей привязке 510 по времени в данной фазе сканирования (например, в фазе сканирования, соответствующей временной метке t1 из временных меток 508 камеры) и вычислять временное смещение 702, процессор 110 выполнен с возможностью использовать его, по меньшей мере для предварительно определенного числа последующих фаз сканирования камерной системы 302 (например, пяти (5) последующих фаз сканирования, как проиллюстрировано в вариантах осуществления по фиг. 7 и 8) для синхронизации только в одном последующем цикле вращения второго датчика 240 (например, в цикле вращения, соответствующем временной метке Tl2 лидара из временных меток 608 лидара).[0135] Thus, in non-limiting embodiments of the present technology, after causing the
[0136] В других неограничивающих вариантах осуществления процессор 110 выполнен с возможностью использовать временное смещение 702 для дополнительного предварительно определенного числа фаз сканирования камерной системы 302 для синхронизации в пределах более одного последующего цикла вращения второго датчика 240.[0136] In other non-limiting embodiments,
[0137] С учетом архитектуры и примеров, обеспеченных выше, можно осуществлять способ синхронизации данных для работы SDV (например, транспортного средства 220). Со ссылкой теперь на фиг. 9 проиллюстрирована блок-схема последовательности операций способа 900, согласно неограничивающим вариантам осуществления настоящей технологии. Способ 900 осуществляется посредством процессора 110. Процессор 110, например, может представлять собой часть электронного устройства 210.[0137] Given the architecture and examples provided above, a data synchronization method for operating an SDV (eg, vehicle 220) can be implemented. With reference now to FIG. 9 illustrates a flow diagram of a
[0138] В неограничивающих вариантах осуществления настоящей технологии процессор 110 соединен с возможностью связи с камерной системой и лидарной системой (например, с камерной системой 302 и лидарной системой 304, проиллюстрированными на фиг. 3), установленными на транспортном средстве 220. Камерная система 302 включает в себя первый датчик 230 и компонент 306 синхронизации камеры. Лидарная система 304 включает в себя второй датчик 240 и компонент 308 синхронизации лидара.[0138] In non-limiting embodiments of the present technology,
[0139] Камерная система 302 выполнена с возможностью захватывать, посредством первого датчика 230, данные 310 изображений предварительно определенного участка 402 окружающей области 250 транспортного средства 220. Данные 310 изображений содержат последовательность моментальных снимков, сформированных посредством первого датчика 230, предварительно определенного участка 402 в различные моменты времени с предварительно определенной частотой сканирования камеры. В связи с этим, в некоторых неограничивающих вариантах осуществления настоящей технологии первый датчик 230 камерной системы 302 имеет поле зрения, которое совпадает с предварительно определенным участком 402, когда камерная система 302 установлена на транспортном средстве 220.[0139] The
[0140] Как подробно описано со ссылкой на фиг. 4 и 5, камерная система 302 выполнена с возможностью работать в фазах сканирования, длительность которых указывает предварительно определенную частоту сканирования камеры. Каждая фаза сканирования имеет фазу съемки и фазу паузы в работе (например, фаза 502 сканирования включает в себя фазу 504 съемки и фазу 506 паузы в работе). В фазе 504 съемки, камерная система 302 выполнена с возможностью формировать данный моментальный снимок данных 310 изображений. В фазе 506 паузы в работе, камерная система 302 находится в режиме ожидания (т.е. без осуществления моментальных снимков) с тем, чтобы подготавливаться к осуществлению последующего моментального снимка. Как фаза 504 съемки, так и фаза 506 паузы в работе могут быть предварительно определены посредством конкретной конфигурации камерной системы 302. В некоторых неограничивающих вариантах осуществления настоящей технологии фаза 506 паузы в работе может модифицироваться (например, увеличиваться).[0140] As described in detail with reference to FIG. 4 and 5, the
[0141] Лидарная система 304 выполнена с возможностью формировать, посредством второго датчика 240, картографические данные окружающей области 250 транспортного средства 220. Картографические данные окружающей области 250 транспортного средства 220 содержат точки данных, сформированные посредством второго датчика 240. Точки данных представляют объекты, расположенные в окружающей области 250 транспортного средства 220 в различные моменты времени. Картографические данные окружающей области 250 включают в себя картографические данные 312 предварительно определенного участка 402.[0141] The
[0142] В некоторых неограничивающих вариантах осуществления настоящей технологии лидарная система 304 может представлять собой вращательную лидарную систему. В этом отношении, лидарная система 304 выполнена с возможностью формировать картографические данные окружающей области 250 транспортного средства 220 в циклах вращения, причем каждый цикл вращения соответствует полному обороту на 360 градусов второго датчика 240 вокруг своей центральной вертикальной оси, например, в направлении 414, как проиллюстрировано на фиг. 4. В связи с этим, лидарная система 304 выполнена с возможностью, в каждой угловой позиции второго датчика 240, формировать картографические данные объектов, расположенных в соответствующем участке окружающей области 250 транспортного средства 220.[0142] In some non-limiting embodiments of the present technology, the
[0143] Как описано со ссылкой на фиг. 4 и 6, в неограничивающих вариантах осуществления настоящей технологии лидарная система 304 выполнена с возможностью формировать картографические данные 312 объектов, расположенных в предварительно определенном участке 402 окружающей области 250, когда второй датчик 240 находится в первой угловой позиции 408.[0143] As described with reference to FIG. 4 and 6, in non-limiting embodiments of the present technology, the
ЭТАП 902 - ПОБУЖДЕНИЕ, ПОСРЕДСТВОМ ЭЛЕКТРОННОГО УСТРОЙСТВА, КАМЕРНОЙ СИСТЕМЫ И ЛИДАРНОЙ СИСТЕМЫ ОБЕСПЕЧИТЬ ДАННЫЕ ИЗОБРАЖЕНИЙ И КАРТОГРАФИЧЕСКИЕ ДАННЫЕ В ЭЛЕКТРОННОЕ УСТРОЙСТВО В ОБЩЕМ НАЧАЛЕ ОТСЧЕТА ВРЕМЕНИSTEP 902 - CAUSING, THROUGH THE ELECTRONIC DEVICE, THE CAMERA SYSTEM, AND THE LIDAR SYSTEM, TO PROVIDE IMAGE DATA AND MAP DATA TO THE ELECTRONIC DEVICE AT A COMMON TIME ORIGIN
[0144] На этапе 902, процессор 110 выполнен с возможностью побуждать камерную систему 302 и лидарную систему 304 обеспечить данные 310 изображений предварительно определенного участка 402 и картографические данные 312 объектов, расположенных в предварительно определенном участке в общей привязке по времени, например, в общей привязке 510 по времени.[0144] In
[0145] С этой целью сначала процессор 110 выполнен с возможностью принимать индикатор абсолютного времени (например, индикатор 320 абсолютного времени, принимаемый из сервера 215). Как подробно описано выше со ссылкой на фиг. 3, индикатор 320 абсолютного времени может представлять собой индикатор астрономического времени.[0145] To this end, first, the
[0146] Во-вторых, как подробно описано выше со ссылкой на фиг. 3 и 5, компонент 306 синхронизации камерной системы 302 выполнен с возможностью регистрировать данные, указывающие начало и конец фазы 504 съемки фазы 502 сканирования, и передавать эти данные, через линию 314 связи, в процессор 110. Дополнительно процессор 110 выполнен с возможностью, на основе принимаемых данных, формировать временные метки 508 камеры в общей привязке 510 по времени для последующих фаз сканирования. В завершение, процессор 110 выполнен с возможностью передавать, через линию 314 связи, данные, указывающие сформированные временные метки 508 камеры обратно в компонент 306 синхронизации камеры.[0146] Second, as detailed above with reference to FIG. 3 and 5, the
[0147] В некоторых неограничивающих вариантах осуществления настоящей технологии каждая из временных меток 508 камеры может вычисляться, посредством процессора, в качестве средней точки фазы 504 съемки, как подробно описано выше со ссылкой на фиг. 5.[0147] In some non-limiting embodiments of the present technology, each of the camera timestamps 508 may be calculated, by the processor, as the midpoint of the
[0148] Относительно лидарной системы 304, во-первых, компонент 308 синхронизации лидара выполнен с возможностью регистрировать данные, указывающие множество угловых позиций второго датчика 240 и соответствующих моментов времени в одном цикле вращения (например, в цикле 604 вращения, как проиллюстрировано на фиг. 6). Во-вторых, как подробно описано со ссылкой на фиг. 3, 4 и 6, компонент 308 синхронизации лидара выполнен с возможностью передавать эти данные, через линию 316 связи, в процессор 110. В ответ, процессор 110, на основе передаваемых данных, выполнен с возможностью формировать множество временных меток 608 лидара в общей привязке 510 по времени. Каждая из множества временных меток 608 лидара соответствует будущему моменту времени, когда второй датчик 240 должен находиться в первой угловой позиции 408 в последующем цикле вращения второго датчика 240. Другими словами, каждая из множества временных меток 608 лидара соответствует моменту времени, когда второй датчик 240 формирует картографические данные 312 объектов, расположенных в предварительно определенном участке 402 окружающей области 250. В завершение, процессор 110, через линию 316 связи, выполнен с возможностью передавать множество временных меток 608 лидара в компонент 308 синхронизации лидара.[0148] With respect to the
[0149] В неограничивающих вариантах осуществления настоящей технологии линия 314 связи и линия 316 связи основаны на PTP-протоколе, описанном выше со ссылкой на фиг. 3.[0149] In non-limiting embodiments of the present technology, link 314 and link 316 are based on the PTP protocol described above with reference to FIG. 3.
ЭТАП 904 - ОПРЕДЕЛЕНИЕ ПОСРЕДСТВОМ ЭЛЕКТРОННОГО УСТРОЙСТВА ПЕРВОЙ ВРЕМЕННОЙ МЕТКИ ДЛЯ КАРТОГРАФИЧЕСКИХ ДАННЫХSTEP 904 - ELECTRONICALLY DEFINING FIRST TIME STAMP FOR MAP DATA
[0150] На этапе 904, процессор выполнен с возможностью определять последующую временную метку лидара из множества временных меток 608 лидара, посредством которой процессор 110 должен синхронизировать захват данных 310 изображения и захват картографических данных 312. С этой целью, процессор 110 выполнен с возможностью принимать, из компонента 308 синхронизации лидара, индикатор первой угловой позиции 408 второго датчика 240.[0150] At
[0151] В некоторых неограничивающих вариантах осуществления настоящей технологии процессор 110 выполнен с возможностью определять последующую временную метку лидара в качестве идущей сразу последующей временной метки лидара из множества временных меток 608 лидара, например, временной метки Tl2 лидара в вариантах осуществления по фиг. 7.[0151] In some non-limiting embodiments of the present technology,
[0152] В других неограничивающих вариантах осуществления настоящей технологии процессор 110 выполнен с возможностью использовать алгоритм определения временных меток для определения временной метки лидара для синхронизации данных 310 изображений и картографических данных 312.[0152] In other non-limiting embodiments of the present technology,
ЭТАП 906 - ОПРЕДЕЛЕНИЕ ПОСРЕДСТВОМ ЭЛЕКТРОННОГО УСТРОЙСТВА ВТОРОЙ ВРЕМЕННОЙ МЕТКИ ДЛЯ ДАННЫХ ИЗОБРАЖЕНИЙSTEP 906 - ELECTRONICALLY DETERMINING A SECOND TIME STAMP FOR IMAGE DATA
[0153] На этапе 906, процессор выполнен с возможностью определять последующую временную метку камеры из временных меток 508 камеры. В некоторых неограничивающих вариантах осуществления настоящей технологии процессор 110 определяет последующую временную метку камеры в качестве последующей временной метки камеры из временных меток 508 камеры, предшествующих временной метке Tl2 лидара в общей привязке 510 по времени, которая в вариантах осуществления по фиг. 7 представляет собой временную метку t7 камеры.[0153] At 906, the processor is configured to determine the next camera timestamp from the camera timestamps 508. In some non-limiting embodiments of the present technology,
ЭТАП 908 - ОПРЕДЕЛЕНИЕ ПОСРЕДСТВОМ ЭЛЕКТРОННОГО УСТРОЙСТВА ВРЕМЕННОГО СМЕЩЕНИЯ МЕЖДУ ПЕРВОЙ ВРЕМЕННОЙ МЕТКОЙ И ВТОРОЙ ВРЕМЕННОЙ МЕТКОЙSTEP 908 - ELECTRONICALLY DEFINING THE TIME OFFSET BETWEEN THE FIRST TIME STAMP AND THE SECOND TIME STAMP
[0154] На этапе 908, после определения временной метки Tl2 лидара и временной метки t7 камеры для синхронизации данных 310 изображений и картографических данных 312, процессор 110 дополнительно выполнен с возможностью вычислять временное смещение между ними, которое примерно иллюстрируется посредством временного смещения 702 и описывается выше со ссылкой на фиг. 7.[0154] In
[0155] В неограничивающих вариантах осуществления настоящей технологии временное смещение 702 указывает разность между моментами времени, в общей привязке 510 по времени, надлежащим образом соответствующей временной метке Tl2 лидара и временной метке t7 камеры.[0155] In non-limiting embodiments of the present technology, time offset 702 indicates the difference between times, in a
ЭТАП 910 - ИСПОЛЬЗОВАНИЕ ПОСРЕДСТВОМ ЭЛЕКТРОННОГО УСТРОЙСТВА ВРЕМЕННОГО СМЕЩЕНИЯ ДЛЯ ТОГО, ЧТОБЫ ИНИЦИИРОВАТЬ ЗАДЕРЖКУ МЕЖДУ ПОСЛЕДУЮЩИМИ МОМЕНТАЛЬНЫМИ СНИМКАМИ, СФОРМИРОВАННЫМИ ПОСРЕДСТВОМ КАМЕРНОЙ СИСТЕМЫ, ТАК ЧТО (I) ПО МЕНЬШЕЙ МЕРЕ ОДИН ПОСЛЕДУЮЩИЙ МОМЕНТАЛЬНЫЙ СНИМОК ФОРМИРУЕТСЯ ПОСРЕДСТВОМ КАМЕРНОЙ СИСТЕМЫ, И (II) ПОСЛЕДУЮЩИЕ ТОЧКИ ДАННЫХ ОТНОСИТЕЛЬНО ПРЕДВАРИТЕЛЬНО ОПРЕДЕЛЕННОГО УЧАСТКА ФОРМИРУЮТСЯ ПОСРЕДСТВОМ ЛИДАРНОЙ СИСТЕМЫ В ИДЕНТИЧНЫЙ БУДУЩИЙ МОМЕНТ ВРЕМЕНИ В ОБЩЕМ НАЧАЛЕ ОТСЧЕТА ВРЕМЕНИSTAGE 910 - the use of temporary displacement through an electronic device in order to initiate a delay between subsequent instant images formed by means of a chamber system, so that (I) at least one subsequent instant picture is formed through a chamber system, and (II) subsequent data points relatively previously defined SECTIONS ARE FORMED BY THE LIDAR SYSTEM AT THE IDENTICAL FUTURE TIME AT THE COMMON ORIGIN OF TIME
[0156] На этапе 910, процессор выполнен с возможностью использовать временное смещение 702 для того, чтобы инициировать задержку между последующими моментальными снимками данных 310 изображений таким образом, что временная метка Tl2 лидара и временная метка t7 камеры должны совпадать в будущий момент времени, и в силу этого захват данных 310 изображений и захват картографических данных 312 синхронизируются посредством этого будущего момента времени, за счет этого формируя отрегулированное расписание для работы первого датчика 230.[0156] At
[0157] В неограничивающих вариантах осуществления настоящей технологии процессор 110 выполнен с возможностью использовать временное смещение 702 посредством увеличения фаз паузы в работе из соответствующих фаз сканирования первого датчика 230, за счет этого модифицируя предварительно определенную частоту сканирования камеры.[0157] In non-limiting embodiments of the present technology,
[0158] В некоторых неограничивающих вариантах осуществления настоящей технологии процессор 110 выполнен с возможностью увеличивать фазу паузы в работе только одной соответствующей последующей фазы сканирования. В этих вариантах осуществления процессор 110 выполнен с возможностью инициировать задержку только между двумя последующими фазами съемки соответствующих фаз сканирования первого датчика 230, предшествующих временной метке Tl2 лидара в общей привязке 510 по времени.[0158] In some non-limiting embodiments of the present technology,
[0159] В других неограничивающих вариантах осуществления настоящей технологии процессор 110 выполнен с возможностью разделять временное смещение 702 одинаково между последующими фазами сканирования первого датчика 230, предшествующими временной метке Tl2 лидара в общей привязке 510 по времени, и дополнительно одинаково увеличивать каждую соответствующую фазу паузы в работе. В этих вариантах осуществления процессор 110 выполнен с возможностью инициировать равную задержку между каждыми двумя последовательными фазами съемки соответствующих фаз сканирования первого датчика 230, предшествующими временной метке Tl2 лидара в общей привязке 510 по времени.[0159] In other non-limiting embodiments of the present technology, the
[0160] В связи с этим, в тех неограничивающих вариантах осуществления настоящей технологии, в которых цикл вращения второго датчика 240 равен предварительно определенному числу-множителю фаз сканирования первого датчика 230, процессор 110 выполнен с возможностью использовать временное смещение 702 посредством его равномерного распределения между предварительно определенным числом-множителем последующих фаз сканирования первого датчика 230, предшествующих временной метке Tl2 лидара в общей привязке 510 по времени.[0160] In this regard, in those non-limiting embodiments of the present technology, in which the rotation cycle of the
[0161] В неограничивающих вариантах осуществления настоящей технологии процессор 110 дополнительно выполнен с возможностью передавать такие модифицированные фазы сканирования, т.е. отрегулированное расписание для работы первого датчика 230, в компонент 306 синхронизации камеры.[0161] In non-limiting embodiments of the present technology,
[0162] В неограничивающих вариантах осуществления настоящей технологии процессор 110 выполнен с возможностью выполнять вышеописанную процедуру синхронизации, включающую в себя использование временного смещения 702, в ходе работы транспортного средства 220, т.е. в реальном времени, например, в то время, когда транспортное средство 220 перемещается.[0162] In non-limiting embodiments of the present technology,
[0163] В неограничивающих вариантах осуществления настоящей технологии процессор 110 может быть выполнен с возможностью повторно вычислять временное смещение 702, за счет этого повторяя процедуру синхронизации, описанную выше.[0163] In non-limiting embodiments of the present technology,
[0164] В некоторых вариантах осуществления настоящей технологии процессор 110 выполнен с возможностью повторять процедуру синхронизации перед каждой последующей временной меткой лидара из множества временных меток 608 лидара, т.е. для каждого последующего цикла вращения второго датчика 240. Таким образом, можно сказать, что процессор 110 может быть выполнен с возможностью синхронизации захвата данных 310 изображений и захвата картографических данных 312 по существу непрерывно в ходе работы транспортного средства 220.[0164] In some embodiments of the present technology, the
[0165] В других неограничивающих вариантах осуществления настоящей технологии процессор 110 выполнен с возможностью повторять процедуру синхронизации после предварительно определенного числа последующих циклов вращения второго датчика 240.[0165] In other non-limiting embodiments of the present technology, the
[0166] Таким образом, в неограничивающих вариантах осуществления настоящей технологии после побуждения камерной системы 302 обеспечить данные 310 изображений в общей привязке 510 по времени в данной фазе сканирования (например, в фазе сканирования, соответствующей временной метке t1 из временных меток 508 камеры) и вычислять временное смещение 702, процессор 110 выполнен с возможностью использовать его, по меньшей мере для предварительно определенного числа последующих фаз сканирования камерной системы 302 (например, пяти (5), в вариантах осуществления фиг. 7 и 8) для синхронизации только в одном последующем цикле вращения второго датчика 240 (например, в цикле вращения, соответствующем временной метке Tl2 лидара из временных меток 608 лидара).[0166] Thus, in non-limiting embodiments of the present technology, after causing the
[0167] В других неограничивающих вариантах осуществления процессор 110 выполнен с возможностью использовать временное смещение 702 для дополнительного предварительно определенного числа фаз сканирования камерной системы 302 для синхронизации, с использованием такого определенного временного смещения 702, в пределах более одного последующего цикла вращения второго датчика 240.[0167] In other non-limiting embodiments,
[0168] Следует четко понимать, что не все технические эффекты, упомянутые в данном документе, должны использоваться в каждом варианте осуществления настоящей технологии.[0168] It should be clearly understood that not all technical effects mentioned in this document should be used in every embodiment of the present technology.
[0169] Модификации и улучшения вышеописанных реализаций настоящей технологии могут становиться очевидными для специалистов в данной области техники. Вышеприведенное описание должно быть примерным, а не ограничивающим. В силу этого, объем настоящей технологии может быть ограничен исключительно объемом прилагаемой формулы изобретения.[0169] Modifications and improvements to the above-described implementations of the present technology may become apparent to those skilled in the art. The above description is intended to be exemplary and not limiting. As such, the scope of the present technology may be limited solely by the scope of the appended claims.
Claims (64)
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2019143603A RU2789923C2 (en) | 2019-12-24 | Methods and systems for synchronizing sensors of unmanned vehicles (sdv) online | |
EP20197957.2A EP3842835A1 (en) | 2019-12-24 | 2020-09-24 | Methods and systems for online synchronization of sensors of self-driving vehicles (sdv) |
US17/039,972 US11892571B2 (en) | 2019-12-24 | 2020-09-30 | Methods and systems for online synchronization of sensors of self-driving vehicles (SDV) |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2019143603A RU2789923C2 (en) | 2019-12-24 | Methods and systems for synchronizing sensors of unmanned vehicles (sdv) online |
Publications (3)
Publication Number | Publication Date |
---|---|
RU2019143603A RU2019143603A (en) | 2021-06-24 |
RU2019143603A3 RU2019143603A3 (en) | 2021-08-16 |
RU2789923C2 true RU2789923C2 (en) | 2023-02-14 |
Family
ID=
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8314816B2 (en) * | 2009-06-08 | 2012-11-20 | Honeywell International Inc. | System and method for displaying information on a display element |
RU2609434C2 (en) * | 2014-04-03 | 2017-02-01 | Эйрбас Дс Гмбх | Detection of objects arrangement and location |
EP3438777A1 (en) * | 2017-08-04 | 2019-02-06 | Bayerische Motoren Werke Aktiengesellschaft | Method, apparatus and computer program for a vehicle |
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8314816B2 (en) * | 2009-06-08 | 2012-11-20 | Honeywell International Inc. | System and method for displaying information on a display element |
RU2609434C2 (en) * | 2014-04-03 | 2017-02-01 | Эйрбас Дс Гмбх | Detection of objects arrangement and location |
EP3438777A1 (en) * | 2017-08-04 | 2019-02-06 | Bayerische Motoren Werke Aktiengesellschaft | Method, apparatus and computer program for a vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11892571B2 (en) | Methods and systems for online synchronization of sensors of self-driving vehicles (SDV) | |
US11131752B2 (en) | Vehicle navigation system using pose estimation based on point cloud | |
EP3614176B1 (en) | A hardware centralized time synchronization hub for an autonomous driving vehicle | |
CN110857993B (en) | GPS-based high-precision timestamp generation circuit for autonomous vehicles | |
US11004224B2 (en) | Generation of structured map data from vehicle sensors and camera arrays | |
EP3613648B1 (en) | A time source recovery system for an autonomous driving vehicle | |
US11029165B2 (en) | Sensor integration and synchronization unit for an autonomous driving vehicle | |
US10969783B2 (en) | Time source ranking system for an autonomous driving vehicle | |
CN112861660B (en) | Laser radar array and camera synchronization device, method, equipment and storage medium | |
CN113016153A (en) | Verifying timing of sensors used in autonomous vehicles | |
CN112752954A (en) | Synchronization sensor for autonomous vehicle | |
CN112383675A (en) | Time synchronization method and device and terminal equipment | |
CN112179362A (en) | High-precision map data acquisition system and acquisition method | |
CN112041767A (en) | System and method for synchronizing vehicle sensors and devices | |
JP7355930B2 (en) | Time determination of inertial navigation systems in automated driving systems | |
RU2789923C2 (en) | Methods and systems for synchronizing sensors of unmanned vehicles (sdv) online | |
WO2022256976A1 (en) | Method and system for constructing dense point cloud truth value data and electronic device | |
RU2772620C1 (en) | Creation of structured map data with vehicle sensors and camera arrays | |
Fasano et al. | Real-time hardware-in-the-loop laboratory testing for multisensor sense and avoid systems | |
Nayak et al. | Evaluation of Infrastructure-Assisted Cooperative Tracking of Vehicles Using Various Motion Models | |
CN111486837B (en) | Vehicle position estimation method based on graph structure and vehicle using same | |
CN115825901A (en) | Vehicle-mounted sensor perception performance evaluation truth value system | |
JP2020061048A (en) | Information processing device |