EA045770B1 - DEVICE FOR ANALYSIS OF PAYLOAD TRANSPORTED IN A CARGO CONTAINER OF A VEHICLE - Google Patents

DEVICE FOR ANALYSIS OF PAYLOAD TRANSPORTED IN A CARGO CONTAINER OF A VEHICLE Download PDF

Info

Publication number
EA045770B1
EA045770B1 EA202291773 EA045770B1 EA 045770 B1 EA045770 B1 EA 045770B1 EA 202291773 EA202291773 EA 202291773 EA 045770 B1 EA045770 B1 EA 045770B1
Authority
EA
Eurasian Patent Office
Prior art keywords
payload
processor
image
vehicle
images
Prior art date
Application number
EA202291773
Other languages
Russian (ru)
Inventor
БИЛАНДИ Шахрам ТАФАЗОЛИ
Саман НУРАНИАН
Глен Ричард Флойд Тернер
Хаобин Чу
Иноч Чау
Саид КАРИМИФАРД
Мохаммед Самети
Original Assignee
Моушн Метрикс Интернэшнл Корп.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Моушн Метрикс Интернэшнл Корп. filed Critical Моушн Метрикс Интернэшнл Корп.
Publication of EA045770B1 publication Critical patent/EA045770B1/en

Links

Description

Область техникиTechnical field

Настоящее изобретение в целом относится к обработке полученных изображений и, более конкретно, к получению и обработке изображений транспортного средства для анализа полезного груза, перевозимого в грузовом контейнере транспортного средства.The present invention generally relates to the processing of acquired images and, more particularly, to the acquisition and processing of images of a vehicle for the analysis of payload carried in the cargo container of the vehicle.

Уровень техникиState of the art

Крупногабаритные транспортные средства обычно используются для транспортировки полезного груза на открытой платформе транспортного средства. Например, при горных работах карьерные погрузочные машины и экскаваторы загружают рудный полезный груз на карьерный самосвал для транспортировки к месту обработки. Характер и объем рудного полезного груза зачастую имеют важное значение, поскольку обработка на последующих этапах может быть рассчитана на полезный груз, не содержащий крупных валунов или других нежелательных материалов, таких как отломанные зубья, которые могут приводить к повреждению оборудования во время последующей обработки полезного груза. Другим важным аспектом может быть степень фрагментации или гранулометрический состав руды в полезном грузе. При горных работах, вследствие крупных габаритов оборудования, задействованного в погрузке добытой руды, и высоких капитальных затрат на него мониторинг полезного груза способен обеспечивать безопасную и/или эффективную работу задействованного оборудования. Остается потребность в способах и системах для обнаружения валунов и оценки гранулометрического состава.Large vehicles are typically used to transport a payload on an open platform of the vehicle. For example, in mining operations, quarry loaders and excavators load the ore payload onto a quarry truck for transport to the processing site. The nature and volume of the ore payload is often important because downstream processing can be designed for a payload that does not contain large boulders or other unwanted materials, such as broken teeth, that could cause equipment damage during subsequent payload processing. Another important aspect may be the degree of fragmentation or particle size distribution of the ore in the payload. In mining operations, due to the large size of the equipment involved in loading the mined ore and the high capital costs of it, payload monitoring is able to ensure the safe and/or efficient operation of the equipment involved. There remains a need for methods and systems for detecting boulders and estimating particle size distribution.

Раскрытие сущности изобретенияDisclosure of the invention

Согласно одному раскрытому аспекту, предложено устройство для анализа полезного груза, транспортируемого в грузовом контейнере транспортного средства. Устройство содержит камеру, расположенную с возможностью последовательного получения изображений транспортных средств, пересекающих поле обзора камеры. Устройство также содержит по меньшей мере один процессор, имеющий связь с камерой, причем указанный по меньшей мере один процессор функционально выполнен с возможностью выбора по меньшей мере одного изображения из последовательно полученных изображений в ответ на вероятность того, что транспортное средство и грузовой контейнер груза находятся в пределах поля обзора на указанном по меньшей мере одном изображении, и на то, что данные изображения, связанные с указанным по меньшей мере одним изображением, удовлетворяют критерию пригодности для дальнейшей обработки. Дальнейшая обработка включает обработку, с помощью указанного по меньшей мере одного процессора, выбранного изображения для идентификации интересующей области полезного груза на изображении и проведение анализа полезного груза внутри идентифицированной интересующей области полезного груза на основе данных изображения, связанных с указанным по меньшей мере одним изображением.According to one disclosed aspect, a device is provided for analyzing a payload transported in a cargo container of a vehicle. The device contains a camera located with the ability to sequentially obtain images of vehicles crossing the camera's field of view. The device also includes at least one processor in communication with the camera, wherein said at least one processor is operatively configured to select at least one image from the sequentially acquired images in response to the likelihood that the vehicle and cargo cargo container are in within the field of view of the at least one image, and that the image data associated with the at least one image satisfies the criterion of suitability for further processing. Further processing includes processing, by said at least one processor, the selected image to identify a payload region of interest in the image and performing an analysis of the payload within the identified payload region of interest based on image data associated with the at least one image.

Указанный по меньшей мере один процессор может быть функционально выполнен с возможностью выбора указанного по меньшей мере одного изображения путем генерирования трехмерных данных в виде облака точек для последовательно полученных изображений, определения плотности точек указанных данных в виде облака точек и сравнения этой плотности точек с пороговой плотностью точек для определения того, имеет ли место соответствие указанному критерию пригодности.The at least one processor may be operative to select said at least one image by generating three-dimensional point cloud data for sequentially acquired images, determining a point density of said point cloud data, and comparing that point density to a threshold point density to determine whether the specified suitability criterion is met.

Указанный по меньшей мере один процессор может быть функционально выполнен с возможностью предварительной обработки указанных трехмерных данных в виде облака точек для выбранного изображения перед проведением анализа полезного груза, причем указанная предварительная обработка может включать в себя по меньшей мере одно из следующего: удаление координат тех из облака точек, которые находятся ниже ожидаемой высоты грузоопорного основания грузового контейнера относительно окружающей земной поверхности; и удаление координат тех из облака точек, которые находятся вне подобласти облака точек в пределах облака точек, причем указанная подобласть облака точек меньше облака точек.Said at least one processor may be operatively configured to pre-process said three-dimensional point cloud data for a selected image prior to analyzing the payload, said pre-processing may include at least one of the following: removing those coordinates from the cloud points that are below the expected height of the load-supporting base of the cargo container relative to the surrounding earth's surface; and removing the coordinates of those from the point cloud that are outside a subregion of the point cloud within the point cloud, wherein said subregion of the point cloud is smaller than the point cloud.

Указанный по меньшей мере один процессор может быть дополнительно функционально выполнен с возможностью выбора, для дальнейшей обработки, одного из следующих: изображения, имеющего наивысшую плотность точек, первого изображения, имеющего плотность точек, превышающую пороговую плотность точек, и множества изображений, которые имеют плотность точек, превышающую пороговую плотность точек, если определено, что критерию пригодности соответствует множество изображений.The at least one processor may be further configured to select, for further processing, one of the following: an image having the highest dot density, a first image having a dot density greater than a threshold dot density, and a plurality of images that have a dot density , exceeding the threshold point density if it is determined that a set of images meets the suitability criterion.

Процессор может быть дополнительно функционально выполнен с возможностью генерирования уровня достоверности при обработке выбранного изображения для идентификации интересующей области полезного груза, причем указанный уровень достоверности выражает количественную оценку достоверности того, что идентифицированная интересующая область содержит полезный груз, и указанный уровень достоверности может использоваться по меньшей мере частично для определения того, имеет ли место соответствие критерию пригодности для выбранного изображения.The processor may be further configured to generate a confidence level when processing a selected image to identify a payload region of interest, wherein the confidence level expresses a quantitative estimate of the confidence that the identified region of interest contains a payload, and wherein said confidence level may be used at least in part to determine whether the eligibility criterion is met for the selected image.

Указанный по меньшей мере один процессор может быть функционально выполнен с возможностью выбора множества изображений из последовательно полученных изображений, причем каждое из указанного множества изображений обеспечивает отличный от других вид полезного груза, и указанный по меньшей мере один процессор может быть функционально выполнен с возможностью осуществления дополнительной обработки для каждого из указанного множества изображений для проведения анализаThe at least one processor may be operative to select a plurality of images from sequentially acquired images, each of the plurality of images providing a different view of the payload, and the at least one processor may be operative to perform additional processing for each of the specified set of images for analysis

- 1 045770 полезного груза.- 1 045770 payload.

Камера может быть расположена над транспортным средством, и поле обзора может быть ориентировано вниз для получения изображений верхней поверхности полезного груза, которая открыта благодаря открытой верхней стороне грузового контейнера.The camera may be positioned above the vehicle and the field of view may be oriented downward to obtain images of the top surface of the payload, which is exposed due to the open top side of the cargo container.

Указанный по меньшей мере один процессор может содержать встроенный процессор, имеющий связь с камерой, этот встроенный процессор может быть функционально выполнен с возможностью инициирования передачи данных изображения для выбранного изображения на удаленный процессор, и дальнейшая обработка выполняется этим удаленным процессором.The at least one processor may comprise an embedded processor in communication with the camera, the embedded processor may be operative to initiate transmission of image data for a selected image to a remote processor, and further processing is performed by the remote processor.

Встроенный процессор может содержать интерфейс глобальной сети связи, и этот встроенный процессор может быть функционально выполнен с возможностью загрузки выбранного изображения в удаленный процессор через глобальную сеть связи.The embedded processor may include a WAN interface, and the embedded processor may be operative to download the selected image to the remote processor via the WAN.

Указанный по меньшей мере один процессор может быть функционально выполнен с возможностью инициирования создания сигнала предупреждения в ответ на результаты анализа полезного груза, соответствующие критерию предупреждения.The at least one processor may be operative to initiate generation of a warning signal in response to payload analysis results that meet a warning criterion.

Устройство может дополнительно содержать сигнализатор для предупреждения, функционально выполненный с возможностью генерирования звукового или визуального сигнала для предупреждения оператора.The device may further comprise a warning annunciator operably configured to generate an audible or visual signal to alert the operator.

Указанный по меньшей мере один процессор может быть функционально выполнен с возможностью обработки первого и второго двумерных изображений с разных перспективных точек обзора для создания трехмерного облака точек, содержащего трехмерные координаты транспортного средства и грузового контейнера.The at least one processor may be operative to process the first and second two-dimensional images from different perspective viewpoints to create a three-dimensional point cloud containing three-dimensional coordinates of the vehicle and the cargo container.

Камера может содержать одно из следующих: первый и второй датчики изображения, которые смещены для получения соответственно первого и второго двумерных изображений с разных перспективных точек обзора; и один датчик изображения, функционально выполненный с возможностью получения первого и второго изображений, отстоящих друг от друга по времени, таким образом, что перемещение транспортного средства при пересечении поля обзора обеспечивает разные перспективные точки обзора для первого и второго изображений.The camera may include one of the following: first and second image sensors that are offset to respectively obtain first and second two-dimensional images from different perspective viewpoints; and one image sensor operatively configured to obtain first and second images spaced apart in time such that movement of the vehicle while crossing the field of view provides different perspective viewpoints for the first and second images.

Указанный по меньшей мере один процессор может быть функционально выполнен с возможностью обработки одного из соответствующих двумерных изображений для идентификации интересующей области полезного груза в двумерном представлении и с возможностью генерирования результатов анализа полезного груза путем обработки двумерных данных внутри интересующей области полезного груза, причем указанный по меньшей мере один процессор функционально выполнен с возможностью использования трехмерного облака точек для генерирования масштабирующей информации для анализа полезного груза.The at least one processor may be operatively configured to process one of the corresponding two-dimensional images to identify a payload region of interest in a two-dimensional representation and to generate payload analysis results by processing two-dimensional data within the payload region of interest, wherein said at least one one processor is operatively configured to use a three-dimensional point cloud to generate scaling information for payload analysis.

Указанный по меньшей мере один процессор может быть функционально выполнен с возможностью обработки выбранного изображения для идентификации интересующей области полезного груза с использованием обученной нейронной сети для получения выходных данных, локализующих интересующую область внутри выбранного изображения.The at least one processor may be operatively configured to process the selected image to identify a payload region of interest using a trained neural network to produce output that localizes the region of interest within the selected image.

Устройство может включать в себя функцию обучения нейронной сети с использованием по меньшей мере одного из набора изображений репрезентативных грузовых контейнеров, которые были предварительно маркированы человеком, и алгоритма неконтролируемого обучения, реализуемого для выделения шаблонов в данных изображения.The apparatus may include a function for training a neural network using at least one of a set of images of representative shipping containers that have been previously labeled by a human, and an unsupervised learning algorithm implemented to extract patterns in the image data.

Нейронная сеть может содержать сверточную нейронную сеть на основе маскирующей области.The neural network may comprise a masking region-based convolutional neural network.

Указанный по меньшей мере один процессор может быть функционально выполнен с возможностью обработки выбранного изображения посредством по меньшей мере одного из следующих: обработки данных изображения для усиления затененных областей перед выполнением анализа полезного груза; выполнения очистки выбранного изображения для коррекции искажений изображения, создаваемых съемочной оптикой, связанной с камерой, перед идентификации интересующей области полезного груза; и прореживания пикселей исходного выбранного изображения для получения прореженного изображения, имеющего уменьшенное количество пикселей, перед идентификацией интересующей области полезного груза.The at least one processor may be operatively configured to process the selected image by at least one of: processing the image data to enhance shadow areas before performing payload analysis; performing cleansing on the selected image to correct image distortions caused by imaging optics associated with the camera before identifying a payload region of interest; and decimating the pixels of the original selected image to obtain a decimated image having a reduced number of pixels before identifying the payload region of interest.

Выходные данные нейронной сети обеспечивают возможность идентификации граничные пикселей, демаркирующих интересующую область полезного груза внутри прореженного изображения, и проведение анализа полезного груза может включать в себя определение соответствующих граничных пикселей на исходном выбранном изображении и обработку участков исходного выбранного изображения внутри соответствующих граничных пикселей.The output of the neural network provides the ability to identify boundary pixels demarcating a payload region of interest within the decimated image, and performing payload analysis may include identifying corresponding boundary pixels in the original selected image and processing portions of the original selected image within the corresponding boundary pixels.

Указанный по меньшей мере один процессор может быть функционально выполнен с возможностью определения размеров грузового контейнера транспортного средства посредством одного из следующих: определения идентификатора транспортного средства, связанного с выбранным изображением, и считывания из базы данных параметров, определяющих размеры грузового контейнера, для идентифицированного транспортного средства; и выполнения дальнейшей обработки для транспортного средства с пустым грузовым контейнером и определения размеров грузового контейнера на основе пустого грузо- 2 045770 вого контейнера.The at least one processor may be operative to determine the dimensions of a cargo container of a vehicle by one of the following: determining a vehicle identifier associated with the selected image and reading from a database parameters defining the dimensions of a cargo container for the identified vehicle; and performing further processing on the vehicle with the empty cargo container and determining dimensions of the cargo container based on the empty cargo container.

Указанный по меньшей мере один процессор может быть функционально выполнен с возможностью осуществления идентификации транспортного средства посредством одного из следующих: обработки по меньшей мере одного из последовательных изображений для выделения идентификатора транспортного средства, обозначенного на автомобиле, в пределах поля обзора камеры; приема идентификатора от датчика для радиочастотной идентификации (radio-frequency identification, RFID), расположенного с возможностью считывания RFID-метки, размещенной на транспортном средстве; и обработки по меньшей мере одного из полученных последовательных изображений с использованием нейронной сети, которая была предварительно обучена генерированию идентификатора транспортного средства на основе полученного изображения.The at least one processor may be operatively configured to perform vehicle identification by one of the following: processing at least one of the sequential images to extract a vehicle identifier identified on the vehicle within the camera's field of view; receiving an identifier from a radio-frequency identification (RFID) sensor positioned to read an RFID tag located on the vehicle; and processing at least one of the acquired sequential images using a neural network that has been previously trained to generate a vehicle identifier based on the acquired image.

Процессор может быть функционально выполнен с возможностью проведения анализа полезного груза путем определения объема полезного груза посредством определения высоты заполнения полезным грузом внутренней области грузового контейнера на основе трехмерных координат для точек внутри интересующей области полезного груза и вычисления объема полезного груза на основе высоты заполнения полезным грузом и определенных размеров грузового контейнера.The processor may be operatively configured to perform payload analysis by determining payload volume by determining the payload height of an interior region of the cargo container based on three-dimensional coordinates for points within the payload region of interest and calculating the payload volume based on the payload height and determined dimensions of the cargo container.

Процессор может быть функционально выполнен с возможностью проведения анализа полезного груза путем идентификации постороннего объекта в пределах полезного груза.The processor may be operative to perform analysis of the payload by identifying a foreign object within the payload.

Процессор может быть функционально выполнен с возможностью идентификации постороннего объекта посредством обработки инфракрасных изображений полезного груза, причем указанный посторонний объект идентифицируют путем обнаружения электромагнитного излучения с длинами волн в инфракрасном диапазоне.The processor may be operative to identify a foreign object by processing infrared images of the payload, wherein said foreign object is identified by detecting electromagnetic radiation having wavelengths in the infrared range.

Процессор может быть функционально выполнен с возможностью проведения анализа полезного груза путем вычисления смещения груза, и процессор дополнительно может быть функционально выполнен с возможностью генерирования предупреждения о неравномерной загрузке, если смещение груза превышает определенное максимальное смещение груза.The processor may be operative to perform payload analysis by calculating a payload displacement, and the processor may further be operative to generate a load imbalance warning if the payload displacement exceeds a certain maximum payload displacement.

Процессор может быть функционально выполнен с возможностью проведения анализа полезного груза путем анализа сегментации в интересующей области полезного груза для определения размеров отличимых частей полезного груза.The processor may be operative to perform payload analysis by analyzing segmentations in a region of interest of the payload to determine the dimensions of distinguishable portions of the payload.

Процессор может быть функционально выполнен с возможностью инициирования создания сигнала предупреждения в ответ на то, что по меньшей мере одна отличимая часть превышает пороговый размер или идентифицирована как объект, не являющийся полезным грузом.The processor may be operative to initiate generation of an alert signal in response to the at least one distinguishable portion exceeding a threshold size or being identified as a non-payload object.

Полезный груз может содержать добытый рудный полезный груз, и анализ сегментации может включать в себя одно из следующих: анализ фрагментации, который служит для идентификации отличимых частей как одной из части в виде породы, части в виде мелочи или промежутка между частями, распределение груза в пределах размеров грузового контейнера и анализ влаги, который служит для классификации уровня влаги, связанного с полезным грузом.The payload may contain a mined ore payload, and the segmentation analysis may include one of the following: fragmentation analysis, which serves to identify distinguishable parts as one of a rock part, a fine part, or a gap between parts, the distribution of the load within cargo container dimensions and moisture analysis, which serves to classify the level of moisture associated with the payload.

Транспортное средство может представлять собой одно из следующих: карьерный самосвал, рельсовую тележку, баржу, вагонетку, транспортное средство для погрузки, откатки и выгрузки (load, haul, dump, LHD) или шахтный скип.The vehicle may be one of the following: a dump truck, a rail truck, a barge, a mine cart, a load, haul, dump, or LHD vehicle, or a mine skip.

Другие аспекты и признаки должны стать очевидны специалистам в данной области техники после прочтения нижеследующего описания конкретных раскрытых вариантов осуществления в сочетании с сопроводительными чертежами.Other aspects and features will become apparent to those skilled in the art upon reading the following description of the specific embodiments disclosed in conjunction with the accompanying drawings.

Краткое описание чертежейBrief description of drawings

На чертежах, которые иллюстрируют раскрытые варианты осуществления, на фиг. 1A показан вид в перспективе устройства для анализа полезного груза согласно первому раскрытому варианту осуществления;In the drawings which illustrate the disclosed embodiments, FIGS. 1A is a perspective view of a payload analysis apparatus according to the first disclosed embodiment;

на фиг. 1B показан вид в перспективе камеры, используемой в устройстве по фиг. 1A;in fig. 1B is a perspective view of a camera used in the apparatus of FIG. 1A;

на фиг. 1C показан вид в перспективе устройства для анализа полезного груза согласно еще одному раскрытому варианту осуществления;in fig. 1C is a perspective view of a payload analysis apparatus according to yet another disclosed embodiment;

на фиг. 1D в перспективе другого варианта осуществления камеры, которую можно использовать в устройстве по фиг. 1A или 1C;in fig. 1D is a perspective view of another embodiment of a camera that can be used in the device of FIG. 1A or 1C;

на фиг. 1E показан вид в перспективе подземного места работ согласно еще одному раскрытому варианту осуществления;in fig. 1E is a perspective view of an underground work site according to yet another disclosed embodiment;

на фиг. 1F показан вид в перспективе варианта осуществления беспилотного летательного аппарата для установки и расположения камеры по фиг. 1A;in fig. 1F is a perspective view of an embodiment of an unmanned aerial vehicle for mounting and positioning the camera of FIG. 1A;

на фиг. 2 показана блок-схема системы для анализа полезного груза, содержащей элементы устройства, показанного на фиг. 1;in fig. 2 is a block diagram of a payload analysis system comprising elements of the apparatus shown in FIG. 1;

на фиг. 3 показана блок-схема, изображающая блоки кода для управления встроенным процессором системы, показанной на фиг. 2, для обеспечения функций получения изображений;in fig. 3 is a block diagram depicting code blocks for controlling an embedded processor of the system shown in FIG. 2, to provide image acquisition functions;

на фиг. 4 показан пример изображения, полученного камерой, показанной на фиг. 1B;in fig. 4 shows an example of an image captured by the camera shown in FIG. 1B;

на фиг. 5 показана блок-схема, изображающая блоки кода для управления встроенным процессором для определения соответствия критерию пригодности;in fig. 5 is a block diagram illustrating code blocks for controlling the embedded processor to determine whether an eligibility criterion has been met;

- 3 045770 на фиг. 6 показан дополнительный вид в перспективе устройства, показанного на фиг. 1A;- 3 045770 in Fig. 6 is an additional perspective view of the device shown in FIG. 1A;

на фиг. 7 показана блок-схема, изображающая блоки кода для управления удаленной процесорной схемой системы, показанной на фиг. 2, для идентификации интересующей области полезного груза;in fig. 7 is a block diagram depicting code blocks for controlling the remote processor circuit of the system shown in FIG. 2, to identify the payload region of interest;

на фиг. 8 показан пример изображения, на котором изображены маска транспортного средства, маска грузового контейнера и маска полезного груза;in fig. 8 is an example image showing a vehicle mask, a cargo container mask, and a payload mask;

на фиг. 9 показан пример результатов анализа фрагментации для изображения полезного груза, показанного на фиг. 8;in fig. 9 shows an example of fragmentation analysis results for the payload image shown in FIG. 8;

на фиг. 10 показана функциональная схема архитектуры нейронной сети для идентификации интересующей области полезного груза;in fig. 10 shows a functional diagram of a neural network architecture for identifying a payload region of interest;

на фиг. 11 показана блок-схема, изображающая блоки кода для управления удаленной процессорной схемой для проведения альтернативного анализа полезного груза; и на фиг. 12 показан скриншот информационной панели для отображения результатов согласно одному раскрытому варианту осуществления.in fig. 11 is a block diagram depicting code blocks for controlling remote processing circuitry to perform alternative payload analysis; and in fig. 12 is a screenshot of a dashboard for displaying results according to one disclosed embodiment.

Осуществление изобретенияCarrying out the invention

Обратимся к фиг. 1A, на котором устройство для анализа полезного груза согласно первому раскрытому варианту осуществления показано в целом под номером 100. Полезный груз 102 транспортируют в грузовом контейнере 104 транспортного средства 106, проходящего под аркой 108, расположенной на месте 126 работ, таком как шахта или карьер. В данном варианте осуществления изображенное транспортное средство 106 представляет собой карьерный самосвал, и полезная нагрузка 102 содержит выкопанную руду с рабочей площадки 126, такой как шахта или карьер. В других вариантах осуществления грузовой контейнер может быть связан с транспортным средством другого типа, таким как рельсовая тележка, баржа или другое морское транспортное средство. В качестве альтернативы, грузовой контейнер 104 может представлять собой вагонетку или скип, такие как используемые в карьере или при подземных горных работах. Устройство 100 содержит камеру 110, установленную на арке 108 и расположенную с возможностью последовательного получения изображений транспортных средств, пересекающих поле обзора 112 камеры. В данном варианте осуществления камера 110 установлена над транспортным средством, и поле обзора 112 ориентировано вниз для получения изображений верхней поверхности полезного груза 102, которая открыта благодаря открытой верхней стороне грузового контейнера 104 . В показанном варианте осуществления устройство 100 содержит лампы 114 и 116, направленные вниз для освещения поля обзора 112. Лампы 114 и 116 могут быть реализованы с использованием источников света на основе светодиодов с повышенной конструктивной прочностью.Referring to FIG. 1A, in which the payload analysis apparatus of the first disclosed embodiment is shown generally at 100. The payload 102 is transported in a cargo container 104 of a vehicle 106 passing under an arch 108 located at a work site 126, such as a mine or quarry. In this embodiment, the illustrated vehicle 106 is a mining truck, and the payload 102 contains excavated ore from a work site 126, such as a mine or quarry. In other embodiments, the cargo container may be associated with another type of vehicle, such as a railcar, barge, or other marine vehicle. Alternatively, the shipping container 104 may be a cart or skip, such as those used in a quarry or underground mining operation. The device 100 includes a camera 110 mounted on the arch 108 and positioned to sequentially acquire images of vehicles crossing the camera's field of view 112. In this embodiment, the camera 110 is mounted above the vehicle and the field of view 112 is oriented downward to capture images of the top surface of the payload 102, which is exposed due to the open top side of the cargo container 104. In the illustrated embodiment, device 100 includes lamps 114 and 116 directed downwards to illuminate the field of view 112. Lamps 114 and 116 may be implemented using LED light sources with increased structural strength.

В данном варианте осуществления устройство 100 дополнительно содержит распределительную коробку 118, установленную на вертикальном элементе 120 арки. Кабели питания, сигналов и управления, связанные с камерой 110 (не показаны на фиг. 1A), проложены в обратном направлении к распределительной коробке 118. Распределительная коробка 118 также подает питание на лампы 114 и 116. В показанном варианте осуществления устройство 100 дополнительно содержит RFID-считыватель 122 для радиочастотной идентификации, предназначенный для считывания RFID-метки 124, прикрепленной к транспортному средству 106. Код, связанный с RFID-меткой 124 на транспортном средстве 106, может быть считан с помощью RFID-считывателя 122 для осуществления идентификации транспортного средства 106. RFID-метка 124 может быть закодирована с помощью идентификатора, который уникальным образом связан с конкретным транспортным средством, работающим на месте 126 работ. В некоторых вариантах осуществления транспортное средство 106 может представлять собой автоматизированное беспилотное транспортное средство. Например, в некоторых местах могут использоваться самоуправляемые транспортные средства, и таким образом транспортное средство 106 будет автоматически перемещаться через арку 108.In this embodiment, the device 100 further includes a distribution box 118 mounted on the vertical arch member 120. Power, signal and control cables associated with camera 110 (not shown in FIG. 1A) are routed back to junction box 118. Switch box 118 also supplies power to lamps 114 and 116. In the illustrated embodiment, device 100 further includes RFID - an RFID reader 122 for reading an RFID tag 124 attached to the vehicle 106. A code associated with the RFID tag 124 on the vehicle 106 can be read by the RFID reader 122 to identify the vehicle 106. The RFID tag 124 may be encoded with an identifier that is uniquely associated with a specific vehicle operating at the work site 126. In some embodiments, vehicle 106 may be an automated driverless vehicle. For example, self-driving vehicles may be used in some locations, such that the vehicle 106 will automatically navigate through the arch 108.

Камера 110 показана отдельно на фиг. 1B, и в данном варианте осуществления она содержит первый датчик 130 изображения и второй датчик 132 изображения, которые установлены внутри корпуса 134 с повышенной конструктивной прочностью и смещены друг от друга на расстояние D для получения соответственно первого и второго двумерных изображений с разных перспективных точек обзора. Датчики 130 и 132 изображения могут быть реализованы с использованием цветных датчиков с разрешением Full HD. Использование двух расположенных на расстоянии друг от друга датчиков 130 и 132 содействует генерированию трехмерной информации путем реализации стереоскопических технологий обработки изображений.Camera 110 is shown separately in FIG. 1B, and in this embodiment, it includes a first image sensor 130 and a second image sensor 132, which are mounted within a robust housing 134 and offset from each other by a distance D to respectively obtain first and second two-dimensional images from different perspective viewpoints. Image sensors 130 and 132 may be implemented using color sensors with Full HD resolution. The use of two spaced sensors 130 and 132 facilitates the generation of three-dimensional information by implementing stereoscopic image processing technologies.

Лампы 114 и 116 в целом будут функционировать по меньшей мере в ночное время или в условиях низкой освещенности для содействия генерированию подходящих изображений. В некоторых вариантах осуществления камера может быть чувствительна к длинам волн видимого света, в то время как в других вариантах осуществления камера может быть выполнена чувствительной к длинам волн теплового излучения или другим гиперспектральным длинам волн за пределами видимой части спектра. Например, некоторые объекты, такие как металлические объекты в полезном грузе 102, взаимодействуют специфическим образом с длинами волн теплового излучения, что содействует идентификации таких объектов.Lamps 114 and 116 generally will operate at least at night or in low light conditions to assist in generating suitable images. In some embodiments, the camera may be sensitive to visible light wavelengths, while in other embodiments, the camera may be sensitive to thermal wavelengths or other hyperspectral wavelengths outside the visible portion of the spectrum. For example, some objects, such as metal objects in payload 102, interact in a specific manner with thermal wavelengths, which facilitates the identification of such objects.

Хотя камера 110 на фиг. 1A показана ориентированной вниз, в других вариантах осуществления камера может быть ориентирована иным образом. Например, как показано на фиг. 1C, первая камера 152Although camera 110 in FIG. 1A is shown oriented downward; in other embodiments, the camera may be oriented differently. For example, as shown in FIG. 1C, first chamber 152

- 4 045770 установлена на стойке 154 слева от транспортного средства 106 для получения изображений поля обзора- 4 045770 is installed on the post 154 to the left of the vehicle 106 to obtain images of the field of view

156 с первой перспективы 158. Вторая камера 160 установлена на стойке 162 справа от транспортного средства 106 для получения изображений поля обзора 156 со второй перспективы 164. Обратимся к фиг.156 from a first perspective 158. A second camera 160 is mounted on a post 162 to the right of the vehicle 106 to obtain images of the field of view 156 from a second perspective 164. Referring to FIG.

1D, на котором показан еще один пример камеры, в целом обозначенной номером 170. Камера 170 может быть применена вместо камеры 110, показанной на фиг. 1A, или камер 152 и 160, показанных на фиг. 1C.1D, which shows another example of a camera generally designated 170. Camera 170 may be used in place of camera 110 shown in FIG. 1A, or cameras 152 and 160 shown in FIG. 1C.

В некоторых вариантах осуществления могут использоваться опоры для камеры, отличные от арки 108 . Например, в вариантах осуществления, относящихся к подземных горным работам, используемое транспортное средство может быть меньше, чем транспортное средство 106, показанное на фиг. 1A, и арка 108 может быть соответствующим образом масштабирована или полностью исключена. Обратимся к фиг. 1E, на котором показан пример места подземных горных работ, содержащего камеру 180, установленную на кровельной части места работ. Камера 180 в данном варианте осуществления выполнена в виде блока со встроенными светодиодными лампами 182, расположенными вокруг камеры. Транспортное средство 184 для погрузки, откатки и разгрузки (load, haul, dump, LHD) выполнено с возможностью работы на подземном месте работ и содержит сравнительно большой ковш 186, который выполнен с возможностью как погрузки, так и транспортировки полезного груза 188 в пределах места работ.In some embodiments, camera supports other than the arch 108 may be used. For example, in embodiments related to underground mining, the vehicle used may be smaller than the vehicle 106 shown in FIG. 1A, and arch 108 may be suitably scaled or eliminated entirely. Referring to FIG. 1E, which shows an example of an underground mining site including a chamber 180 mounted on the roof portion of the site. The camera 180 in this embodiment is configured as a unit with built-in LED lamps 182 located around the camera. The load, haul, dump (LHD) vehicle 184 is configured to operate at an underground work site and contains a relatively large bucket 186, which is configured to both load and transport the payload 188 within the work site. .

Как показано на фиг. 1F, в еще одном варианте осуществления камера 190 может быть установлена на дроне 192, и этот дрон может быть направлен в область над транспортным средством, чтобы расположить камеру для получения изображений. В качестве альтернативы, дрон 192 может быть прикреплен кабелем 194, который будет удерживать дрон таким образом, чтобы он неподвижно висел в конкретном месте и располагал камеру 190 для получения изображений транспортного средства, проходящего ниже.As shown in FIG. 1F, in yet another embodiment, camera 190 may be mounted on drone 192, and the drone may be directed to an area above the vehicle to position the camera to capture images. Alternatively, the drone 192 may be attached by a cable 194 that will hold the drone so that it hangs motionless at a specific location and position the camera 190 to capture images of a vehicle passing below.

Блок-схема системы для анализа полезного груза 102 показана на фиг. 2 под номером 200. Система 200 содержит элементы устройства 100, включая камеру 110, распределительную коробку 118, лампы 114 и 116 и RFID-считыватель 122. Распределительная коробка 118 подает рабочую мощность на камеру 110 через силовой провод 202, а также обеспечивает питание и управление для ламп 114 и 116 и RFIDсчитывателя 122 . В данном варианте осуществления камера 110 содержит встроенный процессор 204, имеющий связь с памятью 206 и устройством 208 ввода/вывода, причем все они установлены внутри кожуха 134 (показано на фиг. 1B). Память 206 обеспечивает хранение инструкций для управления встроенным процессором 204 для получения последовательных изображений, а также обеспечивает хранение данных полученных изображений.A block diagram of the payload analysis system 102 is shown in FIG. 2 at 200. System 200 contains elements of device 100, including camera 110, junction box 118, lamps 114 and 116, and RFID reader 122. Switch box 118 supplies operating power to camera 110 via power wire 202 and also provides power and control. for lamps 114 and 116 and RFID reader 122. In this embodiment, camera 110 includes an embedded processor 204 in communication with memory 206 and input/output device 208, all of which are mounted within housing 134 (shown in FIG. 1B). The memory 206 provides storage of instructions for controlling the embedded processor 204 to acquire sequential images, and also provides storage of acquired image data.

Устройство 208 ввода/вывода имеет связь со встроенным процессором 204 и обеспечивает интерфейс 210 датчиков изображения, содержащий входы 212 для приема данных изображения от первого и второго датчиков 130 и 132 изображения. Устройство 208 ввода/вывода дополнительно содержит интерфейс 214 связи, такой как интерфейс Ethernet. Интерфейс 214 связи имеет порт 216, который соединен с помощью кабеля 218 данных, проложенного в обратном направлении, с распределительной коробкой 118. Соединительная коробка 118 может содержать модем, маршрутизатор или другое сетевое оборудование, которое содействует подключению к сети 220. Сеть 220 может представлять собой локальную сеть (LAN), реализуемую для локальной передачи данных в рабочем месте 126. В качестве альтернативы, соединительная коробка 118 может передавать сигналы по кабелю 218 данных в глобальную сеть, такую как Интернет. В некоторых вариантах осуществления, в которых недоступно проводное соединение с сетью 220, соединительная коробка 118 может содержать сотовый приемопередатчик, и соединение с сетью 220 может осуществляться посредством сотовой сети передачи данных или другого беспроводного сетевого соединения.The input/output device 208 communicates with the embedded processor 204 and provides an image sensor interface 210 including inputs 212 for receiving image data from the first and second image sensors 130 and 132 . The I/O device 208 further includes a communication interface 214, such as an Ethernet interface. Communication interface 214 has a port 216 that is connected via a reverse data cable 218 to a junction box 118. The junction box 118 may contain a modem, router, or other network equipment that facilitates connection to the network 220. The network 220 may be a local area network (LAN) implemented for local data transmission at workstation 126. Alternatively, junction box 118 may transmit signals via data cable 218 to a wide area network such as the Internet. In some embodiments, in which a wired connection to network 220 is not available, junction box 118 may contain a cellular transceiver, and the connection to network 220 may be via a cellular data network or other wireless network connection.

В варианте осуществления, показанном на фиг. 2, система 200 также содержит удаленную процессорную схему 230, которая содержит микропроцессор 232, имеющий связь с устройством 234 ввода/вывода (I/O). Устройство 234 ввода/вывода обеспечивает интерфейс 236 связи для передачи и приема данных по сети 220. Микропроцессор 232 имеет связь с памятью 238 для хранения данных и кодов инструкций. В данном варианте осуществления микропроцессор 232 также имеет связь с запоминающим устройством 240 большой емкости для хранения данных изображения и для архивирования результатов анализа полезного груза. В показанном варианте осуществления удаленная процессорная схема 230 дополнительно обеспечивает обработку с помощью графического процессора (GPU) 242, который может использоваться для обеспечения повышенной вычислительной мощности в отношении задач, требующих интенсивной обработки изображений. Таким образом, микропроцессор 232 может быть выполнен в виде графического процессора или удаленной процессорной схемы 230, и он может дополнительно содержать сопроцессор графического процессора для освобождения микропроцессора от некоторых задач по обработке.In the embodiment shown in FIG. 2, system 200 also includes a remote processor circuit 230 that includes a microprocessor 232 in communication with an input/output (I/O) device 234. I/O device 234 provides a communications interface 236 for transmitting and receiving data over network 220. Microprocessor 232 communicates with memory 238 for storing data and instruction codes. In this embodiment, microprocessor 232 is also in communication with mass storage device 240 for storing image data and for archiving payload analysis results. In the illustrated embodiment, remote processor circuitry 230 further provides processing via a graphics processing unit (GPU) 242, which can be used to provide increased processing power for image-intensive tasks. Thus, microprocessor 232 may be implemented as a graphics processor or remote processor circuit 230, and may further include a GPU coprocessor to relieve the microprocessor of some processing tasks.

В тех вариантах осуществления, в которых сеть 220 представляет собой локальную сеть, удаленная процессорная схема 230 может быть расположена в оперативном центре, связанном с местом 126 работ. В других вариантах осуществления, в которых сеть 220 представляет собой глобальную сеть, удаленная процессорная схема 230 может быть расположена в удаленном центре обработки, обеспеченном для обработки изображений для нескольких мест работ. В качестве альтернативы, удаленная процессорная схема 230 может быть обеспечена в виде облачной вычислительной платформы по запросу, предоставляемой поставщиками, такими как Amazon Web Services (AWS).In those embodiments in which the network 220 is a local area network, the remote processor circuitry 230 may be located in an operations center associated with the worksite 126. In other embodiments in which the network 220 is a wide area network, the remote processing circuitry 230 may be located in a remote processing center provided for image processing for multiple job sites. Alternatively, the remote processor circuit 230 may be provided in the form of an on-demand cloud computing platform provided by providers such as Amazon Web Services (AWS).

- 5 045770- 5 045770

Система 200 дополнительно содержит процессорную схему 250, содержащую микропроцессор 252, память 254 и устройство 256 ввода/вывода. Устройство 256 ввода/вывода обеспечивает интерфейс 258 связи, который способен принимать данные через сеть 220. Устройство 256 ввода/вывода также содержит интерфейс 260 для инициирования визуального предупреждения через дисплей 262 или звукового предупреждения через сигнализатор 264, такой как громкоговоритель или другое устройство звуковой сигнализации. Процессорная схема 250 может быть расположена в оперативном центре места 126 работ, где результаты анализа полезного груза могут отображаться вместе с оповещениями или предупреждениями. В качестве альтернативы, процессорная схема 250 может быть расположена в кабине транспортного средства 106 и подключена с помощью беспроводной связи к сети 220. В самоходных или других безводных транспортных средствах, таких как контейнер 104 для перевозки железнодорожных грузов, сигнал предупреждения может быть обработан иным образом для того, чтобы вызвать отклонение или пометку транспортного средства, чтобы можно было предпринять дальнейшие действия.The system 200 further includes a processor circuit 250 including a microprocessor 252, a memory 254, and an input/output device 256. I/O device 256 provides a communications interface 258 that is capable of receiving data via network 220. I/O device 256 also includes an interface 260 for initiating a visual warning through a display 262 or an audible warning through an annunciator 264, such as a loudspeaker or other audible alarm device. Processing circuitry 250 may be located in the operations center of the work site 126, where payload analysis results may be displayed along with alerts or warnings. Alternatively, processor circuitry 250 may be located in the cabin of vehicle 106 and connected wirelessly to network 220. In self-propelled or other non-powered vehicles, such as rail freight container 104, the warning signal may be processed differently to in order to cause the vehicle to be diverted or flagged so that further action can be taken.

Хотя вариант осуществления системы 200, показанный на фиг. 2, содержит встроенный процессор 204 в камере 110 и отдельную удаленную процессорную схему 230, в других вариантах осуществления система может сочетать в себе встроенные и удаленные процессоры. Таким образом, функции, описанные ниже как выполняемые удаленной процессорной схемой 230, могут выполняться встроенным процессором 204 или любой другой комбинацией процессорных схем.Although the embodiment of system 200 shown in FIG. 2 includes an onboard processor 204 in camera 110 and a separate remote processor circuit 230; in other embodiments, the system may combine onboard and remote processors. Thus, the functions described below as being performed by remote processor circuit 230 may be performed by embedded processor 204 or any other combination of processor circuits.

Обратимся к фиг. 3, на котором показана блок-схема, изображающая блоки кода для управления встроенным процессором 204 для обеспечения функций получения изображения и обозначенная в целом номером 300. Указанные блоки в целом представляют коды, которые могут быть считаны из памяти 206 в виде машиночитаемого носителя для управления встроенным процессором 204 для обеспечения различных функций. Фактический код для реализации каждого блока может быть написан на любом подходящем языке программирования, например таком, как C, C++, C#, Java и/или ассемблерный код.Referring to FIG. 3, which is a block diagram depicting blocks of code for controlling the embedded processor 204 to provide image acquisition functions, generally designated 300. These blocks generally represent codes that can be read from memory 206 into a computer readable medium for controlling the embedded processor 204 to provide various functions. The actual code for implementing each block may be written in any suitable programming language, such as C, C++, C#, Java, and/or assembly code.

Процесс 300 получения изображения начинается в блоке 302, который управляет встроенным процессором 204 для инициирования последовательного получения изображений камерой 110 в пределах поля обзора 112 камеры. Таким образом, блок 302 может управлять одним или обоими из датчиков 130 и 132 изображения для получения последовательных изображений, которые могут приниматься через интерфейс 210 датчиков изображения и сохраняться в памяти 206. Пример полученного изображения показан под номером 400 на фиг. 4, на котором изображение ограничено полем обзора 112, показанным в виде пунктирного контура. На практике изображения, полученные с помощью датчика 130 изображения, будут немного отличаться перспективой от изображений, полученных с помощью датчика 132 изображения. Таким образом, пример 400 изображения представляет одно из изображений, полученных либо датчиком 130 изображения, либо датчиком 132 изображения.The image acquisition process 300 begins at block 302, which controls the embedded processor 204 to initiate sequential acquisition of images by camera 110 within the camera field of view 112. Thus, block 302 may control one or both of image sensors 130 and 132 to produce sequential images that may be received through image sensor interface 210 and stored in memory 206. An example of the acquired image is shown at 400 in FIG. 4, in which the image is limited to a field of view 112 shown as a dotted outline. In practice, images obtained with image sensor 130 will have a slightly different perspective than images obtained with image sensor 132. Thus, example image 400 represents one of the images obtained by either image sensor 130 or image sensor 132.

Затем блок 304 управляет встроенным процессором 204 для определения того, существует ли вероятность нахождения транспортного средства и грузового контейнера в пределах поля обзора. Также управляют встроенным процессором 204 для определения того, соответствуют ли полученные данные изображения критерию пригодности для дальнейшей обработки. Таким образом, камера 110 может непрерывно получать изображения поля обзора 112, которые могут содержать, а могут и не содержать транспортное средство 106 в пределах поля обзора. Если существует вероятность того, что транспортное средство находится в пределах поля обзора 112, то встроенный процессор 204 осуществляет дальнейшее определение того, пригодны ли данные изображения для дальнейшей обработки. Например, транспортное средство 106 может быть лишь частично расположено в пределах поля обзора 112 на некоторых изображениях, и возможно, что будут получены или уже получены более подходящие изображения, которые содержат четкий вид транспортного средства 106, полезного груза 102 и земных поверхностей 402, окружающих транспортное средство.Block 304 then controls embedded processor 204 to determine whether the vehicle and cargo container are likely to be within the field of view. The embedded processor 204 is also controlled to determine whether the acquired image data meets the eligibility criterion for further processing. Thus, camera 110 may continuously acquire images of field of view 112, which may or may not contain vehicle 106 within the field of view. If there is a possibility that a vehicle is within the field of view 112, then the embedded processor 204 makes a further determination as to whether the image data is suitable for further processing. For example, the vehicle 106 may be only partially located within the field of view 112 in some images, and it is possible that more suitable images will be or have already been acquired that include a clear view of the vehicle 106, the payload 102, and the ground surfaces 402 surrounding the vehicle. means.

Если в блоке 304 определено, что изображение соответствует критерию пригодности, то управляют встроенным процессором 204 для перехода к блоку 306. Блок 306 управляет встроенным процессором 204 для инициирования считывания данных выбранных изображений из памяти 206 и их передачи через интерфейс 214 связи и сеть 220 на удаленную процессорную схему 230. Данные выбранных изображений могут быть помечены или иным образом связаны с идентификатором транспортного средства, сгенерированным RFID-считывателем 122 в результате считывания RFID-метки 124 на транспортном средстве 106. Например, выбранное изображение может иметь идентификатор транспортного средства, встроенный в поле метаданных изображения, и передаваться вместе с данными изображений.If it is determined at block 304 that the image meets the eligibility criterion, then the embedded processor 204 is controlled to proceed to block 306. Block 306 controls the embedded processor 204 to initiate reading the selected image data from the memory 206 and transmitting it through the communication interface 214 and the network 220 to the remote location. processor circuit 230. The selected image data may be tagged or otherwise associated with a vehicle ID generated by the RFID reader 122 as a result of reading the RFID tag 124 on the vehicle 106. For example, the selected image may have a vehicle ID embedded in a metadata field images, and transmitted along with the image data.

Хотя в данном варианте осуществления идентификатор транспортного средства считывается с RFID-метки 124, в других вариантах осуществления идентификатор транспортного средства может быть сгенерирован иным образом. Например, идентификатор транспортного средства может быть обозначен на транспортном средстве в пределах поля обзора 112 камеры 110 и определен путем обработки одного из полученных изображений для выделения идентификатора из изображения. В качестве альтернативы, одно из полученных изображений может быть обработано с использованием нейронной сети, которая ранее была обучена генерированию выходных идентификационных данных для полученного изображения. Нейронная сеть может быть обучена с использованием набора маркированных изображений транспортных средств, используемых на месте 126 работ, для обеспечения возможности идентификации люAlthough in this embodiment the vehicle ID is read from the RFID tag 124, in other embodiments the vehicle ID may be generated in a different manner. For example, a vehicle identifier may be marked on the vehicle within the field of view 112 of camera 110 and determined by processing one of the acquired images to extract the identifier from the image. Alternatively, one of the resulting images can be processed using a neural network that has previously been trained to generate identity outputs for the resulting image. A neural network can be trained using a set of labeled images of vehicles used on site 126 to enable identification of people

- 6 045770 бого из используемых транспортных средств с помощью нейронной сети.- 6 045770 god of used vehicles using a neural network.

Обратимся вновь к фиг. 3, на котором блок-схема, изображающая блоки кода для управления микропроцессором 232 удаленной процессорной схемы 230 для приема данных изображения, показана под общим номером 320. Блок 322 управляет микропроцессором 232 для приема данных изображения от камеры 110. В некоторых вариантах осуществления, изображения от обоих датчиков 130 и 132 изображения могут передаваться устройством 100 и приниматься удаленной процессорной схемой 230. Блок 324 дополнительно управляет микропроцессором 232 для записи данных изображения в устройство 240 большой емкости для хранения данных. В некоторых вариантах осуществления данные изображения могут приниматься со скоростью, которая является слишком высокой, чтобы можно было осуществлять дальнейшую обработку в реальном времени. Сохранение данных изображений в устройстве 240 большой емкости для хранения данных содействует постановке в очередь данных изображений, ожидающих дальнейшей обработки. В большинстве случаев немедленное предоставление результатов анализа полезного груза может быть необязательным; они могут быть задержаны на минуту или более и все равно обеспечивать эффективное и своевременное уведомление оперативного центра на месте 126 работ.Referring again to FIG. 3, in which a block diagram depicting blocks of code for controlling the microprocessor 232 of the remote processor circuit 230 for receiving image data is shown at numeral 320. Block 322 controls the microprocessor 232 for receiving image data from the camera 110. In some embodiments, images from of both image sensors 130 and 132 may be transmitted by device 100 and received by remote processor circuit 230. Unit 324 further controls microprocessor 232 to write image data to mass storage device 240. In some embodiments, image data may be received at a rate that is too high to allow further processing in real time. Storing image data in the mass storage device 240 facilitates queuing image data awaiting further processing. In most cases, immediate provision of payload analysis results may not be necessary; they can be delayed by a minute or more and still provide effective and timely notification to the on-site operations center 126 work.

Обратимся вновь к фиг. 3, на котором блок-схема, изображающая блоки кода для управления микропроцессором 232 удаленной процессорной цепи 230 для выполнения дополнительной обработки, показана под общим номером 330. Процесс 330 дополнительной обработки начинается в блоке 332, который управляет микропроцессором 232 для считывания данных изображений для дальнейшей обработки следующего изображения из устройства 240 большой емкости для хранения данных в память 238. Затем блок 334 управляет микропроцессором 232 для обработки данных изображений для идентификации интересующей области полезного груза внутри изображения. Обратимся вновь к фиг. 4, на котором интересующая область полезного груза обозначена номером 404 и показана с использованием пунктирной линии, окружающей руду в грузовом контейнере 104.Referring again to FIG. 3, in which a block diagram depicting blocks of code for controlling the microprocessor 232 of the remote processor circuit 230 to perform additional processing is shown at general number 330. The additional processing process 330 begins at block 332, which controls the microprocessor 232 to read image data for further processing. next image from mass storage device 240 to memory 238. Unit 334 then controls microprocessor 232 to process the image data to identify a payload region of interest within the image. Referring again to FIG. 4, in which the payload area of interest is designated 404 and is shown using a dotted line surrounding the ore in the cargo container 104.

Затем процесс 320 продолжают в блоке 336. В случае необходимости, при идентификации интересующей области 404 полезного груза микропроцессор 232 может управляться для генерирования уровня достоверности, количественно представляющего достоверность того, что идентифицированная интересующая область содержит полезный груз. В этом случае блок 336 управляет микропроцессором 232 для дальнейшего определения того, имеет ли место соответствие дополнительному критерию обработки для выбранного изображения, на основе уровня достоверности, связанного с идентифицированной интересующей областью 404 полезного груза. Если в блоке 336 определено несоответствие интересующей области 404 полезного груза дополнительному критерию обработки, то управляют микропроцессором 232 для перехода обратно к блоку 332 для обработки следующего изображения. Если в блоке 326 определено соответствие дополнительному критерию обработки, то управляют микропроцессором 232 для перехода к блоку 338 для обработки следующего изображения в очереди.Process 320 then continues at block 336. Optionally, upon identifying a payload region of interest 404, the microprocessor 232 may be controlled to generate a confidence level quantifying the confidence that the identified region of interest contains a payload. In this case, block 336 controls microprocessor 232 to further determine whether an additional processing criterion is met for the selected image based on the confidence level associated with the identified payload region of interest 404. If it is determined at block 336 that the payload region of interest 404 does not meet the additional processing criterion, microprocessor 232 is controlled to move back to block 332 to process the next image. If the additional processing criterion is determined to be met at block 326, microprocessor 232 is controlled to proceed to block 338 to process the next image in the queue.

Затем процесс 330 продолжают в блоке 338, который управляет микропроцессором 232 для проведения анализа полезного груза для интересующей области 404 полезного груза. Анализ полезного груза может включать в себя любой из нескольких различных процессов анализа. Анализ полезного груза может включать в себя, например, определение того, существуют ли какие-либо отличимые части полезного груза, такие как большие валуны или посторонние объекты, в полезном грузе 102. На фиг. 4 может быть обнаружен валун 406 и может быть определено, что его размер превышает пороговый размер руды. Пороговый размер может быть установлен на основе максимального размера валуна, который может безопасно обрабатываться с помощью оборудования для обработки, которое используется на последующих этапах и принимает полезный груз от транспортного средства 106. Аналогичным образом могут быть идентифицированы отличимые части, отличные от валунов. Посторонние объекты, такие как металлические части, могут отламываться от экскаватора, и микропроцессор 232 удаленной процессорной цепи 230 может быть функционально выполнен с возможностью инициирования создания сигнала предупреждения в подобных случаях. Затем блок 338 управляет микропроцессором 232 для перехода обратно к блоку 332, и процесс повторяют для следующего изображения в очереди. В одном варианте осуществления посторонние объекты могут быть обнаружены путем обработки данных изображений, получаемых камерой 110. Подход на основе машинного обучения может применяться для обнаружения общих посторонних объектов, которые могут включать металлические инструменты и/или части зубьев ковшового погрузчика, используемого для загрузки полезного груза 104 в транспортное средство 106. В некоторых вариантах осуществления возможно получение изображений с использованием длин волн в инфракрасной части спектра, поскольку более высокие уровни инфракрасного излучения в полезном грузе 104 могут указывать на металлический или другой посторонний объект в полезном грузе, который отличается по температуре от окружающего полезного груза.Process 330 then continues to block 338, which controls microprocessor 232 to perform payload analysis for payload region of interest 404. Payload analysis may involve any of several different analysis processes. Analyzing the payload may include, for example, determining whether there are any distinguishable payload parts, such as large boulders or foreign objects, in the payload 102. Referring to FIG. 4, boulder 406 may be detected and determined to be larger than the ore threshold size. The threshold size may be set based on the maximum size of a boulder that can be safely handled by the processing equipment that is used in subsequent steps and receives the payload from the vehicle 106. Similarly, distinguishable parts other than boulders can be identified. Foreign objects, such as metal parts, may break off from the excavator, and the microprocessor 232 of the remote processing circuit 230 may be operative to trigger a warning signal in such cases. Block 338 then controls microprocessor 232 to move back to block 332, and the process is repeated for the next image in the queue. In one embodiment, foreign objects may be detected by processing image data acquired by camera 110. A machine learning approach may be used to detect common foreign objects, which may include metal tools and/or parts of the teeth of a loader used to load payload 104 into the vehicle 106. In some embodiments, it is possible to image using wavelengths in the infrared portion of the spectrum, since higher levels of infrared radiation in the payload 104 may indicate a metal or other foreign object in the payload that is different in temperature from the surrounding payload cargo

В данном варианте осуществления удаленная процессорная схема 230 выполняет указанную дополнительную обработку. Идентификация интересующей области полезного груза и/или последующий анализ полезного груза могут потребовать интенсивной работы процессора, и они могут быть не завершены до получения дополнительных данных изображения камерой 110. В других вариантах осуществления встроенный процессор 204 в устройстве 100 может быть выполнен с возможностью обеспечения требуемой производительности обработки для выполнения идентификации интересующей области и анализаIn this embodiment, the remote processor circuit 230 performs said additional processing. Identification of a payload region of interest and/or subsequent analysis of the payload may be processor intensive and may not be completed until additional image data is acquired by camera 110. In other embodiments, embedded processor 204 in device 100 may be configured to provide the required performance processing to perform region of interest identification and analysis

- 7 045770 полезного груза в по существу реальном времени. В таких случаях анализ полезного груза может быть упрощен для того, чтобы сосредоточиться на одной функции, такой как обнаружение валуна, чтобы уменьшить требования к обработке для встроенного процессора 204.- 7 045770 payload in essentially real time. In such cases, payload analysis can be simplified to focus on a single function, such as boulder detection, to reduce processing requirements for the embedded processor 204.

В некоторых вариантах осуществления распределительная коробка 118 может обеспечивать непрерывную подачу питания на лампы 114 и 116 в условиях низкой освещенности для обеспечения обнаружения транспортного средства 106 и наличия достаточного освещения для целей получения изображений. В других вариантах осуществления лампы 114 и 116 могут получать питание через распределительную коробку 118 лишь при наличии транспортного средства. В качестве примера, RFID-считыватель 122 может быть расположен на расстоянии друг от друга относительно фермы 108 таким образом, что при обнаружении транспортного средства перед прохождением под камерой 110 сигнал передается по кабелю данных 218 на ввод/вывод 208. Встроенный процессор 204 может быть дополнительно выполнен с возможностью инициирования подачи питания на лампы 114 и 116 перед прохождением транспортного средства под камерой 110. Во избежание испуга водителя транспортного средства 106 из-за резкого включения ламп 114 и 116, уровень яркости может быть постепенно увеличен после обнаружения транспортного средства, а затем снижен после получения необходимых изображений.In some embodiments, the distribution box 118 may provide continuous power to the lamps 114 and 116 in low light conditions to ensure that the vehicle 106 is detected and sufficient illumination is available for imaging purposes. In other embodiments, lamps 114 and 116 may be powered through distribution box 118 only when a vehicle is present. As an example, RFID reader 122 may be spaced apart from truss 108 such that when a vehicle is detected before passing under camera 110, a signal is transmitted via data cable 218 to I/O 208. Embedded processor 204 may optionally be configured to initiate power to the lamps 114 and 116 before a vehicle passes under the camera 110. To avoid startling the driver of the vehicle 106 due to the sudden activation of the lamps 114 and 116, the brightness level may be gradually increased after the vehicle is detected and then decreased after receiving the necessary images.

Пример процесса реализации блока 304 процесса 300 показан на фиг. 5. Для камеры 110, имеющей два расположенных на расстоянии друг от друга датчика 130 и 132 изображения, встроенный процессор 204 может быть выполнен с возможностью обработки полученных первого и второго двумерных изображений с разных перспективных точек обзора для генерирования трехмерного облака точек, содержащего трехмерные координаты транспортного средства и грузового контейнера. Встроенный процессор 204 может реализовывать стереоскопический процесс, в котором сравнивают первое и второе изображения для нахождения совпадающих признаков, и используют сдвиг или несоответствие между совпадающими признаками для определения трехмерных координат для совпадающих признаков. Набор трехмерных координат может быть назван трехмерным облаком точек.An example process for implementing block 304 of process 300 is shown in FIG. 5. For a camera 110 having two spaced apart image sensors 130 and 132, an embedded processor 204 may be configured to process the acquired first and second two-dimensional images from different perspective viewpoints to generate a three-dimensional point cloud containing three-dimensional coordinates of the vehicle. means and cargo container. The embedded processor 204 may implement a stereoscopic process that compares the first and second images to find matching features, and uses the offset or disparity between the matching features to determine three-dimensional coordinates for the matching features. A set of three-dimensional coordinates can be called a three-dimensional point cloud.

Генерирование информации в виде трехмерного облака точек обеспечивает удобное масштабирование изображений для определения физических размеров, связанных с полезным грузом 102. В других вариантах осуществления обработка может быть основана на информации двумерного изображения, наряду с дополнительной масштабирующей информацией. Например, если известны размеры грузового контейнера 104 транспортного средства 106, то двумерное изображение может быть масштабировано на основе краев грузового контейнера. В некоторых вариантах осуществления, если один из датчиков 130 и 132 изображения стал неработоспособным из-за грязи на линзах или других неполадок, обработка может выполняться на основе двумерной информации.Generating the 3D point cloud information allows for convenient scaling of images to determine the physical dimensions associated with the payload 102. In other embodiments, processing may be based on the 2D image information, along with additional scaling information. For example, if the dimensions of the cargo container 104 of the vehicle 106 are known, then the two-dimensional image can be scaled based on the edges of the cargo container. In some embodiments, if one of the image sensors 130 and 132 becomes inoperable due to lens dirt or other problems, processing may be performed based on the two-dimensional information.

Процесс 304 начинается в блоке 500, который управляет встроенным процессором 204 для генерирования данных в виде трехмерного облака точек на основе первого и второго изображений, полученных датчиками 130 и 132 изображения. Затем блок 502 управляет встроенным процессором 204 для считывания высотных координат для каждой трехмерной точки в данных в виде облака точек. Затем блок 504 управляет встроенным процессором 204 для считывания первой координаты в данных в виде облака точек и определения того, превышает ли соответствующая высотная координата минимальную ожидаемую высоту 506 грузового контейнера 104.Process 304 begins at block 500, which controls embedded processor 204 to generate three-dimensional point cloud data based on the first and second images acquired by image sensors 130 and 132. Block 502 then controls embedded processor 204 to read elevation coordinates for each three-dimensional point in the point cloud data. Block 504 then controls the embedded processor 204 to read the first coordinate in the point cloud data and determine whether the corresponding altitude coordinate exceeds the minimum expected height 506 of the cargo container 104.

Как показано на фиг. 6 для места 126 работ, сгенерированное трехмерное облако точек будет содержать трехмерные координаты транспортного средства и грузового контейнера в системе координат 600x, y, z. Трехмерное облако точек также может содержать трехмерные координаты для других объектов, например таких, как земная поверхность и части вертикального элемента 120 арки. Ожидаемая минимальная высота 506 может быть установлена для места 126 работ на основе известной высоты транспортных средств, работающих на данном месте работ (т.е. на высоте Z1 на фиг. 6). Использование минимальной ожидаемой высоты 506 может быть особенно полезным в тех случаях, когда транспортное средство 106 представляет собой очень крупногабаритный карьерный самосвал. Хотя и другие транспортные средства, такие как малолитражные грузовые автомобили, могут пересекать поле обзора 112, полученные изображения могут отбрасываться встроенным процессором 204 камеры 110 на основе отсутствия данных в виде облака точек выше минимальной ожидаемой высоты 506. В этом случае минимальная ожидаемая высота 506 для места горных работ может быть установлена выше, чем у не являющихся карьерными самосвалами обычных грузовых транспортных средств, обычно эксплуатируемых на месторождениях. Если в блоке 504 высотная координата не превышает минимальную ожидаемую высоту 506, то управляют встроенным процессором 204 для перехода к блоку 508. Блок 508 управляет встроенным процессором 204 для удаления трехмерных координат из данных в виде облака точек. Таким образом, любые трехмерные координаты в облаке точек, имеющие координату Z, меньшую Z1, будут исключены из рассмотрения.As shown in FIG. 6 for job site 126, the generated 3D point cloud will contain the 3D coordinates of the vehicle and cargo container in a 600x, y, z coordinate system. The three-dimensional point cloud may also contain three-dimensional coordinates for other objects, such as the earth's surface and parts of the vertical arch element 120. An expected minimum height 506 may be established for a work site 126 based on the known height of vehicles operating at that work site (ie, at height Z 1 in FIG. 6). The use of a minimum expected height 506 may be particularly useful in cases where the vehicle 106 is a very large mining truck. Although other vehicles, such as light trucks, may cross the field of view 112, the resulting images may be discarded by the embedded processor 204 of the camera 110 based on the lack of point cloud data above the minimum expected height 506. In this case, the minimum expected height 506 for the location mining operations can be set higher than that of non-mining dump trucks of conventional cargo vehicles typically used in mining operations. If the altitude coordinate at block 504 does not exceed the minimum expected height 506, then the embedded processor 204 is controlled to proceed to block 508. Block 508 controls the embedded processor 204 to remove the 3D coordinates from the point cloud data. Thus, any 3D coordinates in the point cloud that have a Z coordinate less than Z1 will be excluded from consideration.

Затем процесс 304 продолжают в блоке 512, который управляет микропроцессором 204 для определения того, попадают ли значения координат x и y внутрь подобласти 514 облака точек. Обратимся вновь к фиг. 6, на котором подобласть 514 облака точек показана в виде контура, и в данном варианте осуществления она проходит лишь в пределах центрального участка поля обзора 112. Таким образом, подобласть 514 облака точек определяется как кубический объем, представленный в системе координат x, y, z, обо- 8 045770 значенной номером 600, и проходящий между координатами x1,y1,z1 и x2,y2,z2. Размер указанного кубического объема может быть установлен в виде доли, такой как 1/3 или 1/4, поля обзора 112. Если координаты x и y точки не находятся внутри подобласти 514 облака точек и это определено в блоке 512, то управляют встроенным процессором 204 для перехода к блоку 508, в котором удаляют данную точку из данных в виде облака точек. Затем блок 508 управляет встроенным процессором 204 для перехода к блоку 516. Если в блоке 512 определено, что координаты x и y точки находятся внутри подобласти 514 облака точек, то сохраняют данную точку в данных в виде облака точек и управляют встроенным процессором 204 для перехода к блоку 516. Блок 516 управляет встроенным процессором 204 для определения того, была ли обработана последняя координата в данных в виде облака точек. Если нет, то блок 516 управляет встроенным процессором 204 для перехода к блоку 510, который управляет встроенным процессором для считывания следующей высотной координаты и повторного прохождения блоков 502-516. Если в блоке 516 определено, что последняя координата в данных в виде облака точек была обработана, то управляют встроенным процессором 204 для перехода к блоку 518. Таким образом, блоки 504 и 512 предварительно обрабатывают данные в виде облака точек и обеспечивают эффект уменьшения количества точек с оставлением лишь точек, попадающих внутрь подобласти 514 облака точек, которая также в целом центрирована относительно арки 108 и камеры 110. Эта предварительная обработка существенно снижает количество координатных точек в данных в виде облака точек.Process 304 then continues at block 512, which controls microprocessor 204 to determine whether the x and y coordinate values fall within point cloud subregion 514. Referring again to FIG. 6, in which the point cloud subregion 514 is shown as an outline, and in this embodiment extends only within the central portion of the field of view 112. Thus, the point cloud subregion 514 is defined as a cubic volume represented in an x, y, z coordinate system. 8 045770 designated by number 600, and passing between the coordinates x1,y1,z1 and x2 , y2 ,z2. The size of said cubic volume may be set as a fraction, such as 1/3 or 1/4, of the field of view 112. If the x and y coordinates of the point are not within the point cloud subregion 514 and this is determined at block 512, then the embedded processor 204 is controlled. to proceed to block 508 where the point is removed from the point cloud data. Block 508 then controls embedded processor 204 to go to block 516. If block 512 determines that the x and y coordinates of a point are within point cloud subregion 514, it stores that point in the point cloud data and controls embedded processor 204 to go to block 516. Block 516 controls the embedded processor 204 to determine whether the last coordinate in the point cloud data has been processed. If not, block 516 controls the embedded processor 204 to move to block 510, which controls the embedded processor to read the next altitude coordinate and go through blocks 502-516 again. If it is determined at block 516 that the last coordinate in the point cloud data has been processed, the embedded processor 204 is controlled to proceed to block 518. Thus, blocks 504 and 512 pre-process the point cloud data and provide the effect of reducing the number of points with leaving only the points that fall within the point cloud subregion 514, which is also generally centered with respect to the arch 108 and camera 110. This preprocessing significantly reduces the number of coordinate points in the point cloud data.

Затем блок 518 управляет встроенным процессором 204 для вычисления плотности точек (PD) для оставшихся точек в данных в виде облака точек. Плотность точек может быть определена как количество координатных точек на единицу объема. Чтобы оценить PD для облака точек, могут использоваться различные виды аппроксимации, и функции для эффективной оценки PD в целом доступны и могут быть легко реализованы на встроенном процессоре 204. Затем блок 520 управляет встроенным процессором 204 для определения того, больше ли вычисленное значение PD порогового значения PD522. Например, пороговое значение PD522 может быть предварительно определено на основе типа проводимого анализа полезного груза. Пороговое значение PD522 может быть установлено ниже, если оно требуется лишь для выполнения обнаружения валуна, в то время как для полного анализа фрагментации может потребоваться более высокое пороговое значение PD.Block 518 then controls embedded processor 204 to calculate point density (PD) for the remaining points in the point cloud data. Point density can be defined as the number of coordinate points per unit volume. To estimate the PD for a point cloud, various types of approximation can be used, and functions for efficiently estimating the PD are generally available and can be easily implemented on the embedded processor 204. Block 520 then controls the embedded processor 204 to determine whether the calculated PD value is greater than a threshold value. PD522. For example, the PD522 threshold value may be predetermined based on the type of payload analysis being performed. The PD522 threshold may be set lower if it is only required to perform boulder detection, while a full fragmentation analysis may require a higher PD threshold.

Если вычисленное значение PD не больше порогового значения PD522, что определено в блоке 520, то управляют встроенным процессором 204 для перехода к блоку 524, где выбирают следующее полученное изображение, и управляют встроенным процессором для повторного прохождения блоков 500518. Если в блоке 520 определено, что вычисленное значение PD больше порогового значения PD522, то управляют встроенным процессором 204 для перехода к блоку 526. Блок 526 управляет встроенным процессором 204 для выбора изображения для дальнейшей передачи на удаленную процессорную схему 230 в блоке 306 процесса 300, показанного на фиг. 3. Затем процесс 304 продолжается в блоке 528, который управляет встроенным процессором 204 для прерывания обработки дальнейших изображений, пока не истечет период ожидания. В одном варианте осуществления период ожидания может быть выбран таким образом, чтобы предоставить транспортному средству 106 достаточно времени для выхода из поля обзора 112, и он может быть основан на ожидаемой скорости движения транспортного средства. Блок 528 обеспечивает эффект предотвращения обработки дополнительных изображений того же самого транспортного средства 106 после того, как изображение, соответствующее критерию пригодности, было выбрано и передано на удаленную процессорную схему 230. Если в пределах поля обзора 112 камеры 110 нет транспортного средства, то предварительная обработка в блоках 502-504 на основе минимальной ожидаемой высоты 506 приведет к очень низкому вычисленному значению PD для данных в виде облака точек вследствие исключения координат на уровне земных поверхностей 402. Хотя в данном варианте осуществления для дальнейшей обработки может быть выбрано лишь одно изображение, имеющее достаточную плотность точек, в других вариантах осуществления для целей дальнейшей обработки может быть передано более чем одно изображение.If the calculated PD value is not greater than the threshold PD522, as determined at block 520, then the embedded processor 204 is controlled to move to block 524, where the next acquired image is selected, and the embedded processor is controlled to retrace the blocks 500518. If it is determined at block 520 that the calculated PD value is greater than the threshold value PD522, then the embedded processor 204 is controlled to proceed to block 526. Block 526 controls the embedded processor 204 to select an image for further transmission to the remote processor circuit 230 in block 306 of the process 300 shown in FIG. 3. Process 304 then continues to block 528, which controls the embedded processor 204 to interrupt processing of further images until the timeout period has expired. In one embodiment, the waiting period may be selected to provide sufficient time for vehicle 106 to exit field of view 112 and may be based on the expected speed of the vehicle. Block 528 has the effect of preventing additional images of the same vehicle 106 from being processed after an image meeting the eligibility criterion has been selected and transmitted to remote processing circuitry 230. If there is no vehicle within the field of view 112 of camera 110, then pre-processing at blocks 502-504 based on the minimum expected height 506 will result in a very low calculated PD value for the point cloud data due to the exclusion of ground level coordinates 402. Although in this embodiment, only one image having sufficient density can be selected for further processing points, in other embodiments more than one image may be transmitted for further processing purposes.

В варианте осуществления, описанном выше, камера 110 выполнена с возможностью получения первого и второго изображений с помощью двух физически расположенных на удалении друг от друга датчиков 130 и 132 изображения, а в других вариантах осуществления камера может иметь один датчик изображения. В таких вариантах осуществления указанный один датчик изображения может быть выполнен с возможностью получения первого и второго изображений, отстоящих друг от друга во времени. Таким образом, движение транспортного средства 106 при пересечении поля обзора 112 будет обеспечивать изображения с двух разных перспективных точек обзора, которые (изображения) могут использоваться для создания трехмерного облака точек.In the embodiment described above, camera 110 is configured to acquire first and second images using two physically spaced image sensors 130 and 132, and in other embodiments, the camera may have a single image sensor. In such embodiments, said single image sensor may be configured to obtain first and second images spaced apart in time. Thus, the movement of the vehicle 106 as it traverses the field of view 112 will provide images from two different perspective viewpoints, which can be used to create a three-dimensional point cloud.

Стереоскопические процессы для генерирования трехмерных данных зависят от текстуры, что содействует идентификации точек для определения несоответствия между изображениями. Таким образом, плотность трехмерного облака точек является удобным представлением текстуры полученного изображения. Таким образом, будет иметь место существенное отличие плотности облака точек, если в пределах поля обзора 112 транспортное средство отсутствует, что содействует оценке критерия пригодности на основе плотности облака точек. Альтернативные способы генерирования трехмерного облака точек могут быть менее зависимы от текстуры и, таким образом, менее чувствительны к тому, присутствует лиStereoscopic processes for generating 3D data rely on texture to facilitate point identification to determine disparity between images. Thus, the density of a 3D point cloud is a useful representation of the texture of the resulting image. Thus, there will be a significant difference in the density of the point cloud if there is no vehicle within the field of view 112, which facilitates the evaluation of the fitness criterion based on the density of the point cloud. Alternative methods for generating a 3D point cloud may be less dependent on texture and thus less sensitive to whether

- 9 045770 транспортное средство в пределах поля обзора 112. В этом случае может использоваться предварительное знание геометрии ожидаемых транспортных средств для определения того, соответствует ли полученное изображение критерию пригодности. Например, двумерная горизонтальная плоскость, проведенная через трехмерное облако точек на достаточной высоте над землей, должна обеспечивать выделение признаков, которые показывают типовое соотношение сторон карьерного самосвала. Таким образом обеспечивается возможность достаточно быстрой обработки изображений для определения того, присутствует ли типовая геометрия транспортного средства в пределах поля обзора 112, и для определения того, представляет ли транспортное средство интерес, или оно является транспортным средством другого типа, таким как малолитражный грузовой автомобиль.- 9 045770 vehicle within field of view 112. In this case, prior knowledge of the geometry of the expected vehicles can be used to determine whether the resulting image meets the suitability criterion. For example, a two-dimensional horizontal plane drawn through a three-dimensional point cloud at a sufficient height above the ground should provide features that indicate the typical aspect ratio of a mining truck. This allows the images to be processed quickly enough to determine whether typical vehicle geometry is present within the field of view 112 and to determine whether the vehicle is of interest or is another type of vehicle, such as a light truck.

Вариант осуществления процесса 300 получения изображений, описанный выше, приводит к выбору одного изображения, соответствующего критерию пригодности. В других вариантах осуществления встроенный процессор 204 камеры 110 может быть функционально выполнен с возможностью выбора нескольких изображений из последовательно полученных изображений, которые соответствуют критерию пригодности, причем каждое выбранное изображение обеспечивает отличный от других вид полезного груза 102. Таким образом, блок 306 процесса 300 может обеспечивать передачу данных изображения для нескольких выбранных изображений транспортного средства 106 на удаленную процессорную схему 230 для дальнейшей обработки. Если доступно несколько подходящих в целом изображений, то может быть реализована дополнительная обработка для очистки изображений для удаления затемнений или других дефектов качества изображений. Дальнейшая обработка может предусматривать использование множества выбранных изображений для генерирования интересующей области полезного груза и/или для анализа полезного груза, при котором агрегируют или иным образом объединяет данные от более чем одного изображения для генерирования результатов с повышенным уровнем точности или достоверности.The embodiment of the image acquisition process 300 described above results in the selection of one image that meets the suitability criterion. In other embodiments, the embedded processor 204 of the camera 110 may be operative to select multiple images from sequentially acquired images that meet a suitability criterion, with each selected image providing a different view of the payload 102. Thus, block 306 of process 300 may provide transmitting image data for a plurality of selected images of the vehicle 106 to the remote processing circuit 230 for further processing. If several generally suitable images are available, additional processing may be implemented to clean up the images to remove shadows or other image quality defects. Further processing may involve using multiple selected images to generate a payload region of interest and/or payload analysis that aggregates or otherwise combines data from more than one image to generate results with an increased level of accuracy or confidence.

Хотя варианты осуществления, описанные выше, используют стереоскопические технологии обработки изображений для генерирования данных в виде трехмерного облака точек на основе двумерных изображений, в других вариантах осуществления данные в виде трехмерного облака точек могут генерироваться с использованием других технологий, таких как LIDAR (Light Detection and Ranging, обнаружение и определение дальности с помощью света), времяпролетная камера, сканирующий лазер и т.д. Например, может быть применен датчик LIDAR для получения данных в виде трехмерного облака точек в пределах поле обзора 112. Датчик LIDAR может быть объединен с двумерной камерой, которая обеспечивает данные двумерного изображения для идентификации интересующей области.Although the embodiments described above use stereoscopic image processing technologies to generate 3D point cloud data from 2D images, in other embodiments 3D point cloud data may be generated using other technologies such as LIDAR (Light Detection and Ranging). , detection and ranging using light), time-of-flight camera, scanning laser, etc. For example, a LIDAR sensor may be used to obtain three-dimensional point cloud data within the field of view 112. The LIDAR sensor may be combined with a two-dimensional camera that provides two-dimensional image data to identify an area of interest.

Пример процесса для реализации блока 334, относящегося к процессу 330 для идентификации интересующей области, показан на фиг. 7. Как описано выше, датчики 130 и 132 изображения в камере 110 получают первое и второе двумерные изображения, и встроенный процессор 204 дополнительно генерирует данные в виде трехмерного облака точек на основе указанных первого и второго изображений. В блоке 306 процесса 300 получения изображений, при передаче изображения для дальнейшей обработки, по меньшей мере одно из первого и второго двумерных изображений может быть передано на удаленную процессорную схему 230, где данные записываются в устройство 240 большой емкости для хранения данных. В некоторых вариантах осуществления данные в виде облака точек могут быть удалены встроенным процессором 204 после завершения процесса 304 по фиг. 5 и передачи первого и второго двумерных изображений на удаленную процессорную схему 230. В случае датчиков 130 и 132 изображения с высокой плотностью (high density, HD) двумерные изображения могут передаваться в разрешении full HD, включая цветовую информацию. Обычно оба из первого и второго двумерных изображений передаются и записываются в устройство 240 большой емкости для хранения данных. Хотя дальнейшая обработка, выполняемая удаленной процессорной схемой 230, может потребовать трехмерной информации, обработка, связанная с генерированием данных в виде трехмерного облака точек на основе первого и второго двумерных изображений высокой плотности, как ожидается, не приведет к значительным издержкам по сравнению с указанной дальнейшей обработкой. Соответственно, трехмерное облако точек может быть регенерировано удаленной процессорной схемой 230 на основе первого и второго двумерных изображений. В других вариантах осуществления данные в виде облака точек, генерируемые встроенным процессором 204, могут быть сохранены и переданы на удаленную процессорную схему 230 . В варианте осуществления, в котором дальнейшая обработка выполняется встроенным процессором 204, данные в виде облака точек могут быть сохранены для дальнейшей обработки встроенным процессором.An example process for implementing block 334 related to process 330 for identifying a region of interest is shown in FIG. 7. As described above, image sensors 130 and 132 in camera 110 acquire first and second two-dimensional images, and embedded processor 204 further generates three-dimensional point cloud data based on said first and second images. At block 306 of the image acquisition process 300, when transmitting an image for further processing, at least one of the first and second two-dimensional images may be transmitted to the remote processing circuit 230, where the data is written to the mass storage device 240. In some embodiments, the point cloud data may be deleted by the embedded processor 204 after process 304 of FIG. 5 and transmitting the first and second two-dimensional images to remote processing circuitry 230. In the case of high density (HD) image sensors 130 and 132, the two-dimensional images may be transmitted in full HD resolution, including color information. Typically, both of the first and second two-dimensional images are transmitted and recorded in the mass storage device 240. Although further processing performed by remote processor circuit 230 may require 3D information, the processing associated with generating 3D point cloud data from the first and second high-density 2D images is not expected to incur significant overhead relative to such further processing. . Accordingly, the three-dimensional point cloud can be regenerated by the remote processing circuit 230 based on the first and second two-dimensional images. In other embodiments, point cloud data generated by embedded processor 204 may be stored and transmitted to remote processor circuitry 230. In an embodiment in which further processing is performed by the embedded processor 204, the point cloud data may be stored for further processing by the embedded processor.

Процесс 334 начинают с блока 700, который управляет микропроцессором 232 удаленной процессорной схемы 230 для выбора одного из двумерных изображений для обработки с целью идентификации интересующей области полезного груза. Затем блок 702 управляет микропроцессором 232 для предварительной обработки данных двумерного изображения. Предварительная обработка в блоке 702 может включать в себя одну или более необязательно реализуемых функций обработки изображения. Например, данные двумерного изображения могут быть очищены для компенсации искажений изображения, создаваемых съемочной оптикой, связанной с датчиками 130 и 132 изображения. При визуализации в большом поле обзора 112 геометрические искажения вследствие несовершенств и погрешностей выравнивания съемочной оптики проникают в данные изображения и могут быть компенсированы путем вне- 10 045770 сения корректировок в данные изображения. Доступны различные модели для коррекции общих искажений, которые могут быть реализованы для очистки данных изображения на основе параметров оптики для получения изображения или других калибровочных данных, определенных во время изготовления.Process 334 begins with block 700, which controls microprocessor 232 of remote processing circuit 230 to select one of the two-dimensional images for processing to identify a payload region of interest. Block 702 then controls microprocessor 232 to preprocess the two-dimensional image data. The preprocessing at block 702 may include one or more optional image processing functions. For example, the two-dimensional image data may be cleaned to compensate for image distortion created by the imaging optics associated with the image sensors 130 and 132. When imaging over a large field of view 112, geometric distortions due to imperfections and alignment errors of the imaging optics permeate the image data and can be compensated for by making adjustments to the image data. Various models are available for general distortion correction that can be implemented to clean up image data based on the parameters of the imaging optics or other calibration data determined during manufacturing.

В некоторых вариантах осуществления данные двумерного изображения могут быть прорежены для генерирования меньшего файла данных изображения для идентификации интересующей области полезного груза. Уменьшение разрешения данных изображения обеспечивает возможность содействия более быстрой обработке по сравнению с файлом данных изображения с разрешением Full HD. В одном варианте осуществления изображение высокой плотности может быть уменьшено до четверти его исходного размера с целью идентификации интересующей области.In some embodiments, the two-dimensional image data may be decimated to generate a smaller image data file to identify a payload region of interest. Reducing the resolution of the image data provides the ability to facilitate faster processing compared to a Full HD resolution image data file. In one embodiment, the high-density image may be reduced to a quarter of its original size for the purpose of identifying a region of interest.

Затем блок 704 управляет микропроцессором 232 для обработки двумерного изображения для идентификации интересующей области полезного груза с использованием обученной нейронной сети. В некоторых вариантах осуществления нейронная сеть может быть обучена с использованием набора маркированных обучающих изображений. Набор изображений может включать в себя изображения, на которых репрезентативные транспортные средства, репрезентативные грузовые контейнеры и репрезентативные полезные грузы 102 могут быть идентифицированы с помощью маркированных границ внутри соответствующих изображений. На некоторых из обучающих изображений грузовой контейнер может не нести полезный груз, и таким образом, полезный груз не будет идентифицирована с помощью маркированной границы. Если на месте 126 работ работают транспортные средства нескольких разных типов, имеющие грузовые контейнеры, то могут быть включены подходящие маркированные изображения для обучения нейронной сети таким образом, чтобы она была способна делать общие выводы для обеспечения возможности идентификации разных транспортных средств.Block 704 then controls microprocessor 232 to process the two-dimensional image to identify a payload region of interest using the trained neural network. In some embodiments, the neural network may be trained using a set of labeled training images. The set of images may include images in which representative vehicles, representative cargo containers, and representative payloads 102 can be identified by labeled boundaries within the respective images. In some of the training images, the cargo container may not be carrying a payload, and thus the payload will not be identified by the marked boundary. If several different types of vehicles containing cargo containers are operating at a 126 work site, then suitable labeled images can be included to train the neural network so that it is able to make general inferences to enable the identification of different vehicles.

Обучение нейронной сети может проводиться в контролируемом процессе обучения, выполняемом перед развертыванием системы 200 на месте 126 работ. Таким образом, набор маркированных обучающих изображений может быть предварительно маркирован оператором-человеком и использован в обучающих мероприятиях. Оператор-человек также может определять параметры управления для обучения нейронной сети, которые могут регулироваться для оптимизации производительности нейронной сети. Обученная нейронная сеть может быть определена набором 706 данных, который устанавливает архитектуру нейронной сети и определяет соответствующие параметры и/или весовые значения, которые конфигурируют архитектуру для выполнения функции идентификации интересующей области полезного груза.Training of the neural network may be conducted in a supervised training process performed prior to deployment of the system 200 at the site 126. In this way, a set of labeled training images can be pre-labeled by a human operator and used in training activities. The human operator can also define control parameters for training the neural network, which can be adjusted to optimize the performance of the neural network. The trained neural network may be defined by a data set 706 that establishes the neural network architecture and defines appropriate parameters and/or weights that configure the architecture to perform the function of identifying a payload region of interest.

Таким образом, блок 704 управляет микропроцессором 232 для приема предварительно обработанных данных двумерного изображения и генерирования выходных данных для идентификации интересующей области на основе указанного набора 706 данных о нейронной сети. В одном варианте осуществления выходные данные могут представлять собой набор масок или ограничительных областей, как показано на фиг. 8. Как показано на фигуре 8, изображение 800, имеющее транспортное средство 106 в поле обзора 112, имеет ограничивающую коробку 802 транспортного средства, ограничивающую коробку 804 контейнера для переноса груза и маску 806 полезной нагрузки, при этом каждая из них указана на изображении сломанными линиями. Ограничительная рамка 802 транспортного средства идентифицирует изображение 800 как содержащее транспортное средство с уровнем достоверности 0,99 (т.е. 99%). Ограничительная рамка 804 грузового контейнера идентифицирует границы, связанные с грузовым контейнером, с тем же уровнем достоверности 0.99. И наконец, маска 806 полезного груза идентифицирует интересующую область полезного груза с уровнем достоверности 0.92. Ограничительные рамки 802 и 804, создаваемые нейронной сетью, могут быть образованы граничными пикселями, демаркирующими данные области внутри прореженного изображения.Thus, block 704 controls microprocessor 232 to receive pre-processed two-dimensional image data and generate output for identifying a region of interest based on said neural network data set 706. In one embodiment, the output may be a set of masks or bounding regions, as shown in FIG. 8. As shown in Figure 8, an image 800 having a vehicle 106 in the field of view 112 has a vehicle bounding box 802, a cargo container bounding box 804, and a payload mask 806, each indicated in the image by broken lines. . The vehicle bounding box 802 identifies the image 800 as containing a vehicle with a confidence level of 0.99 (ie, 99%). The cargo container bounding box 804 identifies boundaries associated with the cargo container with the same confidence level of 0.99. Finally, payload mask 806 identifies the payload region of interest with a confidence level of 0.92. The bounding boxes 802 and 804 generated by the neural network may be formed by boundary pixels demarcating given regions within the decimated image.

Затем процесс 324 продолжается в блоке 708, который управляет микропроцессором 232 для определения того, соответствуют ли идентифицированные маски критериям дальнейшей обработки. Например, для каждой из ограничительных рамок 802 и 804 могут быть установлены пороговые уровни достоверности. Если уровень достоверности, связанный с ограничительной рамкой 802 транспортного средства, ниже порогового значения (например, 0.85), то изображение может не быть изображением грузового транспортного средства, или оно может вообще не содержать транспортное средство, так что выбор и передача с помощью камеры 110 могли быть ошибочными. Аналогичным образом, если ограничительная рамка 802 транспортного средства имеет высокий соответствующий уровень достоверности, но при этом ограничительная рамка 804 контейнера не соответствует пороговому уровню достоверности, то могут возникнуть проблемы с изображением, которые будут препятствовать успешной дальнейшей обработке. Дополнительные критерии обработки также могут включать в себя логические определения, которые используются для предотвращения обработки неподходящих полученных изображений. Например, если ограничительная рамка 804 грузового контейнера расположена снаружи или частично снаружи ограничительной рамки 802 транспортного средства, то это может указывать на неподходящее изображение, которое при его дальнейшей обработке может привести к ошибочным результатам. Аналогичным образом, если маска 806 полезного груза расположена снаружи или частично снаружи ограничительной рамки 804 грузового контейнера, то это также может указывать на неподходящее изображение.Process 324 then continues to block 708, which controls microprocessor 232 to determine whether the identified masks meet the criteria for further processing. For example, confidence threshold levels may be set for each of the bounding boxes 802 and 804. If the confidence level associated with the vehicle bounding box 802 is below a threshold (eg, 0.85), then the image may not be an image of a truck, or it may not contain a vehicle at all, so that selection and transmission by camera 110 could be wrong. Likewise, if the vehicle bounding box 802 has a high corresponding confidence level, but the container bounding box 804 does not meet the threshold confidence level, then image problems may arise that will prevent successful further processing. Additional processing criteria may also include logical definitions that are used to prevent processing of inappropriate acquired images. For example, if the cargo container bounding box 804 is positioned outside or partially outside the vehicle bounding box 802, this may indicate an inappropriate image that may lead to erroneous results if further processed. Likewise, if the payload mask 806 is positioned outside or partially outside the cargo container bounding box 804, this may also indicate an inappropriate image.

Если в блоке 708 определено несоответствие установленным пороговым уровням достоверности, тоIf a failure to meet the established confidence thresholds is determined at block 708, then

- 11 045770 управляют микропроцессором 232 для перехода к блоку 710, где выбранное изображение маркируют как непригодное для дальнейшей обработки. Блок 710 может управлять микропроцессором 232 для маркировки соответствующих данных в виде двумерного и трехмерного облака точек в устройстве 240 большой емкости для хранения данных, так что обеспечивается возможность удаления этих данных.- 11 045770 controls the microprocessor 232 to move to block 710, where the selected image is marked as unsuitable for further processing. Block 710 may control microprocessor 232 to mark corresponding 2D and 3D point cloud data in mass storage device 240 so that the data can be deleted.

Если в блоке 708 определено соответствие установленным пороговым значениям уровня достоверности, то управляют микропроцессором 232 для перехода к блоку 712. Блок 712 управляет микропроцессором 232 для выполнения постобработки данных изображения внутри интересующей области. Постобработка может включать в себя обработку данных изображения для усиления затененных областей, которые образуются вследствие того, что стороны грузового контейнера 104 затеняют некоторые участки полезного груза 102. Например, может быть реализовано манипулирование цветовой интенсивностью с помощью нейронной сети для обеспечения более четких входных данных для анализа полезного груза. В тех вариантах осуществления, в которых маска 806 полезного груза установлена на основе данных изображения, которые были прорежены в блоке 702, постобработка может выполняться на основе исходных выбранных данных изображения высокой плотности, сохраненных в устройстве 240 большой емкости для хранения данных. Таким образом, постобработка будет включать в себя первое сопоставление граничных пикселей маски 806 полезного груза, определенных для разреженного изображения, с пикселями исходного изображения с высокой оптической плотностью перед выполнением обработки изображения.If the set confidence thresholds are determined to be met at block 708, microprocessor 232 is controlled to proceed to block 712. Block 712 controls microprocessor 232 to perform post-processing of the image data within the region of interest. Post-processing may include processing the image data to enhance shadowed areas that are caused by the sides of the cargo container 104 obscuring some portions of the payload 102. For example, color intensity manipulation may be implemented using a neural network to provide clearer input data for analysis. payload. In those embodiments in which the payload mask 806 is set based on the image data that has been thinned out in block 702, post-processing may be performed based on the original selected high-density image data stored in the mass storage device 240. Thus, post-processing will include first mapping the boundary pixels of the payload mask 806 defined for the sparse image to the pixels of the original high optical density image before performing image processing.

Затем блок 714 управляет микропроцессором 232 для выполнения анализа полезного груза на данных изображений, прошедших постобработку. В одном варианте осуществления микропроцессор 232 может быть функционально выполнен с возможностью проведения анализа полезного груза путем проведения анализа сегментации в интересующей области 806 полезного груза для определения размеров отличимых частей полезного груза. Например, анализ полезного груза может включать в себя проведение анализа фрагментации на полезном грузе, как описано в совместной патентной заявке № 15/752430, авторы Tafazoli Bilandi и др., под названием Способ и устройство для идентификации фрагментированных частей материала внутри изображения, которая включена в настоящий документ посредством ссылки во всей своей полноте.Block 714 then controls microprocessor 232 to perform payload analysis on the post-processed image data. In one embodiment, microprocessor 232 may be operative to perform payload analysis by performing segmentation analysis on a payload region of interest 806 to determine the dimensions of distinguishable portions of the payload. For example, payload analysis may include performing a fragmentation analysis on the payload, as described in Cooperative Patent Application No. 15/752430 by Tafazoli Bilandi et al., entitled Method and Apparatus for Identifying Fragmented Pieces of Material within an Image, which is included in this document by reference in its entirety.

Обратимся к фиг. 9, на котором пример результата анализа фрагментации внутри идентифицированной маски 806 для полезного груза, показанной на фиг. 8, показан под номером 900. В целом, анализ фрагментации, выполняемый согласно способам, раскрытым в заявке 15/752430, включает обработку пиксельных данных с использованием сверточной нейронной сети, которая (обработка) показывает, расположены ли пиксели на кромке фрагментированной части материала, внутри от кромки фрагментированной части материала или в промежутках между фрагментированными частями материала. В некоторых раскрытых вариантах осуществления определение выполняют по меньшей мере частично на основе информации о двумерных и трехмерных несоответствиях. Полученная в результате этого классификация пикселей затем может быть дополнительно обработана для привязки идентифицированных кромок к фрагментированным частям материала и для обеспечения масштабирования размеров фрагментов.Referring to FIG. 9, which is an example of a fragmentation analysis result within the identified payload mask 806 shown in FIG. 8 is shown at 900. In general, fragmentation analysis performed according to the methods disclosed in application 15/752430 involves processing pixel data using a convolutional neural network, which (processing) indicates whether pixels are located on the edge of the fragmented part of the material, inside from the edge of a fragmented piece of material or in spaces between fragmented pieces of material. In some disclosed embodiments, the determination is made at least in part based on information about two-dimensional and three-dimensional disparities. The resulting pixel classification can then be further processed to associate identified edges with fragmented parts of the material and provide scaling of fragment sizes.

Обратимся вновь к фиг. 7, согласно которому, после проведения анализа полезного груза в блоке 714 процесс 324 продолжается в блоке 716, который управляет микропроцессором 232 для определения того, имеет ли место соответствие критерию предупреждения. В примере, показанном на фиг. 9, идентифицированный фрагмент 902 мог быть идентифицирован как валун, размер которого превышает пороговый размер руды для обработки в другом оборудовании на месте работ. Если в блоке 716 определено соответствие критерию предупреждения, то управляют микропроцессором 232 для перехода к блоку 718. Блок 718 управляет микропроцессором 232 для передачи предупреждающего сообщения на процессорную схему 250 через сеть 220, показанную на фиг. 2. Предупреждающее сообщение, при его приеме интерфейсом 258 связи процессорной схемы 250, обеспечивает генерирование микропроцессором 252 сигнала предупреждения в оперативном центре места 126 работ. Процессорная схема 250 функционально выполнена с возможностью инициирования генерирования сигнализатором либо звукового предупреждения через громкоговорящий сигнализатор 264, либо визуального предупреждения через дисплей 262 для предупреждения оператора о наличии валуна в полезном грузе транспортного средства.Referring again to FIG. 7, whereby after the payload has been analyzed at block 714, process 324 continues at block 716, which controls microprocessor 232 to determine whether the warning criterion has been met. In the example shown in FIG. 9, identified fragment 902 could be identified as a boulder whose size exceeds the threshold size of ore for processing in other equipment on site. If the warning criterion is determined to be met at block 716, microprocessor 232 is controlled to proceed to block 718. Block 718 controls microprocessor 232 to transmit the warning message to processor circuit 250 via network 220 shown in FIG. 2. The warning message, when received by the communication interface 258 of the processor circuit 250, causes the microprocessor 252 to generate a warning signal at the operation center of the work site 126. The processor circuit 250 is operatively configured to cause the alarm to generate either an audible warning through the loudspeaker 264 or a visual warning through the display 262 to alert the operator to the presence of a boulder in the payload of the vehicle.

Если в блоке 716 определено несоответствие критерию предупреждения, то управляют микропроцессором 232 для перехода к блоку 720. Блок 720 управляет микропроцессором 232 для выполнения, в случае необходимости, надлежащих этапов для отображения или передачи результатов анализа полезного груза. Например, записи с результатами анализа фрагментации полезного груза могут быть сохранены для последующего доступа к ним горных инженеров на месте 126 работ для использования при принятии решений по горным работам. Результаты могут указывать, например, на то, что добываемая в настоящее время руда не является оптимальной, и что горные инженеры могут перебросить горнодобывающие ресурсы в другой забой.If a failure to meet the warning criterion is determined at block 716, microprocessor 232 is controlled to proceed to block 720. Block 720 controls microprocessor 232 to perform, as necessary, appropriate steps for displaying or transmitting payload analysis results. For example, payload fragmentation analysis records can be stored for later access by mining engineers on site 126 for use in making mining decisions. The results may indicate, for example, that the ore currently being mined is not optimal and that mining engineers may be moving mining resources to another stope.

Обратимся к фиг. 10, на котором архитектура нейронной сети для идентификации интересующей области полезного груза показана в виде блок-схемы под номером 1000. Блоки представляют функции, реализуемые посредством блоков кодов, которые управляют микропроцессором 232 для выполнения задач обработки для идентификации интересующей области полезного груза. Реализация нейронной сети основана на архитектуре, предложенной в публикации Mask R-CNN, авторы Kaiming H. и др., 2017,Referring to FIG. 10, in which a neural network architecture for identifying a payload region of interest is shown as a block diagram at 1000. The blocks represent functions implemented by code blocks that control the microprocessor 232 to perform processing tasks for identifying a payload region of interest. The implementation of the neural network is based on the architecture proposed in the publication Mask R-CNN, authors Kaiming H. et al., 2017,

- 12 045770 которая включена в настоящий документ посредством ссылки во всей своей полноте. Архитектура Mask R-CNN может быть реализована для эффективного обнаружения объектов на изображении при одновременном генерировании маски сегментации для каждого экземпляра объекта. Данная сквозная архитектура представляет собой многоступенчатую нейронную сеть с множеством голов, которая обеспечивает прогнозы для множества экземпляров объектных типов, их ограничительных рамок и соответствующих масок или границ.- 12 045770 which is incorporated herein by reference in its entirety. The Mask R-CNN architecture can be implemented to efficiently detect objects in an image while simultaneously generating a segmentation mask for each object instance. This end-to-end architecture is a multi-stage, multi-head neural network that provides predictions for multiple instances of object types, their bounding boxes, and corresponding masks or boundaries.

Нейронная сеть 1000 содержит четырехуровневую пирамидальную сеть признаков (feature pyramid network, FPN), такую как описанная в публикации Пирамидальные сети признаков для обнаружения объектов, авторы Tsung-Yi Lin и др., 2017, которая включена в данный документ посредством ссылки во всей своей полноте. Пирамидальная сеть признаков показана обобщенно в виде блоков 1006 и 1010, и данные предварительно обработанных изображений 1002 подаются на вход 1004 остаточной нейронной сети (residual neural network, ResNet) 1006, входящей в состав пирамидальной сети признаков. Остаточная нейронная сеть 1006 генерирует признаки с использованием магистральной сети, такой как остаточная нейронная сеть 101, описанная в публикации Глубокое остаточное обучение для распознавания изображений, авторы Kaiming He и др., 2015. Магистральные сети, предварительно обученные по общедоступным массивам данных естественных изображений, таким как ImageNet, способны классифицировать изображения по категориям объектов.The neural network 1000 includes a four-layer feature pyramid network (FPN), such as that described in Feature Pyramid Networks for Object Detection by Tsung-Yi Lin et al., 2017, which is incorporated herein by reference in its entirety. . The pyramidal feature network is shown summarized in blocks 1006 and 1010, and the preprocessed image data 1002 is provided as an input 1004 to the residual neural network (ResNet) 1006 of the pyramidal feature network. The residual neural network 1006 generates features using a backbone network, such as the residual neural network 101 described in Deep Residual Learning for Image Recognition by Kaiming He et al., 2015. Backbone networks are pretrained on publicly available natural image datasets such as like ImageNet, are capable of classifying images into object categories.

Данные с выходов 1008 остаточной нейронной сети 1006 подаются на блок 1010 пирамидальной сети признаков, который генерирует данные на множестве выходов 1012, находящиеся в диапазоне от низкоуровневых признаков с высокой детализацией до высокоуровневых семантических представлений входного изображения 1002. Блок 1010 пирамидальной сети признаков объединяет восходящие и нисходящие карты признаков, принимаемые из остаточной нейронной сети 1006, и генерирует расширенные карты признаков на выходах 1012. Данные с выходов 1012 могут дополнительно использоваться в нейронной сети 1000 для локализации и сегментации интересующих объектов.Data from the outputs 1008 of the residual neural network 1006 are fed to a feature pyramidal network block 1010, which generates data on a plurality of outputs 1012 ranging from low-level, highly granular features to high-level semantic representations of the input image 1002. The feature pyramidal network block 1010 combines bottom-up and top-down feature maps are received from the residual neural network 1006 and generates enhanced feature maps at outputs 1012. Data from outputs 1012 may be further used by neural network 1000 to localize and segment objects of interest.

Для каждого из нисходящих путей пирамидальной сети 1010 признаков облегченная сеть 1014 региональных предложений (region proposal network, RPN) находит те области в картах признаков, сгенерированных с помощью пирамидальной сети 1010 признаков, в которых потенциально присутствует один интересующий объект. Сеть 1014 региональных предложений ранжирует набор якорей по каждому местоположению в пределах каждого уровня пирамиды карты признаков. На каждом уровне для выбора некоторых местоположений используется фиксированный шаг, и для каждого местоположения определяется набор якорей. Каждый набор якорей включает в себя горизонтальные и вертикальные рамки в разных масштабах (обычно три масштаба, каждый с тремя якорями). Чтобы сопоставить эти области с соответствующим местом на исходном изображении, предварительно определяют указанный набор якорей. Предсказанные области присваивают эталонным якорям на основе перекрытия между парой якорей и областями. Предложения фильтруют по их рангу, максимальным ожидаемым областям и перекрытию с эталоном с использованием подхода подавления не-максимумов (non-maximum suppression, NMS). Остальные области должны быть преобразованы к фиксированному размеру таким образом, чтобы к указанному набору признаков могли быть присоединены множество голов сети. Для сбора всех областей на основе их оценки используется процесс 1016 выравнивания интересующих областей (region of interest align, ROI align). Подход с выравниванием интересующих областей будет обеспечивать генерирование выходных данных фиксированного размера, в которых каждый пиксель генерируется посредством выборки внутри области карты признаков, которая соответствует данному выходному пикселю. Все выборочные точки усредняют, и полученное среднее значение будет присвоено выходному пикселю.For each of the downstream paths of the feature pyramid network 1010, a lightweight region proposal network (RPN) 1014 finds those regions in the feature maps generated by the feature pyramid network 1010 that potentially contain a single feature of interest. A network of 1014 regional proposals ranks a set of anchors for each location within each level of the feature map pyramid. At each level, a fixed step is used to select some locations, and a set of anchors is defined for each location. Each anchor set includes horizontal and vertical frames at different scales (usually three scales, each with three anchors). To map these regions to the corresponding location in the original image, a specified set of anchors is first defined. Predicted regions are assigned to reference anchors based on the overlap between a pair of anchors and regions. Proposals are filtered by their rank, maximum expected regions, and overlap with the reference using a non-maximum suppression (NMS) approach. The remaining regions must be converted to a fixed size such that multiple network heads can be attached to the specified set of features. A region of interest align (ROI align) process 1016 is used to collect all regions based on their scores. The region-of-interest alignment approach will generate a fixed-size output in which each pixel is generated by sampling within the region of the feature map that corresponds to that output pixel. All sample points are averaged and the resulting average value will be assigned to the output pixel.

В зависимости от размера предложений, одна из карт признаков, сгенерированных на выходах 1012 с помощью пирамидальной сети 1010 признаков, представляет собой диапазон размеров объектов, которые будут использоваться для выравнивания интересующих областей. Данные с выходов 1016 подают в полностью присоединенный слой или на головной блок 1018 рамок для генерирования вектора признаков определенного размера для каждой из областей. Этот список векторов используют в двух ответвлениях для генерирования вероятности 1020 принадлежности классу и координат 1022 ограничительных рамок для каждой области. Выходные данные процесса 1016 выравнивания интересующей области и полученные результаты 1020, 1022 дополнительно обрабатывают по каждому классу для генерирования окончательных результатов 1024 обнаружения для каждого класса. В этом процессе отфильтровывают предложения на основе оценок вероятности и вычисляют подавление не-максимумов (non-maximum suppression, NMS) для каждого класса, причем подавление не-максимумов используют для обеспечения идентификации конкретного объекта лишь один раз.Depending on the size of the proposals, one of the feature maps generated at the outputs 1012 by the feature pyramid network 1010 represents a range of feature sizes that will be used to align regions of interest. Data from the outputs 1016 is fed to the fully connected layer or frame head 1018 to generate a feature vector of a certain size for each of the regions. This list of vectors is used in two branches to generate class membership probability 1020 and bounding box coordinates 1022 for each region. The output of the region of interest alignment process 1016 and the resulting results 1020, 1022 are further processed on a per-class basis to generate final detection results 1024 for each class. This process filters proposals based on probability estimates and calculates non-maximum suppression (NMS) for each class, using non-maximum suppression to ensure identification of a particular object only once.

Выходные данные карты признаков на выходах 1012 пирамидальной сети 1010 признаков преобразуют в матрицу фиксированного размера согласно окончательным результатам обнаружения. Используют подход, схожий с процессом выравнивания интересующей области, и результаты передают на ряд сверточных слоев нейронной сети для регулирования количества выходных каналов. Затем ряд слоев обратной свертки осуществляют восстановление пространственной информации, и 1-D свертки сокращают количество каналов для приведения в соответствие с общим количеством классов (т.е. в данном случае классов полезного груза 102, который идентифицируют с помощью маски полезного груза 806).The output of the feature map at the outputs 1012 of the feature pyramid network 1010 is converted into a fixed-size matrix according to the final detection results. An approach similar to the region of interest alignment process is used, and the results are fed to a series of convolutional neural network layers to adjust the number of output channels. A series of deconvolution layers then recover the spatial information, and 1-D convolutions reduce the number of channels to match the total number of classes (ie, in this case, the payload classes 102, which are identified by the payload mask 806).

- 13 045770- 13 045770

Затем сгенерированные маски для каждого класса подвергают обратному изменению размеров для приведения в соответствие с размерами исходного изображения в блоке 1030. Каждая маска генерируется путем вырезания карт прогноза при 0.5.The generated masks for each class are then resized to match the dimensions of the original image at block 1030. Each mask is generated by clipping the prediction maps at 0.5.

Еще один вариант осуществления для реализации блока 714 анализа полезного груза на фиг. 7 описан более подробно со ссылкой на фиг. 11. Процесс, показанный на фиг. 11, может выполняться в качестве альтернативы или в дополнение к процессу фрагментации, описанному выше. Блок 1100 управляет микропроцессором 232 для определения размеров грузового контейнера 104 транспортного средства 106. В одном варианте осуществления размеры грузового контейнера 104 могут быть определены путем выполнения дополнительных этапов обработки, описанных выше, в то время, когда известно, что транспортное средство 106 имеет пустой грузовой контейнер 104 . В этом случае фактические размеры грузового контейнера могут быть определены на основе трехмерных координат, связанных с точками внутри маски 802 транспортного средства и маски 806, полезного груза, выбранных для определения внутренних размеров контейнера. Таким образом, определяемые размеры контейнера для транспортного средства 106 будут предварительно определены в некоторый момент времени и сохранены в базе 1102 данных о транспортных средствах. База 1102 данных о транспортных средствах может храниться в устройстве 240 большой емкости для хранения данных или в другом месте, имеющем связь с удаленной процессорной схемой 230 . Таким образом, в данном варианте осуществления блок 1100 управляет микропроцессором 232 для определения идентификатора 1104 транспортного средства, связанного с выбранным обрабатываемым изображением. Как указано выше, RFID-считыватель 122 устройства 100, показанного на фиг. 1, может использоваться для считывания идентификатора транспортного средства, связанного с выбранными изображениями, которые передаются камерой 110 на удаленную процессорную схему 230. Идентификатор 1104 транспортного средства затем используют для определения местоположения данных о размерах контейнера в базе 1102 данных о транспортных средствах.Another embodiment for implementing the payload analysis block 714 of FIG. 7 is described in more detail with reference to FIG. 11. The process shown in FIG. 11 may be performed as an alternative to or in addition to the fragmentation process described above. Block 1100 controls microprocessor 232 to determine the dimensions of the cargo container 104 of the vehicle 106. In one embodiment, the dimensions of the cargo container 104 may be determined by performing the additional processing steps described above while the vehicle 106 is known to have an empty cargo container. 104. In this case, the actual dimensions of the cargo container can be determined based on the three-dimensional coordinates associated with points inside the vehicle mask 802 and payload mask 806 selected to determine the interior dimensions of the container. Thus, the determined dimensions of the container for the vehicle 106 will be predetermined at some point in time and stored in the vehicle database 1102. The vehicle database 1102 may be stored in mass storage device 240 or other location in communication with remote processor circuitry 230 . Thus, in this embodiment, block 1100 controls microprocessor 232 to determine the vehicle identifier 1104 associated with the selected image being processed. As stated above, the RFID reader 122 of the device 100 shown in FIG. 1 may be used to read a vehicle identifier associated with selected images that are transmitted by camera 110 to remote processing circuitry 230. Vehicle identifier 1104 is then used to locate container size data in vehicle data database 1102.

В других вариантах осуществления значения для транспортных средств, используемых на рабочем месте 126, могут быть предварительно определены из технических характеристик транспортного средства или общепринято измерены и сохранены в базе данных 1102 транспортного средства, ссылающейся на идентификационные номера транспортных средств. Как описано выше, блок 1100 управляет микропроцессором 232 для определения идентификатора 1104 транспортного средства, и соответствующие размеры контейнера могут быть найдены в базе 1102 данных. В некоторых вариантах осуществления микропроцессор 232 может быть функционально выполнен с возможностью удаления изображений транспортного средства или с возможностью маркировки результатов как связанных с неидентифицированным транспортным средством в случае неудачи при идентификации транспортного средства.In other embodiments, values for vehicles used at work station 126 may be predetermined from vehicle specifications or conventionally measured and stored in a vehicle database 1102 referencing vehicle identification numbers. As described above, block 1100 controls microprocessor 232 to determine vehicle ID 1104, and corresponding container dimensions can be found in database 1102. In some embodiments, microprocessor 232 may be configured to remove images of a vehicle or to flag results as associated with an unidentified vehicle if identification of the vehicle fails.

После определения размеров грузового контейнера 104 транспортного средства 106, связанного с выбранным изображением, обрабатываемым в настоящий момент, управляют микропроцессором 232 для перехода к блоку 1106. Блок 1106 управляет микропроцессором 232 для определения высоты заполнения полезным грузом внутренней области контейнера 104 на основе трехмерных координат точек внутри интересующей области полезного груза (т.е. маски 806 полезного груза). Блок 1106 управляет микропроцессором 232 для выбора множества точек на двумерном изображении, которые лежат внутри маски 806 полезного груза, и для определения трехмерных координат для этих точек, которые обеспечивают определение соответствующих точек высоты заполнения полезным грузом. Это может включать в себя выбор координат на основе трехмерных данных в виде облака точек, которые соответствуют выбранному множеству точек. По существу, блок 1106 определяет распределение высоты груза внутри грузового контейнера 104.After determining the dimensions of the cargo container 104 of the vehicle 106 associated with the selected image currently being processed, the microprocessor 232 is controlled to proceed to block 1106. Block 1106 controls the microprocessor 232 to determine the height of the payload filling of the interior area of the container 104 based on the three-dimensional coordinates of the points inside payload region of interest (ie, payload mask 806). Block 1106 controls microprocessor 232 to select a plurality of points on a two-dimensional image that lie within the payload mask 806 and to determine three-dimensional coordinates for these points that enable the determination of corresponding payload fill height points. This may include selecting coordinates based on 3D point cloud data that correspond to a selected set of points. As such, block 1106 determines the cargo height distribution within the cargo container 104.

Затем блок 1108 управляет микропроцессором 323 для использования распределения высоты груза в пределах размеров грузового контейнера 104 для вычисления смещения груза от центральной линии, проходящей продольно через грузовой контейнер. Поперечное смещение груза может потенциально приводить к нестабильности транспортного средства 106. Продольные смещения груза менее проблематичны вследствие длины колесной базы транспортного средства в этом направлении. В одном варианте осуществления смещение груза может быть выражено в процентах от поперечного размера грузового контейнера 104 . Смещение груза может представлять интерес для оператора на месте 126 работ при обнаружении транспортных средств, которые имеют неравномерное распределение груза. В некоторых вариантах осуществления смещение нагрузки может быть связано с лопатой или другим тяжелым оборудованием, которое загружает транспортное средство 106, так что неравномерная нагрузка конкретных операторов может быть обнаружена и устранена. В показанном варианте осуществления процесса блок 1110 затем направляет микропроцессор 232 для определения того, является ли распределение нагрузки неравномерным (т.е. смещение нагрузки больше максимального предварительно определенного процента). При превышении максимального смещения груза блок 1110 управляет микропроцессором 232 для перехода к блоку 1112, где генерируют и обрабатывают сигнал предупреждения в целом так, как это описано выше. Если в блоке 1110 определено отсутствие превышения максимального смещения груза, то управляют микропроцессором 232 для перехода к блоку 1114.Block 1108 then controls microprocessor 323 to use the distribution of cargo heights within the dimensions of cargo container 104 to calculate the offset of the cargo from a center line extending longitudinally through the cargo container. Lateral movement of the load can potentially lead to instability of the vehicle 106. Longitudinal movement of the load is less problematic due to the length of the vehicle's wheelbase in that direction. In one embodiment, the cargo displacement may be expressed as a percentage of the lateral dimension of the cargo container 104. Load displacement may be of interest to the field operator 126 when detecting vehicles that have uneven load distribution. In some embodiments, load shifting may be associated with a shovel or other heavy equipment that loads vehicle 106 so that uneven loading of specific operators can be detected and corrected. In the illustrated process embodiment, block 1110 then directs microprocessor 232 to determine whether the load distribution is uneven (ie, the load offset is greater than a maximum predetermined percentage). When the maximum load displacement is exceeded, block 1110 controls microprocessor 232 to proceed to block 1112 where a warning signal is generated and processed generally as described above. If it is determined at block 1110 that the maximum load displacement has not been exceeded, microprocessor 232 is controlled to proceed to block 1114.

Блок 1114 управляет микропроцессором 232 для вычисления общего объема полезного груза. Общий объем полезного груза в поперечном направлении ограничивается маской полезного груза 806 наBlock 1114 controls microprocessor 232 to calculate the total payload volume. The total volume of the payload in the transverse direction is limited by the payload mask 806 at

--

Claims (29)

поверхности полезного груза и размерами контейнера под поверхностью полезного груза. Таким образом, эти границы и точки высоты заполнения полезным грузом могут использоваться для генерирования сравнительно точной оценки общего объема полезного груза, транспортируемого в грузовом контейнере 104. Затем блок 1116 управляет микропроцессором 232 для передачи вычисленного объема полезного груза на место 126 работ или другое место, где отображается информация, связанная с операциями на месте работ.the surface of the payload and the dimensions of the container below the surface of the payload. Thus, these boundaries and payload height points can be used to generate a relatively accurate estimate of the total payload volume transported in the cargo container 104. Block 1116 then controls microprocessor 232 to transmit the calculated payload volume to the work site 126 or other location where information related to on-site operations is displayed. Процессорная схема 250 оперативного центра, показанная на фиг. 2, может принимать данные через сеть 220 от нескольких камер 110. Например, в одном варианте осуществления место работ может содержать несколько дорог, выходящих из этого места, и каждая из них может содержать соответствующее устройство 100 и камеру 110. Как показано на фиг. 12, в одном варианте осуществления возможно отображение информационной панели 1200 процессорной схемой 250 оперативного центра на дисплее 262. Информационная панель 1200 отображает информацию о состоянии для четырех разных мест 1202, 1204, 1206 и 1208. В месте 1208 самосвал в настоящий момент не обнаружен или не присутствует. Каждое из указанных мест характеризуется информацией о состоянии, связанной с обнаруженным самосвалом и соответствующим полезным грузом. Каждый дисплей состояния содержит хорошо заметную область 1210 предупреждения, которая указывает, обнаружен ли валун или любой другой посторонний объект в полезном грузе. Другие области 1212 информационной панели 1200 отображают дополнительную информацию о состоянии, такую как среднее количество фрагментаций за последние 12 ч, средний общий объем, вычисляемый на основе объемов полезного груза, определяемых в блоке 1110 процесса 714, и смещение груза, вычисляемое в блоке 1106 процесса 714.The operations center processor circuit 250 shown in FIG. 2 may receive data through network 220 from multiple cameras 110. For example, in one embodiment, a work site may contain multiple roads leading from the site, and each of them may contain a corresponding device 100 and camera 110. As shown in FIG. 12, in one embodiment, a dashboard 1200 may be displayed by the operations center processor circuit 250 on a display 262. The dashboard 1200 displays status information for four different locations 1202, 1204, 1206, and 1208. At location 1208, a dump truck is not currently detected or present. Each of the identified locations is characterized by status information associated with the detected truck and its associated payload. Each status display includes a highly visible warning area 1210 that indicates whether a boulder or any other foreign object is detected in the payload. Other areas 1212 of the dashboard 1200 display additional status information, such as the average number of fragmentations over the last 12 hours, the average total volume calculated based on the payload volumes determined in block 1110 of process 714, and the cargo offset calculated in block 1106 of process 714 . Хотя выше были описаны и проиллюстрированы конкретные варианты осуществления, такие варианты осуществления следует рассматривать лишь как иллюстративные, и они не ограничивают раскрытые варианты осуществления, интерпретируемые согласно приложенной формуле изобретения.Although specific embodiments have been described and illustrated above, such embodiments are to be considered illustrative only and are not limiting of the disclosed embodiments as interpreted by the appended claims. ФОРМУЛА ИЗОБРЕТЕНИЯCLAIM 1. Устройство для анализа полезного груза, транспортируемого в грузовом контейнере транспортного средства, содержащее:1. A device for analyzing payload transported in a cargo container of a vehicle, containing: камеру, расположенную с возможностью последовательного получения изображений транспортных средств, пересекающих поле обзора камеры;a camera positioned to sequentially obtain images of vehicles crossing the camera's field of view; по меньшей мере один процессор, имеющий связь с указанной камерой, причем указанный по меньшей мере один процессор функционально выполнен с возможностью выбора по меньшей мере одного изображения из последовательно получаемых изображений в ответ на:at least one processor in communication with said camera, wherein said at least one processor is operatively configured to select at least one image from the sequentially acquired images in response to: быстрое определение вероятности того, что транспортное средство и грузовой контейнер будут находиться в поле зрения на по меньшей мере одном изображении; и соответствие данных изображения, связанных с указанным по меньшей мере одним изображением, критерию пригодности для дальнейшей обработки;quickly determining the probability that the vehicle and the cargo container will be in the field of view in at least one image; and matching the image data associated with the at least one image with the criterion of suitability for further processing; причем указанная дальнейшая обработка включает в себя обеспечение того, чтобы указанный по меньшей мере один процессор:wherein said further processing includes ensuring that said at least one processor: осуществлял обработку выбранного по меньшей мере одного изображения для идентификации интересующей области полезного груза на изображении; и проводил анализ полезного груза внутри идентифицированной интересующей области полезного груза на основе данных изображения, связанных с указанным по меньшей мере одним изображением.processing the selected at least one image to identify a payload region of interest in the image; and performing payload analysis within the identified payload region of interest based on image data associated with the at least one image. 2. Устройство по п.1, в котором указанный по меньшей мере один процессор функционально выполнен с возможностью выбора указанного по меньшей мере одного изображения посредством:2. The device of claim 1, wherein said at least one processor is operatively configured to select said at least one image by: генерирования данных трехмерного облака точек для последовательно полученных изображений;generating 3D point cloud data for sequentially acquired images; определения плотности точек данных облака точек; и сравнения плотности точек с пороговой плотностью точек для определения соответствия критерию пригодности.determining the point density of point cloud data; and comparing the point density with a threshold point density to determine compliance with the suitability criterion. 3. Устройство по п.2, в котором указанный по меньшей мере один процессор функционально выполнен с возможностью предварительной обработки данных трехмерного облака точек для выбранного изображения перед проведением анализа полезного груза, причем указанная предварительная обработка включает по меньшей мере одно из следующих:3. The apparatus of claim 2, wherein said at least one processor is operative to pre-process 3D point cloud data for a selected image prior to analyzing the payload, said pre-processing including at least one of the following: удаление координат тех точек облака, которые расположены ниже ожидаемой высоты опорного основания грузового контейнера относительно окружающей поверхности земли; и/или удаление координат тех точек облака точек, которые находятся за пределами подобласти облака точек в пределах облака точек, причем указанная подобласть облака точек меньше, чем облако точек.removing the coordinates of those points of the cloud that are located below the expected height of the supporting base of the cargo container relative to the surrounding surface of the earth; and/or removing the coordinates of those point cloud points that are outside a point cloud subregion within the point cloud, wherein said point cloud subregion is smaller than the point cloud. 4. Устройство по п.2, в котором указанный по меньшей мере один процессор дополнительно функционально выполнен с возможностью выбора для дальнейшей обработки по меньшей мере одного из следующих, если определено, что множество изображений соответствуют критерию пригодности:4. The apparatus of claim 2, wherein said at least one processor is further operative to select for further processing at least one of the following if the plurality of images are determined to meet the suitability criterion: изображения, имеющего наивысшую плотность точек;image having the highest pixel density; первого изображения, имеющего плотность точек, превышающую пороговую плотность точек; илиa first image having a dot density greater than a threshold dot density; or - 15 045770 множества изображений, которые имеют плотность точек, превышающую пороговую плотность точек.- 15 045770 sets of images that have a point density greater than the threshold point density. 5. Устройство по п.1, в котором процессор дополнительно функционально выполнен с возможностью генерирования уровня достоверности во время обработки выбранного изображения для идентификации интересующей области полезного груза, причем указанный уровень достоверности количественно представляет достоверность того, что идентифицированная интересующая область содержит полезный груз, и указанный уровень достоверности используется по меньшей мере частично для определения того, соответствует ли выбранное изображение критерию пригодности.5. The apparatus of claim 1, wherein the processor is further operative to generate a confidence level during processing of the selected image to identify a payload region of interest, wherein said confidence level quantifies the confidence that the identified region of interest contains a payload, and said the confidence level is used at least in part to determine whether the selected image meets the suitability criterion. 6. Устройство по п.1, в котором указанный по меньшей мере один процессор функционально выполнен с возможностью выбора множества изображений из последовательно полученных изображений, причем каждое из указанного множества изображений обеспечивает отличный от других вид полезного груза, и указанный по меньшей мере один процессор функционально выполнен с возможностью выполнения дополнительной обработки для каждого из множества изображений для получения анализа полезного груза.6. The apparatus of claim 1, wherein said at least one processor is operatively configured to select a plurality of images from sequentially acquired images, wherein each of said plurality of images provides a different view of the payload, and said at least one processor is operatively configured to configured to perform additional processing on each of the plurality of images to obtain an analysis of the payload. 7. Устройство по п.1, в котором камера расположена над транспортным средством, и поле обзора ориентировано вниз для получения изображений верхней поверхности полезного груза, открытой благодаря открытой верхней стороне грузового контейнера.7. The apparatus of claim 1, wherein the camera is positioned above the vehicle and the field of view is oriented downward to obtain images of the top surface of the payload exposed by the open top side of the cargo container. 8. Устройство по п.1, в котором указанный по меньшей мере один процессор содержит встроенный процессор, имеющий связь с камерой, причем указанный встроенный процессор функционально выполнен с возможностью инициирования передачи данных изображения для выбранного изображения на удаленный процессор, где дальнейшая обработка выполняется указанным удаленным процессором.8. The apparatus of claim 1, wherein said at least one processor comprises an embedded processor in communication with the camera, wherein said embedded processor is operative to initiate transmission of image data for the selected image to a remote processor, where further processing is performed by said remote processor. processor. 9. Устройство по п.8, в котором встроенный процессор содержит интерфейс глобальной сети, причем указанный встроенный процессор функционально выполнен с возможностью передачи выбранного изображения на удаленный процессор через указанную глобальную сеть.9. The apparatus of claim 8, wherein the embedded processor comprises a WAN interface, wherein said embedded processor is operative to transmit the selected image to the remote processor via said WAN. 10. Устройство по п.1, в котором указанный по меньшей мере один процессор функционально выполнен с возможностью инициирования выдачи сигнала предупреждения в ответ на результаты анализа полезного груза, соответствующие критерию предупреждения.10. The apparatus of claim 1, wherein said at least one processor is operative to initiate an alert signal in response to payload analysis results that meet an alert criterion. 11. Устройство по п.10, дополнительно содержащее сигнализатор для предупреждения, функционально выполненный с возможностью генерирования звукового или визуального сигнала для предупреждения оператора.11. The device of claim 10, further comprising a warning annunciator operably configured to generate an audible or visual signal to warn the operator. 12. Устройство по п.1, в котором указанный по меньшей мере один процессор функционально выполнен с возможностью обработки первого и второго двумерных изображений с разных перспективных точек обзора для генерирования трехмерного облака точек, содержащего трехмерные координаты транспортного средства и грузового контейнера.12. The device of claim 1, wherein said at least one processor is operative to process the first and second two-dimensional images from different perspective viewpoints to generate a three-dimensional point cloud containing three-dimensional coordinates of the vehicle and the cargo container. 13. Устройство по п.12, в котором камера содержит одно из следующих:13. The device of claim 12, wherein the camera comprises one of the following: первый и второй датчики изображения, которые смещены для получения соответствующих первого и второго двумерных изображений с разных перспективных точек обзора; и один датчик изображения, функционально выполненный с возможностью получения первого и второго изображений, отстоящих друг от друга по времени таким образом, что перемещение транспортного средства при пересечении поля обзора обеспечивает разные перспективные точки обзора для первого и второго изображений.first and second image sensors that are offset to obtain corresponding first and second two-dimensional images from different perspective viewpoints; and one image sensor operatively configured to obtain first and second images spaced apart in time such that movement of the vehicle as it traverses the field of view provides different perspective viewpoints for the first and second images. 14. Устройство по п.12, в котором указанный по меньшей мере один процессор функционально выполнен с возможностью обработки одного из соответствующих двумерных изображений для идентификации интересующей области полезного груза в двумерном представлении и проведения анализа полезного груза путем обработки двумерных данных в интересующей области полезного груза, причем указанный по меньшей мере один процессор функционально выполнен с возможностью использования трехмерного облака точек для генерирования масштабирующей информации для анализа полезного груза.14. The apparatus of claim 12, wherein said at least one processor is operatively configured to process one of the respective two-dimensional images to identify a payload region of interest in a two-dimensional representation and perform an analysis of the payload by processing the two-dimensional data in the payload region of interest, wherein said at least one processor is operatively configured to use a three-dimensional point cloud to generate scaling information for payload analysis. 15. Устройство по п.1, в котором указанный по меньшей мере один процессор функционально выполнен с возможностью обработки выбранного изображения для идентификации интересующей области полезного груза с использованием обученной нейронной сети для получения выходных данных, указывающих местоположение интересующей области в пределах выбранного изображения.15. The apparatus of claim 1, wherein said at least one processor is operatively configured to process the selected image to identify a payload region of interest using a trained neural network to produce output indicating the location of the region of interest within the selected image. 16. Устройство по п.15, дополнительно содержащее функцию обучения нейронной сети с использованием по меньшей мере одного из следующих:16. The device of claim 15, further comprising a function for training a neural network using at least one of the following: набора изображений репрезентативных грузовых контейнеров, которые ранее были маркированы человеком; и алгоритма неконтролируемого обучения, реализуемого для выделения шаблонов в данных изображения.a set of images of representative cargo containers that have previously been tagged by humans; and an unsupervised learning algorithm implemented to extract patterns in image data. 17. Устройство по п.15, в котором нейронная сеть содержит сверточную нейронную сеть на основе маскирующей области.17. The apparatus of claim 15, wherein the neural network comprises a masking region-based convolutional neural network. 18. Устройство по п.15, в котором указанный по меньшей мере один процессор функционально выполнен с возможностью обработки выбранного изображения посредством по меньшей мере одного из18. The device of claim 15, wherein said at least one processor is operatively configured to process the selected image by at least one of - 16 045770 следующих:- 16 045770 the following: обработки данных изображения для усиления затененных областей перед выполнением анализа полезного груза;processing the image data to enhance shadowed areas before performing payload analysis; выполнения очистки выбранного изображения для коррекции искажений изображения, создаваемых съемочной оптикой, связанной с камерой, перед идентификацией интересующей области полезного груза; и разрежения пикселей исходного выбранного изображения для получения разреженного изображения с уменьшенным количеством пикселей перед идентификацией интересующей области полезного груза.performing cleanup on the selected image to correct image distortion caused by imaging optics associated with the camera before identifying a payload region of interest; and sparse the pixels of the original selected image to obtain a sparse image with a reduced number of pixels before identifying the payload region of interest. 19. Устройство по п.18, в котором выходные данные нейронной сети идентифицируют граничные пиксели, демаркирующие интересующую область полезного груза в пределах разреженного изображения, причем выполнение анализа полезного груза включает определение соответствующих граничных пикселей в пределах исходного выбранного изображения и обработку участков исходного выбранного изображения в пределах соответствующих граничных пикселей.19. The apparatus of claim 18, wherein the output of the neural network identifies boundary pixels demarcating a payload region of interest within the sparse image, wherein performing payload analysis includes identifying corresponding boundary pixels within the original selected image and processing portions of the original selected image into within the corresponding boundary pixels. 20. Устройство по п.1, в котором указанный по меньшей мере один процессор функционально выполнен с возможностью определения размеров грузового контейнера транспортного средства посредством одного из следующих:20. The device of claim 1, wherein said at least one processor is operative to determine the dimensions of a cargo container of a vehicle by one of the following: определения идентификатора транспортного средства, связанного с выбранным изображением, и считывания из базы данных параметров, определяющих размеры грузового контейнера для идентифицированного транспортного средства; и выполнения дальнейшей обработки для транспортного средства с пустым грузовым контейнером и определение размеров грузового контейнера на основе пустого грузового контейнера.determining a vehicle identifier associated with the selected image and reading from the database parameters defining the dimensions of a cargo container for the identified vehicle; and performing further processing on the vehicle with the empty cargo container and determining dimensions of the cargo container based on the empty cargo container. 21. Устройство по п.20, в котором указанный по меньшей мере один процессор функционально выполнен с возможностью идентификации транспортного средства посредством одного из следующих:21. The device of claim 20, wherein said at least one processor is operatively configured to identify the vehicle by one of the following: обработки по меньшей мере одного из последовательных изображений для выделения идентификатора транспортного средства, обозначенного на транспортном средстве, в пределах поля обзора камеры;processing at least one of the sequential images to extract a vehicle identifier indicated on the vehicle within the camera's field of view; приема идентификатора от датчика радиочастотной идентификации (radio-frequency identification, RFID), расположенного для считывания RFID-метки, размещенной на транспортном средстве; или обработки по меньшей мере одного из последовательно полученных изображений с использованием нейронной сети, которая была предварительно обучена осуществлению идентификации транспортного средства на основе полученного изображения.receiving an identifier from a radio-frequency identification (RFID) sensor located to read an RFID tag placed on the vehicle; or processing at least one of the sequentially acquired images using a neural network that has been previously trained to identify the vehicle based on the acquired image. 22. Устройство по п.20, в котором процессор функционально выполнен с возможностью проведения анализа полезного груза путем определения объема полезного груза посредством определения высоты заполнения полезным грузом внутренней области грузового контейнера на основе трехмерных координат для точек внутри интересующей области полезного груза и вычисления объема полезного груза на основе высоты заполнения полезным грузом и определенных размеров грузового контейнера.22. The apparatus of claim 20, wherein the processor is operably configured to perform payload analysis by determining payload volume by determining the payload fill height of an interior region of the cargo container based on three-dimensional coordinates for points within the payload region of interest and calculating the payload volume based on payload fill height and specific cargo container dimensions. 23. Устройство по п.1, в котором процессор функционально выполнен с возможностью проведения анализа полезного груза путем идентификации постороннего объекта в полезном грузе.23. The apparatus of claim 1, wherein the processor is operative to perform analysis of the payload by identifying a foreign object in the payload. 24. Устройство по п.23, в котором процессор функционально выполнен с возможностью идентификации постороннего объекта посредством обработки инфракрасных изображений полезного груза, причем посторонний объект идентифицируют путем обнаружения электромагнитного излучения с длинами волн в инфракрасной части спектра.24. The apparatus of claim 23, wherein the processor is operative to identify a foreign object by processing infrared images of the payload, the foreign object being identified by detecting electromagnetic radiation having wavelengths in the infrared portion of the spectrum. 25. Устройство по п.1, в котором процессор функционально выполнен с возможностью:25. The device according to claim 1, in which the processor is functionally configured to: проведения анализа полезного груза путем вычисления смещения груза; и генерирования предупреждения о неравномерной загрузке, если смещение груза превысило предварительно определенное максимальное смещение груза.performing payload analysis by calculating load displacement; and generating an uneven loading warning if the load displacement exceeds a predetermined maximum load displacement. 26. Устройство по п.1, в котором процессор функционально выполнен с возможностью проведения анализа полезного груза путем проведения анализа сегментации в интересующей области полезного груза для определения размеров отличимых частей полезного груза.26. The apparatus of claim 1, wherein the processor is operative to perform payload analysis by performing segmentation analysis on a region of interest of the payload to determine the dimensions of distinguishable portions of the payload. 27. Устройство по п.26, в котором процессор функционально выполнен с возможностью инициирования создания сигнала предупреждения в ответ на то, что по меньшей мере одна отличимая часть превысила пороговый размер или идентифицирована как объект, не являющийся полезным грузом.27. The apparatus of claim 26, wherein the processor is operative to initiate generation of a warning signal in response to the at least one distinguishable portion exceeding a threshold size or being identified as a non-payload object. 28. Устройство по п.27, в котором полезный груз содержит полезный груз в виде добытой руды и в котором анализ сегментации включает одно из следующих:28. The apparatus of claim 27, wherein the payload comprises a mined ore payload and wherein the segmentation analysis comprises one of the following: анализ фрагментации, который обеспечивает идентификацию отличимых частей как одного из части в виде породы, части в виде мелочи или промежутка между частями;fragmentation analysis, which provides identification of distinguishable parts as one of a rock part, a fine part, or a gap between parts; распределение груза в пределах размеров грузового контейнера; и/или анализ влажности, который обеспечивает классификацию уровня влаги, связанного с полезным грузом.distribution of cargo within the dimensions of the cargo container; and/or moisture analysis, which provides a classification of the moisture level associated with the payload. 29. Устройство по п.1, в котором транспортное средство представляет собой одно из карьерного самосвала, рельсовой тележки, баржи, вагонетки, транспортного средства для загрузки, откатки и выгрузки или шахтного скипа.29. The apparatus of claim 1, wherein the vehicle is one of a mining truck, a rail car, a barge, a trolley, a loading, hauling and unloading vehicle, or a mine skip. --
EA202291773 2019-12-17 2020-12-16 DEVICE FOR ANALYSIS OF PAYLOAD TRANSPORTED IN A CARGO CONTAINER OF A VEHICLE EA045770B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US62/949,299 2019-12-17

Publications (1)

Publication Number Publication Date
EA045770B1 true EA045770B1 (en) 2023-12-25

Family

ID=

Similar Documents

Publication Publication Date Title
US11494930B2 (en) Techniques for volumetric estimation
AU2020404468B2 (en) Apparatus for analyzing a payload being transported in a load carrying container of a vehicle
US11691648B2 (en) Drivable surface identification techniques
US11010622B2 (en) Infrastructure-free NLoS obstacle detection for autonomous cars
EP3136341B1 (en) Surroundings monitoring system for working machine
US11669972B2 (en) Geometry-aware instance segmentation in stereo image capture processes
US9483952B2 (en) Runway surveillance system and method
US20210263152A1 (en) Automated object detection in a dusty environment
US11995157B2 (en) Intelligent LiDAR scanning
US11436839B2 (en) Systems and methods of detecting moving obstacles
JP5902990B2 (en) Self-propelled industrial machine image processing device
EA045770B1 (en) DEVICE FOR ANALYSIS OF PAYLOAD TRANSPORTED IN A CARGO CONTAINER OF A VEHICLE
WO2023232286A1 (en) Identify carryback in unknown truck bed
KR20230104333A (en) A system and method for detecting changes in road information through lidar and image analysis
AU2008293060B2 (en) Runway surveillance system and method
CN115440050A (en) Mine unmanned information transmission optimization method and system