RU2770153C1 - METHOD FOR CORRECTING THE DEPTH MEASUREMENT ERROR OF THE ToF CAMERA - Google Patents

METHOD FOR CORRECTING THE DEPTH MEASUREMENT ERROR OF THE ToF CAMERA Download PDF

Info

Publication number
RU2770153C1
RU2770153C1 RU2021117320A RU2021117320A RU2770153C1 RU 2770153 C1 RU2770153 C1 RU 2770153C1 RU 2021117320 A RU2021117320 A RU 2021117320A RU 2021117320 A RU2021117320 A RU 2021117320A RU 2770153 C1 RU2770153 C1 RU 2770153C1
Authority
RU
Russia
Prior art keywords
psf
image
pixel
depth map
signal
Prior art date
Application number
RU2021117320A
Other languages
Russian (ru)
Inventor
Евгений Андреевич Дорохов
Татьяна Игоревна КОПЫСОВА
Сергей Александрович Турко
Михаил Вячеславович Попов
Original Assignee
Самсунг Электроникс Ко., Лтд.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Самсунг Электроникс Ко., Лтд. filed Critical Самсунг Электроникс Ко., Лтд.
Priority to RU2021117320A priority Critical patent/RU2770153C1/en
Application granted granted Critical
Publication of RU2770153C1 publication Critical patent/RU2770153C1/en
Priority to PCT/KR2022/005923 priority patent/WO2022265216A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4913Circuits for detection, sampling, integration or read-out
    • G01S7/4914Circuits for detection, sampling, integration or read-out of detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/493Extracting wanted echo signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

FIELD: imaging technology.
SUBSTANCE: present invention relates to the field of image capture and processing, in particular to the correction of depth measurement errors of a three-dimensional (3D) ToF camera. The method for forming a depth map with correction of the range measurement error for the ToF camera includes the steps at which: the calculated PSF distribution model (point scattering function) for the ToF camera is preliminarily evaluated; the image of the scene is captured using a ToF camera; phantom signals in the data of the captured image of the scene are compensated for using the mentioned PSF; a depth map is formed using corrected data.
EFFECT: providing a simplified solution for the formation of a depth map, which increases the processing speed and the quality of compensation for errors in measuring the range of the ToF camera.
8 cl, 6 dwg

Description

Область техники, к которой относится изобретениеThe field of technology to which the invention belongs

Настоящее изобретение относится к области захвата и обработки изображений, в частности к корректировке ошибок измерения глубины трехмерной (3D) ToF-камеры.The present invention relates to the field of image capture and processing, in particular to the correction of errors in the measurement of the depth of the three-dimensional (3D) ToF camera.

Уровень техники State of the art

ToF-датчик («Time of Flight», датчик глубины или времяпролетный датчик) - это специальный датчик, который излучает свет и, используя рассеянный (отраженный) от некоего объекта сигнал, определяет расстояние до этого объекта. Зная время излучения и последующего приема отраженного света, на основе скорости света можно вычислить точное расстояние до объекта, аналогично лазерному дальномеру.ToF-sensor ("Time of Flight", depth sensor or time-of-flight sensor) is a special sensor that emits light and, using a signal scattered (reflected) from a certain object, determines the distance to this object. Knowing the time of emission and subsequent reception of reflected light, based on the speed of light, it is possible to calculate the exact distance to the object, similar to a laser rangefinder.

Такие датчики находят все более широкое распространение в различных областях, включая применение в мобильных электронных устройствах (например, для биометрической идентификации пользователя по изображению его лица и распознавания жестов), в автономных и полуавтономных транспортных средствах, робототехнике (при формировании изображения окружения для обеспечения возможности осуществления деятельности робота), фото- и видеокамерах, приложениях с виртуальной/дополненной реальностью (VR/AR) и т.д.Such sensors are increasingly used in various fields, including applications in mobile electronic devices (for example, for biometric identification of the user by the image of his face and gesture recognition), in autonomous and semi-autonomous vehicles, robotics (in the formation of an image of the environment to enable the implementation of robot activity), photo and video cameras, applications with virtual/augmented reality (VR/AR), etc.

3D ToF-камера (камера, формирующая так называемое дальностное изображение, в которой расчет расстояний от экрана до конкретных точек наблюдения обеспечивается с помощью технологии измерения "времени полета" (ToF)), основанная на методе модуляции непрерывной волны (CW, continuous wave), использует принцип сдвига фазы между передаваемым и принимаемым излучением для определения расстояния между объектом и камерой. Эта камера имеет источник света, испускающий модулированный свет

Figure 00000001
, свет отражается от объекта, затем на плоскости датчика принимается сигнал
Figure 00000002
. Излучаемый модулированный сигнал
Figure 00000003
и принятый отраженный сигнал
Figure 00000002
с задержкой
Figure 00000004
задаются следующим образом:3D ToF camera (a so-called long-range image camera, in which the calculation of the distances from the screen to specific observation points is provided using the "time of flight" (ToF) measurement technology), based on the continuous wave modulation method (CW, continuous wave), uses the principle of phase shift between transmitted and received radiation to determine the distance between the object and the camera. This camera has a light source that emits modulated light.
Figure 00000001
, light is reflected from the object, then a signal is received on the sensor plane
Figure 00000002
. Radiated modulated signal
Figure 00000003
and received reflected signal
Figure 00000002
delayed
Figure 00000004
are set as follows:

Figure 00000005
,
Figure 00000005
,

Figure 00000006
,
Figure 00000006
,

где

Figure 00000007
- частота модуляции,
Figure 00000008
- амплитуда излучаемого сигнала,
Figure 00000009
- амплитуда принятого сигнала,
Figure 00000010
- смещение (offset), представляющее собой некоторый добавочный уровень интенсивности.where
Figure 00000007
- modulation frequency,
Figure 00000008
- amplitude of the emitted signal,
Figure 00000009
- amplitude of the received signal,
Figure 00000010
- offset, which is some additional level of intensity.

Камера TOF вычисляет взаимную корреляцию для

Figure 00000011
следующим образом:The TOF camera calculates the cross-correlation for
Figure 00000011
in the following way:

Figure 00000012
,
Figure 00000012
,

где

Figure 00000013
- взаимная корреляционная функция для
Figure 00000014
и
Figure 00000015
,
Figure 00000014
- излучаемый сигнал,
Figure 00000015
- сигнал, рассеянный объектом и принятый камерой.where
Figure 00000013
- cross-correlation function for
Figure 00000014
and
Figure 00000015
,
Figure 00000014
- emitted signal,
Figure 00000015
is the signal scattered by the object and received by the camera.

Для восстановления фазы и амплитуды принятого сигнала обычно используют метод «four bucket». Основной принцип этого метода состоит в получении четырех равноудаленных выборок

Figure 00000013
во временных точках
Figure 00000016
, отделенных друг от друга на 90 градусов в цикле модуляции:To restore the phase and amplitude of the received signal, the “four bucket” method is usually used. The basic principle of this method is to obtain four equidistant samples
Figure 00000013
at time points
Figure 00000016
, separated from each other by 90 degrees in the modulation cycle:

Figure 00000017
- необработанные фазы («сырые» фазы, raw phases).
Figure 00000017
- raw phases ("raw" phases, raw phases).

Сдвиг фазы между

Figure 00000011
может быть вычислен из этих сырых фаз:Phase shift between
Figure 00000011
can be calculated from these raw phases:

Figure 00000018
.
Figure 00000018
.

Расстояние до объекта для каждого пикселя (i, j) вычисляется следующим образом: The object distance for each pixel (i, j) is calculated as follows:

Figure 00000019
,
Figure 00000019
,

где

Figure 00000020
- расстояние от пикселя (i, j) до объекта,
Figure 00000021
- сдвиг фазы для пикселя (i, j),
Figure 00000022
- длина волны сигнала. where
Figure 00000020
- distance from pixel (i, j) to the object,
Figure 00000021
- phase shift for pixel (i, j),
Figure 00000022
- signal wavelength.

В настоящее время недорогие конфигурации систем ToF, нацеленные на массовый рынок, страдают от проблем, вызванных MPI (multipath interference, многолучевая интерференция), включающих в себя, среди прочего, появление фантомных (т.е. повторных или паразитных) изображений, т.н. ghosting. Фантомные изображения представляют собой артефакты рассеяния (scattering) на изображении, возникающие в результате множественных внутренних отражений внутри оптической системы. Такие артефакты, которые свидетельствуют о наличии ошибок измерения глубины, являются крайне нежелательными в областях применения ToF-камер и в значительной степени ограничивают их применение. Currently, low-cost ToF system configurations aimed at the mass market suffer from problems caused by MPI (multipath interference), including, among other things, the appearance of ghost (i.e., repeated or spurious) images, the so-called . ghosting. Ghost images are scattering artifacts in an image that result from multiple internal reflections within an optical system. Such artifacts, which indicate the presence of depth measurement errors, are highly undesirable in ToF camera applications and greatly limit their application.

В ситуациях, когда отображается широкий диапазон глубин, широкодиапазонный сигнал может подвергаться рассеянию от близких объектов, сигнал от близких объектов вступает в конкуренцию со слабым сигналом от далеких объектов и вызывает ошибки при измерениях глубины.In situations where a wide range of depths is displayed, the wide range signal may be subject to scattering from nearby objects, the signal from close objects competes with the weak signal from distant objects and causes errors in depth measurements.

Антиотражающее покрытие, наносимое на элементы оптической системы, значительно уменьшает количество рассеянного света, но не решает полностью проблему фантомных изображений.The antireflection coating applied to the elements of the optical system significantly reduces the amount of stray light, but does not completely solve the problem of ghost images.

Даже если ошибка появления фантомных изображений частично компенсируется, оставшиеся артефакты карты глубины могут ограничивать применение камер TOF. Поэтому важно обеспечить высокое качество компенсации ошибок измерения дальности.Even if the ghosting error is partially compensated for, remaining depth-map artifacts can limit the use of TOF cameras. Therefore, it is important to provide high quality compensation for ranging errors.

Большинство решений для анализа и компенсации ошибок фантомных изображений используют только экспериментальные данные. На экспериментальные данные значительное влияние оказывает шум. Учитывая, что фантомный сигнал на несколько порядков ниже, чем сигнал от объекта, это делает фантомный сигнал практически неразличимым, а полученные данные ненадежными.Most solutions for analyzing and compensating errors in ghost images use only experimental data. Noise has a significant effect on the experimental data. Considering that the phantom signal is several orders of magnitude lower than the signal from the object, this makes the phantom signal practically indistinguishable and the received data unreliable.

Решение для компенсации в реальном времени необходимо для широкого и эффективного использования ToF-камер. Чрезмерная сложность способа компенсации может привести к ограниченной возможности применения такого способа обработки в реальном времени.A real-time compensation solution is essential for the widespread and efficient use of ToF cameras. The excessive complexity of the compensation method may lead to a limited applicability of such a real-time processing method.

Проблема фантомных изображений может быть решена путем дополнительной модификации аппаратного обеспечения камеры (например, путем покрытия самой верхней поверхности матричной структуры приемника черными чернилами, оставляя чувствительные области неокрашенными), но это решение является трудозатратным и значительно увеличивает стоимость TOF-камеры.The problem of ghost images can be solved by additional modification of the camera hardware (for example, by covering the uppermost surface of the receiver array structure with black ink, leaving sensitive areas uncolored), but this solution is labor intensive and significantly increases the cost of the TOF camera.

Разработка нового решения, обеспечивающего применение традиционного подхода к обработке изображений со всесторонним анализом явлений рассеяния камеры и действующей модели распределения фантомных изображений, имеет важное значение для представления эффективного решения компенсации фантомных изображений в реальном времени.The development of a new solution that applies the traditional image processing approach with a comprehensive analysis of camera scatter phenomena and a valid ghost distribution model is essential to provide an effective real-time ghost compensation solution.

Из уровня техники известен документ US 9,760,837 B1, раскрывающий компенсацию многолучевых помех с помощью обученного компонента машинного обучения. Пара обучающих данных содержит по меньшей мере одно смоделированное необработанное значение данных датчика времени полета и соответствующее смоделированное эталонное значение глубины. Смоделированные необработанные кадры данных датчика времени пролета вычисляются с использованием модифицированного средства визуализации компьютерной графики, которое использует трассировку лучей для визуализации изображения из модели трехмерного объекта или окружающей среды. Данный способ обладает высокой сложностью и не демонстрирует требуемых показателей качества компенсации фантомных изображений.The document US 9,760,837 B1 is known from the prior art, disclosing compensation for multipath interference using a trained machine learning component. The training data pair comprises at least one simulated raw time-of-flight sensor data value and a corresponding simulated depth reference value. Simulated raw frames of time-of-flight sensor data are computed using a modified computer graphics renderer that uses ray tracing to render an image from a model of a 3D object or environment. This method is highly complex and does not demonstrate the required quality of ghost image compensation.

Документ US 2012/0008128 A1 описывает как аппаратное решение, заключающееся в покрытии самой верхней поверхности структуры массива черными чернилами, оставляя при этом неокрашенными чувствительные области массива, так и программное решение, подразумевающее компенсацию ошибки отражения рассеянного света посредством использования корректировочных значений. Формирование корректировочных значений осуществляется с использованием экспериментальной настройки.US 2012/0008128 A1 describes both a hardware solution of covering the uppermost surface of the array structure with black ink while leaving sensitive areas of the array uncolored, and a software solution of compensating for stray light reflection error by using correction values. The formation of correction values is carried out using the experimental setting.

Документ US 8,964,028 B2 раскрывает способ компенсации постороннего света, включающий в себя определение расстояния до опорной цели, сравнение его с известным значением для определения значения коррекции постороннего света, определение расстояния до интересующего объекта с использованием коррекции постороннего света.US 8,964,028 B2 discloses a method for compensating for stray light, including determining a distance to a reference target, comparing it with a known value to determine a stray light correction value, determining the distance to an object of interest using stray light correction.

Документ US 8,554,009 B2 описывает коррекцию постороннего света с помощью обычного прибора для формирования изображений (не ToF-камеры). Способ содержит экспериментальное определение набора разброса точек, вывод функции распределения постороннего света, получение матрицы распределения постороннего света, вывод матрицы коррекции постороннего света, исправление ошибок постороннего света в изображении с устройства формирования изображения. US 8,554,009 B2 describes stray light correction using a conventional imaging device (not a ToF camera). The method comprises experimentally determining a set of point spread, deriving a stray light distribution function, obtaining a stray light distribution matrix, deriving a stray light correction matrix, correcting stray light errors in an image from an imaging device.

Однако, упомянутые выше решения обладают низким качеством компенсации ошибок измерения дальности.However, the solutions mentioned above have a poor quality of ranging error compensation.

Таким образом, в уровне техники существует потребность в создании простого и недорогого решения, обладающего высоким быстродействием (функционирующего в реальном времени) и высоким качеством компенсации ошибок измерения дальности ToF-камеры.Thus, there is a need in the art for a simple and inexpensive solution with high speed (real-time operation) and high quality compensation of ToF camera ranging errors.

Сущность изобретенияThe essence of the invention

Настоящее изобретение направлено на решение по меньшей мере некоторых из приведенных выше проблем.The present invention is directed to solving at least some of the above problems.

В соответствии с изобретением предложен способ формирования карты глубины с корректировкой ошибки измерения дальности для ToF-камеры, включающий в себя этапы, на которых: предварительно оценивают рассчитанную модель распределения PSF (функции рассеяния точки) для ToF-камеры; осуществляют захват изображения сцены посредством ToF-камеры; осуществляют компенсацию фантомных сигналов в данных захваченного изображения сцены с помощью упомянутой PSF; формируют карту глубины с использованием скорректированных данных, причем этап предварительной оценки рассчитанной модели распределения PSF включает в себя этапы, на которых: задают оптическую модель оптической системы камеры; моделируют рассеяние света в оптической системе на основе упомянутой заданной модели оптической системы; вычисляют PSF оптической системы; аппроксимируют PSF посредством полиномиальной функции радиуса, где радиус - это расстояние от заданного пикселя до центра изображения.In accordance with the invention, a method for generating a depth map with range error correction for a ToF camera is provided, which includes the steps of: preliminarily estimating a calculated PSF (point spread function) distribution model for the ToF camera; capturing a scene image by means of a ToF camera; compensating phantom signals in the captured scene image data with said PSF; forming a depth map using the corrected data, and the step of preliminary estimation of the calculated PSF distribution model includes the steps of: specifying an optical model of the camera optical system; simulating light scattering in the optical system based on said predetermined optical system model; calculating the PSF of the optical system; approximate the PSF by a polynomial radius function, where the radius is the distance from the given pixel to the center of the image.

Согласно одному варианту осуществления способа вычисление PSF оптической системы осуществляют в соответствии со следующим выражением:According to one embodiment of the method, the calculation of the PSF of the optical system is carried out in accordance with the following expression:

Figure 00000023
,
Figure 00000023
,

где

Figure 00000024
- моделирование измерения входного сигнала, которое имеет ненулевое значение только в местоположении пикселя (i, j),
Figure 00000025
- уровень (интенсивность) рассеяного сигнала по сенсору камеры, представленный в виде двухмерной функции (матрицы), при входном сигнале, приходящем в пиксель (i, j),
Figure 00000026
- ядро PSF при входном сигнале, приходящем в пиксель (i, j).where
Figure 00000024
- simulation of the input signal dimension, which has a non-zero value only at the pixel location (i, j),
Figure 00000025
- the level (intensity) of the scattered signal by the camera sensor, represented as a two-dimensional function (matrix), with an input signal arriving at the pixel (i, j),
Figure 00000026
- PSF core with input signal coming to pixel (i, j).

Согласно другому варианту осуществления способа на этапе аппроксимации

Figure 00000026
аппроксимируется функцией
Figure 00000027
, причем каждое ядро
Figure 00000027
зависит от расстояния от заданного пикселя до центра изображения.According to another embodiment of the method, at the stage of approximation
Figure 00000026
is approximated by the function
Figure 00000027
, and each core
Figure 00000027
depends on the distance from the given pixel to the center of the image.

Согласно другому варианту осуществления способа

Figure 00000027
задано выражением:According to another embodiment of the method
Figure 00000027
given by:

Figure 00000028
,
Figure 00000028
,

где A(r) - коэффициент усиления, зависящий от расстояния от заданного пикселя до центра изображения, а G - ядро 3×3, которое аппроксимирует локальные аберрации света в окрестности пикселя.where A(r) is a gain depending on the distance from a given pixel to the center of the image, and G is a 3×3 kernel that approximates local light aberrations in the vicinity of the pixel.

Компенсацию фантомных сигналов в данных захваченного изображения сцены осуществляют в соответствии с выражением:Compensation of phantom signals in the captured scene image data is performed according to the expression:

Figure 00000029
,
Figure 00000029
,

где

Figure 00000030
- уровень скомпенсированного (восстановленного) сигнала в пикселе (i, j),
Figure 00000031
- уровень рассеянного сигнала в пикселе (i, j),
Figure 00000032
- уровень измеренного сигнала в пикселе (i, j) сенсора.where
Figure 00000030
- the level of the compensated (restored) signal in the pixel (i, j),
Figure 00000031
- scattered signal level in a pixel (i, j),
Figure 00000032
- level of the measured signal in the pixel (i, j) of the sensor.

Согласно другому варианту осуществления способа этап предварительной оценки рассчитанной модели распределения PSF дополнительно включает в себя оптимизацию полученной PSF с помощью машинного обучения на основе наборов данных, включающих в себя пары изображений, состоящие из изображения с артефактами и изображения без артефактов.According to another embodiment of the method, the step of pre-evaluating the calculated PSF distribution model further includes optimizing the obtained PSF using machine learning based on data sets including image pairs consisting of an image with artifacts and an image without artifacts.

Согласно другому варианту осуществления способа в оптической модели оптической системы ToF-камеры точечный объект моделируется как точечный источник света.According to another embodiment of the method, in the optical model of the optical system of a ToF camera, a point object is modeled as a point light source.

Согласно другому варианту осуществления способ перед формированием карты глубины дополнительно содержит этап итеративной оценки скорректированных данных захваченного изображения сцены.According to another embodiment, the method, prior to generating a depth map, further comprises the step of iteratively evaluating corrected scene captured image data.

Таким образом, настоящее изобретение обеспечивает простое и недорогое решение для получения карты глубины, обладающее высоким быстродействием (функционирующее в реальном времени) и высоким качеством компенсации ошибок измерения дальности ToF-камеры.Thus, the present invention provides a simple and inexpensive depth mapping solution with high speed (real-time operation) and high quality compensation of ToF camera ranging errors.

Краткое описание чертежейBrief description of the drawings

В дальнейшем изобретение поясняется описанием предпочтительных вариантов воплощения изобретения со ссылками на сопроводительные чертежи, на которых:The invention is further explained by a description of the preferred embodiments of the invention with reference to the accompanying drawings, in which:

Фиг. 1 изображает блок-схему последовательности этапов способа получения карты глубины с корректировкой ошибки измерения дальности ToF-камеры в соответствии с настоящим изобретением;Fig. 1 is a flowchart of a method for obtaining a depth map with ranging error correction of a ToF camera in accordance with the present invention;

Фиг. 2 изображает блок-схему, подробнее иллюстрирующую этап предварительной оценки рассчитанной модели распределения PSF способа в соответствии с настоящим изобретением;Fig. 2 is a flowchart illustrating in more detail the pre-evaluation step of the calculated PSF distribution model of the method in accordance with the present invention;

Фиг. 3 изображает блок-схему, подробнее иллюстрирующую этап анализа оптической системы способа в соответствии с настоящим изобретением;Fig. 3 is a flow diagram illustrating in more detail the optical system analysis step of the method according to the present invention;

Фиг. 4 изображает упрощенную модель ToF-камеры;Fig. 4 shows a simplified model of a ToF camera;

Фиг. 5 изображает пример моделирования фантомного сигнала звездообразного объекта;Fig. 5 shows an example of modeling a phantom signal of a star-like object;

Фиг. 6 изображает блок-схему, подробнее иллюстрирующую этап предварительной оценки рассчитанной модели распределения PSF (этап S1) способа в соответствии с альтернативным вариантом осуществления настоящего изобретения Fig. 6 is a flowchart illustrating in more detail the pre-evaluation step of the calculated PSF distribution model (step S1) of the method according to an alternative embodiment of the present invention.

Подробное описаниеDetailed description

Предлагаемое изобретение сочетает в себе существующие подходы компенсации ошибок с новым подходом к моделированию рассеяния излучения (света) в оптической системе, которое может быть описано с помощью PSF (Point Spread Function, функция рассеяния точки), с целью значительного улучшения характеристик ToF-камеры. Функция рассеяния точки описывает картину, получаемую системой формирования изображения при наблюдении точечного источника излучения или точечного объекта.The present invention combines existing error compensation approaches with a new approach to modeling radiation (light) scattering in an optical system, which can be described using PSF (Point Spread Function, point spread function), in order to significantly improve the performance of a ToF camera. The point spread function describes the picture obtained by the imaging system when observing a point source of radiation or a point object.

Для получения точной модели распределения PSF оптической системы ToF-камеры проводится оптическое моделирование.To obtain an accurate model of the PSF distribution of the optical system of the ToF camera, optical modeling is carried out.

Хотя здесь и далее способ в соответствии с настоящим изобретением описывается применительно к ToF-камере и корректировке ошибки измерения дальности при формировании карты глубины захватываемой сцены, настоящее изобретение аналогичным образом может найти свое применение также в камерах, основанных на RGB (red, green, blue), ARGB (alpha, red, green, blue) или любом другом световом сенсоре. В таком случае настоящее изобретение соответственно позволяет осуществлять компенсацию фантомных изображений при формировании цветового изображения захватываемой сцены.Although hereinafter the method according to the present invention is described in relation to a ToF camera and range measurement error correction when generating a scene depth map, the present invention can similarly be applied to cameras based on RGB (red, green, blue) , ARGB (alpha, red, green, blue) or any other light sensor. In such a case, the present invention accordingly enables compensation of ghost images when forming a color image of a captured scene.

Способ формирования карты глубины с корректировкой ошибки измерения дальности ToF-камеры (см. фиг. 1) в соответствии с настоящим изобретением включает в себя следующие этапы, на которых: The method for generating a depth map with the correction of the error of measuring the range of the ToF camera (see Fig. 1) in accordance with the present invention includes the following steps, in which:

- предварительно оценивают рассчитанную модель распределения PSF для ToF-камеры (этап S1); - preliminary estimate the calculated PSF distribution model for the ToF camera (step S1);

- осуществляют захват изображения сцены посредством ToF-камеры (этап S2);- carry out the capture of the image of the scene by means of the ToF camera (step S2);

- осуществляют компенсацию фантомных сигналов в данных захваченного изображения сцены с помощью упомянутой PSF (этап S3);- compensation of phantom signals in the data of the captured image of the scene using the mentioned PSF (step S3);

- формируют карту глубины с использованием скорректированных данных (этап S4). - generate a depth map using the corrected data (step S4).

В результате выполнения способа в соответствии с настоящим изобретением получают карту глубины со скомпенсированными ошибками измерения дальности ToF-камеры.As a result of performing the method in accordance with the present invention, a depth map is obtained with compensated errors in the measurement of the range of the ToF camera.

Далее этапы способа получения карты глубины с корректировкой ошибки измерения дальности ToF-камеры по фиг. 1 будут подробно описаны со ссылкой на фиг.1-6.Next, the steps of the method for obtaining a depth map with the correction of the error in measuring the range of the ToF camera of FIG. 1 will be described in detail with reference to FIGS. 1-6.

Этап S1 предварительной оценки рассчитанной модели распределения PSF в свою очередь включает в себя следующие этапы (см. фиг. 2):Step S1 of preliminary estimation of the calculated PSF distribution model, in turn, includes the following steps (see Fig. 2):

Этап S10 - Анализ оптической системы;Step S10 - Analysis of the optical system;

Этап S11 - Аппроксимация модели распределения PSF.Step S11 - Approximation of the PSF distribution model.

На этапе S10 выполняют анализ оптической системы для оптического моделирования PSF посредством следующих действий (см. фиг. 3):In step S10, the analysis of the optical system for the PSF optical simulation is performed by the following steps (see FIG. 3):

- Задание оптической модели (этап S101).- Setting the optical model (step S101).

С использованием известных параметров оптической системы создается ее модель в программном обеспечении для моделирования на основе трассировки лучей, таком как Synopsys LightTools, ZEMAX OpticStudio и т.д. Для этого необходимо знать по меньшей мере следующие параметры оптической системы: конструктивные параметры оптической системы (радиусы, толщины, материалы компонентов), информация о покрытиях оптических элементов, плоскости отражения датчика, параметрах крепления.Using the known parameters of an optical system, a model is created in ray tracing modeling software such as Synopsys LightTools, ZEMAX OpticStudio, etc. To do this, it is necessary to know at least the following parameters of the optical system: the design parameters of the optical system (radii, thicknesses, component materials), information about the coatings of optical elements, the reflection plane of the sensor, mounting parameters.

- Моделирование рассеяния света в оптической системе на основе трассировки лучей (этап S102). - Simulation of light scattering in the optical system based on ray tracing (step S102).

Для заданной на этапе S101 модели оптической системы осуществляют моделирование рассеяния света внутри оптической системы на основе трассировки лучей. Упрощенная модель камеры ToF для вычисления PSF изображена на фиг.4 и включает в себя инфракрасный (ИК) источник (1) света, «точечный» объект (2), оптическую систему (3) и приемник (4) камеры. ИК источник (1) света излучает световой пучок инфракрасного диапазона. Часть испускаемых лучей достигает «точечного» объекта (2) и рассеивается (отражается). Часть рассеянных (отраженных) лучей достигает приемной оптической системы (3). Большая часть рассеянных лучей проходит через оптическую систему (3) и формирует изображение объекта на приемнике (4). Но даже если все поверхности оптической системы имеют просветляющее (антиотражающее) покрытие, небольшое количество света все же отражается от поверхностей оптических компонентов. Этот свет может поглощаться креплением оптической системы или формировать фантомный сигнал на приемнике (4). For the model of the optical system specified in step S101, the simulation of light scattering inside the optical system based on ray tracing is carried out. A simplified ToF camera model for calculating PSF is shown in Figure 4 and includes an infrared (IR) light source (1), a "point" object (2), an optical system (3) and a camera receiver (4). The IR light source (1) emits an infrared light beam. Part of the emitted rays reaches the "point" object (2) and is scattered (reflected). Part of the scattered (reflected) beams reaches the receiving optical system (3). Most of the scattered rays pass through the optical system (3) and form an image of the object on the receiver (4). But even if all surfaces of an optical system have an antireflection (anti-reflective) coating, a small amount of light is still reflected from the surfaces of the optical components. This light can be absorbed by the mount of the optical system or form a phantom signal at the receiver (4).

- Вычисление PSF для каждого пикселя (этап S103).- PSF calculation for each pixel (step S103).

Результаты моделирования используют для формирования ядер PSF для каждого пикселя, которые описывают реакцию оптической системы на точечный объект. Для расчета PSF каждого пикселя моделируется рассеяние света внутри оптической системы.The simulation results are used to form PSF kernels for each pixel, which describe the response of the optical system to a point object. To calculate the PSF of each pixel, the scattering of light inside the optical system is simulated.

Фантомный сигнал, создаваемый точечным объектом, распространяется по всему датчику, что означает, что ядро PSF для каждого пикселя имеет размер целого изображения. Ядро PSF можно описать как матрицу, представляющую последовательность пар {вес, пиксель}: The phantom signal generated by a point object propagates throughout the sensor, which means that the PSF kernel for each pixel is the size of an entire image. The PSF kernel can be described as a matrix representing a sequence of {weight, pixel} pairs:

Figure 00000033
,
Figure 00000033
,

где

Figure 00000034
- вес, характеризующий интенсивность излучения в пикселе (i+l, j+p) относительно пикселя (i, j), в который поступает входной сигнал, причем l и p варьируются так, чтобы охватить все пиксели матрицы приемника (исключая непосредственно пиксель (i, j), в котором измеряется принятое излучение). where
Figure 00000034
- weight characterizing the intensity of radiation in the pixel (i+l, j+p) relative to the pixel (i, j), which receives the input signal, and l and p vary so as to cover all the pixels of the receiver matrix (excluding the pixel itself (i , j) in which the received radiation is measured).

В подходе, известном в уровне техники, модель распределения PSF определяют с использованием экспериментальных данных. Интенсивность фантомного сигнала на несколько порядков ниже, чем интенсивность сигнала от объекта, поэтому в экспериментальных данных, на которые влияет шум, фантомный сигнал практически не различим, а полученные данные недостоверны. Вследствие этого в традиционном подходе только сильные фантомные компоненты могут быть обнаружены и проанализированы. При этом проведение точного эксперимента требует привлечения значительных ресурсов. Упомянутые факторы приводят к низкой точности получаемой модели PSF в подходе на основе только экспериментальных данных.In an approach known in the art, the PSF distribution pattern is determined using experimental data. The intensity of the phantom signal is several orders of magnitude lower than the intensity of the signal from the object; therefore, in experimental data affected by noise, the phantom signal is almost indistinguishable, and the obtained data are unreliable. Because of this, in the traditional approach, only strong phantom components can be detected and analyzed. At the same time, conducting an accurate experiment requires the involvement of significant resources. These factors lead to low accuracy of the obtained PSF model in the approach based only on experimental data.

При оптическом моделировании ядра PSF генерируются оптической моделью ToF-камеры как отношение сигнала рассеяния к измеренному сигналу в соответствии с уравнением: In optical simulation, the PSF kernels are generated by the optical model of the ToF camera as the ratio of the scatter signal to the measured signal according to the equation:

Figure 00000023
,
Figure 00000023
,

где

Figure 00000024
- моделирование такого измерения, которое имеет ненулевое значение входного сигнала только в местоположении пикселя (i, j),
Figure 00000025
- уровень (интенсивность) рассеяного сигнала по сенсору камеры, представленный в виде двухмерной функции (матрицы), при входном сигнале, приходящем в пиксель (i, j),
Figure 00000026
- ядро PSF при входном сигнале, приходящем в пиксель (i, j).where
Figure 00000024
- simulation of such a measurement, which has a non-zero value of the input signal only at the location of the pixel (i, j),
Figure 00000025
- the level (intensity) of the scattered signal by the camera sensor, represented as a two-dimensional function (matrix), with an input signal arriving at the pixel (i, j),
Figure 00000026
- PSF core with input signal coming to pixel (i, j).

Это обусловлено тем, что в традиционной модели сигнал рассеяния моделируется посредством PSF согласно следующему выражению: This is because in the conventional model, the scatter signal is modeled by PSF according to the following expression:

Figure 00000035
,
Figure 00000035
,

где

Figure 00000036
- уровень измеренного сигнала в пикселе (i, j) сенсора, причем
Figure 00000037
включает в себя как прямой (полезный) сигнал, так и рассеяный сигнал. where
Figure 00000036
- the level of the measured signal in the pixel (i, j) of the sensor, and
Figure 00000037
includes both the direct (useful) signal and the scattered signal.

Фантомный сигнал, создаваемый точечным объектом, распространяется по всему датчику, что означает, что ядро PSF для каждого пикселя имеет размер целого изображения. Таким образом, PSF согласно традиционной модели представлена ядром с переменной позицией, имеющим размер изображения. То есть для изображения размером 240×180 пикселей получаем 240×180=43200 ядер PSF размером 240×180 каждое. Такая аппроксимация хотя и является точной, но не может быть выполнена в реальном времени. При этом с ростом разрешения изображения соответствующим образом растет и сложность обработки такого изображения.The phantom signal generated by a point object propagates throughout the sensor, which means that the PSF kernel for each pixel is the size of an entire image. Thus, the PSF according to the traditional model is represented by a variable-position kernel having an image size. That is, for an image of 240×180 pixels, we get 240×180=43200 PSF cores of 240×180 each. Such an approximation, although accurate, cannot be performed in real time. At the same time, as the resolution of the image increases, the complexity of processing such an image increases accordingly.

В результате оптического моделирования в соответствии с настоящим изобретением может быть получена PSF более точная, чем PSF, рассчитанная только по экспериментальным данным. Оптическое моделирование позволяет выделить фантомные компоненты для получения более точной математической модели. Все фантомные компоненты могут быть обнаружены и проанализированы. Отсутствие необходимости проведения эксперимента приводит к значительной экономии ресурсов.As a result of the optical simulation in accordance with the present invention, a PSF can be obtained that is more accurate than a PSF calculated only from experimental data. Optical modeling allows you to highlight phantom components to obtain a more accurate mathematical model. All phantom components can be detected and analyzed. The absence of the need for an experiment leads to significant savings in resources.

Однако, использование PSF такого большого размера несовместимо с режимом обработки в реальном времени, поэтому требуется разреженная аппроксимация.However, using a PSF of such a large size is incompatible with real-time processing, so a sparse approximation is required.

На этапе S11 PSF аппроксимируется как полиномиальная функция радиуса, где радиус - это расстояние от пикселя

Figure 00000038
до центра изображения. In step S11, the PSF is approximated as a polynomial radius function, where the radius is the distance from the pixel
Figure 00000038
to the center of the image.

Figure 00000026
- двумерная дискретная функция (ядро). В соответствии с настоящим изобретением
Figure 00000026
аппроксимируется непрерывной одномерной функцией
Figure 00000027
, которая представлена полиномом третьей степени. Такой полином обеспечивает достаточное приближение значений ядра.
Figure 00000026
- two-dimensional discrete function (kernel). In accordance with the present invention
Figure 00000026
is approximated by a continuous one-dimensional function
Figure 00000027
, which is represented by a polynomial of the third degree. Such a polynomial provides a sufficient approximation of the kernel values.

Аппроксимация осуществляется следующим образом.Approximation is carried out as follows.

Пусть (i, j) - некоторый пиксель, для которого известно его расстояние r до центра изображения. Обозначим e как |

Figure 00000039
|. Сумму всех e по пикселям сенсора обозначим как E. Коэффициенты полинома подбираются так, что бы максимально минимизировать суммарную ошибку E. Подбор можно осуществлять, например, методом сечения отрезка пополам или любым другим стандартным методом поиска минимума.Let (i, j) be some pixel for which its distance r to the center of the image is known. Denote e as |
Figure 00000039
|. The sum of all e over the sensor pixels is denoted as E. The polynomial coefficients are selected so as to minimize the total error E as much as possible. Selection can be carried out, for example, by the method of cutting a segment in half or by any other standard method of finding a minimum.

Таким образом, в соответствии с настоящим изобретением предложена точная аппроксимация рассеяния путем моделирования разреженного представления ядра PSF с переменной позицией так, чтобы каждое ядро PSF имело размер 3×3 с весами (весовыми коэффициентами) ядра, зависящими только от расстояния в пикселях от центра изображения, в соответствии со следующим уравнением:Thus, in accordance with the present invention, an accurate scattering approximation is proposed by modeling a sparse representation of a PSF kernel with a variable position such that each PSF kernel has a size of 3x3 with kernel weights depending only on the distance in pixels from the center of the image, according to the following equation:

Figure 00000040
,
Figure 00000040
,

где

Figure 00000027
- пространственно переменное ядро размера 3х3, r - расстояние от пикселя (i, j) до центра изображения,
Figure 00000032
- уровень измеренного сигнала в пикселе (i, j) сенсора. where
Figure 00000027
- spatially variable kernel size 3x3, r - distance from the pixel (i, j) to the center of the image,
Figure 00000032
- level of the measured signal in the pixel (i, j) of the sensor.

На основе анализа распределения сигнала по датчику была предложена оптимальная математическая формулировка

Figure 00000027
:Based on the analysis of the signal distribution over the sensor, an optimal mathematical formulation was proposed
Figure 00000027
:

Figure 00000028
,
Figure 00000028
,

где A(r) - коэффициент усиления, G - ядро 3×3. where A(r) is the gain, G is the 3x3 kernel.

Для вычисления значения рассеянного сигнала в некотором пикселе P находится симметричный относительно центра изображения пиксель P(r). Например, если центр находится в пикселе с координатами [120, 90] и пиксель P имеет координаты [80, 60], то пиксель P(r) имеет координаты [160, 120] и r=50 - расстояние до центра изображения (радиус). To calculate the value of the scattered signal, a pixel P(r) that is symmetric with respect to the center of the image is found in some pixel P. For example, if the center is at the pixel with coordinates [120, 90] and pixel P has coordinates [80, 60], then pixel P(r) has coordinates [160, 120] and r=50 is the distance to the center of the image (radius) .

Далее рассеянный сигнал в точке P вычисляется как свертка ядра G с измеренным сигналом в точке P(r), умноженная на коэффициент усиления A(r). Такая обработка выполняется для всех пикселей матрицы приемника.Next, the scattered signal at point P is calculated as the convolution of the kernel G with the measured signal at point P(r), multiplied by the gain A(r). Such processing is performed for all pixels of the receiver matrix.

Значение A(r) - безразмерная величина, которая зависит от радиуса r (расстояния от P до центра), при этом A(r) - одномерная функция, которая в примерном варианте осуществления задается с помощью полинома третьей степени. В общем случае она может задаваться как кусочно-линейная функция. A(r) определяет уровень рассеянного сигнала.The value of A(r) is a dimensionless quantity that depends on the radius r (distance from P to the center), while A(r) is a one-dimensional function, which in an exemplary embodiment is given by a polynomial of the third degree. In the general case, it can be given as a piecewise linear function. A(r) determines the level of the scattered signal.

G - постоянное ядро (матрица 3х3), которое не зависит от радиуса. Матрица G аппроксимирует локальные аберрации света в окрестности пикселя.G is a constant kernel (3x3 matrix), which does not depend on the radius. The matrix G approximates the local aberrations of light in the vicinity of a pixel.

На фиг. 5 показан пример моделирования фантомного сигнала звездообразного объекта. Белый крест отмечает центр изображения, а квадрат определяет G-ядро 3×3 для свертки. Фантомный сигнал формируется зеркально относительно изображения на основании расстояния от текущей точки до центра изображения.In FIG. 5 shows an example of modeling a phantom signal of a star-shaped object. The white cross marks the center of the image, and the square defines the 3×3 G-kernel to convolve. The phantom signal is mirrored to the image based on the distance from the current point to the center of the image.

Значения матрицы G и коэффициенты полинома, задающего A(r), могут быть получены в результате машинного обучения, т.е. в автоматическом режиме подбираются так, чтобы результат применения математической модели аппроксимации рассеянного излучения был максимально близок к реальным (измеренным) значениям. A(r) и G задают модель формирования фантомных изображений. В простейшем случае матрицей G можно пренебречь, и тогда

Figure 00000041
.The values of the matrix G and the coefficients of the polynomial defining A(r) can be obtained as a result of machine learning, i.e. in automatic mode are selected so that the result of applying the mathematical model of scattered radiation approximation is as close as possible to real (measured) values. A(r) and G define the ghost imaging model. In the simplest case, the matrix G can be neglected, and then
Figure 00000041
.

Стоит обратить внимание, что интенсивности фантомного и прямого сигналов отображаются на фиг. 5 в логарифмическом масштабе, так что фантомный сигнал можно различить, в линейном масштабе фантом был бы малозаметным.It is worth noting that the intensities of the phantom and direct signals are displayed in Fig. 5 on a logarithmic scale so that the phantom signal can be distinguished, on a linear scale the phantom would be barely noticeable.

Фантомное изображение моделируется как The ghost image is modeled as

Figure 00000042
,
Figure 00000042
,

где

Figure 00000043
- пиксель на изображении, расположенный на расстоянии R от центра изображения и
Figure 00000044
- фантомный пиксель в зеркальном положении относительно центра сенсора по отношению к пикселю
Figure 00000045
,
Figure 00000046
и
Figure 00000047
- интенсивности пикселей сигнала от объекта и фантомного сигнала, соответственно. Свертка G-ядра 3×3 с сигналом изображения выполняется по положению
Figure 00000043
, результат свертки, усиленный с помощью
Figure 00000048
, формирует фантомный сигнал в точке
Figure 00000049
. where
Figure 00000043
- a pixel in the image located at a distance R from the center of the image and
Figure 00000044
- phantom pixel in a mirror position relative to the center of the sensor in relation to the pixel
Figure 00000045
,
Figure 00000046
and
Figure 00000047
are the pixel intensities of the signal from the object and the phantom signal, respectively. 3x3 G-kernel convolution with image signal is done by position
Figure 00000043
, the result of the convolution enhanced with
Figure 00000048
, generates a phantom signal at the point
Figure 00000049
.

На этапе S2 посредством ToF-камеры осуществляют захват сцены, в результате которого получают набор данных, характеризующих захватываемую сцену.At step S2, a scene is captured by means of a ToF camera, as a result of which a set of data characterizing the captured scene is obtained.

Далее на этапе S3 осуществляют компенсацию фантомных сигналов в наборе данных захваченного изображения сцены, полученном на этапе S2, с помощью модели распределения PSF, полученной на этапе S1. Для этого итеративно вычитают измерение уровня рассеянного сигнала пикселя (i, j) из каждого пикселя в последовательности PSF следующим образом:Next, in step S3, phantom signals are compensated in the captured scene image data set obtained in step S2 using the PSF distribution model obtained in step S1. To do this, iteratively subtract the scattered signal level measurement of the pixel (i, j) from each pixel in the PSF sequence as follows:

Figure 00000029
,
Figure 00000029
,

где

Figure 00000030
- уровень скомпенсированного (восстановленного) сигнала (i, j),
Figure 00000031
- уровень рассеянного сигнала в пикселе (i, j),
Figure 00000032
- уровень измеренного сигнала в пикселе (i, j) сенсора. where
Figure 00000030
- level of compensated (restored) signal (i, j),
Figure 00000031
- scattered signal level in a pixel (i, j),
Figure 00000032
- level of the measured signal in the pixel (i, j) of the sensor.

На этапе S4 скорректированные данные сцены, в которых скомпенсированы фантомные сигналы, используют для формирования карты глубины сцены. In step S4, the corrected scene data in which phantom signals are compensated is used to generate a scene depth map.

Разработанная компактная модель PSF обеспечивает реализацию в реальном времени алгоритма компенсации фантомных сигналов в изображении, захватываемом ToF-камерой, сохраняя при этом качественный уровень компенсации традиционного подхода. Данный алгоритм может выполняться, в том числе, в маломощных устройствах на платформе SoC (System-on-a-Chip).The developed compact PSF model provides a real-time implementation of the algorithm for compensating phantom signals in an image captured by a ToF camera, while maintaining the quality level of compensation of the traditional approach. This algorithm can be executed, among other things, in low-power devices based on the SoC (System-on-a-Chip) platform.

Использование предварительно рассчитанной модели PSF и данных захватываемой сцены (raw phases) позволяет компенсировать ошибки измерения дальности в реальном времени. Использование оптического моделирования позволяет получить точную модель распределения PSF и компенсировать даже относительно слабые фантомные компоненты, что обеспечивает высокое качество компенсации. При этом аппроксимация модели распределения PSF позволяет значительно снизить ее размер, а, следовательно, и объем занимаемой этими данными памяти, а также сложность их обработки, сохраняя высокое качество компенсации. В результате настоящее решение может быть реализовано даже на не очень мощных, с точки зрения вычислительной мощности, устройствах. Кроме того, настоящее решение не требует дополнительных дорогостоящих механических доработок существующего оборудования, что свидетельствует о его простоте и экономичности с точки зрения материальных, временных и иных ресурсов. The use of a pre-calculated PSF model and data from the captured scene (raw phases) makes it possible to compensate for real-time ranging errors. The use of optical simulation makes it possible to obtain an accurate model of the PSF distribution and to compensate for even relatively weak phantom components, which ensures high quality compensation. At the same time, the approximation of the PSF distribution model can significantly reduce its size, and, consequently, the amount of memory occupied by these data, as well as the complexity of their processing, while maintaining a high quality of compensation. As a result, the present solution can be implemented even on devices that are not very powerful in terms of computing power. In addition, this solution does not require additional costly mechanical modifications to existing equipment, which indicates its simplicity and economy in terms of material, time and other resources.

В альтернативном варианте осуществления в случае, когда известны не все параметры оптической системы, для получения высокоточной оптической модели PSF может применяться машинное обучение. С этой целью описанный выше этап S1 дополнительно включает в себя этапы (см. фиг. 6), на которых:In an alternative embodiment, in the case where not all parameters of the optical system are known, machine learning can be used to obtain a highly accurate PSF optical model. To this end, the above-described step S1 further includes the steps (see FIG. 6) in which:

- Собирают экспериментальные данные (этап S12).- Collect experimental data (step S12).

На этапе S12 посредством устройства захвата изображений (ToF-камеры) захватывают множество пар изображений, причем каждая пара изображений включает в себя изображение с фантомными артефактами, захваченное посредством расположения некоторого объекта близко к объективу устройства захвата изображений, что приводит к возникновению упомянутых артефактов, а также «эталонное» изображение без фантомных артефактов, захваченное без объекта, расположенного близко к объективу устройства захвата изображений, и при неизменном заднем фоне захватываемой сцены.At step S12, a plurality of pairs of images are captured by an image capturing device (ToF camera), each pair of images including an image with phantom artifacts captured by placing an object close to the lens of the image capturing device, which leads to the mentioned artifacts, and also A "reference" image without phantom artifacts, captured without an object close to the lens of the image capture device, and with the background of the captured scene unchanged.

- Оптимизируют модель PSF с использованием машинного обучения (этап S13).- Optimize the PSF model using machine learning (step S13).

На этапе S13 выполняют оптимизацию модели PSF во время фазы обучения ML-модели на основе наборов данных, полученных на этапе S12, включающих в себя пары, состоящие из изображения с артефактами и изображения без артефактов. In step S13, optimization of the PSF model is performed during the training phase of the ML model based on the data sets obtained in step S12, including pairs consisting of an image with artifacts and an image without artifacts.

Традиционная концепция машинного обучения с прямым и обратным распространением используется для настройки весов PSF, заданных оптической моделью, для достижения максимальной сходимости с эталонными данными. Модель может быть построена на любой распространенной платформе машинного обучения.The traditional concept of forward and backpropagation machine learning is used to adjust the PSF weights given by the optical model to achieve maximum convergence with the reference data. The model can be built on any common machine learning platform.

В качестве примера данный вариант осуществления может быть описан следующим образом:As an example, this embodiment can be described as follows:

На этапах S10 и S11 формируют начальную модель распределения

Figure 00000050
как описано выше в настоящем описании. Стоит отметить, что, т.к. известны не все параметры оптической системы, то модель PSF формируется с некоторыми допущениями, т.е., возможно, параметры данной модели имеют расхождения с параметрами реальной оптической системы.In steps S10 and S11, an initial distribution model is generated
Figure 00000050
as described above in the present description. It is worth noting that, since not all parameters of the optical system are known, then the PSF model is formed with some assumptions, i.e., perhaps, the parameters of this model have discrepancies with the parameters of the real optical system.

Далее посредством ToF-камеры на этапе S12 захватывают множество пар изображений, как описано выше, причем каждая пара изображений сцены включает в себя изображение с фантомными артефактами (сигнал

Figure 00000037
) и эталонное изображение («ground truth») без артефактов (сигнал
Figure 00000051
).Next, a plurality of pairs of images are captured by the ToF camera in step S12 as described above, each pair of scene images including an image with phantom artifacts (signal
Figure 00000037
) and a reference image ("ground truth") without artifacts (signal
Figure 00000051
).

Рассеянный сигнал задается как

Figure 00000052
. Необходимо подобрать параметры ядра PSF так, чтобы скомпенсированный сигнал
Figure 00000053
был максимально близок к реальному сигналу
Figure 00000051
(«ground-truth»). PSF определяется A(r) и G, где A(r) задается полиномом третьей степени и G представляет собой матрицу 3х3. Таким образом, коэффициенты полинома A(r) и веса матрицы G - неизвестные переменные, которые необходимо найти. The scattered signal is given as
Figure 00000052
. It is necessary to select the parameters of the PSF core so that the compensated signal
Figure 00000053
was as close as possible to the real signal
Figure 00000051
("ground truth"). PSF is defined by A(r) and G, where A(r) is given by a third degree polynomial and G is a 3x3 matrix. Thus, the coefficients of the polynomial A(r) and the weights of the matrix G are unknown variables that need to be found.

Благодаря наличию достоверных измерений

Figure 00000051
можно задать функцию потерь L2, которая определяет степень близости скомпенсированного сигнала
Figure 00000030
к сигналу
Figure 00000051
. Due to reliable measurements
Figure 00000051
you can set the loss function L2, which determines the degree of closeness of the compensated signal
Figure 00000030
to signal
Figure 00000051
.

В итоге, задавая входной сигнал

Figure 00000037
, преобразование входного сигнала PSF, варьируемые переменные (коэффициенты A(r) и G), функцию потерь (loss function) и выходной сигнал
Figure 00000051
, формируется полный пайплайн (расчетная схема, вычислительный конвейер обработки данных) для машинного обучения. В примерном варианте осуществления настоящего изобретения данный пайплайн был реализован на платформе MXnet. В альтернативных вариантах осуществления может быть использован любая другая платформа машинного обучения.Finally, given the input signal
Figure 00000037
, input signal transformation PSF, variable variables (coefficients A(r) and G), loss function (loss function) and output signal
Figure 00000051
, a complete pipeline (design scheme, computational data processing pipeline) is formed for machine learning. In an exemplary embodiment of the present invention, this pipeline was implemented on the MXnet platform. In alternative embodiments, any other machine learning platform may be used.

Поиск оптимальных значений варьируемых переменных осуществляется методом градиентного поиска стандартными средствами используемой платформы в автоматическом режиме. Начальные значения проинициализированы предрассчитанными параметрами, полученными с помощью оптического моделирования.The search for optimal values of variable variables is carried out by the gradient search method using standard tools of the platform used in automatic mode. The initial values are initialized with precalculated parameters obtained using optical simulation.

Таким образом, модель распределения PSF может быть проверена и уточнена на основе реальных данных, что повышает ее точность.Thus, the PSF distribution model can be tested and refined based on real data, which improves its accuracy.

В еще одном альтернативном варианте осуществления настоящего изобретения в модели оптической системы, формируемой на этапе S101, точечный объект моделируется как точечный источник света, например, ламбертовский источник. Это позволяет исключить из модели оптической системы инфракрасный источник света, при этом не влияет на форму фантомных компонентов, их амплитуду относительно сигнала от объекта и положение фантомных компонентов. Таким образом, при моделировании рассеяния в оптической системе на этапе S102, по сравнению с примерным вариантом осуществления, описанным выше в данной заявке, можно исключить из расчетов распространение света от источника света до точечного объекта и его рассеяние, что позволяет значительно снизить сложность выполняемых вычислений и затрачиваемое на них время.In yet another alternative embodiment of the present invention, in the optical system model generated in step S101, the point object is modeled as a point light source, such as a Lambert light source. This makes it possible to exclude an infrared light source from the model of the optical system, while not affecting the shape of the phantom components, their amplitude relative to the signal from the object, and the position of the phantom components. Thus, when modeling scattering in the optical system at step S102, compared with the exemplary embodiment described above in this application, the propagation of light from the light source to the point object and its scattering can be excluded from the calculations, which can significantly reduce the complexity of the calculations performed and time spent on them.

В еще одном альтернативном варианте осуществления способ перед формированием карты глубины на этапе S4 дополнительно содержит этап итеративной оценки скорректированных данных сцены, полученных на этапе S3. Итеративная оценка скорректированных данных сцены выполняется на основе начальной оценки, веса предварительно вычисленных ядер итеративно уточняются для повышения устойчивости к шуму. Данный вариант осуществления может быть реализован в ToF-камерах, функционирующих одновременно на двух частотах (например, 20МГц и 100 МГц), т.е. измерение глубины осуществляется одновременно с использованием сигналов двух частот. При наличии расхождения (ошибки)

Figure 00000054
между результатами измерения глубины, полученными с использованием разных частот, выполняется итеративная оценка скорректированных данных сцены для устранения этой ошибки.In yet another alternative embodiment, the method, prior to generating a depth map in step S4, further comprises the step of iteratively evaluating the corrected scene data obtained in step S3. An iterative evaluation of the adjusted scene data is performed based on the initial estimate, the weights of the precomputed kernels are iteratively refined to improve noise tolerance. This embodiment can be implemented in ToF cameras operating simultaneously at two frequencies (for example, 20 MHz and 100 MHz), i.e. depth measurement is carried out simultaneously using signals of two frequencies. If there is a discrepancy (mistake)
Figure 00000054
between the depth measurements obtained using different frequencies, iteratively evaluates the corrected scene data to eliminate this error.

Итеративная оценка основана на физическом ограничении, применяемом к измеренным данным согласно следующему выражению:The iterative evaluation is based on a physical constraint applied to the measured data according to the following expression:

Figure 00000055
,
Figure 00000055
,

где

Figure 00000056
- амплитуда и фаза скомпенсированного сигнала,
Figure 00000057
- амплитуда и фаза сигнала рассеяния,
Figure 00000058
- амплитуда и фаза измеренного сигнала,
Figure 00000059
- случайный шум, который всегда присутствует в реальных данных.where
Figure 00000056
- amplitude and phase of the compensated signal,
Figure 00000057
- amplitude and phase of the scattering signal,
Figure 00000058
- amplitude and phase of the measured signal,
Figure 00000059
is random noise that is always present in real data.

Применение ограничения обусловлено двумя частотами модуляции

Figure 00000060
и
Figure 00000061
ToF-камеры такими, что
Figure 00000062
. Решение в замкнутом виде может быть сформулировано как система нелинейных уравнений:The application of the limitation is due to two modulation frequencies
Figure 00000060
and
Figure 00000061
ToF cameras such that
Figure 00000062
. The solution in closed form can be formulated as a system of nonlinear equations:

Figure 00000063
Figure 00000063

Figure 00000064
Figure 00000064

Figure 00000065
Figure 00000065

Figure 00000066
,
Figure 00000066
,

где

Figure 00000067
- фаза скомпенсированного сигнала и сигнала рассеяния на частоте
Figure 00000060
,
Figure 00000068
- мнимая и реальная часть измеренного сигнала на частоте
Figure 00000069
,
Figure 00000070
- фаза скомпенсированного сигнала и сигнала рассеяния на частоте
Figure 00000061
,
Figure 00000071
- мнимая и реальная часть измеренного сигнала на частоте
Figure 00000072
.where
Figure 00000067
- the phase of the compensated signal and the frequency scattering signal
Figure 00000060
,
Figure 00000068
- imaginary and real part of the measured signal at the frequency
Figure 00000069
,
Figure 00000070
- the phase of the compensated signal and the frequency scattering signal
Figure 00000061
,
Figure 00000071
- imaginary and real part of the measured signal at the frequency
Figure 00000072
.

Таким образом, имеется система четырех нелинейных уравнений с четырьмя неизвестными. Для повышения устойчивости решения можно зафиксировать

Figure 00000073
и
Figure 00000074
. В таком случае необходимо варьировать только две переменные -
Figure 00000075
и
Figure 00000076
.Thus, there is a system of four nonlinear equations with four unknowns. To increase the stability of the solution, one can fix
Figure 00000073
and
Figure 00000074
. In this case, it is necessary to vary only two variables -
Figure 00000075
and
Figure 00000076
.

Поскольку уравнения нелинейные, поиск оптимального решения осуществляется итеративно - методом перебора возможных значений варьируемых переменных

Figure 00000075
и
Figure 00000076
и оценки, например, метрики L2 для каждой комбинации. Значения, дающие минимальную метрику L2, определяют оптимальное решение.Since the equations are non-linear, the search for the optimal solution is carried out iteratively - by enumerating the possible values of the variable variables
Figure 00000075
and
Figure 00000076
and scores, such as the L2 metric for each combination. The values that give the minimum metric L2 determine the optimal solution.

Таким образом, посредством итеративного поиска находим оптимальное решение системы уравнений, представляющее собой минимальное значение

Figure 00000054
, причем Thus, through an iterative search, we find the optimal solution of the system of equations, which is the minimum value
Figure 00000054
, and

Figure 00000077
.
Figure 00000077
.

Решение {

Figure 00000078
}, соответствующее минимальному значению
Figure 00000054
, принимается в качестве окончательного решения, причем окончательное решение оценивается посредством метрики
Figure 00000079
. Solution {
Figure 00000078
} corresponding to the minimum value
Figure 00000054
, is taken as the final decision, and the final decision is estimated by means of the metric
Figure 00000079
.

Поскольку полный перебор является вычислительно затратным, требуется применить некоторую стратегию оптимального поиска. В примерном варианте осуществления настоящего изобретения использован метод деления отрезка пополам. В качестве начальной точки поиска оптимального решения берется результат, полученный с помощью предрасчитанного ядра PSF.Since exhaustive search is computationally expensive, some optimal search strategy is required. In an exemplary embodiment of the present invention, the method of dividing a segment in half is used. As a starting point for the search for the optimal solution, the result obtained using the precalculated PSF kernel is taken.

В альтернативных вариантах осуществления настоящего изобретения могут применяться и другие известные методы оптимизации.In alternative embodiments of the present invention, other well-known optimization techniques may be used.

Такой вариант осуществления позволяет повысить качество компенсации ошибок и устойчивость системы к шумам.Such an embodiment improves the quality of error compensation and the noise immunity of the system.

Таким образом, настоящее изобретение обеспечивает простое и недорогое решение для получения карты глубины, обладающее высоким быстродействием (функционирующее в реальном времени) и высоким качеством компенсации ошибок измерения дальности ToF-камеры.Thus, the present invention provides a simple and inexpensive depth mapping solution with high speed (real-time operation) and high quality compensation of ToF camera ranging errors.

По меньшей мере некоторые из описанных выше этапов могут быть реализованы посредством модели AI (artificial intelligence искусственный интеллект). Функции, связанные с AI, могут выполняться с использованием энергонезависимой памяти, энергозависимой памяти и процессора.At least some of the steps described above can be implemented using an AI (artificial intelligence) model. AI-related functions can be performed using non-volatile memory, volatile memory, and a processor.

Процессор может включать в себя один или несколько процессоров. В это время один или несколько процессоров могут быть процессором общего назначения, например центральным процессором (CPU), процессором приложений (AP) или т.п., блоком обработки только графики, таким как блок обработки графики (GPU), блок визуальной обработки (VPU) и/или специализированный процессор AI, такой как блок нейронной обработки (NPU).The processor may include one or more processors. At this time, one or more processors may be a general purpose processor such as a central processing unit (CPU), an application processor (AP) or the like, a graphics only processing unit such as a graphics processing unit (GPU), a visual processing unit (VPU). ) and/or a dedicated AI processor such as a Neural Processing Unit (NPU).

Один или несколько процессоров управляют обработкой входных данных в соответствии с заранее определенным правилом работы или моделью искусственного интеллекта (AI), хранящейся в энергонезависимой памяти и энергозависимой памяти. Предварительно определенное рабочее правило или модель искусственного интеллекта предоставляется посредством обучения или тренировки.One or more processors manage the processing of input data in accordance with a predetermined operating rule or artificial intelligence (AI) model stored in non-volatile memory and non-volatile memory. A predetermined operating rule or artificial intelligence model is provided through training or training.

Здесь предоставление посредством обучения означает, что, применяя алгоритм обучения к множеству обучающих данных, создается предварительно определенное рабочее правило или модель AI с желаемой характеристикой. Обучение может выполняться в самом устройстве, в котором выполняется AI согласно варианту осуществления, и/или может быть реализовано посредством отдельного сервера/системы.Here, provision by training means that by applying a learning algorithm to a set of training data, a predefined working rule or AI model with the desired performance is created. The training may be performed on the device itself on which the AI is running according to the embodiment and/or may be implemented by a separate server/system.

Модель AI может состоять из множества уровней нейронной сети. Каждый уровень имеет множество значений весов и выполняет операцию уровня посредством вычисления предыдущего уровня и операции множества весов. Примеры нейронных сетей включают, помимо прочего, сверточную нейронную сеть (CNN), глубокую нейронную сеть (DNN), рекуррентную нейронную сеть (RNN), ограниченную машину Больцмана (RBM), глубокую сеть доверия (DBN), двунаправленную рекуррентную глубокую нейронную сеть (BRDNN), генеративно-состязательные сети (GAN) и глубокие Q-сети.An AI model can be composed of many layers of a neural network. Each level has a set of weights and performs a level operation by calculating the previous level and a set of weights operation. Examples of neural networks include, but are not limited to, Convolutional Neural Network (CNN), Deep Neural Network (DNN), Recurrent Neural Network (RNN), Restricted Boltzmann Machine (RBM), Deep Belief Network (DBN), Bidirectional Recurrent Deep Neural Network (BRDNN). ), generative adversarial networks (GANs), and deep Q-nets.

Алгоритм обучения - это метод обучения заранее определенного целевого устройства (например, робота) с использованием множества обучающих данных, чтобы вызывать, разрешать или управлять целевым устройством для выполнения определения или прогнозирования. Примеры алгоритмов обучения включают, но не ограничиваются ими, обучение с учителем, обучение без учителя, обучение с частичным привлечением учителя или обучение с подкреплением.A learning algorithm is a method of teaching a predetermined target device (eg, a robot) using a set of training data to call, enable, or control the target device to perform a determination or prediction. Examples of learning algorithms include, but are not limited to, supervised learning, unsupervised learning, partially supervised learning, or reinforcement learning.

Следует понимать, что хотя в настоящем документе для описания различных элементов, компонентов, областей, слоев и/или секций, могут использоваться такие термины, как "первый", "второй", "третий" и т.п., эти элементы, компоненты, области, слои и/или секции не должны ограничиваться этими терминами. Эти термины используются только для того, чтобы отличить один элемент, компонент, область, слой или секцию от другого элемента, компонента, области, слоя или секции. Так, первый элемент, компонент, область, слой или секция может быть назван вторым элементом, компонентом, областью, слоем или секцией без выхода за рамки объема настоящего изобретения. В настоящем описании термин "и/или" включает любые и все комбинации из одной или более из соответствующих перечисленных позиций. Элементы, упомянутые в единственном числе, не исключают множественности элементов, если отдельно не указано иное.It should be understood that although terms such as "first", "second", "third" and the like may be used herein to describe various elements, components, regions, layers and/or sections, these elements, components , regions, layers and/or sections should not be limited by these terms. These terms are only used to distinguish one element, component, region, layer, or section from another element, component, region, layer, or section. Thus, a first element, component, region, layer, or section may be referred to as a second element, component, region, layer, or section without departing from the scope of the present invention. As used herein, the term "and/or" includes any and all combinations of one or more of the respective listed positions. Elements mentioned in the singular do not exclude the plurality of elements, unless otherwise specified.

Функциональность элемента, указанного в описании или формуле изобретения как единый элемент, может быть реализована на практике посредством нескольких компонентов устройства, и наоборот, функциональность элементов, указанных в описании или формуле изобретения как несколько отдельных элементов, может быть реализована на практике посредством единого компонента.The functionality of an element specified in the description or claims as a single element may be practiced by several components of the device, and vice versa, the functionality of elements indicated in the description or claims as several separate elements can be practiced by means of a single component.

Варианты осуществления настоящего изобретения не ограничиваются описанными здесь вариантами осуществления. Специалисту в области техники на основе информации изложенной в описании и знаний уровня техники станут очевидны и другие варианты осуществления изобретения, не выходящие за пределы сущности и объема данного изобретения.Embodiments of the present invention are not limited to the embodiments described herein. Specialist in the field of technology on the basis of the information set forth in the description and knowledge of the prior art will become apparent and other embodiments of the invention that do not go beyond the essence and scope of this invention.

Элементы, упомянутые в единственном числе, не исключают множественности элементов, если отдельно не указано иное.Elements mentioned in the singular do not exclude the plurality of elements, unless otherwise specified.

Специалисту в области техники должно быть понятно, что сущность изобретения не ограничена конкретной программной или аппаратной реализацией, и поэтому для осуществления изобретения могут быть использованы любые программные и аппаратные средства известные в уровне техники. Так аппаратные средства могут быть реализованы в одной или нескольких специализированных интегральных схемах, цифровых сигнальных процессорах, устройствах цифровой обработки сигналов, программируемых логических устройствах, программируемых пользователем вентильных матрицах, процессорах, контроллерах, микроконтроллерах, микропроцессорах, электронных устройствах, других электронных модулях, выполненных с возможностью осуществлять описанные в данном документе функции, компьютер либо комбинации вышеозначенного.A person skilled in the art should be clear that the essence of the invention is not limited to a particular software or hardware implementation, and therefore for the implementation of the invention can be used in any software and hardware known in the prior art. Thus, hardware may be implemented in one or more ASICs, digital signal processors, digital signal processors, programmable logic devices, user programmable gate arrays, processors, controllers, microcontrollers, microprocessors, electronic devices, other electronic modules configured to perform the functions described in this document, a computer, or a combination of the above.

Очевидно, что, когда речь идет о хранении данных, программ и т.п., подразумевается наличие компьютерно-читаемого носителя данных. Примеры компьютерно-читаемых носителей данных включают в себя постоянное запоминающее устройство, оперативное запоминающее устройство, регистр, кэш-память, полупроводниковые запоминающие устройства, магнитные носители, такие как внутренние жесткие диски и съемные диски, магнитооптические носители и оптические носители, такие как диски CD-ROM и цифровые универсальные диски (DVD), а также любые другие известные в уровне техники носители данных.Obviously, when it comes to storing data, programs, and the like, the presence of a computer-readable storage medium is implied. Examples of computer-readable storage media include read only memory, random access memory, register, cache memory, semiconductor storage devices, magnetic media such as internal hard drives and removable drives, magneto-optical media, and optical media such as CD-ROMs. ROMs and digital versatile discs (DVDs), as well as any other storage media known in the art.

Несмотря на то, что примерные варианты осуществления были описаны и показаны на сопроводительных чертежах, следует понимать, что такие варианты осуществления являются лишь иллюстративными и не предназначены ограничивать более широкое изобретение, и что данное изобретение не должно ограничиваться конкретными показанными и описанными компоновками и конструкциями, поскольку различные другие модификации могут быть очевидны специалистам в соответствующей области.Although exemplary embodiments have been described and shown in the accompanying drawings, it should be understood that such embodiments are illustrative only and are not intended to limit the broader invention, and that the invention should not be limited to the particular arrangements and structures shown and described, since various other modifications may be apparent to those skilled in the art.

Признаки, упомянутые в различных зависимых пунктах формулы, а также варианты осуществления, раскрытые в различных частях описания, могут быть скомбинированы с достижением полезных эффектов, даже если возможность такого комбинирования не раскрыта явно.Features mentioned in various dependent claims, as well as embodiments disclosed in various parts of the description, can be combined to achieve beneficial effects, even if the possibility of such a combination is not explicitly disclosed.

Claims (23)

1. Способ формирования карты глубины с корректировкой ошибки измерения дальности для ToF-камеры, включающий в себя этапы, на которых:1. A method for generating a depth map with range measurement error correction for a ToF camera, which includes the steps of: - предварительно оценивают рассчитанную модель распределения PSF (функции рассеяния точки) для ToF-камеры;- preliminarily estimate the calculated PSF (point spread function) distribution model for the ToF camera; - осуществляют захват изображения сцены посредством ToF-камеры;- carry out the capture of the image of the scene by means of a ToF camera; - осуществляют компенсацию фантомных сигналов в данных захваченного изображения сцены с помощью упомянутой PSF;compensating phantom signals in the captured scene image data with said PSF; - формируют карту глубины с использованием скорректированных данных, - form a depth map using the corrected data, причем этап предварительной оценки рассчитанной модели распределения PSF включает в себя этапы, на которых:moreover, the step of preliminary estimation of the calculated PSF distribution model includes the steps of: - задают оптическую модель оптической системы камеры;- set the optical model of the optical system of the camera; - моделируют рассеяние света в оптической системе на основе упомянутой заданной модели оптической системы;- simulating light scattering in the optical system based on said predetermined model of the optical system; - вычисляют PSF оптической системы;- calculate the PSF of the optical system; - аппроксимируют PSF посредством полиномиальной функции радиуса, где радиус - это расстояние от заданного пикселя до центра изображения.- PSF is approximated by a polynomial radius function, where the radius is the distance from the given pixel to the center of the image. 2. Способ формирования карты глубины по п.1, в котором вычисление PSF оптической системы осуществляют в соответствии со следующим выражением:2. The method for generating a depth map according to claim 1, wherein the calculation of the PSF of the optical system is carried out in accordance with the following expression:
Figure 00000080
,
Figure 00000080
,
где
Figure 00000081
- моделирование измерения входного сигнала, которое имеет ненулевое значение только в местоположении пикселя (i, j),
Figure 00000082
- уровень (интенсивность) рассеянного сигнала по сенсору камеры, представленный в виде двухмерной функции (матрицы), при входном сигнале, приходящем в пиксель (i, j),
Figure 00000083
- ядро PSF при входном сигнале, приходящем в пиксель (i, j).
where
Figure 00000081
- simulation of the input signal dimension, which has a non-zero value only at the pixel location (i, j),
Figure 00000082
- the level (intensity) of the scattered signal over the camera sensor, represented as a two-dimensional function (matrix), with an input signal arriving at the pixel (i, j),
Figure 00000083
- PSF core with input signal coming to pixel (i, j).
3. Способ формирования карты глубины по п.2, в котором на этапе аппроксимации
Figure 00000083
аппроксимируется функцией
Figure 00000084
, причем каждое ядро
Figure 00000084
зависит от расстояния от заданного пикселя до центра изображения.
3. The method for generating a depth map according to claim 2, in which at the approximation stage
Figure 00000083
is approximated by the function
Figure 00000084
, and each core
Figure 00000084
depends on the distance from the given pixel to the center of the image.
4. Способ формирования карты глубины по п.3, в котором
Figure 00000084
задано выражением:
4. The method for generating a depth map according to claim 3, in which
Figure 00000084
given by:
Figure 00000085
,
Figure 00000085
,
где A(r) - коэффициент усиления, зависящий от расстояния от заданного пикселя до центра изображения, а G - ядро 3×3, которое аппроксимирует локальные аберрации света в окрестности пикселя.where A(r) is a gain depending on the distance from a given pixel to the center of the image, and G is a 3×3 kernel that approximates local light aberrations in the vicinity of the pixel. 5. Способ формирования карты глубины по п.1, в котором компенсацию фантомных сигналов в данных захваченного изображения сцены осуществляют в соответствии с выражением:5. The method for generating a depth map according to claim 1, wherein compensation of phantom signals in the captured scene image data is performed in accordance with the expression:
Figure 00000086
,
Figure 00000086
,
где
Figure 00000087
- уровень скомпенсированного (восстановленного) сигнала в пикселе (i, j),
Figure 00000088
- уровень рассеянного сигнала в пикселе (i, j),
Figure 00000089
- уровень измеренного сигнала в пикселе (i, j) сенсора.
where
Figure 00000087
- the level of the compensated (restored) signal in the pixel (i, j),
Figure 00000088
- scattered signal level in a pixel (i, j),
Figure 00000089
- level of the measured signal in the pixel (i, j) of the sensor.
6. Способ формирования карты глубины по п.1, в котором этап предварительной оценки рассчитанной модели распределения PSF дополнительно включает в себя оптимизацию полученной PSF с помощью машинного обучения на основе наборов данных, включающих в себя пары изображений, состоящие из изображения с артефактами и изображения без артефактов.6. The method for generating a depth map according to claim 1, wherein the step of pre-estimating the calculated PSF distribution model further includes optimizing the obtained PSF using machine learning based on data sets including image pairs consisting of an image with artifacts and an image without artifacts. artifacts. 7. Способ формирования карты глубины по п.1, в котором в оптической модели оптической системы ToF-камеры точечный объект моделируется как точечный источник света.7. The method for generating a depth map according to claim 1, wherein in the optical model of the optical system of the ToF camera, the point object is modeled as a point light source. 8. Способ формирования карты глубины по п.1, причем способ перед формированием карты глубины дополнительно содержит этап итеративной оценки скорректированных данных захваченного изображения сцены.8. The method for generating a depth map according to claim 1, wherein the method further comprises the step of iteratively evaluating the corrected data of the captured scene image before generating the depth map.
RU2021117320A 2021-06-15 2021-06-15 METHOD FOR CORRECTING THE DEPTH MEASUREMENT ERROR OF THE ToF CAMERA RU2770153C1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
RU2021117320A RU2770153C1 (en) 2021-06-15 2021-06-15 METHOD FOR CORRECTING THE DEPTH MEASUREMENT ERROR OF THE ToF CAMERA
PCT/KR2022/005923 WO2022265216A1 (en) 2021-06-15 2022-04-26 Depth measurement error correction method for tof camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2021117320A RU2770153C1 (en) 2021-06-15 2021-06-15 METHOD FOR CORRECTING THE DEPTH MEASUREMENT ERROR OF THE ToF CAMERA

Publications (1)

Publication Number Publication Date
RU2770153C1 true RU2770153C1 (en) 2022-04-14

Family

ID=81212544

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2021117320A RU2770153C1 (en) 2021-06-15 2021-06-15 METHOD FOR CORRECTING THE DEPTH MEASUREMENT ERROR OF THE ToF CAMERA

Country Status (2)

Country Link
RU (1) RU2770153C1 (en)
WO (1) WO2022265216A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014201076A1 (en) * 2013-06-14 2014-12-18 Microsoft Corporation Depth map correction using lookup tables
US9002511B1 (en) * 2005-10-21 2015-04-07 Irobot Corporation Methods and systems for obstacle detection using structured light
US20170123067A1 (en) * 2014-06-11 2017-05-04 Softkinetic Sensors Nv Tof camera system and a method for measuring a distance with the system
WO2018217367A1 (en) * 2017-05-24 2018-11-29 Microsoft Technology Licensing, Llc Multipath mitigation for time of flight system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012049773A (en) * 2010-08-26 2012-03-08 Sony Corp Imaging apparatus and method, and program
US9792673B2 (en) * 2015-09-25 2017-10-17 Intel Corporation Facilitating projection pre-shaping of digital images at computing devices
KR102618542B1 (en) * 2016-09-07 2023-12-27 삼성전자주식회사 ToF (time of flight) capturing apparatus and method for processing image for decreasing blur of depth image thereof
CN110709722B (en) * 2017-04-04 2023-11-24 Pmd技术股份公司 Time-of-flight camera
US20180343432A1 (en) * 2017-05-23 2018-11-29 Microsoft Technology Licensing, Llc Reducing Blur in a Depth Camera System

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9002511B1 (en) * 2005-10-21 2015-04-07 Irobot Corporation Methods and systems for obstacle detection using structured light
WO2014201076A1 (en) * 2013-06-14 2014-12-18 Microsoft Corporation Depth map correction using lookup tables
US20170123067A1 (en) * 2014-06-11 2017-05-04 Softkinetic Sensors Nv Tof camera system and a method for measuring a distance with the system
WO2018217367A1 (en) * 2017-05-24 2018-11-29 Microsoft Technology Licensing, Llc Multipath mitigation for time of flight system

Also Published As

Publication number Publication date
WO2022265216A1 (en) 2022-12-22

Similar Documents

Publication Publication Date Title
US9805294B2 (en) Method for denoising time-of-flight range images
CN110472627B (en) End-to-end SAR image recognition method, device and storage medium
Zhu et al. Reliability fusion of time-of-flight depth and stereo geometry for high quality depth maps
US10110881B2 (en) Model fitting from raw time-of-flight images
US20180278910A1 (en) Correction of multipath interference in time of flight camera depth imaging measurements
Marin et al. Reliable fusion of tof and stereo depth driven by confidence measures
Navarrete et al. Color smoothing for RGB-D data using entropy information
WO2023201783A1 (en) Light field depth estimation method and apparatus, and electronic device and storage medium
EP3791209A1 (en) Phase wrapping determination for time-of-flight camera
US20230081137A1 (en) Spatial metrics for denoising depth image data
US20180268522A1 (en) Electronic device with an upscaling processor and associated method
Belhedi et al. Noise modelling in time‐of‐flight sensors with application to depth noise removal and uncertainty estimation in three‐dimensional measurement
Wan et al. A study in 3d-reconstruction using kinect sensor
WO2023075885A1 (en) Denoising depth image data using neural networks
Skelton et al. Consistent estimation of rotational optical flow in real environments using a biologically-inspired vision algorithm on embedded hardware
Yang et al. Research on Edge Detection of LiDAR Images Based on Artificial Intelligence Technology
RU2770153C1 (en) METHOD FOR CORRECTING THE DEPTH MEASUREMENT ERROR OF THE ToF CAMERA
Tadic et al. Edge-preserving Filtering and Fuzzy Image Enhancement in Depth Images Captured by Realsense Cameras in Robotic Applications.
Vaida et al. Automatic extrinsic calibration of LIDAR and monocular camera images
Kim et al. Depth map enhancement using adaptive steering kernel regression based on distance transform
Tsiotsios et al. Model effectiveness prediction and system adaptation for photometric stereo in murky water
US20240125935A1 (en) Arithmetic operation system, training method, and non-transitory computer readable medium storing training program
Hillemann et al. Novel View Synthesis with Neural Radiance Fields for Industrial Robot Applications
US20240126953A1 (en) Arithmetic operation system, training method, and non-transitory computer readable medium storing training program
US20240126952A1 (en) Arithmetic operation system, training method, and non-transitory computer readable medium storing training program