WO2016048193A1 - Способ определения расстояния до объекта при помощи камеры (варианты) - Google Patents

Способ определения расстояния до объекта при помощи камеры (варианты) Download PDF

Info

Publication number
WO2016048193A1
WO2016048193A1 PCT/RU2015/000543 RU2015000543W WO2016048193A1 WO 2016048193 A1 WO2016048193 A1 WO 2016048193A1 RU 2015000543 W RU2015000543 W RU 2015000543W WO 2016048193 A1 WO2016048193 A1 WO 2016048193A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
distance
calibration characteristics
calibration
selection
Prior art date
Application number
PCT/RU2015/000543
Other languages
English (en)
French (fr)
Inventor
Иван Сергеевич ШИШАЛОВ
Андрей Викторович ФИЛИМОНОВ
Олег Андреевич ГРОМАЗИН
Владимир Владимирович ПАРХАЧЕВ
Original Assignee
Общество С Ограниченной Ответственностью "Дисикон"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Общество С Ограниченной Ответственностью "Дисикон" filed Critical Общество С Ограниченной Ответственностью "Дисикон"
Priority to EA201700118A priority Critical patent/EA201700118A1/ru
Priority to US14/895,216 priority patent/US20180040138A1/en
Publication of WO2016048193A1 publication Critical patent/WO2016048193A1/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches

Definitions

  • This invention relates to systems and methods for measuring the distance to remote objects using a video sensor (camera).
  • Lidar LIDAR transliteration. Light Detection and Ranging - light detection and ranging
  • the disadvantages of these solutions is the need to use additional equipment, which increases the cost of construction and is not always possible in the conditions of already installed CCTV systems.
  • a technical solution is known RF patent 2470376, "A method for determining the distance from the camcorder speed meter to the vehicle (options)", the applicant LLC “Recognition Technologies", published December 20, 2012.
  • the group of inventions relates to instrumentation and can be used to determine the distance to a moving vehicle (vehicle).
  • a video camera is placed on the vehicle’s path of movement, when a vehicle appears in the control zone, a video frame with an image of a plate with a state registration mark (GRZ) is fixed on the vehicle. Recognition of the symbols of the distributor is performed, which determines the type of plate of the distributor.
  • GRZ state registration mark
  • the coordinates of the points (vertices) of the angles of the image of the ID plate in the coordinate system of the video frame are measured, the geometric dimensions of the image of the ID plate on the video frame are determined in pixels.
  • the distance is measured to a certain point of the vehicle, namely to the center of the plate of the filter plate, regardless of the height of the video camera above the road.
  • the determination of the height of the suspension plate GRZ above the road can increase the likelihood of identifying a vehicle when a speed violation is detected.
  • This invention is directed to eliminating the disadvantages inherent in the known technical solutions.
  • the technical result of this invention is to simplify the design of video surveillance systems and the ability to use existing (mounted) systems to determine the distance to remote objects, without the use of additional equipment.
  • the method for determining the distance using the camera includes the following steps: get at least one video frame and calibration characteristics of the camera, then select and enter the dimensions of at least one object, the distance to which you want to measure, then determine the distance to at least one selected object based on the calibration characteristics of the camera.
  • the calibration characteristics of the camera may include:
  • the calibration characteristics of the camera may include:
  • calibration characteristics are entered by the user.
  • calibration characteristics are obtained from the camera. In some embodiments, calibration characteristics are obtained from a special reference book based on camera information.
  • calibration characteristics are measured using specialized tests.
  • the distance to increase the accuracy of determining the distance, several frames are used, followed by averaging and statistical analysis of information.
  • the selection of the object occurs automatically, using video analytics.
  • the selection of the object is carried out manually by the user.
  • the size of the object is determined automatically, based on the database of objects and their sizes.
  • the size of the object is set manually.
  • the selection of an object is set using a custom tool by inserting the start and end points of the coordinates along the x-axis of the object, indicating the size of the object along this axis.
  • the selection of an object is specified using a custom tool by inserting the start and end points of the x coordinates of the object with the dimensions of the object along the specified axes.
  • three sizes of the object are determined - along the x, y, z axes in a Cartesian coordinate system.
  • the selection of the object is set using a rectangle with the metric dimensions of the object.
  • the method for determining the distance using the camera includes the following steps: at least two delayed video frames and calibration characteristics of the camera are obtained, at least one object is selected, the distance to which must be measured and its model is formed, then determine the distance to the object, based on the model of the object and the orientation of the camera.
  • the calibration characteristics of the camera may include:
  • the calibration characteristics of the camera may include:
  • calibration characteristics are entered by the user.
  • calibration characteristics are obtained from the camera. In some embodiments, calibration characteristics are obtained from a special reference book based on camera information.
  • calibration characteristics are measured using specialized tests.
  • the delay is predefined at the configuration stage.
  • the delay is determined dynamically, by the fact of the pixel offset of the object in the video frame.
  • an object is automatically populated using video analytics.
  • the object is manually implemented by the user.
  • video analytics determines the direction vectors of the movement of various parts of the object.
  • the object model includes meteorological information.
  • the object model is selected from the base of models and refined based on data on the movement of the object and / or external conditions.
  • the direction vectors of the movement of various parts of the object are compared with predefined motion models, depending on external conditions and refined based on current data
  • the method according to the first embodiment can be implemented as a distance determination system, including:
  • a photo and / or video recording device, one or more command processing devices, one or more data storage devices, one or more programs, where one or more programs are stored on one or more data storage devices and executed on one or more command processing devices moreover, one or more programs includes instructions for implementing the method according to the first and / or second option.
  • the photo and / or video recording device there may be a camera configured to shoot video and / or a sequence of photographs, or a video camera.
  • Camera - a photo / video camera or any other photo-video-fixing element with an optical system.
  • Focal length (English focal length) - the physical characteristic of the optical system.
  • Focal length (English focal length) - the physical characteristic of the optical system.
  • the focal length of a lens is the distance from its optical center to the matrix of the camera or 1X1 camcorder.
  • Distortion from lat. Distorsio, distortio - distortion
  • an aberration of optical systems in which the linear increase varies along the field of view. This violates the similarity between the object and its image III.
  • Distortion caused by lens distortion is determined by / 21:
  • (x 2 + y 2 ) is the distance from the center of the frame to the point with coordinates (x, y).
  • Camera resolution the number of elements (pixels) in the camera matrix, usually along 2 axes.
  • Matrix size the physical size of the matrix of a video camera, usually measured in inches and is determined by the diagonal and aspect ratio.
  • Camera calibration is the task of obtaining the internal and external parameters of the camera (the so-called calibration parameters) from the photos or video taken by it.
  • the angular size is the angle between the lines connecting the diametrically opposite points of the measured object and the observer’s eyes or the location of the camera.
  • the present invention in its various embodiments can be carried out in the form of a method, including implemented on a computer, in the form of a system or computer-readable medium containing instructions for performing the above method.
  • a system means a computer system, a computer (electronic computer), CNC (numerical control), PLC (programmable logic controller), computerized control systems and any other devices that can perform a given, clearly defined sequence of operations (actions, instructions).
  • a command processing device an electronic unit or an integrated circuit (microprocessor) that executes machine instructions (programs).
  • the command processing device reads and executes machine instructions (programs) from one or more data storage devices.
  • Data storage devices may include, but are not limited to, hard disks (HDDs), flash memory, ROM (read only memory), solid state drives (SSDs), and optical drives.
  • a program is a sequence of instructions intended for execution by a control device of a computer or a device for processing commands.
  • the method of determining the distance to the object using the camera includes the following steps:
  • At least one frame and camera calibration characteristics are obtained.
  • a frame we understand at least one video or photo frame (image) obtained from a photo or video camera.
  • several frames are used, followed by averaging and statistical analysis of information.
  • the calibration characteristics of the camera may include, but not limited to:
  • calibration characteristics can be expressed as a combination of several of the above parameters.
  • the calibration characteristic of the camera may include a vertical view of the camera (e.g., 3 degrees), aspect ratio (e.g., 4/3), and resolution (e.g., 800x600).
  • a vertical view of the camera e.g., 3 degrees
  • aspect ratio e.g., 4/3
  • resolution e.g., 800x600
  • Calibration characteristics in various implementations, can be entered by the user, obtained from the camera or a special guide based on camera information, and also measured using specialized tests.
  • the object can be populated (determining its size in pixels or pixel sizes) can occur automatically, using video analytics (computer vision system) or manually by the user.
  • the dimensions of the object can be determined automatically, based on the database of objects and their sizes, taking into account the recognition of the object produced by video analytics / 1 /, or manually set by the user.
  • the size of an object is specified in a metric or other measurement system.
  • the object is set using a specialized user tool (for example, a “ruler”) by highlighting the start and end points of the coordinates along the x-axis of the object, indicating the size of the object along this axis.
  • a specialized user tool for example, a “ruler”
  • the user tool is a graphical way to select an object, in which, using input devices, a line is drawn (drawn) over the object connecting the start and end points of the coordinates along one of the x, y axes.
  • the object is set using the user tool by selecting the start and end points of the x coordinates of the object, indicating the size of the object along the specified axes.
  • the desired object is selected using a rectangle with the task of setting the metric dimensions of the object (width, height)
  • three sizes of the object are determined - along the x, y, z axes in a Cartesian coordinate system.
  • the camera angle Based on the image resolution data, the camera angle, the obtained pixel dimensions of the object, the range is calculated.
  • the angular dimensions of the object are obtained based on the pixel sizes specified by the user or determined automatically.
  • c x , c y are the coordinates of the center of the optical axis in pixels
  • f is the focal length in pixels
  • s is the aspect ratio of the pixel
  • k is the vector of distortion coefficients.
  • the Normalize / 3 / procedure translates the image coordinates into the focal plane coordinate system, taking into account distortions introduced by distortion, the position of the camera sensor and the pixel aspect ratio:
  • the method of determining the distance to the object using the camera includes the following steps:
  • At least two delayed video frames and camera calibration data are received
  • the calibration characteristics of the camera may include, but not limited to:
  • calibration characteristics can be expressed as a combination of several of the above parameters.
  • the calibration characteristic of the camera may include a vertical view of the camera (e.g., 3 Degrees), aspect ratio (e.g., 4/3), and resolution (e.g., 800x600).
  • a vertical view of the camera e.g., 3 Degrees
  • aspect ratio e.g., 4/3
  • resolution e.g., 800x600
  • Calibration characteristics in various implementations, can be entered by the user, obtained from the camera or a special guide based on camera information, and also measured using specialized tests.
  • the video stream is constantly received from the camera, while on the first video frame the object to which they want to measure the distance is determined, the object is classified, then the delay time is selected depending on the type of object, then the second frame is selected taking into account the delay, which also highlight this object.
  • the delay is determined dynamically, by the fact of the pixel offset of the object in the video frame.
  • the delay is pre-set when setting up the system.
  • At least two video frames are obtained that differ in the location of the object.
  • At least one object is allocated, the distance to which must be measured and its model is formed
  • An object is selected on video frames, the distance to which it is necessary to measure, and based on information about the change in the location and / or size of the object, as well as taking into account the type of object and external weather and other conditions, an object model is described that describes its behavior over time.
  • the model of an object we mean the characteristics of the movement of the object. In the simplest case, this is linear motion.
  • a model can be selected that describes the speed of his movement equal to 5 km / h.
  • the selection of the object can occur automatically, using video analytics (computer vision system) or manually by the user.
  • the user selects the object on at least two video frames received with a delay.
  • the user on several (at least 2) adjacent frames indicates the direction of displacement of its total smoke front, which is associated with wind speed and direction wind relative to observation.
  • video analytics determines the so-called A “cloud” of motion, and a direction vector is determined for different parts of the movement (hereinafter, by a “cloud” we will mean a lot of parts (points) of an object that change their position in time, for which motion vectors are determined, Fig. 2).
  • a “cloud” we will mean a lot of parts (points) of an object that change their position in time, for which motion vectors are determined, Fig. 2).
  • the “cloud” of motion defined on the video frames is compared with predefined motion patterns, depending on external conditions (for example, wind) and is refined based on current data.
  • the model most likely for current weather conditions can be selected.
  • smoke we can consider the general situation when in the automatic mode, separate elements are detected in the smoke, then the movement of each element between the video frames is determined and a cloud of motion is obtained, and each element of this cloud will have its own vector.
  • Different clouds of movement for different types of objects - smoke, gas cloud, etc.
  • wind speeds and the size of the fire in the case of smoke
  • the larger the fire the greater the velocity along the vertical component, the greater the wind, the greater the velocity along the horizontal component.
  • the object model includes meteorological information.
  • b the angle between the motion vector and the projection plane of the image.
  • the Normalize procedure translates the image coordinates into the coordinate system of the focal plane, taking into account distortions introduced by distortion, the position of the camera sensor and the aspect ratio of the pixel:
  • r is the desired distance to the object
  • M is the calculated metric displacement of the object on the plane of the lens matrix
  • a is determined from the calibration characteristic (which relates the angle of arrival of the image beam and the pixel in the image) and the segment of the visible movement of the object highlighted in the image.
  • At least one video frame and calibration characteristics of the camera are obtained;
  • the pixel aspect ratio s is 1.05, (vertical to horizontal)
  • Distortion coefficient -0.122, we consider the coefficients at higher degrees equal to zero.
  • Video analytics determines the appearance of an object to which it is necessary to determine the distance. Let's say a car object appeared on the frame. Video analytics recognizes a car on the frame, then the size of the specified object is searched in the database of objects. It is determined that the average car length is 4 m in the image, while the direction of observation of the car is perpendicular to the car (the length is displayed without projection distortion)
  • the angular dimensions of the object are determined.
  • At least two delayed video frames and camera calibration data are received
  • the delay time between frames is 0.1 seconds.
  • At least one object is allocated, the distance to which must be measured and its model is formed;
  • a moving object is detected on 2 images and its location is noted on both images.
  • the distance to the object is determined based on the model of the object and the orientation of the camera.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

Данное изобретение относится к системам и способам измерения расстояния до удаленных объектов при помощи камеры. Согласно первому варианту, способ определения расстояния при помощи камеры, включает следующие шаги: получают, по крайней мере, один видеокадр и калибровочные характеристики камеры, далее выделяют и вводят размеры, по крайней мере, одного объекта, расстояние до которого необходимо измерить, затем определяют расстояние до, по крайней мере, одного выделенного объекта на основании калибровочных характеристик камеры. Согласно второму варианту, способ определения расстояния при помощи камеры, включает следующие шаги: получают, по крайней мере, два видеокадра с задержкой и калибровочные характеристики камеры, выделяют, по крайней мере, один объект, расстояние до которого необходимо измерить и формируют его модель, затем определяют расстояние до объекта, на основании модели объекта и ориентации камеры.

Description

СПОСОБ ОПРЕДЕЛЕНИЯ РАССТОЯНИЯ ДО ОБЪЕКТА ПРИ ПОМОЩИ КАМЕРЫ (ВАРИАНТЫ)
ОБЛАСТЬ ТЕХНИКИ
Данное изобретение относится к системам и способам измерения расстояния до удаленных объектов при помощи видеосенсора (камеры).
УРОВЕНЬ ТЕХНИКИ
Известны способы и системы определения расстояния до удаленного объекта.
Известна группа систем и способов, использующие для определения расстояния до объекта т.н. лидары. Лидар (транслитерация LIDAR англ. Light Detection and Ranging— световое обнаружение и определение дальности)— технология получения и обработки информации об удалённых объектах с помощью активных оптических систем, использующих явления отражения света и его рассеяния в прозрачных и полупрозрачных средах. Недостатками данных решений является необходимость использовать дополнительное оборудование, что удорожает конструкцию и не всегда возможно в условиях уже смонтированных систем видеонаблюдения.
Из уровня техники известен способ определения расстояния до объекта при помощи оптического прибора (например, бинокля) или «на глаз», «Снайпер. Методологическая подготовка», А.Ф. Домненко - Ростов н/Д.: Феникс, 2006 - 176 с: ил. Недостатком данного способа является невозможность его применения в существующих системах видеонаблюдения и видеомониторинга.
Известно техническое решение патент РФ 2470376, «Способ определения расстояния от видеокамеры измерителя скорости до транспортного средства (варианты)», заявитель ООО «Технологии Распознавания», опубликовано 20.12.2012. Группа изобретений относится к контрольно-измерительной технике и может применяться для определения расстояния до движущегося транспортного средства (ТС). На пути движения ТС размещают видеокамеру, при появлении ТС в зоне контроля фиксируют видеокадр с изображением пластины с государственным регистрационным знаком (ГРЗ) на ТС. Производят распознавание символов ГРЗ, по которым определяют тип пластины ГРЗ. Измеряют координаты точек (вершин) углов изображения пластины ГРЗ в системе координат видеокадра, определяют геометрические размеры изображения пластины ГРЗ на видеокадре в пикселях. В заявленной группе изобретений измеряется расстояние до определенной точки ТС, а именно до центра пластины ГРЗ, независимо от высоты установки видеокамеры над автодорогой. Кроме того, обеспечивается определение высоты подвеса пластины ГРЗ над дорогой. Применение группы изобретений позволяет повысить вероятность идентификации ТС при обнаружении нарушения скоростного режима.
Недостатком данного технического решения является необходимость точной привязки камеры к ее местоположению и получаемому с нее изображению, а так же предварительного измерения параметров взаимного расположения видеокамеры и ее зоны контроля в плоскости дороги: высоту подвеса камеры над дорогой, расстояние от точки проекции видеокамеры на дорогу до начала зоны контроля и т.д., что трудно реализуемо при большой удаленности объектов. СУЩНОСТЬ ИЗОБРЕТЕНИЯ
Данное изобретение направлено на устранение недостатков присущих известным техническим решениям.
Техническим результатом данного изобретения является упрощение конструкции систем видеонаблюдения и возможность использовать уже существующие (смонтированные) системы для определения расстояния до удаленных объектов, без использования дополнительного оборудования.
Согласно первому варианту, способ определения расстояния при помощи камеры, включает следующие шаги: получают, по крайней мере, один видеокадр и калибровочные характеристики камеры, далее выделяют и вводят размеры, по крайней мере, одного объекта, расстояние до которого необходимо измерить, затем определяют расстояние до, по крайней мере, одного выделенного объекта на основании калибровочных характеристик камеры.
В некоторых вариантах реализации, калибровочные характеристики камеры могут включать:
• Фокусное расстояние;
• Коэффициенты дисторсии;
• Размер и соотношение сторон пикселя;
• Положение сенсора камеры относительно оптической оси;
• Данные о разрешении изображения.
В некоторых вариантах реализации, калибровочные характеристики камеры могут включать:
• обзор камеры по вертикали;
• соотношение сторон;
• разрешение.
В некоторых вариантах реализации, калибровочные характеристики вводятся пользователем.
В некоторых вариантах реализации, калибровочные характеристики получают с камеры. В некоторых вариантах реализации, калибровочные характеристики получают из специального справочника на основании информации о камере.
В некоторых вариантах реализации, калибровочные характеристики измеряют с помощью специализированных тестов.
В некоторых вариантах реализации, для повышения точности определения расстояния, используют несколько кадров с последующим усреднением и статистическим анализом информации.
В некоторых вариантах реализации, выделение объекта происходит автоматически, при помощи видеоаналитики.
В некоторых вариантах реализации, выделение объекта осуществляется вручную пользователем. В некоторых вариантах реализации, размеры объекта определяются автоматически, на основании базы данных объектов и их размеров.
В некоторых вариантах реализации, размеры объекта задаются вручную.
В некоторых вариантах реализации, выделение объекта задается с помощью пользовательского инструмента путем вьщеления начальной и конечной точки координат по оси х объекта с указанием размера объекта по данной оси.
В некоторых вариантах реализации, выделение объекта задается с помощью пользовательского инструмента путем вьщеления начальной и конечной точки координат х, у объекта с указанием размеров объекта по указанным осям.
В некоторых вариантах реализации, для увеличения точности, определяются три размера объекта - по осям х, у, z в декартовой системе координат.
В некоторых вариантах реализации, выделение объекта задается с помощью прямоугольника с заданием метрических размеров объекта.
Согласно второму варианту, способ определения расстояния при помощи камеры, включает следующие шаги: получают, по крайней мере, два видеокадра с задержкой и калибровочные характеристики камеры, выделяют, по крайней мере, один объект, расстояние до которого необходимо измерить и формируют его модель, затем определяют расстояние до объекта, на основании модели объекта и ориентации камеры.
В некоторых вариантах реализации, калибровочные характеристики камеры могут включать:
• Фокусное расстояние;
• Коэффициенты дисторсии;
• Размер и соотношение сторон пикселя;
• Положение сенсора камеры относительно оптической оси;
• Данные о разрешении изображения.
В некоторых вариантах реализации, калибровочные характеристики камеры могут включать:
• обзор камеры по вертикали;
• соотношение сторон;
• разрешение.
В некоторых вариантах реализации, калибровочные характеристики вводятся пользователем.
В некоторых вариантах реализации, калибровочные характеристики получают с камеры. В некоторых вариантах реализации, калибровочные характеристики получают из специального справочника на основании информации о камере.
В некоторых вариантах реализации, калибровочные характеристики измеряют с помощью специализированных тестов.
В некоторых вариантах реализации, задержка задается предварительно, на этапе настройки.
В некоторых вариантах реализации, задержка определяется динамически, по факту пиксельного смещения объекта на видеокадре. В некоторых вариантах реализации, вьщеление объекта происходит автоматически, при помощи видеоаналитики.
В некоторых вариантах реализации, вьщеление объекта осуществляется вручную пользователем.
В некоторых вариантах реализации, для объектов, не имеющих постоянную форму, видеоаналитика определяет векторы направления движения различных частей объекта. В некоторых вариантах реализации, модель объекта включает метеорологические сведения.
В некоторых вариантах реализации, модель объекта выбирается из базы моделей и уточняется на основании данных о движении объекта и/или внешних условий.
В некоторых вариантах реализации, векторы направления движения различных частей объекта сопоставляются с предустановленными моделями движения, в зависимости от внешних условий и уточняется на основании текущих данных
В одном из вариантов реализации, способ согласно первому варианту может быть реализован в виде системы определения расстояния, включающей:
Устройство фото и/или видео-фиксации, одно или более устройство обработки команд, одно или более устройство хранения данных, одну или более программ, где одна или более программ хранятся на одном или более устройстве хранения данных и исполняются на одном и более устройстве обработки команд, причем одна или более программ включает инструкции для реализации способа согласно первому и/или второму варианту.
В качестве устройства фото и/или видео-фиксации может быть фотокамера, выполненная с возможностью съемки видео и/или последовательности фотоснимков, или видеокамера.
ПОДРОБНОЕ ОПИСАНИЕ ИЗОБРЕТЕНИЯ
Здесь и далее будут описаны термины, используемые в заявке.
Камера - фото/видеокамера или любой другой фото-видеофиксирующий элемент, с оптической системой.
Фокусное расстояние (англ. focal length) — физическая характеристика оптической системы. Для центрированной оптической системы, состоящей из сферических поверхностей, описывает способность собирать лучи в одну точку при условии, что эти лучи идут из бесконечности параллельным пучком параллельно оптической оси III.
Фокусное расстояние объектива - это расстояние от его оптического центра до матрицы фотоаппарата или видеокамеры 1X1.
Дисторсия (от лат. distorsio, distortio— искривление)— аберрация оптических систем, при которой линейное увеличение изменяется по полю зрения. При этом нарушается подобие между объектом и его изображением III.
Искажения, вызванные дисторсией линз, определяются /21:
Figure imgf000006_0001
где (Δχ Γ, Ay г) - отклонение пиксела изображения от ее истинного положения - положения, которое занимала бы точка при отсутствии дисторсии, kl n - коэффициенты дисторсии, постоянные для фиксированной конфигурации оптической системы фотоаппарата, г =
1/2
22) -расстояние от центра кадра до точки с координатами (х, у).
Разрешение камеры - количество элементов (пикселей) в матрице камеры, обычно по 2-м осям.
Размер матрицы - физический размер матрицы видеокамеры, обычно измеряется в дюймах и задается диагональю и соотношением сторон.
Калибровка камеры— это задача получения внутренних и внешних параметров камеры (т.н. калибровочных параметров) по отснятым ей фотографиям или видео.
Угловой размер — это угол между линиями, соединяющими диаметрально противоположные точки измеряемого объекта и глаз наблюдателя или точку расположения камеры.
Данное изобретение в различных своих вариантах осуществления может быть вьшолнено в виде способа, в т.ч. реализуемого на компьютере, в виде системы или машиночитаемого носителя, содержащего инструкции для выполнения вышеупомянутого способа.
В данном изобретении под системой подразумевается компьютерная система, ЭВМ (электронно-вычислительная машина), ЧПУ (числовое программное управление), ПЛК (программируемый логический контроллер), компьютеризированные системы управления и любые другие устройства, способные выполнять заданную, чётко определённую последовательность операций (действий, инструкций).
Под устройством обработки команд подразумевается электронный блок, либо интегральная схема (микропроцессор), исполняющая машинные инструкции (программы). Устройство обработки команд считывает и выполняет машинные инструкции (программы) с одного или более устройства хранения данных. В роли устройства хранения данных могут выступать, но, не ограничиваясь, жесткие диски (HDD), флеш- память, ПЗУ (постоянное запоминающее устройство), твердотельные накопители (SSD), оптические приводы.
Программа - последовательность инструкций, предназначенных для исполнения устройством управления вычислительной машины или устройством обработки команд.
Согласно первому варианту, способ определения расстояния до объекта с помощью камеры включает следующие шаги:
Получают, по крайней мере, один кадр и калибровочные характеристики камеры
В качестве кадра будем понимать, по крайней мере, один видео или фотокадр (изображение) полученный с фото или видеокамеры. В некоторых вариантах реализации, для повышения точности определения расстояния, используют несколько кадров с последующим усреднением и статистическим анализом информации.
Калибровочные характеристики камеры, в зависимости от производителя и необходимого уровня точности результатов, могут включать, но не ограничиваясь:
• Фокусное расстояние
• Коэффициенты дисторсии
• Размер и соотношение сторон пикселя • Положение сенсора камеры относительно оптической оси
• Данные о разрешении изображения
Так же калибровочные характеристики могут быть выражены в виде комбинации нескольких вышеупомянутых параметров.
В одном из вариантов реализации, калибровочная характеристика камеры может включать обзор камеры по вертикали (например, 3 градуса), соотношение сторон (например, 4/3), и разрешение (например, 800x600). В этом случае можно определить угол, пользуясь простым приближением (если обзор по вертикали 3 градуса, а количество пикселей 800, то получаем что в одном пикселе 3/800=0,00375 градуса и по вертикали и по горизонтали)
Калибровочные характеристики, в различных вариантах реализации, могут вводиться пользователем, получаться с камеры или специального справочника на основании информации о камере, а так же измеряться с помощью специализированных тестов.
Выделяют и вводят размеры, по крайней мере, одного объекта, расстояние до которого необходимо измерить
Вьщеление объекта (определение его размеров в пикселях или пиксельных размеров) может происходить автоматически, при помощи видеоаналитики (системы компьютерного зрения) или вручную пользователем.
Размеры объекта могут определяться автоматически, на основании базы данных объектов и их размеров, с учетом распознавания объекта, произведенного видеоаналитикой /1/, или задаваться пользователем вручную. Размер объекта задается в метрической или иной системе измерения.
В одном из вариантов реализации, вьщеление объекта задается с помощью специализированного инструмента пользователя (например «линейка»), путем выделения начальной и конечной точки координат по оси х объекта с указанием размера объекта по данной оси.
Инструмент пользователя представляет собой графический способ выделения объекта, при котором, с помощью устройств ввода, поверх объекта накладывается (рисуется) линия, соединяющая начальную и конечную точку координат по одной из осей х, у.
В одном из вариантов реализации, вьщеление объекта задается с помощью инструмента пользователя путем выделения начальной и конечной точки координат х, у объекта с указанием размеров объекта по указанным осям.
В одном из вариантов реализации, необходимый объект выделяется с помощью прямоугольника с заданием метрических размеров объекта (ширины, высоты)
В некоторых вариантах реализации, для увеличения точности, определяются три размера объекта - по осям х, у, z в декартовой системе координат.
Определяют расстояние до, по крайней мере, одного выделенного объекта на основании калибровочных характеристик камеры
На основе данных о разрешении изображения, угле обзора камеры, полученных пиксельных размерах объекта рассчитывают дальность.
На начальном этапе получают угловые размеры объекта на основе пиксельных размеров заданных пользователем или определенных автоматически.
Пусть задан объект с 2-мя точками с координатами образа на изображении (х, у) и (х, у) соответственно. Проводим процедуру нормализации каждой точки:
б (.Хп. Уп) = Normalize(xn, yn, cx, cy, f, s, )
где cx, cy - координаты центра оптической оси в пикселях, f - фокусное расстояние в пикселях, s - соотношение сторон пикселя, к - вектор коэффициентов дисторсии.
Процедура Normalize /3/ переводит координаты изображения в систему координат фокальной плоскости с учетом искажений, вносимых дисторсией, положением сенсора камеры и соотношением сторон пикселя:
X — (Хр— сх~)
У' = (УР - cy) - s
п, Уп) = {x - f,vf
где U - процедура компенсации дисторсии, которая по точке находит её местоположение при отсутствии дисторсии. Получаем (х1п, у1п) и (х2п, у2п) соответственно.
Получаем угловые размеры объекта по формуле: а =
Figure imgf000009_0001
Как видно калибровочная характеристика камеры позволяет определить для заданного размера указанного на изображении, угловой размер объекта. Зная угловой и метрический размер объекта (который задан пользователем или получен из базы) можно посчитать расстояние до объекта. В некоторых вариантах реализации, расстояние до объекта определяется следующим образом: г =— ^-ц- где г - искомое расстояние до объекта, М - заданный метрический размер объекта, а - определенный из калибровочной характеристики (которая связывает угол прихода луча изображения и пиксель на изображении) и выделенного на изображении отрезка в пикселях угловой размер видимого объекта.
Согласно второму варианту, способ определения расстояния до объекта с помощью камеры включает следующие шаги:
Получают, по крайней мере, два видеокадра с задержкой и калибровочные характеристики камеры
Калибровочные характеристики камеры, в зависимости от производителя и необходимого уровня точности результатов, могут включать, но не ограничиваясь:
• Фокусное расстояние
• Коэффициенты дисторсии
• Размер и соотношение сторон пикселя
• Положение сенсора камеры относительно оптической оси
• Данные о разрешении изображения
Так же калибровочные характеристики могут быть выражены в виде комбинации нескольких вышеупомянутых параметров.
В одном из вариантов реализации, калибровочная характеристика камеры может включать обзор камеры по вертикали (например, 3 Градуса), соотношение сторон (например, 4/3), и разрешение (например, 800x600). В этом случае можно определить угол, пользуясь простым приближением (если обзор по вертикали 3 градуса, а количество пикселей 800, то получаем что в одном пикселе 3/800=0,00375 градуса и по вертикали и по горизонтали)
Калибровочные характеристики, в различных вариантах реализации, могут вводиться пользователем, получаться с камеры или специального справочника на основании информации о камере, а так же измеряться с помощью специализированных тестов.
В общем случае, с камеры постоянно получают видеопоток, при этом, на первом видеокадре определяют объект, до которого хотят измерить расстояние, классифицируют объект, далее в зависимости от типа объекта выбирают время задержки, затем выбирают второй кадр с учетом задержки, на котором так же выделяют этот объект.
В некоторых вариантах реализации задержка определяется динамически, по факту пиксельного смещения объекта на видеокадре.
В некоторых вариантах реализации, задержка задается предварительно, при настройке системы.
В некоторых вариантах реализации, получают, по крайней мере, два видеокадра отличающихся расположением объекта.
Выделяют, по крайней мере, один объект, расстояние до которого необходимо измерить и формируют его модель
На видеокадрах выделяют объект, расстояние до которого необходимо измерить, и на основании информации об изменении местоположения и/или размеров объекта, а так же с учетом типа объекта и внешних погодных и других условий, формируют модель объекта, описывающую его поведение во времени.
В некоторых вариантах реализации, под моделью объекта будем понимать характеристики движения объекта. В самом простом случае это линейное движение.
Например, для объекта человек может быть выбрана модель, описывающая скорость его движения равной 5 км/ч.
Выделение объекта может происходить автоматически, при помощи видеоаналитики (системы компьютерного зрения) или вручную пользователем.
При ручном выделении, пользователь выделяет объект на, по крайней мере, двух видеокадрах полученных с задержкой.
У сложных объектов, не имеющих постоянной формы (например, дым, облако газа и т.д.), разные части объекта могут иметь различный характер движения (например, некоторая часть дыма может некоторое время двигаться против ветра из-за различных турбулентностей), что так же учитывается при построении модели.
В случае сложных объектов, в ручном режиме (например, при определении расстояния до объекта «дым») пользователь на нескольких (по крайней мере, 2-х) соседних кадрах указывает направление смещения общ его фронт а дыма, который связан со скоростью ветра и направлением ветра относительно наблюдения.
В автоматическом режиме, для объектов, не имеющих постоянной формы, видеоаналитика определяет т.н. «облако» движения, причем для разных частей движения определяется вектор направления (здесь и далее под «облаком» будем подразумевать множество частей (точек) объекта, меняющих свое положение во времени, для которых определяются вектора движения, рис.2). В различных вариантах реализации, определенное на видеокадрах «облако» движения, сопоставляется с предустановленными моделями движения, в зависимости от внешних условий (например, ветра) и уточняется на основании текущих данных.
Так, например, для дыма, может выбираться модель, наиболее вероятная для текущих погодных условий. Так же для дыма можно рассмотреть общую ситуацию, когда в автоматическом режиме, в дыме обнаруживаются отдельные элементы, далее определяется движение каждого элемента между видеокадрами и получается облако движения, причем у каждого элемента этого облака будет свой вектор. В модель (так же может быть база предустановленных моделей) могут быть заложены различные облака движения (для разных типов объекта - дым, облако газа и т.д.) для разной скорости ветра и размера пожара (в случае дыма), т.к. чем больше пожар, тем больше будет скорость по вертикальной компоненте, чем больше ветер, тем больше скорость по горизонтальной компоненте.
В некоторых вариантах реализации, модель объекта включает метеорологические сведения.
Определяют расстояние до объекта, на основании модели объекта и ориентации камеры
Пусть точка А - расположение камеры (рис.1), В - точка расположения объекта, до которого определяется расстояние. Вектор v характеризует реальное (видимое наблюдателем) направление движения объекта В, вектор г - имеет длину, равную расстоянию от точки наблюдения А до объекта В, и направление из точки расположения объекта в точку наблюдателя (для достаточно удаленных объектов и небольших углов обзора, направление этого вектора совпадет с направлением обзора камеры), 1 - плоскость расположения матрицы (т.е. плоскость проекции, на которой формируется изображение). Тогда метрическое смещение положения объекта можно выразить формулой:
т = t * V * cos b ,
где m - искомое метрическое смещение, t - задержка между кадрами (время движения), v
- модуль скорости движения объекта, например в метрах в секунду, b - угол между вектором движения и плоскостью проекции изображения.
Далее необходимо получить угловое движение, смещение из угловых координат.
Пусть объект на разных изображениях находится в координатах (х, yip) и (х, у) соответственно. Проводим процедуру нормализации каждой точки:
(ж, уп) = Normalize (хп, уп, сх, су, f, s, k)
где сх, су - координаты центра оптической оси в пикселях, f - фокусное расстояние в пикселях, s - соотношение сторон пикселя, к - вектор коэффициентов дисторсии.
Процедура Normalize переводит координаты изображения в систему координат фокальной плоскости с учетом искажений, вносимых дисторсией, положением сенсора камеры и соотношением сторон пикселя:
X — Хр c )
' = ( - Су) · s
Figure imgf000011_0001
(ж, п> где U - процедура компенсации дисторсии, которая по точке находит её местоположение при отсутствии дисторсии. Получаем (х1п, у1п) и (х2п, у2„) соответственно.
Figure imgf000012_0001
Зная угловое и метрическое смещение объекта, можно посчитать расстояние до объекта. В некоторых вариантах реализации расстояние до объекта определяется следующим образом: г = 2^д^
где г - искомое расстояние до объекта, М - рассчитанное метрическое смещение объекта на плоскости расположения матрицы объектива, а - определенный из калибровочной характеристики (которая связывает угол прихода луча изображения и пиксель на изображении) и выделенного на изображении отрезка видимого движения объекта.
ВАРИАНТЫ РЕАЛИЗАЦИИ
Ниже будет описан вариант реализации согласно первому способу, с использованием видеоаналитики.
Получают, по крайней мере, один видеокадр и калибровочные характеристики камеры;
Предположим, что даны следующие калибровочные характеристики камеры:
Положение сенсора камеры относительно оптической оси задано точкой прохождения оптической оси через матрицу (сенсор): сх = 960рх, су = 540рх
Фокусное расстояние: f = 26575рх (задано в пикселях)
Соотношение сторон пикселя s - 1.05, (вертикального к горизонтальному)
Коэффициент дисторсии
Figure imgf000012_0002
= -0.122, коэффициенты при более высоких степенях считаем равными нулю.
Выделяют и вводят размеры, по крайней мере, одного объекта, расстояние до которого необходимо измерить;
Видеоаналитика определяет появление объекта, до которого необходимо определить расстояние. Допустим, на кадре появился объект автомобиль. Видеоаналитика распознает на кадре автомобиль, далее в базе данных объектов производится поиск размера указанного объекта. Определяется, что средняя длина автомобиля составляет 4 м на изображении, при этом направление наблюдения автомобиля перпендикулярно машине (длина отображается без проекционных искажений)
Определяют расстояние до, по крайней мере, одного выделенного объекта на основании калибровочных характеристик камеры
Определяют угловые размеры объекта.
Пусть отмечены 2 точки на изображении: χι = 100, у\ = 700, х2 = 100, у2 = 705.
После процедуры Normalize:
хп1 = -860,11 ; уп1= 168,02; Хп2 = -860,11, уп2 = 173,27
Находим угловой размер объекта а = 0.01° Определив угловые размеры объекта и используя данные о его метрических размерах, вычисляют расстояние по формуле: г = ^οϊ5- и получают 22918 м., что и является искомым расстоянием до объекта.
Ниже будет описан вариант реализации согласно второму варианту
Получают, по крайней мере, два видеокадра с предустановленной задержкой и калибровочные характеристики камеры
Предположим, что даны следующие калибровочные характеристики камеры:
Положение сенсора камеры относительно оптической оси задано точкой прохождения оптической оси через матрицу (сенсор): сх = 960рх, су = 540рх.
Фокусное расстояние: f = 26575рх (задано в пикселях).
Соотношение сторон пикселя s = 1.05, (вертикального к горизонтальному).
Коэффициент дисторсии ki = -0.122, коэффициенты при более высоких степенях считаем равными нулю.
Время задержки между кадрами равно 0,1 секундам.
Выделяют, по крайней мере, один объект, расстояние до которого необходимо измерить и формируют его модель;
Обнаруживают на 2-х изображениях движущийся объект и отмечают его местоположение на обоих изображения.
Пусть скорость движения объекта равна 4м/сек, угол между вектором скорости движения и плоскостью проекции изображения равен 45 градусов, тогда метрическое смещение любой точки (при достаточно малом движении) будет равна т = ОД * 4 * cos 45°, и составит 0,28 метра.
Определяют расстояние до объекта, на основании модели объекта и ориентации камеры.
Пусть отмечены 2 точки на изображении: xi = 100, yi = 700, х2 = 105, у2 = 708
После процедуры Normalize:
χ„ι = -860,11 ; y„i= 168,02; χώ = -855,11, у„2 = 176,42
Вычисляем угловое движение, соответствующее точкам на изображении
Находим угол смещения объекта а = 0,02°.
Получив угловое смещение (0,02°) объекта и определив его метрическое смещение (0,28
_ . 0,23м
метра) определяем расстояние, до объекта на основании формулы: г = получаем
2·*β(- -)
расстояние 658 метров.
ЛИТЕРАТУРА
1. «Компьютерное зрение. Современный подход». Дэвид А. Форсайт, Джин Понс, Издательство: Вильяме, 2004 год, 928 стр.: с ил.
2. Duane С. Brown "Decentering distortion of lenses", 1966, Photogrammetric Engineering, volume 32, number 3, pages 444-462
3. OpenCV - Open Source Computer Vision online documentation http://docs.opencv.org/index.html

Claims

ФОРМУЛА
1. Способ определения расстояния при помощи камеры включает следующие шаги:
• Получают, по крайней мере, один видеокадр и калибровочные характеристики камеры;
• Выделяют и вводят размеры, по крайней мере, одного объекта, расстояние до которого необходимо измерить;
• Определяют расстояние до, по крайней мере, одного выделенного объекта на основании калибровочных характеристик камеры.
2. Способ по п.1, в котором калибровочные характеристики камеры могут включать:
• Фокусное расстояние;
• Коэффициенты дисторсии;
• Размер и соотношение сторон пикселя;
• Положение сенсора камеры относительно оптической оси;
• Данные о разрешении изображения.
3. Способ по п.1, в котором калибровочные характеристики камеры могут включать:
• обзор камеры по вертикали;
• соотношение сторон;
• разрешение.
4. Способ по п.1 , в котором калибровочные характеристики вводятся пользователем.
5. Способ по п.1 , в котором калибровочные характеристики получают с камеры.
6. Способ по п.1, в котором калибровочные характеристики получают из специального справочника на основании информации о камере.
7. Способ по п.1, в котором калибровочные характеристики измеряют с помощью специализированных тестов.
8. Способ по п.1, в котором для повышения точности определения расстояния, используют несколько кадров с последующим усреднением и статистическим анализом информации.
9. Способ по п.1, в котором выделение объекта происходит автоматически, при помощи видеоаналитики.
10. Способ по п.1, в котором выделение объекта происходит вручную.
1 1. Способ по п.1, в котором размеры объекта определяются автоматически, на основании базы данных объектов и их размеров.
12. Способ по п.1, в котором размеры объекта задаются вручную.
13. Способ по п.1, в котором выделение объекта задается с помощью пользовательского инструмента путем выделения начальной и конечной точки координат по оси х объекта с указанием размера объекта по данной оси.
14. Способ по п.1, в котором выделение объекта задается с помощью пользовательского инструмента путем выделения начальной и конечной точки координат х, у объекта с указанием размеров объекта по указанным осям.
15. Способ по п.1, в котором для увеличения точности, определяются три размера объекта - по осям х, у, z в декартовой системе координат.
16. Способ по п.1, в котором выделение объекта задается с помощью прямоугольника с заданием метрических размеров объекта.
17. Способ определения расстояния при помощи камеры, включает следующие шаги: • Получают, по крайней мере, два видеокадра с задержкой и калибровочные характеристики камеры;
• Выделяют, по крайней мере, один объект, расстояние до которого необходимо измерить и формируют его модель;
• Определяют расстояние до объекта на основании модели объекта и ориентации камеры.
18. Способ по п.17, в котором калибровочные характеристики камеры могут включать:
• Фокусное расстояние;
• Коэффициенты дисторсии;
• Размер и соотношение сторон пикселя;
• Положение сенсора камеры относительно оптической оси;
• Данные о разрешении изображения.
19. Способ по п.17, в котором калибровочные характеристики камеры могут включать:
• обзор камеры по вертикали;
• соотношение сторон;
• разрешение.
20. Способ по п.17, в котором калибровочные характеристики вводятся пользователем.
21. Способ по п.17, в котором калибровочные характеристики получают с камеры.
22. Способ по п.17, в котором калибровочные характеристики получают из специального справочника на основании информации о камере.
23. Способ по п.17, в котором калибровочные характеристики измеряют с помощью специализированных тестов.
24. Способ по п.17, в котором задержка задается предварительно, на этапе настройки.
25. Способ по п.17, в котором задержка определяется динамически, по факту пиксельного смещения объекта на видеокадре.
26. Способ по п.17, в котором выделение объекта происходит автоматически, при помощи видеоаналитики.
27. Способ по п.17, в котором выделение объекта происходит вручную.
28. Способ по п.17, в котором для объектов, не имеющих постоянную форму, видеоаналитика определяет векторы направления движения различных частей объекта.
29. Способ по п.17, в котором модель объекта включает метеорологические сведения.
30. Способ по п.17, в котором модель объекта выбирается из базы моделей и уточняется на основании данных о движении объекта и/или внешних условий.
31. Способ по п.28, в котором векторы направления движения различных частей объекта сопоставляются с предустановленными моделями движения, в зависимости от внешних условий и уточняется на основании текущих данных
PCT/RU2015/000543 2014-09-22 2015-08-26 Способ определения расстояния до объекта при помощи камеры (варианты) WO2016048193A1 (ru)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EA201700118A EA201700118A1 (ru) 2014-09-22 2015-08-26 Способ определения расстояния до объекта при помощи камеры (варианты)
US14/895,216 US20180040138A1 (en) 2014-09-22 2015-08-26 Camera-based method for measuring distance to object (options)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
RU2014137990/28A RU2602729C2 (ru) 2014-09-22 2014-09-22 Способ определения расстояния до объекта при помощи камеры (варианты)
RU2014137990 2014-09-22

Publications (1)

Publication Number Publication Date
WO2016048193A1 true WO2016048193A1 (ru) 2016-03-31

Family

ID=55581557

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/RU2015/000543 WO2016048193A1 (ru) 2014-09-22 2015-08-26 Способ определения расстояния до объекта при помощи камеры (варианты)

Country Status (4)

Country Link
US (1) US20180040138A1 (ru)
EA (1) EA201700118A1 (ru)
RU (1) RU2602729C2 (ru)
WO (1) WO2016048193A1 (ru)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2656987C1 (ru) * 2016-12-09 2018-06-07 Общество с ограниченной ответственностью "РобоСиВи" Способ и система определения местоположения складских паллет на основе изображений трехмерных датчиков
US10447394B2 (en) * 2017-09-15 2019-10-15 Qualcomm Incorporated Connection with remote internet of things (IoT) device based on field of view of camera
RU2729512C1 (ru) * 2019-12-09 2020-08-07 Федеральное государственное бюджетное образовательное учреждение высшего образования "Рязанский государственный радиотехнический университет имени В.Ф. Уткина" Способ косвенного измерения дальности от маневрового тепловоза до вагона на прямолинейном участке железнодорожного пути
RU2750364C1 (ru) * 2020-11-10 2021-06-28 Федеральное государственное бюджетное образовательное учреждение высшего образования "Рязанский государственный радиотехнический университет имени В.Ф. Уткина" Способ измерения дальности от маневрового тепловоза до вагона на прямолинейном участке железнодорожного пути
CN114459423B (zh) * 2022-01-24 2023-06-13 长江大学 一种单目测算航行船舶的距离的方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1096626A (ja) * 1996-09-20 1998-04-14 Oki Electric Ind Co Ltd 車間距離検知装置
US5872621A (en) * 1995-09-18 1999-02-16 Utah State University Holographic transmission beam director
US6533674B1 (en) * 1998-09-18 2003-03-18 Acushnet Company Multishutter camera system
US20060034489A1 (en) * 2004-07-21 2006-02-16 University Of South Florida Method and Apparatus for a Velocity Detection System Using Optical Growth Rate
US20100157135A1 (en) * 2008-12-18 2010-06-24 Nokia Corporation Passive distance estimation for imaging algorithms

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5148209A (en) * 1990-07-12 1992-09-15 The Research Foundation Of State University Of New York Passive ranging and rapid autofocusing
JP2001338302A (ja) * 2000-05-29 2001-12-07 Nikon Corp 監視装置
JP2009075124A (ja) * 2008-11-06 2009-04-09 Honda Motor Co Ltd 距離検出装置
US8896686B2 (en) * 2009-06-23 2014-11-25 Here Global B.V. Determining a geometric parameter from a single image
US9053562B1 (en) * 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
JP6214867B2 (ja) * 2012-11-14 2017-10-18 株式会社東芝 計測装置、方法及びプログラム
US20140210646A1 (en) * 2012-12-28 2014-07-31 Balu Subramanya Advanced parking and intersection management system
US20150042789A1 (en) * 2013-08-07 2015-02-12 Blackberry Limited Determining the distance of an object to an electronic device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5872621A (en) * 1995-09-18 1999-02-16 Utah State University Holographic transmission beam director
JPH1096626A (ja) * 1996-09-20 1998-04-14 Oki Electric Ind Co Ltd 車間距離検知装置
US6533674B1 (en) * 1998-09-18 2003-03-18 Acushnet Company Multishutter camera system
US20060034489A1 (en) * 2004-07-21 2006-02-16 University Of South Florida Method and Apparatus for a Velocity Detection System Using Optical Growth Rate
US20100157135A1 (en) * 2008-12-18 2010-06-24 Nokia Corporation Passive distance estimation for imaging algorithms

Also Published As

Publication number Publication date
US20180040138A1 (en) 2018-02-08
EA201700118A1 (ru) 2017-08-31
RU2602729C2 (ru) 2016-11-20
RU2014137990A (ru) 2016-04-10

Similar Documents

Publication Publication Date Title
JP7480823B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN109489620B (zh) 一种单目视觉测距方法
WO2016048193A1 (ru) Способ определения расстояния до объекта при помощи камеры (варианты)
JP2019215853A (ja) 測位のための方法、測位のための装置、デバイス及びコンピュータ読み取り可能な記憶媒体
US20150294505A1 (en) Head mounted display presentation adjustment
US20070272007A1 (en) Fluid Measuring System And Fluid Measuring Method
CN105627932A (zh) 一种基于双目视觉的测距方法及装置
CN105659304A (zh) 视觉增强导航
CN112798811B (zh) 速度测量方法、装置和设备
RU2652535C2 (ru) Способ и система измерения расстояния до удаленных объектов
CN108076268A (zh) 基于对象距离信息提供自动对焦能力的设备、系统和方法
CN101149260A (zh) 测量装置
CN107396037B (zh) 视频监控方法及装置
Popov et al. Optical flow and inertial navigation system fusion in the UAV navigation
Sobel et al. Camera calibration for tracked vehicles augmented reality applications
Guillaume et al. Contribution of the image-assisted theodolite system QDaedalus to geodetic static and dynamic deformation monitoring
CN113284120B (zh) 限高高度测量方法及装置
JP6982865B2 (ja) 動画像距離算出装置および動画像距離算出用プログラム
CN105468881A (zh) 基于航拍图像的实景距离计算方法及装置
KR101992417B1 (ko) 무기체계의 폭발고도 측정 장치 및 방법
Singh et al. A Review: Techniques of vehicle detection in Fog
CN103884332A (zh) 一种障碍物判定方法、装置及移动电子设备
CN116203976A (zh) 变电站室内巡检方法、装置、无人机和存储介质
CN105333818A (zh) 基于单目摄像机的3d空间测量方法
KR20150096127A (ko) 사진에 촬영된 지점의 위치를 계산하는 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15845225

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 201700118

Country of ref document: EA

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14895216

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 15845225

Country of ref document: EP

Kind code of ref document: A1