RU2608350C2 - Simulating installation involving method and device for determining coordinates of object in two dimensions - Google Patents

Simulating installation involving method and device for determining coordinates of object in two dimensions Download PDF

Info

Publication number
RU2608350C2
RU2608350C2 RU2012105335A RU2012105335A RU2608350C2 RU 2608350 C2 RU2608350 C2 RU 2608350C2 RU 2012105335 A RU2012105335 A RU 2012105335A RU 2012105335 A RU2012105335 A RU 2012105335A RU 2608350 C2 RU2608350 C2 RU 2608350C2
Authority
RU
Russia
Prior art keywords
image
control device
user
training
correlation filter
Prior art date
Application number
RU2012105335A
Other languages
Russian (ru)
Other versions
RU2012105335A (en
Inventor
Ян ТЕЛЕНСКИ
Праджай КАМАТ
Original Assignee
ДжейТи КОНСАЛТЭНСИ ЛИМИТЕД
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ДжейТи КОНСАЛТЭНСИ ЛИМИТЕД filed Critical ДжейТи КОНСАЛТЭНСИ ЛИМИТЕД
Publication of RU2012105335A publication Critical patent/RU2012105335A/en
Application granted granted Critical
Publication of RU2608350C2 publication Critical patent/RU2608350C2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

FIELD: measurement technology; physics.
SUBSTANCE: invention relates to techniques for determining coordinates of an object in two dimensions by simulating installations. Proposed is a device for determining coordinates of a control device driven by the user in two dimensions. Device comprises the first camera for infrared imaging including an infrared image of the control device and an infrared image of the user and the second camera to generate a calibration image of the control device and of the user image and a stream of images of the control device and the user images. Device also has the first computing module to generate a training image configured to extract a vector for an edge contour of the control device image from the infrared image using the model of the active contour.
EFFECT: technical result is higher accuracy of detecting an object in two dimensions owing to the use of one infrared camera.
13 cl, 4 dwg

Description

Это изобретение относится к моделирующей установке, включающей способ и устройство для определения координат объекта в двух измерениях. Конкретнее, но не ограничиваясь, это изобретение относится к моделирующей установке для обучения специалиста.This invention relates to a simulator, including a method and apparatus for determining the coordinates of an object in two dimensions. More specifically, but not limited to, this invention relates to a simulator for training a specialist.

Традиционно, специалисты, такие как паяльщики, изучают свою специальность на работе в качестве подмастерья. Подмастерье приобретает различные требуемые навыки, пытаясь повторять работу его учителя. Обучение обеспечивает сфокусированный персональный опыт подготовки. Однако эта форма обучения является неизменной, так как время учителя тратится на многих учеников. Более того, по меньшей мере на ранних этапах обучения ученик допускает ошибки, которые принесут расходы учителю, и удерживает его/ее от найма подмастерьев в будущем.Traditionally, specialists, such as soldering irons, study their specialty at work as an apprentice. The apprentice gains various required skills, trying to repeat the work of his teacher. The training provides a focused personal training experience. However, this form of training is unchanged, as the teacher’s time is spent on many students. Moreover, at least in the early stages of training, the student makes mistakes that will incur costs for the teacher and keeps him / her from hiring apprentices in the future.

Курсы профессиональной подготовки развиты для предоставления ученикам начального опыта, необходимого для начала работы в качестве специалиста с целью уменьшить начальный затратный период обучения. Однако эти курсы имеют относительно высокую стоимость за счет количества ошибок учеников, выполненных на ранних этапах.Vocational training courses are developed to provide students with the initial experience necessary to start working as a specialist in order to reduce the initial costly period of training. However, these courses are relatively expensive due to the number of student mistakes made in the early stages.

Согласно первому аспекту изобретения обеспечено устройство для определения координат объекта в двух измерениях, содержащее первую камеру для формирования инфракрасного изображения объекта; вторую камеру для формирования калибровочного изображения объекта и потока изображений объекта; первый вычислительный модуль для формирования обучающего изображения, выполненный с возможностью извлекать вектор, соответствующий краю объекта, из инфракрасного изображения, используя модель активного контура, и с возможностью применения вектора к калибровочному изображению для формирования обучающего изображения; адаптивный корреляционный фильтр, созданный из обучающего изображения; и второй вычислительный модуль, выполненный с возможностью корреляции по меньшей мере одного изображения потока изображений из второй камеры с адаптивным корреляционным фильтром для определения координат x-y объекта сравнением амплитуды максимального пика в плоскости корреляции в адаптивном корреляционном фильтре с порогом обнаружения.According to a first aspect of the invention, there is provided a device for determining the coordinates of an object in two dimensions, comprising: a first camera for forming an infrared image of the object; a second camera for generating a calibration image of the object and the image stream of the object; a first computing module for generating a training image, configured to extract a vector corresponding to the edge of an object from an infrared image using an active loop model, and with the possibility of applying the vector to a calibration image to form a training image; adaptive correlation filter created from a training image; and a second computing module, configured to correlate at least one image of the image stream from the second camera with an adaptive correlation filter to determine the x-y coordinates of the object by comparing the amplitude of the maximum peak in the correlation plane in the adaptive correlation filter with a detection threshold.

Применяя модель активного контура к изображению из инфракрасной камеры, которая, в свою очередь, используется для создания обучающего изображения для адаптивного корреляционного фильтра, устройство может точно отслеживать объект с помощью только одной инфракрасной камеры. В известном уровне техники для отслеживания объекта используются множественные инфракрасные камеры. В связи с этим, настоящее изобретение уменьшает стоимость отслеживания объекта уменьшением необходимости во множестве дорогостоящих инфракрасных камер. Модель активного контура работает синергетически с инфракрасной камерой, так как контраст между объектом и человеком позволяет формировать точный вектор, соответствующий краю объекта. В связи с этим, устройство работает в загроможденных средах, таких как жилая комната.Applying the active contour model to an image from an infrared camera, which, in turn, is used to create a training image for an adaptive correlation filter, the device can accurately track an object using only one infrared camera. In the prior art, multiple infrared cameras are used to track an object. In this regard, the present invention reduces the cost of tracking an object by reducing the need for many expensive infrared cameras. The active circuit model works synergistically with an infrared camera, since the contrast between the object and the person allows you to form an exact vector corresponding to the edge of the object. In this regard, the device operates in cluttered environments such as a living room.

В связи с этим, настоящее изобретение может использовать стандартную камеру, например цветную камеру, как например VGA камеру, которая обеспечивает изображения в видимом спектре, который может быть использован этим устройством.In this regard, the present invention can use a standard camera, for example a color camera, such as a VGA camera, which provides images in the visible spectrum that can be used by this device.

Предпочтительно создается множество вращаемых обучающих изображений, причем эти вращаемые обучающие изображения созданы вращением обучающего изображения, при этом адаптивный корреляционный фильтр создается из вращаемых обучающих изображений.Preferably, a plurality of rotatable training images is created, wherein these rotatable training images are created by rotating the training image, wherein an adaptive correlation filter is created from the rotatable training images.

Вращая обучающие изображения, устройство может поддерживать отслеживание в отношении объекта, то есть может точно и стабильно измерять положение объекта в течение более длительного периода времени без обновления адаптивного корреляционного фильтра новым обучающим изображением. Вращаемые обучающие изображения увеличивают допуск устройства к изменениям ориентации, изменениям масштаба и положения.By rotating the training images, the device can maintain tracking in relation to the object, that is, it can accurately and stably measure the position of the object over a longer period of time without updating the adaptive correlation filter with a new training image. Rotated training images increase the device's tolerance for changes in orientation, changes in scale and position.

Предпочтительно обучающее изображение или вращаемые обучающие изображения создаются с возможностью периодически обновлять адаптивный корреляционный фильтр. Адаптивный корреляционный фильтр может быть обновлен каждые 0,5-1,5 секунд, предпочтительно каждую секунду.Preferably, the training image or rotated training images are created with the ability to periodically update the adaptive correlation filter. The adaptive correlation filter can be updated every 0.5-1.5 seconds, preferably every second.

Обновляя адаптивный корреляционный фильтр новым обучающим изображением и используя набор вращаемых обучающих изображений, адаптивный корреляционный фильтр «переобучается». Это увеличивает точность адаптивного корреляционного фильтра для следующего изображения из второй камеры.By updating the adaptive correlation filter with a new training image and using a set of rotated training images, the adaptive correlation filter is “retrained”. This increases the accuracy of the adaptive correlation filter for the next image from the second camera.

Адаптивный корреляционный фильтр может быть фильтром MACH, фильтром OT-MACH или т.п.The adaptive correlation filter may be a MACH filter, an OT-MACH filter, or the like.

Согласно второму аспекту изобретения обеспечен способ определения координат объекта в двух измерениях, причем способ содержит этапы, на которых получают инфракрасное изображение, включающее объект из инфракрасной камеры; получают поток изображений, включающих объект, и калибровочное изображение, включающее в себя объект, из камеры; формируют вектор, соответствующий краю объекта, из инфракрасного изображения, используя модель активного контура; формируют обучающее изображение извлечением объекта из калибровочного изображения, используя вектор; создают адаптивный корреляционный фильтр, используя обучающее изображение; и определяют координаты x-y объекта в корреляционном поле корреляцией по меньшей мере одного изображения из потока изображений с адаптивным корреляционным фильтром.According to a second aspect of the invention, there is provided a method for determining the coordinates of an object in two dimensions, the method comprising the steps of: receiving an infrared image including an object from an infrared camera; receiving a stream of images including an object and a calibration image including an object from a camera; forming a vector corresponding to the edge of the object from an infrared image using the active contour model; forming a training image by extracting an object from a calibration image using a vector; create an adaptive correlation filter using a training image; and determining the x-y coordinates of the object in the correlation field by correlating at least one image from the image stream with an adaptive correlation filter.

Способ может дополнительно содержать этап формирования множества вращаемых обучающих изображений, причем этот набор вращаемых обучающих изображений создается вращением обучающего изображения, и создания адаптивного корреляционного фильтра из вращаемых обучающих изображений.The method may further comprise the step of generating a plurality of rotatable training images, this set of rotatable training images being created by rotating the training image, and creating an adaptive correlation filter from the rotatable training images.

Обучающее изображение или множество вращаемых обучающих изображений может периодически обновлять адаптивный корреляционный фильтр. Адаптивный корреляционный фильтр может быть обновлен каждые 0,5-1,5 секунды или, предпочтительней, каждую секунду.A training image or a plurality of rotatable training images may periodically update an adaptive correlation filter. The adaptive correlation filter can be updated every 0.5-1.5 seconds or, preferably, every second.

Компьютерная программа, выполненная на машиночитаемом носителе, может быть выполнена с возможностью реализовывать способ согласно второму аспекту изобретения.A computer program executed on a computer-readable medium may be configured to implement a method according to a second aspect of the invention.

Далее варианты осуществления изобретения будут описаны путем примера и со ссылкой на чертежи, в которых:Embodiments of the invention will now be described by way of example and with reference to the drawings, in which:

Фигура 1 иллюстрирует моделирующую установку, включающую в себя компьютер, устанавливаемый на голову дисплей, управляющее устройство и блок камеры;Figure 1 illustrates a simulator installation including a computer, a head-mounted display, a control device, and a camera unit;

Фигура 2 иллюстрирует блок-схему, иллюстрирующую способ варианта осуществления настоящего изобретения измерения координат по оси х и по оси y управляющего устройства;2 is a flowchart illustrating a method of an embodiment of the present invention for measuring coordinates along the x axis and y axis of a control device;

Фигура 3 иллюстрирует фильтр OT-MACH варианта осуществления согласно Фигуре 2; иFigure 3 illustrates the OT-MACH filter of an embodiment according to Figure 2; and

Фигура 4 иллюстрирует, только для ссылки, способ измерения координаты по оси z управляющего устройства.Figure 4 illustrates, for reference only, the method of measuring the coordinate along the z axis of the control device.

Фигура 1 иллюстрирует обзор моделирующей установки 1. Моделирующая установка 1 включает в себя управляющее устройство 100, компьютер 200, блок 300 камеры и устанавливаемый на голову дисплей 400. Для целей этого описания компьютер 200 выполнен с возможностью запуска компьютерной программы, которая моделирует сценарий обучения, как например использование паяльной лампы или изгибание трубы.Figure 1 illustrates an overview of the simulator 1. The simulator 1 includes a control device 100, a computer 200, a camera unit 300, and a head-mounted display 400. For the purposes of this description, the computer 200 is configured to run a computer program that simulates a learning scenario as for example using a blowtorch or bending a pipe.

Компьютер 200 принимает данные от управляющего устройства 100 и блока 300 камеры. Управляющее устройство 100 включает в себя различные датчики для измерения пространственных характеристик, таких как ускорение и ориентация, и для измерения данных ввода пользователя. Управляющее устройство 100 выводит данные от датчиков в компьютер 200. Блок 300 камеры включает в себя первую камеру 310 и вторую инфракрасную камеру 320 для получения изображения. Блок 300 камеры выводит данные изображения в компьютер 200.Computer 200 receives data from control device 100 and camera unit 300. The control device 100 includes various sensors for measuring spatial characteristics, such as acceleration and orientation, and for measuring user input data. The control device 100 outputs the data from the sensors to the computer 200. The camera unit 300 includes a first camera 310 and a second infrared camera 320 for acquiring an image. The camera unit 300 outputs image data to a computer 200.

Компьютер 200 выполнен с возможностью обработки данных из управляющего устройства 100 и блока 300 камеры в виде переменных ввода в компьютерную программу. Управляющее устройство 100 обеспечивает пространственные данные, такие как ускорение и ориентацию и данные ввода пользователя, при этом блок 300 камеры обеспечивает изображения, которые могут быть обработаны способом согласно настоящему изобретению для отслеживания управляющего устройства 100. Компьютерная программа, которая может симулировать сценарий обучения, в связи с этим, может давать пользователю иммерсивную и точную симуляцию реальных навыков, таких как использование паяльной лампы или изгибание трубы. Ниже способ отслеживания управляющего устройства 100 описан более подробно.The computer 200 is configured to process data from the control device 100 and the camera unit 300 in the form of input variables to a computer program. The control device 100 provides spatial data such as acceleration and orientation and user input data, while the camera unit 300 provides images that can be processed by the method of the present invention to track the control device 100. A computer program that can simulate a learning scenario, in connection with this, it can give the user an immersive and accurate simulation of real skills, such as using a blowtorch or bending a pipe. The tracking method of the control device 100 is described below in more detail.

ОтслеживаниеTracking

При нормальном использовании моделирующую установку 1 устанавливают в комнате, при этом блок 300 камеры обращен к управляющему устройству 100. Как правило, блок 300 камеры будет размещен против стены и обращен к управляющему устройству 100 в центре комнаты. Управляющее устройство 100 держится пользователем.In normal use, the simulator 1 is installed in the room, with the camera unit 300 facing the control device 100. Typically, the camera unit 300 will be placed against the wall and facing the control device 100 in the center of the room. The control device 100 is held by the user.

Для цели описания три измерения обозначены вдоль декартовых осей x, y и z, причем ось z расположена в направлении от блока 300 камеры к управляющему устройству 100 (т.е. эта ось параллельная полу). И ось x, и ось y ортогональны оси z и друг другу. Компьютер 200 выполнен с возможностью вычисления координат по оси х и по оси y управляющего устройства за счет первого способа и вычисления координаты по оси z за счет второго способа.For the purpose of the description, three dimensions are indicated along the Cartesian axes x, y and z, the z axis being located in the direction from the camera unit 300 to the control device 100 (i.e., this axis is parallel to the floor). Both the x axis and the y axis are orthogonal to the z axis and to each other. The computer 200 is configured to calculate coordinates along the x axis and y axis of the control device due to the first method and calculate the coordinates along the z axis due to the second method.

Первый способ, т.е. способ вычисления координат по оси х и по оси y управляющего устройства 100, далее будет описан со ссылкой на Фигуры 2 и 3. Способ выполняют на компьютере 200, используя данные изображения из блока 300 камеры. Блок 300 камеры получает калибровочное изображение посредством первой камеры 310 и получает инфракрасное изображение посредством второй инфракрасной камеры 320. Как отмечено выше, блок 300 камеры обращен к управляющему устройству 100, который держится пользователем. В связи с этим, калибровочное изображение и инфракрасное изображение включают в себя управляющее устройство 100 и пользователя.The first method, i.e. the method of calculating the coordinates along the x axis and y axis of the control device 100 will now be described with reference to Figures 2 and 3. The method is performed on the computer 200 using image data from the camera unit 300. The camera unit 300 obtains a calibration image by means of the first camera 310 and obtains an infrared image by means of the second infrared camera 320. As noted above, the camera unit 300 is facing a control device 100 that is held by a user. In this regard, the calibration image and infrared image include a control device 100 and a user.

На Фигуре 2 проиллюстрирован обзор первого способа. В качестве предварительного этапа, вычитание фона инфракрасного изображения за счет временного дифференцирования различает управляющее устройство 100 и пользователя от постоянного фона. Это формирует обработанное инфракрасное изображение, включающее в себя только управляющее устройство и пользователя, пригодное для следующих этапов.Figure 2 illustrates an overview of the first method. As a preliminary step, subtracting the background of the infrared image due to temporal differentiation distinguishes the control device 100 and the user from a constant background. This forms a processed infrared image that includes only the control device and the user, suitable for the following steps.

Модель активного контура применяется к обработанному инфракрасному изображению для создания точного вектора, контурирующего край управляющего устройства 110. Управляющее устройство 110 явно отличимо от пользователя в обработанном инфракрасном изображении за счет использования отражающего инфракрасного излучения покрытия на управляющем устройстве 110.The active loop model is applied to the processed infrared image to create an accurate vector contouring the edge of the control device 110. The control device 110 is clearly distinguishable from the user in the processed infrared image by using reflective infrared radiation from the coating on the control device 110.

Модель активного контура работает по принципу минимизации энергии для определения вектора края управляющего устройства 100 в обработанном инфракрасном изображении. Энергия каждой точки вектора вычисляется на основе смежных с ней пикселей. Разница гаусовского (DoG) отфильтрованного изображения вычисляется для выделения краев управляющего устройства 100. Этот процесс минимизации энергии является итерационным непрерывным процессом до тех пор, пока вектор края управляющего устройства не вычислят точно. Функция энергии, вычисленная и итерируемая для каждой точки вектора, описана в уравнении ниже, где i - количество итераций, изменяется от 1 до n, где n - количество точек на векторе, и Е* vector - вычисленная энергия точки вектора.The active loop model operates on the principle of minimizing energy to determine the edge vector of the control device 100 in the processed infrared image. The energy of each point of the vector is calculated based on adjacent pixels. The Gaussian difference (DoG) of the filtered image is calculated to highlight the edges of the control device 100. This energy minimization process is an iterative continuous process until the edge vector of the control device is calculated accurately. The energy function calculated and iterated for each point of the vector is described in the equation below, where i is the number of iterations, varies from 1 to n, where n is the number of points on the vector, and E * vector is the calculated energy of the point of the vector.

Е* vector = α.Einti)+ β.Einti)E * vector = α.E inti ) + β.E inti )

Компьютер 200 включает конфигурационный файл для изменения количества итераций i, полученного для точного вычисления вектора края управляющего устройства 100.Computer 200 includes a configuration file for changing the number of iterations i obtained to accurately calculate the edge vector of the control device 100.

Как только вектор края управляющего устройства 110 вычислят, далее вектор применяется к калибровочному изображению из первой камеры для извлечения управляющего устройства 110. Извлеченное управляющее устройство 110 далее применяется к центру чистого фона, который формирует обучающее изображение, пригодное для фильтра OT-MACH.Once the edge vector of the control device 110 is calculated, the vector is then applied to the calibration image from the first camera to extract the control device 110. The extracted control device 110 is then applied to the center of the clean background, which forms a training image suitable for the OT-MACH filter.

В этом варианте осуществления обучающее изображение дополнительно обрабатывается для формирования множества вращаемых обучающих изображений для фильтра OT-MACH. Например, обучающее изображение вращают с увеличением на два градуса между -6 градусами и +6 градусами, таким образом получая 7 вращаемых обучающих изображений. Эти вращаемые обучающие изображения мультиплексируют и вводят в фильтр OT-MACH.In this embodiment, the training image is further processed to form a plurality of rotatable training images for the OT-MACH filter. For example, the training image is rotated with a two degree increase between -6 degrees and +6 degrees, thus obtaining 7 rotated training images. These rotated training images are multiplexed and injected into the OT-MACH filter.

Далее работа фильтра OT-MACH будет описана более подробно со ссылкой на Фигуру 3. Фильтр OT-MACH (Optimal Trade-off Maximum Average Correlation Height) выполнен на компьютере 200, использующем библиотеку FFTW (“Fastest Fast Fourer Transform in the West”). Библиотека FFTW представляет собой библиотеку подпрограммы С для выполнения дискретного преобразования Фурье в одном или более измерениях. Библиотека FFTW взаимодействует с библиотекой Intel’s (RTM) OpenCV для машинного зрения, делая фильтр OT-MACH эффективным в отношении к времени обработки и частоте.Next, the operation of the OT-MACH filter will be described in more detail with reference to Figure 3. The OT-MACH filter (Optimal Trade-off Maximum Average Correlation Height) is performed on a computer 200 using the FFTW library (“Fastest Fast Fourer Transform in the West”). The FFTW library is a C routine library for performing the discrete Fourier transform in one or more dimensions. The FFTW library interoperates with Intel’s OpenCV Intel’s library of machine vision, making the OT-MACH filter efficient in terms of processing time and frequency.

Как показано в левом столбце на Фигуре 3, фильтр OT-MACH принимает набор вращаемых обучающих изображений ti=1-N, где N - количество вращаемых обучающих изображений. Каждое вращаемое обучающее изображение подвергается преобразованию Фурье FT(Ti). Результат FFTW не является смещенным FFT. Смещение нулевого компонента FFT к центру спектра выполняют, используя следующую функцию, обозначенную С.As shown in the left column in Figure 3, the OT-MACH filter receives a set of rotated training images t i = 1-N , where N is the number of rotated training images. Each rotated training image undergoes a Fourier transform FT (T i ). The FFTW result is not biased FFT. The offset of the zero component of the FFT to the center of the spectrum is performed using the following function, designated C.

cνFFTWShift()cνFFTWShift ()

Эта функция имеет эффект обмена местами верхнего левого квадранта с нижним правым квадрантом и обмена местами верхнего правого квадранта с нижним левым квадрантом.This function has the effect of swapping the upper left quadrant with the lower right quadrant and swapping the upper right quadrant with the lower left quadrant.

Фильтр OT-MACH выражен в уравнении ниже, где mx - середина вектора x1-N вращаемых обучающих изображений в частотном диапазоне, С - диагональная матрица спектральной плотности мощности любой выбранной шумовой модели, Dx - диагональная матрица средней спектральной плотности мощности вращаемого обучающего изображения, и Sx обозначает матрицу подобия набора вращаемых обучающих изображений. Эти параметры являются извлекаемыми из обучающего изображения. Альфа, бета и гамма являются неотрицательными оптимальными компромиссными параметрами, которые позволяют фильтру OT-MACH приспосабливаться к внешним условиям, таким как уровни света. α, β и γ могут быть изменены в конфигурационном файле.The OT-MACH filter is expressed in the equation below, where m x is the middle of the vector x 1-N of rotated training images in the frequency range, C is the diagonal matrix of the power spectral density of any selected noise model, D x is the diagonal matrix of the average power spectral density of the rotated training image , and S x denotes the similarity matrix of a set of rotational training images. These parameters are extracted from the training image. Alpha, beta and gamma are non-negative optimal trade-offs that allow the OT-MACH filter to adapt to environmental conditions, such as light levels. α, β, and γ can be changed in the configuration file.

h=

Figure 00000001
h =
Figure 00000001

Компьютер 200 принимает поток изображений из первой камеры. Как показано на правом столбце на Фигуре 3, набор под-изображений Sk=1-N, где N - количество под-изображений, получают из одного изображения из этого потока. Каждое под-изображение подвергается преобразованию Фурье FT(Sk). Прошедшие преобразование Фурье под-изображения коррелируют с фильтром OT-MACH в частотном диапазоне посредством указанной ниже функции.Computer 200 receives a stream of images from the first camera. As shown in the right column of Figure 3, the set of sub-images S k = 1-N , where N is the number of sub-images, is obtained from one image from this stream. Each sub-image undergoes a Fourier transform FT (S k ). The Fourier transform sub-images correlate with the OT-MACH filter in the frequency range using the function below.

conj(FT(h))FT(Sk)conj (FT (h)) FT (S k )

Далее, каждое под-изображение классифицируется на внутриклассное или внеклассное сравнивая амплитуду максимального пика в плоскости корреляции с порогом обнаружения. Порог обнаружения дается в указанном ниже уравнении.Further, each sub-image is classified as either in-class or out-of-class by comparing the amplitude of the maximum peak in the correlation plane with the detection threshold. The detection threshold is given in the equation below.

Figure 00000002
Figure 00000002

Корреляционное поле образовано для каждого внутриклассного под-изображения. Положение управляющего устройства 100 в направлении x и y соответствует наивысшему значению в корреляционном поле.A correlation field is formed for each intraclass sub-image. The position of the control device 100 in the x and y direction corresponds to the highest value in the correlation field.

Фильтр OT-MACH применяется к каждому m-ому изображению из первой камеры для генерирования корреляционного поля и для определения положения управляющего устройства 110. Параметр m может быть изменен в конфигурационном файле. Фильтр OT-MACH может быть обновлен, то есть новым набором вращаемых обучающих изображений, полученных и примененных к фильтру OT-MACH, либо в реальном времени, либо с частотой, определенной параметром в конфигурационном файле.An OT-MACH filter is applied to each mth image from the first camera to generate a correlation field and to determine the position of the control device 110. The parameter m can be changed in the configuration file. The OT-MACH filter can be updated, that is, with a new set of rotating training images obtained and applied to the OT-MACH filter, either in real time or at the frequency specified by the parameter in the configuration file.

Второй способ, то есть для вычисления координаты по оси z управляющего устройства 100 далее описан только для ссылки, со ссылкой на Фигуру 4. Координата на оси z представляет собой расстояние от центра тяжести первой и второй камер до управляющего устройства 100.The second method, that is, for calculating the coordinate along the z axis of the control device 100, is described below for reference only, with reference to Figure 4. The coordinate on the z axis is the distance from the center of gravity of the first and second cameras to the control device 100.

Полуугол первой камеры θ1 и второй камеры θ2 вычисляется с использованием следующего далее выражения, где D - полевая диафрагма первой или второй камеры, и f - фокусная длина первой или второй камеры.The half-angle of the first camera θ 1 and the second camera θ 2 is calculated using the following expression, where D is the field aperture of the first or second camera, and f is the focal length of the first or second camera.

Figure 00000003
Figure 00000003

На Фигуре 4 координата z может быть определена из следующего далее выражения, где α1,2 может быть измерена с использованием полуугла вида и положения на оси x и оси y управляющего устройства 100, вычисленного с использованием первого способа.In Figure 4, the z coordinate can be determined from the following expression, where α 1,2 can be measured using the half-angle of the view and position on the x axis and y axis of the control device 100 calculated using the first method.

Figure 00000004
Figure 00000004

Альтернативно, если первая и вторая камера калибруется, свойственные и несвойственные камере параметры могут быть найдены с использованием функций OpenCV.Alternatively, if the first and second cameras are calibrated, camera-specific and non-camera-specific parameters can be found using the OpenCV functions.

Специалист поймет, что вращательное мультиплексирование, то есть вращение обучающего изображения, для формирования множества вращаемых обучающих изображений, является несущественным признаком настоящего изобретения. Точнее, фильтр OT-MACH может быть создан из обучающего изображения. Специалист поймет, что создание фильтра OT-MACH из множества вращаемых обучающих изображений является предпочтительным, так как оно обеспечивает величину допуска фильтру OT-MACH между обновлениями фильтра так, что точность определения положения увеличивается, и компьютер менее вероятно не осуществит отслеживание управляющего устройства 100.One skilled in the art will recognize that rotational multiplexing, that is, rotation of a training image, to form a plurality of rotatable training images, is an unimportant feature of the present invention. More specifically, the OT-MACH filter can be created from a training image. One skilled in the art will recognize that creating an OT-MACH filter from a plurality of rotating training images is preferable since it provides an OT-MACH filter tolerance between filter updates so that position accuracy increases and the computer is less likely to not track the control device 100.

Специалист также поймет, что обновление фильтра OT-MACH, то есть, формирование нового набора вращаемых обучающих изображений или обучающего изображения, является несущественным признаком. Точнее, фильтр OT-MACH может быть создан из первого набора обучающих изображений и не обновлен. Разумеется, специалист поймет, что обновление фильтра OT-MACH является высоко предпочтительным, так как оно обеспечивает более точное определение положения управляющего устройства 100.One skilled in the art will also understand that updating the OT-MACH filter, that is, generating a new set of rotatable training images or training images, is an unimportant sign. More precisely, the OT-MACH filter can be created from the first set of training images and not updated. Of course, one skilled in the art will understand that updating the OT-MACH filter is highly preferred since it provides a more accurate determination of the position of the control device 100.

Более того, для фильтра OT-MACH несущественным признаком является обновление один раз в каждые 25 изображений из потока изображений из первой камеры (то есть, для общей камеры, раз в каждое второе, где камера фиксирует 25 кадров в секунду). Специалист поймет, что частота обновления фильтра OT-MACH может быть изменена изменением конфигурационного файла.Moreover, for the OT-MACH filter, an insignificant feature is an update once every 25 images from the image stream from the first camera (that is, for a common camera, once every second, where the camera captures 25 frames per second). The person skilled in the art will understand that the OT-MACH filter refresh rate can be changed by changing the configuration file.

Специалист поймет, что для фильтра несущественно быть фильтром OT-MACH. Точнее, может быть использована любая форма адаптивного корреляционного фильтра, например фильтр MACH, фильтр ASEF, фильтр UMACE или фильтр MOSSE могут быть использованы взамен.One skilled in the art will recognize that it is not essential for a filter to be an OT-MACH filter. More specifically, any form of adaptive correlation filter can be used, for example, a MACH filter, an ASEF filter, a UMACE filter, or a MOSSE filter can be used instead.

Специалист также поймет, что моделирующая установка 1 не ограничена сценариями паяльной работы, описанными выше. Точнее, моделирующая установка 1 может быть использована для различных форм ситуаций виртуальной реальности, таких как другие обучающие, развлекательные и промышленные ситуации. В частности, способ обучения объекта, изложенный выше, может использоваться в других ситуациях, например в обрабатывающей промышленности.One skilled in the art will also understand that simulator 1 is not limited to the soldering operation scenarios described above. More specifically, simulator 1 can be used for various forms of virtual reality situations, such as other educational, entertainment, and industrial situations. In particular, the method of teaching an object described above can be used in other situations, for example, in the manufacturing industry.

В вышеуказанном варианте выполнения компьютер 200 включает в себя компьютерную программу. Специалист поймет, что компьютерная программа может быть осуществлена на машиночитаемом носителе, таком как компакт-диск или флэш-накопитель USB, или может быть загружаемой из интернета. Компьютерная программа также может быть сохранена на сервере в удаленном месте, при этом пользовательский персональный компьютер может отправлять данные в сервер посредством сетевого соединения.In the above embodiment, the computer 200 includes a computer program. One skilled in the art will understand that a computer program may be implemented on a computer readable medium, such as a CD or a USB flash drive, or may be downloadable from the Internet. The computer program can also be stored on the server in a remote location, while the user personal computer can send data to the server via a network connection.

Специалист также поймет, что устанавливаемый на голову дисплей является несущественным признаком. Точнее, компьютер 200 может выдавать графический материал компьютерному монитору, проектору, TV, HDTV, 3DTV или т.п. Устанавливаемый на голову дисплей является предпочтительным признаком, так как он обеспечивает иммерсивный опыт для пользователя, а также может обеспечивать данные, относящиеся к ориентации головы пользователя, которые далее, в свою очередь, могут использоваться симулятором 1.The person skilled in the art will also understand that a head-mounted display is a non-essential feature. More specifically, computer 200 may provide graphic material to a computer monitor, projector, TV, HDTV, 3DTV, or the like. A head-mounted display is a preferred feature as it provides an immersive experience for the user, and can also provide data related to the orientation of the user's head, which can then be used in turn by simulator 1.

Специалист в области техники поймет, что любая совокупность признаков возможна без отклонения от объема настоящего изобретения, который заявлен в формуле изобретения.The person skilled in the art will understand that any combination of features is possible without deviating from the scope of the present invention, which is claimed in the claims.

Claims (24)

1. Устройство для определения координат управляющего устройства, приводимого в действие пользователем, в двух измерениях, содержащее1. A device for determining the coordinates of a control device, driven by the user, in two dimensions, containing первую камеру для формирования инфракрасного изображения, включающего в себя инфракрасное изображение управляющего устройства и инфракрасное изображение пользователя;a first camera for generating an infrared image including an infrared image of a control device and an infrared image of a user; вторую камеру для формирования калибровочного изображения управляющего устройства и изображения пользователя и потока изображений управляющего устройства и изображений пользователя;a second camera for generating a calibration image of the control device and the user image and the image stream of the control device and user images; первый вычислительный модуль для формирования обучающего изображения, сконфигурированный для извлечения вектора для контура кромки изображения управляющего устройства из инфракрасного изображения, включающего в себя инфракрасное изображение управляющего устройства и инфракрасное изображение пользователя, используя модель активного контура, и для приложения указанного вектора к калибровочному изображению для формирования обучающего изображения и таким образом отделения изображения управляющего устройства от изображения пользователя;a first computing module for generating a training image configured to extract a vector for a contour of an image edge of a control device from an infrared image including an infrared image of a control device and an infrared image of a user using an active circuit model, and for applying said vector to a calibration image to form a training images and thus separating the image of the control device from the image Vatel; адаптивный корреляционный фильтр, сформированный из обучающего изображения; иadaptive correlation filter formed from a training image; and второй вычислительный модуль, сконфигурированный для корреляции по меньшей мере одного изображения из потока изображений из второй камеры с адаптивным корреляционным фильтром для определения координат х-у управляющего устройства путем сравнения амплитуды максимального пика в плоскости корреляции адаптивного корреляционного фильтра с порогом обнаружения.a second computing module configured to correlate at least one image from the image stream from the second camera with an adaptive correlation filter to determine the xy coordinate of the control device by comparing the amplitude of the maximum peak in the correlation plane of the adaptive correlation filter with the detection threshold. 2. Устройство по п. 1, в котором сформировано множество вращаемых обучающих изображений, причем эти вращаемые обучающие изображения созданы вращением обучающего изображения, при этом адаптивный корреляционный фильтр создан из вращаемых обучающих изображений.2. The device according to claim 1, wherein a plurality of rotatable training images is generated, wherein these rotatable training images are created by rotating the training image, wherein the adaptive correlation filter is created from rotatable training images. 3. Устройство по п. 1, в котором обучающее изображение формируется периодически для обновления адаптивного корреляционного фильтра.3. The device according to claim 1, in which the training image is generated periodically to update the adaptive correlation filter. 4. Устройство по п. 2, в котором вращаемые обучающие изображения формируются периодически для обновления адаптивного корреляционного фильтра.4. The device according to claim 2, in which rotated training images are generated periodically to update the adaptive correlation filter. 5. Устройство по п. 3 или 4, в котором адаптивный корреляционный фильтр обновляется каждые 0,5-1,5 секунд.5. The device according to p. 3 or 4, in which the adaptive correlation filter is updated every 0.5-1.5 seconds. 6. Устройство по п. 1, в котором адаптивный корреляционный фильтр представляет собой фильтр ОТ-МАСН.6. The device according to claim 1, in which the adaptive correlation filter is an OT-MACH filter. 7. Способ определения координат управляющего устройства, приводимого в действие пользователем, в двух измерениях, причем способ содержит этапы, на которых:7. A method for determining the coordinates of a control device driven by a user in two dimensions, the method comprising the steps of: получают инфракрасное изображение, включающее в себя инфракрасное изображение управляющего устройства и инфракрасное изображение пользователя из инфракрасной камеры;receiving an infrared image including an infrared image of a control device and an infrared image of a user from an infrared camera; получают поток изображений управляющего устройства и изображений пользователя и калибровочное изображение управляющего устройства и изображения пользователя из камеры;receive a stream of images of the control device and user images and a calibration image of the control device and user images from the camera; формируют вектор для контура кромки управляющего устройства из инфракрасного изображения, включающего в себя инфракрасное изображение управляющего устройства и инфракрасное изображение пользователя, используя модель активного контура, и тем самым отделения управляющего устройства от пользователя;forming a vector for the contour of the edge of the control device from an infrared image including an infrared image of the control device and an infrared image of the user using the active circuit model, and thereby separating the control device from the user; формируют обучающее изображение путем извлечения управляющего устройства от пользователя из калибровочного изображения, используя указанный вектор;form a training image by extracting the control device from the user from the calibration image using the specified vector; создают адаптивный корреляционный фильтр, используя обучающее изображение; иcreate an adaptive correlation filter using a training image; and определяют координаты х-у управляющего устройства в корреляционном поле корреляцией по меньшей мере одного изображения из потока изображений с адаптивным корреляционным фильтром.determine the coordinates xy of the control device in the correlation field by correlation of at least one image from the image stream with an adaptive correlation filter. 8. Способ по п. 7, дополнительно содержащий этап формирования множества вращаемых обучающих изображений, причем эти вращаемые обучающие изображения формируют путем вращения обучающего изображения и формируют адаптивный корреляционный фильтр из вращаемых обучающих изображений.8. The method of claim 7, further comprising the step of generating a plurality of rotatable training images, wherein these rotatable training images are formed by rotating the training image and an adaptive correlation filter is formed from rotatable training images. 9. Способ по п. 7, в котором обучающее изображение формируют периодически для обновления адаптивного корреляционного фильтра.9. The method according to p. 7, in which the training image is formed periodically to update the adaptive correlation filter. 10. Способ по п. 8, в котором вращаемые обучающие изображения формируют периодически для обновления адаптивного корреляционного фильтра.10. The method of claim 8, wherein the rotational training images are generated periodically to update an adaptive correlation filter. 11. Способ по п. 7, в котором адаптивный корреляционный фильтр обновляют каждые 0,5-1,5 секунд.11. The method according to p. 7, in which the adaptive correlation filter is updated every 0.5-1.5 seconds. 12. Способ по п. 7, в котором адаптивный корреляционный фильтр представляет собой фильтр ОТ-МАСН.12. The method of claim 7, wherein the adaptive correlation filter is an OT-MACH filter. 13. Считываемый компьютером носитель, содержащий записанную на нем программу, которая при выполнении компьютером побуждает процессор компьютера выполнять этапы способа по любому из пп. 7-12.13. A computer-readable medium containing a program recorded thereon, which, when executed by a computer, causes the computer processor to perform the steps of the method according to any one of claims. 7-12.
RU2012105335A 2010-11-10 2011-11-10 Simulating installation involving method and device for determining coordinates of object in two dimensions RU2608350C2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1018974.4A GB2485359B (en) 2010-11-10 2010-11-10 A simulator including a method and apparatus for determining the co-ordinates of an object in two dimensions
GB1018974.4 2010-11-10
PCT/GB2011/052187 WO2012063068A1 (en) 2010-11-10 2011-11-10 A simulator including a method and apparatus for determining the co-ordinates of an object in two dimensions

Publications (2)

Publication Number Publication Date
RU2012105335A RU2012105335A (en) 2014-12-20
RU2608350C2 true RU2608350C2 (en) 2017-01-18

Family

ID=43414641

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2012105335A RU2608350C2 (en) 2010-11-10 2011-11-10 Simulating installation involving method and device for determining coordinates of object in two dimensions

Country Status (5)

Country Link
CN (1) CN102667858B (en)
GB (2) GB2485359B (en)
IN (1) IN2012DN00884A (en)
RU (1) RU2608350C2 (en)
WO (1) WO2012063068A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020118861A1 (en) * 2001-02-15 2002-08-29 Norman Jouppi Head tracking and color video acquisition via near infrared luminance keying
US20030012425A1 (en) * 1998-11-12 2003-01-16 Canon Kabushiki Kaisha Viewpoint position detection apparatus and method, and stereoscopic image display system
US6529614B1 (en) * 1998-08-05 2003-03-04 California Institute Of Technology Advanced miniature processing handware for ATR applications
US20080259187A1 (en) * 2007-04-18 2008-10-23 Fujifilm Corporation System for and method of image processing and computer program for causing computer to execute the method
RU2353006C2 (en) * 2003-01-21 2009-04-20 Сарен Системз, Лтд. Passive infrared motion sensor (versions)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5267329A (en) * 1990-08-10 1993-11-30 Kaman Aerospace Corporation Process for automatically detecting and locating a target from a plurality of two dimensional images
US5870486A (en) * 1991-12-11 1999-02-09 Texas Instruments Incorporated Method of inferring sensor attitude through multi-feature tracking
US6546117B1 (en) * 1999-06-10 2003-04-08 University Of Washington Video object segmentation using active contour modelling with global relaxation
US7483569B2 (en) * 2003-05-29 2009-01-27 Carnegie Mellon University Reduced complexity correlation filters
GB0404269D0 (en) * 2004-02-26 2004-03-31 Leuven K U Res & Dev Time-dependent three-dimensional musculo-skeletal modeling based on dynamic surface measurements of bodies
KR100657915B1 (en) * 2004-11-26 2006-12-14 삼성전자주식회사 Corner detection method and apparatus therefor
US7693331B2 (en) * 2006-08-30 2010-04-06 Mitsubishi Electric Research Laboratories, Inc. Object segmentation using visible and infrared images
CN101383004A (en) * 2007-09-06 2009-03-11 上海遥薇实业有限公司 Passenger target detecting method combining infrared and visible light images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6529614B1 (en) * 1998-08-05 2003-03-04 California Institute Of Technology Advanced miniature processing handware for ATR applications
US20030012425A1 (en) * 1998-11-12 2003-01-16 Canon Kabushiki Kaisha Viewpoint position detection apparatus and method, and stereoscopic image display system
US20020118861A1 (en) * 2001-02-15 2002-08-29 Norman Jouppi Head tracking and color video acquisition via near infrared luminance keying
RU2353006C2 (en) * 2003-01-21 2009-04-20 Сарен Системз, Лтд. Passive infrared motion sensor (versions)
US20080259187A1 (en) * 2007-04-18 2008-10-23 Fujifilm Corporation System for and method of image processing and computer program for causing computer to execute the method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
статья SAMIR SHAH et al. ";Iris segmentation using geodesic active contours";, опубл. 04.12.2009 в Интернет: , раздел Abstract. *

Also Published As

Publication number Publication date
GB201018974D0 (en) 2010-12-22
RU2012105335A (en) 2014-12-20
GB2485359B (en) 2012-10-31
IN2012DN00884A (en) 2015-07-10
WO2012063068A1 (en) 2012-05-18
CN102667858A (en) 2012-09-12
GB201119413D0 (en) 2011-12-21
CN102667858B (en) 2017-03-15
GB2485471B (en) 2016-10-12
GB2485359A (en) 2012-05-16
GB2485471A (en) 2012-05-16

Similar Documents

Publication Publication Date Title
JP2018190443A5 (en)
US20120322037A1 (en) Anomaly Detection Educational Process
CN109253868B (en) Method and device for measuring field angle
Ballester et al. Using the Xbox Kinect sensor for positional data acquisition
RU2016101616A (en) COMPUTER DEVICE, METHOD AND COMPUTING SYSTEM
CN112330730B (en) Image processing method, device, equipment and storage medium
CN108735052A (en) A kind of augmented reality experiment with falling objects method based on SLAM
CN107256082B (en) Throwing object trajectory measuring and calculating system based on network integration and binocular vision technology
JP2019125113A5 (en)
Chen et al. Reproducible evaluation of pan-tilt-zoom tracking
CN109545003A (en) A kind of display methods, device, terminal device and storage medium
Shi et al. Design of optical sensors based on computer vision in basketball visual simulation system
RU2608350C2 (en) Simulating installation involving method and device for determining coordinates of object in two dimensions
JP4879863B2 (en) Dust atmospheric dispersion simulation apparatus, method and program
CN116630992A (en) Copybook grid text intelligent matching method and system
CN108781280B (en) Test method, test device and terminal
CN110411439A (en) A kind of method, apparatus and medium generating emulation asterism according to star energy grade
CN115359422A (en) High-altitude parabolic image generation method, device and system
CN111126279B (en) Gesture interaction method and gesture interaction device
Egorova et al. Determination of workspace for motion capture using Kinect
US11922659B2 (en) Coordinate calculation apparatus, coordinate calculation method, and computer-readable recording medium
Huy et al. Simulated Gaze Tracking using Computer Vision for Virtual Reality
JP7493720B2 (en) Adaptability assessment device, adaptability assessment method, and adaptability assessment program
JP2012238163A (en) Optical flow generation device, generation method, program
CN110764642B (en) Method and device for calibrating visual projection