RU2608350C2 - Simulating installation involving method and device for determining coordinates of object in two dimensions - Google Patents
Simulating installation involving method and device for determining coordinates of object in two dimensions Download PDFInfo
- Publication number
- RU2608350C2 RU2608350C2 RU2012105335A RU2012105335A RU2608350C2 RU 2608350 C2 RU2608350 C2 RU 2608350C2 RU 2012105335 A RU2012105335 A RU 2012105335A RU 2012105335 A RU2012105335 A RU 2012105335A RU 2608350 C2 RU2608350 C2 RU 2608350C2
- Authority
- RU
- Russia
- Prior art keywords
- image
- control device
- user
- training
- correlation filter
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000009434 installation Methods 0.000 title abstract description 3
- 230000003044 adaptive effect Effects 0.000 claims description 33
- 238000001514 detection method Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 2
- 238000003331 infrared imaging Methods 0.000 abstract 1
- 238000005259 measurement Methods 0.000 abstract 1
- 239000000126 substance Substances 0.000 abstract 1
- 238000004590 computer program Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000005452 bending Methods 0.000 description 2
- 238000005476 soldering Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 241000195940 Bryophyta Species 0.000 description 1
- 102100021709 Rho guanine nucleotide exchange factor 4 Human genes 0.000 description 1
- 101710128386 Rho guanine nucleotide exchange factor 4 Proteins 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 238000010924 continuous production Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 235000000396 iron Nutrition 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
Это изобретение относится к моделирующей установке, включающей способ и устройство для определения координат объекта в двух измерениях. Конкретнее, но не ограничиваясь, это изобретение относится к моделирующей установке для обучения специалиста.This invention relates to a simulator, including a method and apparatus for determining the coordinates of an object in two dimensions. More specifically, but not limited to, this invention relates to a simulator for training a specialist.
Традиционно, специалисты, такие как паяльщики, изучают свою специальность на работе в качестве подмастерья. Подмастерье приобретает различные требуемые навыки, пытаясь повторять работу его учителя. Обучение обеспечивает сфокусированный персональный опыт подготовки. Однако эта форма обучения является неизменной, так как время учителя тратится на многих учеников. Более того, по меньшей мере на ранних этапах обучения ученик допускает ошибки, которые принесут расходы учителю, и удерживает его/ее от найма подмастерьев в будущем.Traditionally, specialists, such as soldering irons, study their specialty at work as an apprentice. The apprentice gains various required skills, trying to repeat the work of his teacher. The training provides a focused personal training experience. However, this form of training is unchanged, as the teacher’s time is spent on many students. Moreover, at least in the early stages of training, the student makes mistakes that will incur costs for the teacher and keeps him / her from hiring apprentices in the future.
Курсы профессиональной подготовки развиты для предоставления ученикам начального опыта, необходимого для начала работы в качестве специалиста с целью уменьшить начальный затратный период обучения. Однако эти курсы имеют относительно высокую стоимость за счет количества ошибок учеников, выполненных на ранних этапах.Vocational training courses are developed to provide students with the initial experience necessary to start working as a specialist in order to reduce the initial costly period of training. However, these courses are relatively expensive due to the number of student mistakes made in the early stages.
Согласно первому аспекту изобретения обеспечено устройство для определения координат объекта в двух измерениях, содержащее первую камеру для формирования инфракрасного изображения объекта; вторую камеру для формирования калибровочного изображения объекта и потока изображений объекта; первый вычислительный модуль для формирования обучающего изображения, выполненный с возможностью извлекать вектор, соответствующий краю объекта, из инфракрасного изображения, используя модель активного контура, и с возможностью применения вектора к калибровочному изображению для формирования обучающего изображения; адаптивный корреляционный фильтр, созданный из обучающего изображения; и второй вычислительный модуль, выполненный с возможностью корреляции по меньшей мере одного изображения потока изображений из второй камеры с адаптивным корреляционным фильтром для определения координат x-y объекта сравнением амплитуды максимального пика в плоскости корреляции в адаптивном корреляционном фильтре с порогом обнаружения.According to a first aspect of the invention, there is provided a device for determining the coordinates of an object in two dimensions, comprising: a first camera for forming an infrared image of the object; a second camera for generating a calibration image of the object and the image stream of the object; a first computing module for generating a training image, configured to extract a vector corresponding to the edge of an object from an infrared image using an active loop model, and with the possibility of applying the vector to a calibration image to form a training image; adaptive correlation filter created from a training image; and a second computing module, configured to correlate at least one image of the image stream from the second camera with an adaptive correlation filter to determine the x-y coordinates of the object by comparing the amplitude of the maximum peak in the correlation plane in the adaptive correlation filter with a detection threshold.
Применяя модель активного контура к изображению из инфракрасной камеры, которая, в свою очередь, используется для создания обучающего изображения для адаптивного корреляционного фильтра, устройство может точно отслеживать объект с помощью только одной инфракрасной камеры. В известном уровне техники для отслеживания объекта используются множественные инфракрасные камеры. В связи с этим, настоящее изобретение уменьшает стоимость отслеживания объекта уменьшением необходимости во множестве дорогостоящих инфракрасных камер. Модель активного контура работает синергетически с инфракрасной камерой, так как контраст между объектом и человеком позволяет формировать точный вектор, соответствующий краю объекта. В связи с этим, устройство работает в загроможденных средах, таких как жилая комната.Applying the active contour model to an image from an infrared camera, which, in turn, is used to create a training image for an adaptive correlation filter, the device can accurately track an object using only one infrared camera. In the prior art, multiple infrared cameras are used to track an object. In this regard, the present invention reduces the cost of tracking an object by reducing the need for many expensive infrared cameras. The active circuit model works synergistically with an infrared camera, since the contrast between the object and the person allows you to form an exact vector corresponding to the edge of the object. In this regard, the device operates in cluttered environments such as a living room.
В связи с этим, настоящее изобретение может использовать стандартную камеру, например цветную камеру, как например VGA камеру, которая обеспечивает изображения в видимом спектре, который может быть использован этим устройством.In this regard, the present invention can use a standard camera, for example a color camera, such as a VGA camera, which provides images in the visible spectrum that can be used by this device.
Предпочтительно создается множество вращаемых обучающих изображений, причем эти вращаемые обучающие изображения созданы вращением обучающего изображения, при этом адаптивный корреляционный фильтр создается из вращаемых обучающих изображений.Preferably, a plurality of rotatable training images is created, wherein these rotatable training images are created by rotating the training image, wherein an adaptive correlation filter is created from the rotatable training images.
Вращая обучающие изображения, устройство может поддерживать отслеживание в отношении объекта, то есть может точно и стабильно измерять положение объекта в течение более длительного периода времени без обновления адаптивного корреляционного фильтра новым обучающим изображением. Вращаемые обучающие изображения увеличивают допуск устройства к изменениям ориентации, изменениям масштаба и положения.By rotating the training images, the device can maintain tracking in relation to the object, that is, it can accurately and stably measure the position of the object over a longer period of time without updating the adaptive correlation filter with a new training image. Rotated training images increase the device's tolerance for changes in orientation, changes in scale and position.
Предпочтительно обучающее изображение или вращаемые обучающие изображения создаются с возможностью периодически обновлять адаптивный корреляционный фильтр. Адаптивный корреляционный фильтр может быть обновлен каждые 0,5-1,5 секунд, предпочтительно каждую секунду.Preferably, the training image or rotated training images are created with the ability to periodically update the adaptive correlation filter. The adaptive correlation filter can be updated every 0.5-1.5 seconds, preferably every second.
Обновляя адаптивный корреляционный фильтр новым обучающим изображением и используя набор вращаемых обучающих изображений, адаптивный корреляционный фильтр «переобучается». Это увеличивает точность адаптивного корреляционного фильтра для следующего изображения из второй камеры.By updating the adaptive correlation filter with a new training image and using a set of rotated training images, the adaptive correlation filter is “retrained”. This increases the accuracy of the adaptive correlation filter for the next image from the second camera.
Адаптивный корреляционный фильтр может быть фильтром MACH, фильтром OT-MACH или т.п.The adaptive correlation filter may be a MACH filter, an OT-MACH filter, or the like.
Согласно второму аспекту изобретения обеспечен способ определения координат объекта в двух измерениях, причем способ содержит этапы, на которых получают инфракрасное изображение, включающее объект из инфракрасной камеры; получают поток изображений, включающих объект, и калибровочное изображение, включающее в себя объект, из камеры; формируют вектор, соответствующий краю объекта, из инфракрасного изображения, используя модель активного контура; формируют обучающее изображение извлечением объекта из калибровочного изображения, используя вектор; создают адаптивный корреляционный фильтр, используя обучающее изображение; и определяют координаты x-y объекта в корреляционном поле корреляцией по меньшей мере одного изображения из потока изображений с адаптивным корреляционным фильтром.According to a second aspect of the invention, there is provided a method for determining the coordinates of an object in two dimensions, the method comprising the steps of: receiving an infrared image including an object from an infrared camera; receiving a stream of images including an object and a calibration image including an object from a camera; forming a vector corresponding to the edge of the object from an infrared image using the active contour model; forming a training image by extracting an object from a calibration image using a vector; create an adaptive correlation filter using a training image; and determining the x-y coordinates of the object in the correlation field by correlating at least one image from the image stream with an adaptive correlation filter.
Способ может дополнительно содержать этап формирования множества вращаемых обучающих изображений, причем этот набор вращаемых обучающих изображений создается вращением обучающего изображения, и создания адаптивного корреляционного фильтра из вращаемых обучающих изображений.The method may further comprise the step of generating a plurality of rotatable training images, this set of rotatable training images being created by rotating the training image, and creating an adaptive correlation filter from the rotatable training images.
Обучающее изображение или множество вращаемых обучающих изображений может периодически обновлять адаптивный корреляционный фильтр. Адаптивный корреляционный фильтр может быть обновлен каждые 0,5-1,5 секунды или, предпочтительней, каждую секунду.A training image or a plurality of rotatable training images may periodically update an adaptive correlation filter. The adaptive correlation filter can be updated every 0.5-1.5 seconds or, preferably, every second.
Компьютерная программа, выполненная на машиночитаемом носителе, может быть выполнена с возможностью реализовывать способ согласно второму аспекту изобретения.A computer program executed on a computer-readable medium may be configured to implement a method according to a second aspect of the invention.
Далее варианты осуществления изобретения будут описаны путем примера и со ссылкой на чертежи, в которых:Embodiments of the invention will now be described by way of example and with reference to the drawings, in which:
Фигура 1 иллюстрирует моделирующую установку, включающую в себя компьютер, устанавливаемый на голову дисплей, управляющее устройство и блок камеры;Figure 1 illustrates a simulator installation including a computer, a head-mounted display, a control device, and a camera unit;
Фигура 2 иллюстрирует блок-схему, иллюстрирующую способ варианта осуществления настоящего изобретения измерения координат по оси х и по оси y управляющего устройства;2 is a flowchart illustrating a method of an embodiment of the present invention for measuring coordinates along the x axis and y axis of a control device;
Фигура 3 иллюстрирует фильтр OT-MACH варианта осуществления согласно Фигуре 2; иFigure 3 illustrates the OT-MACH filter of an embodiment according to Figure 2; and
Фигура 4 иллюстрирует, только для ссылки, способ измерения координаты по оси z управляющего устройства.Figure 4 illustrates, for reference only, the method of measuring the coordinate along the z axis of the control device.
Фигура 1 иллюстрирует обзор моделирующей установки 1. Моделирующая установка 1 включает в себя управляющее устройство 100, компьютер 200, блок 300 камеры и устанавливаемый на голову дисплей 400. Для целей этого описания компьютер 200 выполнен с возможностью запуска компьютерной программы, которая моделирует сценарий обучения, как например использование паяльной лампы или изгибание трубы.Figure 1 illustrates an overview of the
Компьютер 200 принимает данные от управляющего устройства 100 и блока 300 камеры. Управляющее устройство 100 включает в себя различные датчики для измерения пространственных характеристик, таких как ускорение и ориентация, и для измерения данных ввода пользователя. Управляющее устройство 100 выводит данные от датчиков в компьютер 200. Блок 300 камеры включает в себя первую камеру 310 и вторую инфракрасную камеру 320 для получения изображения. Блок 300 камеры выводит данные изображения в компьютер 200.
Компьютер 200 выполнен с возможностью обработки данных из управляющего устройства 100 и блока 300 камеры в виде переменных ввода в компьютерную программу. Управляющее устройство 100 обеспечивает пространственные данные, такие как ускорение и ориентацию и данные ввода пользователя, при этом блок 300 камеры обеспечивает изображения, которые могут быть обработаны способом согласно настоящему изобретению для отслеживания управляющего устройства 100. Компьютерная программа, которая может симулировать сценарий обучения, в связи с этим, может давать пользователю иммерсивную и точную симуляцию реальных навыков, таких как использование паяльной лампы или изгибание трубы. Ниже способ отслеживания управляющего устройства 100 описан более подробно.The
ОтслеживаниеTracking
При нормальном использовании моделирующую установку 1 устанавливают в комнате, при этом блок 300 камеры обращен к управляющему устройству 100. Как правило, блок 300 камеры будет размещен против стены и обращен к управляющему устройству 100 в центре комнаты. Управляющее устройство 100 держится пользователем.In normal use, the
Для цели описания три измерения обозначены вдоль декартовых осей x, y и z, причем ось z расположена в направлении от блока 300 камеры к управляющему устройству 100 (т.е. эта ось параллельная полу). И ось x, и ось y ортогональны оси z и друг другу. Компьютер 200 выполнен с возможностью вычисления координат по оси х и по оси y управляющего устройства за счет первого способа и вычисления координаты по оси z за счет второго способа.For the purpose of the description, three dimensions are indicated along the Cartesian axes x, y and z, the z axis being located in the direction from the
Первый способ, т.е. способ вычисления координат по оси х и по оси y управляющего устройства 100, далее будет описан со ссылкой на Фигуры 2 и 3. Способ выполняют на компьютере 200, используя данные изображения из блока 300 камеры. Блок 300 камеры получает калибровочное изображение посредством первой камеры 310 и получает инфракрасное изображение посредством второй инфракрасной камеры 320. Как отмечено выше, блок 300 камеры обращен к управляющему устройству 100, который держится пользователем. В связи с этим, калибровочное изображение и инфракрасное изображение включают в себя управляющее устройство 100 и пользователя.The first method, i.e. the method of calculating the coordinates along the x axis and y axis of the
На Фигуре 2 проиллюстрирован обзор первого способа. В качестве предварительного этапа, вычитание фона инфракрасного изображения за счет временного дифференцирования различает управляющее устройство 100 и пользователя от постоянного фона. Это формирует обработанное инфракрасное изображение, включающее в себя только управляющее устройство и пользователя, пригодное для следующих этапов.Figure 2 illustrates an overview of the first method. As a preliminary step, subtracting the background of the infrared image due to temporal differentiation distinguishes the
Модель активного контура применяется к обработанному инфракрасному изображению для создания точного вектора, контурирующего край управляющего устройства 110. Управляющее устройство 110 явно отличимо от пользователя в обработанном инфракрасном изображении за счет использования отражающего инфракрасного излучения покрытия на управляющем устройстве 110.The active loop model is applied to the processed infrared image to create an accurate vector contouring the edge of the control device 110. The control device 110 is clearly distinguishable from the user in the processed infrared image by using reflective infrared radiation from the coating on the control device 110.
Модель активного контура работает по принципу минимизации энергии для определения вектора края управляющего устройства 100 в обработанном инфракрасном изображении. Энергия каждой точки вектора вычисляется на основе смежных с ней пикселей. Разница гаусовского (DoG) отфильтрованного изображения вычисляется для выделения краев управляющего устройства 100. Этот процесс минимизации энергии является итерационным непрерывным процессом до тех пор, пока вектор края управляющего устройства не вычислят точно. Функция энергии, вычисленная и итерируемая для каждой точки вектора, описана в уравнении ниже, где i - количество итераций, изменяется от 1 до n, где n - количество точек на векторе, и Е* vector - вычисленная энергия точки вектора.The active loop model operates on the principle of minimizing energy to determine the edge vector of the
Е* vector = α.Eint(νi)+ β.Eint(νi)E * vector = α.E int (ν i ) + β.E int (ν i )
Компьютер 200 включает конфигурационный файл для изменения количества итераций i, полученного для точного вычисления вектора края управляющего устройства 100.
Как только вектор края управляющего устройства 110 вычислят, далее вектор применяется к калибровочному изображению из первой камеры для извлечения управляющего устройства 110. Извлеченное управляющее устройство 110 далее применяется к центру чистого фона, который формирует обучающее изображение, пригодное для фильтра OT-MACH.Once the edge vector of the control device 110 is calculated, the vector is then applied to the calibration image from the first camera to extract the control device 110. The extracted control device 110 is then applied to the center of the clean background, which forms a training image suitable for the OT-MACH filter.
В этом варианте осуществления обучающее изображение дополнительно обрабатывается для формирования множества вращаемых обучающих изображений для фильтра OT-MACH. Например, обучающее изображение вращают с увеличением на два градуса между -6 градусами и +6 градусами, таким образом получая 7 вращаемых обучающих изображений. Эти вращаемые обучающие изображения мультиплексируют и вводят в фильтр OT-MACH.In this embodiment, the training image is further processed to form a plurality of rotatable training images for the OT-MACH filter. For example, the training image is rotated with a two degree increase between -6 degrees and +6 degrees, thus obtaining 7 rotated training images. These rotated training images are multiplexed and injected into the OT-MACH filter.
Далее работа фильтра OT-MACH будет описана более подробно со ссылкой на Фигуру 3. Фильтр OT-MACH (Optimal Trade-off Maximum Average Correlation Height) выполнен на компьютере 200, использующем библиотеку FFTW (“Fastest Fast Fourer Transform in the West”). Библиотека FFTW представляет собой библиотеку подпрограммы С для выполнения дискретного преобразования Фурье в одном или более измерениях. Библиотека FFTW взаимодействует с библиотекой Intel’s (RTM) OpenCV для машинного зрения, делая фильтр OT-MACH эффективным в отношении к времени обработки и частоте.Next, the operation of the OT-MACH filter will be described in more detail with reference to Figure 3. The OT-MACH filter (Optimal Trade-off Maximum Average Correlation Height) is performed on a
Как показано в левом столбце на Фигуре 3, фильтр OT-MACH принимает набор вращаемых обучающих изображений ti=1-N, где N - количество вращаемых обучающих изображений. Каждое вращаемое обучающее изображение подвергается преобразованию Фурье FT(Ti). Результат FFTW не является смещенным FFT. Смещение нулевого компонента FFT к центру спектра выполняют, используя следующую функцию, обозначенную С.As shown in the left column in Figure 3, the OT-MACH filter receives a set of rotated training images t i = 1-N , where N is the number of rotated training images. Each rotated training image undergoes a Fourier transform FT (T i ). The FFTW result is not biased FFT. The offset of the zero component of the FFT to the center of the spectrum is performed using the following function, designated C.
cνFFTWShift()cνFFTWShift ()
Эта функция имеет эффект обмена местами верхнего левого квадранта с нижним правым квадрантом и обмена местами верхнего правого квадранта с нижним левым квадрантом.This function has the effect of swapping the upper left quadrant with the lower right quadrant and swapping the upper right quadrant with the lower left quadrant.
Фильтр OT-MACH выражен в уравнении ниже, где mx - середина вектора x1-N вращаемых обучающих изображений в частотном диапазоне, С - диагональная матрица спектральной плотности мощности любой выбранной шумовой модели, Dx - диагональная матрица средней спектральной плотности мощности вращаемого обучающего изображения, и Sx обозначает матрицу подобия набора вращаемых обучающих изображений. Эти параметры являются извлекаемыми из обучающего изображения. Альфа, бета и гамма являются неотрицательными оптимальными компромиссными параметрами, которые позволяют фильтру OT-MACH приспосабливаться к внешним условиям, таким как уровни света. α, β и γ могут быть изменены в конфигурационном файле.The OT-MACH filter is expressed in the equation below, where m x is the middle of the vector x 1-N of rotated training images in the frequency range, C is the diagonal matrix of the power spectral density of any selected noise model, D x is the diagonal matrix of the average power spectral density of the rotated training image , and S x denotes the similarity matrix of a set of rotational training images. These parameters are extracted from the training image. Alpha, beta and gamma are non-negative optimal trade-offs that allow the OT-MACH filter to adapt to environmental conditions, such as light levels. α, β, and γ can be changed in the configuration file.
h=
Компьютер 200 принимает поток изображений из первой камеры. Как показано на правом столбце на Фигуре 3, набор под-изображений Sk=1-N, где N - количество под-изображений, получают из одного изображения из этого потока. Каждое под-изображение подвергается преобразованию Фурье FT(Sk). Прошедшие преобразование Фурье под-изображения коррелируют с фильтром OT-MACH в частотном диапазоне посредством указанной ниже функции.
conj(FT(h))FT(Sk)conj (FT (h)) FT (S k )
Далее, каждое под-изображение классифицируется на внутриклассное или внеклассное сравнивая амплитуду максимального пика в плоскости корреляции с порогом обнаружения. Порог обнаружения дается в указанном ниже уравнении.Further, each sub-image is classified as either in-class or out-of-class by comparing the amplitude of the maximum peak in the correlation plane with the detection threshold. The detection threshold is given in the equation below.
Корреляционное поле образовано для каждого внутриклассного под-изображения. Положение управляющего устройства 100 в направлении x и y соответствует наивысшему значению в корреляционном поле.A correlation field is formed for each intraclass sub-image. The position of the
Фильтр OT-MACH применяется к каждому m-ому изображению из первой камеры для генерирования корреляционного поля и для определения положения управляющего устройства 110. Параметр m может быть изменен в конфигурационном файле. Фильтр OT-MACH может быть обновлен, то есть новым набором вращаемых обучающих изображений, полученных и примененных к фильтру OT-MACH, либо в реальном времени, либо с частотой, определенной параметром в конфигурационном файле.An OT-MACH filter is applied to each mth image from the first camera to generate a correlation field and to determine the position of the control device 110. The parameter m can be changed in the configuration file. The OT-MACH filter can be updated, that is, with a new set of rotating training images obtained and applied to the OT-MACH filter, either in real time or at the frequency specified by the parameter in the configuration file.
Второй способ, то есть для вычисления координаты по оси z управляющего устройства 100 далее описан только для ссылки, со ссылкой на Фигуру 4. Координата на оси z представляет собой расстояние от центра тяжести первой и второй камер до управляющего устройства 100.The second method, that is, for calculating the coordinate along the z axis of the
Полуугол первой камеры θ1 и второй камеры θ2 вычисляется с использованием следующего далее выражения, где D - полевая диафрагма первой или второй камеры, и f - фокусная длина первой или второй камеры.The half-angle of the first camera θ 1 and the second camera θ 2 is calculated using the following expression, where D is the field aperture of the first or second camera, and f is the focal length of the first or second camera.
На Фигуре 4 координата z может быть определена из следующего далее выражения, где α1,2 может быть измерена с использованием полуугла вида и положения на оси x и оси y управляющего устройства 100, вычисленного с использованием первого способа.In Figure 4, the z coordinate can be determined from the following expression, where α 1,2 can be measured using the half-angle of the view and position on the x axis and y axis of the
Альтернативно, если первая и вторая камера калибруется, свойственные и несвойственные камере параметры могут быть найдены с использованием функций OpenCV.Alternatively, if the first and second cameras are calibrated, camera-specific and non-camera-specific parameters can be found using the OpenCV functions.
Специалист поймет, что вращательное мультиплексирование, то есть вращение обучающего изображения, для формирования множества вращаемых обучающих изображений, является несущественным признаком настоящего изобретения. Точнее, фильтр OT-MACH может быть создан из обучающего изображения. Специалист поймет, что создание фильтра OT-MACH из множества вращаемых обучающих изображений является предпочтительным, так как оно обеспечивает величину допуска фильтру OT-MACH между обновлениями фильтра так, что точность определения положения увеличивается, и компьютер менее вероятно не осуществит отслеживание управляющего устройства 100.One skilled in the art will recognize that rotational multiplexing, that is, rotation of a training image, to form a plurality of rotatable training images, is an unimportant feature of the present invention. More specifically, the OT-MACH filter can be created from a training image. One skilled in the art will recognize that creating an OT-MACH filter from a plurality of rotating training images is preferable since it provides an OT-MACH filter tolerance between filter updates so that position accuracy increases and the computer is less likely to not track the
Специалист также поймет, что обновление фильтра OT-MACH, то есть, формирование нового набора вращаемых обучающих изображений или обучающего изображения, является несущественным признаком. Точнее, фильтр OT-MACH может быть создан из первого набора обучающих изображений и не обновлен. Разумеется, специалист поймет, что обновление фильтра OT-MACH является высоко предпочтительным, так как оно обеспечивает более точное определение положения управляющего устройства 100.One skilled in the art will also understand that updating the OT-MACH filter, that is, generating a new set of rotatable training images or training images, is an unimportant sign. More precisely, the OT-MACH filter can be created from the first set of training images and not updated. Of course, one skilled in the art will understand that updating the OT-MACH filter is highly preferred since it provides a more accurate determination of the position of the
Более того, для фильтра OT-MACH несущественным признаком является обновление один раз в каждые 25 изображений из потока изображений из первой камеры (то есть, для общей камеры, раз в каждое второе, где камера фиксирует 25 кадров в секунду). Специалист поймет, что частота обновления фильтра OT-MACH может быть изменена изменением конфигурационного файла.Moreover, for the OT-MACH filter, an insignificant feature is an update once every 25 images from the image stream from the first camera (that is, for a common camera, once every second, where the camera captures 25 frames per second). The person skilled in the art will understand that the OT-MACH filter refresh rate can be changed by changing the configuration file.
Специалист поймет, что для фильтра несущественно быть фильтром OT-MACH. Точнее, может быть использована любая форма адаптивного корреляционного фильтра, например фильтр MACH, фильтр ASEF, фильтр UMACE или фильтр MOSSE могут быть использованы взамен.One skilled in the art will recognize that it is not essential for a filter to be an OT-MACH filter. More specifically, any form of adaptive correlation filter can be used, for example, a MACH filter, an ASEF filter, a UMACE filter, or a MOSSE filter can be used instead.
Специалист также поймет, что моделирующая установка 1 не ограничена сценариями паяльной работы, описанными выше. Точнее, моделирующая установка 1 может быть использована для различных форм ситуаций виртуальной реальности, таких как другие обучающие, развлекательные и промышленные ситуации. В частности, способ обучения объекта, изложенный выше, может использоваться в других ситуациях, например в обрабатывающей промышленности.One skilled in the art will also understand that
В вышеуказанном варианте выполнения компьютер 200 включает в себя компьютерную программу. Специалист поймет, что компьютерная программа может быть осуществлена на машиночитаемом носителе, таком как компакт-диск или флэш-накопитель USB, или может быть загружаемой из интернета. Компьютерная программа также может быть сохранена на сервере в удаленном месте, при этом пользовательский персональный компьютер может отправлять данные в сервер посредством сетевого соединения.In the above embodiment, the
Специалист также поймет, что устанавливаемый на голову дисплей является несущественным признаком. Точнее, компьютер 200 может выдавать графический материал компьютерному монитору, проектору, TV, HDTV, 3DTV или т.п. Устанавливаемый на голову дисплей является предпочтительным признаком, так как он обеспечивает иммерсивный опыт для пользователя, а также может обеспечивать данные, относящиеся к ориентации головы пользователя, которые далее, в свою очередь, могут использоваться симулятором 1.The person skilled in the art will also understand that a head-mounted display is a non-essential feature. More specifically,
Специалист в области техники поймет, что любая совокупность признаков возможна без отклонения от объема настоящего изобретения, который заявлен в формуле изобретения.The person skilled in the art will understand that any combination of features is possible without deviating from the scope of the present invention, which is claimed in the claims.
Claims (24)
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1018974.4A GB2485359B (en) | 2010-11-10 | 2010-11-10 | A simulator including a method and apparatus for determining the co-ordinates of an object in two dimensions |
GB1018974.4 | 2010-11-10 | ||
PCT/GB2011/052187 WO2012063068A1 (en) | 2010-11-10 | 2011-11-10 | A simulator including a method and apparatus for determining the co-ordinates of an object in two dimensions |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2012105335A RU2012105335A (en) | 2014-12-20 |
RU2608350C2 true RU2608350C2 (en) | 2017-01-18 |
Family
ID=43414641
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2012105335A RU2608350C2 (en) | 2010-11-10 | 2011-11-10 | Simulating installation involving method and device for determining coordinates of object in two dimensions |
Country Status (5)
Country | Link |
---|---|
CN (1) | CN102667858B (en) |
GB (2) | GB2485359B (en) |
IN (1) | IN2012DN00884A (en) |
RU (1) | RU2608350C2 (en) |
WO (1) | WO2012063068A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020118861A1 (en) * | 2001-02-15 | 2002-08-29 | Norman Jouppi | Head tracking and color video acquisition via near infrared luminance keying |
US20030012425A1 (en) * | 1998-11-12 | 2003-01-16 | Canon Kabushiki Kaisha | Viewpoint position detection apparatus and method, and stereoscopic image display system |
US6529614B1 (en) * | 1998-08-05 | 2003-03-04 | California Institute Of Technology | Advanced miniature processing handware for ATR applications |
US20080259187A1 (en) * | 2007-04-18 | 2008-10-23 | Fujifilm Corporation | System for and method of image processing and computer program for causing computer to execute the method |
RU2353006C2 (en) * | 2003-01-21 | 2009-04-20 | Сарен Системз, Лтд. | Passive infrared motion sensor (versions) |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5267329A (en) * | 1990-08-10 | 1993-11-30 | Kaman Aerospace Corporation | Process for automatically detecting and locating a target from a plurality of two dimensional images |
US5870486A (en) * | 1991-12-11 | 1999-02-09 | Texas Instruments Incorporated | Method of inferring sensor attitude through multi-feature tracking |
US6546117B1 (en) * | 1999-06-10 | 2003-04-08 | University Of Washington | Video object segmentation using active contour modelling with global relaxation |
US7483569B2 (en) * | 2003-05-29 | 2009-01-27 | Carnegie Mellon University | Reduced complexity correlation filters |
GB0404269D0 (en) * | 2004-02-26 | 2004-03-31 | Leuven K U Res & Dev | Time-dependent three-dimensional musculo-skeletal modeling based on dynamic surface measurements of bodies |
KR100657915B1 (en) * | 2004-11-26 | 2006-12-14 | 삼성전자주식회사 | Corner detection method and apparatus therefor |
US7693331B2 (en) * | 2006-08-30 | 2010-04-06 | Mitsubishi Electric Research Laboratories, Inc. | Object segmentation using visible and infrared images |
CN101383004A (en) * | 2007-09-06 | 2009-03-11 | 上海遥薇实业有限公司 | Passenger target detecting method combining infrared and visible light images |
-
2010
- 2010-11-10 GB GB1018974.4A patent/GB2485359B/en active Active
-
2011
- 2011-11-10 IN IN884DEN2012 patent/IN2012DN00884A/en unknown
- 2011-11-10 WO PCT/GB2011/052187 patent/WO2012063068A1/en active Application Filing
- 2011-11-10 RU RU2012105335A patent/RU2608350C2/en active
- 2011-11-10 GB GB1119413.1A patent/GB2485471B/en active Active
- 2011-11-10 CN CN201180003615.4A patent/CN102667858B/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6529614B1 (en) * | 1998-08-05 | 2003-03-04 | California Institute Of Technology | Advanced miniature processing handware for ATR applications |
US20030012425A1 (en) * | 1998-11-12 | 2003-01-16 | Canon Kabushiki Kaisha | Viewpoint position detection apparatus and method, and stereoscopic image display system |
US20020118861A1 (en) * | 2001-02-15 | 2002-08-29 | Norman Jouppi | Head tracking and color video acquisition via near infrared luminance keying |
RU2353006C2 (en) * | 2003-01-21 | 2009-04-20 | Сарен Системз, Лтд. | Passive infrared motion sensor (versions) |
US20080259187A1 (en) * | 2007-04-18 | 2008-10-23 | Fujifilm Corporation | System for and method of image processing and computer program for causing computer to execute the method |
Non-Patent Citations (1)
Title |
---|
статья SAMIR SHAH et al. ";Iris segmentation using geodesic active contours";, опубл. 04.12.2009 в Интернет: , раздел Abstract. * |
Also Published As
Publication number | Publication date |
---|---|
GB201018974D0 (en) | 2010-12-22 |
RU2012105335A (en) | 2014-12-20 |
GB2485359B (en) | 2012-10-31 |
IN2012DN00884A (en) | 2015-07-10 |
WO2012063068A1 (en) | 2012-05-18 |
CN102667858A (en) | 2012-09-12 |
GB201119413D0 (en) | 2011-12-21 |
CN102667858B (en) | 2017-03-15 |
GB2485471B (en) | 2016-10-12 |
GB2485359A (en) | 2012-05-16 |
GB2485471A (en) | 2012-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018190443A5 (en) | ||
US20120322037A1 (en) | Anomaly Detection Educational Process | |
CN109253868B (en) | Method and device for measuring field angle | |
Ballester et al. | Using the Xbox Kinect sensor for positional data acquisition | |
RU2016101616A (en) | COMPUTER DEVICE, METHOD AND COMPUTING SYSTEM | |
CN112330730B (en) | Image processing method, device, equipment and storage medium | |
CN108735052A (en) | A kind of augmented reality experiment with falling objects method based on SLAM | |
CN107256082B (en) | Throwing object trajectory measuring and calculating system based on network integration and binocular vision technology | |
JP2019125113A5 (en) | ||
Chen et al. | Reproducible evaluation of pan-tilt-zoom tracking | |
CN109545003A (en) | A kind of display methods, device, terminal device and storage medium | |
Shi et al. | Design of optical sensors based on computer vision in basketball visual simulation system | |
RU2608350C2 (en) | Simulating installation involving method and device for determining coordinates of object in two dimensions | |
JP4879863B2 (en) | Dust atmospheric dispersion simulation apparatus, method and program | |
CN116630992A (en) | Copybook grid text intelligent matching method and system | |
CN108781280B (en) | Test method, test device and terminal | |
CN110411439A (en) | A kind of method, apparatus and medium generating emulation asterism according to star energy grade | |
CN115359422A (en) | High-altitude parabolic image generation method, device and system | |
CN111126279B (en) | Gesture interaction method and gesture interaction device | |
Egorova et al. | Determination of workspace for motion capture using Kinect | |
US11922659B2 (en) | Coordinate calculation apparatus, coordinate calculation method, and computer-readable recording medium | |
Huy et al. | Simulated Gaze Tracking using Computer Vision for Virtual Reality | |
JP7493720B2 (en) | Adaptability assessment device, adaptability assessment method, and adaptability assessment program | |
JP2012238163A (en) | Optical flow generation device, generation method, program | |
CN110764642B (en) | Method and device for calibrating visual projection |