RU2003134283A - METHOD FOR DETECTING AN OBJECT - Google Patents

METHOD FOR DETECTING AN OBJECT Download PDF

Info

Publication number
RU2003134283A
RU2003134283A RU2003134283/09A RU2003134283A RU2003134283A RU 2003134283 A RU2003134283 A RU 2003134283A RU 2003134283/09 A RU2003134283/09 A RU 2003134283/09A RU 2003134283 A RU2003134283 A RU 2003134283A RU 2003134283 A RU2003134283 A RU 2003134283A
Authority
RU
Russia
Prior art keywords
images
dimensional
neural network
sensors
network classifier
Prior art date
Application number
RU2003134283/09A
Other languages
Russian (ru)
Other versions
RU2315357C2 (en
Inventor
Вэнг Джин Мун (KR)
Вэнг Джин Мун
Йонг Джин Ли (KR)
Йонг Джин ЛИ
Мин Сеок Пак (KR)
Мин Сеок Пак
Александр Борисович МУРЫНИН (RU)
Александр Борисович Мурынин
Виктор Дмитриевич Кузнецов (RU)
Виктор Дмитриевич Кузнецов
Петр Алексеевич Иванов (RU)
Петр Алексеевич Иванов
Original Assignee
Корпораци "Самсунг Электроникс Ко., Лтд" (KR)
Корпорация "Самсунг Электроникс Ко., Лтд"
Корпораци "Эс1" (KR)
Корпорация "Эс1"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Корпораци "Самсунг Электроникс Ко., Лтд" (KR), Корпорация "Самсунг Электроникс Ко., Лтд", Корпораци "Эс1" (KR), Корпорация "Эс1" filed Critical Корпораци "Самсунг Электроникс Ко., Лтд" (KR)
Priority to RU2003134283/09A priority Critical patent/RU2315357C2/en
Publication of RU2003134283A publication Critical patent/RU2003134283A/en
Application granted granted Critical
Publication of RU2315357C2 publication Critical patent/RU2315357C2/en

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Claims (13)

1. Способ определения пространственного положения трехмерного движущегося объекта, осуществляемый в виде детектирования объекта, включающий использование датчиков движения способных регистрировать двумерные распределения интенсивности в виде изображений, отличающийся тем, что используют более одного датчика, которые располагают с заранее известной пространственной ориентацией, позволяющей производить одновременное наблюдение за одной и той же сценой, производят периодический опрос датчиков в течение всего периода времени после их включения, осуществляют обработку и анализ полученных от датчиков данных, образующих последовательности изображений, и генерируют выходной сигнал в случае обнаружения трехмерного движущегося объекта и определения его пространственного положения, который подают на выходное устройство.1. A method for determining the spatial position of a three-dimensional moving object, carried out in the form of detecting an object, including the use of motion sensors capable of detecting two-dimensional intensity distributions in the form of images, characterized in that more than one sensor is used that has a predetermined spatial orientation that allows simultaneous observation behind the same scene, periodically interrogate the sensors throughout the entire period of time after and x inclusion, carry out the processing and analysis of the data received from the sensors, forming a sequence of images, and generate an output signal in case of detection of a three-dimensional moving object and determine its spatial position, which is fed to the output device. 2. Способ по п.1, отличающийся тем, что данные от двух и более датчиков, образующие стереоизображения, подают на вход цифрового процессора сигналов.2. The method according to claim 1, characterized in that the data from two or more sensors forming stereo images is fed to the input of a digital signal processor. 3. Способ по п.2, отличающийся тем, что производят предварительную обработку вышеупомянутых стереоизображений, которая состоит из выбора характеристик объекта и условий наблюдения, сохранения в памяти процессора характерных движений трехмерных движущихся объектов, выбора Областей Интереса (ОИ) и в построения референтной карты.3. The method according to claim 2, characterized in that they pre-process the aforementioned stereo images, which consists of selecting the characteristics of the object and the observation conditions, storing the characteristic movements of three-dimensional moving objects in the processor memory, selecting Interest Areas (OI) and constructing a reference map. 4. Способ по п.3, отличающийся тем, что производят сравнение двух и более последовательных стереоизображений путем подсчета меры их различия.4. The method according to claim 3, characterized in that they compare two or more consecutive stereo images by counting the measure of their differences. 5. Способ по п.4, отличающийся тем, что при обнаружении факта, что мера различия стереоизображений превышает предварительно заданную величину, область изображения, в которой такая мера различия имеет место, заносят в память процессора.5. The method according to claim 4, characterized in that upon detection of the fact that the measure of the difference in stereo images exceeds a predetermined value, the region of the image in which such a measure of difference takes place is stored in the processor memory. 6. Способ по п.5, отличающийся тем, что производят подсчет локальных характеристик, включающих скорость для каждой точки, принадлежащей сохраненной в памяти Области Интереса стереоизображения с мерой различия, превышающей предварительно заданную величину.6. The method according to claim 5, characterized in that the local characteristics are calculated including the speed for each point belonging to the stereo image stored in the memory of the Region of Interest with a measure of difference exceeding a predetermined value. 7. Способ по п.6, отличающийся тем, что производят анализ полученных локальных характеристик для каждой точки, принадлежащей сохраненной в память Области Интереса стереоизображения, при этом анализ производят путем создания глобальной структуры в виде результата расчета оптического потока.7. The method according to claim 6, characterized in that the analysis of the obtained local characteristics for each point belonging to the stereo image area of interest stored in the memory is performed, the analysis being performed by creating a global structure in the form of the result of calculating the optical flux. 8. Способ по п.7, отличающийся тем, что, производят классификацию полученного результата расчета оптического потока путем введения решающего правила в виде нейросетевого классификатора.8. The method according to claim 7, characterized in that the classification of the obtained result of the calculation of the optical flow is performed by introducing a decision rule in the form of a neural network classifier. 9. Способ по п.8, отличающийся тем, что производят обучение нейросетевого классификатора на данных об изображениях, содержащих способы движения и деформации объектов во время движения, при этом обучение состоит в запоминании обучающего набора и представлении этого набора на вход и выход нейросетевого классификатора для получения значений коррекции входного и выходного сигнала, обучающий набор состоит из изображений, которые содержат движущиеся объекты в различных пространственных положениях с характерными движениями после различного рода деформаций, изменений положения, условий освещенности, с различными скоростями движения и расстояния до устройства видеоввода, присутствия нескольких движущихся трехмерных объектов.9. The method according to claim 8, characterized in that the neural network classifier is trained on image data containing methods of movement and deformation of objects during movement, the training consists in storing the training set and presenting this set to the input and output of the neural network classifier for to obtain input and output signal correction values, the training set consists of images that contain moving objects in various spatial positions with characteristic movements after various deformations, changes in position, lighting conditions, with different speeds and distances to the video capture device, the presence of several moving three-dimensional objects. 10. Способ по пп.8 или 9, отличающийся тем, что нейросетевой классификатор используют для выдачи решения о наличии либо отсутствии во входном стереоизображении движущегося трехмерного объекта.10. The method according to claims 8 or 9, characterized in that the neural network classifier is used to issue a decision on the presence or absence of a moving three-dimensional object in the input stereo image. 11. Способ по п.10, отличающийся тем, что в случае положительного решения нейросетевого классификатора осуществляют определение пространственного положения обнаруженного трехмерного движущегося объекта и генерируют соответствующий выходной сигнал.11. The method according to claim 10, characterized in that in the case of a positive decision of the neural network classifier, the spatial position of the detected three-dimensional moving object is determined and a corresponding output signal is generated. 12. Способ по п.1, отличающийся тем, что перед началом наблюдения за сценой производят калибровку двух или более датчиков, при этом калибровка состоит в представлении объекта с заранее известными геометрическими характеристиками, измерениями этих его характеристик, сравнением с предварительно заданными и коррекции в изображениях, которую производятся путем компенсации ошибок в измерениях.12. The method according to claim 1, characterized in that before starting to monitor the scene, calibrate two or more sensors, the calibration consists in representing an object with previously known geometric characteristics, measuring its characteristics, comparing with predefined and correcting images , which are produced by compensating for errors in measurements. 13. Способ по п.1, отличающийся тем, что данные от каждого датчика обрабатывают как по отдельности, так и совместно.13. The method according to claim 1, characterized in that the data from each sensor is processed both individually and together.
RU2003134283/09A 2003-11-27 2003-11-27 Object detection method RU2315357C2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2003134283/09A RU2315357C2 (en) 2003-11-27 2003-11-27 Object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2003134283/09A RU2315357C2 (en) 2003-11-27 2003-11-27 Object detection method

Publications (2)

Publication Number Publication Date
RU2003134283A true RU2003134283A (en) 2005-05-27
RU2315357C2 RU2315357C2 (en) 2008-01-20

Family

ID=35824160

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2003134283/09A RU2315357C2 (en) 2003-11-27 2003-11-27 Object detection method

Country Status (1)

Country Link
RU (1) RU2315357C2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4980486B1 (en) * 2011-06-14 2012-07-18 株式会社ナナオ Moving image region determination apparatus or method thereof
CA2793180A1 (en) * 2011-11-02 2013-05-02 Eads Deutschland Gmbh Method and device for the detection of moving objects in a video image sequence
RU2547840C1 (en) * 2014-02-26 2015-04-10 Федеральное Государственное Автономное Образовательное Учреждение Высшего Профессионального Образования "Сибирский Федеральный Университет" (Сфу) Device for determination of object space orientation
RU2591302C1 (en) * 2015-05-26 2016-07-20 Федеральное государственное бюджетное учреждение науки Физико-технический институт им. А.Ф. Иоффе Российской академии наук Device for determining position of object

Also Published As

Publication number Publication date
RU2315357C2 (en) 2008-01-20

Similar Documents

Publication Publication Date Title
GB2564794B (en) Image-stitching for dimensioning
US11243072B2 (en) Method for the three dimensional measurement of moving objects during a known movement
US10733751B2 (en) Displacement detecting apparatus and displacement detecting method
CN105335955B (en) Method for checking object and object test equipment
GB2557465A (en) Method for calibrating a camera and calibration system
TWI393980B (en) The method of calculating the depth of field and its method and the method of calculating the blurred state of the image
RU2562413C2 (en) Method and system identifying and determining geometrical, spatial and position characteristics of products transported by continuously acting conveyor, in particular unmachined, coarse profiled, coarse machined or partially machined steel products
US20080056534A1 (en) Object Detector
JP6664436B2 (en) Three-dimensional image processing apparatus and method
JP3637226B2 (en) Motion detection method, motion detection device, and recording medium
JP6304244B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
JP3702260B2 (en) Target angular velocity measuring device and target angular velocity measuring method
RU2363018C1 (en) Method of selecting objects on remote background
JP4361913B2 (en) Motion calculation device
JP6409769B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
RU2003134283A (en) METHOD FOR DETECTING AN OBJECT
JPH08313454A (en) Image processing equipment
JP7079466B2 (en) Human attribute recognition system and program
US20090304263A1 (en) Method for classifying an object using a stereo camera
US7755665B2 (en) Method and apparatus for automatic recognition of the relative motion direction of an object relative to a multiline camera
CN113884017B (en) Non-contact deformation detection method and system for insulator based on three-eye vision
Bergeler et al. Optical position monitoring using spatial filters for improved magnet-inductive prospection of metal pieces
JP4674316B2 (en) Position detection apparatus, position detection method, and position detection program
KR20220065435A (en) Image Registration Technique of Hyperspectral Image using Optical Flow Algorithm
RU2568335C1 (en) Method to measure distance to objects by their images mostly in space

Legal Events

Date Code Title Description
FA92 Acknowledgement of application withdrawn (lack of supplementary materials submitted)

Effective date: 20060619

FZ9A Application not withdrawn (correction of the notice of withdrawal)

Effective date: 20060705

MM4A The patent is invalid due to non-payment of fees

Effective date: 20121128

NF4A Reinstatement of patent

Effective date: 20140610

PC41 Official registration of the transfer of exclusive right

Effective date: 20140805