RU99126413A - IMAGE PROCESSING METHOD - Google Patents

IMAGE PROCESSING METHOD

Info

Publication number
RU99126413A
RU99126413A RU99126413/09A RU99126413A RU99126413A RU 99126413 A RU99126413 A RU 99126413A RU 99126413/09 A RU99126413/09 A RU 99126413/09A RU 99126413 A RU99126413 A RU 99126413A RU 99126413 A RU99126413 A RU 99126413A
Authority
RU
Russia
Prior art keywords
distance
plane
color
dimensional image
elements
Prior art date
Application number
RU99126413/09A
Other languages
Russian (ru)
Other versions
RU2193798C2 (en
Inventor
Финн ХЕЙДАЛ
Original Assignee
Дименсионс Ас
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from NO971651A external-priority patent/NO304715B1/en
Application filed by Дименсионс Ас filed Critical Дименсионс Ас
Publication of RU99126413A publication Critical patent/RU99126413A/en
Application granted granted Critical
Publication of RU2193798C2 publication Critical patent/RU2193798C2/en

Links

Claims (7)

1. Способ обработки изображений, в частности, преобразования двумерного изображения трехмерного реального объекта в трехмерное представление того же трехмерного реального объекта в системе, где объект состоит из элементов в составе двумерного изображения и где двумерное изображение получают с помощью камеры, отличающийся наличием следующих этапов: задание некоторой плоскости отсчета, соответствующей фокальной плоскости камеры и лежащей максимально близко к фокальной плоскости камеры, причем плоскость отсчета содержит элементы, соответствующие элементам в составе двумерного изображения; задание параметров цвета - цветового тона, насыщенности и яркости - для каждого элемента, лежащего в плоскости отсчета; создание некоторой шкалы отсчета путем определения значений параметров цвета с помощью последовательности отдельных изображений, каждое из которых отображает объект в различных заданных фокальных плоскостях, при этом различия параметров цвета между соответствующими фокальными плоскостями используются для калибровки геометрической измерительной шкалы, которая служит для соотнесения соответствующих измеренных параметров цвета со значениями расстояний в перспективе или метрическими значениями расстояний; измерение и регистрация параметров цвета - цветового тона, насыщенности и яркости - для каждого элемента в составе двумерного изображения; сравнение параметров цвета каждого элемента в составе двумерного изображения с параметрами цвета соответствующего элемента, лежащего в плоскости отсчета; присвоение каждому элементу в составе двумерного изображения, на основе указанного сравнения, некоторого значения расстояния dh; ds; db, где dh является результатом сравнения значений цветового тона, ds является результатом сравнения значений насыщенности и db - результатом сравнения значений яркости; вычисление расстояния d(z) между элементами в составе двумерного изображения и элементами, лежащими в плоскости отсчета, причем это расстояние d(z) измеряют вдоль оси z, перпендикулярной плоскости отсчета и имеющей начало в этой плоскости, в виде взвешенного среднего для значений расстояний dh, ds, db; d(z)=1/3*(kh*dh+ks*ds+kb*db), где kh, ks и kb являются весовыми коэффициентами, полученными на основе эмпирических данных; выполнение превращений d(x) → X, d(y) → Y И d(z) → Z, где X, Y, Z являются координатами элемента в трехмерной системе координат с началом в плоскости отсчета, причем указанные превращения d(x) → X, d(y) → Y получают с использованием известной процедуры преобразования элементов изображения, лежащих на плоскости, в элементы, находящиеся в пространстве, с помощью расчетных соотношений (шкалы) между плоскостью изображения в камере и фокальными плоскостями в пространстве, где ближайшая плоскость является плоскостью отсчета, а превращение d(z) → Z получают применением в обратном порядке процедуры для фронтальной перспективной структуры с целью считывания метрического расстояния с некоторого стандартизованного перспективного чертежа; определение, исходя из установленного значения расстояния d(z) и координат х, y элемента в плоскости двумерного изображения, реальных пространственных координат X, Y, Z данного элемента.1. A method of processing images, in particular, converting a two-dimensional image of a three-dimensional real object into a three-dimensional representation of the same three-dimensional real object in a system where the object consists of elements in a two-dimensional image and where the two-dimensional image is obtained using a camera, characterized by the following steps: some reference plane corresponding to the focal plane of the camera and lying as close as possible to the focal plane of the camera, and the reference plane contains elements corresponding to relevant to elements in a two-dimensional image; assignment of color parameters - hue, saturation and brightness - for each element lying in the reference plane; creating a certain reference scale by determining the values of color parameters using a sequence of individual images, each of which displays an object in different predetermined focal planes, while the differences in color parameters between the corresponding focal planes are used to calibrate the geometric measuring scale, which serves to correlate the corresponding measured color parameters with perspective distance values or metric distance values; measurement and registration of color parameters - color tone, saturation and brightness - for each element in a two-dimensional image; comparing the color parameters of each element in the two-dimensional image with the color parameters of the corresponding element lying in the reference plane; assigning to each element in the two-dimensional image, based on the specified comparison, a certain distance value dh; ds; db, where dh is the result of comparing the hue values, ds is the result of comparing the saturation values and db is the result of comparing the brightness values; calculating the distance d (z) between the elements in the two-dimensional image and the elements lying in the reference plane, and this distance d (z) is measured along the z axis, perpendicular to the reference plane and having a beginning in this plane, in the form of a weighted average for the values of the distances dh , ds, db; d (z) = 1/3 * (kh * dh + ks * ds + kb * db), where kh, ks and kb are weights derived from empirical data; performing the transformations d (x) → X, d (y) → Y and d (z) → Z, where X, Y, Z are the coordinates of the element in the three-dimensional coordinate system with the origin in the reference plane, and the indicated transformations d (x) → X, d (y) → Y is obtained using the well-known procedure for converting image elements lying on a plane into elements located in space using the calculated ratios (scales) between the image plane in the camera and the focal planes in space, where the nearest plane is reference plane, and the transformation d (z) → Z is obtained at eneniem in reverse procedure for frontal perspective structure for reading metric distance from a standardized perspective drawing; determination, based on the set value of the distance d (z) and the x, y coordinates of the element in the plane of the two-dimensional image, the real spatial coordinates X, Y, Z of this element. 2. Способ по п.1, отличающийся тем, что эмпирические данные организованы в геометрическую цветную модель, пригодную для использования в сочетании с фронтальной перспективной структурой. 2. The method according to claim 1, characterized in that the empirical data is organized in a geometric color model, suitable for use in combination with a frontal perspective structure. 3. Способ по п.2, отличающийся тем, что измерительная шкала геометрической цветной модели включает геометрически совмещенные нелинейные шкалы, основанные на справочных и эмпирических данных соответственно для цветового тона, насыщенности цвета и яркости, где цветовая температура возрастает до максимума в общей конечной точке, или точке схождения, в которой насыщенность цвета и контраст приближаются к нулю. 3. The method according to claim 2, characterized in that the measuring scale of the geometric color model includes geometrically combined non-linear scales based on reference and empirical data, respectively, for color tone, color saturation and brightness, where the color temperature rises to a maximum at the common end point, or a convergence point at which color saturation and contrast approach zero. 4. Способ по п.3, отличающийся тем, что общую точку схождения нелинейных шкал определяют с помощью параметров цвета для одного или нескольких удаленных элементов изображения, которое было сфокусировано в фокальной плоскости на наибольшее расстояние, причем измеренные значения этого элемента или средние измеренные значения этих элементов обуславливают точку схождения. 4. The method according to claim 3, characterized in that the common point of convergence of the nonlinear scales is determined using color parameters for one or more remote image elements that have been focused in the focal plane at the greatest distance, the measured values of this element or the average measured values of these elements determine the point of convergence. 5. Способ по п. 4, отличающийся тем, что геометрическую измерительную шкалу включают во фронтальную перспективную диаграмму, которая соответствует формату двумерного изображения и имеет нелинейные шкалы, откалиброванные на параметр рассматриваемого изображения, с целью определения расстояния между плоскостью отсчета и данным элементом изображения. 5. The method according to p. 4, characterized in that the geometric measuring scale is included in the frontal perspective diagram, which corresponds to the two-dimensional image format and has non-linear scales calibrated for the parameter of the image in question, in order to determine the distance between the reference plane and this image element. 6. Способ по п.5, отличающийся тем, что используют значение расстояния в перспективе. 6. The method according to claim 5, characterized in that use the value of the distance in the future. 7. Способ по п.6, отличающийся тем, что используют метрическое значение расстояния. 7. The method according to claim 6, characterized in that use the metric value of the distance.
RU99126413/09A 1997-05-06 1998-05-06 Image processing method RU2193798C2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
NO972097 1997-05-06
NO971651A NO304715B1 (en) 1997-05-06 1997-05-06 Imaging Procedure

Publications (2)

Publication Number Publication Date
RU99126413A true RU99126413A (en) 2001-09-27
RU2193798C2 RU2193798C2 (en) 2002-11-27

Family

ID=19900698

Family Applications (1)

Application Number Title Priority Date Filing Date
RU99126413/09A RU2193798C2 (en) 1997-05-06 1998-05-06 Image processing method

Country Status (19)

Country Link
US (1) US6546153B1 (en)
EP (1) EP0980568B1 (en)
JP (1) JP2001524239A (en)
KR (1) KR100496875B1 (en)
CN (1) CN1261969A (en)
AT (1) ATE290242T1 (en)
AU (1) AU735613B2 (en)
BR (1) BR9808743A (en)
CA (1) CA2289593A1 (en)
DE (1) DE69829177T2 (en)
ES (1) ES2242281T3 (en)
IL (1) IL132728A (en)
IS (1) IS5238A (en)
NO (1) NO304715B1 (en)
NZ (1) NZ501466A (en)
PL (1) PL336850A1 (en)
RU (1) RU2193798C2 (en)
TR (1) TR199902741T2 (en)
WO (1) WO1998050889A1 (en)

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7068825B2 (en) * 1999-03-08 2006-06-27 Orametrix, Inc. Scanning system and calibration method for capturing precise three-dimensional information of objects
KR100450836B1 (en) * 2001-12-11 2004-10-01 삼성전자주식회사 Apparatus for generating 3-dimensional image from 2-dimensional image
US7883415B2 (en) * 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US8797260B2 (en) 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US7102615B2 (en) * 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
US8686939B2 (en) * 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US7391409B2 (en) * 2002-07-27 2008-06-24 Sony Computer Entertainment America Inc. Method and system for applying gearing effects to multi-channel mixed input
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US9682319B2 (en) * 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
JP4068596B2 (en) 2003-06-27 2008-03-26 株式会社東芝 Graphic processing method, graphic processing apparatus, and computer-readable graphic processing program
US8323106B2 (en) * 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US8287373B2 (en) 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
US10279254B2 (en) * 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US9573056B2 (en) * 2005-10-26 2017-02-21 Sony Interactive Entertainment Inc. Expandable control device via hardware attachment
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
CA2633341A1 (en) 2005-12-23 2007-07-12 Wms Gaming Inc. Transient or persistent game play in wagering games
CA2642098C (en) 2006-02-17 2014-04-08 Wms Gaming Inc. Providing alternative persistent state recovery techniques
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
US8542907B2 (en) * 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
KR101335346B1 (en) * 2008-02-27 2013-12-05 소니 컴퓨터 엔터테인먼트 유럽 리미티드 Methods for capturing depth data of a scene and applying computer actions
US8368753B2 (en) 2008-03-17 2013-02-05 Sony Computer Entertainment America Llc Controller with an integrated depth camera
JP5338228B2 (en) * 2008-09-29 2013-11-13 カシオ計算機株式会社 Image generating apparatus and program
US8961313B2 (en) * 2009-05-29 2015-02-24 Sony Computer Entertainment America Llc Multi-positional three-dimensional controller
US8527657B2 (en) * 2009-03-20 2013-09-03 Sony Computer Entertainment America Llc Methods and systems for dynamically adjusting update rates in multi-player network gaming
US8342963B2 (en) * 2009-04-10 2013-01-01 Sony Computer Entertainment America Inc. Methods and systems for enabling control of artificial intelligence game characters
US8142288B2 (en) 2009-05-08 2012-03-27 Sony Computer Entertainment America Llc Base station movement detection and compensation
US8393964B2 (en) 2009-05-08 2013-03-12 Sony Computer Entertainment America Llc Base station for position location
US8928793B2 (en) 2010-05-12 2015-01-06 Pelican Imaging Corporation Imager array interfaces
WO2012155119A1 (en) 2011-05-11 2012-11-15 Pelican Imaging Corporation Systems and methods for transmitting and receiving array camera image data
JPWO2013032008A1 (en) * 2011-09-02 2015-03-23 株式会社ニコン Image processing apparatus and program
RU2493602C1 (en) * 2012-08-10 2013-09-20 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Method and system for selecting key frames from video sequences
KR102105645B1 (en) * 2012-10-08 2020-05-04 코닌클리케 필립스 엔.브이. Luminance changing image processing with color constraints
US10467855B2 (en) 2017-06-01 2019-11-05 Igt Gaming system and method for modifying persistent elements
CN109816704B (en) 2019-01-28 2021-08-03 北京百度网讯科技有限公司 Method and device for acquiring three-dimensional information of object
WO2021055585A1 (en) 2019-09-17 2021-03-25 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
MX2022004163A (en) 2019-10-07 2022-07-19 Boston Polarimetrics Inc Systems and methods for surface normals sensing with polarization.
MX2022005289A (en) 2019-11-30 2022-08-08 Boston Polarimetrics Inc Systems and methods for transparent object segmentation using polarization cues.
WO2021154386A1 (en) 2020-01-29 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
US11797863B2 (en) 2020-01-30 2023-10-24 Intrinsic Innovation Llc Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0696144A3 (en) * 1994-08-02 1996-04-24 Canon Kk Multilens imaging apparatus comprising a corresponding point extraction unit
GB2305050A (en) 1995-09-08 1997-03-26 Orad Hi Tec Systems Ltd Determining the position of a television camera for use in a virtual studio employing chroma keying
US6014472A (en) * 1995-11-14 2000-01-11 Sony Corporation Special effect device, image processing method, and shadow generating method
US6009188A (en) * 1996-02-16 1999-12-28 Microsoft Corporation Method and system for digital plenoptic imaging

Similar Documents

Publication Publication Date Title
RU99126413A (en) IMAGE PROCESSING METHOD
RU2193798C2 (en) Image processing method
KR100386090B1 (en) Camera calibration system and method using planar concentric circles
WO2005024720A2 (en) Color edge based system and method for determination of 3d surface topology
EP3049756B1 (en) Modeling arrangement and method and system for modeling the topography of a three-dimensional surface
JP2002202122A (en) Calibration method for two-dimensional distance image sensor
CN111551530A (en) Method and device for acquiring three-dimensional distribution information of chlorophyll fluorescence of canopy of crop group
CN111750804A (en) Object measuring method and device
CN113781434A (en) Defect detection method and device, intelligent terminal and computer readable storage medium
CN111601093B (en) Method and device for acquiring projection standard brightness and readable storage medium
CN110942506A (en) Object surface texture reconstruction method, terminal device and system
JP2672509B2 (en) Method and apparatus for automatically calibrating camera model
CN111699513B (en) Calibration plate, internal parameter calibration method, machine vision system and storage device
US6310626B1 (en) System for modeling a color imaging device
CN1223826C (en) Image measuring system and method
JPH0886613A (en) Apparatus for calibrating stereo camera
US11748908B1 (en) Systems and methods for generating point-accurate three-dimensional models with point-accurate color information from a non-cosited capture
US20110255769A1 (en) Machine performance testing method and device
CN111105365A (en) Color correction method, medium, terminal and device for texture image
CN113421292A (en) Three-dimensional modeling detail enhancement method and device
CN115082538A (en) System and method for three-dimensional reconstruction of surface of multi-view vision balance ring part based on line structure light projection
Iovenitti et al. Three-dimensional measurement using a single image
CN112308933A (en) Method and device for calibrating camera internal reference and computer storage medium
JP2002005622A (en) Method for detecting arrangement parameter in optical shaping measuring apparatus provided with plural light- section sensors
as Pajdla Laser plane rangefinder-the implementation at the CVL