EA031929B1 - Устройство и способ трехмерного измерения поверхности - Google Patents

Устройство и способ трехмерного измерения поверхности Download PDF

Info

Publication number
EA031929B1
EA031929B1 EA201591144A EA201591144A EA031929B1 EA 031929 B1 EA031929 B1 EA 031929B1 EA 201591144 A EA201591144 A EA 201591144A EA 201591144 A EA201591144 A EA 201591144A EA 031929 B1 EA031929 B1 EA 031929B1
Authority
EA
Eurasian Patent Office
Prior art keywords
laser
camera
images
coordinates
points
Prior art date
Application number
EA201591144A
Other languages
English (en)
Other versions
EA201591144A1 (ru
Inventor
Арнольд Дюмон
Фред Жаллон
Джейсон Кестнер
Мадхав Парими
Патрик Рэймонд
Original Assignee
Бипи Корпорейшн Норд Америка Инк.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Бипи Корпорейшн Норд Америка Инк. filed Critical Бипи Корпорейшн Норд Америка Инк.
Publication of EA201591144A1 publication Critical patent/EA201591144A1/ru
Publication of EA031929B1 publication Critical patent/EA031929B1/ru

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/30Interpretation of pictures by triangulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

Предоставлены система и способ трехмерного измерения поверхностей. В соответствии с одним вариантом осуществления измерительная система содержит лазерный проектор, первую съемочную камеру и процессор. Лазерный проектор предназначен для излучения лазерной проекции на поверхность для лазерной триангуляции. Первая съемочная камера предназначена для предоставления изображений поверхности и расположена под косым углом относительно лазерного проектора. Процессор предназначен для фотограмметрической обработки изображений, для вычисления калибровочных параметров для лазерной триангуляции на основе результатов фотограмметрической обработки и для вычисления посредством лазерной триангуляции на основе калибровочных параметров координат точек поверхности, освещенной лазерной проекцией.

Description

Предшествующий уровень техники настоящего изобретения
Для измерения и/или моделирования объектов используют различные оптические способы. Фотограмметрия - это дисциплина, занимающаяся определением характеристик объекта по его фотоизображению. Например, фотограмметрию используют для построения карт (в частности, аэрофотограмметрию) и/или для создания моделей промышленных установок (фотограмметрия с близкого расстояния) по фотоизображениям. В соответствии с фотограмметрией изображения местности получают под разными углами, а потом двумерные измерения объектов преобразуют в трехмерные координаты посредством математических методов блочного уравнивания. В фотограмметрии для корреляции изображений требуется использование мишеней, и она ограничивается измерением визуальных указателей, таких как точки и топографические элементы (т.е. углы, края, цилиндры). Фотограмметрия с близкого расстояния может обеспечивать хорошие результаты при условии предоставления большого количества изображений, полученных под разными углами, которые будут обеспечивать хорошую пересекающуюся геометрию и высокую избыточность. Стереофотограмметрия позволяет выполнять измерения по точкам на поверхностях, но ограничена по точности, поскольку стереоскопический датчик имеет только две линии видимости, которые квазипараллельны.
Лазерная триангуляция - оптический метод, который можно использовать для измерения с высокой плотностью небольших поверхностей. При лазерной триангуляции лазерный источник, который проецирует, например, линию, точку или рисунок, устанавливают вместе с оптическим датчиком (например, съемочная камера) в соответствии с заданной калиброванной геометрией. Лазерная проекция триангулируется оптическим датчиком. Для получения множества измерений перед лазером может быть установлено поворотное зеркало, которое будет обеспечивать сканирование оптическим датчиком большой поверхности в расположенных с большой плотностью точках.
Краткое раскрытие настоящего изобретения
В настоящем документе раскрыты система и способ трехмерного измерения и моделирования поверхностей и объектов. В соответствии с одним вариантом осуществления измерительная система содержит лазерный проектор, первую съемочную камеру и процессор. Лазерный проектор предназначен для излучения лазерной проекции на поверхность для лазерной триангуляции. Первая съемочная камера предназначена для предоставления изображений поверхности и расположена под косым углом относительно лазерного проектора. Процессор предназначен для фотограмметрической обработки изображений, для вычисления калибровочных параметров для лазерной триангуляции на основе результатов фотограмметрической обработки и для вычисления посредством лазерной триангуляции на основе калибровочных параметров координат точек поверхности, освещенной лазерной проекцией.
В соответствии с другим вариантом осуществления способ лазерной триангуляции предусматривает захват изображений поверхности с помощью первой съемочной камеры при перемещении первой съемочной камеры вдоль поверхности. Поверхность освещают лазерной проекцией, создаваемой лазерным источником, перемещаемым вдоль поверхности совместно с первой съемочной камерой. Изображения подвергают фотограмметрической обработке. Калибровочные параметры для лазерной триангуляции вычисляют на основе результатов фотограмметрической обработки. С помощью лазерной триангуляции координаты точек поверхности, освещенной лазерной проекцией, вычисляют на основании калибровочных параметров.
В соответствии с другим вариантом осуществления в долговременный машиночитаемый носитель кодируют команды, при выполнении которых процессор извлекает из серии изображений, полученных первой съемочной камерой, изображения поверхности. Также при выполнении команд процессор осуществляет фотограмметрическую обработку изображений и вычисляет калибровочные параметры для лазерной триангуляции на основании результатов фотограмметрической обработки. Также при выполнении команд процессор посредством лазерной триангуляции на основании калибровочных параметров вычисляет координаты точек поверхности, освещенной лазерной проекцией, которая захватывается на изображениях.
Краткое описание фигур
Далее приведенные в качестве примера варианты осуществления будут подробно описаны со ссылкой на прилагаемые фигуры, на которых:
на фиг. 1 схематически показано устройство, которое выполняет измерение поверхности в соответствии с раскрытыми в настоящем документе идеями;
на фиг. 2 схематически показана система координат для фотограмметрии в соответствии с раскрытыми в настоящем документе идеями;
на фиг. 3 показано расположение плоскости лазера в соответствии с раскрытыми в настоящем документе идеями;
- 1 031929 на фиг. 4 показано определение оси лазера в соответствии с раскрытыми в настоящем документе идеями;
на фиг. 5 показано расположение первой съемочной камеры относительно второй съемочной камеры в соответствии с раскрытыми в настоящем документе идеями;
на фиг. 6A, 6B показаны виды измерительного устройства, выполненного с возможностью применения под водой в соответствии с раскрытыми в настоящем документе идеями;
на фиг. 7A-7D показаны виды съемочной камеры и лазера, выполненных с возможностью применения в измерительном устройстве в соответствии с раскрытыми в настоящем документе идеями;
на фиг. 8A, 8B показаны виды съемочной камеры и светодиода (LED), выполненных с возможностью применения в измерительном устройстве в соответствии с раскрытыми в настоящем документе идеями;
на фиг. 9A, 9B показаны виды съемочной камеры и лазера, расположенных в переднем отверстии для применения в измерительном устройстве в соответствии с раскрытыми в настоящем документе идеями;
на фиг. 10 показан вид съемочной камеры и LED, расположенных в переднем отверстии для применения в измерительном устройстве в соответствии с раскрытыми в настоящем документе идеями;
на фиг. 11A-11B показаны виды кронштейна для установки съемочной камеры и лазера (или LED) для применения в измерительном устройстве в соответствии с раскрытыми в настоящем документе идеями; и на фиг. 12 показана блок-схема способа лазерной триангуляции в соответствии с раскрытыми в настоящем документе идеями.
Термины и определения
В описании и формуле изобретения термины включающий и содержащий являются открытыми и должны трактоваться как включающий, но не ограниченный. Любой из терминов соединять, взаимодействовать, сопрягать, прикреплять или любой другой термин, который описывает взаимодействие между элементами, не должен толковаться как термин, который ограничивает взаимодействие до непосредственного взаимодействия между элементами, так как он может включать опосредованное взаимодействие между описанными элементами. Термин программное обеспечение включает любой выполняемый код, который может быть запущен на процессоре, независимо от носителя, используемого для хранения программного обеспечения. Таким образом, хранимый в памяти код (например, энергонезависимое запоминающее устройство), иногда называемый встроенной микропрограммой, входит в определение программного обеспечения. Выражение основан на означает основан по меньшей мере на. Поэтому, если X основан на Y, то X может быть основан на Y и любом количестве дополнительных коэффициентов.
Подробное раскрытие настоящего изобретения
В следующем далее описании и на фигурах одинаковые детали обозначены одинаковыми ссылочными позициями. Фигуры выполнены без соблюдения масштаба. Некоторые признаки изобретения выполнены в увеличенном масштабе или схематически, а некоторые детали традиционных элементов опущены в целях обеспечения ясности понимания. Настоящее изобретение может быть реализовано в нескольких вариантах и формах. Характерные варианты осуществления описаны более подробно и показаны на фигурах, однако следует понимать, что настоящее раскрытие приведено в качестве примера и не ограничивается приведенными вариантами осуществления. Необходимо отметить, что различные признаки и компоненты описанных далее вариантов осуществления могут быть применены отдельно или же в соответствующей комбинации для получения требуемых результатов.
Несмотря на то что оптические методы, такие как фотограмметрия и лазерная триангуляция, подходят для измерения объектов, такие методики являются сложными, что создает трудности при их применении, в частности, в тяжелых условиях, например под водой. Например, в фотограмметрии для корреляции изображений требуется использование мишеней на местности, и она ограничивается измерением визуальных указателей, таких как точки и топографические элементы (т.е. углы, края, цилиндры). Более того, в фотограмметрии перед измерением может потребоваться выполнение калибровки под водой в условиях, максимально приближенных к условиям, в которых выполняют фотограмметрические измерения. Традиционная лазерная триангуляция также может выполняться под водой и в других тяжелых условиях, однако для ее выполнения необходим высокостабильный датчик, причем перед измерением датчик следует откалибровать в условиях, максимально приближенных к условиям, в которых выполняют лазерную триангуляцию. Такие ограничения усложняют использование традиционных методик фотограмметрии и лазерной триангуляции под водой и в других тяжелых условиях.
Варианты осуществления настоящего изобретения предусматривают способ и устройство для выполнения трехмерного измерения и моделирования объектов под водой и в других опасных условиях. Раскрытое в настоящем документе измерительное устройство может перемещаться и/или управляться, например, человеком-оператором, беспилотным летательным аппаратом (БЛА), подводным аппаратом с дистанционным управлением (ROV) и т. д. Варианты осуществления предоставляют возможность выполнять измерение и объектов (таких как точки, линии, края, цилиндры и т. д.), и точек на поверхности,
- 2 031929 расположенных с большой плотностью, причем в различных условиях (например, под водой и в других опасных условиях) и без предварительной калибровки. Согласно вариантам осуществления предварительная калибровка не требуется, а принцип действия основан на фотограмметрии и лазерной триангуляции с обеспечением инновационной методики автокалибровки.
На фиг. 1 схематически показано устройство 100, которое выполняет измерения поверхности в соответствии с раскрытыми в настоящем документе идеями. Измерительное устройство 100 содержит съемочную камеру 102 и лазерный проектор 106. В устройство 100 может быть включен источник 104 света для обеспечения работы в паре со съемочной камерой 102. Некоторые варианты осуществления могут дополнительно предусматривать вторую съемочную камеру 108, расположенную рядом с лазерным проектором 106. Оптическая ось съемочной камеры 108 может проходить, по существу, параллельно лазерной проекции (например, в пределах 2° от параллели), образованной лазерным проектором 106. Каждая съемочная камера 102, 108 способна записывать видео высокой четкости (например, 1280*720 пикселей, 1920*1080 пикселей или больше). Каждая из съемочных камер 102 и 108 содержит датчик изображений, например датчик на приборах с зарядовой связью (ПЗС), датчик с комплементарной структурой металлоксид-полупроводник (КМОП) или любой другой подходящий датчик изображений. Лазерный проектор 106 может содержать лазерный диод или другой лазерный источник и поворотное зеркало или другое устройство, которое создает лазерное изображение, определяющее плоскость в пространстве.
Съемочная камера 102 находится на заданном расстоянии и под заданным углом от лазерного проектора 106. Расстояние (d) между съемочной камерой 102 и лазерным проектором 106 зависит от расстояния (D) между датчиком изображений съемочной камеры 102 и измеряемым объектом. Например, d может составлять от одной трети до половины D. Аналогично съемочная камера 102 расположена под заданным углом относительно лазерного проектора 106. Например, съемочная камера 102 может быть расположена таким образом, чтобы отслеживать плоскость лазера, проецируемую лазерным проектором 106 под углом приблизительно 30° (т.е. угол между плоскостью лазера и оптической осью съемочной камеры 102 составляет приблизительно 30° (например, 30±3°), что позволяет получить хорошую пересекающуюся геометрию). Соответственно если лазерный проектор 106 расположен, по существу, перпендикулярно монтажной конструкции 110, в этом случае съемочная камера 102 может располагаться под углом приблизительно 60° относительно монтажной конструкции 110. Устройство 100 может находиться в контейнере или в другом корпусе для применения под водой, в условиях действия ядерного излучения, в условиях действия высоких температур или вакуума или в других тяжелых условиях.
Устройство 100 также содержит систему 112 обработки, которая соединена со съемочными камерами 102, 108 и лазерным проектором 106. Система 112 обработки способна управлять созданием лазерной проекции лазерным проектором 106 и управлять захватом изображений съемочными камерами 102, 108. Система 112 обработки содержит процессор 114 и запоминающее устройство 116. Запоминающее устройство 116 может представлять собой полупроводниковое запоминающее устройство или другое запоминающее устройство (например, оптическое, магнитное и т. д.), в котором хранятся изображения, захваченные съемочными камерами 102, 108, и/или команды для обработки захваченных изображений. Например, команды для фотограмметрической обработки, вычисления калибровочных параметров для лазерной триангуляции на основе результатов фотограмметрической обработки и выполнения лазерной триангуляции на основе калибровочных параметров в соответствии с настоящим изобретением могут храниться в запоминающем устройстве 116 для выполнения процессором 114.
Процессор 114 может представлять собой универсальный микропроцессор, цифровой сигнальный процессор или любое другое устройство для выполнения команд. Система 112 обработки может быть расположена рядом со съемочной камерой 102 и лазерным проектором 106 (например, в общем корпусе) или на удалении от съемочной камеры 102 и лазерного проектора 106. Например, система 112 обработки может быть дистанционно подключена к съемочным камерам 102, 108 через кабель или другое средство передачи информации (например, посредством радиочастотной связи). В соответствии с некоторыми вариантами осуществления съемочные камеры 102, 108 или запоминающее устройство, связанное со съемочными камерами 102, 108, может хранить захваченные изображения для последующей обработки системой 112 обработки. Обработка, выполняемая системой 112 обработки, предусматривает калибровку оптического датчика на месте для обеспечения лазерной триангуляции. В соответствии с некоторыми вариантами осуществления система 112 обработки может представлять собой компьютер, например настольный компьютер, ноутбук, смонтированный в стойке компьютер, серверный компьютер, встроенный компьютер и т. д.
Для того чтобы провести лазерную триангуляцию с калибровкой на месте, сначала устройство 100 (посредством системы 112 обработки) выполняет фотограмметрическую методику (т.е. трехмерную обработку изображений из видео, записанного съемочными камерами 102, 108), которая предоставляет трехмерные координаты точек (а также других объектов) и трехмерные местоположения и ориентации съемочной камеры 102 в пространстве относительно набора трехмерных точек. В качестве части фотограмметрического вычисления система 112 обработки выполняет процедуру калибровки, в ходе которой вычисляются оптомеханические параметры съемочной камеры 102, а также определяется точное местоположение и ориентация лазерного проектора 106 относительно съемочной камеры 102. К оптомехани- 3 031929 ческим параметрам съемочной камеры относятся c (главное расстояние), xp, yp (реперный центр), K1, K2, K3 (радиальная дисторсия), P1, P2 (нецентрированная дисторсия) и остальные параметры, такие как AP1, AP2 (ортогональность пикселей). После определения местонахождения и ориентации лазерного проектора 106 относительно съемочной камеры 102 система 112 обработки может триангулировать для каждого изображения точки на лазерной линии, проецируемой на измеряемую поверхность с любым необходимым разрешением. Триангулированные лазерные точки будут лежать в той же системе координат, что и фотограмметрические точки. Отбирая изображения из видео с выбранной скоростью, устройство 100 может получить высокую плотность трехмерных точек на любой поверхности.
Лазерную триангуляцию с калибровкой на месте более подробно можно описать следующим образом. Устройство 100 располагают на необходимом расстоянии от измеряемой местности. Лазерный проектор 106 проецирует на объект или измеряемую поверхность лазерную линию. Съемочная камера 102 записывает видео высокой четкости, включая лазерную линию, проецируемую на объект. Устройство 100 перемещается вокруг объекта и вдоль него (в случае линейных объектов, таких как трубы) и одновременно записывает видео. Перемещать устройство 100 можно как вручную, так и с помощью любого средства или робота (БЛА, ROV и т. д.). Система 112 обработки извлекает изображения из полученных съемочной камерой 102 изображений. Например, если съемочная камера 102 записывает потоковое видео высокой четкости, система 7 обработки сможет извлечь отдельные изображения, или снимки, из этого потокового видео. В соответствии с некоторыми вариантами осуществления изображения можно извлечь вручную или с помощью другой системы и передать их в систему 112 обработки.
Система 112 обработки идентифицирует общие фотограмметрические точки на всех изображениях с помощью алгоритмов обработки изображений. После идентификации этих точек система обработки выполняет фотограмметрические вычисления и выдает следующие выходные данные:
трехмерные координаты фотограмметрических точек;
трехмерные координаты и ориентация съемочных камер;
калибровочные параметры датчика (т.е. оптомеханические параметры съемочной камеры и положение и ориентация плоскости лазера относительно съемочной камеры);
трехмерные координаты точек лазерной триангуляции.
Система 112 обработки может выполнять фотограмметрическую обработку следующим образом. На фиг. 2 схематически показана система координат для фотограмметрии в соответствии с раскрытыми в настоящем документе идеями. У каждой из съемочных камер 102 и 108 есть собственная система координат, центр которой находится на датчике изображений съемочной камеры. Во время захвата изображений положение и ориентация съемочной камеры 102, 108 определяются по системе координат местности. Система координат местности обозначена следующим образом: (O X Y Z), а система координат съемочной камеры обозначена так: (o x y z).
Коллинеарные уравнения для фотограмметрии, используемые в системе 112 обработки, описывают тот факт, что точка, замеренная датчиком изображений съемочной камеры (центр перспективы), и точка, отображаемая на объекте, находятся на одной и той же линии. Измерение точки датчиком изображений съемочной камеры происходит с компенсацией по оптической дисторсии и производственным дефектам. Коллинеарные уравнения для фотограмметрии можно представить следующим образом:
с, т, М aligned <-> cm = kRCM
Α + ίύΑ Г Хм y + dy =kRT YM x ~c J [Zm
(1) x + rn(X m Ac) + r2i(TM Tc) + r31(ZM Zc) θ rYXM -Xc) + r23(% -yc) + r33(ZM ~Zc) y + dy — ц 2 (X1; — Xc ) + r22 (YM — Ус ) + r32 (ZM — Zc ) [ rYXM ~XcYrYYM-yc) + r33(ZM ~Zc) где (x, y)T - координаты точки m в системе координат съемочной камеры;
(dx, dy)T - поправки оптической дисторсии;
R - матрица поворота системы координат съемочной камеры в системе координат местности;
(XM, YM, ZM)T - координаты точки M в системе координат местности;
(XC, YC, ZC)T - координаты центра перспективы съемочной камеры (во время захвата изображений); k - масштабный коэффициент между ст и СМ.
Существует три типа искажений, корректируемых в системе 100: радиальная дисторсия, нецентрированная дисторсия и производственные дефекты датчиков изображений. Система 112 обработки осуществляет компенсацию координат, ранее компенсированных по отклонению главной точки от центра (проекция центра перспективы на ПЗС). Если (xp, yp)T - это координаты центра перспективы (или репер- 4 031929 ного центра) в системе координат съемочной камеры, формула компенсации выглядит следующим образом:
X = х - хр , и у = у-ур (2)
22 + У2 (3)
dx = rdx + ddx + pdx (4)
dy = rdy + ddy где (rdx, rdy)T - вектор радиальной дисторсии;
(ddx, ddy)T - вектор нецентрированной дисторсии и (pdx, O)T - вектор смещения пикселей, и
' rdx = χ(κ^2 + К2г4 + К3г6) rdy = у (кзг2 + К2г4 + К3г6) ddx = Р32 + 2х2) + 2Р2ху ddy = Р2 [г2 + 2у2) + 2Р3ху [pdx = APlx + AP2y (7)
Система 112 обработки может вычислять калибровочные параметры для лазерной триангуляции следующим образом. Проецируемое в пространство лазерное излучение образует плоскость. Система 112 обработки калибрует плоскость лазера на основании вычисления ее положения в системе координат съемочной камеры. На фиг. 3 показано расположение плоскости лазера относительно съемочной камеры 102 в соответствии с раскрытыми в настоящем документе идеями. Плоскость лазера образована (математический минимум) расстоянием dl до точки отсчета системы координат съемочной камеры и нормалью nl к системе координат съемочной камеры.
На фиг. 4 показано определение оси лазера в соответствии с раскрытыми в настоящем документе идеями. При определении системы координат для лазера точка отсчета оси лазера является проекцией точки отсчета системы координат съемочной камеры на плоскость лазера, ось OZ плоскости лазера пересекает ось OZ, а ось OX перпендикулярна плоскости лазера. В соответствии с этим определением можно установить метрологические характеристики, такие как сходимость (между осью OZ и осью OZ плоскости лазера), база (расстояние между точкой отсчета съемочной камеры и точкой отсчета лазера). (ol, xl, zl) определяются следующим образом:
(ol, xl) - оси, проходящие через о, и проекция о на плоскость лазера, и (ol, zl) - оси, совпадающие с оптической осью съемочной камеры.
Координаты точки могут быть вычислены в соответствии с системой координат съемочной камеры или системой координат лазера. Лазерную точку в системе координат съемочной камеры можно вычислить следующим образом.
где А - система координат съемочной камеры и cL - система координат лазера
xl + dx'' ' xl - xc y
Yl+dy = kRT yl-yc
x ~c )
Съемочная камера Лазер
Система Система (9)
Ось Ось
Более того, L принадлежит плоскости лазера, поэтому xL = О (10)
- 5 031929
Уравнения (9) и (10) образуют три независимых уравнения, которые позволяют вычислить координаты лазерной точки (xL, yL, zL) в системе координат лазера.
Так как некоторые варианты осуществления системы 100 предусматривают две съемочные камеры 102, 108, система 112 обработки способна вычислять положение съемочной камеры 102 относительно съемочной камеры 108. На фиг. 5 показано расположение первой съемочной камеры (камеры 102) относительно второй съемочной камеры (108) в соответствии с раскрытыми в настоящем документе идеями.
где Ti - положение съемочной камеры 1 в системе координат съемочной камеры 2 и
Ri - матрица поворота системы координат съемочной камеры 1 в систему координат съемочной камеры 2.
Коллинеарные уравнения для лазерной съемочной камеры 102 можно получить без использования местонахождения лазерной съемочной камеры 102. Вместо этого коллинеарные уравнения для лазерной съемочной камеры 102 можно получить на основании положения и ориентации лазерной съемочной камеры 102 относительно контрольной съемочной камеры 108, что, по существу, сократит количество параметров блочного уравнивания.
Коллинеарные уравнения для лазерной съемочной камеры 102 выглядят следующим образом:
x + dx^ - x-x2^ 0 λ
y + dy = λ RiT y-y2 + 0 -Ti + 0
v -Е ) ^z~z2 j чс2>
(12) где (Ti, Ri) - относительное местонахождение лазерной съемочной камеры относительно контрольной съемочной камеры;
((Х2, Y2, Z2)T, R2) - местонахождение контрольной съемочной камеры в системе координат местности;
C1 и C2 - главные расстояния лазерной съемочной камеры и контрольной съемочной камеры.
На фиг. 6A-6B показаны виды, по меньшей мере, части измерительной системы 100, выполненной с возможностью применения под водой в соответствии с раскрытыми в настоящем документе идеями. Лазерный проектор 106 расположен в первой емкости или корпусе 602, а съемочная камера 102 расположена во втором корпусе 604.
На фиг. 7A-7D показаны виды съемочной камеры 108 и лазерного проектора 106, выполненных с возможностью применения в измерительной системе 100 в соответствии с раскрытыми в настоящем документе идеями.
На фиг. 8A-8B показаны виды съемочной камеры и светодиод (LED) 104, выполненные с возможностью применения в системе 100 в соответствии с раскрытыми в настоящем документе идеями.
На фиг. 9A-9B показаны виды съемочной камеры 108 и лазерного проектора 106, расположенных в переднем отверстии корпуса 602 для применения в измерительной системе 100 в соответствии с раскрытыми в настоящем документе идеями.
На фиг. 10 показан вид съемочной камеры 102 и LED (свет 104), расположенных в переднем отверстии корпуса 604 для применения в измерительной системе 100 в соответствии с раскрытыми в настоящем документе идеями.
На фиг. 11A-11B показаны виды кронштейна 702, подходящего для установки съемочной камеры 108 и лазерного проектора 106 для применения в измерительной системе 100 в соответствии с раскрытыми в настоящем документе идеями.
На фиг. 12 показана блок-схема способа лазерной триангуляции в соответствии с раскрытыми в настоящем документе идеями. Хотя, по меньшей мере, для удобства некоторые представленные действия описаны в определенной последовательности, они могут быть выполнены в любом другом порядке и/или могут быть выполнены параллельно. Дополнительно некоторые варианты осуществления могут предусматривать выполнение только некоторых представленных действий. В соответствии с некоторыми вариантами осуществления, по меньшей мере, некоторые стадии способа могут быть закодированы в виде команд, выполняемых процессором 114, которые представляют собой программируемое программное обеспечение, хранящееся в машиночитаемом запоминающем устройстве 116.
В блоке 1202 измерительную систему 100 или ее часть, содержащую лазерный источник 106 и съемочную камеру 102, перемещают вдоль измеряемой поверхности. Перемещение может осуществляться вручную или механическим устройством. Например, измерительная система 100 или ее соответствующая часть могут быть размещены в герметичной емкости или другом корпусе и перемещены вдоль измеряемой поверхности беспилотным летательным аппаратом.
В блоке 1204 лазерный источник 106 излучает лазерную проекцию, которая освещает измеряемую поверхность. Лазерная проекция может образовывать плоскость в пространстве и линию на поверхности. Съемочная камера 102 захватывает изображения поверхности, освещенной лазерной проекции. Напри- 6 031929 мер, съемочная камера 102 может записывать видео высокой четкости поверхности и лазерной проекции.
В соответствии с некоторыми вариантами осуществления дополнительно поверхность может освещаться источником 104 света, связанным со съемочной камерой 102. Создание лазерной проекции и захват изображений может управляться системой 112 обработки.
В блоке 1206 система 112 обработки применяет методику обработки изображений для идентификации точек и/или объектов по всем захваченным изображениям. После идентификации общих точек во всех изображениях система 112 обработки выполняет фотограмметрическую обработку изображений. В ходе фотограмметрической обработки определяют трехмерные координаты точек, трехмерные координаты и ориентацию съемочной камеры 102. Система 112 обработки также может вычислять оптические параметры съемочной камеры 102.
В блоке 1208 система 112 обработки вычисляет калибровочные параметры для лазерной триангуляции на основе результатов фотограмметрической обработки. Система 112 обработки определяет местонахождение лазерной проекции относительно съемочной камеры 102.
В блоке 1210 система 112 обработки посредством лазерной триангуляции с применением калибровочных параметров вычисляет трехмерные координаты точек на поверхности, освещенной лазерной проекцией.
В соответствии с некоторыми вариантами осуществления способ трехмерного измерения и моделирования объектов и поверхностей в любых условиях предусматривает предоставление узла, содержащего по меньшей мере одну съемочную камеру и один лазерный линейный проектор, установленный на опоре;
перемещение по измеряемой местности и запись видео измеряемой местности, освещаемой лазерной линией, проецируемой на объект;
вручную или автоматически:
извлечение изображений из видео;
определение корреляционных точек между изображениями;
определение трехмерных (xyz) координат корреляционных точек;
определение оптических параметров съемочной камеры;
определение местонахождения съемочной камеры;
определение относительного положения и ориентации плоскости лазера относительно съемочной камеры и определение трехмерных координат (xyz) точек лазерной триангуляции.
В соответствии с некоторыми вариантами осуществления способ трехмерного измерения и моделирования объектов и поверхностей в любых условиях предусматривает получение статических изображений или видеоизображений (высокой или невысокой четкости) съемочной камерой;
причем установить и использовать можно несколько съемочных камер, тем самым обеспечивая стереоскопическую видимость и дополнительные измерения; и предоставление проекционного рисунка, например лазерной линии.
В соответствии с некоторыми вариантами осуществления система трехмерного измерения и моделирования объектов и поверхностей в любых условиях содержит съемочную камеру;
лазер;
автокалибровочный модуль, который встраивает каждое моделирование измерения в оптомеханические параметры съемочной камеры и относительное местонахождение и ориентацию лазера относительно съемочной камеры;
автокалибровочный модуль, который учитывает оптическое отклонение в среде (воздух, оптическое стекло, вода); и автокалибровочный модуль, выдвигаемый в любое положение увеличения.
Приведенное выше описание является не более чем примером различных идей и вариантов осуществления настоящего изобретения. Хотя были показаны и описаны конкретные варианты осуществления, следует понимать, что специалист в области техники может выполнить различные модификации, при этом не выходя за пределы объема настоящего изобретения. Описанные варианты осуществления приведены только в качестве примеров и не являются ограничивающими. Соответственно, объем правовой защиты ограничивается не приведенным описанием, а только приведенной далее формулой изобретения, и в этот объем входят все эквиваленты объекта формулы изобретения.

Claims (19)

  1. ФОРМУЛА ИЗОБРЕТЕНИЯ
    1. Система для трехмерного измерения подводной структуры, содержащая лазерный проектор и первую съемочную камеру, выполненные с возможностью работы под водой, причем лазерный проектор выполнен с возможностью излучения лазерной проекции на поверхность подводной структуры для лазерной триангуляции;
    при этом первая съемочная камера выполнена с возможностью получения изображений поверхности и расположена под косым углом относительно лазерного проектора; и процессор, выполненный с возможностью выполнения фотограмметрической обработки изображений, захваченных под водой;
    вычисления калибровочных параметров для лазерной триангуляции на основании результата фотограмметрической обработки изображений, захваченных под водой, причем вычисление калибровочных параметров включает определение ориентации плоскости действия лазера, проецируемого лазерным проектором относительно первой съемочной камеры, и оптомеханических параметров первой съемочной камеры, причем указанные параметры включают главное расстояние, реперный центр, радиальную дисторсию, нецентрированную дисторсию и дисторсию, относящуюся к ортогональности пикселей датчика изображения в первой съемочной камере; и вычисления посредством лазерной триангуляции на основании калибровочных параметров координат точек поверхности, освещенной лазерной проекцией.
  2. 2. Система по п.1, причем первая съемочная камера установлена относительно лазерного проектора таким образом, что оптическая ось первой съемочной камеры пересекает лазерную проекцию под углом приблизительно 30°.
  3. 3. Система по п.1, причем первая съемочная камера выполнена с возможностью записи видео, а процессор выполнен с возможностью извлечения снимков из видео в виде изображений.
  4. 4. Система по п.1, причем процессор выполнен с возможностью, в качестве части фотограмметрической обработки, идентификации точек поверхности во всех изображениях;
    вычисления координат точек в трех измерениях и определения местонахождения и ориентации первой съемочной камеры относительно координат.
  5. 5. Система по п.1, причем дополнительно содержит вторую съемочную камеру, выполненную с возможностью захвата изображений поверхности и расположенную таким образом, чтобы оптическая ось второй съемочной камеры проходила приблизительно параллельно излучению лазерного источника.
  6. 6. Система по п.5, причем процессор выполнен с возможностью, в качестве части фотограмметрической обработки, определения местонахождения первой съемочной камеры относительно местонахождения второй съемочной камеры.
  7. 7. Система по п.1, причем лазерная проекция образует линию на поверхности.
  8. 8. Способ трехмерного измерения подводной структуры посредством системы по п.1, включающий помещение под воду устройства, содержащего первую съемочную камеру и лазерный проектор; захват изображений поверхности подводной структуры с помощью указанной первой съемочной камеры при перемещении первой съемочной камеры вдоль поверхности;
    освещение поверхности лазерной проекцией, произведенной указанным лазерным проектором, при этом указанный лазерный проектор перемещается вдоль поверхности совместно с первой съемочной камерой;
    выполнение фотограмметрической обработки изображений, захваченных под водой;
    вычисление калибровочных параметров для лазерной триангуляции на основании результата фотограмметрической обработки изображений, захваченных под водой, причем вычисление калибровочных параметров включает определение ориентации плоскости лазера, проецируемого лазерным проектором относительно первой съемочной камеры, и оптомеханических параметров первой съемочной камеры, причем указанные параметры включают главное расстояние, реперный центр, радиальную дисторсию, нецентрированную дисторсию и дисторсию, относящуюся к ортогональности пикселей датчика изображения в первой съемочной камере; и вычисление посредством лазерной триангуляции на основании калибровочных параметров координат точек поверхности, освещенной лазерной проекцией.
  9. 9. Способ по п.8, причем первую съемочную камеру устанавливают относительно лазерного источника таким образом, чтобы оптическая ось первой съемочной камеры пересекала лазерную проекцию под углом приблизительно 30°.
  10. 10. Способ по п.8, причем дополнительно предусматривает запись видео первой съемочной камерой и извлечение изображений из видео.
  11. 11. Способ по п.8, причем выполнение фотограмметрической обработки предусматривает
    - 8 031929 идентификацию точек поверхности во всех изображениях;
    вычисление координат точек в трех измерениях и определение местонахождения и ориентации первой съемочной камеры относительно координат.
  12. 12. Способ по п.8, причем дополнительно предусматривает захват изображений поверхности с помощью второй съемочной камеры при перемещении первой съемочной камеры вдоль поверхности;
    причем вторую съемочную камеру располагают таким образом, чтобы оптическая ось второй съемочной камеры проходила приблизительно параллельно излучению лазерного источника.
  13. 13. Способ по п.12, причем выполнение фотограмметрической обработки предусматривает определение местонахождения первой съемочной камеры относительно местонахождения второй съемочной камеры.
  14. 14. Способ по п.8, причем освещение поверхности лазерной проекцией предусматривает проецирование лазерной линии на поверхность.
  15. 15. Энергонезависимый машиночитаемый носитель, в котором закодированы команды, при выполнении которых процессор системы по п.1 извлекает изображения подводной поверхности из серии изображений, захваченных первой подводной съемочной камерой;
    выполняет фотограмметрическую обработку изображений, полученных под водой;
    вычисляет калибровочные параметры для лазерной триангуляции на основании результатов фотограмметрической обработки изображений, захваченных под водой, причем вычисление калибровочных параметров включает определение ориентации плоскости действия лазера, проецируемого лазерным проектором относительно первой съемочной камеры; и оптомеханических параметров первой съемочной камеры, причем указанные параметры включают главное расстояние, реперный центр, радиальную дисторсию, нецентрированную дисторсию и дисторсию, относящуюся к ортогональности пикселей датчика изображения в первой съемочной камере; и вычисляет посредством лазерной триангуляции на основании калибровочных параметров координаты точек подводной поверхности, освещенной лазерной проекцией, захваченной на изображениях.
  16. 16. Машиночитаемый носитель по п.15, причем в нем закодированы команды, при выполнении которых процессор, в качестве части фотограмметрической обработки, идентифицирует точки поверхности во всех изображениях;
    вычисляет координаты точек в трех измерениях и определяет местонахождение и ориентацию первой съемочной камеры относительно координат.
  17. 17. Машиночитаемый носитель по п.15, причем в нем закодированы команды, при выполнении которых процессор, в качестве части вычисления калибровочных параметров для лазерной триангуляции, определяет оптическое отклонение, вызванное средой между первой съемочной камерой и поверхностью.
  18. 18. Машиночитаемый носитель по п.15, причем в нем закодированы команды, при выполнении которых процессор извлекает изображения поверхности из серии изображений, полученных второй съемочной камерой; и определяет местонахождение первой съемочной камеры относительно местонахождения второй съемочной камеры.
  19. 19. Машиночитаемый носитель по п.15, причем в нем закодированы команды, при выполнении которых процессор активирует лазерный источник, который создает лазерную проекцию, причем лазерная проекция образует линию на поверхности.
EA201591144A 2012-12-14 2013-12-16 Устройство и способ трехмерного измерения поверхности EA031929B1 (ru)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201261737499P 2012-12-14 2012-12-14
PCT/US2013/075354 WO2014133646A2 (en) 2012-12-14 2013-12-16 Apparatus and method for three dimensional surface measurement

Publications (2)

Publication Number Publication Date
EA201591144A1 EA201591144A1 (ru) 2016-01-29
EA031929B1 true EA031929B1 (ru) 2019-03-29

Family

ID=50983096

Family Applications (1)

Application Number Title Priority Date Filing Date
EA201591144A EA031929B1 (ru) 2012-12-14 2013-12-16 Устройство и способ трехмерного измерения поверхности

Country Status (12)

Country Link
US (1) US10397550B2 (ru)
EP (1) EP2932191A2 (ru)
JP (1) JP6317760B2 (ru)
CN (1) CN105190234B (ru)
AU (1) AU2013379669B2 (ru)
BR (1) BR112015013804B1 (ru)
CA (1) CA2912859C (ru)
EA (1) EA031929B1 (ru)
MX (1) MX353350B (ru)
MY (1) MY181876A (ru)
PH (1) PH12015501343B1 (ru)
WO (1) WO2014133646A2 (ru)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6217227B2 (ja) * 2013-08-12 2017-10-25 株式会社リコー 校正装置、方法及びプログラム
DE102014019670B3 (de) * 2014-12-30 2016-06-30 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mittels Redundanzen
RU2655012C2 (ru) * 2015-09-22 2018-05-23 Общество с ограниченной ответственностью "Нординкрафт Санкт-Петербург" Способ измерения геометрических параметров электросварных труб различного диаметра и система для его осуществления
US9963246B2 (en) * 2016-03-28 2018-05-08 Amazon Technologies, Inc. Combining depth and thermal information for object detection and avoidance
DE102016221040A1 (de) * 2016-10-26 2018-04-26 Robert Bosch Gmbh Verfahren zur Lokalisierung einer Vorrichtung in einem System
CN108257182A (zh) * 2016-12-29 2018-07-06 深圳超多维光电子有限公司 一种立体摄像头模组的标定方法及装置
US11450148B2 (en) * 2017-07-06 2022-09-20 Wisconsin Alumni Research Foundation Movement monitoring system
CN107976148B (zh) * 2017-12-25 2024-05-03 自然资源部第二海洋研究所 一种深海生物测量装置及其生物特征的测量方法
US10928196B2 (en) 2017-12-28 2021-02-23 Topcon Positioning Systems, Inc. Vision laser receiver
CN110596132A (zh) * 2018-05-25 2019-12-20 上海翌视信息技术有限公司 一种适用于工业图像检测的系统
CN109118577B (zh) * 2018-07-23 2023-03-10 国家深海基地管理中心 基于载人潜水器的水下激光扫描重构系统及其方法
US11763486B2 (en) 2018-08-30 2023-09-19 Hunter Engineering Company Method and apparatus for placement of ADAS fixtures during vehicle inspection and service
US11145084B2 (en) 2018-08-30 2021-10-12 Hunter Engineering Company Method and apparatus for guiding placement of ADAS fixtures during vehicle inspection and service
US11544870B2 (en) 2018-08-30 2023-01-03 Hunter Engineering Company System and method for verification of vehicle service target positioning
JP7349702B2 (ja) * 2018-10-01 2023-09-25 株式会社コムビック 非接触測定装置
CN111354036B (zh) * 2018-12-20 2022-11-22 核动力运行研究所 一种应用于压力容器环境的水下光学定位方法
US11461906B2 (en) * 2018-12-31 2022-10-04 Numeric Engineering, Inc. Systems and methods for monitoring offshore structures
DE102019204613A1 (de) * 2019-04-01 2020-10-01 Micro-Epsilon Optronic Gmbh Messsystem zur optischen Messung
JP7434008B2 (ja) 2019-04-01 2024-02-20 キヤノンメディカルシステムズ株式会社 医用画像処理装置およびプログラム
US11872965B2 (en) * 2020-05-11 2024-01-16 Hunter Engineering Company System and method for gyroscopic placement of vehicle ADAS targets
CN113310428B (zh) * 2021-06-11 2023-06-02 安徽工程大学 一种基于线结构光的同步传动表面轮廓测量系统及测量方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6590640B1 (en) * 2000-07-20 2003-07-08 Boards Of Regents, The University Of Texas System Method and apparatus for mapping three-dimensional features
US20100074532A1 (en) * 2006-11-21 2010-03-25 Mantisvision Ltd. 3d geometric modeling and 3d video content creation
US20110134225A1 (en) * 2008-08-06 2011-06-09 Saint-Pierre Eric System for adaptive three-dimensional scanning of surface characteristics

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4979815A (en) * 1989-02-17 1990-12-25 Tsikos Constantine J Laser range imaging system based on projective geometry
CN1171467C (zh) * 1999-06-11 2004-10-13 埃米尔·亨德里克斯 用单部手持摄像机获取三维景象
US6757445B1 (en) * 2000-10-04 2004-06-29 Pixxures, Inc. Method and apparatus for producing digital orthophotos using sparse stereo configurations and external models
JP4656745B2 (ja) * 2001-03-09 2011-03-23 西松建設株式会社 トンネル坑内の形状測定方法
CN1227511C (zh) * 2001-06-15 2005-11-16 斯耐普昂技术有限公司 自校准位置测定系统
WO2004084139A2 (en) * 2003-03-14 2004-09-30 Applied Precision, Llc System and method of non-linear grid fitting and coordinate system mapping
US20040213463A1 (en) * 2003-04-22 2004-10-28 Morrison Rick Lee Multiplexed, spatially encoded illumination system for determining imaging and range estimation
EP1524494A1 (en) * 2003-10-17 2005-04-20 inos Automationssoftware GmbH Method for calibrating a camera-laser-unit in respect to a calibration-object
DE10359415A1 (de) * 2003-12-16 2005-07-14 Trimble Jena Gmbh Verfahren zur Kalibrierung eines Vermessungsgeräts
US7429999B2 (en) * 2004-05-24 2008-09-30 CENTRE DE RECHERCHE INDUSTRIELLE DU QUéBEC Camera calibrating apparatus and method
JP4542821B2 (ja) * 2004-05-25 2010-09-15 学校法人愛知学院 画像処理方法、画像処理装置、および画像処理プログラム
EP1777485A4 (en) * 2004-08-03 2012-09-19 Techno Dream 21 Co Ltd METHOD AND DEVICE FOR MEASURING THREE-DIMENSIONAL FORMS
CN1238689C (zh) * 2004-11-11 2006-01-25 天津大学 视觉测量系统现场校准装置及校准方法
US8082120B2 (en) * 2005-03-11 2011-12-20 Creaform Inc. Hand-held self-referenced apparatus for three-dimensional scanning
JP4871352B2 (ja) * 2005-03-11 2012-02-08 クリアフォーム インク. 3次元スキャンの自動参照システム及び装置
WO2007030026A1 (en) * 2005-09-09 2007-03-15 Industrial Research Limited A 3d scene scanner and a position and orientation system
CA2606267A1 (fr) * 2007-10-11 2009-04-11 Hydro-Quebec Systeme et methode de cartographie tridimensionnelle d'une surface structurelle
US8427656B2 (en) * 2008-04-21 2013-04-23 Max-Planck-Gesellschaft Zur Foderung Der Wissenschaften E.V. Robust three-dimensional shape acquisition method and system
AU2010218298A1 (en) * 2009-02-27 2011-10-13 Body Surface Translations, Inc. Estimating physical parameters using three dimensional representations
US11403739B2 (en) * 2010-04-12 2022-08-02 Adobe Inc. Methods and apparatus for retargeting and prioritized interpolation of lens profiles
US8430319B2 (en) * 2011-02-08 2013-04-30 Symbol Technologies, Inc. Imaging reader for electro-optically reading two-dimensional symbols with controller having limited internal memory
KR20140115062A (ko) * 2013-03-20 2014-09-30 한국전자통신연구원 수중물체 형상측정 장치 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6590640B1 (en) * 2000-07-20 2003-07-08 Boards Of Regents, The University Of Texas System Method and apparatus for mapping three-dimensional features
US20100074532A1 (en) * 2006-11-21 2010-03-25 Mantisvision Ltd. 3d geometric modeling and 3d video content creation
US20110134225A1 (en) * 2008-08-06 2011-06-09 Saint-Pierre Eric System for adaptive three-dimensional scanning of surface characteristics

Also Published As

Publication number Publication date
CA2912859C (en) 2021-01-26
PH12015501343A1 (en) 2015-09-07
CN105190234B (zh) 2018-05-18
AU2013379669A1 (en) 2015-07-02
US20150317780A1 (en) 2015-11-05
PH12015501343B1 (en) 2015-09-07
EA201591144A1 (ru) 2016-01-29
WO2014133646A2 (en) 2014-09-04
BR112015013804B1 (pt) 2021-02-09
AU2013379669B2 (en) 2017-08-17
US10397550B2 (en) 2019-08-27
CN105190234A (zh) 2015-12-23
EP2932191A2 (en) 2015-10-21
WO2014133646A3 (en) 2014-11-06
JP6317760B2 (ja) 2018-04-25
MY181876A (en) 2021-01-11
MX353350B (es) 2018-01-10
JP2016509199A (ja) 2016-03-24
CA2912859A1 (en) 2014-09-04
MX2015007555A (es) 2015-10-20

Similar Documents

Publication Publication Date Title
EA031929B1 (ru) Устройство и способ трехмерного измерения поверхности
US20210396882A1 (en) Using a two-dimensional scanner to speed registration of three-dimensional scan data
US11035955B2 (en) Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
CN113379822B (zh) 一种基于采集设备位姿信息获取目标物3d信息的方法
US10120075B2 (en) Using a two-dimensional scanner to speed registration of three-dimensional scan data
EP3333538B1 (en) Scanner vis
US9513107B2 (en) Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner
US10621753B2 (en) Extrinsic calibration of camera systems
US10200670B2 (en) Method and apparatus for determining the 3D coordinates of an object
JP4052382B2 (ja) 非接触画像計測装置
JP2017528714A (ja) 3次元座標の光学測定のための方法および3次元測定デバイスの制御
WO2016089430A1 (en) Using two-dimensional camera images to speed registration of three-dimensional scans
US11927692B2 (en) Correcting positions after loop closure in simultaneous localization and mapping algorithm
CN118119972A (zh) 生成用于相机校准的相机模型的方法和系统
Bleier et al. Towards an underwater 3D laser scanning system for mobile mapping
CN112304250A (zh) 一种移动物体之间的三维匹配设备及方法
WO2016089428A1 (en) Using a two-dimensional scanner to speed registration of three-dimensional scan data
JP2017111118A (ja) 3dスキャナからの2次元(2d)スキャンデータに基づく3次元(3d)スキャン間の位置合せ計算
OA17428A (en) Apparatus and method for three dimensional surface measurement.
JP2017111117A (ja) 2次元スキャナによる測定値に基づいて各スキャン間で実行される3次元スキャナデータの位置合せ計算
WO2016089429A1 (en) Intermediate two-dimensional scanning with a three-dimensional scanner to speed registration

Legal Events

Date Code Title Description
MM4A Lapse of a eurasian patent due to non-payment of renewal fees within the time limit in the following designated state(s)

Designated state(s): AM BY KZ KG TJ TM