RU2017141158A - Способ моделирования трехмерного пространства - Google Patents
Способ моделирования трехмерного пространства Download PDFInfo
- Publication number
- RU2017141158A RU2017141158A RU2017141158A RU2017141158A RU2017141158A RU 2017141158 A RU2017141158 A RU 2017141158A RU 2017141158 A RU2017141158 A RU 2017141158A RU 2017141158 A RU2017141158 A RU 2017141158A RU 2017141158 A RU2017141158 A RU 2017141158A
- Authority
- RU
- Russia
- Prior art keywords
- model
- dimensional model
- dimensional
- frame
- data
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
- Aerodynamic Tests, Hydrodynamic Tests, Wind Tunnels, And Water Tanks (AREA)
Claims (78)
1. Аппаратура для генерации модели трехмерного пространства, содержащая
интерфейс для получения изображения, конфигурированный для получения данных изображения, генерируемых устройством захвата изображения, эти данные изображения представляют результат наблюдения, так что здесь имеет место относительное перемещение между трехмерным пространством и устройством захвата изображения во времени; и
механизм моделирования, конфигурированный для обработки данных изображения, полученных интерфейсом для получения изображения, и для вычисления трехмерной модели трехмерного пространства, где этот механизм моделирования содержит:
сегментатор модели, конфигурированный для сегментации трехмерной модели и разбиения ее по меньшей мере на активные и неактивные части на основе по меньшей мере одного свойства модели,
отличающаяся тем, что механизм моделирования конфигурирован для использования активных частей трехмерной модели с целью обновления модели во времени; и
механизм совмещения конфигурирован для выравнивания активных частей трехмерной модели с неактивными частями трехмерной модели во времени.
2. Аппаратура по п. 1, отличающаяся тем, что механизм моделирования конфигурирован для вычисления активного кадра модели на основе проекции от активных частей трехмерной модели для использования при обновлении трехмерной модели.
3. Аппаратура по п. 2, содержащая
компонент отслеживания связи кадра с моделью, конфигурированный для сравнения активного кадра модели с продуцируемым кадром от указанных данных изображения с целью определения выравнивания активных частей трехмерной модели с данными изображения.
4. Аппаратура по п. 3, отличающаяся тем, что компонент отслеживания связи кадра с моделью конфигурирован для оценки позиции устройства захвата изображения путем сравнения продуцируемого кадра в текущий момент времени с активным кадром модели в предшествующий момент времени, позиция видеокамеры представляет позицию и ориентацию устройства захвата изображения в трехмерном пространстве.
5. Аппаратура по какому-либо одному из пп. 2-4, отличающаяся тем, что механизм совмещения конфигурирован для
вычисления неактивного кадра модели на основе проекции от неактивных частей трехмерной модели;
определения деформации, выравнивающей активный кадр модели с неактивным кадром модели; и
обновления трехмерной модели с использованием деформации.
6. Аппаратура по какому-либо одному из предшествующих пунктов,
отличающаяся тем, что трехмерная модель содержит модель элементов поверхности,
отличающаяся тем, что каждый элемент поверхности в составе модели элементов поверхности содержит по меньшей мере данные, определяющие положение этого элемента поверхности в трехмерном пространстве, и данные, определяющие вектор нормали к этому элементу поверхности в трехмерном пространстве, и
отличающаяся тем, что каждый элемент поверхности представляет двумерную область в трехмерном пространстве.
7. Аппаратура по какому-либо одному из предшествующих пунктов,
отличающаяся тем, что механизм моделирования конфигурирован для сохранения представлений трехмерной модели во времени, и
отличающаяся тем, что механизм совмещения конфигурирован для определения, согласуется ли представление трехмерной модели в некий конкретный момент времени с сохраненным представлением трехмерной модели для предшествующего момента времени, и в ответ на положительный результат определения, выравнивания представления трехмерной модели в рассматриваемый конкретный момент времени с сохраненным представлением трехмерной модели для предшествующего момента времени.
8. Аппаратура по какому-либо одному из предшествующих пунктов, отличающаяся тем, что механизм совмещения конфигурирован для использования графа деформации с целью выравнивания активных частей трехмерной модели с неактивными частями этой трехмерной модели, этот граф деформации вычисляют на основе момента времени инициализации для позиций в трехмерной модели, граф деформации указывает множество соседей для некой конкретной позиции в трехмерном пространстве, которые следует использовать при модификации трехмерной модели в рассматриваемой конкретной позиции при выравнивании.
9. Аппаратура по какому-либо одному из предшествующих пунктов, отличающаяся тем, что указанное по меньшей мере одно свойство модели представляет собой момент времени генерации модели и/или обновления модели для некой конкретной позиции в составе трехмерной модели, где неактивные части указывают момент времени наблюдения в прошлом, отличающийся от текущего момент времени наблюдения более чем на заданную величину.
10. Способ обновления модели трехмерного пространства, содержащий
получение трехмерной модели трехмерного пространства;
сегментацию трехмерной модели и разбиение ее по меньшей мере на активные и неактивные части на основе по меньшей мере одного свойства модели;
получение данных изображения, представляющих результаты наблюдения трехмерного пространства после перемещения устройства захвата изображения относительно трехмерного пространства;
обновление трехмерной модели на основе полученных данных изображения и активных частей этой трехмерной модели; и
совмещение активных частей трехмерной модели с соответствующими неактивными частями этой трехмерной модели,
отличающийся тем, что указанная процедура совмещения выравнивает активные части трехмерной модели, генерируемые после наблюдения области трехмерного пространства, с неактивными частями этой модели, генерируемыми после по меньшей мере одного предшествующего наблюдения этой области.
11. Способ по п. 10, отличающийся тем, что процедура обновления трехмерной модели содержит:
оценку позиции устройства захвата изображения путем сравнения данных для продуцируемого кадра из состава данных изображения с прогнозируемыми данными для кадра модели, этот кадр модели выводят из активных частей трехмерной модели трехмерного пространства; и
отличающийся тем, что процедура совмещения активных частей трехмерной модели с неактивными частями этой трехмерной модели содержит:
определение прогнозируемых отображений трехмерной модели для активных и неактивных частей с использованием позиции устройства захвата изображения, и
трансформацию активных частей таким образом, чтобы выровнять эти прогнозируемые изображения.
12. Способ по п. 11,
отличающийся тем, что данные изображения содержат по меньшей мере данные глубины, указывающие расстояние от устройства захвата изображения до нескольких элементов изображения, и
отличающийся тем, что процедура оценки позиции устройства захвата изображения содержит сравнение по меньшей мере данных глубины для продуцируемого кадра из состава этих данных изображения с прогнозируемыми данными глубины для кадра модели.
13. Способ по п. 11,
отличающийся тем, что данные изображения содержат по меньшей мере данные цвета для нескольких элементов изображения, и
отличающийся тем, что процедура оценки позиции устройства захвата изображения содержит сравнение по меньшей мере данных цвета для продуцируемого кадра из состава этих данных изображения с прогнозируемыми данными цвета для кадра модели.
14. Способ по п. 11,
отличающийся тем, что данные изображения содержат по меньшей мере данные глубины и данные цвета для нескольких элементов изображения, где данные глубины указывают расстояние до объекта в трехмерном пространстве от устройства захвата изображения, и
отличающийся тем, что процедура оценки позиции устройства захвата изображения содержит минимизацию функции ошибки, где эта функция ошибки представляет собой функцию:
геометрической погрешности на основе сравнения данных глубины для продуцируемого кадра из состава данных изображения с прогнозируемыми данными глубины для кадра модели, и
фотометрической погрешности на основе сравнения данных цвета для продуцируемого кадра из состава данных изображения с прогнозируемыми данными цвета для кадра модели.
15. Способ по какому-либо одному из п. 10-14, отличающийся тем, что процедура совмещения активных частей трехмерной модели с неактивными частями этой трехмерной модели содержит:
осуществление совмещения в локальном петлевом контуре, если метрический показатель выравнивания между активными частями трехмерной модели для какого-либо конкретного кадра и неактивными частями этой трехмерной модели для рассматриваемого конкретного кадра указывает, что величина несовмещения ниже заданного порога.
16. Способ по какому-либо одному из п. 10-15, отличающийся тем, что процедура обновления содержит сохранение представления трехмерной модели, и
отличающийся тем, что способ содержит:
осуществление совмещения в глобальном петлевом контуре, если текущее представление трехмерной модели согласуется с ранее сохраненным представлением трехмерной модели.
17. Способ по п. 16, отличающийся тем, что указанное представление трехмерной модели содержит представление прогнозируемого кадра с уменьшенным разрешением, где прогнозируемый кадр определяют на основе проекции от активных частей трехмерной модели.
18. Способ по какому-либо одному из пп. 10-17, отличающийся тем, что трехмерная модель содержит модель элементов поверхности, где каждый элемент поверхности в составе модели элементов поверхности содержит по меньшей мере данные, определяющие положение этого элемента поверхности в трехмерном пространстве, и данные, определяющие вектор нормали для этого элемента поверхности в трехмерном пространстве, где каждый элемент поверхности представляет двумерную область в трехмерном пространстве.
19. Способ по какому-либо одному из пп. 10-18, отличающийся тем, что процедура сегментации трехмерной модели содержит сегментацию трехмерной модели на основе одного или нескольких следующих параметров
момента времени генерации модели для некой конкретной позиции в трехмерной модели;
момента времени обновления модели для некой конкретной позиции в трехмерной модели; и
и найденного расстояния между некой конкретной позицией в трехмерной модели и устройством захвата изображения.
20. Способ по какому-либо одному из пп. 10-19, отличающийся тем, что процедура совмещения активных частей трехмерной модели с неактивными частями этой трехмерной модели содержит
нежесткое деформирование активных частей трехмерной модели на основе геометрического выравнивания между данными прогнозируемого кадра для активных и неактивных частей.
21. Роботизированное устройство, содержащее
по меньшей мере одно устройство захвата изображения, построенное для создания нескольких кадров, содержащих данные глубины и/или данные цвета, где данные глубины указывают расстояние от устройства захвата изображения до нескольких элементов изображения;
аппаратуру по какому-либо одному из пп. 1-9, отличающуюся тем, что интерфейс для получения изображения соединен для осуществления связи с указанным по меньшей мере одним устройством захвата изображения;
один или несколько механических приводов, построенных для перемещения роботизированного устройства в трехмерном пространстве; и
навигационный механизм, построенный для управления одним или несколькими механическими приводами,
отличающееся тем, что этот навигационный механизм конфигурирован для доступа к трехмерной модели, сформированной механизмом моделирования, с целью осуществления навигации роботизированного устройства с трехмерным пространством.
22. Мобильное компьютерное устройство, содержащее
по меньшей мере одно устройство захвата изображения, построенное для записи нескольких кадров, содержащих данные глубины и/или данные цвета, эти данные глубины указывают расстояние от устройства захвата изображения до нескольких элементов изображения, и
аппаратуру по какому-либо одному из п. 1-9, отличающуюся тем, что интерфейс для получения изображения соединен для осуществления связи с указанным по меньшей мере одним устройством захвата изображения.
23. Энергонезависимый читаемый компьютером носитель информации, содержащий исполняемые компьютером команды, при выполнении которых процессором компьютерное устройство осуществляет способ генерации модели трехмерного пространства, этот способ содержит:
получение данных изображения, содержащих несколько кадров, каждый кадр содержит данные глубины и данные цвета, эти данные глубины указывают расстояние до объекта в трехмерном пространстве от формирователя сигналов изображения, используемого для захвата данных изображения; и
вычисление модели трехмерного пространства на основе данных изображения, эта модель содержит несколько элементов, каждый элемент имеет некое положение в трехмерном пространстве,
такое вычисление содержит:
сегментацию модели для разбиения на активные и неактивные части на основе по меньшей мере одного наблюдаемого параметра для каждой части;
для некоего конкретного кадра в составе данных изображения:
определение оценки позиции формирователя сигналов изображения путем сравнения данных глубины и данных цвета для рассматриваемого конкретного кадра с прогнозируемыми данными глубины и цвета для кадра модели, получаемого на основе активных частей модели;
обновление прогнозируемых данных глубины и цвета для кадра модели с использованием оценки позиции формирователя сигналов изображения;
выравнивание активных частей модели с неактивными частями этой модели посредством трансформации элементов, ассоциированных по меньшей мере с активными и/или неактивными частями модели; и
обновление выравненных активных частей модели с использованием данных глубины и данных цвета для рассматриваемого конкретного кадра.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1509068.1 | 2015-05-27 | ||
GB1509068.1A GB2538751A (en) | 2015-05-27 | 2015-05-27 | Modelling a three-dimensional space |
PCT/GB2016/051423 WO2016189274A1 (en) | 2015-05-27 | 2016-05-17 | Modelling a three-dimensional space |
Publications (3)
Publication Number | Publication Date |
---|---|
RU2017141158A true RU2017141158A (ru) | 2019-05-31 |
RU2017141158A3 RU2017141158A3 (ru) | 2019-09-18 |
RU2713611C2 RU2713611C2 (ru) | 2020-02-05 |
Family
ID=53540963
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2017141158A RU2713611C2 (ru) | 2015-05-27 | 2016-05-17 | Способ моделирования трехмерного пространства |
Country Status (10)
Country | Link |
---|---|
US (1) | US10460463B2 (ru) |
EP (1) | EP3304492B1 (ru) |
JP (1) | JP6854780B2 (ru) |
KR (1) | KR20180026400A (ru) |
CN (1) | CN107980150B (ru) |
AU (1) | AU2016266968B2 (ru) |
BR (1) | BR112017025234A2 (ru) |
GB (1) | GB2538751A (ru) |
RU (1) | RU2713611C2 (ru) |
WO (1) | WO2016189274A1 (ru) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA3018604C (en) | 2016-04-12 | 2023-11-07 | Quidient, Llc | Quotidian scene reconstruction engine |
GB2554633B (en) | 2016-06-24 | 2020-01-22 | Imperial College Sci Tech & Medicine | Detecting objects in video data |
GB2553148A (en) | 2016-08-26 | 2018-02-28 | Nctech Ltd | Modelling system and method |
US10296798B2 (en) * | 2017-09-14 | 2019-05-21 | Ncku Research And Development Foundation | System and method of selecting a keyframe for iterative closest point |
JP7399879B2 (ja) | 2018-05-02 | 2023-12-18 | クイッディエント・エルエルシー | ほとんど無制限のディテールを有するシーンを処理するためのコーデック |
US11423615B1 (en) * | 2018-05-29 | 2022-08-23 | HL Acquisition, Inc. | Techniques for producing three-dimensional models from one or more two-dimensional images |
US10740986B2 (en) * | 2018-08-30 | 2020-08-11 | Qualcomm Incorporated | Systems and methods for reconstructing a moving three-dimensional object |
EP3645971B1 (en) * | 2018-09-12 | 2024-02-14 | Google LLC | Map feature identification using motion data and surfel data |
US10635905B2 (en) * | 2018-09-14 | 2020-04-28 | Facebook Technologies, Llc | Augmented reality mapping systems and related methods |
CN109708655A (zh) * | 2018-12-29 | 2019-05-03 | 百度在线网络技术(北京)有限公司 | 导航方法、装置、车辆及计算机可读存储介质 |
GB2580690B (en) | 2019-01-24 | 2023-03-29 | Imperial College Innovations Ltd | Mapping an environment using a state of a robotic device |
US10964098B1 (en) * | 2019-03-05 | 2021-03-30 | Facebook Technologies, Llc | Inverse path tracing for material and lighting estimation |
KR102195762B1 (ko) * | 2019-04-19 | 2020-12-29 | 광운대학교 산학협력단 | 포토그래메트리를 이용한 고품질 3차원 공간 정보 획득 방법 |
US11087494B1 (en) | 2019-05-09 | 2021-08-10 | Zoox, Inc. | Image-based depth data and localization |
US10937178B1 (en) * | 2019-05-09 | 2021-03-02 | Zoox, Inc. | Image-based depth data and bounding boxes |
US10984543B1 (en) | 2019-05-09 | 2021-04-20 | Zoox, Inc. | Image-based depth data and relative depth data |
RU2729166C1 (ru) * | 2019-11-29 | 2020-08-04 | Самсунг Электроникс Ко., Лтд. | Нейронная точечная графика |
US20210150799A1 (en) * | 2019-11-15 | 2021-05-20 | Waymo Llc | Generating Environmental Data |
CN110895823B (zh) * | 2020-01-10 | 2020-06-05 | 腾讯科技(深圳)有限公司 | 一种三维模型的纹理获取方法、装置、设备及介质 |
CN111462179B (zh) * | 2020-03-26 | 2023-06-27 | 北京百度网讯科技有限公司 | 三维物体跟踪方法、装置及电子设备 |
CN111784828B (zh) * | 2020-08-03 | 2023-11-10 | 腾讯科技(深圳)有限公司 | 三维模型的融合方法、装置及计算机可读存储介质 |
US11393179B2 (en) * | 2020-10-09 | 2022-07-19 | Open Space Labs, Inc. | Rendering depth-based three-dimensional model with integrated image frames |
KR20220131646A (ko) * | 2021-03-22 | 2022-09-29 | 현대자동차주식회사 | 객체 추적 방법과 장치 및 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체 |
KR102451797B1 (ko) * | 2021-06-01 | 2022-10-12 | 씨드로닉스(주) | 타겟 객체를 모델링하는 모델링 방법, 모델링 장치 및 모델링 시스템 |
CN114311682B (zh) * | 2022-03-03 | 2022-08-02 | 深圳市创想三维科技股份有限公司 | 模型生成方法、装置、设备和存储介质 |
CN116109803B (zh) * | 2023-04-13 | 2023-07-07 | 腾讯科技(深圳)有限公司 | 信息构建方法、装置、设备及存储介质 |
CN117086500B (zh) * | 2023-08-17 | 2024-06-25 | 深圳市大德激光技术有限公司 | 一种激光蚀刻设备电气控制系统 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2295772C1 (ru) * | 2005-09-26 | 2007-03-20 | Пензенский государственный университет (ПГУ) | Способ генерирования текстуры в реальном масштабе времени и устройство для его реализации |
GB0818561D0 (en) * | 2008-10-09 | 2008-11-19 | Isis Innovation | Visual tracking of objects in images, and segmentation of images |
GB2494081B (en) * | 2010-05-20 | 2015-11-11 | Irobot Corp | Mobile human interface robot |
US8532367B2 (en) * | 2010-08-17 | 2013-09-10 | Raytheon Company | System and method for 3D wireframe reconstruction from video |
US8711206B2 (en) * | 2011-01-31 | 2014-04-29 | Microsoft Corporation | Mobile camera localization using depth maps |
US8587583B2 (en) * | 2011-01-31 | 2013-11-19 | Microsoft Corporation | Three-dimensional environment reconstruction |
WO2014202258A1 (en) * | 2013-06-21 | 2014-12-24 | National University Of Ireland, Maynooth | A method for mapping an environment |
US20150097829A1 (en) * | 2013-10-09 | 2015-04-09 | Cherif Atia Algreatly | 3D Modeling Using Unrelated Drawings |
CN103795976B (zh) * | 2013-12-30 | 2017-09-19 | 北京正安维视科技股份有限公司 | 一种全时空立体可视化方法 |
CN104463948B (zh) * | 2014-09-22 | 2017-05-17 | 北京大学 | 三维虚拟现实系统与地理信息系统的无缝可视化方法 |
-
2015
- 2015-05-27 GB GB1509068.1A patent/GB2538751A/en not_active Withdrawn
-
2016
- 2016-05-17 AU AU2016266968A patent/AU2016266968B2/en not_active Expired - Fee Related
- 2016-05-17 JP JP2017561728A patent/JP6854780B2/ja active Active
- 2016-05-17 WO PCT/GB2016/051423 patent/WO2016189274A1/en active Application Filing
- 2016-05-17 RU RU2017141158A patent/RU2713611C2/ru active
- 2016-05-17 BR BR112017025234A patent/BR112017025234A2/pt not_active Application Discontinuation
- 2016-05-17 EP EP16731625.6A patent/EP3304492B1/en active Active
- 2016-05-17 CN CN201680029877.0A patent/CN107980150B/zh active Active
- 2016-05-17 KR KR1020177037549A patent/KR20180026400A/ko active IP Right Grant
-
2017
- 2017-11-27 US US15/822,637 patent/US10460463B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
KR20180026400A (ko) | 2018-03-12 |
GB2538751A (en) | 2016-11-30 |
AU2016266968B2 (en) | 2020-12-24 |
RU2713611C2 (ru) | 2020-02-05 |
BR112017025234A2 (pt) | 2018-07-31 |
CN107980150A (zh) | 2018-05-01 |
JP6854780B2 (ja) | 2021-04-07 |
EP3304492B1 (en) | 2019-07-10 |
US10460463B2 (en) | 2019-10-29 |
JP2018520425A (ja) | 2018-07-26 |
CN107980150B (zh) | 2021-11-16 |
GB201509068D0 (en) | 2015-07-08 |
WO2016189274A1 (en) | 2016-12-01 |
EP3304492A1 (en) | 2018-04-11 |
RU2017141158A3 (ru) | 2019-09-18 |
AU2016266968A1 (en) | 2017-11-23 |
US20180082435A1 (en) | 2018-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2017141158A (ru) | Способ моделирования трехмерного пространства | |
US9759548B2 (en) | Image processing apparatus, projector and projector system including image processing apparatus, image processing method | |
KR101776622B1 (ko) | 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
CN108955718B (zh) | 一种视觉里程计及其定位方法、机器人以及存储介质 | |
US9386209B2 (en) | Method and apparatus for estimating position | |
US9875542B2 (en) | Camera calibration device, camera calibration method, and camera calibration program | |
US10529076B2 (en) | Image processing apparatus and image processing method | |
KR101776621B1 (ko) | 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
EP2671384B1 (en) | Mobile camera localization using depth maps | |
KR101776620B1 (ko) | 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
RU2016150826A (ru) | Оценка глубины с использованием многоракурсного стереоизображения и откалиброванного проектора | |
JP2014119442A5 (ru) | ||
JP2014063475A5 (ru) | ||
US11488354B2 (en) | Information processing apparatus and information processing method | |
JP2017053795A (ja) | 情報処理装置、位置姿勢計測方法、及び位置姿勢計測プログラム | |
US9914222B2 (en) | Information processing apparatus, control method thereof, and computer readable storage medium that calculate an accuracy of correspondence between a model feature and a measurement data feature and collate, based on the accuracy, a geometric model and an object in an image | |
JP2017117386A (ja) | 自己運動推定システム、自己運動推定システムの制御方法及びプログラム | |
JP6525148B2 (ja) | 軌跡推定方法、軌跡推定装置及び軌跡推定プログラム | |
JP2015206768A (ja) | 前景領域抽出装置、前景領域抽出方法及びプログラム | |
JP2014216813A (ja) | カメラ姿勢推定装置及びそのプログラム | |
JP2013120083A (ja) | 環境認識装置 | |
KR101766823B1 (ko) | 불규칙한 조도 변화에 강건한 영상 기반 주행거리 측정 시스템 및 방법 | |
US11118915B2 (en) | Position estimation device, moving-object control system, position estimation method, and computer program product | |
JP7095616B2 (ja) | 学習データ生成装置、方法及びプログラム | |
JP2018536494A5 (ru) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PC41 | Official registration of the transfer of exclusive right |
Effective date: 20210212 |