RU2502136C2 - Комбинированная система захвата объекта и отображающее устройство и связанный способ - Google Patents
Комбинированная система захвата объекта и отображающее устройство и связанный способ Download PDFInfo
- Publication number
- RU2502136C2 RU2502136C2 RU2010117657/08A RU2010117657A RU2502136C2 RU 2502136 C2 RU2502136 C2 RU 2502136C2 RU 2010117657/08 A RU2010117657/08 A RU 2010117657/08A RU 2010117657 A RU2010117657 A RU 2010117657A RU 2502136 C2 RU2502136 C2 RU 2502136C2
- Authority
- RU
- Russia
- Prior art keywords
- display device
- image
- computer
- dimension
- detection device
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Cash Registers Or Receiving Machines (AREA)
- Image Processing (AREA)
Abstract
Изобретение относится к вычислительной технике, а именно к комбинированной системе захвата объекта и способу для осуществления измерения трехмерной формы материального объекта. Техническим результатом является расширение функциональных возможностей с целью определения трехмерной формы поверхности объекта, используя анализ изображения способом триангуляции. Система для трехмерного измерения формы материального объекта содержит отображающее устройство, проекционное устройство для проецирования структурированного светового шаблона на поверхность объекта, устройство обнаружения для захвата изображения поверхности объекта, вычислительной устройство. Устройство обнаружения захватывает изображение структурированного светового шаблона на поверхности объекта. Вычислительное устройство определяет измерения, которые относятся к захваченному изображению. Отображающее устройство обеспечивает положение и ориентацию объекта для соотнесения с устройством обнаружения перед захватом изображения. 2 н. и 16 з.п. ф-лы, 4 ил.
Description
Область техники
Раскрытие относится к комбинированной системе захвата объекта и отображающему устройству и связанному способу на основании трехмерных (3D) измерений и двумерных измерений объекта около отображающего устройства.
Уровень техники
Известны устройства и способы для выполнения бесконтактного измерения формы трехмерной поверхности материального объекта, такие как использование способа триангуляции структурированным светом. Способ триангуляционного измерения формы поверхности материальных объектов использует проецирование света на поверхность объекта, который является, обычно, амплитудно-модулированным, модулированным по времени и/или модулированным по длине волны (структурированный свет). Изображение структурированного света, спроецированного на поверхность объекта (здесь и далее упоминаемое как изображение), захватывается камерой в направлении, отличном от направления проецирования структурированного света. Изображение затем анализируется для вычисления формы поверхности объекта. Несколько параметров влияют на результат анализа, а именно параметры конкретной системы, которая формирует структурированный свет и сканирует изображение, форма поверхности, расстояние между поверхностью объекта и компонентами системы, ориентация объекта относительно компонентов системы. Поскольку большая часть перечисленных параметров или была известна ранее, или легко идентифицируется, за исключением формы объекта, расстояния между поверхностью объекта и компонентами системы, ориентации объекта относительно компонентов системы, то является возможным определение формы поверхности объекта с использованием анализа изображения способом триангуляции.
Сущность изобретения
В соответствии с вариантами осуществления настоящего раскрытия обеспечивается система захвата объекта, комбинированная с, интегрированная с, или по-другому присоединенная к, или по-другому расположенная вдоль устройства отображения, содержащая, по меньшей мере, одно проецирующее устройство для проецирования структурированного светового шаблона на поверхность объекта, по меньшей мере, одно устройство обнаружения, причем, по меньшей мере, одно из устройств обнаружения захватывает, по меньшей мере, одно изображение структурированного светового шаблона на поверхности объекта, и вычислительное устройство для определения измерений, относящихся к захваченному изображению.
В соответствии с вариантами осуществления настоящего раскрытия, обеспечивается способ захвата объекта около отображающего устройства, содержащий этапы, на которых проецируют, по меньшей мере, один структурированный световой шаблон из, по меньшей мере, одного проецирующего устройства на поверхность объекта, захватывают, по меньшей мере, одно изображение объекта с помощью, по меньшей мере, одного устройства обнаружения, причем, по меньшей мере, одно изображение включает в себя изображение структурированного светового шаблона на поверхности объекта, и определяют измерения, относящиеся к поверхности объекта.
В соответствии с вариантами осуществления настоящего раскрытия, отображающее устройство может обеспечивать положение и ориентацию для объекта относительно устройств проецирования и обнаружения. Поверхность объекта может находиться в положении и ориентации, возникающих во время использования отображающего устройства.
В соответствии с вариантами осуществления настоящего раскрытия, измерения, относящиеся к поверхности объекта, могут определить уровень использования отображающего устройства или компьютера, подсоединенного к отображающему устройству, или любого другого устройства, подсоединенного к отображающему устройству.
В соответствии с вариантами осуществления настоящего раскрытия, измерения, относящиеся к поверхности объекта, могут обрабатываться постоянно для определения уровня использования отображающего устройства или компьютера, подсоединенного к отображающему устройству, или любого другого устройства, подсоединенного к отображающему устройству.
Краткое описание чертежей
Описанные выше признаки и задачи настоящего раскрытия станут более понятными со ссылкой на последующее описание, взятое вместе с прилагающимися чертежами, на которых одинаковые ссылочные номера обозначают одинаковые элементы и на которых
Фиг.1 показывает вид в перспективе варианта осуществления комбинированной системы захвата объекта и отображающего устройства для захвата объекта около отображающего устройства в соответствии с одним или более вариантами осуществления настоящего раскрытия;
Фиг.2 показывает блок-схему комбинированной системы захвата объекта и отображающего устройства для захвата объекта около отображающего устройства в соответствии с одним или более вариантами осуществления настоящего раскрытия;
Фиг.3 показывает вариант осуществления комбинированной системы захвата объекта и отображающего устройства, включающего в себя настольный компьютер в соответствии с одним или более вариантами осуществления настоящего раскрытия; и
Фиг.4 показывает вариант осуществления комбинированной системы захвата объекта и отображающего устройства, включающего в себя переносной компьютер в соответствии с одним или более вариантами осуществления настоящего раскрытия.
Подробное описание
В основном, настоящее раскрытие включает в себя комбинированную систему захвата объекта и отображающее устройство для захвата изображений объектов, расположенных около отображающего устройства. А теперь будут обсуждаться конкретные варианты осуществления настоящего раскрытия со ссылкой на упомянутые выше чертежи, в которых одинаковые ссылочные номера обозначают одинаковые компоненты. Фиг.1 показывает вид в перспективе варианта осуществления комбинированной системы для захвата объекта и отображающее устройство 100 для захвата, по меньшей мере, одного изображения, сцены или видеоизображения объекта 111, расположенного около интегрированной системы захвата объекта или отображающего устройства 100 в соответствии с одним или более вариантами осуществления настоящего раскрытия. Комбинированная система захвата объекта и отображающее устройство 100 могут включать в себя систему 102 захвата объекта.
В одном или более вариантах осуществления система 102 захвата объекта является комбинированной или интегрированной с отображающим устройством 101. Несмотря на то, что система 102 захвата объекта будет упоминаться здесь как комбинированная или интегрированная с отображающим устройством 101, следует понимать, что термины «комбинированный» или «интегрированный» также должны обозначать систему 102 захвата объекта, подсоединенную или каким-либо другим образом прикрепленную к отображающему устройству с помощью постоянного или съемного крепления, или по-другому расположенную вдоль или вблизи отображающего устройства 101. В одном или более вариантах осуществления, система 102, расположенная вдоль или вблизи отображающего устройства 101, является интегрированным устройством.
Система 102 захвата объекта включает в себя, по меньшей мере, одно проекционное устройство 106, которое проецирует структурированный свет 113 на проекционную область 114. Структурированный свет 113 может быть спроецирован на поверхность 110 объекта 111 около отображающего устройства 101.
Система 102 захвата объекта дополнительно включает в себя, по меньшей мере, одно устройство 108 обнаружения, где, по меньшей мере, одно из устройств 108 обнаружения захватывает, по меньшей мере, одно изображение структурированного света 113 на поверхности 110 объекта 111. Устройство 108 обнаружения может включать в себя поле 118 зрения, которое охватывает часть поверхности 110 объекта 111. Далее будет описано, что система 102 захвата объекта захватывает изображения объекта 111, где следует понимать, что такой захват изображения может включать в себя любое количество захваченных изображений или видеоизображений, или сцен объекта 111. В одном или более вариантах осуществления вычислительное устройство 104 подсоединено к проекционному устройству 106, и устройство 108 обнаружения, такое как вычислительное устройство 104, может анализировать изображения, захваченные устройством 108 обнаружения, для выполнения требуемых вычислений, таких как, но не ограниченных ими, 3D формы поверхности 110 объекта 111, расстояния до объекта 111, ориентации захватываемой поверхности 110, 2D изображений поверхности 110 объекта 111 и распознавание объекта 111. Вычислительное устройство 104 может также управлять проекционным устройством 106 и/или устройством 108 обнаружения и их соответствующими компонентами.
В одном или более вариантах осуществления вычислительное устройство 104 может быть интегрировано с системой 102 захвата объекта, в одном или более вариантах осуществления вычислительное устройство 104 может быть отделено от системы 102 захвата объекта.
Отображающее устройство 101 может быть любым устройством, которое отображает информацию пользователю или в направлении объекта 111. Отображающее устройство 101 может включать в себя, но не ограничено ими, компьютерный монитор, жидкокристаллический дисплей (LCD), настольный компьютер, переносной компьютер, телевизор, переносной или мобильный телефон, персональный цифровой помощник, переносное вычислительное устройство, удаленный терминал, или любой тип дисплея или устройства, которое может включать в себя дисплей.
В одном или более вариантах осуществления, по меньшей мере, один компонент системы 102 захвата изображения может быть неподвижно или подвижно закреплен или интегрирован в отображающее устройство 101. Например, проецирующее устройство 106 и устройство 108 обнаружения узла 102 захвата объекта могут быть неподвижно или съемно прикреплены или интегрированы с отображающим устройством 101. В одном или более вариантах осуществления, по меньшей мере, один компонент системы 102 захвата объекта может быть расположен вдоль или вплотную к отображающему устройству 101.
В одном или более вариантах осуществления положение и ориентация объекта 111 по отношению к системе 100 захвата объекта могут быть определены на основании положения и ориентации объекта 111 по отношению к отображающему устройству 101. Отображающее устройство 101 может обеспечивать эталонное положение и/или эталонную ориентацию для положения и ориентации объекта 111. Например, объект 111 может быть расположен вплотную к части дисплея или экрана отображающего устройства 101 и ориентирован так, что поверхность 110 может быть проанализирована системой 102 захвата объекта, направленной к части отображающего устройства 101. В положении и ориентации, допускаемой по отношению к отображающему устройству 101, система 102 захвата объекта может анализировать поверхность 110 объекта 111. В одном или более вариантах осуществления система 102 захвата объекта может основывать свои вычисления на допущении, что объект 111 расположен в эталонном положении и/или эталонной ориентации.
В одном или более вариантах осуществления вычислительное устройство 104 может быть скомбинировано или интегрировано с отображающим устройством 101. В одном или более вариантах осуществления вычислительное устройство может быть отделено от отображающего устройства 101. В одном или более вариантах осуществления вычислительное устройство 104 взаимодействует с отображающим устройством так, что вычислительное устройство 104 заставляет отображающее устройство 101 обеспечивать изображение. В одном или более вариантах осуществления обеспеченное изображение представляет информацию, расположенную или сохраненную в вычислительном устройстве 104.
Вычислительное устройство 104 системы 100 захвата объекта может включать в себя компьютерную систему общего назначения, которая подходит для применения способов 3D и 2D измерений формы материальных объектов в соответствии с настоящим раскрытием. Вычислительная система 104 является только одним примером подходящей вычислительной среды и не предполагается для предложения любого ограничения объема использования или функциональности изобретения. В разных вариантах осуществления настоящая система и способ для комбинированной системы захвата объекта и отображающего устройства 100 работают со многими другими средами или конфигурациями вычислительных систем общего или специального назначения. Примеры хорошо известных вычислительных систем, сред и/или конфигураций, которые могут быть подходящими для использования с изобретением, включают в себя, но не ограничены ими, персональные компьютеры, серверные компьютеры, ручные или переносные устройства, многопроцессорные системы, системы на основе микропроцессоров, программируемую потребительскую электронику, сетевые компьютеры, миникомпьютеры, большие вычислительные машины, распределенные вычислительные среды, которые включают в себя любые вышеперечисленные системы или устройства, и им подобные.
В различных вариантах осуществления анализ, выполняемый вычислительной системой 104 с помощью алгоритмов и способов, которые будут обсуждаться более подробно, могут быть описаны в общем контексте компьютерно выполнимых инструкций, таких как программные модули, выполняемые компьютером. В основном, программные модули включают в себя процедуры, программы, объекты, компоненты, структуры данных и так далее, которые выполняют конкретные задачи или воплощают конкретные абстрактные типы данных. Эти алгоритмы и способы могут также быть использованы в распределенных вычислительных средах, где задачи выполняются удаленными процессорными устройствами, которые соединены через сеть связи в распределенной вычислительной среде, программные модули могут быть расположены как в локальных, так и в удаленных компьютерных носителях, включающих в себя устройства хранения. В одном или более вариантах осуществления вычислительная система 104 может анализировать изображение, захваченное устройством 108 обнаружения, путем выполнения одной или более компьютерных программ. Компьютерные программы могут храниться в носителе памяти или носителе хранения, таких как память и/или память только для чтения, или они могут быть доставлены до процессора через сетевое соединение или другое соединение.
Несмотря на то, что компьютер или вычислительное устройство будут упоминаться здесь как подсоединенные к или связанные с отображающим устройством 101, следует понимать, что термины «компьютер» и «вычислительное устройство» следует употреблять также и для вычислительной системы 104 или для другого устройства, подсоединенного или связанного с отображающим устройством 101.
Объект 111 может быть любым материальным объектом, способным быть захваченным с помощью системы 102 захвата объекта, включающим в себя, но не ограниченным ими, лицо пользователя отображающего устройства 101, часть тела (например, рука, ладонь, отпечаток пальца и так далее) пользователя устройства отображения 101, захватываемые опознавательные знаки и любой другой объект, который может быть идентифицирован комбинированной системой захвата объекта и отображающим устройством 100. В одном или более вариантах осуществления, в которых объект связан с пользователем отображающего устройства 101, эталонное положение и/или эталонная ориентация, обеспечиваемая отображающим устройством 101, может соответствовать положению и/или ориентации, связанной с пользователем отображающего устройства 101. Например, там, где объект 111 является лицом пользователя отображающего устройства 101, эталонное положение и/или ориентация, обеспечиваемая отображающим устройством 101, может быть положением и/или ориентацией, в которой пользователь удерживает свое лицо во время работы с отображающим устройством 101.
В одном или более вариантах осуществления объект 111 может быть захвачен системой 102 захвата объекта, и затем захваченные изображения могут быть использованы для целей идентификации на основании исторической операции комбинированной системы захвата объекта и отображающего устройства 100. Историческая операция может включать в себя фазу настройки системы 102 захвата объекта, в которой проецирующее устройство 106 проецирует структурированный свет 113 на объект 111, устройства 108 обнаружения захватывают изображения поверхности 110 объекта 111, и вычислительное устройство 104 анализирует захваченное изображение. Измерение, основанное на результате исторической операции объекта 111, может быть записано. В последующей операции системы 102 захвата объекта измерение последующей операции, сгенерированное вычислительной системой 104, может быть сравнено с измерением исторической операции. Если измерение последующей операции соответствует измерению исторической операции, то объект 111 идентифицируется как исторический объект, иначе объект 111 идентифицируется как объект, отличный от исторического объекта.
В одном или более вариантах осуществления результаты, использованные в фазе настройки, могут быть получены из внешнего источника и введены в комбинированную систему захвата изображения и отображающего устройства 100.
По меньшей мере, в одном варианте осуществления система 102 захвата объекта может быть способна взаимодействовать с отображающим устройством 101 так, что измерение, сделанное во время операции комбинированной системы захвата объекта и отображающего устройства 100, может заставлять отображающее устройство 101 выполнять функцию отображающего устройства 101. По меньшей мере, в одном варианте осуществления система 102 захвата объекта может быть способна взаимодействовать с отображающим устройством 101 так, что уровень доступа к отображающему устройству 101 или вычислительному устройству 104, или другому устройству, подсоединенному к отображающему устройству 101 или вычислительному устройству 104, может быть обеспечен на основании измерения, сделанного во время работы системы 102 захвата объекта, где объект 111 может быть идентифицирован как исторический объект, объекту 111 может быть назначен уровень доступа к отображающему устройству 101 или другому устройству, где уровень доступа связан с историческим объектом. Например, уровень доступа, связанный с историческим объектом, может быть определен во время фазы настройки системы 102 захвата объекта. Например, лицо пользователя может быть проанализировано так, что пользователь будет обеспечен безопасным доступом к вычислительной системе 104 и/или использованием отображающего устройства 101 посредством распознавания определенных характеристик пользователя, захваченных системой 102 захвата объекта.
По меньшей мере, в одном варианте осуществления уровень доступа к отображающему устройству 101 может определять, по меньшей мере, одно из изображений, которое может быть изображено на отображающем устройстве 101, доступ или использование функции, которую пользователь может выполнить на отображающем устройстве 101 или вычислительном устройстве 104, или любом другом устройстве, подсоединенном к отображающему устройству 101 или вычислительному устройству 104, и функцию, которая может быть автоматически отображена отображающим устройством 101 или выполнена вычислительным устройством 104. По меньшей мере, в одном варианте осуществления пользователь может не выполнять определенные функции отображающего устройства 101 или вычислительного устройства 104, если объект 111 не идентифицирован как исторический объект, связанный с уровнем доступа, необходимым для выполнения таких функций.
В одном или более вариантах осуществления описанные здесь измерения могут выполняться непрерывно.
Фиг.2 показывает блок-схему комбинированной системы захвата объекта и отображающего устройства 100 для захвата объекта 111 около отображающего устройства 101. В соответствии с одним или более вариантами осуществления настоящего раскрытия, комбинированная система захвата объекта и отображающее устройство 100 могут включать в себя, по меньшей мере, одно проекционное устройство 106 и, по меньшей мере, одно устройство 108 отображения. По меньшей мере, в одном варианте осуществления проекционное устройство 106 является проектором слайдов, включающим в себя источник 126 света и устройство 122 модулирования света для модулирования света, излученного источником 126 света. Устройство 122 модулирования света может быть типа проектора слайдов, включающего в себя слайд, типа жидкокристаллического дисплея, включающего в себя жидкокристаллический экран, или другое устройство для создания структурированного света 113. По меньшей мере, в одном варианте осуществления проекционное устройство 106 может включать в себя линзу 181, имеющую оптический центр 124 для проецирования изображения слайда в виде структурированного света 113 на проекционную область 114 на поверхности 110 объекта 111 около отображающего устройства 101. В соответствии с этим и другими вариантами осуществления, структурированный свет 113 может также быть сгенерирован с использованием других способов, таких как интерференция, муар и способы дифракционной генерации света.
По меньшей мере, в одном варианте осуществления проекционное устройство 106 проецирует структурированный свет 113 в диапазоне длин волн, выбранном из оптического, видимого и инфракрасного диапазонов длин волн. По меньшей мере, в одном варианте осуществления проекционное устройство 106 является непрерывным источником света. По меньшей мере, в одном варианте осуществления проекционное устройство 106 встроено в само отображающее устройство 101, где отображающее устройство 101 проецирует структурированный свет 113.
По меньшей мере, в одном варианте осуществления устройство 108 обнаружения может включать в себя фотографическую линзу 180, имеющую оптический центр 130, матричный приемник 128 излучения и привод 132. Фотографическая линза 180 формирует изображение на поверхности матричного приемника 128 излучения. Привод 132 работает как узел управления и обработки электронного сигнала, которые управляет работой матричного приемника 128 излучения, и может конвертировать изображение, захваченное матричным приемником 128 излучения в другой формат (например, VGA, bmp, jpeg и так далее) по желанию или требованию до того, как захваченное изображение передается вычислительному устройству 104. Устройство 108 обнаружения может включать в себя поле 118 зрения, которое охватывает часть поверхности 110 объекта 111. Проекционное устройство 106 может включать в себя проекционную ось 112, и устройство 108 обнаружения может включать в себя ось 116 обнаружения, так что триангуляционный угол 120 является углом между проекционной осью 112 и осью 116 обнаружения.
В соответствии с одним или более вариантами осуществления, как показано на Фиг.3, комбинированная система захвата объекта и отображающее устройство 100 могут включать в себя отображающее устройство 101, которое содержит дисплей или монитор для настольного компьютера 104.
Фиг.4 показывает вариант осуществления комбинированной системы захвата объекта и отображающее устройство 100, в котором отображающее устройство 101 является компонентом переносного компьютера 104 в соответствии с одним или более вариантами настоящего раскрытия.
Несмотря на то, что устройство и способ были описаны в терминах того, что в настоящее время считается наиболее практическими вариантами осуществления, следует понимать, что раскрытие не должно быть ограниченным раскрытыми вариантами осуществления. Оно предназначено для покрытия различных модификаций и похожих размещений, включенных в сущность и объем формулы изобретения, объем которой должен быть согласован с самой широкой интерпретацией, так чтобы захватывать все такие модификации и подобные структуры. Настоящее раскрытие включает в себя любые и все варианты осуществления следующей формулы изобретения.
Claims (18)
1. Система для 3D измерения формы материального объекта, содержащая:
отображающее устройство; и,
по меньшей мере, одно проекционное устройство для проецирования структурированного светового шаблона на поверхность объекта;
по меньшей мере, одно устройство обнаружения для захвата, по меньшей мере, одного изображения поверхности объекта, причем, по меньшей мере, одно из устройств обнаружения захватывает, по меньшей мере, одно изображение структурированного светового шаблона на поверхности объекта;
вычислительное устройство для определения измерения, относящегося к захваченному изображению,
при этом отображающее устройство обеспечивает положение и ориентацию для объекта для соотнесения с, по меньшей мере, одним устройством обнаружения перед захватом, по меньшей мере, одного изображения.
отображающее устройство; и,
по меньшей мере, одно проекционное устройство для проецирования структурированного светового шаблона на поверхность объекта;
по меньшей мере, одно устройство обнаружения для захвата, по меньшей мере, одного изображения поверхности объекта, причем, по меньшей мере, одно из устройств обнаружения захватывает, по меньшей мере, одно изображение структурированного светового шаблона на поверхности объекта;
вычислительное устройство для определения измерения, относящегося к захваченному изображению,
при этом отображающее устройство обеспечивает положение и ориентацию для объекта для соотнесения с, по меньшей мере, одним устройством обнаружения перед захватом, по меньшей мере, одного изображения.
2. Система по п.1, в которой, по меньшей мере, одно проекционное устройство и, по меньшей мере, одно устройство обнаружения интегрированы с отображающим устройством.
3. Система по п.1, в которой, по меньшей мере, одно проекционное устройство и, по меньшей мере, одно устройство обнаружения отделены от отображающего устройства.
4. Система по п.1, в которой отображающее устройство является компьютерным дисплеем.
5. Система по п.1, в которой объект является лицом пользователя отображающего устройства.
6. Система по п.1, в которой упомянутое измерение определяет уровень доступа компьютера, подсоединенного к отображающему устройству.
7. Система по п.1, в которой вычислительное устройство сравнивает упомянутое измерение с, по меньшей мере, одним историческим измерением.
8. Система по п.7, в которой историческое измерение связано с заранее определенным уровнем доступа компьютера, подсоединенного к упомянутой системе.
9. Система по п.8, в которой упомянутое измерение обрабатывается периодически для определения уровня доступа компьютера, подсоединенного к упомянутой системе.
10. Способ 3D измерения формы объекта, расположенного около отображающего устройства, содержащий этапы, на которых:
проецируют структурированный световой шаблон из, по меньшей мере, одного проекционного устройства на поверхность объекта, расположенного около отображающего устройства;
захватывают, по меньшей мере, одно изображение поверхности объекта с помощью, по меньшей мере, одного устройства обнаружения, причем, по меньшей мере, одно из захваченных изображений включает в себя изображение структурированного светового шаблона на поверхности объекта, при этом отображающее устройство обеспечивает положение и ориентацию для объекта для соотнесения с, меньшей мере, одним устройством обнаружения перед захватом, по меньшей мере, одного изображения; и
определяют измерение, относящееся к поверхности объекта.
проецируют структурированный световой шаблон из, по меньшей мере, одного проекционного устройства на поверхность объекта, расположенного около отображающего устройства;
захватывают, по меньшей мере, одно изображение поверхности объекта с помощью, по меньшей мере, одного устройства обнаружения, причем, по меньшей мере, одно из захваченных изображений включает в себя изображение структурированного светового шаблона на поверхности объекта, при этом отображающее устройство обеспечивает положение и ориентацию для объекта для соотнесения с, меньшей мере, одним устройством обнаружения перед захватом, по меньшей мере, одного изображения; и
определяют измерение, относящееся к поверхности объекта.
11. Способ по п.10, в котором, по меньшей мере, одно проекционное устройство и, по меньшей мере, одно устройство обнаружения являются интегрированными с отображающим устройством.
12. Способ по п.10, в котором, по меньшей мере, одно проекционное устройство и, по меньшей мере, одно отображающее устройство являются отделенными от отображающего устройства.
13. Способ по п.10, в котором отображающее устройство является компьютерным дисплеем.
14. Способ по п.10, дополнительно содержащий этап, на котором позиционируют, по меньшей мере, одно проекционное устройство и, по меньшей мере, одно устройство обнаружения для воздействия на объект, размещенный для использования отображающего устройства.
15. Способ по п.14, дополнительно содержащий этап, на котором обеспечивают уровень доступа компьютера, связанного с отображающим устройством, на основе упомянутого измерения.
16. Способ по п.15, в котором обеспечение уровня доступа компьютера, связанного с отображающим устройством, дополнительно содержит этапы, на которых:
сравнивают упомянутое измерение с, по меньшей мере, одним историческим измерением;
если упомянутое измерение соответствует историческому измерению, то разрешают использовать компьютер; и
запрещают использовать компьютер, если упомянутое измерение не соответствует историческому измерению.
сравнивают упомянутое измерение с, по меньшей мере, одним историческим измерением;
если упомянутое измерение соответствует историческому измерению, то разрешают использовать компьютер; и
запрещают использовать компьютер, если упомянутое измерение не соответствует историческому измерению.
17. Способ по п.16, в котором историческое измерение связано с заранее определенным уровнем доступа компьютера.
18. Способ по п.17, дополнительно содержащий этап, на котором обрабатывают упомянутое измерение периодически для определения уровня доступа компьютера.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/868,352 | 2007-10-05 | ||
US11/868,352 US8488129B2 (en) | 2007-10-05 | 2007-10-05 | Combined object capturing system and display device and associated method |
PCT/US2008/078623 WO2009046218A2 (en) | 2007-10-05 | 2008-10-02 | Combined object capturing system and display device and associated method |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2010117657A RU2010117657A (ru) | 2011-11-10 |
RU2502136C2 true RU2502136C2 (ru) | 2013-12-20 |
Family
ID=40522882
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2010117657/08A RU2502136C2 (ru) | 2007-10-05 | 2008-10-02 | Комбинированная система захвата объекта и отображающее устройство и связанный способ |
Country Status (11)
Country | Link |
---|---|
US (1) | US8488129B2 (ru) |
EP (1) | EP2208186B8 (ru) |
JP (2) | JP2010540970A (ru) |
KR (1) | KR20100074254A (ru) |
CN (1) | CN102027317B (ru) |
AU (3) | AU2008308677A1 (ru) |
ES (1) | ES2824825T3 (ru) |
MX (1) | MX2010003691A (ru) |
PL (1) | PL2208186T3 (ru) |
RU (1) | RU2502136C2 (ru) |
WO (1) | WO2009046218A2 (ru) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009511163A (ja) | 2005-10-14 | 2009-03-19 | アプライド リサーチ アソシエイツ エヌゼット リミテッド | 表面特徴を観察する方法とその装置 |
US8427424B2 (en) | 2008-09-30 | 2013-04-23 | Microsoft Corporation | Using physical objects in conjunction with an interactive surface |
US8730309B2 (en) | 2010-02-23 | 2014-05-20 | Microsoft Corporation | Projectors and depth cameras for deviceless augmented reality and interaction |
US9329469B2 (en) | 2011-02-17 | 2016-05-03 | Microsoft Technology Licensing, Llc | Providing an interactive experience using a 3D depth camera and a 3D projector |
US9480907B2 (en) | 2011-03-02 | 2016-11-01 | Microsoft Technology Licensing, Llc | Immersive display with peripheral illusions |
US20120223885A1 (en) * | 2011-03-02 | 2012-09-06 | Microsoft Corporation | Immersive display experience |
US9597587B2 (en) | 2011-06-08 | 2017-03-21 | Microsoft Technology Licensing, Llc | Locational node device |
KR101268515B1 (ko) * | 2011-07-22 | 2013-06-04 | 경북대학교 산학협력단 | 3차원 스캔 장치 및 3차원 형상 복원 방법 |
US9179844B2 (en) | 2011-11-28 | 2015-11-10 | Aranz Healthcare Limited | Handheld skin measuring or monitoring device |
US20150077518A1 (en) * | 2012-06-26 | 2015-03-19 | Siemens Aktiengesellschaft | Apparatus for mobile pattern projection |
US10979249B1 (en) * | 2014-03-02 | 2021-04-13 | Twitter, Inc. | Event-based content presentation using a social media platform |
JP6516453B2 (ja) * | 2014-11-26 | 2019-05-22 | 株式会社ミツトヨ | 画像測定装置及び測定装置 |
CN109196303B (zh) | 2016-04-01 | 2020-10-23 | 乐高公司 | 玩具扫描仪 |
US10013527B2 (en) | 2016-05-02 | 2018-07-03 | Aranz Healthcare Limited | Automatically assessing an anatomical surface feature and securely managing information related to the same |
US11116407B2 (en) | 2016-11-17 | 2021-09-14 | Aranz Healthcare Limited | Anatomical surface assessment methods, devices and systems |
LU100021B1 (en) | 2017-01-13 | 2018-07-30 | Adapttech Ltd | Socket fitting system |
EP3606410B1 (en) | 2017-04-04 | 2022-11-02 | Aranz Healthcare Limited | Anatomical surface assessment methods, devices and systems |
JP7216672B2 (ja) * | 2017-07-12 | 2023-02-01 | ジェンテックス コーポレイション | 統合撮像装置を使用しての視覚的データ、深さデータ、および微小振動データの抽出 |
US10565718B2 (en) | 2018-04-18 | 2020-02-18 | Faro Technologies, Inc. | System and method of scanning an environment |
KR102668245B1 (ko) * | 2018-10-29 | 2024-05-23 | 삼성전자주식회사 | 3차원 깊이 측정 장치 및 방법 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2106070C1 (ru) * | 1993-07-23 | 1998-02-27 | ЛТД ГмбХ энд Ко. Лейзер-Дисплей-Технологи КГ | Проекционная система для проецирования цветного видеоизображения и относящаяся к ней преобразующая оптика |
WO2007105215A2 (en) * | 2006-03-14 | 2007-09-20 | Prime Sense Ltd. | Depth-varying light fields for three dimensional sensing |
EP1524656B1 (en) * | 2003-10-16 | 2009-09-16 | Ricoh Company, Ltd. | Optical information recording medium and method for producing the same |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4449189A (en) * | 1981-11-20 | 1984-05-15 | Siemens Corporation | Personal access control system using speech and face recognition |
US7209221B2 (en) * | 1994-05-23 | 2007-04-24 | Automotive Technologies International, Inc. | Method for obtaining and displaying information about objects in a vehicular blind spot |
US6064759A (en) * | 1996-11-08 | 2000-05-16 | Buckley; B. Shawn | Computer aided inspection machine |
DE19712844A1 (de) * | 1997-03-26 | 1998-10-08 | Siemens Ag | Verfahren zur dreidimensionalen Identifizierung von Objekten |
US7006132B2 (en) * | 1998-02-25 | 2006-02-28 | California Institute Of Technology | Aperture coded camera for three dimensional imaging |
US6252623B1 (en) | 1998-05-15 | 2001-06-26 | 3Dmetrics, Incorporated | Three dimensional imaging system |
CA2267519A1 (en) | 1999-04-13 | 2000-10-13 | Inspeck Inc. | Optical full human body 3d digitizer |
JP2001012922A (ja) * | 1999-06-29 | 2001-01-19 | Minolta Co Ltd | 3次元データ処理装置 |
US6341016B1 (en) | 1999-08-06 | 2002-01-22 | Michael Malione | Method and apparatus for measuring three-dimensional shape of object |
CN1304114A (zh) * | 1999-12-13 | 2001-07-18 | 中国科学院自动化研究所 | 基于多生物特征的身份鉴定融合方法 |
JP2001204047A (ja) * | 2000-01-21 | 2001-07-27 | Minolta Co Ltd | 3次元入力装置 |
CA2306515A1 (en) * | 2000-04-25 | 2001-10-25 | Inspeck Inc. | Internet stereo vision, 3d digitizing, and motion capture camera |
DE60121402T2 (de) * | 2000-10-13 | 2007-02-22 | Lg Electronics Inc. | Gerät zum automatischen Stellen des Winkels eines Bildaufnahmegeräts |
US6678057B2 (en) * | 2001-12-19 | 2004-01-13 | General Electric Company | Method and device for reduction in noise in images from shiny parts |
JP2003270719A (ja) * | 2002-03-13 | 2003-09-25 | Osaka Industrial Promotion Organization | 投影方法、投影装置、作業支援方法及び作業支援システム |
US7774075B2 (en) * | 2002-11-06 | 2010-08-10 | Lin Julius J Y | Audio-visual three-dimensional input/output |
GB2395261A (en) * | 2002-11-11 | 2004-05-19 | Qinetiq Ltd | Ranging apparatus |
US7103212B2 (en) | 2002-11-22 | 2006-09-05 | Strider Labs, Inc. | Acquisition of three-dimensional images by an active stereo technique using locally unique patterns |
JP2004318823A (ja) * | 2003-03-28 | 2004-11-11 | Seiko Epson Corp | 情報表示システム、情報処理装置、ポインティング装置および情報表示システムにおけるポインタマーク表示方法 |
SE528068C2 (sv) * | 2004-08-19 | 2006-08-22 | Jan Erik Solem Med Jsolutions | Igenkänning av 3D föremål |
US7268893B2 (en) * | 2004-11-12 | 2007-09-11 | The Boeing Company | Optical projection system |
US7701592B2 (en) * | 2004-12-17 | 2010-04-20 | The Boeing Company | Method and apparatus for combining a targetless optical measurement function and optical projection of information |
US20060206724A1 (en) * | 2005-02-16 | 2006-09-14 | David Schaufele | Biometric-based systems and methods for identity verification |
JP2007048232A (ja) * | 2005-08-12 | 2007-02-22 | Fuji Xerox Co Ltd | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
JP4826234B2 (ja) * | 2005-11-30 | 2011-11-30 | オムロン株式会社 | 顔認証装置、セキュリティ強度変更方法およびプログラム |
CN101957994B (zh) * | 2006-03-14 | 2014-03-19 | 普莱姆传感有限公司 | 三维传感的深度变化光场 |
JP2007256116A (ja) * | 2006-03-23 | 2007-10-04 | Brother Ind Ltd | 3次元形状検出装置 |
US8295542B2 (en) * | 2007-01-12 | 2012-10-23 | International Business Machines Corporation | Adjusting a consumer experience based on a 3D captured image stream of a consumer response |
-
2007
- 2007-10-05 US US11/868,352 patent/US8488129B2/en active Active
-
2008
- 2008-10-02 JP JP2010528136A patent/JP2010540970A/ja active Pending
- 2008-10-02 WO PCT/US2008/078623 patent/WO2009046218A2/en active Application Filing
- 2008-10-02 KR KR1020107009979A patent/KR20100074254A/ko not_active Application Discontinuation
- 2008-10-02 EP EP08836503.6A patent/EP2208186B8/en active Active
- 2008-10-02 RU RU2010117657/08A patent/RU2502136C2/ru active
- 2008-10-02 MX MX2010003691A patent/MX2010003691A/es active IP Right Grant
- 2008-10-02 AU AU2008308677A patent/AU2008308677A1/en not_active Abandoned
- 2008-10-02 PL PL08836503T patent/PL2208186T3/pl unknown
- 2008-10-02 CN CN2008801192675A patent/CN102027317B/zh active Active
- 2008-10-02 ES ES08836503T patent/ES2824825T3/es active Active
-
2012
- 2012-10-10 AU AU2012238301A patent/AU2012238301A1/en not_active Abandoned
-
2013
- 2013-12-26 JP JP2013268323A patent/JP2014089203A/ja not_active Withdrawn
-
2016
- 2016-12-20 AU AU2016277593A patent/AU2016277593B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2106070C1 (ru) * | 1993-07-23 | 1998-02-27 | ЛТД ГмбХ энд Ко. Лейзер-Дисплей-Технологи КГ | Проекционная система для проецирования цветного видеоизображения и относящаяся к ней преобразующая оптика |
EP1524656B1 (en) * | 2003-10-16 | 2009-09-16 | Ricoh Company, Ltd. | Optical information recording medium and method for producing the same |
WO2007105215A2 (en) * | 2006-03-14 | 2007-09-20 | Prime Sense Ltd. | Depth-varying light fields for three dimensional sensing |
Also Published As
Publication number | Publication date |
---|---|
US20090091581A1 (en) | 2009-04-09 |
PL2208186T3 (pl) | 2021-02-08 |
CN102027317B (zh) | 2013-05-01 |
JP2010540970A (ja) | 2010-12-24 |
AU2012238301A1 (en) | 2012-11-01 |
AU2016277593A1 (en) | 2017-01-12 |
WO2009046218A3 (en) | 2009-05-22 |
KR20100074254A (ko) | 2010-07-01 |
US8488129B2 (en) | 2013-07-16 |
AU2016277593B2 (en) | 2018-08-09 |
RU2010117657A (ru) | 2011-11-10 |
EP2208186B1 (en) | 2020-07-22 |
EP2208186A4 (en) | 2016-05-11 |
AU2008308677A1 (en) | 2009-04-09 |
EP2208186A2 (en) | 2010-07-21 |
JP2014089203A (ja) | 2014-05-15 |
EP2208186B8 (en) | 2020-09-02 |
CN102027317A (zh) | 2011-04-20 |
MX2010003691A (es) | 2010-08-03 |
WO2009046218A2 (en) | 2009-04-09 |
ES2824825T3 (es) | 2021-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2502136C2 (ru) | Комбинированная система захвата объекта и отображающее устройство и связанный способ | |
US9536127B2 (en) | Apparatus and method for contactless high resolution handprint capture | |
US10083522B2 (en) | Image based measurement system | |
RU2521725C2 (ru) | Система и способ трехмерного измерения формы материальных объектов | |
US10134120B2 (en) | Image-stitching for dimensioning | |
US9063283B2 (en) | Pattern generation using a diffraction pattern that is a spatial fourier transform of a random pattern | |
US20140037135A1 (en) | Context-driven adjustment of camera parameters | |
US11725928B2 (en) | Handheld three-dimensional coordinate measuring device operatively coupled to a mobile computing device | |
CA2857714C (en) | Apparatus and method for image super-resolution using integral shifting optics | |
US20150369593A1 (en) | Orthographic image capture system | |
GB2531928A (en) | Image-stitching for dimensioning | |
JP2013061552A (ja) | プロジェクタ装置および操作検出方法 | |
KR20180121259A (ko) | 카메라 탑재형 컴퓨터의 거리검출장치 및 그 방법 | |
JP4870651B2 (ja) | 情報入力システムおよび情報入力方法 | |
US10403002B2 (en) | Method and system for transforming between physical images and virtual images | |
CN117528209A (zh) | 摄像模组、电子设备、对焦方法、装置及可读存储介质 |