RU2502136C2 - Комбинированная система захвата объекта и отображающее устройство и связанный способ - Google Patents

Комбинированная система захвата объекта и отображающее устройство и связанный способ Download PDF

Info

Publication number
RU2502136C2
RU2502136C2 RU2010117657/08A RU2010117657A RU2502136C2 RU 2502136 C2 RU2502136 C2 RU 2502136C2 RU 2010117657/08 A RU2010117657/08 A RU 2010117657/08A RU 2010117657 A RU2010117657 A RU 2010117657A RU 2502136 C2 RU2502136 C2 RU 2502136C2
Authority
RU
Russia
Prior art keywords
display device
image
computer
dimension
detection device
Prior art date
Application number
RU2010117657/08A
Other languages
English (en)
Other versions
RU2010117657A (ru
Inventor
Ян Н. ЛАПА
Original Assignee
Артек Груп, Инк.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Артек Груп, Инк. filed Critical Артек Груп, Инк.
Publication of RU2010117657A publication Critical patent/RU2010117657A/ru
Application granted granted Critical
Publication of RU2502136C2 publication Critical patent/RU2502136C2/ru

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Cash Registers Or Receiving Machines (AREA)
  • Image Processing (AREA)

Abstract

Изобретение относится к вычислительной технике, а именно к комбинированной системе захвата объекта и способу для осуществления измерения трехмерной формы материального объекта. Техническим результатом является расширение функциональных возможностей с целью определения трехмерной формы поверхности объекта, используя анализ изображения способом триангуляции. Система для трехмерного измерения формы материального объекта содержит отображающее устройство, проекционное устройство для проецирования структурированного светового шаблона на поверхность объекта, устройство обнаружения для захвата изображения поверхности объекта, вычислительной устройство. Устройство обнаружения захватывает изображение структурированного светового шаблона на поверхности объекта. Вычислительное устройство определяет измерения, которые относятся к захваченному изображению. Отображающее устройство обеспечивает положение и ориентацию объекта для соотнесения с устройством обнаружения перед захватом изображения. 2 н. и 16 з.п. ф-лы, 4 ил.

Description

Область техники
Раскрытие относится к комбинированной системе захвата объекта и отображающему устройству и связанному способу на основании трехмерных (3D) измерений и двумерных измерений объекта около отображающего устройства.
Уровень техники
Известны устройства и способы для выполнения бесконтактного измерения формы трехмерной поверхности материального объекта, такие как использование способа триангуляции структурированным светом. Способ триангуляционного измерения формы поверхности материальных объектов использует проецирование света на поверхность объекта, который является, обычно, амплитудно-модулированным, модулированным по времени и/или модулированным по длине волны (структурированный свет). Изображение структурированного света, спроецированного на поверхность объекта (здесь и далее упоминаемое как изображение), захватывается камерой в направлении, отличном от направления проецирования структурированного света. Изображение затем анализируется для вычисления формы поверхности объекта. Несколько параметров влияют на результат анализа, а именно параметры конкретной системы, которая формирует структурированный свет и сканирует изображение, форма поверхности, расстояние между поверхностью объекта и компонентами системы, ориентация объекта относительно компонентов системы. Поскольку большая часть перечисленных параметров или была известна ранее, или легко идентифицируется, за исключением формы объекта, расстояния между поверхностью объекта и компонентами системы, ориентации объекта относительно компонентов системы, то является возможным определение формы поверхности объекта с использованием анализа изображения способом триангуляции.
Сущность изобретения
В соответствии с вариантами осуществления настоящего раскрытия обеспечивается система захвата объекта, комбинированная с, интегрированная с, или по-другому присоединенная к, или по-другому расположенная вдоль устройства отображения, содержащая, по меньшей мере, одно проецирующее устройство для проецирования структурированного светового шаблона на поверхность объекта, по меньшей мере, одно устройство обнаружения, причем, по меньшей мере, одно из устройств обнаружения захватывает, по меньшей мере, одно изображение структурированного светового шаблона на поверхности объекта, и вычислительное устройство для определения измерений, относящихся к захваченному изображению.
В соответствии с вариантами осуществления настоящего раскрытия, обеспечивается способ захвата объекта около отображающего устройства, содержащий этапы, на которых проецируют, по меньшей мере, один структурированный световой шаблон из, по меньшей мере, одного проецирующего устройства на поверхность объекта, захватывают, по меньшей мере, одно изображение объекта с помощью, по меньшей мере, одного устройства обнаружения, причем, по меньшей мере, одно изображение включает в себя изображение структурированного светового шаблона на поверхности объекта, и определяют измерения, относящиеся к поверхности объекта.
В соответствии с вариантами осуществления настоящего раскрытия, отображающее устройство может обеспечивать положение и ориентацию для объекта относительно устройств проецирования и обнаружения. Поверхность объекта может находиться в положении и ориентации, возникающих во время использования отображающего устройства.
В соответствии с вариантами осуществления настоящего раскрытия, измерения, относящиеся к поверхности объекта, могут определить уровень использования отображающего устройства или компьютера, подсоединенного к отображающему устройству, или любого другого устройства, подсоединенного к отображающему устройству.
В соответствии с вариантами осуществления настоящего раскрытия, измерения, относящиеся к поверхности объекта, могут обрабатываться постоянно для определения уровня использования отображающего устройства или компьютера, подсоединенного к отображающему устройству, или любого другого устройства, подсоединенного к отображающему устройству.
Краткое описание чертежей
Описанные выше признаки и задачи настоящего раскрытия станут более понятными со ссылкой на последующее описание, взятое вместе с прилагающимися чертежами, на которых одинаковые ссылочные номера обозначают одинаковые элементы и на которых
Фиг.1 показывает вид в перспективе варианта осуществления комбинированной системы захвата объекта и отображающего устройства для захвата объекта около отображающего устройства в соответствии с одним или более вариантами осуществления настоящего раскрытия;
Фиг.2 показывает блок-схему комбинированной системы захвата объекта и отображающего устройства для захвата объекта около отображающего устройства в соответствии с одним или более вариантами осуществления настоящего раскрытия;
Фиг.3 показывает вариант осуществления комбинированной системы захвата объекта и отображающего устройства, включающего в себя настольный компьютер в соответствии с одним или более вариантами осуществления настоящего раскрытия; и
Фиг.4 показывает вариант осуществления комбинированной системы захвата объекта и отображающего устройства, включающего в себя переносной компьютер в соответствии с одним или более вариантами осуществления настоящего раскрытия.
Подробное описание
В основном, настоящее раскрытие включает в себя комбинированную систему захвата объекта и отображающее устройство для захвата изображений объектов, расположенных около отображающего устройства. А теперь будут обсуждаться конкретные варианты осуществления настоящего раскрытия со ссылкой на упомянутые выше чертежи, в которых одинаковые ссылочные номера обозначают одинаковые компоненты. Фиг.1 показывает вид в перспективе варианта осуществления комбинированной системы для захвата объекта и отображающее устройство 100 для захвата, по меньшей мере, одного изображения, сцены или видеоизображения объекта 111, расположенного около интегрированной системы захвата объекта или отображающего устройства 100 в соответствии с одним или более вариантами осуществления настоящего раскрытия. Комбинированная система захвата объекта и отображающее устройство 100 могут включать в себя систему 102 захвата объекта.
В одном или более вариантах осуществления система 102 захвата объекта является комбинированной или интегрированной с отображающим устройством 101. Несмотря на то, что система 102 захвата объекта будет упоминаться здесь как комбинированная или интегрированная с отображающим устройством 101, следует понимать, что термины «комбинированный» или «интегрированный» также должны обозначать систему 102 захвата объекта, подсоединенную или каким-либо другим образом прикрепленную к отображающему устройству с помощью постоянного или съемного крепления, или по-другому расположенную вдоль или вблизи отображающего устройства 101. В одном или более вариантах осуществления, система 102, расположенная вдоль или вблизи отображающего устройства 101, является интегрированным устройством.
Система 102 захвата объекта включает в себя, по меньшей мере, одно проекционное устройство 106, которое проецирует структурированный свет 113 на проекционную область 114. Структурированный свет 113 может быть спроецирован на поверхность 110 объекта 111 около отображающего устройства 101.
Система 102 захвата объекта дополнительно включает в себя, по меньшей мере, одно устройство 108 обнаружения, где, по меньшей мере, одно из устройств 108 обнаружения захватывает, по меньшей мере, одно изображение структурированного света 113 на поверхности 110 объекта 111. Устройство 108 обнаружения может включать в себя поле 118 зрения, которое охватывает часть поверхности 110 объекта 111. Далее будет описано, что система 102 захвата объекта захватывает изображения объекта 111, где следует понимать, что такой захват изображения может включать в себя любое количество захваченных изображений или видеоизображений, или сцен объекта 111. В одном или более вариантах осуществления вычислительное устройство 104 подсоединено к проекционному устройству 106, и устройство 108 обнаружения, такое как вычислительное устройство 104, может анализировать изображения, захваченные устройством 108 обнаружения, для выполнения требуемых вычислений, таких как, но не ограниченных ими, 3D формы поверхности 110 объекта 111, расстояния до объекта 111, ориентации захватываемой поверхности 110, 2D изображений поверхности 110 объекта 111 и распознавание объекта 111. Вычислительное устройство 104 может также управлять проекционным устройством 106 и/или устройством 108 обнаружения и их соответствующими компонентами.
В одном или более вариантах осуществления вычислительное устройство 104 может быть интегрировано с системой 102 захвата объекта, в одном или более вариантах осуществления вычислительное устройство 104 может быть отделено от системы 102 захвата объекта.
Отображающее устройство 101 может быть любым устройством, которое отображает информацию пользователю или в направлении объекта 111. Отображающее устройство 101 может включать в себя, но не ограничено ими, компьютерный монитор, жидкокристаллический дисплей (LCD), настольный компьютер, переносной компьютер, телевизор, переносной или мобильный телефон, персональный цифровой помощник, переносное вычислительное устройство, удаленный терминал, или любой тип дисплея или устройства, которое может включать в себя дисплей.
В одном или более вариантах осуществления, по меньшей мере, один компонент системы 102 захвата изображения может быть неподвижно или подвижно закреплен или интегрирован в отображающее устройство 101. Например, проецирующее устройство 106 и устройство 108 обнаружения узла 102 захвата объекта могут быть неподвижно или съемно прикреплены или интегрированы с отображающим устройством 101. В одном или более вариантах осуществления, по меньшей мере, один компонент системы 102 захвата объекта может быть расположен вдоль или вплотную к отображающему устройству 101.
В одном или более вариантах осуществления положение и ориентация объекта 111 по отношению к системе 100 захвата объекта могут быть определены на основании положения и ориентации объекта 111 по отношению к отображающему устройству 101. Отображающее устройство 101 может обеспечивать эталонное положение и/или эталонную ориентацию для положения и ориентации объекта 111. Например, объект 111 может быть расположен вплотную к части дисплея или экрана отображающего устройства 101 и ориентирован так, что поверхность 110 может быть проанализирована системой 102 захвата объекта, направленной к части отображающего устройства 101. В положении и ориентации, допускаемой по отношению к отображающему устройству 101, система 102 захвата объекта может анализировать поверхность 110 объекта 111. В одном или более вариантах осуществления система 102 захвата объекта может основывать свои вычисления на допущении, что объект 111 расположен в эталонном положении и/или эталонной ориентации.
В одном или более вариантах осуществления вычислительное устройство 104 может быть скомбинировано или интегрировано с отображающим устройством 101. В одном или более вариантах осуществления вычислительное устройство может быть отделено от отображающего устройства 101. В одном или более вариантах осуществления вычислительное устройство 104 взаимодействует с отображающим устройством так, что вычислительное устройство 104 заставляет отображающее устройство 101 обеспечивать изображение. В одном или более вариантах осуществления обеспеченное изображение представляет информацию, расположенную или сохраненную в вычислительном устройстве 104.
Вычислительное устройство 104 системы 100 захвата объекта может включать в себя компьютерную систему общего назначения, которая подходит для применения способов 3D и 2D измерений формы материальных объектов в соответствии с настоящим раскрытием. Вычислительная система 104 является только одним примером подходящей вычислительной среды и не предполагается для предложения любого ограничения объема использования или функциональности изобретения. В разных вариантах осуществления настоящая система и способ для комбинированной системы захвата объекта и отображающего устройства 100 работают со многими другими средами или конфигурациями вычислительных систем общего или специального назначения. Примеры хорошо известных вычислительных систем, сред и/или конфигураций, которые могут быть подходящими для использования с изобретением, включают в себя, но не ограничены ими, персональные компьютеры, серверные компьютеры, ручные или переносные устройства, многопроцессорные системы, системы на основе микропроцессоров, программируемую потребительскую электронику, сетевые компьютеры, миникомпьютеры, большие вычислительные машины, распределенные вычислительные среды, которые включают в себя любые вышеперечисленные системы или устройства, и им подобные.
В различных вариантах осуществления анализ, выполняемый вычислительной системой 104 с помощью алгоритмов и способов, которые будут обсуждаться более подробно, могут быть описаны в общем контексте компьютерно выполнимых инструкций, таких как программные модули, выполняемые компьютером. В основном, программные модули включают в себя процедуры, программы, объекты, компоненты, структуры данных и так далее, которые выполняют конкретные задачи или воплощают конкретные абстрактные типы данных. Эти алгоритмы и способы могут также быть использованы в распределенных вычислительных средах, где задачи выполняются удаленными процессорными устройствами, которые соединены через сеть связи в распределенной вычислительной среде, программные модули могут быть расположены как в локальных, так и в удаленных компьютерных носителях, включающих в себя устройства хранения. В одном или более вариантах осуществления вычислительная система 104 может анализировать изображение, захваченное устройством 108 обнаружения, путем выполнения одной или более компьютерных программ. Компьютерные программы могут храниться в носителе памяти или носителе хранения, таких как память и/или память только для чтения, или они могут быть доставлены до процессора через сетевое соединение или другое соединение.
Несмотря на то, что компьютер или вычислительное устройство будут упоминаться здесь как подсоединенные к или связанные с отображающим устройством 101, следует понимать, что термины «компьютер» и «вычислительное устройство» следует употреблять также и для вычислительной системы 104 или для другого устройства, подсоединенного или связанного с отображающим устройством 101.
Объект 111 может быть любым материальным объектом, способным быть захваченным с помощью системы 102 захвата объекта, включающим в себя, но не ограниченным ими, лицо пользователя отображающего устройства 101, часть тела (например, рука, ладонь, отпечаток пальца и так далее) пользователя устройства отображения 101, захватываемые опознавательные знаки и любой другой объект, который может быть идентифицирован комбинированной системой захвата объекта и отображающим устройством 100. В одном или более вариантах осуществления, в которых объект связан с пользователем отображающего устройства 101, эталонное положение и/или эталонная ориентация, обеспечиваемая отображающим устройством 101, может соответствовать положению и/или ориентации, связанной с пользователем отображающего устройства 101. Например, там, где объект 111 является лицом пользователя отображающего устройства 101, эталонное положение и/или ориентация, обеспечиваемая отображающим устройством 101, может быть положением и/или ориентацией, в которой пользователь удерживает свое лицо во время работы с отображающим устройством 101.
В одном или более вариантах осуществления объект 111 может быть захвачен системой 102 захвата объекта, и затем захваченные изображения могут быть использованы для целей идентификации на основании исторической операции комбинированной системы захвата объекта и отображающего устройства 100. Историческая операция может включать в себя фазу настройки системы 102 захвата объекта, в которой проецирующее устройство 106 проецирует структурированный свет 113 на объект 111, устройства 108 обнаружения захватывают изображения поверхности 110 объекта 111, и вычислительное устройство 104 анализирует захваченное изображение. Измерение, основанное на результате исторической операции объекта 111, может быть записано. В последующей операции системы 102 захвата объекта измерение последующей операции, сгенерированное вычислительной системой 104, может быть сравнено с измерением исторической операции. Если измерение последующей операции соответствует измерению исторической операции, то объект 111 идентифицируется как исторический объект, иначе объект 111 идентифицируется как объект, отличный от исторического объекта.
В одном или более вариантах осуществления результаты, использованные в фазе настройки, могут быть получены из внешнего источника и введены в комбинированную систему захвата изображения и отображающего устройства 100.
По меньшей мере, в одном варианте осуществления система 102 захвата объекта может быть способна взаимодействовать с отображающим устройством 101 так, что измерение, сделанное во время операции комбинированной системы захвата объекта и отображающего устройства 100, может заставлять отображающее устройство 101 выполнять функцию отображающего устройства 101. По меньшей мере, в одном варианте осуществления система 102 захвата объекта может быть способна взаимодействовать с отображающим устройством 101 так, что уровень доступа к отображающему устройству 101 или вычислительному устройству 104, или другому устройству, подсоединенному к отображающему устройству 101 или вычислительному устройству 104, может быть обеспечен на основании измерения, сделанного во время работы системы 102 захвата объекта, где объект 111 может быть идентифицирован как исторический объект, объекту 111 может быть назначен уровень доступа к отображающему устройству 101 или другому устройству, где уровень доступа связан с историческим объектом. Например, уровень доступа, связанный с историческим объектом, может быть определен во время фазы настройки системы 102 захвата объекта. Например, лицо пользователя может быть проанализировано так, что пользователь будет обеспечен безопасным доступом к вычислительной системе 104 и/или использованием отображающего устройства 101 посредством распознавания определенных характеристик пользователя, захваченных системой 102 захвата объекта.
По меньшей мере, в одном варианте осуществления уровень доступа к отображающему устройству 101 может определять, по меньшей мере, одно из изображений, которое может быть изображено на отображающем устройстве 101, доступ или использование функции, которую пользователь может выполнить на отображающем устройстве 101 или вычислительном устройстве 104, или любом другом устройстве, подсоединенном к отображающему устройству 101 или вычислительному устройству 104, и функцию, которая может быть автоматически отображена отображающим устройством 101 или выполнена вычислительным устройством 104. По меньшей мере, в одном варианте осуществления пользователь может не выполнять определенные функции отображающего устройства 101 или вычислительного устройства 104, если объект 111 не идентифицирован как исторический объект, связанный с уровнем доступа, необходимым для выполнения таких функций.
В одном или более вариантах осуществления описанные здесь измерения могут выполняться непрерывно.
Фиг.2 показывает блок-схему комбинированной системы захвата объекта и отображающего устройства 100 для захвата объекта 111 около отображающего устройства 101. В соответствии с одним или более вариантами осуществления настоящего раскрытия, комбинированная система захвата объекта и отображающее устройство 100 могут включать в себя, по меньшей мере, одно проекционное устройство 106 и, по меньшей мере, одно устройство 108 отображения. По меньшей мере, в одном варианте осуществления проекционное устройство 106 является проектором слайдов, включающим в себя источник 126 света и устройство 122 модулирования света для модулирования света, излученного источником 126 света. Устройство 122 модулирования света может быть типа проектора слайдов, включающего в себя слайд, типа жидкокристаллического дисплея, включающего в себя жидкокристаллический экран, или другое устройство для создания структурированного света 113. По меньшей мере, в одном варианте осуществления проекционное устройство 106 может включать в себя линзу 181, имеющую оптический центр 124 для проецирования изображения слайда в виде структурированного света 113 на проекционную область 114 на поверхности 110 объекта 111 около отображающего устройства 101. В соответствии с этим и другими вариантами осуществления, структурированный свет 113 может также быть сгенерирован с использованием других способов, таких как интерференция, муар и способы дифракционной генерации света.
По меньшей мере, в одном варианте осуществления проекционное устройство 106 проецирует структурированный свет 113 в диапазоне длин волн, выбранном из оптического, видимого и инфракрасного диапазонов длин волн. По меньшей мере, в одном варианте осуществления проекционное устройство 106 является непрерывным источником света. По меньшей мере, в одном варианте осуществления проекционное устройство 106 встроено в само отображающее устройство 101, где отображающее устройство 101 проецирует структурированный свет 113.
По меньшей мере, в одном варианте осуществления устройство 108 обнаружения может включать в себя фотографическую линзу 180, имеющую оптический центр 130, матричный приемник 128 излучения и привод 132. Фотографическая линза 180 формирует изображение на поверхности матричного приемника 128 излучения. Привод 132 работает как узел управления и обработки электронного сигнала, которые управляет работой матричного приемника 128 излучения, и может конвертировать изображение, захваченное матричным приемником 128 излучения в другой формат (например, VGA, bmp, jpeg и так далее) по желанию или требованию до того, как захваченное изображение передается вычислительному устройству 104. Устройство 108 обнаружения может включать в себя поле 118 зрения, которое охватывает часть поверхности 110 объекта 111. Проекционное устройство 106 может включать в себя проекционную ось 112, и устройство 108 обнаружения может включать в себя ось 116 обнаружения, так что триангуляционный угол 120 является углом между проекционной осью 112 и осью 116 обнаружения.
В соответствии с одним или более вариантами осуществления, как показано на Фиг.3, комбинированная система захвата объекта и отображающее устройство 100 могут включать в себя отображающее устройство 101, которое содержит дисплей или монитор для настольного компьютера 104.
Фиг.4 показывает вариант осуществления комбинированной системы захвата объекта и отображающее устройство 100, в котором отображающее устройство 101 является компонентом переносного компьютера 104 в соответствии с одним или более вариантами настоящего раскрытия.
Несмотря на то, что устройство и способ были описаны в терминах того, что в настоящее время считается наиболее практическими вариантами осуществления, следует понимать, что раскрытие не должно быть ограниченным раскрытыми вариантами осуществления. Оно предназначено для покрытия различных модификаций и похожих размещений, включенных в сущность и объем формулы изобретения, объем которой должен быть согласован с самой широкой интерпретацией, так чтобы захватывать все такие модификации и подобные структуры. Настоящее раскрытие включает в себя любые и все варианты осуществления следующей формулы изобретения.

Claims (18)

1. Система для 3D измерения формы материального объекта, содержащая:
отображающее устройство; и,
по меньшей мере, одно проекционное устройство для проецирования структурированного светового шаблона на поверхность объекта;
по меньшей мере, одно устройство обнаружения для захвата, по меньшей мере, одного изображения поверхности объекта, причем, по меньшей мере, одно из устройств обнаружения захватывает, по меньшей мере, одно изображение структурированного светового шаблона на поверхности объекта;
вычислительное устройство для определения измерения, относящегося к захваченному изображению,
при этом отображающее устройство обеспечивает положение и ориентацию для объекта для соотнесения с, по меньшей мере, одним устройством обнаружения перед захватом, по меньшей мере, одного изображения.
2. Система по п.1, в которой, по меньшей мере, одно проекционное устройство и, по меньшей мере, одно устройство обнаружения интегрированы с отображающим устройством.
3. Система по п.1, в которой, по меньшей мере, одно проекционное устройство и, по меньшей мере, одно устройство обнаружения отделены от отображающего устройства.
4. Система по п.1, в которой отображающее устройство является компьютерным дисплеем.
5. Система по п.1, в которой объект является лицом пользователя отображающего устройства.
6. Система по п.1, в которой упомянутое измерение определяет уровень доступа компьютера, подсоединенного к отображающему устройству.
7. Система по п.1, в которой вычислительное устройство сравнивает упомянутое измерение с, по меньшей мере, одним историческим измерением.
8. Система по п.7, в которой историческое измерение связано с заранее определенным уровнем доступа компьютера, подсоединенного к упомянутой системе.
9. Система по п.8, в которой упомянутое измерение обрабатывается периодически для определения уровня доступа компьютера, подсоединенного к упомянутой системе.
10. Способ 3D измерения формы объекта, расположенного около отображающего устройства, содержащий этапы, на которых:
проецируют структурированный световой шаблон из, по меньшей мере, одного проекционного устройства на поверхность объекта, расположенного около отображающего устройства;
захватывают, по меньшей мере, одно изображение поверхности объекта с помощью, по меньшей мере, одного устройства обнаружения, причем, по меньшей мере, одно из захваченных изображений включает в себя изображение структурированного светового шаблона на поверхности объекта, при этом отображающее устройство обеспечивает положение и ориентацию для объекта для соотнесения с, меньшей мере, одним устройством обнаружения перед захватом, по меньшей мере, одного изображения; и
определяют измерение, относящееся к поверхности объекта.
11. Способ по п.10, в котором, по меньшей мере, одно проекционное устройство и, по меньшей мере, одно устройство обнаружения являются интегрированными с отображающим устройством.
12. Способ по п.10, в котором, по меньшей мере, одно проекционное устройство и, по меньшей мере, одно отображающее устройство являются отделенными от отображающего устройства.
13. Способ по п.10, в котором отображающее устройство является компьютерным дисплеем.
14. Способ по п.10, дополнительно содержащий этап, на котором позиционируют, по меньшей мере, одно проекционное устройство и, по меньшей мере, одно устройство обнаружения для воздействия на объект, размещенный для использования отображающего устройства.
15. Способ по п.14, дополнительно содержащий этап, на котором обеспечивают уровень доступа компьютера, связанного с отображающим устройством, на основе упомянутого измерения.
16. Способ по п.15, в котором обеспечение уровня доступа компьютера, связанного с отображающим устройством, дополнительно содержит этапы, на которых:
сравнивают упомянутое измерение с, по меньшей мере, одним историческим измерением;
если упомянутое измерение соответствует историческому измерению, то разрешают использовать компьютер; и
запрещают использовать компьютер, если упомянутое измерение не соответствует историческому измерению.
17. Способ по п.16, в котором историческое измерение связано с заранее определенным уровнем доступа компьютера.
18. Способ по п.17, дополнительно содержащий этап, на котором обрабатывают упомянутое измерение периодически для определения уровня доступа компьютера.
RU2010117657/08A 2007-10-05 2008-10-02 Комбинированная система захвата объекта и отображающее устройство и связанный способ RU2502136C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/868,352 2007-10-05
US11/868,352 US8488129B2 (en) 2007-10-05 2007-10-05 Combined object capturing system and display device and associated method
PCT/US2008/078623 WO2009046218A2 (en) 2007-10-05 2008-10-02 Combined object capturing system and display device and associated method

Publications (2)

Publication Number Publication Date
RU2010117657A RU2010117657A (ru) 2011-11-10
RU2502136C2 true RU2502136C2 (ru) 2013-12-20

Family

ID=40522882

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2010117657/08A RU2502136C2 (ru) 2007-10-05 2008-10-02 Комбинированная система захвата объекта и отображающее устройство и связанный способ

Country Status (11)

Country Link
US (1) US8488129B2 (ru)
EP (1) EP2208186B8 (ru)
JP (2) JP2010540970A (ru)
KR (1) KR20100074254A (ru)
CN (1) CN102027317B (ru)
AU (3) AU2008308677A1 (ru)
ES (1) ES2824825T3 (ru)
MX (1) MX2010003691A (ru)
PL (1) PL2208186T3 (ru)
RU (1) RU2502136C2 (ru)
WO (1) WO2009046218A2 (ru)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009511163A (ja) 2005-10-14 2009-03-19 アプライド リサーチ アソシエイツ エヌゼット リミテッド 表面特徴を観察する方法とその装置
US8427424B2 (en) 2008-09-30 2013-04-23 Microsoft Corporation Using physical objects in conjunction with an interactive surface
US8730309B2 (en) 2010-02-23 2014-05-20 Microsoft Corporation Projectors and depth cameras for deviceless augmented reality and interaction
US9329469B2 (en) 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
US9480907B2 (en) 2011-03-02 2016-11-01 Microsoft Technology Licensing, Llc Immersive display with peripheral illusions
US20120223885A1 (en) * 2011-03-02 2012-09-06 Microsoft Corporation Immersive display experience
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
KR101268515B1 (ko) * 2011-07-22 2013-06-04 경북대학교 산학협력단 3차원 스캔 장치 및 3차원 형상 복원 방법
US9179844B2 (en) 2011-11-28 2015-11-10 Aranz Healthcare Limited Handheld skin measuring or monitoring device
US20150077518A1 (en) * 2012-06-26 2015-03-19 Siemens Aktiengesellschaft Apparatus for mobile pattern projection
US10979249B1 (en) * 2014-03-02 2021-04-13 Twitter, Inc. Event-based content presentation using a social media platform
JP6516453B2 (ja) * 2014-11-26 2019-05-22 株式会社ミツトヨ 画像測定装置及び測定装置
CN109196303B (zh) 2016-04-01 2020-10-23 乐高公司 玩具扫描仪
US10013527B2 (en) 2016-05-02 2018-07-03 Aranz Healthcare Limited Automatically assessing an anatomical surface feature and securely managing information related to the same
US11116407B2 (en) 2016-11-17 2021-09-14 Aranz Healthcare Limited Anatomical surface assessment methods, devices and systems
LU100021B1 (en) 2017-01-13 2018-07-30 Adapttech Ltd Socket fitting system
EP3606410B1 (en) 2017-04-04 2022-11-02 Aranz Healthcare Limited Anatomical surface assessment methods, devices and systems
JP7216672B2 (ja) * 2017-07-12 2023-02-01 ジェンテックス コーポレイション 統合撮像装置を使用しての視覚的データ、深さデータ、および微小振動データの抽出
US10565718B2 (en) 2018-04-18 2020-02-18 Faro Technologies, Inc. System and method of scanning an environment
KR102668245B1 (ko) * 2018-10-29 2024-05-23 삼성전자주식회사 3차원 깊이 측정 장치 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2106070C1 (ru) * 1993-07-23 1998-02-27 ЛТД ГмбХ энд Ко. Лейзер-Дисплей-Технологи КГ Проекционная система для проецирования цветного видеоизображения и относящаяся к ней преобразующая оптика
WO2007105215A2 (en) * 2006-03-14 2007-09-20 Prime Sense Ltd. Depth-varying light fields for three dimensional sensing
EP1524656B1 (en) * 2003-10-16 2009-09-16 Ricoh Company, Ltd. Optical information recording medium and method for producing the same

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4449189A (en) * 1981-11-20 1984-05-15 Siemens Corporation Personal access control system using speech and face recognition
US7209221B2 (en) * 1994-05-23 2007-04-24 Automotive Technologies International, Inc. Method for obtaining and displaying information about objects in a vehicular blind spot
US6064759A (en) * 1996-11-08 2000-05-16 Buckley; B. Shawn Computer aided inspection machine
DE19712844A1 (de) * 1997-03-26 1998-10-08 Siemens Ag Verfahren zur dreidimensionalen Identifizierung von Objekten
US7006132B2 (en) * 1998-02-25 2006-02-28 California Institute Of Technology Aperture coded camera for three dimensional imaging
US6252623B1 (en) 1998-05-15 2001-06-26 3Dmetrics, Incorporated Three dimensional imaging system
CA2267519A1 (en) 1999-04-13 2000-10-13 Inspeck Inc. Optical full human body 3d digitizer
JP2001012922A (ja) * 1999-06-29 2001-01-19 Minolta Co Ltd 3次元データ処理装置
US6341016B1 (en) 1999-08-06 2002-01-22 Michael Malione Method and apparatus for measuring three-dimensional shape of object
CN1304114A (zh) * 1999-12-13 2001-07-18 中国科学院自动化研究所 基于多生物特征的身份鉴定融合方法
JP2001204047A (ja) * 2000-01-21 2001-07-27 Minolta Co Ltd 3次元入力装置
CA2306515A1 (en) * 2000-04-25 2001-10-25 Inspeck Inc. Internet stereo vision, 3d digitizing, and motion capture camera
DE60121402T2 (de) * 2000-10-13 2007-02-22 Lg Electronics Inc. Gerät zum automatischen Stellen des Winkels eines Bildaufnahmegeräts
US6678057B2 (en) * 2001-12-19 2004-01-13 General Electric Company Method and device for reduction in noise in images from shiny parts
JP2003270719A (ja) * 2002-03-13 2003-09-25 Osaka Industrial Promotion Organization 投影方法、投影装置、作業支援方法及び作業支援システム
US7774075B2 (en) * 2002-11-06 2010-08-10 Lin Julius J Y Audio-visual three-dimensional input/output
GB2395261A (en) * 2002-11-11 2004-05-19 Qinetiq Ltd Ranging apparatus
US7103212B2 (en) 2002-11-22 2006-09-05 Strider Labs, Inc. Acquisition of three-dimensional images by an active stereo technique using locally unique patterns
JP2004318823A (ja) * 2003-03-28 2004-11-11 Seiko Epson Corp 情報表示システム、情報処理装置、ポインティング装置および情報表示システムにおけるポインタマーク表示方法
SE528068C2 (sv) * 2004-08-19 2006-08-22 Jan Erik Solem Med Jsolutions Igenkänning av 3D föremål
US7268893B2 (en) * 2004-11-12 2007-09-11 The Boeing Company Optical projection system
US7701592B2 (en) * 2004-12-17 2010-04-20 The Boeing Company Method and apparatus for combining a targetless optical measurement function and optical projection of information
US20060206724A1 (en) * 2005-02-16 2006-09-14 David Schaufele Biometric-based systems and methods for identity verification
JP2007048232A (ja) * 2005-08-12 2007-02-22 Fuji Xerox Co Ltd 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP4826234B2 (ja) * 2005-11-30 2011-11-30 オムロン株式会社 顔認証装置、セキュリティ強度変更方法およびプログラム
CN101957994B (zh) * 2006-03-14 2014-03-19 普莱姆传感有限公司 三维传感的深度变化光场
JP2007256116A (ja) * 2006-03-23 2007-10-04 Brother Ind Ltd 3次元形状検出装置
US8295542B2 (en) * 2007-01-12 2012-10-23 International Business Machines Corporation Adjusting a consumer experience based on a 3D captured image stream of a consumer response

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2106070C1 (ru) * 1993-07-23 1998-02-27 ЛТД ГмбХ энд Ко. Лейзер-Дисплей-Технологи КГ Проекционная система для проецирования цветного видеоизображения и относящаяся к ней преобразующая оптика
EP1524656B1 (en) * 2003-10-16 2009-09-16 Ricoh Company, Ltd. Optical information recording medium and method for producing the same
WO2007105215A2 (en) * 2006-03-14 2007-09-20 Prime Sense Ltd. Depth-varying light fields for three dimensional sensing

Also Published As

Publication number Publication date
US20090091581A1 (en) 2009-04-09
PL2208186T3 (pl) 2021-02-08
CN102027317B (zh) 2013-05-01
JP2010540970A (ja) 2010-12-24
AU2012238301A1 (en) 2012-11-01
AU2016277593A1 (en) 2017-01-12
WO2009046218A3 (en) 2009-05-22
KR20100074254A (ko) 2010-07-01
US8488129B2 (en) 2013-07-16
AU2016277593B2 (en) 2018-08-09
RU2010117657A (ru) 2011-11-10
EP2208186B1 (en) 2020-07-22
EP2208186A4 (en) 2016-05-11
AU2008308677A1 (en) 2009-04-09
EP2208186A2 (en) 2010-07-21
JP2014089203A (ja) 2014-05-15
EP2208186B8 (en) 2020-09-02
CN102027317A (zh) 2011-04-20
MX2010003691A (es) 2010-08-03
WO2009046218A2 (en) 2009-04-09
ES2824825T3 (es) 2021-05-13

Similar Documents

Publication Publication Date Title
RU2502136C2 (ru) Комбинированная система захвата объекта и отображающее устройство и связанный способ
US9536127B2 (en) Apparatus and method for contactless high resolution handprint capture
US10083522B2 (en) Image based measurement system
RU2521725C2 (ru) Система и способ трехмерного измерения формы материальных объектов
US10134120B2 (en) Image-stitching for dimensioning
US9063283B2 (en) Pattern generation using a diffraction pattern that is a spatial fourier transform of a random pattern
US20140037135A1 (en) Context-driven adjustment of camera parameters
US11725928B2 (en) Handheld three-dimensional coordinate measuring device operatively coupled to a mobile computing device
CA2857714C (en) Apparatus and method for image super-resolution using integral shifting optics
US20150369593A1 (en) Orthographic image capture system
GB2531928A (en) Image-stitching for dimensioning
JP2013061552A (ja) プロジェクタ装置および操作検出方法
KR20180121259A (ko) 카메라 탑재형 컴퓨터의 거리검출장치 및 그 방법
JP4870651B2 (ja) 情報入力システムおよび情報入力方法
US10403002B2 (en) Method and system for transforming between physical images and virtual images
CN117528209A (zh) 摄像模组、电子设备、对焦方法、装置及可读存储介质