RU2556417C2 - Распознавание телодвижений с использованием цифровой цветовой рирпроекции - Google Patents
Распознавание телодвижений с использованием цифровой цветовой рирпроекции Download PDFInfo
- Publication number
- RU2556417C2 RU2556417C2 RU2012102412/08A RU2012102412A RU2556417C2 RU 2556417 C2 RU2556417 C2 RU 2556417C2 RU 2012102412/08 A RU2012102412/08 A RU 2012102412/08A RU 2012102412 A RU2012102412 A RU 2012102412A RU 2556417 C2 RU2556417 C2 RU 2556417C2
- Authority
- RU
- Russia
- Prior art keywords
- color
- background
- colors
- image
- distribution
- Prior art date
Links
- 239000003086 colorant Substances 0.000 claims abstract description 37
- 238000009826 distribution Methods 0.000 claims abstract description 34
- 238000012545 processing Methods 0.000 claims abstract description 29
- 238000000034 method Methods 0.000 claims description 28
- 238000011156 evaluation Methods 0.000 claims description 6
- 230000009471 action Effects 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 claims description 2
- 238000009825 accumulation Methods 0.000 claims 3
- 230000015572 biosynthetic process Effects 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 2
- 239000000126 substance Substances 0.000 abstract 1
- 210000001364 upper extremity Anatomy 0.000 description 11
- 238000012549 training Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000007659 motor function Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 206010048245 Yellow skin Diseases 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 230000003631 expected effect Effects 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Изобретение относится к области обработки изображения для анализа объекта. Технический результат - повышение точности и стабильности анализа объекта. Система для анализа объекта содержит фоновый узел, расположенный позади объекта для обеспечения фона для объекта, причем цвет фонового узла может быть выбран из любого набора цветов; контроллер, выполненный с возможностью автоматического определения распределения цвета объекта; определения цвета из набора цветов для фона на основании определенного распределения цвета объекта, при этом указанный цвет отличается от цвета объекта; и установления цвета фона в указанном цвете; камеру, выполненную с возможностью получения изображения, включающего объект и фон, установленный в указанном цвете; и узел обработки, выполненный с возможностью определения по меньшей мере одного признака, относящегося к объекту, в соответствие с изображением, полученным камерой. 3 н. и 17 з.п. ф-лы, 6 ил.
Description
2420-182479RU/015
Область техники, к которой относится изобретение
Настоящее изобретение относится к методике обработки изображения и, в частности, к использованию методики обработки изображения для анализа объекта.
Уровень техники
Устройство для распознавания объектов, таких как формы кисти человека, с использованием методик обработки изображения, хорошо известно в данной области, и существуют системы предшествующего уровня техники, которые нацелены на распознавание, например, различных движений кисти руки путем использования камер и электронного устройства обработки. В таких системах предшествующего уровня техники изображения объектов обычно запечатлевают перед сложным фоном или фоном фиксированного цвета. Однако различные объекты могут иметь различные цвета (например, вследствие различных цветов кожи). Если цвет объекта близок к цвету фона, то в системах предшествующего уровня техники трудно обеспечить точное и стабильное распознавание. Ввиду этого, данные системы предшествующего уровня техники имеют ограниченное применение в областях, где требуется высокая точность и хорошая стабильность.
Поэтому, необходимо обеспечить методику определения и анализа объекта, такого как кисти рук людей, с высокой точностью и хорошей стабильностью.
Раскрытие изобретения
Было бы предпочтительно разработать методику определения и анализа различных объектов, в частности объектов различных цветов, с высокой точностью и хорошей стабильностью.
В соответствии с изобретением фон располагается позади подлежащего анализу объекта, причем цвет фона следует установить так, чтобы он отличался от цвета объекта. Таким образом, после получения изображения объекта и фона, на изображении легко различить часть, относящуюся к объекту, от части, относящейся к фону. Это приводит к стабильному распознаванию различных объектов, в частности объектов различного цвета.
В соответствии с одним аспектом настоящее изобретение относится к способу и системе для анализа объекта.
Система содержит:
фон, расположенный позади объекта, причем цвет фона может быть выбран из любого цвета из набора цветов;
первый узел для установки цвета фона так, чтобы указанный цвет отличался от цвета объекта;
второй узел для получения изображения, включающего в себя объект и фон; и
третий узел для определения, по меньшей мере, одного признака, относящегося к объекту, в соответствии с изображением, полученным указанным вторым узлом.
Преимущество такой системы и способа состоит в том, что: очень легко отличить передний план (т.е., часть, относящуюся к объекту) от фона на полученных изображениях, поскольку цвет фона значительно отличается от цвета объекта. Кроме того, в такой системе цвет фона может быть установлен в соответствии с цветом объекта. Таким образом, даже если цвет объекта варьируется ввиду того, что объект заменяется другим объектом, система все же способна надежно определять признаки, относящиеся к объекту, в соответствии с полученными изображениями.
Предпочтительно, цвет, выбранный для фона, отличается от цвета объекта с точки зрения интенсивности цвета, яркости или обеих этих характеристик. Такая система, в зависимости от требований, может в качестве второго узла иметь или недорогую монохромную камеру, или цветную камеру.
Предпочтительно, цвет, установленный для фона, может определяться первым модулем в первом узле. В одном примере, первый модуль может выбирать в качестве цвета фона цвет по умолчанию (например, зеленый). В другом примере цвет фона может определяться на основании информации, вводимой пользователем, причем информация, вводимая пользователем, указывает цвет фона, который хочет выбрать пользователь. С такой системой может быть очень просто и легко работать. В еще одном примере цвет фона может определяться в соответствии с определенным распределением цвета объекта и информацией, вводимой пользователем. Такая система может помочь пациенту или пользователю выбрать наиболее подходящий цвет в качестве цвета фона с тем, чтобы достичь более точного анализа объекта.
Предпочтительно, распределение цвета объекта может автоматически определяться путем выполнения следующих этапов:
последовательного выбора поднабора цветов для фона с целью создания набора фонов различных цветов;
получения для каждого фона из указанного набора фонов, по меньшей мере, одного изображения, включающего в себя объект и фон;
определения распределения цвета объекта на основании статистического анализа изображений, полученных для указанного набора фонов.
Такая система может автоматически определять распределение цвета объекта с тем, чтобы без вмешательства пользователя мог быть точно определен наиболее подходящий цвет фона.
В предпочтительном варианте осуществления объект может представлять собой часть тела (такую как кисть руки человека), и система дополнительно содержит четвертый узел для распознавания движения части тела на основании указанного, по меньшей мере, одного признака, определенного третьим узлом. Например, определенный признак может представлять собой силуэт части тела. Такая система может точно и стабильно определять движение части тела для дальнейшего анализа.
Кроме того, указанная выше система может использоваться в качестве системы реабилитации, и объект представляет собой часть тела пациента (например, верхнюю конечность и кисть руки). Система реабилитации дополнительно оценивает, правильно ли распознанное движение части тела, а затем осуществляет обратную связь для мотивации пациента через аудио и/или видеосигналы. Таким образом, такая система может представлять собой систему реабилитации в домашних условиях для содействия автоматическому выполнению пациентом повторного обучения тренировкам двигательных функций в порядке самопомощи.
В соответствии с другим аспектом настоящее изобретение относится к устройству для содействия анализу объекта, причем устройство содержит:
фон, предназначенный для расположения позади объекта, причем возможен выбор цвета фона из любого из разнообразных цветов;
первый узел для конфигурации цвета для фона так, чтобы данный цвет отличался от цвета объекта.
Такое устройство может работать совместно с камерой и вычислительным устройством для создания системы реабилитации, как указано выше.
Данные и другие аспекты изобретения станут очевидными и более ясными при ссылке на описанные ниже варианты осуществления.
Краткое описание чертежей
Далее настоящее изобретение будет более детально описано и объяснено посредством вариантов осуществления и со ссылкой на чертежи, на которых:
фиг.1 представляет собой схематическое изображение системы для анализа объекта в соответствии с одним вариантом осуществления настоящего изобретения;
фиг.2 представляет собой схему последовательности операций процедуры функционирования системы, изображенной на фиг.1;
фиг.3 представляет собой схему контроллера, показанного на фиг.1;
фиг.4 представляет собой схему последовательности операций автоматического определения распределения цвета объекта в соответствии с одним вариантом осуществления настоящего изобретения;
фиг.5 представляет собой схему последовательности операций процедуры функционирования реабилитационной системы в соответствии с одним вариантом осуществления настоящего изобретения;
фиг.6 представляет собой схематическое изображение силуэтов, полученных в соответствии с одним вариантом осуществления настоящего изобретения.
Одинаковые обозначения на чертежах указывают одинаковые или соответствующие признаки и/или функциональные элементы.
Осуществление изобретения
Далее вариант осуществления настоящего изобретения будет детально описан со ссылкой на чертежи.
Заявитель настоящего изобретения обнаружил, что было бы полезно, если бы цвет фона, который расположен позади подлежащего анализу объекта, мог быть установлен так, чтобы отличаться от цвета объекта. Поскольку имеется большое различие цвета между объектом и фоном, то легко отличить часть изображения, относящуюся к объекту, от фона.
На фиг.1 иллюстрируется пример системы 10 для анализа объекта в соответствии с описанным выше замыслом. Система 10 может представлять собой систему распознавания движений руки или т.п. Как показано на фиг.1, система 10 включает в себя фон 110, контроллер 120 (первый узел), камеру 130 (второй узел) и узел 140 обработки, причем узел 140 обработки включает в себя, например, узел 141 определения (третий узел) и другие возможные функциональные узлы 142 и 143 (которые будут описаны далее в настоящем документе).
Как показано на фиг.1, подлежащий анализу объект 150, такой как рука человека, помещается между фоном 110 и камерой 130. В данном случае, и положение, и высота фона 110 могут, при желании, например, регулироваться для соответствия различным пользователям. Камера 130 получает изображения, включающие в себя объект 150 и фон 110. Камера 130 может представлять собой цифровую камеру или цифровую видеокамеру. Камера 130 соединена с узлом 140 обработки посредством проводного или беспроводного соединения с тем, чтобы полученное изображение можно было передать из камеры 130 в узел 140 обработки для анализа. Узел 140 обработки может представлять собой переносной компьютер, PDA (персональное цифровое электронное вспомогательное устройство), сотовый телефон или любое другое электронное устройство, способное обрабатывать изображение. Узел 140 обработки обрабатывает полученные изображения для определения, по меньшей мере, одного признака, относящегося к объекту 150. Признаки объекта включают в себя положение, размер, очертание или любые другие признаки, которые могут быть определены из изображений.
В варианте осуществления, показанном на фиг.1, цвет фона 110 может быть выбран из любого из разнообразных цветов. Например, фон 110 может представлять собой плату из LED (светоизлучающих устройств), в которую вмонтированы множественные LED. Цвет платы из LED может быть любым из 100 различных цветов с величинами модели R.G.B (красный, зеленый, синий), постепенно увеличивающихся или уменьшающихся. Однако настоящее изобретение не ограничивается этим; если требуется, могут определяться число и типы цветов фона. Фон 110 не ограничивается только платой (световым щитом) из LED, а может представлять собой щит с регулируемым температурой меняющимся цветом или т.п. Кроме цвета фона, текстура фона может также выбираться или изменяться в соответствии предпочтением пользователя с тем, чтобы пользователь был обеспечен удобным интерфейсом.
На фиг.1 контроллер 120 соединен с фоном 110 для выбора данного цвета для фона, причем данный цвет отличается от цвета объекта. Контроллер 120 может функционировать как отдельный узел, такой как узел дистанционного управления, или может быть интегрирован или в фон (если это просто), или в узел 140 обработки. Данный цвет, выбранный для фона, может отличаться от цвета объекта с точки зрения интенсивности цвета, яркости или обеих этих характеристик. Например, цвет может быть представлен форматом YUV или RGB. В формате YUV Y представляет яркость, а U и V представляют интенсивность цвета. При учете только интенсивности цвета объекта (цвет кожи), где U составляет 80-100, а V составляет 120-140, данный цвет для фона будет далек от диапазона цвета объекта, например и U, и V данного цвета составляют примерно 230. Таким образом, имеется большое различие цвета между цветом объекта и цветом фона. Это различие цвета поможет определить признаки (такие как силуэт) в отношении объекта изображения, полученного камерой 130.
На фиг.2 показана иллюстративная процедура функционирования системы 10. Как показано на фиг.2, на этапе S210 запускается система 10 и объект 150 (например, рука человека) помещается перед фоном 110. На этапе S220 контроллер 120 устанавливает цвет фона на данный цвет путем подачи управляющего сигнала на фон 110. Данный цвет совершенно отличен от цвета объекта. Например, данный цвет может представлять собой цвет по умолчанию, например зеленый, который очевидно отличается от цвета кожи людей с желтым цветом кожи. Примеры контроллера 120 будут описаны ниже в связи с фиг.3 и 4. На этапе S230 камера 130 получает, по меньшей мере, одно изображение, включающее в себя объект 150 и сконфигурированный фон 110. Затем полученное изображение переносится в узел 140 обработки. Камера 130 получает изображения в соответствии с командой от узла обработки информации или контроллера, или получает изображения непрерывно. На этапе S240 узел 141 определения в узле 140 обработки выполняет обработку принятых изображений для определения, по меньшей мере, одного признака, относящегося к объекту. Поскольку цвет фона значительно отличается от цвета объекта, узлу 141 определения легко сегментировать часть объекта из полученного изображения с использованием известных методик. Например, сегментация может выполняться с использованием автоматически определяемой пороговой величины. В узле 141 определения сегментированная часть объекта может далее обрабатываться для определения признаков, относящихся к объекту, таких как положение, размер и силуэт объекта, с целью дальнейшего анализа (такого как распознавание). Иллюстративная процедура определения признаков будет детально описана ниже в связи с фиг.5.
На фиг.1 контроллер 120 может быть реализован различными способами. На фиг.3 показаны некоторые примеры контроллера 120.
Как показано на фиг.3, контроллер 120 включает в себя первый модуль 310 для определения данного цвета для фона 110. Например, как указано выше, во время запуска первый модуль может выбрать цвет по умолчанию (например, зеленый) в качестве данного цвета для фона и установить указанный цвет фона 110.
Кроме того, как показано на фиг.3, контроллер 120 дополнительно включает в себя пользовательский интерфейс 320 для приема информации, вводимой пользователем. Вводимая пользователем информация прямо указывает цвет фона, который пользователь желает выбрать. В данном случае, первый модуль 310 определяет цвет, который вводимая пользователем информация указывает в качестве данного цвета. Это простой путь, поскольку пользователь может субъективно выбрать цвет для фона, который в большинстве случаев отличается от цвета объекта.
В другом примере, контроллер 120 дополнительно включает в себя второй модуль 330 для определения распределения цвета объекта 150. В данном примере информация, вводимая пользователем из пользовательского интерфейса 320, указывает цвет объекта (например, цвет кожи и/или цвет рукава). На основании информации, вводимой пользователем, второй модуль 330 генерирует распределение цвета объекта 150, и данный цвет определяется на основании распределения цвета в первом модуле 310. Например, данный цвет может представлять собой один из 100 различных цветов, имеющих цветовые различия от цвета кожи и цвета рукава большие, чем пороговая величина. И чем больше цветовое различие между данным цветом и каждым компонентом в распределении цвета объекта, тем лучше ожидаемый эффект.
В еще одном примере контроллер 120 может только включать в себя первый модуль 310 и второй модуль 330. В данном примере второй модуль 330 автоматически определяет распределение цвета объекта 150. Данный способ больше подходит к ситуации со сложными цветами объекта. Примерная процедура обработки показана на фиг.4.
Как показано на фиг.4, процедура начинается с этапа S410. На этапе S410 фон 110 сконфигурирован так, чтобы последовательно представлять набор цветов (например, 100 различных цветов или поднабор указанных цветов) для создания набора фонов различных цветов. Этап S410 может выполняться вторым модулем 330 или первым модулем 310 под управлением второго модуля. На этапе S420 для каждого из фонов различных цветов камера 130 получает (снимает), по меньшей мере, одно изображение, включающее в себя объект 150 и фон, под управлением второго модуля с тем, чтобы был получен набор изображений различных цветов фонов. На этапе S430 набор изображений передается во второй модуль 330 непосредственно или через узел 140 обработки. На этапе S440 набор изображений анализируется статистически для определения распределения цвета объекта.
В одном примере, на этапе S440, распределение R, G, B для каждого изображения из набора изображений рассчитывается посредством гистограммы. В данном случае распределение цвета объекта 150 может достигаться сравнением рассчитанных распределений, поскольку он всегда имеет такое же или подобное распределение. В более простом примере полученные изображения накапливаются вместе в параметрах R, G, B. Поскольку цвет фона указанных изображений изменяется в пределах большого диапазона, в то время как их относящаяся к объекту часть остается неизменной, на гистограмме имеется область пика накопленных кадров, которая очевидно выше, чем другие области, и область пика соответствует цветовому диапазону части, относящейся к объекту, т.е. распределению цвета объекта. После выявления распределения цвета объекта данный цвет для фона может быть определен как цвет, который имеет максимальное цветовое различие от центра или пика распределения цвета объекта.
Фиг.1-4 иллюстрируют некоторые варианты осуществления системы 10. Система 10 может использоваться в различных применениях, например, как система для распознавания движений руки. В системе распознавания узел обработки дополнительно включает в себя узел 142 распознавания для распознавания движения руки пользователя на основании признаков, определенных узлом 141 определения. Система 10 может дополнительно применяться в других системах, таких как системы классификации изделий или т.п.
На фиг.5 показан вариант осуществления, в котором система 10, показанная на фиг.1, используется в качестве реабилитационной системы. Реабилитационная система представляет собой систему, помогающую пациентам, у которых имеется нарушение двигательной функции, восстановить их утраченные функции. Реабилитационные системы предшествующего уровня техники включают в себя систему электрической стимуляции (FES), робототехнику и т.д. Но такие реабилитационные системы являются дорогостоящими и сложными, что ограничивает их применение в домашних условиях. Поэтому данный вариант осуществления относится к дешевой, используемой в домашних условиях реабилитационной системе для использования пациентами с целью повторного обучения тренировкам двигательных функций в порядке самопомощи, например для верхних конечностей и рук.
В данном варианте осуществления система 10, показанная на фиг.1, функционирует как реабилитационная система. В реабилитационной системе узел 140 обработки дополнительно включает в себя узел инструктирования (не показан) для подачи пациенту посредством аудио или видеосигналов команд на выполнение определенного действия. Кроме того, узел 140 обработки дополнительно включает в себя узел 142 распознавания, как указано выше, и узел 143 оценки. Узел 143 оценки производит оценку того, правильно ли распознано движение посредством узла 142, и возвращает сигнал обратной связи для мотивации пациента. Кроме того, узел 140 обработки дополнительно включает в себя дисплей для показа изображений, полученных в реальном масштабе времени.
Фиг.5 иллюстрирует пример процедуры функционирования реабилитационной системы. Как показано на фиг.5, на этапе S510 пациенту предлагается поместить его верхнюю конечность и руку, в качестве объекта 150, между фоном 110 и камерой 130 и выполнить определенное действие (например, сжать кисть в кулак), когда его об этом попросят. На этапе S520, в соответствии с процедурой, показанной на фиг.2-4, цвет фона выбирается так, чтобы он отличался, например, от цвета кожи и цвета рукава пациента. На этапе S530, таким же образом, как показано на фиг.2, камера 130 получает (снимает) изображение, включающее в себя верхнюю конечность и руку пациента, а также фон с тем, чтобы запечатлеть положение верхней конечности и руки. На этапе S540 изображение передается в узел 141 определения в узле 140 обработки для определения признаков верхней конечности и руки. Например, на этапе S540 алгоритм получения геометрического центра и способ эрозии используется для определения центрального положения, например руки, после сегментирования верхней конечности и части руки, т.е., части объекта. Центральное положение представляет положение объекта и, таким образом, может использоваться в качестве опорной точки. Кроме того, на этапе S540 сегментированная часть объекта, т.е., часть верхней конечности и руки, далее фильтруется высокочастотным фильтром (например, с использованием средства управления Собеля) для получения силуэта верхней конечности и руки. Предпочтительно, далее может устраняться нерезкость полученного силуэта для устранения в силуэте эффектов размытости. В случаях, когда существенное значение имеют четкие края силуэта, то может помочь способ устранения размытости изображения. На фиг.6 показаны два силуэта 610 и 620 верхних конечностей и руки, которые получены, по меньшей мере, по двум последовательно заснятым изображениям, в соответствии с описанным выше способом.
Затем, на этапе 550, узел 142 распознавания дополнительно обрабатывает определенные признаки (включая положение и/или силуэт) для распознавания произведенного пациентом движения. Для указанного распознавания могут использоваться различные способы. Например, движение верхней конечности может предварительно распознаваться на основании определенного центрального положения и угла между плечом и предплечьем, как указано определенным силуэтом. Предпочтительно, на этапе S550 может применяться искусственная нейронная сеть (ANN) или алгоритм оценки максимальной вероятности. Для алгоритма ANN параметры, вводимые в алгоритм ANN, могут представлять собой характерные признаки определенного силуэта, такие как характерные точки на силуэте (крайние точки или точки перегибов), средние величины или стандартное отклонение расстояния между центральным положением и каждой точкой силуэта. Вывод информации алгоритма ANN идентифицирует распознанное движение, такое как разжатая кисть 610 и сжатая кисть 620 на фиг.6. На этапе S560 узел 143 оценки определяет, соответствует ли распознанное движение заданному движению, и посылает сигнал обратной связи на основании результата оценки, такой как поощрение. При такой мотивации пациент может продолжать повторное обучение тренировкам двигательных функций в порядке самопомощи. Альтернативно, множество таких реабилитационных систем может быть подсоединено к реабилитационному центру через сеть. Врач в реабилитационном центре может дистанционно помогать двум или более пациентам в одновременном выполнении повторного обучения тренировкам двигательных функций.
Хотя изобретение было проиллюстрировано и детально описано в чертежах и предшествующем описании, такую иллюстрацию и описание следует рассматривать как иллюстративные или приведенные в качестве примера, а не ограничивающие; изобретение не ограничивается раскрытыми вариантами осуществления. Например, настоящее изобретение может применяться для распознавания нижних конечностей или других частей тела, или для распознавания пространственного движения определенного устройства. Альтернативно, настоящее изобретение может применяться при классификации изделий или в других областях для анализа объекта.
Специалисты в данной области могут понять и осуществить другие модификации описанных вариантов осуществления на основании изучения чертежей, описании и прилагаемой формулы изобретения. В формуле изобретения, слово «содержащий» не исключает другие элементы или этапы, и употребление единственного числа в отношении различных элементов не исключает множества таких элементов. Один процессор или другой узел может выполнять функции нескольких элементов, приведенных в формуле изобретения. Лишь то обстоятельство, что определенные меры приведены в отличающихся друг от друга зависимых пунктах формулы, не указывает на то, что комбинация этих мер не может использоваться для обеспечения преимущества. Компьютерная программа может храниться/распределяться на подходящем носителе информации, таком как оптический носитель информации или твердотельный носитель информации, поставляемый вместе с другим аппаратным обеспечением или в качестве его части, но может также распределяться в других формах, например через Интернет или другие проводные или беспроводные системы телекоммуникации. Любые ссылки в формуле изобретения не должны рассматриваться как ограничивающие объем изобретения.
Claims (20)
1. Система для анализа объекта, содержащая:
фоновый узел, расположенный позади объекта для обеспечения фона для объекта, причем цвет фонового узла может быть выбран из любого набора цветов;
контроллер, выполненный с возможностью автоматического:
- определения распределения цвета объекта;
- определения цвета из набора цветов для фона на основании определенного распределения цвета объекта, при этом указанный цвет отличается от цвета объекта; и
- установления цвета фона в указанном цвете;
камеру, выполненную с возможностью получения изображения, включающего объект и фон, установленный в указанном цвете; и
узел обработки, выполненный с возможностью определения по меньшей мере одного признака, относящегося к объекту, в соответствие с изображением, полученным камерой.
фоновый узел, расположенный позади объекта для обеспечения фона для объекта, причем цвет фонового узла может быть выбран из любого набора цветов;
контроллер, выполненный с возможностью автоматического:
- определения распределения цвета объекта;
- определения цвета из набора цветов для фона на основании определенного распределения цвета объекта, при этом указанный цвет отличается от цвета объекта; и
- установления цвета фона в указанном цвете;
камеру, выполненную с возможностью получения изображения, включающего объект и фон, установленный в указанном цвете; и
узел обработки, выполненный с возможностью определения по меньшей мере одного признака, относящегося к объекту, в соответствие с изображением, полученным камерой.
2. Система по п. 1, в которой указанный цвет отличается от цвета объекта (150) с точки зрения интенсивности цвета и/или яркости.
3. Система по п. 1, в которой контроллер дополнительно выполнен с возможностью:
- установления фона в каждый из множества наборов цветов, в то время как цвет объекта остается неизменным;
- управления камерой для получения изображения объекта с каждым из множества наборов цветов; и
- установление цвета с максимальным различием в распределении от цвета объекта, в качестве цвета фона.
- установления фона в каждый из множества наборов цветов, в то время как цвет объекта остается неизменным;
- управления камерой для получения изображения объекта с каждым из множества наборов цветов; и
- установление цвета с максимальным различием в распределении от цвета объекта, в качестве цвета фона.
4. Система по п. 1, в которой контроллер дополнительно выполнен с возможностью:
установления фона в каждый из множества наборов цветов, в то время как цвет объекта остается неизменным;
- управления камерой для получения изображения объекта с каждым из множества наборов цветов; и
- накапливания изображений в красном (R), зеленом(G) и синем (В) распределениях;
- формирования гистограммы распределения цвета накопленных изображений;
- определение области пика гистограммы;
- оценку цвета, имеющего максимальное различие от области пика; и
- установление цвета максимального различия от области пика в качестве цвета фона.
установления фона в каждый из множества наборов цветов, в то время как цвет объекта остается неизменным;
- управления камерой для получения изображения объекта с каждым из множества наборов цветов; и
- накапливания изображений в красном (R), зеленом(G) и синем (В) распределениях;
- формирования гистограммы распределения цвета накопленных изображений;
- определение области пика гистограммы;
- оценку цвета, имеющего максимальное различие от области пика; и
- установление цвета максимального различия от области пика в качестве цвета фона.
5. Система по п. 1, в которой контроллер дополнительно выполнен с возможностью:
сегментирования объекта от фона.
сегментирования объекта от фона.
6. Система по п. 4, в которой контроллер дополнительно включает:
пользовательский интерфейс для приема вводимой пользователем информации; и
указанный контроллер выполнен с возможностью выбора цвета на основании определенного распределения цвета объекта и вводимой пользователем информации.
пользовательский интерфейс для приема вводимой пользователем информации; и
указанный контроллер выполнен с возможностью выбора цвета на основании определенного распределения цвета объекта и вводимой пользователем информации.
7. Система по п. 1, в которой объект (150) представляет собой часть тела, при этом узел обработки дополнительно выполнен с возможностью:
распознавания движения части тела на основании определенного, по меньшей мере, одного признака.
распознавания движения части тела на основании определенного, по меньшей мере, одного признака.
8. Система по п. 7, в которой объект представляет собой пациента, и система дополнительно включает:
узел инструктирования, выполненный с возможностью подачи пациенту команд на выполнение определенного движения; и
при этом узел обработки выполнен с возможностью оценки того, правильно ли распознано движение относительно поданной команды на выполнение движения, и обеспечивает сигнал обратной связи пациенту.
узел инструктирования, выполненный с возможностью подачи пациенту команд на выполнение определенного движения; и
при этом узел обработки выполнен с возможностью оценки того, правильно ли распознано движение относительно поданной команды на выполнение движения, и обеспечивает сигнал обратной связи пациенту.
9. Система по п. 7, дополнительно включающая:
дисплей, выполненный с возможностью отображения изображения, полученного камерой в реальном времени.
дисплей, выполненный с возможностью отображения изображения, полученного камерой в реальном времени.
10. Устройство для содействия анализу объекта, содержащее: фоновый узел, расположенный позади объекта для обеспечения фона позади объекта, причем цвет фона может быть выбран из любого из набора цветов;
по меньшей мере один процессор, выполненный с возможностью:
- управления цветом фона;
- установления фона в каждый из множества наборов цветов, в то время как цвет объекта остается неизменным;
- управления камерой для получения изображения объекта с каждым из множества наборов цветов; и
- установления цвета с максимальным различием в распределении от цвета объекта в качестве цвета фона.
по меньшей мере один процессор, выполненный с возможностью:
- управления цветом фона;
- установления фона в каждый из множества наборов цветов, в то время как цвет объекта остается неизменным;
- управления камерой для получения изображения объекта с каждым из множества наборов цветов; и
- установления цвета с максимальным различием в распределении от цвета объекта в качестве цвета фона.
11. Устройство по п. 10, в котором по меньшей мере один процессор дополнительно выполнен с возможностью:
- определения цвета из набора цветов для фона на основании определенного распределения цвета объекта, при этом указанный цвет отличается от цвета объекта.
- определения цвета из набора цветов для фона на основании определенного распределения цвета объекта, при этом указанный цвет отличается от цвета объекта.
12. Устройство по п. 10, в котором по меньшей мере один процессор дополнительно выполнен с возможностью:
- накапливания изображений в красном (R), зеленом(G) и синем (В) распределениях;
- формирования гистограммы распределения цвета накопленных изображений;
- определения области пика гистограммы;
- оценки цвета, имеющего максимальное различие от области пика; и
- установления цвета максимального различия от области пика в качестве цвета фона.
- накапливания изображений в красном (R), зеленом(G) и синем (В) распределениях;
- формирования гистограммы распределения цвета накопленных изображений;
- определения области пика гистограммы;
- оценки цвета, имеющего максимальное различие от области пика; и
- установления цвета максимального различия от области пика в качестве цвета фона.
13. Устройство по п. 10, в котором фоновый узел представляет собой плату, в которую вмонтирован, по меньшей мере, один LED.
14. Устройство по п. 10, дополнительно включающее:
узел инструктирования, выполненный с возможностью подачи пациенту команд на выполнение определенного действия;
узел распознавания, выполненный с возможностью распознавания движения части тела пациента на основании по меньшей мере одного признака, определенного узлом обработки; и
узел оценки, выполненный с возможностью оценки, правильно ли распознано движение узлом обработки.
узел инструктирования, выполненный с возможностью подачи пациенту команд на выполнение определенного действия;
узел распознавания, выполненный с возможностью распознавания движения части тела пациента на основании по меньшей мере одного признака, определенного узлом обработки; и
узел оценки, выполненный с возможностью оценки, правильно ли распознано движение узлом обработки.
15. Способ анализа объекта, содержащий:
обеспечение фонового узла, расположенного позади объекта, причем цвет фона может быть выбран из любого из набора цветов;
автоматическое установление цвета фона из набора цветов, причем указанный цвет отличается от цвета объекта;
получение изображения, включающего в себя объект и фон с установленным указанным цветом; и
определение, по меньшей мере, одного признака, относящегося к объекту, в соответствии с полученным изображением.
обеспечение фонового узла, расположенного позади объекта, причем цвет фона может быть выбран из любого из набора цветов;
автоматическое установление цвета фона из набора цветов, причем указанный цвет отличается от цвета объекта;
получение изображения, включающего в себя объект и фон с установленным указанным цветом; и
определение, по меньшей мере, одного признака, относящегося к объекту, в соответствии с полученным изображением.
16. Способ по п. 15, дополнительно содержащий:
- установление фона в каждый из множества наборов цветов, в то время как цвет объекта остается неизменным;
- управление камерой для получения изображения объекта с каждым из множества наборов цветов; и
- установление цвета с максимальным различием в распределении от цвета объекта в качестве цвета фона.
- установление фона в каждый из множества наборов цветов, в то время как цвет объекта остается неизменным;
- управление камерой для получения изображения объекта с каждым из множества наборов цветов; и
- установление цвета с максимальным различием в распределении от цвета объекта в качестве цвета фона.
17. Способ по п. 15, в котором определение цвета дополнительно включает установление фона в каждый из множества наборов цветов, в то время как цвет объекта остается неизменным;
- управление камерой для получения изображения объекта с каждым из множества наборов цветов; и
- накапливание изображений в красном (R), зеленом(G) и синем (В) распределениях;
- формирование гистограммы распределения цвета накопленных изображений;
- определение области пика гистограммы;
- оценка цвета, имеющего максимальное различие от области пика; и
- установление цвета максимального различия от области пика в качестве цвета фона.
- управление камерой для получения изображения объекта с каждым из множества наборов цветов; и
- накапливание изображений в красном (R), зеленом(G) и синем (В) распределениях;
- формирование гистограммы распределения цвета накопленных изображений;
- определение области пика гистограммы;
- оценка цвета, имеющего максимальное различие от области пика; и
- установление цвета максимального различия от области пика в качестве цвета фона.
18. Способ по п. 16, в котором определение цвета дополнительно включает:
- сегментирование объекта от фона для определения распределения цвета объекта.
- сегментирование объекта от фона для определения распределения цвета объекта.
19. Способ по п. 17, дополнительно включающий
инструктирование пациента для выполнения определенного действия; и
определение по меньшей мере одного признака, относящегося к объекту согласно изображению сегментированной части.
инструктирование пациента для выполнения определенного действия; и
определение по меньшей мере одного признака, относящегося к объекту согласно изображению сегментированной части.
20. Способ по п. 19, дополнительно включающий:
- распознавание движение части тела пациента на основании по меньшей мере одного определенного признака,
- оценку и обеспечение сигнала обратной связи, правильно ли распознано движение.
- распознавание движение части тела пациента на основании по меньшей мере одного определенного признака,
- оценку и обеспечение сигнала обратной связи, правильно ли распознано движение.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200910150894 | 2009-06-25 | ||
CN200910150894.1 | 2009-06-25 | ||
PCT/IB2010/052839 WO2010150201A1 (en) | 2009-06-25 | 2010-06-23 | Geture recognition using chroma- keying |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2012102412A RU2012102412A (ru) | 2013-07-27 |
RU2556417C2 true RU2556417C2 (ru) | 2015-07-10 |
Family
ID=42931884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2012102412/08A RU2556417C2 (ru) | 2009-06-25 | 2010-06-23 | Распознавание телодвижений с использованием цифровой цветовой рирпроекции |
Country Status (8)
Country | Link |
---|---|
US (1) | US8817125B2 (ru) |
EP (1) | EP2446395A1 (ru) |
JP (1) | JP5793493B2 (ru) |
KR (1) | KR101783999B1 (ru) |
CN (1) | CN102804204B (ru) |
BR (1) | BRPI1010041A2 (ru) |
RU (1) | RU2556417C2 (ru) |
WO (1) | WO2010150201A1 (ru) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5413673B2 (ja) * | 2010-03-08 | 2014-02-12 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
CN103903000B (zh) * | 2012-12-28 | 2020-01-31 | 联想(北京)有限公司 | 一种从背景中识别目标物体的方法及系统 |
JP6335695B2 (ja) * | 2014-07-09 | 2018-05-30 | キヤノン株式会社 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
WO2018215475A1 (de) * | 2017-05-22 | 2018-11-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Beleuchtungssystem und aufnahmesystem für volumetrisches capturing |
CN109214372B (zh) * | 2018-11-01 | 2021-04-02 | 深圳蓝胖子机器智能有限公司 | 姿态确定方法、装置和计算机可读存储介质 |
CN112836692B (zh) * | 2020-11-27 | 2023-03-24 | 北京百度网讯科技有限公司 | 用于处理图像的方法、装置、设备和介质 |
US11386580B1 (en) * | 2021-08-13 | 2022-07-12 | Goodsize Inc. | System apparatus and method for guiding user to comply with application-specific requirements |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5423554A (en) * | 1993-09-24 | 1995-06-13 | Metamedia Ventures, Inc. | Virtual reality game method and apparatus |
RU2003118501A (ru) * | 2003-06-23 | 2005-01-27 | Закрытое акционерное общество "Элвис" (RU) | Система и способ автоматизированного видеонаблюдения и распознования объектов и ситуаций |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09185711A (ja) * | 1995-12-28 | 1997-07-15 | Kobe Steel Ltd | 形状認識方法及び装置 |
GB9619119D0 (en) * | 1996-09-12 | 1996-10-23 | Discreet Logic Inc | Processing image |
US5946500A (en) * | 1997-09-18 | 1999-08-31 | Oles; Henry J. | Apparatus and method for chroma replacement |
JP3241327B2 (ja) * | 1998-08-22 | 2001-12-25 | 大聖電機有限会社 | クロマキーシステム |
US6674485B2 (en) * | 1998-08-31 | 2004-01-06 | Hitachi Software Engineering Co., Ltd. | Apparatus and method for image compositing |
JP2001246161A (ja) * | 1999-12-31 | 2001-09-11 | Square Co Ltd | ジェスチャー認識技術を用いたゲーム装置およびその方法ならびにその方法を実現するプログラムを記憶した記録媒体 |
JP2002118859A (ja) * | 2000-10-05 | 2002-04-19 | Sony Corp | 撮影装置及び撮影方法 |
US7253832B2 (en) * | 2001-08-13 | 2007-08-07 | Olympus Corporation | Shape extraction system and 3-D (three dimension) information acquisition system using the same |
KR100422709B1 (ko) * | 2001-10-05 | 2004-03-16 | 엘지전자 주식회사 | 영상 의존적인 얼굴 영역 추출방법 |
JP3876985B2 (ja) * | 2002-09-18 | 2007-02-07 | オムロンエンタテインメント株式会社 | 写真シール販売機および画像印刷方法 |
US7593593B2 (en) | 2004-06-16 | 2009-09-22 | Microsoft Corporation | Method and system for reducing effects of undesired signals in an infrared imaging system |
WO2006095779A1 (ja) * | 2005-03-10 | 2006-09-14 | Fuji Photo Film Co., Ltd. | 撮影システム |
JP2007156950A (ja) * | 2005-12-07 | 2007-06-21 | Toyota Motor Corp | 車両用操作装置 |
US8589824B2 (en) | 2006-07-13 | 2013-11-19 | Northrop Grumman Systems Corporation | Gesture recognition interface system |
JP2008152622A (ja) * | 2006-12-19 | 2008-07-03 | Mitsubishi Electric Corp | ポインティング装置 |
CN101398896B (zh) * | 2007-09-28 | 2012-10-17 | 三星电子株式会社 | 用于成像设备的提取有强识别力的颜色特征的设备和方法 |
-
2010
- 2010-06-23 RU RU2012102412/08A patent/RU2556417C2/ru active
- 2010-06-23 WO PCT/IB2010/052839 patent/WO2010150201A1/en active Application Filing
- 2010-06-23 US US13/377,829 patent/US8817125B2/en not_active Expired - Fee Related
- 2010-06-23 EP EP10739399A patent/EP2446395A1/en not_active Ceased
- 2010-06-23 JP JP2012516939A patent/JP5793493B2/ja not_active Expired - Fee Related
- 2010-06-23 BR BRPI1010041A patent/BRPI1010041A2/pt not_active Application Discontinuation
- 2010-06-23 CN CN201080028299.1A patent/CN102804204B/zh not_active Expired - Fee Related
- 2010-06-23 KR KR1020127001549A patent/KR101783999B1/ko active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5423554A (en) * | 1993-09-24 | 1995-06-13 | Metamedia Ventures, Inc. | Virtual reality game method and apparatus |
RU2003118501A (ru) * | 2003-06-23 | 2005-01-27 | Закрытое акционерное общество "Элвис" (RU) | Система и способ автоматизированного видеонаблюдения и распознования объектов и ситуаций |
Also Published As
Publication number | Publication date |
---|---|
US8817125B2 (en) | 2014-08-26 |
KR20120112359A (ko) | 2012-10-11 |
JP5793493B2 (ja) | 2015-10-14 |
WO2010150201A1 (en) | 2010-12-29 |
KR101783999B1 (ko) | 2017-11-06 |
CN102804204A (zh) | 2012-11-28 |
CN102804204B (zh) | 2015-07-01 |
BRPI1010041A2 (pt) | 2016-09-20 |
RU2012102412A (ru) | 2013-07-27 |
US20120092519A1 (en) | 2012-04-19 |
JP2012531652A (ja) | 2012-12-10 |
EP2446395A1 (en) | 2012-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2556417C2 (ru) | Распознавание телодвижений с использованием цифровой цветовой рирпроекции | |
CN106056064B (zh) | 一种人脸识别方法及人脸识别装置 | |
CN108197546B (zh) | 人脸识别中光照处理方法、装置、计算机设备及存储介质 | |
CN105187810B (zh) | 一种基于人脸色彩特征的自动白平衡方法及电子媒体装置 | |
CN107563976B (zh) | 美颜参数获取方法、装置、可读存储介质和计算机设备 | |
CN109951595A (zh) | 智能调节屏幕亮度的方法、装置、存储介质及移动终端 | |
WO2018161289A1 (zh) | 基于深度的控制方法、基于深度的控制装置和电子装置 | |
JP6265640B2 (ja) | 画像処理装置、撮像装置、画像処理方法及びプログラム | |
US8175382B2 (en) | Learning image enhancement | |
JP2006505853A (ja) | 画像又は映像の品質を評価する品質志向重要度マップの生成方法 | |
JP2007257087A (ja) | 肌色領域検出装置及び肌色領域検出方法 | |
JP2009211275A (ja) | 画像処理装置、画像処理方法、プログラム及び記憶媒体 | |
CN107773225A (zh) | 脉搏波计测装置、脉搏波计测方法、程序以及记录介质 | |
CN113361513B (zh) | 移动端舌象采集方法、装置及设备 | |
JP2007052609A (ja) | 手領域検出装置及び手領域検出方法、並びにプログラム | |
KR101344851B1 (ko) | 영상처리장치 및 영상처리방법 | |
KR20200118660A (ko) | 줄넘기 줄의 동작 인식 장치 및 방법 | |
CN112926367B (zh) | 一种活体检测的设备及方法 | |
CN110321782B (zh) | 一种检测人体特征信号的系统 | |
CN101996324B (zh) | 基于动态采样提取激光光斑的方法 | |
CN113313050A (zh) | 一种基于视频流的皮肤智能检测系统 | |
JP2023032776A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CN113706402A (zh) | 神经网络训练方法、装置及电子设备 | |
CN110443096A (zh) | 用于云平台身份识别的可切换滤镜摄像头的应用方法 | |
CN109060831A (zh) | 一种基于底板拟合的自动脏污检测方法 |