RU2789286C2 - Portable device for obtainment of anthropometric data and method for collection of anthropometric data - Google Patents
Portable device for obtainment of anthropometric data and method for collection of anthropometric data Download PDFInfo
- Publication number
- RU2789286C2 RU2789286C2 RU2021120174A RU2021120174A RU2789286C2 RU 2789286 C2 RU2789286 C2 RU 2789286C2 RU 2021120174 A RU2021120174 A RU 2021120174A RU 2021120174 A RU2021120174 A RU 2021120174A RU 2789286 C2 RU2789286 C2 RU 2789286C2
- Authority
- RU
- Russia
- Prior art keywords
- images
- fimg
- img
- image
- measurements
- Prior art date
Links
Images
Abstract
Description
Область техники, к которой относится настоящее изобретениеThe field of technology to which the present invention relates
Настоящее изобретение относится к портативному устройству получения антропометрических данных и к способу сбора антропометрических данных.The present invention relates to a portable anthropometric data acquisition device and to a method for collecting anthropometric data.
Предшествующий уровень техники настоящего изобретенияBackground of the Invention
Как известно, сбор антропометрических показателей может представлять интерес во многих областях, начиная от торговли и заканчивая здравоохранением. Например, системы электронной коммерции, занимающиеся продажей одежды, могут помогать покупателям, предлагая им выбрать размер на основании набора персональных данных, включающего соответствующие мерки тела. Персональные данные могут быть переданы в автоматическую систему категоризации, и размер может быть выбран на основании общих критериев наилучшего соответствия. Такая услуга не только удобна для покупателей, но и позволяет значительно сократить количество возвращенных товаров, что выгодно и для поставщиков с точки зрения экономии средств. Другой пример, в диетологии мониторинг показателей тела может помочь в наблюдении за пациентом и подборе лечения в зависимости от его реакции.As you know, the collection of anthropometric indicators can be of interest in many areas, from trade to healthcare. For example, clothing e-commerce systems can assist shoppers by prompting them to select a size based on a set of personal data that includes relevant body measurements. Personal data may be submitted to an automatic categorization system and the size may be selected based on general best fit criteria. This service is not only convenient for customers, but also significantly reduces the number of returned goods, which is also beneficial for suppliers in terms of cost savings. Another example, in dietetics, monitoring of body parameters can help in monitoring the patient and selecting treatment depending on his response.
Очевидно, что преимущества использования антропометрических данных были бы значительно увеличены, если бы непосредственно покупатели или пациенты могли собирать данные на месте с помощью простых инструментов, которые не требуют специальной подготовки или навыков для получения достаточно точных результатов. Антропометрические данные обычно собираются путем получения и анализа изображений, причем для сбора данных можно использовать преимущества широкого распространения чрезвычайно универсальных устройств, таких как смартфоны. Инструменты для захвата изображений стали настолько удобными, что конечные пользователи почти всегда умеют кадрировать и получать изображения достаточного качества для выполнения необходимых процедур анализа.Clearly, the benefits of using anthropometric data would be greatly enhanced if direct purchasers or patients could collect data on the spot with simple tools that do not require special training or skills to produce reasonably accurate results. Anthropometric data is typically collected through image acquisition and analysis, and data collection can take advantage of the widespread use of highly versatile devices such as smartphones. Image capture tools have become so handy that end users are almost always able to crop and obtain images of sufficient quality to perform the necessary analysis procedures.
Однако делегирование задачи получения изображений конечным пользователям влечет за собой другие проблемы, которые необходимо принимать во внимание. С одной стороны, обработка изображений, которая сама по себе требовательна к ресурсам, должна также учитывать тот факт, что получение изображений в полевых условиях обычно страдает от плохих условий с точки зрения освещения, контраста с фоном, позы пользователя и т.п. Такие условия должны быть компенсированы путем совершенствования методов обработки, что обычно приводит к увеличению вычислительной нагрузки. Чтобы обеспечить достаточную вычислительную мощность, для анализа изображений на устройствах конечного пользователя выделяются только основные функции захвата, в то время как основные процедуры анализа выполняются на удаленных сайтах, доступных через Интернет-соединение. С другой стороны, обмен изображениями с удаленными сайтами вызывает опасения относительно конфиденциальности и защиты персональных данных, поскольку речь идет о конфиденциальной информации, а требования законодательства становятся все более строгими. По сути, информация, касающаяся личного аспекта, отправляется без контроля со стороны конечного пользователя. Очевидно, что обработка информации имеет решающее значение, особенно для медицинских применений.However, the delegation of the task of obtaining images to end users entails other problems that must be taken into account. On the one hand, image processing, which is resource intensive in itself, must also take into account the fact that field imaging usually suffers from poor conditions in terms of lighting, contrast with the background, user posture, and the like. Such conditions must be compensated by improving processing methods, which usually leads to an increase in the computational load. To ensure sufficient computing power, only basic capture functions are dedicated to image analysis on end user devices, while the main analysis procedures are performed at remote sites accessible via an Internet connection. On the other hand, sharing images with remote sites raises privacy and personal data protection concerns as sensitive information is involved and legal requirements are becoming more stringent. In essence, information relating to the personal aspect is sent without the control of the end user. Clearly, information processing is critical, especially for medical applications.
Описание изобретенияDescription of the invention
Таким образом, задачей настоящего изобретения является предоставление портативного устройства получения антропометрических данных и способа сбора антропометрических данных, которые позволяют преодолеть или по меньшей мере смягчить описанные ограничения.Thus, it is an object of the present invention to provide a portable anthropometric data acquisition device and anthropometric data collection method that overcomes or at least alleviates the described limitations.
Согласно настоящему изобретению предлагается портативное устройство получения антропометрических данных и способ сбора антропометрических данных, определенные в пунктах 1 и 19 формулы изобретения соответственно.The present invention provides a portable anthropometric data acquisition device and an anthropometric data collection method as defined in
Краткое описание фигурBrief description of the figures
Настоящее изобретение будет описано со ссылкой на сопроводительные чертежи, иллюстрирующие некоторые неограничивающие варианты его осуществления, на которых:The present invention will be described with reference to the accompanying drawings, illustrating some non-limiting embodiments of the same, in which:
- фиг.1 представляет собой упрощенную принципиальную схему системы получения антропометрических данных;- figure 1 is a simplified schematic diagram of the system for obtaining anthropometric data;
- фиг.2 представляет собой более подробную принципиальную схему портативных устройств получения антропометрических данных, входящих в систему, показанную на фиг.2, и выполненных в соответствии с одним из вариантов осуществления настоящего изобретения;- figure 2 is a more detailed schematic diagram of portable devices for obtaining anthropometric data included in the system shown in figure 2, and made in accordance with one of the embodiments of the present invention;
- на фиг.3а и 3b показаны маски для получения данных, используемые в устройстве, показанном на фиг.2;- figures 3a and 3b show masks for receiving data used in the device shown in figure 2;
- фиг.4 представляет собой упрощенную блок-схему стадий способа в соответствии с одним вариантом осуществления настоящего изобретения;- Fig.4 is a simplified block diagram of the steps of the method in accordance with one embodiment of the present invention;
- на фиг.5а и 5b показаны изображения, полученные в устройстве, показанном на фиг. 2;- Figs. 5a and 5b show images obtained in the device shown in Figs. 2;
- фиг.6 представляет собой более подробную блок-схему части стадий способа, показанного на фиг.4;- Fig.6 is a more detailed block diagram of part of the steps of the method shown in Fig.4;
- фиг.7 представляет собой более подробную принципиальную схему компонента устройства, показанного на фиг.2;- Fig.7 is a more detailed schematic diagram of a component of the device shown in Fig.2;
- фиг.8 представляет собой более подробную принципиальную схему компонента системы, показанной на фиг.1; и- Fig.8 is a more detailed schematic diagram of a component of the system shown in Fig.1; And
- на фиг.9 и 10 показаны изображения, полученные в компоненте, показанном на фиг. 8.- Figs. 9 and 10 show images obtained in the component shown in Figs. 8.
Предпочтительный вариант осуществления изобретенияPreferred embodiment of the invention
На фиг.1 система получения антропометрических данных обозначена в целом ссылочным номером 1 и содержит одно или несколько портативных устройств 2 получения антропометрических данных в соответствии с одним вариантом осуществления настоящего изобретения и сервер 3. Портативные устройства 2 получения и сервер 3 связаны между собой по глобальной сети 4, например, через Интернет. Портативные устройства 2 получения выполнены с возможностью получения изображений людей и выполнения предварительных стадий обработки изображений, которые в дальнейшем обозначаются как обработка на стороне клиента, при которой данные, отправленные на сервер для осуществления извлечения соответствующих признаков (обработка на стороне сервера), очищаются от информации о личности.In FIG. 1, the anthropometric data acquisition system is indicated generally by the
Одно иллюстративное портативное устройство 2 получения показано на фиг.2 и будет упоминаться далее, при этом следует понимать, что другие портативные устройства 2 получения содержат те же компоненты. Портативное устройство 2 получения содержит блок 5 обработки, дисплей 6 и датчик 7 изображения. Согласно одному варианту осуществления портативное устройство 2 получения может быть встроено в смартфон, планшетный компьютер или ноутбук, преимущественно со встроенным сенсорным экраном в качестве дисплея 6 и фотокамерой в качестве датчика 7 изображения. При этом дисплей 6 не обязательно должен быть сенсорным.One exemplary
Блок 5 обработки выполнен с возможностью реализации модуля 8 получения, процессора 10 обработки изображений и модуля 11 связи.The
Модуль 8 получения активирует дисплей 6 в режиме реального времени во время получения и захватывает изображения с датчика 7 изображения в ответ на команды съемки, отправленные пользователем через интерфейс, который может предусматривать виртуальные или аппаратные кнопки (не показаны). В режиме реального времени выходные сигналы датчика 7 изображения непрерывно отображаются на дисплее 6. Модуль 8 получения также отправляет информацию на дисплей 6 для визуального представления пользователю, чтобы помочь правильному получению.The
Изображения, захваченные модулем 8 получения, поступают в процессор 10 обработки изображений. Модуль 8 получения может быть снабжен некоторыми возможностями обработки для выполнения основных действий, таких как баланс белого, регулировка яркости и контрастности и преобразование в сжатый формат. В качестве альтернативы изображения в необработанном формате отправляются в процессор 10 обработки изображений, который выполняет все необходимые стадии обработки.The images captured by the
Процессор 10 обработки изображений извлекает из принятых изображений модифицированные клиентские изображения. Извлеченные клиентские изображения отправляются на сервер 3 через модуль 11 связи для обработки на стороне сервера, которая может, следовательно, зависеть от ресурсов более высокого уровня.The
Получение изображения осуществляется с помощью модуля 8 получения, который предоставляет информацию для того, чтобы направить кадрируемого человека к принятию позы в диапазоне допустимых поз, в то время как оператор делает снимок со спины и снимок сбоку. Стандартная поза значительно снижает вычислительную нагрузку, связанную с обработкой изображений. Более конкретно (фиг.3а), модуль 8 получения начинает получение изображения со спины путем наложения маски 13 для изображения со спины на изображения, отображаемые на дисплее 6 в режиме реального времени. Таким образом, человек может быть направлен принять позу, соответствующую маске 13 для изображения со спины, которая согласно одному варианту может потребовать положения стоя с ногами врозь и руками, отведенными от туловища. Когда поза правильная, оператор активирует команды съемки, и изображение со спины IMGB (фиг.2) захватывается модулем 8 получения и отправляется в процессор 10 обработки изображений. Изображение со спины IMGB может временно храниться в блоке памяти, встроенном либо в модуль 8 получения, либо в процессор 10 обработки изображений, или в блоке памяти общего назначения портативного устройства 2 получения.The acquisition of the image is carried out by the
После того как изображение со спины IMGB было захвачено и сохранено или отправлено в процессор 10 обработки изображений, модуль 8 получения начинает получение изображения сбоку и накладывает маску 14 для изображения сбоку (фиг.3b) на изображения, отображаемые на дисплее 6 в режиме реального времени. Опять-таки, человека направляют принять позу, соответствующую маске 13 для изображения сбоку, которая требует положения стоя с руками, лежащими вдоль туловища. Когда поза правильная, оператор активирует команду съемки, и изображение сбоку IMGS захватывается и отправляется в процессор 10 обработки изображений или сохраняется подобно изображению со спины IMGB.After the image from the back of the IMG B has been captured and stored or sent to the
Каждое из изображения со спины IMGB и изображения сбоку IMGS затем обрабатывается процессором 10 обработки изображений для обнаружения границ и восстановления контуров по существу на одной и той же стадии. Для простоты в дальнейшем будет делаться ссылка на изображение со спины IMGB, и будет понятно, что то же самое относится и к изображению сбоку IMGS, если не указано иное.Each of the IMG B back image and the IMG S side image is then processed by the
Как показано на фиг.4, после получения изображения сбоку IMGS в формате, пригодном для обработки, процессор 10 обработки изображений очищает части изображения сбоку IMGS, соответствующие участкам за пределами маски 13 для изображения со спины (блок 100), тем самым уменьшая шум. Затем выполняется обнаружение границ (блок 110) и восстановление контура (блок 120). Таким образом, получается и передается на сервер 3 клиентское изображение со спины FIMGB, включающее только контур тела и, возможно, остаточный фоновый шум. Примеры клиентского изображения со спины FIMGB и клиентского изображения сбоку FIMGS показаны на фиг.5а и 5b соответственно. На стадии обнаружения границ теряются особенности тела, которые могут позволить идентифицировать изображенного человека.As shown in FIG. 4, after obtaining a side IMG S image in a format suitable for processing, the
Обнаружение границ может осуществляться несколькими способами, но в целом предпочтительно, чтобы толщина контура была достаточно постоянной, поскольку она может быть критическим параметром при последующей обработке на стороне сервера. Процессор 10 обработки изображений может быть выполнен с возможностью объединения различных процедур обнаружения границ для повышения производительности.Edge detection can be done in several ways, but in general it is preferable that the thickness of the outline be fairly constant, as it can be a critical parameter in server-side post-processing. The
Согласно одному варианту осуществления (фиг.6) процессор 10 обработки изображений предварительно применяет процесс шумоподавления к изображению со спины IMGB для снижения влияния высокочастотного шума (блок 112). Процесс шумоподавления может представлять собой медианную фильтрацию. Было обнаружено, что размер ядра 15 пикселей в операторе медианной фильтрации обеспечивает приемлемую эффективность фильтрации без ухудшения точности последующего обнаружения границ.According to one embodiment (FIG. 6), the
Затем (блок 114), контур изображения со спины IMGB сначала выделяется с помощью процесса детектора границ Кэнни, который описан в Canny, J., "A Computational Approach То Edge Detection", IEEE Trans. Pattern Analysis and Machine Intelligence, 8(6):679-698, 1986. Детектор границ Кэнни очень чувствителен к областям изображения с низким контрастом, которые могут действительно присутствовать. Этот аспект может быть критичным, поскольку при получении изображения в полевых условиях не всегда возможно выбрать фон, обеспечивающий достаточный контраст. Чтобы избежать потери информации, контур изображения со спины IMGB повторно выделяется процессором 10 с помощью другого процесса детектора границ (блок 116), и результат повторного выделения контура объединяется с результатом первого выделения контура детектором границ Кэнни в блоке 120 на фиг.4. Согласно одному варианту осуществления процессор 10 обработки изображений использует структурированный случайный лес для обнаружения границ, который также называют структурированным детектором границ. Структурированный детектор границ менее чувствителен к локальным областям с низким контрастом, а также более устойчив к шуму, чем детектор границ Кэнни, таким образом, устраняя недостатки последнего.Next (block 114), the edge of the image from the back of IMG B is first extracted using the Canny edge detector process, which is described in Canny, J., "A Computational Approach to Edge Detection", IEEE Trans. Pattern Analysis and Machine Intelligence, 8(6):679-698, 1986. The Canny edge detector is very sensitive to areas of low contrast in an image that may actually be present. This aspect can be critical, since it is not always possible to select a background that provides sufficient contrast when obtaining an image in the field. To avoid loss of information, the contour of the image from the back of IMG B is re-derived by the
На фиг.7 показана иллюстративная структура детектора 10 изображения, реализующего процесс согласно фиг.4 и 6. Согласно показанному варианту осуществления детектор 10 изображения содержит фильтр 15 подавления шума, принимающий изображение со спины IMGB (и изображение сбоку IMGS) и передающий его параллельно в детектор границ Кэнни и структурированный детектор границ, обозначенные в настоящем документе ссылочными позициями 16 и 17 соответственно. Первый выход I1 детектора 16 границ Кэнни и второй выход I2 структурированного детектора 17 границ затем объединяются в модуле 18 восстановления контура, который объединяет результаты первого и второго выделения контура и выдает клиентское изображение со спины FIMGB и клиентское изображение сбоку FIMGS.FIG. 7 shows an exemplary structure of an
Согласно одному варианту осуществления модуль 18 восстановления контура объединяет первый выход I1 детектора 16 границ Кэнни и второй выход I2 структурированного детектора 17 границ путем сложения, выбора порога и бинаризации. Точнее, значения яркости первого выхода I1 и второго выхода I2 складываются, и результат сравнивается с порогом τ, который может быть выбран как доля от максимального отклика датчика 7 изображения, например, 10%. Комбинированный выход определяет клиентское изображение со спины FIMGB, которому присваивается первое логическое значение L1 (например, высокое), если сумма первого выхода I1 и второго выхода I2 превышает порог τ, и второе логическое значение L1 (например, низкое) в противном случае:According to one embodiment,
Аналогично, клиентское изображение сбоку FIMGS определяется следующим образом:Similarly, the FIMG S side client image is defined as follows:
Когда изображение сбоку IMGS передается на детектор 16 границ Кэнни и на структурированный детектор 17 границ (выход которых обозначен I1' и I2' соответственно).When the side image of the IMG S is transmitted to the
Согласно другому варианту осуществления вероятностные модели могут быть использованы, когда в портативных устройствах 2 получения доступна достаточная вычислительная мощность, чтобы иметь приемлемую задержку отклика для пользователей.According to another embodiment, probabilistic models may be used when sufficient processing power is available in the
Каждому участку в изображении IMGB (или IMGS) присваивается метка 1∈[L1, L2]IMGB, которая минимизирует функцию энергии Е(l). Функция энергии содержит первый компонент и второй компонент и выглядит следующим образом:Each patch in the image IMG B (or IMG S ) is assigned a
Первый компонент EUNARY(l) - это функция, которая стремится присвоить каждому пикселю значение, соответствующее выходу детекторов границ с относительными вероятностями w1 и w2 соответственноThe first component of E UNARY (l) is a function that seeks to assign to each pixel a value corresponding to the output of the edge detectors with relative probabilities w 1 and w2 respectively
гдеWhere
и w1 и w2 - это весовые параметры, которые определяют, в какой степени детектор 16 границ Кэнни и структурированный детектор 17 границ будут влиять на результат.and w 1 and w 2 are weight parameters that determine to what extent the
Второй компонент EPAIRWISE(l) стремится к тому, чтобы соседние пиксели соответствовали друг другу по метке, добавляя постоянный штраф за несоответствие, и он определяется следующим образом:The second component of E PAIRWISE (l) seeks to have neighboring pixels match each other on the label, adding a constant mismatch penalty, and it is defined as follows:
гдеWhere
и PAIRS(I) включает все пары соседних точек изображения.and PAIRS(I) includes all pairs of adjacent image pixels.
Весовой параметр wP определяет, насколько сильным должно быть соответствие между соседними пикселями. Оптимальное решениеThe weight parameter w P determines how strong the correspondence between neighboring pixels should be. Optimal solution
аппроксимируется с помощью алгоритма распространения доверия с помощью перевзвешивания деревьев.is approximated by a trust propagation algorithm using tree reweighting.
Таким образом, из изображения со спины IMGB и изображения сбоку IMGS получаются клиентское изображение со спины FIMGB и клиентское изображение сбоку FIMGS соответственно, которые отправляются на сервер 3 для обработки на стороне сервера. Клиентское изображение со спины FIMGB и клиентское изображение сбоку FIMGS включают полный и достоверный контур тела кадрируемого человека, и никакая персональная информация о личности не передается без контроля со стороны пользователя. Персональная информация (например, черты лица) фактически удаляется на стадиях обнаружения границ и восстановления контура без необходимости специальной обработки, а контур тела остается в значительной степени анонимным. Как уже упоминалось, иллюстративные клиентское изображение со спины FIMGB и клиентское изображение сбоку FIMGS показаны на фиг.5а и 5b соответственно, где также изображены маска 13 для изображения со спины и маска 14 для изображения сбоку, чтобы интуитивно представить, как осуществляется получение изображения и обработка на стороне клиента. Однако маска 13 для изображения со спины и маска 14 для изображения сбоку сами по себе не обязательно должны быть частью клиентского изображения со спины FIMGB и клиентского изображения сбоку FIMGS.Thus, from the back image of IMG B and the side image of IMG S , the back client image of FIMG B and the side client image of FIMG S , respectively, are obtained and sent to the
Как показано на фиг.8, сервер 3 содержит модуль 20 связи, который принимает клиентское изображение со спины FIMGB и клиентское изображение сбоку FIMGS, и компоненты для обработки на стороне сервера, включая детектор 21 ключевых точек, средство 22 снятия проекционных мерок и средство 23 трехмерного прогнозирования мерок.As shown in FIG. 8, the
Детектор 21 ключевых точек выполнен с возможностью идентификации ключевых точек на основании толщины линии контура, поскольку клиентские изображения могут содержать шум, т.е. точки, которые не соответствуют контуру тела. Более точно, сканирование по горизонтальным линиям (например, слева направо) сначала выполняется на клиентском изображении со спины FIMGB, и пары последующих линий одинаковой толщины рассматриваются как левая и правая границы соответствующей части тела. Например, если при горизонтальном сканировании выявлено три пары одинаковых по толщине линий, то идентифицируются три части тела, которые могут быть левой и правой границей левой руки для первой пары, левой и правой границей туловища для второй пары и левой и правой границей правой руки для третьей пары.The
При сканировании клиентского изображения со спины FIMGB детектор 21 ключевых точек идентифицирует макушку, пятки, подмышки и промежность. Затем макушка и пятки идентифицируются с помощью второго сканирования клиентского изображения сбоку FIMGS.When scanning a client image from the back, the
Средство 22 снятия проекционных мерок выполнено с возможностью идентификации точек контура, принадлежащих туловищу, на основании положения подмышек и промежности, определенных детектором 21 ключевых точек (окна 30, 31 на фиг.5а и 5b). Чтобы уменьшить неровности, которые могут быть внесены предыдущими стадиями обработки, средство 22 снятия проекционных мерок аппроксимирует линии туловища (32, фиг.9) полиномиальными функциями (33, фиг.10). Учитывая характер туловища и, в частности, ожидаемое количество максимумов и минимумов, полином четвертой степени является достаточным и в то же время не слишком сложным для подгонки. Также возможные недостающие части контура могут быть оценены средством 22 снятия проекционных мерок с помощью полиномиальных функций, таких как полиномы Безье.The projection measuring means 22 is configured to identify contour points belonging to the torso based on the position of the armpits and perineum determined by the key point detector 21 (
Затем средство 22 снятия проекционных мерок измеряет проекции основных размеров тела на плоскость изображения или на перпендикулярную ей плоскость. Основные размеры тела могут включать, например, шею, грудь, талию, бедра, шаговый шов. Мерки груди, талии и бедер могут быть сняты в фиксированных и заранее определенных вертикальных координатах (Y-координата), например, следующим образом:Then the projection measuring means 22 measures the projections of the main dimensions of the body on the image plane or on a plane perpendicular to it. Basic body measurements may include, for example, neck, chest, waist, hips, crotch. Bust, waist and hip measurements can be taken in fixed and predefined vertical coordinates (Y-coordinate), for example, as follows:
где СА - расстояние между промежностью и подмышками.where CA is the distance between the perineum and armpits.
Согласно другому варианту осуществления Ychest берется в самой широкой части верхней трети туловища, полученной из клиентского изображения сбоку FIMGS; Ywaist берется в самой меньшей части центральной трети туловища, полученной из клиентского изображения со спины FIMGB; и Yhips берется в самой широкой части нижней трети туловища, полученной из клиентского изображения сбоку FIMGS. Другие мерки могут быть добавлены в соответствии с проектными предпочтениями.According to another embodiment, Ychest is taken at the widest part of the upper third of the torso, obtained from the FIMG S lateral client image; Ywaist is taken at the smallest part of the central third of the torso, obtained from the client image from the back of FIMG B ; and Yhips is taken at the widest part of the lower third of the torso, obtained from the FIMG S lateral client image. Other measurements may be added according to design preferences.
Средство 23 трехмерного прогнозирования мерок выполнено с возможностью предоставления оценок или прогнозов фактических размеров тела на основании мерок или проекционных мерок, предоставленных средством 22 снятия проекционных мерок. Для этого средство 23 трехмерного прогнозирования мерок может использовать либо упрощенную модель, такую как линейная модель, либо вероятностную модель, например, модель гауссова процесса. В то время как линейные модели являются более простыми и дают в целом удовлетворительные результаты в соответствии с промышленными стандартами в отношении ошибок, вероятностные модели позволяют дополнить прогнозирование для каждого измерения мерой его неопределенности. Неопределенность можно использовать для прогнозирования ошибок оценки и запуска соответствующих корректирующих действий, чтобы избежать предоставления пользователям неверных результатов и прогнозов, подверженных очень высокой дисперсии.The
Гауссовы процессы могут эффективно справляться с шумом, что важно для того, чтобы позволить сбор данных на изображениях, полученных на месте пользователями без специальной подготовки.Gaussian processes can effectively deal with noise, which is important in order to allow the collection of data on images taken in the field by users without special training.
Как правило, гауссовы процессы могут иметь следующий вид:As a rule, Gaussian processes can have the following form:
где m(x)=E[f(x)] - ожидаемое значение и k(x,x')=E[(f(x)-m(x))(f(x')-m(x'))] - ковариационная функция.where m(x)=E[f(x)] is the expected value and k(x,x')=E[(f(x)-m(x))(f(x')-m(x') )] - covariance function.
Функция, моделируемая гауссовым процессом, является функцией, прогнозирующей трехмерные мерки тела, начиная с длины их проекций на плоскость, как это обеспечивается средством 22 снятия проекционных мерок. Ковариационная функция позволяет получить нелинейное отображение и дает гибкость в конкретной форме нелинейности, которая допускается. Благодаря своим математическим свойствам, ковариационные функции могут быть объединены вместе, чтобы получить новые, показывающие желаемые характеристики. Согласно одному варианту осуществления сумма 3 различных ковариационных функций:The function modeled by the Gaussian process is a function that predicts three-dimensional measurements of the body, starting from the length of their projections on the plane, as provided by the means of taking
- постоянная ковариационная функция, используемая для моделирования ненулевых средних для различных переменныхis a constant covariance function used to model non-zero means for various variables
, ,
- линейная ковариационная функция- linear covariance function
, ,
где х и х' представляют две общие точки, а индекс d указывает на D измерений входного пространства,where x and x' represent two common points, and the index d indicates the D dimensions of the input space,
- квадратичная экспоненциальная ковариационная функция, которая позволяет получить нелинейные гладкие отображения- quadratic exponential covariance function, which allows obtaining non-linear smooth mappings
, ,
где х и х' представляют две общие точки, a h - характерный масштаб длины, действующий как коэффициент масштабирования.where x and x' represent two common points, and h is a characteristic length scale, acting as a scaling factor.
На выходе средство 23 трехмерного прогнозирования мерок предоставляет набор данных DS, который содержит оценки фактического (3D) размера соответствующих частей тела кадрируемого человека.As an output, the
Наконец, очевидно, что в описанные и изображенные устройство и способ могут быть внесены изменения и вариации, не выходящие за пределы объема правовой охраны прилагаемой формулы изобретения.Finally, it is obvious that changes and variations can be made to the described and illustrated device and method without going beyond the scope of the legal protection of the appended claims.
Claims (32)
Publications (2)
Publication Number | Publication Date |
---|---|
RU2021120174A RU2021120174A (en) | 2023-01-09 |
RU2789286C2 true RU2789286C2 (en) | 2023-02-01 |
Family
ID=
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102637317A (en) * | 2012-04-26 | 2012-08-15 | 东南大学 | Coin size measuring method based on vision |
US20130179288A1 (en) * | 2010-11-17 | 2013-07-11 | Upcload Gmbh | Collecting and using anthropometric measurements |
US20150154453A1 (en) * | 2012-09-05 | 2015-06-04 | Body Pass Ltd. | System and method for deriving accurate body size measures from a sequence of 2d images |
US20160174846A9 (en) * | 2010-12-27 | 2016-06-23 | Joseph Ralph Ferrantelli | Method and system for measuring anatomical dimensions from a digital photograph on a mobile device |
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130179288A1 (en) * | 2010-11-17 | 2013-07-11 | Upcload Gmbh | Collecting and using anthropometric measurements |
US20160174846A9 (en) * | 2010-12-27 | 2016-06-23 | Joseph Ralph Ferrantelli | Method and system for measuring anatomical dimensions from a digital photograph on a mobile device |
CN102637317A (en) * | 2012-04-26 | 2012-08-15 | 东南大学 | Coin size measuring method based on vision |
US20150154453A1 (en) * | 2012-09-05 | 2015-06-04 | Body Pass Ltd. | System and method for deriving accurate body size measures from a sequence of 2d images |
Non-Patent Citations (1)
Title |
---|
Youtube URL: www.youtube.com/watch?v=s5S0GzTE0ns, опубл. 2017 г. https://web.archive.org/web/20160331092259/https://pyimagesearch.com/2016/03/28/measuring-size-of-objects-in-an-image-with-opencv/. * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111353506B (en) | Adaptive line-of-sight estimation method and apparatus | |
CN102981603B (en) | Image processing apparatus and image processing method | |
US8982110B2 (en) | Method for image transformation, augmented reality, and teleperence | |
US8976160B2 (en) | User interface and authentication for a virtual mirror | |
JP7463052B2 (en) | Information processing device, information processing system, information processing method, and program | |
JP5613741B2 (en) | Image processing apparatus, method, and program | |
US20210319585A1 (en) | Method and system for gaze estimation | |
CN113544738B (en) | Portable acquisition device for anthropometric data and method for collecting anthropometric data | |
US20200279102A1 (en) | Movement monitoring system | |
CN111401318A (en) | Action recognition method and device | |
CN114894337B (en) | Temperature measurement method and device for outdoor face recognition | |
GB2602163A (en) | System for determining body measurements from images | |
JP4203279B2 (en) | Attention determination device | |
JP2022006919A (en) | Motion recognition system, method, and program | |
JP2005000301A (en) | Body posture diagnosing support system | |
RU2789286C2 (en) | Portable device for obtainment of anthropometric data and method for collection of anthropometric data | |
JP7259313B2 (en) | Attribute determination device, attribute determination system, attribute determination method, program and recording medium | |
JP5876121B2 (en) | Image processing apparatus, method, and program | |
Pini et al. | Baracca: a multimodal dataset for anthropometric measurements in automotive | |
CN111724901B (en) | Structure parameter prediction method, system and device based on vision and storage medium | |
CN113836991A (en) | Motion recognition system, motion recognition method, and storage medium | |
CN111079597A (en) | Three-dimensional information detection method and electronic equipment | |
Barelle et al. | The BIOTELEKINESY home care service: A holistic concept to prevent fall among the elderly based on ICT and computer vision | |
JP7147848B2 (en) | Processing device, posture analysis system, processing method, and processing program | |
KR102642222B1 (en) | system and method for Predicting human full body models under clothing from 2D full body images based on inference of position of the joint |