RU2789286C2 - Portable device for obtainment of anthropometric data and method for collection of anthropometric data - Google Patents

Portable device for obtainment of anthropometric data and method for collection of anthropometric data Download PDF

Info

Publication number
RU2789286C2
RU2789286C2 RU2021120174A RU2021120174A RU2789286C2 RU 2789286 C2 RU2789286 C2 RU 2789286C2 RU 2021120174 A RU2021120174 A RU 2021120174A RU 2021120174 A RU2021120174 A RU 2021120174A RU 2789286 C2 RU2789286 C2 RU 2789286C2
Authority
RU
Russia
Prior art keywords
images
fimg
img
image
measurements
Prior art date
Application number
RU2021120174A
Other languages
Russian (ru)
Other versions
RU2021120174A (en
Inventor
Эудженио Алессандро КАНЕПА
Стефано ФАЗАНА
Original Assignee
И-Деаль С.Р.Л.
Filing date
Publication date
Application filed by И-Деаль С.Р.Л. filed Critical И-Деаль С.Р.Л.
Publication of RU2021120174A publication Critical patent/RU2021120174A/en
Application granted granted Critical
Publication of RU2789286C2 publication Critical patent/RU2789286C2/en

Links

Images

Abstract

FIELD: computer technology.
SUBSTANCE: present invention relates to a portable device for obtainment of anthropometric data and to a method for collection of anthropometric data. The portable device for obtainment of anthropometric data contains an image sensor and a processing unit. The processing unit contains, in turn: a reception module made with the possibility of reception of the first human images from the image sensor; a processor for processing of impersonal images, made with the possibility of creation of the second images from corresponding first images by application of a border detection procedure; a communication module made with the possibility of sending of the second images.
EFFECT: reduction in a computational load, as well as increase in computing power.
15 cl, 12 dwg

Description

Область техники, к которой относится настоящее изобретениеThe field of technology to which the present invention relates

Настоящее изобретение относится к портативному устройству получения антропометрических данных и к способу сбора антропометрических данных.The present invention relates to a portable anthropometric data acquisition device and to a method for collecting anthropometric data.

Предшествующий уровень техники настоящего изобретенияBackground of the Invention

Как известно, сбор антропометрических показателей может представлять интерес во многих областях, начиная от торговли и заканчивая здравоохранением. Например, системы электронной коммерции, занимающиеся продажей одежды, могут помогать покупателям, предлагая им выбрать размер на основании набора персональных данных, включающего соответствующие мерки тела. Персональные данные могут быть переданы в автоматическую систему категоризации, и размер может быть выбран на основании общих критериев наилучшего соответствия. Такая услуга не только удобна для покупателей, но и позволяет значительно сократить количество возвращенных товаров, что выгодно и для поставщиков с точки зрения экономии средств. Другой пример, в диетологии мониторинг показателей тела может помочь в наблюдении за пациентом и подборе лечения в зависимости от его реакции.As you know, the collection of anthropometric indicators can be of interest in many areas, from trade to healthcare. For example, clothing e-commerce systems can assist shoppers by prompting them to select a size based on a set of personal data that includes relevant body measurements. Personal data may be submitted to an automatic categorization system and the size may be selected based on general best fit criteria. This service is not only convenient for customers, but also significantly reduces the number of returned goods, which is also beneficial for suppliers in terms of cost savings. Another example, in dietetics, monitoring of body parameters can help in monitoring the patient and selecting treatment depending on his response.

Очевидно, что преимущества использования антропометрических данных были бы значительно увеличены, если бы непосредственно покупатели или пациенты могли собирать данные на месте с помощью простых инструментов, которые не требуют специальной подготовки или навыков для получения достаточно точных результатов. Антропометрические данные обычно собираются путем получения и анализа изображений, причем для сбора данных можно использовать преимущества широкого распространения чрезвычайно универсальных устройств, таких как смартфоны. Инструменты для захвата изображений стали настолько удобными, что конечные пользователи почти всегда умеют кадрировать и получать изображения достаточного качества для выполнения необходимых процедур анализа.Clearly, the benefits of using anthropometric data would be greatly enhanced if direct purchasers or patients could collect data on the spot with simple tools that do not require special training or skills to produce reasonably accurate results. Anthropometric data is typically collected through image acquisition and analysis, and data collection can take advantage of the widespread use of highly versatile devices such as smartphones. Image capture tools have become so handy that end users are almost always able to crop and obtain images of sufficient quality to perform the necessary analysis procedures.

Однако делегирование задачи получения изображений конечным пользователям влечет за собой другие проблемы, которые необходимо принимать во внимание. С одной стороны, обработка изображений, которая сама по себе требовательна к ресурсам, должна также учитывать тот факт, что получение изображений в полевых условиях обычно страдает от плохих условий с точки зрения освещения, контраста с фоном, позы пользователя и т.п. Такие условия должны быть компенсированы путем совершенствования методов обработки, что обычно приводит к увеличению вычислительной нагрузки. Чтобы обеспечить достаточную вычислительную мощность, для анализа изображений на устройствах конечного пользователя выделяются только основные функции захвата, в то время как основные процедуры анализа выполняются на удаленных сайтах, доступных через Интернет-соединение. С другой стороны, обмен изображениями с удаленными сайтами вызывает опасения относительно конфиденциальности и защиты персональных данных, поскольку речь идет о конфиденциальной информации, а требования законодательства становятся все более строгими. По сути, информация, касающаяся личного аспекта, отправляется без контроля со стороны конечного пользователя. Очевидно, что обработка информации имеет решающее значение, особенно для медицинских применений.However, the delegation of the task of obtaining images to end users entails other problems that must be taken into account. On the one hand, image processing, which is resource intensive in itself, must also take into account the fact that field imaging usually suffers from poor conditions in terms of lighting, contrast with the background, user posture, and the like. Such conditions must be compensated by improving processing methods, which usually leads to an increase in the computational load. To ensure sufficient computing power, only basic capture functions are dedicated to image analysis on end user devices, while the main analysis procedures are performed at remote sites accessible via an Internet connection. On the other hand, sharing images with remote sites raises privacy and personal data protection concerns as sensitive information is involved and legal requirements are becoming more stringent. In essence, information relating to the personal aspect is sent without the control of the end user. Clearly, information processing is critical, especially for medical applications.

Описание изобретенияDescription of the invention

Таким образом, задачей настоящего изобретения является предоставление портативного устройства получения антропометрических данных и способа сбора антропометрических данных, которые позволяют преодолеть или по меньшей мере смягчить описанные ограничения.Thus, it is an object of the present invention to provide a portable anthropometric data acquisition device and anthropometric data collection method that overcomes or at least alleviates the described limitations.

Согласно настоящему изобретению предлагается портативное устройство получения антропометрических данных и способ сбора антропометрических данных, определенные в пунктах 1 и 19 формулы изобретения соответственно.The present invention provides a portable anthropometric data acquisition device and an anthropometric data collection method as defined in claims 1 and 19, respectively.

Краткое описание фигурBrief description of the figures

Настоящее изобретение будет описано со ссылкой на сопроводительные чертежи, иллюстрирующие некоторые неограничивающие варианты его осуществления, на которых:The present invention will be described with reference to the accompanying drawings, illustrating some non-limiting embodiments of the same, in which:

- фиг.1 представляет собой упрощенную принципиальную схему системы получения антропометрических данных;- figure 1 is a simplified schematic diagram of the system for obtaining anthropometric data;

- фиг.2 представляет собой более подробную принципиальную схему портативных устройств получения антропометрических данных, входящих в систему, показанную на фиг.2, и выполненных в соответствии с одним из вариантов осуществления настоящего изобретения;- figure 2 is a more detailed schematic diagram of portable devices for obtaining anthropometric data included in the system shown in figure 2, and made in accordance with one of the embodiments of the present invention;

- на фиг.3а и 3b показаны маски для получения данных, используемые в устройстве, показанном на фиг.2;- figures 3a and 3b show masks for receiving data used in the device shown in figure 2;

- фиг.4 представляет собой упрощенную блок-схему стадий способа в соответствии с одним вариантом осуществления настоящего изобретения;- Fig.4 is a simplified block diagram of the steps of the method in accordance with one embodiment of the present invention;

- на фиг.5а и 5b показаны изображения, полученные в устройстве, показанном на фиг. 2;- Figs. 5a and 5b show images obtained in the device shown in Figs. 2;

- фиг.6 представляет собой более подробную блок-схему части стадий способа, показанного на фиг.4;- Fig.6 is a more detailed block diagram of part of the steps of the method shown in Fig.4;

- фиг.7 представляет собой более подробную принципиальную схему компонента устройства, показанного на фиг.2;- Fig.7 is a more detailed schematic diagram of a component of the device shown in Fig.2;

- фиг.8 представляет собой более подробную принципиальную схему компонента системы, показанной на фиг.1; и- Fig.8 is a more detailed schematic diagram of a component of the system shown in Fig.1; And

- на фиг.9 и 10 показаны изображения, полученные в компоненте, показанном на фиг. 8.- Figs. 9 and 10 show images obtained in the component shown in Figs. 8.

Предпочтительный вариант осуществления изобретенияPreferred embodiment of the invention

На фиг.1 система получения антропометрических данных обозначена в целом ссылочным номером 1 и содержит одно или несколько портативных устройств 2 получения антропометрических данных в соответствии с одним вариантом осуществления настоящего изобретения и сервер 3. Портативные устройства 2 получения и сервер 3 связаны между собой по глобальной сети 4, например, через Интернет. Портативные устройства 2 получения выполнены с возможностью получения изображений людей и выполнения предварительных стадий обработки изображений, которые в дальнейшем обозначаются как обработка на стороне клиента, при которой данные, отправленные на сервер для осуществления извлечения соответствующих признаков (обработка на стороне сервера), очищаются от информации о личности.In FIG. 1, the anthropometric data acquisition system is indicated generally by the reference number 1 and comprises one or more portable anthropometric data acquisition devices 2 in accordance with one embodiment of the present invention and a server 3. The portable acquisition devices 2 and the server 3 are interconnected via a wide area network. 4, for example, via the Internet. The portable acquisition devices 2 are capable of capturing images of people and performing preliminary image processing steps, which are hereinafter referred to as client-side processing, in which data sent to the server to perform corresponding feature extraction (server-side processing) is cleared of information about personality.

Одно иллюстративное портативное устройство 2 получения показано на фиг.2 и будет упоминаться далее, при этом следует понимать, что другие портативные устройства 2 получения содержат те же компоненты. Портативное устройство 2 получения содержит блок 5 обработки, дисплей 6 и датчик 7 изображения. Согласно одному варианту осуществления портативное устройство 2 получения может быть встроено в смартфон, планшетный компьютер или ноутбук, преимущественно со встроенным сенсорным экраном в качестве дисплея 6 и фотокамерой в качестве датчика 7 изображения. При этом дисплей 6 не обязательно должен быть сенсорным.One exemplary portable receiving device 2 is shown in FIG. 2 and will be referred to below, it being understood that other portable receiving devices 2 contain the same components. The portable receiving device 2 includes a processing unit 5, a display 6 and an image sensor 7. According to one embodiment, the portable receiving device 2 can be integrated into a smartphone, tablet computer or laptop, advantageously with an integrated touch screen as display 6 and a camera as image sensor 7. In this case, the display 6 does not have to be touch sensitive.

Блок 5 обработки выполнен с возможностью реализации модуля 8 получения, процессора 10 обработки изображений и модуля 11 связи.The processing unit 5 is configured to implement the acquisition module 8, the image processor 10 and the communication module 11.

Модуль 8 получения активирует дисплей 6 в режиме реального времени во время получения и захватывает изображения с датчика 7 изображения в ответ на команды съемки, отправленные пользователем через интерфейс, который может предусматривать виртуальные или аппаратные кнопки (не показаны). В режиме реального времени выходные сигналы датчика 7 изображения непрерывно отображаются на дисплее 6. Модуль 8 получения также отправляет информацию на дисплей 6 для визуального представления пользователю, чтобы помочь правильному получению.The acquisition module 8 activates the display 6 in real time during acquisition and captures images from the image sensor 7 in response to capture commands sent by the user through an interface that may include virtual or hard buttons (not shown). The real-time output signals of the image sensor 7 are continuously displayed on the display 6. The acquisition module 8 also sends information to the display 6 for visual presentation to the user to help correct acquisition.

Изображения, захваченные модулем 8 получения, поступают в процессор 10 обработки изображений. Модуль 8 получения может быть снабжен некоторыми возможностями обработки для выполнения основных действий, таких как баланс белого, регулировка яркости и контрастности и преобразование в сжатый формат. В качестве альтернативы изображения в необработанном формате отправляются в процессор 10 обработки изображений, который выполняет все необходимые стадии обработки.The images captured by the receiving module 8 are supplied to the image processor 10 . The acquisition module 8 may be provided with some processing capabilities to perform basic operations such as white balance, brightness and contrast adjustment, and conversion to a compressed format. Alternatively, the raw format images are sent to the image processor 10 which performs all the necessary processing steps.

Процессор 10 обработки изображений извлекает из принятых изображений модифицированные клиентские изображения. Извлеченные клиентские изображения отправляются на сервер 3 через модуль 11 связи для обработки на стороне сервера, которая может, следовательно, зависеть от ресурсов более высокого уровня.The image processor 10 extracts modified client images from the received images. The retrieved client images are sent to the server 3 via the communication module 11 for server-side processing, which may therefore be dependent on higher level resources.

Получение изображения осуществляется с помощью модуля 8 получения, который предоставляет информацию для того, чтобы направить кадрируемого человека к принятию позы в диапазоне допустимых поз, в то время как оператор делает снимок со спины и снимок сбоку. Стандартная поза значительно снижает вычислительную нагрузку, связанную с обработкой изображений. Более конкретно (фиг.3а), модуль 8 получения начинает получение изображения со спины путем наложения маски 13 для изображения со спины на изображения, отображаемые на дисплее 6 в режиме реального времени. Таким образом, человек может быть направлен принять позу, соответствующую маске 13 для изображения со спины, которая согласно одному варианту может потребовать положения стоя с ногами врозь и руками, отведенными от туловища. Когда поза правильная, оператор активирует команды съемки, и изображение со спины IMGB (фиг.2) захватывается модулем 8 получения и отправляется в процессор 10 обработки изображений. Изображение со спины IMGB может временно храниться в блоке памяти, встроенном либо в модуль 8 получения, либо в процессор 10 обработки изображений, или в блоке памяти общего назначения портативного устройства 2 получения.The acquisition of the image is carried out by the acquisition module 8, which provides information to direct the cropped person to take a pose in a range of acceptable poses while the operator takes a picture from the back and a picture from the side. The standard pose significantly reduces the computational load associated with image processing. More specifically (FIG. 3a), the acquisition module 8 starts acquiring the back image by overlaying the back image mask 13 on the images displayed on the display 6 in real time. Thus, the person may be directed to assume a posture corresponding to the back mask 13, which in one embodiment may require a standing position with the legs apart and arms away from the torso. When the posture is correct, the operator activates the shooting commands, and the image from the back of the IMG B (figure 2) is captured by the acquisition module 8 and sent to the image processor 10. The image from the back of the IMG B may be temporarily stored in a memory unit built into either the acquisition unit 8 or the image processor 10, or in the general purpose memory unit of the portable acquisition device 2.

После того как изображение со спины IMGB было захвачено и сохранено или отправлено в процессор 10 обработки изображений, модуль 8 получения начинает получение изображения сбоку и накладывает маску 14 для изображения сбоку (фиг.3b) на изображения, отображаемые на дисплее 6 в режиме реального времени. Опять-таки, человека направляют принять позу, соответствующую маске 13 для изображения сбоку, которая требует положения стоя с руками, лежащими вдоль туловища. Когда поза правильная, оператор активирует команду съемки, и изображение сбоку IMGS захватывается и отправляется в процессор 10 обработки изображений или сохраняется подобно изображению со спины IMGB.After the image from the back of the IMG B has been captured and stored or sent to the image processor 10, the acquisition module 8 starts acquiring the side image and overlays the side image mask 14 (FIG. 3b) on the images displayed on the display 6 in real time . Again, the person is directed to take the pose corresponding to the side view mask 13, which requires a standing position with arms along the torso. When the posture is correct, the operator activates the shooting command, and the image from the side of the IMG S is captured and sent to the image processor 10 or stored like the image from the back of the IMG B .

Каждое из изображения со спины IMGB и изображения сбоку IMGS затем обрабатывается процессором 10 обработки изображений для обнаружения границ и восстановления контуров по существу на одной и той же стадии. Для простоты в дальнейшем будет делаться ссылка на изображение со спины IMGB, и будет понятно, что то же самое относится и к изображению сбоку IMGS, если не указано иное.Each of the IMG B back image and the IMG S side image is then processed by the image processor 10 to detect edges and restore contours at essentially the same stage. For simplicity, reference will hereinafter be made to the image from the back of IMG B and it will be understood that the same applies to the image from the side of IMG S unless otherwise noted.

Как показано на фиг.4, после получения изображения сбоку IMGS в формате, пригодном для обработки, процессор 10 обработки изображений очищает части изображения сбоку IMGS, соответствующие участкам за пределами маски 13 для изображения со спины (блок 100), тем самым уменьшая шум. Затем выполняется обнаружение границ (блок 110) и восстановление контура (блок 120). Таким образом, получается и передается на сервер 3 клиентское изображение со спины FIMGB, включающее только контур тела и, возможно, остаточный фоновый шум. Примеры клиентского изображения со спины FIMGB и клиентского изображения сбоку FIMGS показаны на фиг.5а и 5b соответственно. На стадии обнаружения границ теряются особенности тела, которые могут позволить идентифицировать изображенного человека.As shown in FIG. 4, after obtaining a side IMG S image in a format suitable for processing, the image processor 10 cleans up portions of the side IMG S image corresponding to areas outside the back mask 13 (block 100), thereby reducing noise. . Edge detection is then performed (block 110) and contour reconstruction (block 120). Thus, a client image from the back of FIMG B is obtained and transmitted to the server 3, including only the outline of the body and possibly residual background noise. Examples of a back client image of FIMG B and a side client image of FIMG S are shown in FIGS. 5a and 5b, respectively. At the boundary detection stage, features of the body that may allow identification of the depicted person are lost.

Обнаружение границ может осуществляться несколькими способами, но в целом предпочтительно, чтобы толщина контура была достаточно постоянной, поскольку она может быть критическим параметром при последующей обработке на стороне сервера. Процессор 10 обработки изображений может быть выполнен с возможностью объединения различных процедур обнаружения границ для повышения производительности.Edge detection can be done in several ways, but in general it is preferable that the thickness of the outline be fairly constant, as it can be a critical parameter in server-side post-processing. The image processor 10 may be configured to combine various edge detection routines to improve performance.

Согласно одному варианту осуществления (фиг.6) процессор 10 обработки изображений предварительно применяет процесс шумоподавления к изображению со спины IMGB для снижения влияния высокочастотного шума (блок 112). Процесс шумоподавления может представлять собой медианную фильтрацию. Было обнаружено, что размер ядра 15 пикселей в операторе медианной фильтрации обеспечивает приемлемую эффективность фильтрации без ухудшения точности последующего обнаружения границ.According to one embodiment (FIG. 6), the image processor 10 previously applies a noise reduction process to the image from the back of IMG B to reduce the effect of high frequency noise (block 112). The denoising process may be median filtering. It has been found that a kernel size of 15 pixels in the median filtering operator provides acceptable filtering performance without compromising the accuracy of subsequent edge detection.

Затем (блок 114), контур изображения со спины IMGB сначала выделяется с помощью процесса детектора границ Кэнни, который описан в Canny, J., "A Computational Approach То Edge Detection", IEEE Trans. Pattern Analysis and Machine Intelligence, 8(6):679-698, 1986. Детектор границ Кэнни очень чувствителен к областям изображения с низким контрастом, которые могут действительно присутствовать. Этот аспект может быть критичным, поскольку при получении изображения в полевых условиях не всегда возможно выбрать фон, обеспечивающий достаточный контраст. Чтобы избежать потери информации, контур изображения со спины IMGB повторно выделяется процессором 10 с помощью другого процесса детектора границ (блок 116), и результат повторного выделения контура объединяется с результатом первого выделения контура детектором границ Кэнни в блоке 120 на фиг.4. Согласно одному варианту осуществления процессор 10 обработки изображений использует структурированный случайный лес для обнаружения границ, который также называют структурированным детектором границ. Структурированный детектор границ менее чувствителен к локальным областям с низким контрастом, а также более устойчив к шуму, чем детектор границ Кэнни, таким образом, устраняя недостатки последнего.Next (block 114), the edge of the image from the back of IMG B is first extracted using the Canny edge detector process, which is described in Canny, J., "A Computational Approach to Edge Detection", IEEE Trans. Pattern Analysis and Machine Intelligence, 8(6):679-698, 1986. The Canny edge detector is very sensitive to areas of low contrast in an image that may actually be present. This aspect can be critical, since it is not always possible to select a background that provides sufficient contrast when obtaining an image in the field. To avoid loss of information, the contour of the image from the back of IMG B is re-derived by the processor 10 using another edge detector process (block 116), and the result of the re-edge extraction is combined with the result of the first contour extraction by the Canny edge detector in block 120 in FIG. According to one embodiment, the image processor 10 uses a structured random forest for edge detection, which is also referred to as a structured edge detector. The structured edge detector is less sensitive to local areas of low contrast and is also more robust to noise than the Canny edge detector, thus eliminating the disadvantages of the latter.

На фиг.7 показана иллюстративная структура детектора 10 изображения, реализующего процесс согласно фиг.4 и 6. Согласно показанному варианту осуществления детектор 10 изображения содержит фильтр 15 подавления шума, принимающий изображение со спины IMGB (и изображение сбоку IMGS) и передающий его параллельно в детектор границ Кэнни и структурированный детектор границ, обозначенные в настоящем документе ссылочными позициями 16 и 17 соответственно. Первый выход I1 детектора 16 границ Кэнни и второй выход I2 структурированного детектора 17 границ затем объединяются в модуле 18 восстановления контура, который объединяет результаты первого и второго выделения контура и выдает клиентское изображение со спины FIMGB и клиентское изображение сбоку FIMGS.FIG. 7 shows an exemplary structure of an image detector 10 implementing the process of FIGS. 4 and 6. According to the illustrated embodiment, the image detector 10 comprises a noise reduction filter 15 receiving an image from the back of the IMG B (and an image from the side of the IMG S ) and transmitting it in parallel. into a Canny edge detector and a structured edge detector, referred to herein as 16 and 17, respectively. The first output I 1 of the Canny edge detector 16 and the second output I 2 of the structured edge detector 17 are then combined in an edge recovery module 18 which combines the results of the first and second edge extraction and outputs a rear client image FIMG B and a side client image FIMG S .

Согласно одному варианту осуществления модуль 18 восстановления контура объединяет первый выход I1 детектора 16 границ Кэнни и второй выход I2 структурированного детектора 17 границ путем сложения, выбора порога и бинаризации. Точнее, значения яркости первого выхода I1 и второго выхода I2 складываются, и результат сравнивается с порогом τ, который может быть выбран как доля от максимального отклика датчика 7 изображения, например, 10%. Комбинированный выход определяет клиентское изображение со спины FIMGB, которому присваивается первое логическое значение L1 (например, высокое), если сумма первого выхода I1 и второго выхода I2 превышает порог τ, и второе логическое значение L1 (например, низкое) в противном случае:According to one embodiment, contour recovery module 18 combines the first output I 1 of the Canny edge detector 16 and the second output I 2 of the structured edge detector 17 by addition, thresholding, and binarization. More precisely, the brightness values of the first output I 1 and the second output I 2 are added and the result is compared with a threshold τ, which may be selected as a fraction of the maximum response of the image sensor 7, for example 10%. The combined output defines a client image from the back of FIMG B , which is assigned a first logical value L 1 (eg, high) if the sum of the first output I 1 and the second output I 2 exceeds a threshold τ, and a second logical value L 1 (eg, low) in otherwise:

Figure 00000001
Figure 00000001

Аналогично, клиентское изображение сбоку FIMGS определяется следующим образом:Similarly, the FIMG S side client image is defined as follows:

Figure 00000002
Figure 00000002

Когда изображение сбоку IMGS передается на детектор 16 границ Кэнни и на структурированный детектор 17 границ (выход которых обозначен I1' и I2' соответственно).When the side image of the IMG S is transmitted to the Canny edge detector 16 and the structured edge detector 17 (the output of which is labeled I 1 ' and I 2 ' respectively).

Согласно другому варианту осуществления вероятностные модели могут быть использованы, когда в портативных устройствах 2 получения доступна достаточная вычислительная мощность, чтобы иметь приемлемую задержку отклика для пользователей.According to another embodiment, probabilistic models may be used when sufficient processing power is available in the portable receiving devices 2 to have an acceptable response delay for users.

Каждому участку в изображении IMGB (или IMGS) присваивается метка 1∈[L1, L2]IMGB, которая минимизирует функцию энергии Е(l). Функция энергии содержит первый компонент и второй компонент и выглядит следующим образом:Each patch in the image IMG B (or IMG S ) is assigned a label 1∈[L1, L2] IMGB that minimizes the energy function E(l). The energy function contains the first component and the second component and looks like this:

Figure 00000003
Figure 00000003

Первый компонент EUNARY(l) - это функция, которая стремится присвоить каждому пикселю значение, соответствующее выходу детекторов границ с относительными вероятностями w1 и w2 соответственноThe first component of E UNARY (l) is a function that seeks to assign to each pixel a value corresponding to the output of the edge detectors with relative probabilities w 1 and w2 respectively

Figure 00000004
Figure 00000004

гдеWhere

Figure 00000005
Figure 00000005

и w1 и w2 - это весовые параметры, которые определяют, в какой степени детектор 16 границ Кэнни и структурированный детектор 17 границ будут влиять на результат.and w 1 and w 2 are weight parameters that determine to what extent the Canny edge detector 16 and structured edge detector 17 will influence the result.

Второй компонент EPAIRWISE(l) стремится к тому, чтобы соседние пиксели соответствовали друг другу по метке, добавляя постоянный штраф за несоответствие, и он определяется следующим образом:The second component of E PAIRWISE (l) seeks to have neighboring pixels match each other on the label, adding a constant mismatch penalty, and it is defined as follows:

Figure 00000006
Figure 00000006

гдеWhere

Figure 00000007
Figure 00000007

и PAIRS(I) включает все пары соседних точек изображения.and PAIRS(I) includes all pairs of adjacent image pixels.

Весовой параметр wP определяет, насколько сильным должно быть соответствие между соседними пикселями. Оптимальное решениеThe weight parameter w P determines how strong the correspondence between neighboring pixels should be. Optimal solution

Figure 00000008
Figure 00000008

аппроксимируется с помощью алгоритма распространения доверия с помощью перевзвешивания деревьев.is approximated by a trust propagation algorithm using tree reweighting.

Таким образом, из изображения со спины IMGB и изображения сбоку IMGS получаются клиентское изображение со спины FIMGB и клиентское изображение сбоку FIMGS соответственно, которые отправляются на сервер 3 для обработки на стороне сервера. Клиентское изображение со спины FIMGB и клиентское изображение сбоку FIMGS включают полный и достоверный контур тела кадрируемого человека, и никакая персональная информация о личности не передается без контроля со стороны пользователя. Персональная информация (например, черты лица) фактически удаляется на стадиях обнаружения границ и восстановления контура без необходимости специальной обработки, а контур тела остается в значительной степени анонимным. Как уже упоминалось, иллюстративные клиентское изображение со спины FIMGB и клиентское изображение сбоку FIMGS показаны на фиг.5а и 5b соответственно, где также изображены маска 13 для изображения со спины и маска 14 для изображения сбоку, чтобы интуитивно представить, как осуществляется получение изображения и обработка на стороне клиента. Однако маска 13 для изображения со спины и маска 14 для изображения сбоку сами по себе не обязательно должны быть частью клиентского изображения со спины FIMGB и клиентского изображения сбоку FIMGS.Thus, from the back image of IMG B and the side image of IMG S , the back client image of FIMG B and the side client image of FIMG S , respectively, are obtained and sent to the server 3 for server-side processing. The FIMG B back client image and the FIMG S side client image include a complete and accurate body contour of the person being cropped, and no personal information about the identity is transmitted without the control of the user. Personal information (such as facial features) is effectively removed during the boundary detection and contouring stages without the need for special processing, and the body contour remains largely anonymous. As already mentioned, exemplary FIMG B back client image and FIMG S side client image are shown in FIGS. 5a and 5b, respectively, which also show a back image mask 13 and a side image mask 14 to intuitively illustrate how image acquisition is performed. and processing on the client side. However, the back mask 13 and the side mask 14 need not themselves be part of the back client image FIMG B and the side client image FIMG S .

Как показано на фиг.8, сервер 3 содержит модуль 20 связи, который принимает клиентское изображение со спины FIMGB и клиентское изображение сбоку FIMGS, и компоненты для обработки на стороне сервера, включая детектор 21 ключевых точек, средство 22 снятия проекционных мерок и средство 23 трехмерного прогнозирования мерок.As shown in FIG. 8, the server 3 includes a communication module 20 that receives a back client image FIMG B and a side client image FIMG S , and components for server-side processing, including a key point detector 21, a projection measurer 22, and a 23 three-dimensional prediction measurements.

Детектор 21 ключевых точек выполнен с возможностью идентификации ключевых точек на основании толщины линии контура, поскольку клиентские изображения могут содержать шум, т.е. точки, которые не соответствуют контуру тела. Более точно, сканирование по горизонтальным линиям (например, слева направо) сначала выполняется на клиентском изображении со спины FIMGB, и пары последующих линий одинаковой толщины рассматриваются как левая и правая границы соответствующей части тела. Например, если при горизонтальном сканировании выявлено три пары одинаковых по толщине линий, то идентифицируются три части тела, которые могут быть левой и правой границей левой руки для первой пары, левой и правой границей туловища для второй пары и левой и правой границей правой руки для третьей пары.The key point detector 21 is configured to identify key points based on the thickness of the contour line, since client images may contain noise, i.e. points that do not correspond to the contour of the body. More specifically, scanning along horizontal lines (eg, from left to right) is first performed on the client image from the back of FIMG B , and pairs of subsequent lines of equal thickness are considered as the left and right borders of the corresponding body part. For example, if three pairs of lines of the same thickness are detected during horizontal scanning, then three body parts are identified, which can be the left and right borders of the left hand for the first pair, the left and right borders of the torso for the second pair, and the left and right borders of the right hand for the third couples.

При сканировании клиентского изображения со спины FIMGB детектор 21 ключевых точек идентифицирует макушку, пятки, подмышки и промежность. Затем макушка и пятки идентифицируются с помощью второго сканирования клиентского изображения сбоку FIMGS.When scanning a client image from the back, the FIMG B 21 keypoint detector identifies the crown, heels, underarms, and perineum. The crown and heels are then identified with a second FIMG S lateral scan of the client image.

Средство 22 снятия проекционных мерок выполнено с возможностью идентификации точек контура, принадлежащих туловищу, на основании положения подмышек и промежности, определенных детектором 21 ключевых точек (окна 30, 31 на фиг.5а и 5b). Чтобы уменьшить неровности, которые могут быть внесены предыдущими стадиями обработки, средство 22 снятия проекционных мерок аппроксимирует линии туловища (32, фиг.9) полиномиальными функциями (33, фиг.10). Учитывая характер туловища и, в частности, ожидаемое количество максимумов и минимумов, полином четвертой степени является достаточным и в то же время не слишком сложным для подгонки. Также возможные недостающие части контура могут быть оценены средством 22 снятия проекционных мерок с помощью полиномиальных функций, таких как полиномы Безье.The projection measuring means 22 is configured to identify contour points belonging to the torso based on the position of the armpits and perineum determined by the key point detector 21 (windows 30, 31 in FIGS. 5a and 5b). In order to reduce irregularities that may be introduced by previous processing steps, the projection measuring means 22 approximates the torso lines (32, FIG. 9) with polynomial functions (33, FIG. 10). Given the nature of the torso and, in particular, the expected number of highs and lows, a 4th degree polynomial is sufficient and at the same time not too difficult to fit. Also, possible missing contour parts can be estimated by the projection measurer 22 using polynomial functions such as Bezier polynomials.

Затем средство 22 снятия проекционных мерок измеряет проекции основных размеров тела на плоскость изображения или на перпендикулярную ей плоскость. Основные размеры тела могут включать, например, шею, грудь, талию, бедра, шаговый шов. Мерки груди, талии и бедер могут быть сняты в фиксированных и заранее определенных вертикальных координатах (Y-координата), например, следующим образом:Then the projection measuring means 22 measures the projections of the main dimensions of the body on the image plane or on a plane perpendicular to it. Basic body measurements may include, for example, neck, chest, waist, hips, crotch. Bust, waist and hip measurements can be taken in fixed and predefined vertical coordinates (Y-coordinate), for example, as follows:

Figure 00000009
Figure 00000009

где СА - расстояние между промежностью и подмышками.where CA is the distance between the perineum and armpits.

Согласно другому варианту осуществления Ychest берется в самой широкой части верхней трети туловища, полученной из клиентского изображения сбоку FIMGS; Ywaist берется в самой меньшей части центральной трети туловища, полученной из клиентского изображения со спины FIMGB; и Yhips берется в самой широкой части нижней трети туловища, полученной из клиентского изображения сбоку FIMGS. Другие мерки могут быть добавлены в соответствии с проектными предпочтениями.According to another embodiment, Ychest is taken at the widest part of the upper third of the torso, obtained from the FIMG S lateral client image; Ywaist is taken at the smallest part of the central third of the torso, obtained from the client image from the back of FIMG B ; and Yhips is taken at the widest part of the lower third of the torso, obtained from the FIMG S lateral client image. Other measurements may be added according to design preferences.

Средство 23 трехмерного прогнозирования мерок выполнено с возможностью предоставления оценок или прогнозов фактических размеров тела на основании мерок или проекционных мерок, предоставленных средством 22 снятия проекционных мерок. Для этого средство 23 трехмерного прогнозирования мерок может использовать либо упрощенную модель, такую как линейная модель, либо вероятностную модель, например, модель гауссова процесса. В то время как линейные модели являются более простыми и дают в целом удовлетворительные результаты в соответствии с промышленными стандартами в отношении ошибок, вероятностные модели позволяют дополнить прогнозирование для каждого измерения мерой его неопределенности. Неопределенность можно использовать для прогнозирования ошибок оценки и запуска соответствующих корректирующих действий, чтобы избежать предоставления пользователям неверных результатов и прогнозов, подверженных очень высокой дисперсии.The 3D measurement predictor 23 is configured to provide estimates or predictions of actual body measurements based on measurements or projection measurements provided by the projection measurement engine 22 . To this end, the 3D measurement predictor 23 may use either a simplified model, such as a linear model, or a probabilistic model, such as a Gaussian process model. While linear models are simpler and give generally satisfactory results in accordance with industry standards in terms of errors, probabilistic models allow you to supplement the prediction for each measurement with a measure of its uncertainty. Uncertainty can be used to predict estimation errors and trigger appropriate corrective actions to avoid giving users incorrect results and forecasts subject to very high variance.

Гауссовы процессы могут эффективно справляться с шумом, что важно для того, чтобы позволить сбор данных на изображениях, полученных на месте пользователями без специальной подготовки.Gaussian processes can effectively deal with noise, which is important in order to allow the collection of data on images taken in the field by users without special training.

Как правило, гауссовы процессы могут иметь следующий вид:As a rule, Gaussian processes can have the following form:

Figure 00000010
Figure 00000010

где m(x)=E[f(x)] - ожидаемое значение и k(x,x')=E[(f(x)-m(x))(f(x')-m(x'))] - ковариационная функция.where m(x)=E[f(x)] is the expected value and k(x,x')=E[(f(x)-m(x))(f(x')-m(x') )] - covariance function.

Функция, моделируемая гауссовым процессом, является функцией, прогнозирующей трехмерные мерки тела, начиная с длины их проекций на плоскость, как это обеспечивается средством 22 снятия проекционных мерок. Ковариационная функция позволяет получить нелинейное отображение и дает гибкость в конкретной форме нелинейности, которая допускается. Благодаря своим математическим свойствам, ковариационные функции могут быть объединены вместе, чтобы получить новые, показывающие желаемые характеристики. Согласно одному варианту осуществления сумма 3 различных ковариационных функций:The function modeled by the Gaussian process is a function that predicts three-dimensional measurements of the body, starting from the length of their projections on the plane, as provided by the means of taking projection measurements 22 . The covariance function allows for a non-linear mapping and gives flexibility in the specific form of non-linearity that is allowed. Due to their mathematical properties, covariance functions can be combined together to produce new ones that exhibit the desired characteristics. In one embodiment, the sum of 3 different covariance functions is:

- постоянная ковариационная функция, используемая для моделирования ненулевых средних для различных переменныхis a constant covariance function used to model non-zero means for various variables

Figure 00000011
,
Figure 00000011
,

- линейная ковариационная функция- linear covariance function

Figure 00000012
,
Figure 00000012
,

где х и х' представляют две общие точки, а индекс d указывает на D измерений входного пространства,where x and x' represent two common points, and the index d indicates the D dimensions of the input space,

- квадратичная экспоненциальная ковариационная функция, которая позволяет получить нелинейные гладкие отображения- quadratic exponential covariance function, which allows obtaining non-linear smooth mappings

Figure 00000013
,
Figure 00000013
,

где х и х' представляют две общие точки, a h - характерный масштаб длины, действующий как коэффициент масштабирования.where x and x' represent two common points, and h is a characteristic length scale, acting as a scaling factor.

На выходе средство 23 трехмерного прогнозирования мерок предоставляет набор данных DS, который содержит оценки фактического (3D) размера соответствующих частей тела кадрируемого человека.As an output, the 3D sizing predictor 23 provides a data set DS that contains estimates of the actual (3D) size of the respective body parts of the person being cropped.

Наконец, очевидно, что в описанные и изображенные устройство и способ могут быть внесены изменения и вариации, не выходящие за пределы объема правовой охраны прилагаемой формулы изобретения.Finally, it is obvious that changes and variations can be made to the described and illustrated device and method without going beyond the scope of the legal protection of the appended claims.

Claims (32)

1. Портативное устройство получения антропометрических данных, содержащее датчик (7) изображения и блок (5) обработки, причем блок (5) обработки содержит:1. A portable device for obtaining anthropometric data, containing an image sensor (7) and a processing unit (5), and the processing unit (5) contains: модуль (8) получения, выполненный с возможностью приема первых изображений (IMGB, IMGS) человека от датчика (7) изображения;an acquisition module (8) configured to receive first images (IMG B , IMG S ) of a person from the image sensor (7); процессор (10) обработки изображений, выполненный с возможностью создания вторых изображений (FIMGB, FIMGS) из соответствующих первых изображений (IMGB, IMGS) путем применения процедуры обнаружения границ;an image processor (10) configured to create second images (FIMG B , FIMG S ) from the respective first images (IMG B , IMG S ) by applying an edge detection procedure; модуль (11) связи, выполненный с возможностью отправки вторых изображений (FIMGB, FIMGS),communication module (11) configured to send second images (FIMG B , FIMG S ), отличающееся тем, чтоdifferent in that процессор (10) обработки изображений содержит первый детектор (16) границ, выполненный с возможностью выполнения первого выделения контура, второй детектор (17) границ, выполненный с возможностью выполнения второго выделения контура, и причем первые изображения (IMGB, IMGS) передаются параллельно на первый детектор (16) границ и на второй детектор (17) границ;the image processing processor (10) comprises a first edge detector (16) configured to perform a first edge extraction, a second edge detector (17) configured to perform a second edge extraction, and the first images (IMG B , IMG S ) are transmitted in parallel to the first border detector (16) and to the second border detector (17); и процессор (10) обработки изображений содержит модуль (18) восстановления контура, выполненный с возможностью объединения результатов первого выделения контура, выполненного первым детектором (16) границ, и второго выделения контура, выполненного вторым детектором (17) границ;and the image processor (10) comprises a contour recovery module (18) configured to combine the results of the first contour extraction performed by the first edge detector (16) and the second contour extraction performed by the second edge detector (17); при этомwherein модуль (18) восстановления контура выполнен с возможностью присвоения метки (1), которая минимизирует функцию энергии Е(l) для каждого участка на первых изображениях (IMGB, IMGS), и причем функция энергии характеризуется наличием первого компонента EUNARY(l) и второго компонента EPAIRWISE(l) и определяется следующим образом:the contour recovery module (18) is configured to assign a label (1) that minimizes the energy function E(l) for each area in the first images (IMG B , IMG S ), and the energy function is characterized by the presence of the first component E UNARY (l) and the second component E PAIRWISE (l) and is defined as follows: Е(l)=EUNARY(l)+EPAIRWISE(l)E(l)=E UNARY (l)+E PAIRWISE (l)
Figure 00000014
Figure 00000014
гдеWhere
Figure 00000015
Figure 00000015
w1 и w2 - весовые параметрыw 1 and w 2 - weight parameters
Figure 00000016
Figure 00000016
гдеWhere
Figure 00000017
Figure 00000017
a wP - весовой параметр.aw P - weight parameter. 2. Устройство по п. 1, содержащее дисплей (6), работающий в режиме реального времени, при котором выходные сигналы датчика (7) изображения непрерывно отображаются на дисплее (6), причем модуль (8) получения дополнительно выполнен с возможностью наложения визуальной информации на изображения в режиме реального времени на дисплее (7), чтобы направлять человека принять позу в диапазоне приемлемых поз.2. The device according to claim. 1, containing a display (6) operating in real time, in which the output signals of the image sensor (7) are continuously displayed on the display (6), and the acquisition module (8) is additionally configured to overlay visual information on the real-time images on the display (7) to guide the person into a pose within a range of acceptable poses. 3. Устройство по п. 2, в котором визуальная информация предусматривает первую маску (13) и вторую маску (14), а диапазон приемлемых поз предусматривает первые позы человека, которые подходят к первой маске (13), и вторые позы человека, которые подходят ко второй маске (14), причем первая маска (13) требует, чтобы человек принял положение стоя с ногами врозь и руками, отведенными от туловища, а вторая маска (14) требует, чтобы человек принял положение стоя с руками, лежащими вдоль туловища.3. The apparatus of claim 2, wherein the visual information provides for a first mask (13) and a second mask (14), and the acceptable pose range provides for first human poses that fit the first mask (13) and second human poses that fit to the second mask (14), wherein the first mask (13) requires the person to take a standing position with legs apart and hands away from the body, and the second mask (14) requires the person to take a standing position with arms along the torso. 4. Устройство по п. 3, в котором процессор (10) обработки изображений выполнен с возможностью очистки частей первых изображений (IMGB, IMGS), соответствующих участкам за пределами одной из первой маски (13) и второй маски (14).4. The device according to claim 3, in which the image processor (10) is configured to clean parts of the first images (IMG B , IMG S ) corresponding to areas outside one of the first mask (13) and the second mask (14). 5. Устройство по любому из пп. 1-4, в котором первый детектор (16) границ представляет собой детектор границ Кэнни.5. The device according to any one of paragraphs. 1-4, wherein the first edge detector (16) is a Canny edge detector. 6. Устройство по любому из пп. 1-5, в котором второй детектор (17) границ является структурированным детектором границ.6. The device according to any one of paragraphs. 1-5, wherein the second edge detector (17) is a structured edge detector. 7. Устройство по любому из пп. 1-6, в котором модуль (18) восстановления контура выполнен с возможностью объединения первого выхода (I1, I2') первого детектора (16) границ и второго выхода (I2, I2') второго детектора (17) границ путем сложения, выбора порога и бинаризации.7. The device according to any one of paragraphs. 1-6, in which the contour recovery module (18) is configured to combine the first output (I 1 , I 2 ') of the first edge detector (16) and the second output (I 2 , I 2 ') of the second edge detector (17) by addition, threshold selection and binarization. 8. Устройство по п. 7, в котором модуль (18) восстановления контура выполнен с возможностью сравнения суммы значений яркости первого выхода (I1, I1') и второго выхода (I2, I2') с порогом (τ) и определения вторых изображений (FIMGB, FIMGS) путем присвоения первого логического значения (L1), если сумма первого выхода (I1, I1') и второго выхода (I2, I2') превышает порог (τ), и второго логического значения (L2) в противном случае.8. The device according to claim 7, in which the contour recovery module (18) is configured to compare the sum of the brightness values of the first output (I 1 , I 1 ') and the second output (I 2 , I 2 ') with a threshold (τ) and determining the second images (FIMG B , FIMG S ) by assigning a first boolean value (L 1 ) if the sum of the first output (I 1 , I 1 ') and the second output (I 2 , I 2 ') exceeds a threshold (τ), and second logical value (L 2 ) otherwise. 9. Система получения антропометрических данных, содержащая сервер (3) и по меньшей мере одно портативное устройство (2) получения антропометрических данных по любому из предыдущих пунктов, соединенное с возможностью связи с сервером (3).9. System for obtaining anthropometric data, containing a server (3) and at least one portable device (2) for obtaining anthropometric data according to any of the previous paragraphs, connected with the possibility of communication with the server (3). 10. Система по п. 9, в которой сервер (3) содержит модуль (20) связи, выполненный с возможностью приема вторых изображений (FIMGB, FIMGS) от портативного устройства (2) получения антропометрических данных, детектор (21) ключевых точек, выполненный с возможностью идентификации ключевых точек на вторых изображениях (FIMGB, FIMGS) и их соответствующих положений на основании толщины линии контура, причем ключевые точки включают макушку, пятки, подмышки, промежность.10. The system according to claim 9, in which the server (3) contains a communication module (20) configured to receive second images (FIMG B , FIMG S ) from a portable device (2) for obtaining anthropometric data, a detector (21) of key points , configured to identify key points in the second images (FIMG B , FIMG S ) and their respective positions based on the contour line thickness, the key points including crown, heels, armpits, perineum. 11. Система по п. 10, в которой сервер (3) содержит средство (22) снятия проекционных мерок, выполненное с возможностью идентификации точек контура тела, принадлежащих туловищу, на основании положений подмышек и промежности, определенных детектором (21) ключевых точек.11. The system according to claim 10, in which the server (3) contains a means (22) for taking projection measurements, configured to identify points of the body contour belonging to the torso, based on the positions of the armpits and perineum, determined by the detector (21) key points. 12. Система по п. 11, в которой средство (22) снятия проекционных мерок выполнено с возможностью аппроксимации линий туловища полиномиальными функциями.12. The system according to claim 11, in which the means (22) for taking projection measurements is made with the possibility of approximating the lines of the torso with polynomial functions. 13. Система по п. 11 или 12, в которой средство (22) снятия проекционных мерок дополнительно выполнено с возможностью измерения проекций выбранных основных размеров тела на плоскость изображения или на плоскость, перпендикулярную ей.13. The system according to claim 11 or 12, in which the means (22) for taking projection measurements is additionally configured to measure the projections of the selected main body dimensions on the image plane or on a plane perpendicular to it. 14. Система по п. 11 или 12, в которой средство (22) снятия проекционных мерок дополнительно выполнено с возможностью снятия мерок груди, талии и бедер в фиксированных и заранее определенных вертикальных координатах или снятия мерок груди в самой широкой части верхней трети туловища, мерок талии в самой меньшей части центральной трети туловища и мерок бедер в самой широкой части нижней трети туловища.14. The system according to claim 11 or 12, in which the means (22) for taking projection measurements is additionally configured to take measurements of the chest, waist and hips in fixed and predetermined vertical coordinates or take measurements of the chest in the widest part of the upper third of the body, measurements waist in the smallest part of the central third of the body and measurements of the hips in the widest part of the lower third of the body. 15. Система по любому из пп. 10-14, в которой сервер (3) содержит средство (23) трехмерного прогнозирования мерок, выполненное с возможностью предоставления оценок или прогнозов фактических размеров тела на основании мерок, предоставленных средством (22) снятия проекционных мерок, с использованием линейной или вероятностной модели.15. The system according to any one of paragraphs. 10-14, wherein the server (3) comprises a 3D measurement predictor (23) configured to provide estimates or predictions of actual body measurements based on measurements provided by the projection measurement engine (22) using a linear or probabilistic model.
RU2021120174A 2018-12-31 Portable device for obtainment of anthropometric data and method for collection of anthropometric data RU2789286C2 (en)

Publications (2)

Publication Number Publication Date
RU2021120174A RU2021120174A (en) 2023-01-09
RU2789286C2 true RU2789286C2 (en) 2023-02-01

Family

ID=

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102637317A (en) * 2012-04-26 2012-08-15 东南大学 Coin size measuring method based on vision
US20130179288A1 (en) * 2010-11-17 2013-07-11 Upcload Gmbh Collecting and using anthropometric measurements
US20150154453A1 (en) * 2012-09-05 2015-06-04 Body Pass Ltd. System and method for deriving accurate body size measures from a sequence of 2d images
US20160174846A9 (en) * 2010-12-27 2016-06-23 Joseph Ralph Ferrantelli Method and system for measuring anatomical dimensions from a digital photograph on a mobile device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130179288A1 (en) * 2010-11-17 2013-07-11 Upcload Gmbh Collecting and using anthropometric measurements
US20160174846A9 (en) * 2010-12-27 2016-06-23 Joseph Ralph Ferrantelli Method and system for measuring anatomical dimensions from a digital photograph on a mobile device
CN102637317A (en) * 2012-04-26 2012-08-15 东南大学 Coin size measuring method based on vision
US20150154453A1 (en) * 2012-09-05 2015-06-04 Body Pass Ltd. System and method for deriving accurate body size measures from a sequence of 2d images

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Youtube URL: www.youtube.com/watch?v=s5S0GzTE0ns, опубл. 2017 г. https://web.archive.org/web/20160331092259/https://pyimagesearch.com/2016/03/28/measuring-size-of-objects-in-an-image-with-opencv/. *

Similar Documents

Publication Publication Date Title
CN111353506B (en) Adaptive line-of-sight estimation method and apparatus
CN102981603B (en) Image processing apparatus and image processing method
US8982110B2 (en) Method for image transformation, augmented reality, and teleperence
US8976160B2 (en) User interface and authentication for a virtual mirror
JP7463052B2 (en) Information processing device, information processing system, information processing method, and program
JP5613741B2 (en) Image processing apparatus, method, and program
US20210319585A1 (en) Method and system for gaze estimation
CN113544738B (en) Portable acquisition device for anthropometric data and method for collecting anthropometric data
US20200279102A1 (en) Movement monitoring system
CN111401318A (en) Action recognition method and device
CN114894337B (en) Temperature measurement method and device for outdoor face recognition
GB2602163A (en) System for determining body measurements from images
JP4203279B2 (en) Attention determination device
JP2022006919A (en) Motion recognition system, method, and program
JP2005000301A (en) Body posture diagnosing support system
RU2789286C2 (en) Portable device for obtainment of anthropometric data and method for collection of anthropometric data
JP7259313B2 (en) Attribute determination device, attribute determination system, attribute determination method, program and recording medium
JP5876121B2 (en) Image processing apparatus, method, and program
Pini et al. Baracca: a multimodal dataset for anthropometric measurements in automotive
CN111724901B (en) Structure parameter prediction method, system and device based on vision and storage medium
CN113836991A (en) Motion recognition system, motion recognition method, and storage medium
CN111079597A (en) Three-dimensional information detection method and electronic equipment
Barelle et al. The BIOTELEKINESY home care service: A holistic concept to prevent fall among the elderly based on ICT and computer vision
JP7147848B2 (en) Processing device, posture analysis system, processing method, and processing program
KR102642222B1 (en) system and method for Predicting human full body models under clothing from 2D full body images based on inference of position of the joint