BR112021013021A2 - Dispositivo portátil para aquisição de dados antropométricos, e método de coleta de dados antropométricos - Google Patents

Dispositivo portátil para aquisição de dados antropométricos, e método de coleta de dados antropométricos Download PDF

Info

Publication number
BR112021013021A2
BR112021013021A2 BR112021013021-7A BR112021013021A BR112021013021A2 BR 112021013021 A2 BR112021013021 A2 BR 112021013021A2 BR 112021013021 A BR112021013021 A BR 112021013021A BR 112021013021 A2 BR112021013021 A2 BR 112021013021A2
Authority
BR
Brazil
Prior art keywords
images
imgs
mask
edge detector
fimgs
Prior art date
Application number
BR112021013021-7A
Other languages
English (en)
Inventor
Eugenio Alessandro Canepa
Stefano Fasana
Original Assignee
I-Deal S.R.L
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by I-Deal S.R.L filed Critical I-Deal S.R.L
Publication of BR112021013021A2 publication Critical patent/BR112021013021A2/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

dispositivo portátil para aquisição de dados antropométricos, e método de coleta de dados antropométricos. é descrito um dispositivo portátil para aquisição de dados antropométricos incluindo um sensor de imagem (7) e uma unidade de processamento (5). a unidade de processamento (5) inclui, por sua vez: um módulo de aquisição (8), configurado para receber do sensor de imagem (7) primeiras imagens (imgb, imgs) de uma pessoa; um processador de imagem (10) anonimizado, configurado para fornecer segundas imagens (fimgb, fimgs) a partir das respectivas primeiras imagens (imgb, imgs), aplicando um procedimento de detecção de borda; e um módulo de comunicação (11), configurado para enviar as segundas imagens (fimgb, fimgs).

Description

DISPOSITIVO PORTÁTIL PARA AQUISIÇÃO DE DADOS ANTROPOMÉTRICOS, E MÉTODO DE COLETA DE DADOS ANTROPOMÉTRICOS CAMPO TÉCNICO
[001] A presente invenção se refere a um dispositivo portátil para aquisição de dados antropométricos, e a um método de coleta de dados antropométricos.
ARTE ANTERIOR
[002] Como se sabe, a coleta de medidas antropométricas pode ser interessante em muitos campos, que vão desde o comércio até a saúde. Por exemplo, os sistemas de comércio eletrônico que lidam com roupas podem ajudar os clientes provendo sugestões sobre a seleção do tamanho, com base no conjunto de dados pessoais, incluindo medidas corporais relevantes. Os dados pessoais podem ser fornecidos a um sistema de categorização automática, e o tamanho pode ser selecionado com base em critérios do melhor ajuste geral. Este tipo de serviço não somente é conveniente para o cliente, mas também pode reduzir drasticamente o índice de devoluções, e por isso é benéfico para o provedor em termos de economia de custos. Como outro exemplo, o monitoramento dietético das medidas corporais pode ajudar no acompanhamento de pacientes e na adaptação dos tratamentos com base na resposta.
[003] É evidente que as vantagens do uso de dados antropométricos seriam bastante aumentadas se os dados pudessem ser coletados no campo diretamente pelos clientes ou pacientes, usando ferramentas simples que não requerem treinamento especial ou habilidade, de modo a prover resultados suficientemente precisos. Os dados antropométricos são geralmente obtidos por meio de aquisição de imagem e análise, e a coleta de dados pode tirar proveito da ampla difusão de dispositivos extremamente versáteis, tais como telefones inteligentes (smartphones). As ferramentas de captura de imagens têm se tornado tão amigáveis que quase sempre se espera que os usuários finais sejam capazes de enquadrar e adquirir imagens com qualidade suficiente para realizar os procedimentos de análise desejados.
[004] Entretanto, delegar a tarefa de aquisição de imagem aos usuários finais envolve outras questões que precisam ser levadas em consideração. Por um lado, o processamento de imagem, que por si só é exigente em termos de necessidade de recursos, também deve lidar com o fato de que a aquisição em campo normalmente sofre de más condições relacionadas com a iluminação, o contraste com o fundo, a postura do usuário, e similares. Tais condições devem ser compensadas por técnicas de processamento de refinamento, que normalmente resultam em aumento da carga computacional. Para prover uma capacidade de processamento suficiente, apenas as funções básicas de captura são dedicadas à análise de imagem dos dispositivos do usuário final, enquanto que os principais procedimentos de análise são realizados em locais (sites) remotos alcançados por meio de conexões de Internet. Por outro lado, o compartilhamento de imagens com locais remotos leva a preocupações relacionadas à privacidade e proteção de dados pessoais, porque informações sensíveis estão envolvidas e as exigências da lei estão se tornando cada vez mais rígidas. Na verdade, as informações relativas aos aspectos pessoais são enviadas fora do controle do usuário final.
Claramente, o tratamento das informações é fundamental, especialmente para aplicações médicas.
DESCRIÇÃO DA INVENÇÃO
[005] É portanto um objetivo da presente invenção prover um dispositivo portátil para aquisição de dados antropométricos e um método de coleta de dados antropométricos que permitem superar ou pelo menos mitigar as limitações descritas.
[006] De acordo com a presente invenção, são providos um dispositivo portátil para aquisição de dados antropométricos e um método de coleta de dados antropométricos conforme definidos nas reivindicações 1 e 19, respectivamente.
BREVE DESCRIÇÃO DOS DESENHOS
[007] A presente invenção será agora descrita com referência aos desenhos anexos, que ilustram algumas formas de incorporação não limitativas da mesma, onde: - A figura 1 é um diagrama de blocos simplificado de um sistema para aquisição de dados antropométricos; - A figura 2 é um diagrama de blocos mais detalhado de um dispositivo portátil para aquisição de dados antropométricos incluído no sistema da figura 2, feito de acordo com uma forma de incorporação da presente invenção; - As figuras 3a e 3b ilustram máscaras de aquisição utilizadas no dispositivo da figura 2;
- A figura 4 é um fluxograma simplificado das etapas de um método de acordo com uma forma de incorporação da presente invenção; - As figuras 5a e 5b mostram imagens produzidas no dispositivo da figura 2; - A figura 6 é um fluxograma mais detalhado de parte das etapas do método da figura 4; - A figura 7 é um diagrama de blocos mais detalhado de um componente do dispositivo da figura 2; - A figura 8 é um diagrama de blocos mais detalhado de um componente do sistema da figura 1; e - As figuras 9 e 10 ilustram as imagens produzidas no componente da figura 8.
MELHOR MODO DE REALIZAÇÃO DA INVENÇÃO
[008] Na figura 1, um sistema para aquisição de dados antropométricos é indicado como um todo pelo número de referência 1, e compreende um ou mais dispositivos portáteis para aquisição de dados antropométricos 2 de acordo com uma forma de incorporação da presente invenção, e um servidor 3. Os dispositivos portáteis de aquisição 2 e o servidor 3 estão acoplados em comunicação através de uma rede de área ampla 4, como por exemplo a Internet. Os dispositivos portáteis de aquisição 2 estão configurados para capturarem imagens de indivíduos e para executarem etapas preliminares de processamento de imagem, que são identificadas a seguir como processamento inicial (front-end), onde os dados enviados para o servidor para completar a extração de características relevantes [processamento posterior (back-ena) ], sendo liberados de informações de identidade.
[009] Um dispositivo portátil de aquisição 2 exemplificativo, referido a seguir, é mostrado na figura 2, devendo ser entendido que os outros dispositivos portáteis de aquisição 2 incluem os mesmos componentes. O dispositivo portátil de aquisição 2 compreende uma unidade de processamento 5, um visor 6 e um sensor de imagem 7. Em uma forma de incorporação, o dispositivo portátil de aquisição 2 pode estar vantajosamente integrado em um telefone inteligente (smartphone), ou em um computador portátil (tablet ou laptop), tendo uma tela sensível ao toque integrada, tal como o visor 6, e uma câmera fotográfica, tal como o sensor de imagem 7. No entanto, o visor 6 não precisa ser uma tela sensível ao toque.
[010] A unidade de processamento 5 está configurada para implementar um módulo de aquisição 8, um processador de imagem 10 e um módulo de comunicação 11.
[011] O módulo de aquisição 8 ativa o visor 6 no modo de visualização ao vivo durante a aquisição, e captura imagens através do sensor de imagem 7 em resposta aos comandos de disparo enviados por um usuário por meio de uma interface, que pode incluir botões virtuais ou físicos (não mostrados). No modo de visualização ao vivo, os sinais de saída do sensor de imagem 7 são continuamente exibidos no visor 6. O módulo de aquisição 8 também envia informações para o visor 6 que são visualizadas pelo usuário, com a finalidade de auxiliar na aquisição correta.
[012] As imagens capturadas pelo módulo de aquisição 8 são fornecidas ao processador de imagem 10. O módulo de aquisição 8 pode ser provido com algumas capacidades de processamento que realizam ações básicas, tais como equilíbrio do nível de branco, ajuste de brilho e contraste, e conversão para formatos comprimidos. Alternativamente, as imagens em formato bruto são enviadas para o processador de imagem 10, que realiza todas as etapas de processamento desejadas.
[013] O processador de imagem 10 extrai imagens iniciais modificadas a partir das imagens recebidas. As imagens iniciais extraídas são enviadas para o servidor 3 através do módulo de comunicação 11 para processamento posterior, que pode, portanto, contar com recursos de nível superior.
[014] A aquisição de imagens é auxiliada pelo módulo de aquisição 8, que provê informações para instruir a pessoa enquadrada a assumir uma postura dentro de uma série de posturas admissíveis, enquanto um operador tira uma foto de costas e uma foto de lado. Uma postura padronizada reduz notavelmente a carga computacional associada ao processamento de imagem. Mais especificamente (figura 3a), o módulo de aquisição 8 inicia a aquisição de uma imagem de fundo através da sobreposição de uma máscara de fundo 13 às imagens mostradas ao vivo no visor 6. A pessoa pode assim ser orientada de modo a assumir uma postura que se encaixa na máscara de fundo 13, que em uma forma de incorporação pode requerer uma posição em pé com as pernas afastadas e os braços afastados do torso. Quando a postura está correta, um comando de disparo é ativado pelo operador e uma imagem de costas IMGs (figura 2) é capturada pelo módulo de aquisição
8, a qual é enviada para o processador de imagem 10. A imagem de costas IMGgs pode ser temporariamente armazenada em uma unidade de memória incorporada no módulo de aquisição 8 ou no processador de imagem 10, ou em uma unidade de memória de uso geral do dispositivo portátil de aquisição 2.
[015] Depois que a imagem de costas IMGg foi capturada e armazenada, ou enviada para o processador de imagem 10, o módulo de aquisição 8 inicia a aquisição de uma imagem de lado e sobrepõe uma máscara lateral 14 (figura 3b) às imagens mostradas ao vivo no visor 6. Novamente, a pessoa é orientada à assumir uma postura que se encaixa na máscara lateral 13, que requer uma posição em pé com os braços esticados ao longo do torso. Quando a postura está correta, o comando de disparo é ativado pelo operador, e uma imagem de lado IMGs é capturada e enviada para o processador de imagem 10, ou é armazenada, tal como a imagem de costas IMGse.
[016] Cada imagem de costas IMG: e imagem de lado IMGs é então processada pelo processador de imagem 10 para detecção de borda e reconstrução de contorno, substancialmente através da mesma etapa. Por razões de simplicidade, a seguir será feita referência à imagem de costas IMG, devendo ser entendido que o mesmo também se aplica à imagem de lado IMGs, a menos que especificado de outra forma.
[017] Com referência à figura 4, após a imagem de lado IMGs ter sido recebida em um formato adequado para processamento, o processador de imagem 10 limpa as porções da imagem de lado IMGs que correspondem a locais fora da máscara de fundo 13 (bloco 100), reduzindo assim o ruído. Em seguida, a detecção de borda (bloco 110) e à reconstrução de contorno (bloco 120) são realizadas. Uma imagem de costas inicial FIMGs incluindo apenas o contorno do corpo e possivelmente um ruído de fundo residual é assim obtida e transferida para o servidor 3. Exemplos de uma imagem de costas inicial FIMGs e de uma imagem de lado inicial FIMGs são mostrados nas figuras 5a e 5b, respectivamente. Durante a etapa de detecção de borda, as características corporais que podem permitir a identificação da pessoa retratada são perdidas.
[018] A detecção de borda pode ser realizada de várias maneiras, mas geralmente é preferível que a espessura do contorno seja razoavelmente constante, porque pode ser um parâmetro crítico no subsequente processamento posterior. O processador de imagem pode estar configurado para combinar diferentes procedimentos de detecção de borda, com a finalidade de melhorar o desempenho.
[019] Em uma forma de incorporação (figura 6), O processador de imagem 10 aplica preliminarmente um processo de redução de ruído à imagem de costas IMG para mitigar os efeitos do ruído de alta frequência (bloco 112). O processo de redução de ruído pode ser uma filtragem mediana. Foi verificado que um tamanho de Kerne/ de 15 pixels no operador de filtragem mediana proporciona um desempenho de filtragem aceitável sem afetar a precisão da subsequente detecção de borda.
[020] Em seguida (bloco 114), o contorno da imagem de costas IMG é primeiramente extraído utilizando um processo Canny para detecção de borda, conforme descrito por Canny, J.,, A Computational Approach To Edge Detection ("Uma abordagem computacional para detecção de borda”), IEEE Trans. Pattern Analysis and Machine Intelligence ("Transações do IEEE sobre Análise de Padrão e Inteligência de Máquina”), 8(6): 679 a 698, 1986. A detecção de bordas Canny é muito sensível a regiões de imagem tendo baixo contraste que realmente podem estar presentes. Esse aspecto pode ser crítico, pois na aquisição de imagens em campo nem sempre é possível escolher um fundo com contraste adequado. Para evitar a perda de informações, o contorno da imagem de costas IMGg é extraído pela segunda vez pelo processador de imagem 10 utilizando outro processo de detecção de borda (bloco 116), e o resultado dessa segunda extração de contorno é combinado com o resultado da primeira extração de contorno pela detector de bordas Canny no bloco 120 da figura 4. Em uma forma de incorporação, o processador de imagem 10 usa uma estrutura de “floresta aleatória” para detecção de borda, também referida como detector de borda estruturado. O detector de borda estruturado é menos sensível a regiões locais de baixo contraste e também é mais robusto ao ruído do que o detector de borda Canny, curando assim as debilidades deste último.
[021] A figura 7 mostra uma estrutura exemplificativa do detector de imagem 10 que implementa o processo das figuras 4 e 6. Na forma de incorporação aqui ilustrada, o detector de imagem 10 compreende um filtro de redução de ruído 15, que recebe a imagem de costas IMGg e a imagem de lado IMGs e as fornece paralelamente ao detector de borda Canny e ao detector de borda estruturado, aqui indicados pelos numerais 16 e
17, respectivamente. Uma primeira saída I1 do detector de borda Canny 16 e uma segunda saída 12 do detector de borda estruturado 17 são então combinadas em um módulo de reconstrução de contorno 18, que combina os resultados das primeira e segunda extrações de contorno e fornece a imagem de costas inicial FIMGg e à imagem de lado inicial FIMGs.
[022] Em uma forma de incorporação, o módulo de reconstrução de contorno 18 combina a primeira saída I1 do detector de borda Canny 16 e a segunda saída 12 do detector de borda estruturado 17 por adição, limiar e binarização. Mais precisamente, os valores de brilho da primeira saída 11 e da segunda saída 12 são adicionados e o resultado é comparado com um limiar 1, que pode ser selecionado como uma fração da resposta máxima do sensor de imagem 7, por exemplo, 10%. Uma saída combinada define a imagem de costas inicial FIMGg, sendo atribuído um primeiro valor lógico L1 (por exemplo, alto) se a soma da primeira saída 11 e da segunda saída 12 exceder o limiar 1, caso contrário atribui um segundo valor lógico L2 (por exemplo, baixo): Li,se 11+D<1 FIMGs = 4 L2, se 11 +D<1
[023] Da mesma forma, quando uma imagem de lado IMGs é fornecida ao detector de borda Canny 16 e ao detector de borda estruturado 17 (cujas saídas são indicadas por 11' e 12', respectivamente), a imagem de lado inicial FIMGs é definida por: L1,se I1' +12'<71 FIMGs = f L2, se I11' + 12'<1
[024] Em outra forma de incorporação, modelos probabilísticos podem ser explorados, quando uma capacidade computacional suficiente está disponível nos dispositivos de aquisição portáteis 2, tendo um atraso de resposta aceitável para os usuários.
[025] Um rótulo | e [L1, L27!MS8 que minimiza uma função de energia E(I) é atribuído a cada local na imagem IMGs (ou IMGs). A função de energia possui um primeiro componente e um segundo componente, da seguinte maneira:
E(1) = Eunário(!) + EpareaDOo(])
[026] O primeiro componente Eunário(l) é uma função que tende a atribuir a cada pixel um valor correspondente à saída dos detectores de borda com probabilidades relativas w1 e w2, respectivamente. Eunário(]) = w1 Y'g(1109, 1) + w2 D'g(1200), 1)
[027] Onde: y,sel=0 9(y, 1) = í 1-y,sel=1
[028] Com w1 e w2 sendo parâmetros de ponderação que determinam até que ponto o detector de bordas Canny 16 e o detector de borda estruturado 17 afetarão o resultado.
[029] O segundo componente EpareaDo(!) busca fazer pixels vizinhos concordarem em um rótulo, adicionando uma penalidade constante para discordância, sendo definido por: EpareaDO(!) = Wwp > (ij, 1) i, j e PARES(I)
[030] Onde: 0, se Ii) = IG) vi na " 1, caso contrário
[031] Com PARES(I) incluindo todos os pares de pontos de imagem vizinhos.
[032] O parâmetro de ponderação wp determina quão forte deve ser a concordância entre os pixels vizinhos. A solução ótima é: l'=arg minE(l) !
[033] Que é aproximada utilizando-se o algoritmo de propagação de crenças reponderado em árvore.
[034] Desse modo, a imagem de costas inicial FIMGg e a imagem de lado inicial FIMGs são obtidas a partir da imagem de costas IMGg e a partir da imagem de lado IMGs, respectivamente, sendo enviadas para o servidor 3 para processamento posterior. À imagem de costas inicial FIMGs e a imagem de lado inicial FIMGs incluem o contorno corporal completo e confiável da pessoa enquadrada, e nenhuma informação de identidade pessoal é transferida fora do controle do usuário. As informações pessoais (por exemplo, características do rosto) são de fato excluídas durante as etapas de detecção de borda e reconstrução de contorno, sem a necessidade de nenhum processamento especial dedicado, com o contorno do corpo sendo substancialmente anônimo. Como já mencionado, a imagem de costas inicial FIMGg e a imagem de lado inicial FIMGs exemplificativas são mostradas nas figuras 5a e 5b, respectivamente, onde também a máscara de fundo 13 e a máscara lateral 14 estão representadas de modo a sugerirem intuitivamente como a aquisição de imagem e o processamento inicial são realizados. No entanto, as próprias máscara de fundo 13 e máscara lateral 14 não precisam ser parte da imagem de costas inicial FIMGg e da imagem de lado inicial FIMGs.
[035] Conforme ilustrado na figura 8, o servidor 3 compreende um módulo de comunicação 20, que recebe a imagem de costas inicial FIMGg e a imagem de lado inicial FIMGs, e componentes para processamento posterior, incluindo um detector de ponto chave 21, um extrator de medida de projeção 22, e um preditor de medida 3D 23.
[036] O detector de ponto chave 21 está configurado para identificar pontos chave com base na espessura da linha de contorno, uma vez que as imagens iniciais podem conter ruído, ou seja, pontos que não correspondem ao contorno do corpo. Mais precisamente, uma varredura por linhas horizontais (por exemplo, da esquerda para a direita) é primeiramente realizada na imagem de costas inicial FIMGe, e pares de linhas subsequentes de igual espessura são considerados como as bordas esquerda e direita de uma respectiva porção do corpo. Por exemplo, se a varredura horizontal revelar três pares de linhas subsequentes de igual espessura, três porções do corpo são identificadas, que podem ser as bordas esquerda e direita do braço esquerdo para o primeiro par, as bordas esquerda e direita do torso para o segundo par, e as bordas esquerda e direita do braço direito para o terceiro par.
[037] Através da varredura da imagem de costas inicial FIMGg, o detector de ponto chave 21 identifica a ponta da cabeça, os calcanhares, as axilas e a virilha. Depois, a ponta da cabeça e os calcanhares são identificados por uma segunda varredura da imagem de lado inicial FIMGs.
[038] O extrator de medida de projeção 22 está configurado para identificar os pontos de contorno pertencentes ao torso, com base nas posições das axilas e da virilha, conforme determinado pelo detector de ponto chave 21 (janelas 30, 31 nas figuras 5a e 5b). Para reduzir as irregularidades que podem ser introduzidas pelas etapas de processamento anteriores, o extrator de medida de projeção 22 aproxima as linhas do torso (32, figura 9) por meio de funções polinomiais (33, figura 10). Devido à natureza do lado do torso, em particular o número esperado de máximos e mínimos, um polinômio de quarto grau é suficiente e ao mesmo tempo não muito complexo para o ajuste. Também, possíveis partes ausentes do contorno podem ser estimadas pelo extrator de medida de projeção 22 através do uso de funções polinomiais, tais como polinômios de Bezier.
[039] Em seguida, o extrator de medida de projeção 22 mede as projeções das dimensões principais do corpo no plano da imagem ou no plano perpendicular à imagem. As principais dimensões do corpo podem incluir, por exemplo, o pescoço, o tórax, a cintura, os quadris, a altura entre pernas (cavalo). As medidas do tórax, da cintura e dos quadris podem ser tomadas em coordenadas verticais fixas e predeterminadas (coordenada Y), por exemplo, como se segue: Yquadris = Yvirilha + 3 CA Ycintura = Yvirilha + +16. CA 33 Ytórax = Yvirilha + = CA
[040] Onde CA é a distância entre a virilha e as axilas.
[041] Em outra forma de incorporação, a medida Ytórax é tomada na parte mais larga do terço superior do torso, derivada da imagem de lado inicial FIMGs; Ycintura é tomada na parte menor do terço central do torso, derivada da imagem de costas inicial FIMGg; e Yquadris é tomada na parte mais larga do terço inferior do torso, derivada da imagem de lado inicial FIMGs. Outras medidas podem ser adicionadas de acordo com as preferências do projeto.
[042] O preditor de medida 3D 23 está configurado para prover estimativas ou previsões das medidas reais do corpo a partir das medidas, ou das medida de projeção, fornecidas pelo extrator de medida de projeção 22. Para este propósito, o preditor de medida 3D 23 pode usar um modelo simplificado, tal como um modelo linear ou um modelo probabilístico, como por exemplo um modelo de processo Gaussiano. Enquanto os modelos lineares são mais simples e geram resultados amplamente satisfatórios alinhados com os padrões da indústria em termos de erros, os modelos probabilísticos permitem complementar a previsão para cada medição com uma medida de sua incerteza. À incerteza pode ser usada para prever erros de estimativa e acionar ações corretivas apropriadas, para evitar fornecer aos usuários resultados incorretos e previsões afetadas por uma variância muito alta.
[043] Os processos Gaussianos podem lidar efetivamente com ruídos e isto é importante para permitir a coleta de dados a partir de imagens obtidas em campo por usuários sem treinamento específico.
[044] Normalmente, os processos Gaussianos podem ser indicados como: f(x) -— GP[m(x), k(x, x)]
[045] Onde m(x) = E[f(x)] é o valor esperado, e k(x, x”) = EX[fC) - mEJ] [FE - MES] é a função de covariância.
[046] A função modelada pelo processo Gaussiano é aquela que prevê medidas corporais 3D a partir do comprimento de suas projeções planas, conforme fornecido pelo extrator de medida de projeção 22. A função de covariância permite obter um mapeamento não linear e proporcionar flexibilidade na forma específica da não linearidade que é permitida. Devido às suas propriedades matemáticas, as funções de covariância podem ser combinadas para a obtenção novas funções que apresentem as características desejadas. Em uma forma de incorporação, ocorre a soma de 3 funções de covariância diferentes: - uma função de covariância constante usada para modelar médias diferentes de zero para as diferentes variáveis:
kc= 002? - uma função de covariância linear, onde x e x' representam dois pontos genéricos, e o Índice d indexa as dimensões D do espaço de entrada:
D ki(X, X) = XD 002 xa Xa del - uma função de covariância exponencial quadrática que permite obter mapeamentos suaves não lineares, onde x e x' representam dois pontos genéricos, e h é uma escala de comprimento característica que funciona como um fator de escala: Dx- x? kse(x, x) = exp (“ “Tr —)
[047] Em sua saída, o preditor de medida 3D 23 provê um conjunto de dados DS que inclui estimativas do tamanho real (3D) de partes relevantes do corpo da pessoa enquadrada,
[048] Finalmente, é aparente que alterações e variações podem ser feitas no dispositivo e no método descritos e ilustrados, sem fugir do escopo de proteção das reivindicações anexas.

Claims (27)

Reivindicações
1. DISPOSITIVO PORTÁTIL PARA AQUISIÇÃO DE DADOS ANTROPOMÉTRICOS, caracterizado por compreender um sensor de imagem (7) e uma unidade de processamento (5), tal unidade de processamento (5) compreendendo: um módulo de aquisição (8), configurado para receber primeiras imagens (IMGs, IMGs) de uma pessoa a partir do sensor de imagem (7); um processador de imagem (10), configurado para fornecer segundas imagens (FIMGg, FIMGs) a partir das respectivas primeiras imagens (IMGg, IMGs), aplicando um procedimento de detecção de borda; um módulo de comunicação (11), configurado para enviar as segundas imagens (FIMGs, FIMGs).
2. DISPOSITIVO, de acordo com a reivindicação 1, caracterizado por compreender um visor (6) operável em um modo de visualização ao vivo, onde os sinais de saída do sensor de imagem (7) são continuamente exibidos no visor (6), com o módulo de aquisição (8) estando adicionalmente configurado para sobrepor informações visuais às imagens visualizadas ao vivo no visor (7), para orientar a pessoa a assumir uma postura dentro de uma série de posturas aceitáveis.
3. DISPOSITIVO, de acordo com a reivindicação 2, caracterizado por as informações visuais incluírem uma primeira máscara (13) e uma segunda máscara (14), e a série de posturas aceitáveis incluir primeiras posturas da pessoa que se encaixam na primeira máscara (13), e segundas posturas da pessoa que se encaixam na segunda máscara (14), com a primeira máscara (13) requerendo que a pessoa assuma uma posição em pé com as pernas afastadas e os braços afastados do torso, e a segunda máscara (14) requerendo que a pessoa assuma uma posição em pé com os braços estendidos ao longo do torso.
4. DISPOSITIVO, de acordo com a reivindicação 3, caracterizado por o processador de imagem (10) estar configurado para limpar porções das primeiras imagens (IMG, IMGs), correspondendo a locais fora da primeira máscara (13) e da segunda máscara (14).
5. DISPOSITIVO, de acordo com qualquer uma das reivindicações anteriores, caracterizado por o processador de imagem (10) compreender um primeiro detector de borda (16) configurado para realizar uma primeira extração de contorno, e um segundo detector de borda (17) configurado para realizar uma segunda extração de contorno, com as primeiras imagens (IMGg, IMGs) sendo fornecidas em paralelo ao primeiro detector de borda (16) e ao segundo detector de borda (17).
6. DISPOSITIVO, de acordo com a reivindicação 5, caracterizado por o processador de imagem (10) compreender um módulo de reconstrução de contorno (18), configurado para combinar os resultados da primeira extração de contorno realizada pelo primeiro detector de borda (16) com os resultados da segunda extração de contorno realizada pelo segundo detector de borda (17).
7. DISPOSITIVO, de acordo com a reivindicação 5 ou 6, caracterizado por o primeiro detector de borda (16) ser um detector de borda Canny.
8. DISPOSITIVO, de acordo com qualquer uma das reivindicações 5 a 7, caracterizado por o segundo detector de borda (17) ser um detector de borda estruturado.
9. DISPOSITIVO, de acordo com qualquer uma das reivindicações 5 a 8, caracterizado por o módulo de reconstrução de contorno (18) estar configurado para combinar uma primeira saída (I1, 12) do primeiro detector de borda (16) com a segunda saída (12, 12) do segundo detector de borda (17) por adição, limiar e binarização.
10. DISPOSITIVO, de acordo com a reivindicação 9, caracterizado por o módulo de reconstrução de contorno (18) estar configurado para comparar uma soma dos valores de brilho da primeira saída (I1, 11') e da segunda saída (12, 12') com um limiar (1), e configurado para definir as segundas imagens (FIMGs, FIMGs), atribuindo um primeiro valor lógico (L1) se a soma da primeira saída (I1, 11) e da segunda saída (12, 12') exceder O limiar (1), caso contrário atribuindo um segundo valor lógico (L2).
11. DISPOSITIVO, de acordo com qualquer uma das reivindicações 5 a 8, caracterizado por o módulo de reconstrução de contorno (18) estar configurado para atribuir um rótulo (1) que minimiza uma função de energia E(l) para cada local nas primeiras imagens (IMGs, IMGs), em que a função de energia possui um primeiro componente Eunário(l) e um segundo componente EpareaDo(!), sendo definida como: E(I) = Eunário(!) + EpareaDO(]) Eunário(]) = w1 Y'g(1109, 1) + w2 D'g(120), 1) onde: y,se l=0 9(y, 1) = í 1-y,sel=1 com wi e w2 sendo parâmetros de ponderação; ErareaDo(l) = wp XD F(i,j,1) i, j e PARES(I) onde: 0, se 1) = IG) vá j nad o 1, caso contrário com wp sendo um parâmetro de peso.
12. SISTEMA PARA AQUISIÇÃO DE DADOS ANTROPOMÉTRICOS, caracterizado por compreende um servidor (3) e pelo menos um dispositivo portátil para aquisição de dados antropométricos (2), conforme descrito em qualquer uma das reivindicações anteriores, acoplado em comunicação com o servidor (3).
13. SISTEMA, de acordo com a reivindicação 12, caracterizado por o servidor (3) compreender um módulo de comunicação (20), configurado para receber as segundas imagens (FIMGg, FIMGs) do dispositivo portátil para aquisição de dados antropométricos (2), um detector de ponto chave (21), configurado para identificar pontos chave nas segundas imagens (FIMGg, FIMGs) e em respectivas posições das mesmas com base na espessura da linha de contorno, com os pontos chave incluindo a ponta cabeça, os calcanhares, as axilas e a virilha.
14. SISTEMA, de acordo com a reivindicação 13, caracterizado por o servidor (3) compreender um extrator de medida de projeção (22), configurado para identificar os pontos de contorno do corpo pertencentes a um torso, com base nas posições das axilas e da virilha conforme determinado pelo detector de ponto chave (21).
15. SISTEMA, de acordo com a reivindicação 14, caracterizado por o extrator de medida de projeção (22) estar configurado para aproximar as linhas do torso por funções polinomiais.
16. SISTEMA, de acordo com a reivindicação 14 ou 15, caracterizado por o extrator de medida de projeção (22) estar ainda configurado para tomar medidas de projeções de dimensões selecionadas do corpo principal em um plano de imagem ou em um plano perpendicular à imagem.
17. SISTEMA, de acordo com a reivindicação 14 ou 15, caracterizado por o extrator de medida de projeção (22) estar ainda configurado para tomar medidas do tórax, da cintura e dos quadris em coordenadas verticais fixas e predeterminadas, ou para tomar medidas do tórax em uma parte mais larga de um terço superior do torso, medidas da cintura em uma parte menor de um terço central do torso, e medidas dos quadris em uma parte mais larga do terço inferior do torso.
18. SISTEMA, de acordo com qualquer uma das reivindicações 13 a 17, caracterizado por o servidor (3) compreender um preditor de medida 3D (23), configurado para prover estimativas ou previsões de medidas corporais reais a partir de medidas fornecidas pelo extrator de medida de projeção (22), usando um modelo linear ou um modelo probabilístico.
19. MÉTODO PARA COLETAR DADOS ANTROPOMÉTRICOS, caracterizado por compreender: capturar primeiras imagens (IMGs, IMGs) de uma pessoa usando um dispositivo portátil (2) equipado com um sensor de imagem (7), um processador de imagem (10), e um visor (6) operável em um modo de visualização ao vivo; fazer localmente um primeiro processamento das primeiras imagens (IMG, IMGs) no dispositivo portátil (2), provendo assim segundas imagens (FIMGg, FIMGs) a partir das respectivas primeiras imagens (IMGg, IMGs); e enviar as segundas imagens (FIMGg, FIMGs) para um servidor remoto (3);
com o primeiro processamento das primeiras imagens (IMG, IMGs) compreendendo a aplicação de um procedimento de detecção de borda.
20. MÉTODO, de acordo com a reivindicação 19, caracterizado por a captura das primeiras imagens (IMGg, IMGs) compreender orientar a pessoa a assumir uma postura dentro de uma série de posturas aceitáveis, sobrepondo informações visuais às imagens ao vivo exibidas no visor (7).
21. MÉTODO, de acordo com a reivindicação 20, caracterizado por as informações visuais incluíem uma primeira máscara (13) e uma segunda máscara (14), com a série de posturas aceitáveis incluindo primeiras posturas da pessoa que se encaixam na primeira máscara (13), e segundas posturas da pessoa que se encaixam na segunda máscara (14), e com a primeira máscara (13) requerendo que a pessoa assuma uma posição em pé com as pernas afastadas e os braços afastados do torso, e a segunda máscara (14) requerendo que a pessoa assuma uma posição em pé com os braços estendidos ao longo do torso.
22. MÉTODO, de acordo com a reivindicação 21, caracterizado por compreender limpar porções das primeiras imagens (IMGg, IMGs), correspondendo a locais fora da primeira máscara (13) e da segunda máscara (14).
23. MÉTODO, de acordo com qualquer uma das reivindicações 19 a 21, caracterizado por o primeiro processamento compreender realizar uma primeira extração de contorno a partir das primeiras imagens (IMGs, IMGs) por meio de um primeiro detector de borda (16), e realizar uma segunda extração de contorno a partir das primeiras imagens (IMGg, IMGs) por meio de um segundo detector de borda (17).
24. MÉTODO, de acordo com a reivindicação 23, caracterizado por o primeiro processamento compreender combinar os resultados da primeira extração de contorno realizada pelo primeiro detector de borda (16) com os resultados da segunda extração de contorno realizada pelo segundo detector de borda (17).
25. MÉTODO, de acordo com a reivindicação 24, caracterizado por a combinação de resultados compreender a combinação de uma primeira saída (Il, 11') do primeiro detector de borda (16) e da segunda saída (12, 12') do segundo detector de borda (17) por adição, limiar e binarização.
26. MÉTODO, de acordo com a reivindicação 24, caracterizado por a combinação de resultados compreender: comparar uma soma dos valores de brilho da primeira saída (11, 11') e da segunda saída (12, 12) com um limiar (1); e atribuir um primeiro valor lógico (L1) se a soma da primeira saída (I1, 11) e da segunda saída (12, 12') exceder o limiar (1), e caso contrário atribuir um segundo valor lógico (L2), definindo assim as segundas imagens (FIMGg, FIMGs).
27. MÉTODO, de acordo com qualquer uma das reivindicações 19 a 26, caracterizado por compreender realizar o segundo processamento remoto das segundas imagens (FIMGg, FIMGs) no servidor remoto (3).
BR112021013021-7A 2018-12-31 2018-12-31 Dispositivo portátil para aquisição de dados antropométricos, e método de coleta de dados antropométricos BR112021013021A2 (pt)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IT2018/000174 WO2020141565A1 (en) 2018-12-31 2018-12-31 Anthropometric data portable acquisition device and method of collecting anthropometric data

Publications (1)

Publication Number Publication Date
BR112021013021A2 true BR112021013021A2 (pt) 2021-09-14

Family

ID=65520358

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112021013021-7A BR112021013021A2 (pt) 2018-12-31 2018-12-31 Dispositivo portátil para aquisição de dados antropométricos, e método de coleta de dados antropométricos

Country Status (7)

Country Link
US (1) US20220084208A1 (pt)
EP (1) EP3906528A1 (pt)
KR (1) KR20210110860A (pt)
CN (1) CN113544738B (pt)
AU (1) AU2018456044A1 (pt)
BR (1) BR112021013021A2 (pt)
WO (1) WO2020141565A1 (pt)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112883833B (zh) * 2021-01-29 2023-05-05 上海未马智能科技有限公司 一种基于拍照自动识别体型的量体裁衣方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL174448A0 (en) * 2006-03-21 2006-08-20 E Afikim Computerized Dairy Ma A method and a system for measuring an animal's height
US7796733B2 (en) * 2007-02-01 2010-09-14 Rapiscan Systems, Inc. Personnel security screening system with enhanced privacy
JP5213486B2 (ja) * 2008-03-14 2013-06-19 株式会社ソニー・コンピュータエンタテインメント 対象物追跡装置および対象物追跡方法
BRPI0917864A2 (pt) * 2008-08-15 2015-11-24 Univ Brown aparelho e método para estimativa da forma corporal
US8379940B2 (en) * 2009-06-02 2013-02-19 George Mason Intellectual Properties, Inc. Robust human authentication using holistic anthropometric and appearance-based features and boosting
CN102005029B (zh) * 2009-09-01 2013-03-06 致伸科技股份有限公司 图像处理方法及装置
US20130179288A1 (en) * 2010-11-17 2013-07-11 Upcload Gmbh Collecting and using anthropometric measurements
US9801550B2 (en) * 2010-12-27 2017-10-31 Joseph Ralph Ferrantelli Method and system for measuring anatomical dimensions from a digital photograph on a mobile device
CN104813340B (zh) * 2012-09-05 2018-02-23 体通有限公司 从2d图像序列导出准确身体尺寸测量的系统和方法
US9652851B2 (en) * 2014-04-01 2017-05-16 Conduent Business Services, Llc Side window detection in near-infrared images utilizing machine learning
US9857888B2 (en) * 2015-03-17 2018-01-02 Behr Process Corporation Paint your place application for optimizing digital painting of an image
CN106412413A (zh) * 2016-05-09 2017-02-15 捷开通讯科技(上海)有限公司 拍照控制系统及方法
US10417321B2 (en) * 2016-07-22 2019-09-17 Dropbox, Inc. Live document detection in a captured video stream
CN106791364A (zh) * 2016-11-22 2017-05-31 维沃移动通信有限公司 一种多人拍照的方法及移动终端
CN108737714A (zh) * 2018-03-21 2018-11-02 北京猎户星空科技有限公司 一种拍照方法及装置
CN108986159B (zh) * 2018-04-25 2021-10-22 浙江森马服饰股份有限公司 一种三维人体模型重建与测量的方法和设备
CN108416789A (zh) * 2018-06-04 2018-08-17 武汉斑马快跑科技有限公司 图像边缘检测方法及系统

Also Published As

Publication number Publication date
CN113544738B (zh) 2024-03-05
AU2018456044A1 (en) 2021-07-22
EP3906528A1 (en) 2021-11-10
KR20210110860A (ko) 2021-09-09
CN113544738A (zh) 2021-10-22
WO2020141565A1 (en) 2020-07-09
US20220084208A1 (en) 2022-03-17

Similar Documents

Publication Publication Date Title
US10470510B1 (en) Systems and methods for full body measurements extraction using multiple deep learning networks for body feature measurements
Wang et al. Smartphone-based wound assessment system for patients with diabetes
US20180279943A1 (en) System and method for the analysis and transmission of data, images and video relating to mammalian skin damage conditions
WO2021078065A1 (zh) 乳房三维点云重建方法、装置、存储介质及计算机设备
Ye et al. A depth camera motion analysis framework for tele-rehabilitation: Motion capture and person-centric kinematics analysis
US20160162673A1 (en) Technologies for learning body part geometry for use in biometric authentication
US7848547B2 (en) Apparatus for detecting feature point and method of detecting feature point
KR20190028422A (ko) 해부학적 대상들의 자동 검출, 국부화, 및 의미론적 세그먼트화를 위한 시스템 및 방법
WO2015116563A1 (en) Method and system for constructing personalized avatars using a parameterized deformable mesh
CN105934193A (zh) 宽场视网膜图像采集系统和方法
EP4071765A1 (en) Method and system for drawing brain functional atlas
CN113177468B (zh) 人体行为检测方法、装置、电子设备及存储介质
CN113658211B (zh) 一种用户姿态的评估方法、装置以及处理设备
Wang et al. Wound image analysis system for diabetics
AU2017201137A1 (en) Systems and methods for identifying body joint locations based on sensor data analysis
CN108876770A (zh) 一种眼底多光谱图像联合配准方法及系统
BR112021013021A2 (pt) Dispositivo portátil para aquisição de dados antropométricos, e método de coleta de dados antropométricos
KR20200078258A (ko) 관절 모델 정합 장치 및 방법
RU2789286C2 (ru) Портативное устройство получения антропометрических данных и способ сбора антропометрических данных
Barelle et al. The BIOTELEKINESY home care service: A holistic concept to prevent fall among the elderly based on ICT and computer vision
GB2602163A (en) System for determining body measurements from images
US20200226788A1 (en) Information processing apparatus, information processing method, and program
CN111724901A (zh) 一种基于视觉的结构体参数预测方法、系统、装置及存储介质
Sheng et al. A markless 3D human motion data acquisition method based on the binocular stereo vision and lightweight open pose algorithm
KR102518493B1 (ko) 경추를 포함하는 X-ray 이미지에서, 인공 지능 모델을 이용하여 상기 경추에 포함된 적어도 하나의 경추 포인트를 검출하는 전자 장치 및 그의 방법