BR102012004205A2 - Observador postural para observação ergonômica, análise e reconstrução postural - Google Patents

Observador postural para observação ergonômica, análise e reconstrução postural Download PDF

Info

Publication number
BR102012004205A2
BR102012004205A2 BR102012004205-3A BR102012004205A BR102012004205A2 BR 102012004205 A2 BR102012004205 A2 BR 102012004205A2 BR 102012004205 A BR102012004205 A BR 102012004205A BR 102012004205 A2 BR102012004205 A2 BR 102012004205A2
Authority
BR
Brazil
Prior art keywords
subject
postures
posture
fact
observation
Prior art date
Application number
BR102012004205-3A
Other languages
English (en)
Other versions
BR102012004205B1 (pt
Inventor
Nilton Luis Menegon
Daniel Cleiton Quartim Campos
Luiz Antonio Tomin
Marina Greghi Sticca
Jerusa Barbosa Guarda De Souza
Lucas Alves Volpe
Talita Naiara Rossi
Original Assignee
Embraer S.A.
Universidade Federal De São Carlos
Universidade De São Paulo - Usp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Embraer S.A., Universidade Federal De São Carlos, Universidade De São Paulo - Usp filed Critical Embraer S.A.
Publication of BR102012004205A2 publication Critical patent/BR102012004205A2/pt
Publication of BR102012004205B1 publication Critical patent/BR102012004205B1/pt

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4561Evaluating static posture, e.g. undesirable back curvature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4809Sleep detection, i.e. determining whether a subject is asleep or not
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/20Workers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Physiology (AREA)
  • Rheumatology (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Multimedia (AREA)
  • Anesthesiology (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

descreve-se um sistema e método para análise de etapas de ação de uma pessoa em atividade em um ambiente com oclusão potencial e sem a necessidade do uso de equipamento invasivo. as implantações não limitantes utilizam o registro de posturas e análise postural com base em um protocolo de observação que permite a reconstrução, em um ambiente de simulação humana digital, das posturas adotadas observadas em uma situação de tempo real ou por vídeo.

Description

OBSERVADOR POSTURAL PARA OBSERVAÇÃO ERGONÔMICA, ANÁLISE E RECONSTRUÇÃO POSTURAL [001] A presente tecnologia se refere ao sistema e método para observação, análise e reconstrução postural e, mais particularmente, a um sistema e método não invasivos para análise ergonômica e comportamental em diferentes ambientes, como, por exemplo, os meios de transporte, incluindo, mas não limitado a aeronaves.
Descrição do estado da técnica [002] As viagens aéreas tornaram o mundo um lugar menor do que nunca. É possível uma pessoa embarcar em um avião e estar do outro lado do mundo em metade de um dia. As pessoas estão cada vez mais viajando para lugares distantes a negócios e a lazer. Os vôos internacionais e as viagens de trem de longa distância não estão mais limitados a somente empresários e os muito ricos.
[003] O aumento das viagens vem pressionando as empresas de viagem, tais como as companhias aéreas, a competirem em preço e qualidade. Por exemplo, um vôo na classe executiva pode custar muito mais do que um assento em um ônibus. Alguns viajantes estão dispostos a pagar mais para terem mais conforto - principalmente em longos vôos intercontinentais. Estes consumidores de transporte podem ser muito exigentes. É difícil para os fabricantes e prestadores de serviços atenderem às suas expectativas sem o risco de ficarem fora do mercado. Consequentemente, os fabricantes de meios de transporte não podem mais focar apenas o desempenho de veículos e equipamentos. Recentemente, os fabricantes também se tornaram cada vez mais preocupados com os passageiros e o conforto da tripulação.
[004] Por este motivo, os fabricantes vêm observando e estudando como os passageiros e tripulantes agem e reagem durante toda a viagem. Para a correta dimensão e projeto do espaço ocupado por passageiros e tripulantes, enquanto eles estão viajando, é interessante observar e registrar as observações das exposições, comportamentos e ações que os passageiros e tripulantes realizam ao longo do tempo.
Petição 870190054001, de 12/06/2019, pág. 9/35
2/16 [005] Existe, portanto, uma necessidade, há muito desejada, para que sejam produzidos registros confiáveis de cada passo das ações realizadas por uma pessoa em um ambiente, como por exemplo, os passageiros no interior de um avião enquanto estão sendo transportados. O objetivo destes registros é permitir uma análise das estatísticas de comportamento dos passageiros e reconstruir as etapas de ação ao longo do tempo, por meio de simulação em ambientes virtuais, usando manequins virtuais. Além disso, é possível determinar os parâmetros para a concepção de interiores de veículos, tais como aviões, com base no espaço ocupado pelos passageiros durante o desempenho de uma atividade.
[006] De modo geral, os métodos e sistemas tradicionais para captura e gravação dos comportamentos das pessoas podem ser divididos em técnicas invasivas e não invasivas.
[007] Geralmente, os métodos invasivos usam sensores ligados ao objeto (sujeito) de observação para capturarem e gravarem os seus movimentos. Essas técnicas invasivas geralmente envolvem algum tipo de interferência ou intervenção física para observar uma pessoa em atividade. Por exemplo, esta técnica pode determinar a postura de uma pessoa, usando pelo menos um sensor de movimento com pelo menos um eixo de medição fornecido por um meio de fixação para ligar de forma rígida o referido sensor de movimento à pessoa. Outra técnica, por exemplo, obtém dados biomecânicos para uso na análise postural por meio da seleção de marcadores no corpo da pessoa, tornando-se possível analisar as posições de cada segmento do corpo em relação a parâmetros biomecânicos e desvios posturais.
[008] Os métodos não invasivos incluem o uso da clássica ergonomia baseada em protocolo, que filma o objeto de observação, convertendo os seus movimentos em símbolos e pontos, e triangulando esses pontos. Esta técnica pode detectar a posição dos corpos dos passageiros sentados em assentos de um veículo com base no bloqueio de diferentes caminhos de propagação de luz. Em particular, a posição da cabeça e a inclinação de um descanso de costas do assento podem ser detectados. O desafio é ser capaz de analisar toda a postura
Petição 870190054001, de 12/06/2019, pág. 10/35
3/16 de uma pessoa em um veículo apesar das diversas oclusões potenciais que podem impedir a captura total da posição dos diferentes segmentos do corpo do passageiro.
[009] Outra técnica conhecida realiza a análise do trabalho, criando uma lista de exigências e condições para um determinado trabalho a fim de determinar se o trabalhador é capaz de realizar tal trabalho ou não.
[010] Alguns sistemas e métodos conhecidos usam os protocolos de ergonomia clássicos para a gravação e análise postural. Alguns protocolos clássicos incluem Ovako Working Analyzing System - (“OWAS”), o Rapid Upper Limb Assessment (“RULA”) e o Rapid Entire Body Assessment (“REBA”).
[011] O Ovako Working Analyzing System (OWAS) é um método prático para identificar e avaliar as posturas no trabalho. Este método se baseia em um protocolo de posturas (ver Figura 1) que deve ser preenchido durante a observação de situações reais ou de vídeos de atividades de trabalho. O protocolo avalia o posicionamento das costas (4 posições típicas), braços (3 posições típicas) e pernas (7 posições típicas), e também considera as cargas e as forças aplicadas durante a execução de uma atividade. O resultado é uma pontuação que indica a gravidade da situação e sugere, se for necessário, medidas corretivas para reduzir a exposição dos trabalhadores a riscos. Uma vantagem deste método conhecido é que ele pode ser usado em diversas situações e não requer qualquer equipamento invasivo. No entanto, os resultados são, por vezes, mal detalhados e não permitem a reconstituição das etapas de ações uma pessoa durante a atividade.
[012] O método Rapid Upper Limb Method Assessment (RULA) foi desenvolvido em 1993 pelo Instituto de Ergonomia Ocupacional. É um método de pesquisa utilizado em investigações de estações de trabalho ergonômicas que avalia a carga biomecânica e postural do corpo, especialmente com relação a lesões no pescoço, tronco e membros superiores. Ele fornece uma classificação de pontuação de uma determinada atividade como parte de uma ferramenta de varredura rápida. O objetivo principal deste método é avaliar a exposição dos trabalhadores aos fatores de risco no trabalho, usando diagramas de posturas corporais e três tabelas de pontuação (ver Figuras 2A, 2B) que consideram: o número de movimentos, o trabalho muscular estático, a força, as posturas de
Petição 870190054001, de 12/06/2019, pág. 11/35
4/16 trabalho de determinados equipamentos e mobiliário e as horas de trabalho sem interrupção. O método de avaliação é realizado a partir de observações de atividades de trabalho, levando em conta a medição de ângulos de cada postura adotada, e o período e a duração de uma determinada posição.
[013] O método Rapid Method Entire Body Assessment (Reba) identifica os riscos músculo-esqueléticos por meio de uma análise postural sensível em uma variedade de tarefas. A ferramenta divide o corpo em segmentos que são analisados individualmente em relação aos planos de movimento. O resultado deste método é uma pontuação para as atividades musculares causadas por posturas dinâmicas, posturas estáticas, mudanças rápidas de postura e posturas instáveis.
[014] Embora tais técnicas possam ser muito úteis, elas geralmente não permitem a reconstrução das etapas de ação. Além disso, elas não permitem a reconstrução das etapas de ação em um ambiente de simulação humana digital com o uso de um manequim digital.
[015] Alguns sistemas comerciais também são usados para capturar e/ou analisar uma determinada atitude, ação ou comportamento, ou uma seqüência deles, ao longo do tempo. Eles são chamados de software de crono-análise. Alguns exemplos destes pacotes de software incluem: Captiv-L2100 e CaptivL7000 (teaergo.com), Observer ® XT (www.noldus.com) e Actogram Kronos (actogram.net).
[016] O Captiv-L2100 é um software de análise de tarefas capaz de criar gráficos de atividades, durações e algumas estatísticas através da observação de um vídeo. A observação do objeto de estudo é feita usando um protocolo que é desenvolvido pelo usuário antes da análise. O Captiv-L700 é uma ferramenta para avaliação objetiva que sincroniza a aquisição de imagens de vídeos e medições de sensores com soluções sem fio, ou seja, é uma técnica invasiva. O foco deste software é a ergonomia industrial.
[017] Ao usar o Observer XT, as respostas comportamentais e psicológicas poderão ser estudadas em conjunto. A análise dos dados geralmente começa com a visualização do registro de eventos, um ou mais
Petição 870190054001, de 12/06/2019, pág. 12/35
5/16 vídeos, e fluxos de dados fisiológicos. Os dados fisiológicos são adquiridos por meio de sensores e podem ser importados para o software e depois visualizados juntamente com o vídeo. O vídeo é analisado de acordo com um esquema de codificação que foi projetado pelo usuário e determina o que ele pode fazer com os dados em fases posteriores. O Observer XT também oferece estatísticas descritivas do comportamento codificado. Entre os resultados possíveis encontram-se as tabelas de freqüências, durações e outras estatísticas, matrizes de interação, e matrizes de transição. O Pocket Observer oferece grande flexibilidade e é totalmente compatível com o Observer XT. Ele combina os recursos do Observer XT com a portabilidade de um computador móvel. O foco deste software é a psicologia comportamental.
[018] Actogram Kronos se destina a tratar registros de observações comportamentais e medidas digitais. O aplicativo pode comparar uma atividade específica em situações que diferem, por exemplo, do tipo de ferramenta utilizada ou em outros casos, em que os fatores podem variar durante uma sequência. A descrição em protocolos deve ser planejada antes da análise dos dados. Uma descrição em protocolos é uma tabela que define os dados observáveis a serem considerados nos tratamentos.
[019] Embora tais técnicas sejam úteis, é possível e desejável que estas sejam aprimoradas.
[020] A tecnologia não-limitante exemplificada neste documento provê um sistema e método para a análise das etapas de ação de uma pessoa em atividade em um ambiente com oclusão potencial e sem a necessidade de utilização de equipamento invasivo. As implementações não-limitantes usam registro e análise postural com base em um protocolo de observação que permite a reconstrução, em um ambiente de simulação digital humana, das posturas adotadas observadas em uma situação em tempo real ou em vídeo.
[021] Os aspectos da tecnologia mencionada neste documento se referem a um sistema e método de observação não invasivos para análise postural integrada a uma base de dados e a um ambiente de simulação humana digital, aplicados à análise integrada de critérios de conforto.
Petição 870190054001, de 12/06/2019, pág. 13/35
6/16 [022] Os aspectos da tecnologia não limitante exemplificada neste documento proveem um sistema e método para observar, capturar e modelar as ações desenvolvidas por uma pessoa que realiza uma atividade e visa reproduzir, em um ambiente digital, toda dinâmica da atividade. Através desta reconstrução é possível criar um banco de dados de posturas típicas e atípicas associadas às diferentes atividades e determinar parâmetros dimensionais.
[023] Um sistema e método não limitantes para análise de observação, análise postural e reconstrução são utilizados para reconstruir as etapas de uma pessoa ao longo de uma atividade, reconstruindo cada postura adotada ao longo do tempo pela pessoa e associando-o ao meio ambiente e às posições dos objetos que a pessoa está manipulando. Essa reconstituição pode ser realizada começando com a observação de um vídeo ou de uma situação em tempo real.
[024] Um sistema não limitante gera um conjunto de dados quantitativos: tipos de posturas adotadas, número de ações e posturas necessárias para completar a atividade, análise biomecânica e cinemática de cada postura, proporção de tempo gasto para cada postura e atividade adotada, que posturas foram mais adotadas, principais estratégias adotadas enquanto esta pessoa está lidando com um objeto ou ambiente, dimensões, volumes e área ocupada pela pessoa durante a atividade realizada.
[025] De acordo com um exemplo de protocolo de observação de posturas não limitante, cada postura adotada por uma pessoa que executa uma atividade específica é reconstruída em um ambiente digital, utilizando a tecnologia disponível de simulação humana digital.
[026] Um exemplo de protocolo de observação de posturas não limitante é desenvolvido a partir da observação piloto de algumas pessoas que exercem atividades peculiares que poderiam ser analisadas em larga escala. A partir destas observações é possível reconhecer os movimentos principais de cada parte do corpo e criar uma base de dados de posturas de partes do corpo, catalogadas por números. A associação de diferentes posturas de uma parte do corpo resulta em uma postura completa. Durante o processo de observação é possível identificar novas posturas e, consequentemente, o método não limitante
Petição 870190054001, de 12/06/2019, pág. 14/35
7/16 é capaz de permitir a adição de novas posturas ao protocolo de modo a incrementar a base de dados de posturas.
[027] Um exemplo de sistema e método não limitante para observação, análise e reconstrução postural inclui:
a) A observação não invasiva da ação de uma pessoa;
b) Identificação da posição relativa;
c) Registro das posturas adotadas de uma pessoa em atividade (posição dos membros e objetos);
d) Combinação de cada parte do corpo (cabeça, tronco, braços, pernas e pés) selecionada na etapa de observação, a fim de criar uma postura;
e) Registro de cada postura instantânea;
f) Reconstrução da ação em relação ao tempo.
[028] Um exemplo de sistema e método não limitante provê uma observação não invasiva de um vídeo ou de uma situação em tempo real e registro das posturas adotadas de uma pessoa em atividade, sem a necessidade de utilizar qualquer aparelho ou equipamento ou sensor que necessita de ser colocado sobre o objeto de observação.
[029] O exemplo de observação não limitante é apoiado por um protocolo, em que as posturas, objetos, as condições de ambiente e ações são identificados em um conjunto de possibilidades anteriormente definido. O protocolo de observação pode ser em papel ou em versão eletrônica deste formulário instalado em um computador normal ou dispositivo pessoal.
[030] O exemplo de algoritmo de reconstrução não limitante exemplificado combina cada parte do corpo (cabeça, tronco, braços e pernas / pés), selecionados no protocolo de observação, a fim de criar uma postura. Da mesma forma, o algoritmo não limitante também registra a posição de objetos e outras condições ambientais. As posturas, objetos e as condições ambientais geradas a partir do protocolo de observação são usados para criar uma imagem digital de
Petição 870190054001, de 12/06/2019, pág. 15/35
8/16 cada postura adotada, usando software de simulação humana digital disponível e um sistema CAD.
[031] Em um esquema não limitante, as etapas de ação são construídas utilizando imagens digitais de cada postura adotada extraídas a partir de um banco de dados de posturas típicas e atípicas. O resultado é uma representação da dinâmica da atividade em um ambiente tridimensional. O objetivo da representação tridimensional é determinar os parâmetros dimensionais através da identificação de volumes e áreas ocupadas por uma pessoa durante as etapas de ação de cada atividade.
[032] O algoritmo de reconstrução não limitante exemplificado também registra o tempo que cada postura começa e termina e gera um relatório ao final da observação com análise estatística de dados estatísticos, as correlações, os gráficos das etapas de ação e outros dados quantitativos: o número e tipos de posturas adotadas, o número de ações e posturas necessárias para completar a atividade, posição de objetos e condições ambientais, análise biomecânica e cinematográfica de cada postura, a percentagem de tempo de cada postura e atividade adotada, as posturas que foram mais adotadas, as principais estratégias utilizadas durante uma manipulação de um objeto ou ambiente, dimensões, volumes e área ocupada pela pessoa durante a atividade realizada.
[033] Outro exemplo de recursos não limitantes e vantagens do exemplo incluem um sistema e método que:
• Permite a identificação de atividades ou posturas temporariamente relevantes.
• Permite a identificação de geometrias de assentos e outros objetos e equipamentos que suportam adequadamente o desempenho de uma atividade ou postura específica e que são temporariamente relevantes.
• Permite a identificação dos volumes e dimensões ocupados e necessários para efetuar uma atividade/postura específica e que são temporariamente relevantes.
Petição 870190054001, de 12/06/2019, pág. 16/35
9/16 • Permite a definição de parâmetros de projeto para as geometrias dos lugares, posicionamento de controles e acessórios, e espaços no interior dos veículos, considerando o conjunto de atividades / posturas assumidas pela pessoa (um passageiro, por exemplo).
Descrição resumida dos desenhos [034] Estes e outros recursos e vantagens serão melhor e mais completamente compreendidos mediante consulta à seguinte descrição de exemplos de formas não limitantes ilustradas pelos desenhos em que:
[035] A Figura 1 é um exemplo do protocolo Ovako Trabalho Sistema Analisando (OWAS) do estado da técnica;
[036] As Figuras 2A, 2B são um exemplo do gráfico Rapid Upper Limb Method Assessment (RULA) do estado da técnica;
[037] A Figura 3 é um diagrama de blocos funcional de um sistema não limitante exemplar ilustrativo;
[038] A Figura 5 é um exemplo não limitante de versão para desktop de um protocolo de observação de postura;
[039] A Figura 6 é um exemplo não limitante de versão para dispositivo móvel de um protocolo de observação de postura;
[040] A Figura 7 mostra um exemplo não limitante de etapas de ação;
[041] A Figura 8 mostra um exemplo não limitante de posturas e atividades em relação ao tempo;
[042] A Figura 9 mostra um exemplo não limitante de volumes de posturas; e [043] A Figura 10 mostra exemplo de áreas criadas a partir de volumes de posturas.
Descrição detalhada [044] A tecnologia não limitada descrita neste documento provê sistemas e métodos que permitem a observação, captura e modelagem das ações
Petição 870190054001, de 12/06/2019, pág. 17/35
10/16 desenvolvidas e posturas adotadas para uma pessoa realizar uma atividade que visa reproduzir, em um ambiente digital, toda a dinâmica da atividade.
[045] Uma configuração exemplar não limitante do sistema e método de observação, análise e reconstrução postural compreende a observação das atividades realizadas por um passageiro durante um voo comercial; no entanto, o sistema e o método de orientação aplica-se a orientação de qualquer atividade realizada por uma pessoa.
[046] A observação de um vídeo ou de uma situação que ocorre em tempo real (ver fig. 3) pode ser feita de acordo com um protocolo de observação que consiste em uma ferramenta de análise postural, com base em um conjunto prédefinido de posturas divididas em segmentos do corpo, posicionamento de objetos e equipamentos e as condições ambientais para uma atividade específica. A observação começa com a caracterização da postura inicial da pessoa, dos objetos e equipamento utilizados e descrição das condições ambientais. O especialista deve tomar nota, de acordo com o protocolo, após cada mudança de postura, dificuldades e sucessos na realização da atividade, e situações inusitadas.
[047] O protocolo de observação pode ser uma planilha impressa que o especialista preenche manualmente (Figura 4) ou um software composto por versões para dispositivos móveis e para desktop (Figura 5, 6) que automatizam o processo de gravação das posturas. Neste exemplo particular mostrado na Figura 4, existem 9 posturas diferentes para a cabeça, 9 posturas diferentes para o tronco, 19 posturas diferentes para os braços, e 19 posturas diferentes para as pernas e pés. A correspondência de padrões pode ser usada para comparar as atuais posturas da cabeça/tronco/pernas e pés do sujeito com o protocolo de observação de posturas exemplificado. O protocolo de observação de posturas inclui ainda seis padrões diferentes para o ambiente (por exemplo, a inclinação do assento), que também podem ser observados através de correspondência de padrões e da mesma forma registrada.
[048] Após a observação, é possível utilizar as posturas registradas utilizando o protocolo de observação para reconstruir as etapas de ação da
Petição 870190054001, de 12/06/2019, pág. 18/35
11/16 atividade analisadas, considerando a posição do equipamento utilizado e os objetos que compõe o meio ambiente. Para a reconstrução é possível utilizar um ambiente CAD com um manequim virtual. (Ver fig. 3).
[049] A Figura 7 mostra um exemplo de uma reconstrução de um passageiro durante um voo curto. Como pode ser visto, cada quadrado ilustra uma postura diferente adotada pelo passageiro durante o voo e sua correspondente denominação (L1, R1, R2, R3, R1, R4, R5, D1, O1, C1, C2, C3, R6, R7 , R8, R9, O2, R10, R11). A denominação foi fornecida de acordo com o número de postura associada a cada atividade. Por exemplo, R1 foi a primeira postura adotada pelo passageiro durante a atividade de descansar. Posturas similares são codificadas de forma semelhante (ver múltiplas ocorrências de R1), e outras atividades semelhantes são também codificados de forma semelhante (por exemplo, L, C, D, O, R).
[050] A análise das etapas de ação gera um gráfico que mostra diferentes posturas adotadas e a sua duração de acordo com a atividade realizada, como pode ser visto na Figura 8. Observa-se que a linha de cada atividade é dividida nas posturas adotadas de acordo com a sua denominação.
[051] A Figura 8 resume os resultados da tabela 1 abaixo, ilustrando a percentagem do tempo de um número de posturas adotadas para cada atividade durante a situação analisada. Em mais detalhe, a Figura 8 ilustra a duração de cada atividade, a percentagem de tempo para cada um em relação ao tempo total e um número de posturas adotadas para cada atividade durante a situação analisada (ver fig. 3).
Atividades Duração (min) % do tempo total No. de posturas
Lendo 1 3 1
Descansando 22 67 11
Dormindo 1 3 1
Olhando pela
janela 5 15 2
Conversando 4 12 3
Total 33 100 18
Tabela 1: Análises quantitativas
Petição 870190054001, de 12/06/2019, pág. 19/35
12/16 [052] O próximo passo do método não limitante exemplificado consiste na criação da dinâmica das etapas de ação ou o volume de posturas. O volume de posturas representa o espaço ocupado pela pessoa durante a ação de uma atividade, como pode ser visto na Figura 9.
[053] Através do volume de posturas, é possível comparar os volumes de diferentes pessoas realizando a mesma atividade, determinar elementos dinâmicos relacionados com a atividade, as áreas ocupadas e os aspectos dimensionais dos objetos. A Figura 10 ilustra as áreas criadas a partir do volume de posturas da Figura 9. Estas áreas em 2D em cada uma das três direções ortogonais são obtidas usando cálculos convencionais para obter as dimensões da área em m2.
[054] Assim, o sistema não limitante exemplificado permite uma observação não invasiva de um vídeo ou de uma situação em tempo real e o registro das posturas adotadas de uma pessoa em atividade, sem a necessidade da utilização de qualquer aparelho ou equipamento ou sensor que precisar ser colocado sobre o sujeito ou objeto de observação. Através da reconstrução das ações, é possível criar um banco de dados de posturas típicas e atípicas associadas a diferentes atividades e determinar os parâmetros dimensionais.
Exemplo de Protocolo de Observação Não Limitante [055] O exemplo não limitativo de sistema tem um protocolo de observação postura que consiste em uma ferramenta de análise postural, com base em um conjunto de posturas pré-definido, dividido em segmentos do corpo, o posicionamento de objetos e equipamentos e as condições ambientes para atividades específicas, que são também referidos no protocolo. Ele pode ser desenvolvido a partir da observação de um piloto de algumas pessoas que exercem atividades peculiares dentro de um avião, por exemplo. A partir destas observações, é possível reconhecer os movimentos principais de cada parte do corpo e criar uma base de dados de posturas de partes do corpo, catalogadas por números. O protocolo contém, por exemplo, posturas que representam o intervalo mínimo e máximo de movimento para cada postura em conjunto e intermediária entre elas. A associação de posturas diferentes de partes do corpo
Petição 870190054001, de 12/06/2019, pág. 20/35
13/16 resulta em uma postura completa. O exemplo de protocolo não limitante pode ser modificado para adicionar novas posturas, objetos e atividades. Para adicionar novas posturas, inicialmente deve-se identificar quais posturas serão incluídas, por meio da observação das atividades. É possível tirar fotos para ajudar neste processo. Após a observação, as fotos podem ser integradas a um software que as traduzirá em posturas de cabeça, braços, pernas e tronco.
[056] É possível posicionar um manequim na postura desejado. Para cada parte do corpo, podem ser extraídos os ângulos para todas as articulações. As imagens geradas pelas posturas que serão reconstruídas por um software apropriado, por exemplo, RAMSIS, poderão ser traduzidas em linguagem este software. Todos os dados sobre as articulações podem ser arquivados ou registrados, para serem usados no processo de reconstrução.
[057] Como discutido acima, o protocolo de observação pode ser uma planilha impressa que o especialista preenche manualmente (ver, por exemplo, a Figura 4) ou de software composto de versão para dispositivo móvel (ver, por exemplo, Figura 6) e desktop (ver, por exemplo, Figura 5) que automatiza o processo de gravar as posturas. A versão para desktop pode ser usada quando existe uma possibilidade para registrar as ações e analisadas após o movimento ser concluído. A versão móvel (Figura 6) pode ser utilizada sem registros, quando a observação é feita em tempo real. Neste caso, o software pode ser inserido em um palmtop, celular ou outro dispositivo móvel eletrônico.
[058] Durante o processo de observação feito por meio da versão para desktop, é possível identificar novas posturas ou atividades e o método é capaz de adicionar novas posturas ao protocolo de modo a aumentar a base de dados. Para dispositivo móvel, quando uma nova postura é identificada, o observador poderá descrevê-la na linha de comentários. Na versão móvel, o software contém um cronometro que é universal e deve ser configurado; ou seja, uma situação inicial contendo a posição de cada parte do corpo e cada elemento de ambiente deve ser configurado para iniciar a análise. Para a versão desktop, o tempo de análise é o mesmo do tempo do vídeo e é possível alterar a velocidade de acordo com as necessidades de observação. Para ambas as versões, também é possível
Petição 870190054001, de 12/06/2019, pág. 21/35
14/16 descartar qualquer registro que foi feito de forma errada e há uma ferramenta (circunferência), que avisa ao especialista se a postura foi registrada, para evitar erros no processo de observação. Ambas as versões também contam com um contador que mostra o número total de posturas adotadas pela pessoa observada.
[059] Em um exemplo de implementação não limitante, o resultado desta análise é um arquivo de formato txt que contém informações, tais como: os dados e hora de observação, o número total de posturas, posturas adotadas em cada atividade e o tempo que a pessoa permaneceu em cada uma, a posição dos objetos, principalmente de meio ambiente (cadeira, mesa) e os comentários sobre a análise. Ao final da análise, o especialista deve salvar o relatório e inserir dados dos passageiros e dos voos, por exemplo. Este arquivo txt pode ser usado para abrir uma análise que já havia sido feita para gerar a reconstrução do curso de ação ou uma análise quantitativa.
[060] A fim de gerar uma imagem digital de cada postura adotada, é possível criar ou fornecer um aplicativo API que converte as informações registradas em arquivo txt em um formato que pode ser lido pelo software de simulação humana digital.
Exemplo de Algoritmo de Reconstrução Não-Limitante [061] Um exemplo não limitante de algoritmo de reconstrução usa o arquivo txt para combinar cada parte do corpo (cabeça, tronco, braços e pernas / pé) selecionada no protocolo de observação, a fim de criar uma postura, como pode ser visto na Figura 7 e discutido acima. Da mesma forma, o algoritmo também registra a posição de objetos e outras condições ambientais. As posturas, objetos e as condições ambientais geradas a partir do protocolo de observação podem ser usados para criar uma imagem digital de cada postura adotada, usando o software de simulação humana digital disponível e um sistema CAD. A aplicação API também ajusta o manequim quando há alguma colisão ou falta de informação.
[062] O algoritmo de reconstrução não limitante também registra o tempo que cada postura começa e termina e gera um relatório ao final da observação com a
Petição 870190054001, de 12/06/2019, pág. 22/35
15/16 análise estatística dos dados estatísticos, as correlações, os gráficos das etapas de ação e outros dados quantitativos: o número e tipos de posturas adotadas, o número de ações e posturas adotadas em cada atividade, posição de objetos e condições ambientais, a percentagem de tempo de cada postura e atividade adotada, as posturas que foram mais adotadas, as principais estratégias utilizadas durante a manipulação de um objeto ou ambiente, dimensões, volumes e área ocupada pela pessoa durante a atividade realizada.
[063] O próximo passo é a geração de uma reconstrução total em um ambiente virtual como uma representação de todos os movimentos e posturas observados. O resultado é uma representação da dinâmica da atividade em um ambiente tridimensional, como mostrado na Fig. 9 e discutido acima.
[064] Resumindo, o sistema e método não limitante para a observação, análise e reconstrução postural compreende uma representação tridimensional para determinar os parâmetros dimensionais através da identificação de volumes e áreas ocupadas por uma pessoa durante as etapas de ação de cada uma das atividades, a fim de prover:
a) Uma observação não invasiva da ação de uma pessoa;
b) Identificação da posição relativa de cada parte do corpo;
c) Registro das posturas adotadas por uma pessoa em atividade (posição dos membros e objetos) em um computador usando um protocolo de observação das posturas;
d) Combinação de cada parte do corpo (cabeça, tronco, braços, pernas e pés) selecionada na etapa de observação, a fim de criar uma postura;
e) Registro de cada postura instantânea;
f) Reconstrução da ação ao longo do tempo;
g) Identificação dos volumes ocupados e dimensões necessárias para efetuar uma atividade / postura específica e que são temporariamente relevantes.
h) Determinar medidas objetivas que serão úteis na concepção de espaços.
Petição 870190054001, de 12/06/2019, pág. 23/35
16/16 [065] Embora a tecnologia descrita neste documento esteja relacionada às partes não limitantes ilustradas como exemplos, a presente invenção não está limitada pela divulgação. A invenção se destina a ser definida pelas reivindicações e a cobrir todos os esquemas correspondentes e equivalentes ou não especificamente

Claims (13)

  1. REIVINDICAÇÕES
    1. Método computacional para analisar atividades individuais usando um processador que processa automaticamente os dados de entrada recebidos, caracterizado por compreender:
    observação da postura de um sujeito;
    caracterização da postura do sujeito e atividades baseadas em um protocolo de observação de posturas;
    armazenamento das posturas e atividades caracterizadas em um arquivo de dados digital;
    reconstrução das posturas e atividades do sujeito ao longo do tempo com base no arquivo de dados digital;
    determinação de volumes em 30 que o sujeito ocupa ao longo do tempo com base na reconstrução; e determinação das áreas do volume determinado.
  2. 2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que inclui a caracterização das posturas da cabeça, tronco, braços, pernas e pés do sujeito separadamente usando um esquema de codificação.
  3. 3. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que a caracterização inclui a caracterização da posição de objetos móveis no ambiente do sujeito.
  4. 4. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que a caracterização inclui o uso de um computador desktop para comparar as posturas do sujeito gravadas em vídeo com padrões pré-determinados em um banco de dados.
  5. 5. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que a caracterização inclui a caracterização em tempo real da postura do sujeito com um dispositivo portátil.
  6. 6. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que a caracterização em tempo real da postura do sujeito com uma planilha impressa
  7. 7. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que a averiguação dos volumes em 3D inclui o uso de representações de objetos em 3D gerados por computador a fim de determinar o volume total que o sujeito
    Petição 870190054001, de 12/06/2019, pág. 25/35
    2/2 ocupa ao longo do tempo.
  8. 8. Sistema de computador para analisar as atividades individuais, incluindo um processador que processa automaticamente dados de entrada recebidos, caracterizado pelo fato de que inclui:
    um meio de entrada que captura a postura de um sujeito;
    um processador que caracteriza as posturas e atividades de um sujeito com base em um protocolo de observação de posturas e armazena as posturas e atividades caracterizadas em um arquivo de dados digital;
    um reconstrutor que reconstrói as posturas e atividades de um sujeito ao longo do tempo com base em um arquivo de dados digital, determina os volumes em 3D que o sujeito ocupa ao longo do tempo com base na reconstrução e determina as áreas a partir do volume determinado.
  9. 9. Sistema, de acordo com a reivindicação 8, caracterizado pelo fato de que o processador caracteriza as posturas da cabeça, tronco, braços e pernas e pés do sujeito separadamente usando um esquema codificado.
  10. 10. Sistema, de acordo com a reivindicação 8, caracterizado pelo fato de que o processador caracteriza a posição dos objetos móveis no ambiente do sujeito.
  11. 11. Sistema, de acordo com a reivindicação 8, caracterizado pelo fato de que o processador compreende um computador desktop que compara as posturas do sujeito registradas em vídeo com os padrões pré-determinados em um banco de dados.
  12. 12. Sistema, de acordo com a reivindicação 8, caracterizado pelo fato de que compreende um dispositivo móvel que caracteriza as posturas do sujeito em tempo real.
  13. 13. Sistema, de acordo com a reivindicação 8, caracterizado pelo fato de que o reconstrutor determina os volumes em 3D usando representações de objetos em 3D gerados a partir de um computador a fim de determinar o volume total ocupado pelo sujeito ao longo do tempo.
BR102012004205-3A 2011-02-25 2012-02-27 Observador postural para observação ergonômica, análise e reconstrução postural BR102012004205B1 (pt)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161446900P 2011-02-25 2011-02-25
US61/446,900 2011-02-25

Publications (2)

Publication Number Publication Date
BR102012004205A2 true BR102012004205A2 (pt) 2019-07-16
BR102012004205B1 BR102012004205B1 (pt) 2021-03-23

Family

ID=47006935

Family Applications (1)

Application Number Title Priority Date Filing Date
BR102012004205-3A BR102012004205B1 (pt) 2011-02-25 2012-02-27 Observador postural para observação ergonômica, análise e reconstrução postural

Country Status (2)

Country Link
US (1) US9072461B2 (pt)
BR (1) BR102012004205B1 (pt)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140278830A1 (en) * 2013-03-15 2014-09-18 U.S. Physical Therapy, Inc. Method for injury prevention and job-specific rehabilitation
FI125913B (en) * 2013-03-25 2016-04-15 Mikkelin Ammattikorkeakoulu Oy A state-defining object for computer-aided design
US9936902B2 (en) 2013-05-06 2018-04-10 The Boeing Company Ergonomic data collection and analysis
CN104274179B (zh) * 2014-09-05 2017-04-19 深圳市职业病防治院 一种下肢功能测试指标的测试方法、装置及系统
KR20160076488A (ko) * 2014-12-22 2016-06-30 디게이트 주식회사 근골격계 질환의 발생가능성의 판단 장치 및 방법
US11099631B2 (en) 2015-11-13 2021-08-24 Andrew R. Basile, JR. Virtual reality system with posture control
CN105488619A (zh) * 2015-11-26 2016-04-13 江苏大学 一种建筑工人危险辨识能力测试系统及方法
ITUB20160119A1 (it) * 2016-02-04 2017-08-04 Teseo Srl Sistema di monitoraggio ed assistenza private di persone, in particolare di anziani o di persone con problemi speciali o di carattere cognitivo
US10576016B2 (en) * 2017-11-29 2020-03-03 International Business Machines Corporation Methods and systems for managing photographic capture
CN110415336B (zh) * 2019-07-12 2021-12-14 清华大学 高精度人体体态重建方法及系统
US11409924B2 (en) * 2019-08-15 2022-08-09 Dassault Systémes Americas Corp. Modelling operating zones for manufacturing resources using virtual model and graphics based simulation
JP7412265B2 (ja) * 2020-04-27 2024-01-12 株式会社日立製作所 動作評価システム、動作評価装置、および動作評価方法
CN113331825B (zh) * 2021-05-31 2022-01-18 北京理工大学 一种虚拟现实中rula实时评价方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6865581B1 (en) 2000-01-27 2005-03-08 Icomp Health Management, Inc. Job analysis system
US6514219B1 (en) 2000-11-17 2003-02-04 Biotonix Inc. System and method for automated biomechanical analysis and the detection and correction of postural deviations
DE10231016A1 (de) 2002-07-09 2004-01-29 Daimlerchrysler Ag Verfahren und Vorrichtung zur Erfassung der Körperposition
US7877706B2 (en) * 2007-01-12 2011-01-25 International Business Machines Corporation Controlling a document based on user behavioral signals detected from a 3D captured image stream
US8269834B2 (en) * 2007-01-12 2012-09-18 International Business Machines Corporation Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream
US8831299B2 (en) * 2007-05-22 2014-09-09 Intellectual Ventures Fund 83 Llc Capturing data for individual physiological monitoring
JP4739439B2 (ja) * 2009-04-02 2011-08-03 株式会社タニタ 体動検出装置及び体動検出方法
KR20120027229A (ko) 2009-04-24 2012-03-21 꼼미사리아 아 레네르지 아토미끄 에뜨 옥스 에너지스 앨터네이티브즈 사람의 자세를 결정하기 위한 시스템 및 방법

Also Published As

Publication number Publication date
US20120265104A1 (en) 2012-10-18
US9072461B2 (en) 2015-07-07
BR102012004205B1 (pt) 2021-03-23

Similar Documents

Publication Publication Date Title
BR102012004205A2 (pt) Observador postural para observação ergonômica, análise e reconstrução postural
Von Marcard et al. Sparse inertial poser: Automatic 3d human pose estimation from sparse imus
US10657709B2 (en) Generation of body models and measurements
US10321728B1 (en) Systems and methods for full body measurements extraction
US10314536B2 (en) Method and system for delivering biomechanical feedback to human and object motion
JP6369534B2 (ja) 画像処理装置、画像処理方法、および、画像処理プログラム
US20210134042A1 (en) Crowdshaping Realistic 3D Avatars with Words
Park et al. Parametric body shape model of standing children aged 3–11 years
US10818062B2 (en) Crowdshaping realistic 3D avatars with words
KR102270949B1 (ko) 3차원 인간 모델 복원 장치 및 방법
Park et al. A parametric model of child body shape in seated postures
Lu et al. Development of human posture simulation method for assessing posture angles and spinal loads
Wells et al. Elbow joint kinematics during cricket bowling using magneto-inertial sensors: a feasibility study
Hoermann et al. Automatic mapping of atrial fiber orientations for patient‐specific modeling of cardiac electromechanics using image registration
Grey et al. Utility of store and forward teledermatology for skin patch test readings
JP6579353B1 (ja) 情報処理装置、情報処理方法、寸法データ算出装置、及び製品製造装置
Kim et al. A parametric model of shoulder articulation for virtual assessment of space suit fit
Kolose et al. Three-Dimensional Physique Assessment in the Military: New Zealand Defence Force Anthropometry Survey Protocols and Summary Statistics
JP6593830B1 (ja) 情報処理装置、情報処理方法、寸法データ算出装置、及び製品製造装置
Lopes et al. Numerical simulation of breast reduction with a new knitting condition
Yu et al. Random partition masking model for censored and masked competing risks data
JP6531273B1 (ja) 寸法データ算出装置、プログラム、方法、製品製造装置、及び製品製造システム
Navaneeth et al. To Monitor Yoga Posture Without Intervention of Human Expert Using 3D Kinematic Pose Estimation Model—A Bottom-Up Approach
IT201900015147A1 (it) Sistema di analisi di scenari di sopralluoghi giudiziari in ambito medico legale
Rajulu Anthropometry and Biomechanics Facility Presentation to Open EVA Research Forum

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 27/02/2012, OBSERVADAS AS CONDICOES LEGAIS.