KR20160125881A - 착용 가능한 자세 자문 시스템 - Google Patents

착용 가능한 자세 자문 시스템 Download PDF

Info

Publication number
KR20160125881A
KR20160125881A KR1020160032760A KR20160032760A KR20160125881A KR 20160125881 A KR20160125881 A KR 20160125881A KR 1020160032760 A KR1020160032760 A KR 1020160032760A KR 20160032760 A KR20160032760 A KR 20160032760A KR 20160125881 A KR20160125881 A KR 20160125881A
Authority
KR
South Korea
Prior art keywords
posture
user
model
wearable
advisory system
Prior art date
Application number
KR1020160032760A
Other languages
English (en)
Inventor
도린 첸
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2016/003771 priority Critical patent/WO2016171422A1/en
Priority to EP16783356.5A priority patent/EP3286675A4/en
Publication of KR20160125881A publication Critical patent/KR20160125881A/ko

Links

Images

Classifications

    • G06F17/50
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4561Evaluating static posture, e.g. undesirable back curvature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0064Body surface scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/1036Measuring load distribution, e.g. podologic studies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1071Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring angles, e.g. using goniometers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/486Bio-feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7455Details of notification to user or communication with user or patient ; user input means characterised by tactile indication, e.g. vibration or electrical stimulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1077Measuring of profiles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6804Garments; Clothes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6804Garments; Clothes
    • A61B5/6805Vests
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6823Trunk, e.g., chest, back, abdomen, hip
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F5/00Orthopaedic methods or devices for non-surgical treatment of bones or joints; Nursing devices; Anti-rape devices
    • A61F5/01Orthopaedic devices, e.g. splints, casts or braces
    • A61F5/02Orthopaedic corsets
    • A61F5/024Orthopaedic corsets having pressure pads connected in a frame for reduction or correction of the curvature of the spine
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2230/00Measuring physiological parameters of the user
    • A63B2230/62Measuring physiological parameters of the user posture
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B23/00Exercising apparatus specially adapted for particular parts of the body
    • A63B23/02Exercising apparatus specially adapted for particular parts of the body for the abdomen, the spinal column or the torso muscles related to shoulders (e.g. chest muscles)
    • A63B23/0244Exercising apparatus specially adapted for particular parts of the body for the abdomen, the spinal column or the torso muscles related to shoulders (e.g. chest muscles) with signalling or indicating means, e.g. of incorrect posture, for deep-breathing exercises
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C64/00Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
    • B29C64/30Auxiliary operations or equipment
    • B29C64/386Data acquisition or data processing for additive manufacturing
    • B29C64/393Data acquisition or data processing for additive manufacturing for controlling or regulating additive manufacturing processes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y50/00Data acquisition or data processing for additive manufacturing
    • B33Y50/02Data acquisition or data processing for additive manufacturing for controlling or regulating additive manufacturing processes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y80/00Products made by additive manufacturing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4097Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using design data to control NC machines, e.g. CAD/CAM
    • G05B19/4099Surface or curve machining, making 3D objects, e.g. desktop manufacturing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/351343-D cad-cam
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/49Nc machine tool, till multiple
    • G05B2219/49007Making, forming 3-D object, model, surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0446Sensor means for detecting worn on the body to detect changes of posture, e.g. a fall, inclination, acceleration, gait

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Physiology (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Computer Graphics (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Rheumatology (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Manufacturing & Machinery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Architecture (AREA)

Abstract

일 양태에서, 착용 가능한 자세 자문 시스템을 제조하는 방법이 기술된다. 사용자 신체의 적어도 일부의 3차원 신체 모델이 획득된다. 착용 가능한 자세 자문 시스템을 3D 프린팅하기 위한 모델이 3D 신체 모델을 기반으로 하여 생성된다. 3D 시스템 모델은 사용자의 자세를 결정하는 것을 돕기 위해 배치되는 하나 이상의 센서 및 사용자가 자신의 자세를 조정하도록 지시하는 것을 돕기 위해 배치되는 하나 이상의 작동기를 모델링한다. 3D 프린터가 착용 가능한 자세 자문 시스템을 프린팅할 수 있도록 3D 프린터에 3D 시스템 모델이 제공된다. 다양한 실시예들은 상기 방법과 관련되는 장치, 배치 및 실행 가능한 컴퓨터 코드에 관한 것이다.

Description

착용 가능한 자세 자문 시스템{WEARABLE POSTURE ADVISORY SYSTEM}
본 발명은 일반적으로 착용 가능한 기술들에 관한 것이다. 보다 구체적으로, 본 발명은 바람직한 자세를 유지하는 방법에 대한 지침을 제공하는 착용 가능한 자세 자문 시스템에 관한 것이다.
자세는 양호한 건강의 중요한 구성 요소이다. 올바른 자세가 유지되지 않는 경우, 매우 다양한 의료 문제들이 발생할 수 있다. 예를 들어, 나쁜 자세는 때때로, 미국에서 장애의 주요 원인인, 만성 요통을 야기할 수 있다.
그러나, 올바른 자세를 유지하는 것은 어려울 수 있다. 많은 사람들이 의자에 앉아서 일하는 직장에서 일을 하고, 몇 시간 동안 계속 컴퓨터를 사용하여 일을 한다. 다른 직장들에서는 많이 들어올리거나, 많이 구부리거나, 또는 오래 서서 일을 할 수 있다. 이러한 일들은 나쁜 자세 및 관련된 목, 등 및 어깨 문제로 쉽게 이어질 수 있다. 책 및 컨설턴트들이 올바른 자세를 유지하는 것에 대한 팁들을 제공할 수 있지만, 바쁜 근무 시간의 중간에 이러한 팁들을 잊어버리는 것은 너무 쉽다. 나쁜 자세와 만성 통증을 겪고 있는 일부 사람들은 물리 치료사 및 자세를 교정하고 통증의 일부를 완화하는 데 도움을 주는 다른 전문가들을 찾아간다. 그러나, 정기적으로 전문가들을 찾아가는 것은 시간이 걸리고 비용이 많이 들 수 있다. 결과적으로, 사람들이 올바른 자세 및 다른 건강한 습관들을 유지하는 것을 지원하는 더 나은 방법을 찾기 위한 노력들이 계속 진행 중이다.
발명의 배경이 되는 기술에서 언급한 바와 같이, 올바른 자세를 유지하는 것이 양호한 건강에 필수적이라는 것은 잘 알려져 있다. 그러나, 많은 사람들은 좋은 자세를 유지하는 것이 매우 어렵다는 것을 알고 있다. 일반적으로 근무 시간에는 오래 앉아 있거나, 많이 들거나, 많이 굽히는 작업 등으로 인해 신체에 스트레스를 줄 수 있고, 좋은 자세의 중요성을 잊어버리기 쉽다. 사용자가 올바른 자세를 유지하도록 상기시키는 하나의 방법은 착용 가능한 장치를 사용하는 것이다. 예를 들어, 장치는 사용자에 부착되거나 사용자에 의해 착용될 수 있다. 장치는 신체의 여러 부분에 배치되는 복수의 센서를 포함할 수 있다. 센서들은 사용자의 자세를 모니터링하고, 사용자의 자세가 나쁜 쪽으로 변경된 때를 감지할 수 있다. 이때, 장치는 아마도 진동에 의해, 압력을 가하는 것에 의해, 열을 방출하는 것에 의해, 또는 오디오 신호를 방출하는 것에 의해 사용자가 자신의 자세를 교정하도록 상기시킬 수 있다.
이러한 장치들을 각각의 소비자에게 분포시키는 하나의 방법은 동일한 장치들을 제조하여 일반 대중에게 유통시키거나 판매하는 방법 일 수있다. 즉, 각각의 소비자는 동일한 장치를 제공 받을 수 있다. 그러나, 이러한 방법은 몇 가지 제한 사항이 있다. 예를 들어, 사람들은 매우 상이한 물리적 특성들(예를 들어, 키, 몸무게, 치수 등)을 가질 수 있다. 따라서, 장치의 센서들은 사람마다 상이한 패턴으로 분포될 필요가 있다. 다만, 일반적인, 일률적인 장치를 매우 다양한 서로 다른 신체 유형들에 맞추는 것은 어려울 수 있다.
또한, 좋은 자세를 유지하기 위해 사용되는 기법 또는 방법들은 모든 사람들에게 동일할 수 없다는 것을 이해해야 한다. 즉, 한 사람에게 이상적인 특정 자세가 다른 사람에게는 차선이거나 심지어 해로울 수 있다. 예를 들어, 똑바로 앉아 있는 것이 특정 사람에게는 이상적일 수 있다. 그러나, 다른 사람에게는 등을 약간 굽히고 앉는 자세를 취하는 것이 최선일 수 있다. 이러한 사람은 사고가 있었거나, 더 똑바른 자세를 취하는 것이 어렵거나 불가능하도록 하는 조건을 가질 수 있다. 장치가 이러한 차이들을 고려하지 않으면, 사용자는 장치로부터 부적절한 지침을 받을 수 있다.
본 발명의 다양한 실시예들은 상기 문제점을 해결하는 착용 가능한 자세 자문 시스템을 제조하는 방법을 제공하고자 한다.
본 발명의 다양한 실시예들은 상기 문제점을 해결하는 착용 가능한 자세 자문 시스템을 제공하고자 한다.
일 양태에서, 착용 가능한 자세 자문 시스템을 제조하는 방법이 기술된다. 사용자 신체의 적어도 일부의 3차원적 신체 모델이 획득된다. 착용 가능한 자세 자문 시스템을 3D 프린팅하기 위한 모델은 3D 신체 모델을 기반으로 하여 생성된다. 시스템 모델은 사용자의 자세를 결정하는 것을 돕기 위해 배치되는 하나 이상의 센서 및 사용자가 자신의 자세를 조정하도록 촉구하는 것을 돕기 위해 배치되는 하나 이상의 작동기(actuator)를 모델링한다. 시스템 모델은 3D 프린터가 착용 가능한 자세 자문 시스템을 프린팅할 수 있도록 3D 프린터에 제공된다. 다양한 실시예에서, 상기 방법은 실행 가능한 컴퓨터 코드의 형태로 컴퓨터 판독 가능한 저장 매체에 저장된다.
다른 양태에서, 착용 가능한 자세 자문 시스템이 기술된다. 시스템은 사용자에 의해 착용되도록 배치되는 착용 가능한 재료를 포함한다. 시스템은 착용 가능한 재료에 배치되는 하나 이상의 능동 소자를 또한 포함할 수 있다. 각각의 능동 소자는 센서 및 작동기 중 하나 이상을 포함한다. 착용 가능한 자세 자문 시스템이 사용자에 의해 착용되는 경우, 능동 소자들은 매우 다양한 방법으로 사용자의 신체에 배치될 수 있다. 일부 실시예들에서, 예를 들어, 능동 소자들은 특정 관심 영역들에 능동 소자들을 집중하는 것을 돕기 위해 비대칭적으로 또는 고르지 않게 분포된다.
본 발명의 다양한 실시예들에 따르면, 착용 가능한 자세 자문 시스템을 제조하는 방법은 착용 가능한 자세 자문 시스템을 제조하는 방법으로서, 상기 방법은 사용자 신체의 적어도 일부의 3차원(3D) 신체 모델을 획득하는 동작; 상기 획득한 3D 신체 모델을 기반으로 하여 착용 가능한 자세 자문 시스템을 3D 프린팅하기 위한 3D 시스템 모델을 생성하는 동작으로서, 상기 3D 시스템 모델은 상기 사용자의 자세를 결정하는 것을 돕기 위해 배치되는 하나 이상의 센서 및 상기 사용자가 상기 자세를 조정하도록 지시하는 것을 돕기 위해 배치되는 하나 이상의 작동기(actuator)를 표시하는 동작; 및 3D 프린터가 상기 착용 가능한 자세 자문 시스템을 프린팅할 수 있도록 상기 3D 프린터에 상기 3D 시스템 모델을 제공하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예들에 따르면, 유형의 형태로 표현되는 실행 가능한 코드를 포함하는 컴퓨터 판독 가능한 저장 매체로서, 상기 컴퓨터 판독 가능한 저장 매체는 사용자 신체의 적어도 일부의 3차원(3D) 신체 모델을 획득하기 위한 실행 가능한 컴퓨터 코드; 상기 3D 신체 모델을 기반으로 하여 착용 가능한 자세 자문 시스템을 3D 프린팅하기 위한 3D 시스템 모델을 생성하기 위한 실행 가능한 컴퓨터 코드로서, 상기 3D 시스템 모델은 상기 사용자의 자세를 결정하는 것을 돕기 위해 배치되는 하나 이상의 센서 및 상기 사용자가 상기 자세를 조정하도록 지시하는 것을 돕기 위해 배치되는 하나 이상의 작동기를 모델링하는 실행 가능한 컴퓨터 코드; 및 3D 프린터가 상기 착용 가능한 자세 자문 시스템을 프린팅할 수 있도록 상기 3D 프린터에 상기 3D 시스템 모델을 전송하기 위한 실행 가능한 컴퓨터 코드를 포함할 수 있다.
본 발명의 다양한 실시예들에 따르면, 착용 가능한 자세 자문 시스템은 사용자에 의해 착용되도록 배치되는 착용 가능한 재료; 및 상기 착용 가능한 재료가 상기 사용자에 의해 착용되는 경우, 복수의 능동 소자들이 상기 사용자에 대한 대칭 선에 대해 비대칭적으로 배치되도록 상기 착용 가능한 재료 상에 배치되는 복수의 능동 소자를 더 포함하고, 상기 복수의 능동 소자 각각은, 사람의 자세를 모니터링하는 것을 돕기 위해 배치되는 센서; 및 사람이 현재 자세를 교정하도록 지시하는 것을 돕기 위해 사람에게 신호를 전송하기 위해 배치되는 작동기 중 적어도 하나를 포함할 수 있다.
본 발명의 다양한 구현은 상기 문제들 중 하나 이상을 해결할 수 있다. 본 발명의 일부 실시예들에서, 착용 가능한 자세 자문 시스템은 3차원(3D) 신체 스캔을 기반으로 하여 생성될 수 있다. 착용 가능한 자세 자문 시스템은 이후 3D 프린터를 사용하여 프린팅될 수 있다. 따라서, 일부 실시예들에서는 각각의 시스템이 특정 사용자에게 잘 맞도록 사용자 지정되고 및/또는 사용자의 고유한 물리적 특성들을 고려할 수 있다. 다른 실시예에서는 동일한 장치들이 유사한 물리적 특성들(예를 들어, 유사한 요구 사항, 크기, 형상 등)을 갖는 특정 집단에 맞게 사용자 지정되어 배포될 수 있다.
본 발명 및 이의 장점들은 첨부 도면들과 함께 취해지는 다음의 설명을 참조함으로써 가장 잘 이해될 수 있다.
도 1 및 도 2는 본 발명의 특정 실시예에 따른 착용 가능한 자세 자문 시스템을 제조 및 관리하는 방법을 도시하는 흐름도이다.
도 3은 본 발명의 특정 실시예에 따른 착용 가능한 자세 자문 시스템을 제조 및 관리하는 시스템의 블록도이다.
도 4 내지 도 6은 본 발명의 다양한 실시예에 따른 예시적인 3차원 신체 모델 및 자세들을 도시한다.
도 7은 본 발명의 특정 실시예에 따른 교정 작업을 도시한다.
도 8 및 도 9는 모델에 중첩되는 메시(mesh) 및 능동 소자들을 갖는 예시적인 신체 모델을 도시한다.
도 10은 본 발명의 특정 실시예에 따른 착용 가능한 자세 자문 시스템의 3차원 모델을 도시한다.
도 11 및 도 12는 본 발명의 다양한 실시예에 따른 예시적인 착용 가능한 자세 자문 시스템을 도시한다.
도 13은 본 발명의 특정 실시예에 따른 착용 가능한 자세 자문 시스템의 스트립(strip)을 도시하는 블록도를 도시한다.
도 14는 본 발명의 특정 실시예에 따른 능동 소자를 도시하는 블록도를 도시한다.
도 15는 본 발명의 특정 실시예에 따른 제어 장치를 도시하는 블록도이다.
도 16은 본 발명의 특정 실시예에 따른 모델링 장치를 도시하는 블록도이다.
도면들에서, 유사한 참조 번호들은 때때로 유사한 구조 요소들을 지정하기 위해 사용된다. 또한, 도면들에서의 묘사는 도식적이고, 일정한 비율이 아니라는 것을 또한 이해해야 한다.
본 발명은 자세를 개선하고 관리하기 위한 방법 및 배치에 관한 것이다. 보다 구체적으로, 본 발명의 다양한 실시예들은 특정 사용자의 물리적 특성에 맞게 만들어지는 착용 가능한 자세 자문 시스템에 관한 것이다.
이제 도 1 내지 도 3을 참조하여, 착용 가능한 자세 자문 시스템을 제조 및 관리하는 예시적인 방법들(100 및 200)이 기술된다. 도 1 및 도 2의 방법(100) 및 방법(200)은 도 3에 도시된 시스템(300)을 사용하여 수행된다. 시스템(300)은 3차원(3D) 스캐너(304), 3D 프린터(308), 모델링 장치(306), 제어 장치(312) 및 3D 프린터(308)에 의해 프린팅되는 착용 가능한 자세 자문 시스템(310)을 포함하여 다양한 구성 요소들을 포함할 수 있다.
방법(100) 및 방법(200)이 도 3의 특정 구성 요소 또는 장치에 의해 수행될 수 있는 다양한 동작들을 기술한다는 것을 유의해야 한다. 그러나, 하나의 장치에 의해 수행되는 임의의 동작은 상이한 장치, 또는 도 3에 도시되지 않은 다른 장치에 의해 대신 수행될 수 있다는 것을 이해해야 한다. 즉, 방법(100) 및 방법(200)의 동작들은 도 3에 도시되는 것보다 적거나 많은 장치들에 의해 수행될 수 있다.
처음에, 도 1의 방법(100)의 단계 102에서, 3차원(3D) 스캐너(304)가 사용자(302)의 신체 또는 신체 일부를 스캔하고, 스캔한 신체 또는 신체 일부의 3차원 모델을 생성할 수 있다. 3D 스캐너(304)는 대상의 3차원 모델을 생성하는 것을 돕기 위해 대상의 스캐닝과 관련되는 모든 적합한 장치 또는 장치들을 포함할 수 있다. 알려진 3D 스캐닝 기술 및 기법들이 신체 또는 신체 일부를 스캔하고 관련 신체 모델을 생성하기 위해 사용될 수 있다. 이러한 기술들은 레이저 스캐너, 접촉 스캐너, 비접촉 스캐너, 코노스코픽 홀로그래피, 구조형 광 및 변조된 광 스캐너들을 포함할 수 있지만, 이에 한정되지는 않는다.
도 4는 사람의 몸통 예를 들어, 등 위쪽 및 몸통의 3D 스캐닝을 기반으로 하여 생성된 단순화된 3D 신체 모델(400)의 일 예를 도시한다. 신체 모델(400)은 스캔된 몸통의 표면 및 윤곽에 대응하는 3차원 공간에서의 지점 또는 표면들의 위치를 표시한다. 즉, 신체 모델(400)은 스캔된 몸통의 3차원 형상 또는 형태를 적어도 부분적으로 표시한다.
신체 모델(400)은 척추의 정렬에 대응하는 정중선(402)에 의해 표시된 바와 같이, 똑바른 자세를 갖는 일반적인 몸통 및 등을 나타낸다. 그러나, 사용자들의 물리적 특성은 상당히 다를 수 있고, 관련 신체 모델들은 이들 차이를 반영할 수 있다. 예로서, 도 5는 곡선의 정준선(502)에 의해 표시된 바와 같이, 몸통이 약간 굽은 다른 예시적인 신체 모델(500)을 도시한다. 스캐닝 및 모델링 프로세스는 일반적인, 이상적인 또는 기준 신체 형상에서 벗어나는 다양한 물리적 속성 및 형태들을 효과적으로 캡처할 수 있다.
도 1 내지 도 3에 도시된 예에서, 모델링 장치(306)는 3D 스캐너(304)로부터 3D 모델을 수신하고, 및/또는 3D 스캐너(304)로부터 수신된 데이터를 기반으로 하여 3D 모델을 생성할 수 있다. 모델링 장치(306)는 개인용 컴퓨터, 랩톱, 착용 가능한 장치 및/또는 스마트폰과 같은 휴대용 장치를 포함하여 모든 적합한 컴퓨팅 장치일 수 있지만, 이에 한정되지는 않는다. 도 1로 돌아가서, 단계 104에서, 모델링 장치(306)는 3D 신체 모델을 기반으로 하여 자세 관리 모델을 생성할 수 있다. 자세 관리 모델은 바람직한(예를 들어, 이상적인, 정상적인 또는 건강한) 자세, 바람직한 자세와는 상이한 하나 이상의 다른 자세, 및 사용자가 다른 자세에서 바람직한 자세로의 이행을 수행할 수 있는 하나 이상의 교정 작업을 정의하는 것을 돕는 모델일 수 있다. 자세 관리 모델은 모든 적합한 소프트웨어 또는 하드웨어를 사용하여 생성될 수 있다. 일반적으로, 자세 관리 모델은 단계 102에서 생성되는 3D 신체 모델을 기반으로 하기 때문에, 사용자의 개별적인 물리적 특성들을 고려할 수 있다.
자세 관리 모델을 결정하기 위해 모든 적합한 기술 또는 기법들이 사용될 수 있다. 다양한 실시예에서, 바람직한 자세 및 다른 자세를 포함하여 사용자가 선택할 수 있는 다양한 자세들을 결정하는 것을 돕기 위해 자세 관리 모델이 배치될 수 있다. 일반적으로, 바람직한 자세는 사용자에게 유익한 예를 들어, 사용자에게 인체 공학적 및 의료적 이익을 제공하는 자세를 나타낸다. 예를 들어, 바람직한 자세는 불균형 상태를 유지하는 대신에 근육들이 이완하도록 하는 방식으로 또는 상당히 똑바로 앉아 있는 자세를 포함할 수 있다. 그러나, 전술한 바와 같이, 이상적인 바람직한 자세는 사람에 따라 다를 수 있다.
예로서, 도 4의 신체 모델(400)에 의해 표시되는 자세(404)는 일부 사람들을 위한 이상적인 바람직한 자세를 나타낼 수 있다. 자세(404)는 상당히 똑 바른 등 및 척추를 표시한다. 그러나, 일부 사람들은 부상 또는 질병으로 인해 오랜 시간 동안 이러한 자세를 용이하거나 안전하게 취할 수 없다. 이의 일 예는 신체 모델(500)에 의해 도 5에 표시되는 자세(504)이다. 자세(504)는 오른쪽으로 약간 기울어진 몸통 및 척추를 나타낸다. 척추를 더 똑 바르게 하려는 시도는 피로 및 심지어 부상의 원인이 되기 때문에, 특정 사람에게, 이러한 기울어짐은 이상적인 바람직한 자세가 될 가능성이 있다. 따라서, 이러한 단순화된 예를 위해, 신체 모델(500)의 방향, 형상 및/또는 각도는 자세 관리 모델에서 특정 사람에 대한 바람직한 자세를 나타낼 수 있다.
바람직한 자세 이외에, 하나 이상의 다른 자세를 결정하기 위해 모델링 장치가 또한 배치될 수 있다. 각각의 다른 자세는 바람직한 자세에서 벗어나는 자세이다. 이들 다른 자세의 일부 또는 전체는 사용자의 전체 건강의 관점으로부터 다소 차선일 수 있다. 일부 구현들에서, 모델링 장치(306)는 사용자가 하루 동안 취할 가능성이 가장 높은 상이한 다른 자세들의 범위를 결정할 수 있다.
도 6은 예시적인 다른 자세(604)를 나타낸다. 도면에 표시된 바와 같이, 다른 자세는 도 5의 바람직한 자세(504)와는 상이하다. 즉, 아마도 사용자가 테이블에 또는 의자의 팔에 기대고 있는 것으로 보여지는 몸통의 곡선이 더 두드러진다.
모델링 장치(306)는 교정 작업을 결정하기 위해 배치될 수 있다. 교정 작업은 다른 자세에서 최상의 위치로 이동하기 위해 사용자에 의해 취해질 수 있는 작업이다. 교정 작업(700)의 일 예가 도 7에 도시된다. 도면에서, 방향 화살표들은 자세가 바람직한 자세를 더 잘 닮도록 사용자가 자신의 신체의 부분들을 이동시킬 수 있는 방법을 표시한다.
일부 실시예들에서, 교정 작업은 바람직한 자세와 특정 다른 자세 사이의 편차(deviation)의 방향 및 정도를 적어도 부분적으로 기초하여 결정된다. 즉, 편차가 클 수록 교정 작업이 강해진다. 예로서, 편차가 큰 경우(예를 들어, 사용자가 바람직한 자세와는 아주 먼 뒤틀린 위치에 있는 경우), 교정 작업은 사용자의 일부에서의 (예를 들어, 더 많은 양의 운동 또는 노력을 포함하는) 더 큰 교정 운동을 포함할 수 있다. 따라서, 다양한 실시예에서, 편차가 더 큰 경우, 사용자가 착용하고 있는 착용 가능한 자세 자문 시스템은 편차가 작은 경우보다 사용자에게 더 강한 자극(예를 들어, 더 강한 진동, 더 높은 온도, 더 강한 압력, 더 큰 오디오 신호 등)을 방출할 수 있다. (자극은 도 2의 단계 214 내지 단계 218에서 후술되는 바와 같이 명령 및 적용될 수 있다).
바람직한 자세(들), 다른 자세(들) 및 교정 작업(들)과 관련된 정보는 모든 적합한 방식으로 저장 및 배치될 수 있음을 이해해야 한다. 상기 자세 및 작업들을 표시하거나 모델링하는 것을 돕는 데이터는 자세 관리 모델의 일부를 형성할 수 있다. 일부 실시예들에서, 예를 들어, 전술한 자세 및 교정 작업들을 표시하는 것을 돕는 자세 관리 모델은 3차원 신체 모델들의 형태로 저장될 수 있다. 또 다른 실시예들에서, 신체의 영역들을 표시하고, 주어진 자세에서 이들 영역의 위치를 식별하는 것을 돕고, 및/또는 바람직한 자세를 달성하기 위해 이러한 영역들이 어떻게 변경되거나 이동해야 지를 표시하는 것을 돕는 좌표들의 형태로 자세 관리 모델이 적어도 부분적으로 저장될 수 있다.
자세 관리 모델은 다양한 방법으로 구성 및 조정될 수 있다. 일부 접근 방법들에서, 예를 들어, 자세 관리 모델은 3D 신체 모델을 기반으로 하여 생성되기 때문에, 사용자의 고유한 물리적 특성들을 자동적으로 고려할 수 있다. 다른 실시예들에서, 자세 관리 모델은 바람직한 자세, 다른 자세 및 다양한 교정 작업들을 어떻게 구성해야 하는지에 대한 미리 정의된 일반적인 개념(예를 들어, 이상적이거나 기준 인체를 기반으로 하는 개념들)을 기반으로 한다. 자세 관리 모델은 컴퓨팅 장치(예를 들어, 모델링 장치(306))에 저장될 수 있다. 전문가(예를 들어, 물리 치료사, 의사 등)는 이때 사용자와의 협의 및 사용자의 검토를 기반으로 하여 자세 관리 모델의 측면들을 조정하기 위해 컴퓨팅 장치를 사용할 수 있다. 예를 들어, 사용자가 전문가의 판단으로 완벽하게 똑바르게 되어서는 안되는, 질병 또는 사고에 의해 야기된, 약간 휜 등을 갖는 경우, 전문가는 완벽하게 똑 바른 자세에서 약간 굽은 자세로 바람직한 자세의 모델의 정의를 조정할 수 있다. 빠르고 쉬운 조정들을 위해 전문가에게 소프트웨어 편집 도구가 제공될 수 있다.
도 1로 돌아가서, 단계 106에서, 모델링 장치(306)는 3D 신체 모델을 사용하여 전산 지원을 생성할 수 있다. 이러한 전산 지원은 신체의 하나 이상의 일부에 착용 가능한 자세 자문 시스템의 관련 기능, 특징 또는 요소들을 매핑하기 위한 시스템이다. 전산 지원은 매우 다양한 형태를 가질 수 있다. 일부 실시예들에서, 예를 들어, 전산 지원은 3D 신체 모델의 상이한 부분들을 표시하거나, 3D 신체 모델의 상이한 부분들에 중첩되는 메시, 그래프, 네트워크 또는 격자의 형태일 수 있다.
도 8은 상기의 접근 방법의 단순화된 예를 도시한다. 도 8에서, 전산 지원은 메시(800) 형태를 갖는다. 예를 들면, 메시는 복수의 셀(802)을 포함할 수 있다. 각 셀(802)은 신체 모델(500)의 별개의 부분과 관련된다. 셀(802)은 모든 적합한 형태를 가질 수 있다. 도시된 실시예에서, 예를 들어, 각 셀은 특정 형상(예를 들어, 직사각형, 정사각형, 육각형 등과 같은 기하학적 형상)을 갖을 수 있다. 또한, 셀들은 배열 또는 격자를 형성하기 위해 서로 인접하게 배치될 수 있다.
일부 구현들은 착용 가능한 자세 자문 시스템의 특정 구성 요소와 각 셀 간의 특별한 관계를 포함할 수 있다. 도시된 실시예에서, 예를 들어, 각 셀은 상이한 센서와 관련될 수 있다. (다른 실시예들에서는 각 셀이 도 13 및 도 14에 도시된 구성 요소와 관련될 수 있음을 이해해야 한다). 일부 구현들에서, 각 셀은 고유 주소(예를 들어, 라벨, ID 등)에 대응한다. 결과적으로, 셀에 위치한 임의의 구성 요소들의 위치 및 아이덴티티는 주소를 사용하여 쉽게 식별될 수 있다.
셀들은 모든 적합한 구성 또는 포맷으로 배치될 수 있다. 셀들이 신체 모델의 모든 영역에 걸쳐서 고르게 배치될 필요는 없다. 도 8의 도시된 실시예에서, 예를 들어, 셀(802)들은 신체의 대칭선(즉, 신체/신체 모델의 중앙을 따라 움직이고, 신체/신체 모델을 두 개의 실질적으로 대칭인 부분으로 분할하는 정준선) 또는 신체의 척추에 대해 비대칭적으로 배치될 수 있다. 즉, 정준선(502)/척추의 오른쪽보다 왼쪽에 훨씬 더 많은 셀들이 존재한다. 또한, 왼쪽의 셀들은 오른쪽에 있는 셀들보다 더 작고, 특정 크기의 영역에 대해 더 높은 밀도를 갖을 수 있다. 각 셀이 미리 정의된 개수의 전자 부품에 대응한다(예를 들어, 셀 당 하나의 센서 또는 능동 소자 등)고 가정하면, 더 높은 셀 밀도를 갖는 것은 신체의 다른 부분보다 신체의 한 부분에 더 많은 전자 부품들(예를 들어, 착용 가능한 자세 자문 시스템의 센서, 작동기들)이 존재해야 할 의학적 또는 계산적 필요성이 있음을 표시할 수 있다.
선택적으로, 도 1의 동작 108에서, 각 셀(802)은 고려되는 착용 가능한 자세 자문 시스템의 하나 이상의 구성 요소들에 매핑될 수 있다. 즉, 각 셀(802) 및 그의 고유 주소는 착용 가능한 자세 자문 시스템의 하나 이상의 구성 요소(예를 들어, 작동기, 센서, 송수신기 등)와 관련될 수 있다. 도 9의 도시된 실시예에서, 예를 들어, 각 셀(802)은 이제 능동 소자(902)와 관련될 수 있다. 결국, 각각의 능동 소자(902)는 별개의 센서를 포함할 수 있다.
구성 요소 및 해당 셀들이 배치되는 방법은 자세 관리 모델 및 3D 신체 모델을 기반으로 할 수 있다. 즉, 배치는 사용자의 물리적 특성 및 의학적 필요성을 고려할 수 있다. 예를 들어, 도 9에 도시된 예에서, 도시된 실시예의 센서 및 셀(802)들은 고르지 않게 분포된다. 즉, 본 예에서, 정준선(502)/척추에 대해, 센서들은 척추에 대해 비대칭적으로 배치될 수 있다. 척추의 오른쪽보다 왼쪽에 더 많은 센서가 있고, 더 높은 센서 밀도(즉, 동일한 크기의 영역에 대해 더 많은 센서)가 존재할 수 있다.
이것에 대한 하나의 이유는 사용자의 자세 경향들일 수 있다. 즉, 도 5 내지 도 7의 예에 도시된 바와 같이 자세 관리 모델은 사용자가 자신의 몸통을 오른쪽으로 구부리는 경향이 있다는 것을 표시한다. 결과적으로, 사용자의 등 아래쪽 근육들의 오른쪽보다 왼쪽에 일반적으로 더 큰 스트레칭 또는 긴장이 존재할 수 있다. 일부 실시예들에서, 사용자의 왼쪽에 있는 근육들의 물리적 변화를 제대로 추적하기 위해, 메시 및 계획된 착용 가능한 자세 자문 시스템은 오른쪽보다 왼쪽에 더 많은 센서 및 전자 부품들을 갖는 것을 고려할 수 있다. 물론, 신체의 특정 부분에 더 많은 센서 또는 전자 부품들을 배치하는 근거는 사용자의 자세, 질병 및/또는 생리에 따라 달라질 것이다.
동작 108에서 수행되는 매핑 프로세스, 3D 신체 모델 및/또는 자세 관리 모델을 기반으로 하여, 모델링 장치(306)는 이후 착용 가능한 자세 자문 시스템의 3차원 모델을 생성한다(동작 110). 시스템 모델은 착용 가능한 자세 자문 시스템(310)의 치수 및 구조를 표시하는 것을 돕는 모든 적합한 모델이다. 다양한 구현들에서, 3D 시스템 모델은 센서, 작동기, 능동 소자, 전자 부품, 송수신기, 네트워킹 요소, 스트랩, 밴드 등을 포함하여 시스템의 다양한 구성 요소들의 상대적인 위치를 표시한다. 알려진 3D 모델링 소프트웨어 또는 하드웨어(예를 들어, 모든 적합한 컴퓨터 지원 설계 도구)가 시스템 모델을 생성하기 위해 사용될 수 있다.
이러한 모델의 일 예가 도 10에 도시된다. 도 10은 두 개의 스트립(1004a/1004b)을 포함하는 착용 가능한 자세 자문 시스템(310)의 3차원 모델(1000)을 도시한다. 두 개의 스트립(1004a/1004b) 각각은 능동 소자(902)들을 포함한다. 각각의 능동 소자(902)는 하나 이상의 센서, 작동기, 네트워킹 요소, 회로, 패브릭 요소, 천 요소 및/또는 다른 구성 요소들의 배치를 포함할 수 있다. (이들 구성 요소의 일부는 어플리케이션에서 나중에 더 상세히 기술된다). 착용 가능한 자세 자문 모델이 사용자의 신체 모델/신체의 특정 부분과 각각의 구성 요소들을 어떻게 연결할 수 있는 지의 일 예를 전달하기 위해3D 신체 모델(500) 및 그의 관련 메시(802)가 또한 도 10에 도시된다.
착용 가능한 자세 자문 모델의 구성 요소들의 치수 및 위치는 메시에서 사용되는 셀들 및 3D 신체 모델의 형상 및 치수들을 고려할 수 있다. 도시된 실시예에서, 예를 들어, 시스템 모델(1000)의 각각의 능동 소자(902)는 메시(802)의 셀(802)과 관련된다. 스트립(1004a/1004b)들의 윤곽 및 형상은 3D 모델(500)에서 묘사된 몸통의 윤곽 및 형상에 따라 설계된다. 이러한 특정 예에서, 두 개의 스트립(1004a/1004b)은 척추의 한쪽 및 척추에 인접한 영역들에 대해 동일 평면에 배치되어 있는 각각의 패드로 사람의 등 아래쪽 영역 주변에 착용되도록 구성된다.
시스템 모델(1000)이 매우 상세히 설명될 수 있다. 다양한 설계에서, 예를 들어, 시스템 모델(1000)은 각 구성 요소를 구성하는 재료(들), 각 구성 요소의 치수, 시스템의 나머지에 대한 각 구성 요소의 정확한 위치, 구성 요소들을 연결하는 전도성 및/또는 비전도성 재료(예를 들어, 와이어, 스트랩 등) 등을 포함하여 착용 가능한 자세 자문 시스템(310)의 거의 모든 구성 요소의 다양한 특징들을 기술하고 표시한다. 다양한 실시예에서, 예를 들어, 시스템 모델(1000)은, 예를 들어, 3차원 프린터(308)를 사용하여 착용 가능한 자세 자문 시스템(310)을 제조하는 것을 돕기 위해 사용될 수 있도록 충분히 상세히 설명된다.
3D 시스템 모델이 생성된 후에, 3D 시스템 모델은 3D 프린팅 장치(308)에 제공된다. 3D 프린팅 장치(308)는 이후 3D 시스템 모델(1000)을 기반으로 하여 착용 가능한 자세 자문 시스템(310)을 프린팅한다(도 1의 동작 112). 프린팅된 시스템(310)은 3D 시스템 모델(1000)에서 정의된 바와 같은 구성 요소, 구조, 형상, 치수, 재료 및/또는 설계를 갖는다.
시스템(310)의 프린팅은 다양한 분석 또는 처리 동작들이 필요할 수 있다. 일부 실시예들에서, 예를 들어, 3D 시스템 모델(1000)은 3D 프린터(308)이 파일을 읽을 수 있도록 새로운 포맷(예를 들어, .STL, .OBJ)으로 변환될 필요가 있는 파일로 저장될 수 있다. 3D 시스템 모델을 복수의 얇은 슬라이스 또는 층들로 분할하기 위해 소프트웨어가 사용될 수 있다. 각각의 얇은 층을 형성하기 위해 사용되는 재료들이 식별될 수 있다. 3D 프린터(308)는 이후 시스템 모델(1000)에 표시된 바와 같이 시스템(310)을 서서히 만들기 위해 식별된 재료들을 사용하여 층들을 연속적으로 증착시킨다.
알려진 3D 프린터(308)는 착용 가능한 자세 자문 시스템(310)을 프린팅하기 위해 사용될 수 있다. 일반적으로, 3D 프린터(308)는 첨가제 제조 기법들을 사용한다. 즉, 재료의 층들은 시스템(310)을 서서히 형성하기 위해 순차적으로 서로 서로 위에 적용된다. 일부 구현들에서, 비전도성 구성 요소(예를 들어, 플라스틱 또는 패브릭 재료들)뿐만 아니라 전도성/전기 부품들(예를 들어, 센서, 작동기, 전자 제품 등)도 동일한 3D 프린터(308)를 사용하여 증착될 수 있다. 3D 프린터(308)의 사용은 사용자가 자신의 물리적 형상. 조건 및/또는 특성들에 맞도록 만들어지는 착용 가능한 자세 자문 시스템(310)을 빠르게 제조할 수 있도록 한다.
3D 프린터(308)는 완성된 착용 가능한 제품을 생성하기 위해 추가적인 제조 동작들이 필요하거나 필요없는 매우 다양한 상이한 설계들을 생성할 수 있다. 도 11 및 도 12는 두 개의 예시적인 접근 방법을 도시한다. 도 11에서, 3D 프린터(308)는 도 10에 도시된 스트립(1004a/1004b) 및 능도 소자(902)들을 프린팅할 수 있다. 3D 프린터(308)는 또한 스트립들의 각각으로부터 연장되고, 기본 패브릭 또는 재료에 스트립들을 연결하기 위해 배치되는 두 개의 스트랩(1104)을 프린팅할 수 있다. 이후, 시스템은 사용자가 쉽게 착용할 수 있는 적합하고, 착용 가능한 재료(들)(예를 들어, 천 시트, 재킷, 베스트 등)로 통합된다. 예를 들어, 착용 가능한 재료는 천으로 이루어질 수 있고, 시스템(310)은 착용 가능한 재료에 나중에 삽입, 부착, 장착 및/또는 꿰매어 부착될 수 있다. 착용 가능한 재료와 프린팅된 착용 가능한 자세 자문 시스템(310)의 연결은 종래 기법들을 사용하여 (예를 들어, 3D 프린터의 지원 없이, 접착제 또는 바늘을 사용하여) 수행될 수 있다.
또 다른 실시예들에서, 3D 프린터(308)는 시스템이 포함되는 기자재(예를 들어, 셔츠 또는 재킷)뿐만 아니라 스트립 및 능동 소자들을 프린팅할 수 있다. 즉, 프린터는 사용자가 프린터에 의해 제조되는 거의 즉시 시스템을 착용할 수 있도록 패브릭 또는 착용 가능한 재료들과 전자 부품들을 통합한 착용 가능한 자세 자문 시스템(310)을 생성할 수 있다. 도 12는 이러한 접근 방법의 일 예를 도시한다. 도 12의 예에서, 3D 프린터(308)는 스트립(1004a/1004b), 도 10에 도시된 능동 소자, 및 능동 소자 및 스트립들이 포함되는 기자재(예를 들어, 천 셔츠 또는 재킷)를 포함하는 착용 가능한 자세 자문 시스템(310)을 프린팅한다.
착용 가능한 자세 자문 시스템(310)의 각각 스트립(1004)의 개략도가 도 13 및 도 14에 도시된다. 본 예에서, 각각의 스트립(1004)은 기자재(1302) 및 하나 이상의 능동 소자(902)를 포함한다. 도시된 실시예에서, 전도성 경로들을 통해 네트워크로 연결되는 3개의 능동 소자(902)가 있다. 능동 소자(902)는 모든 적합한 방식으로(예를 들어, 행으로, 도 9와 같은 배열로) 배치될 수 있다. 기자재(1302)는 모든 적합한 재료(들)(예를 들어, 천, 플라스틱, 금속 등)로 이루어질 수 있다. 스트립(1004), 기자재(1302) 및 능동 소자(902)들은 모든 적합한 형상, 구성, 설계 또는 치수를 가질 수 있다.
도 14는 예시적인 능동 소자(902)의 개략도를 도시한다. 도시된 실시예에서, 능동 소자(902)는 센서(1402), 작동기(1404), 네트워크 요소(1406) 및 전원(1408)을 포함할 수 있다. 다른 실시예들에서, 능동 소자(902)는 정도의 차는 있어도 이들 구성 요소의 어느 하나를 포함할 수 있다.
센서(1402)는 착용 가능한 자세 자문 시스템(310)을 착용한 사용자의 자세 변화들을 감지하거나 모니터링하는 것을 돕기 위해 배치될 수 있다. 압력 센서 및 가속도계를 포함하여 모든 적합한 센서가 사용될 수 있지만, 이에 한정되지는 않는다. 작동기(1404)는 사용자가 자신의 자세를 변경하도록 촉구하는 신호를 방출하기 위해 배치되는 소프트웨어 또는 하드웨어이다. 일부 실시예들에서, 예를 들어, 작동기(1404)는 시스템(310)을 착용한 사용자에 의해 느껴지는 압력을 가하거나 진동하도록 배치될 수 있다.
네트워크 요소(1406)는 외부 장치(예를 들어, 제어 장치(312))로부터 데이터를 수신하고, 장치에 데이터를 전송하기 위해 배치되는 소프트웨어 또는 하드웨어일 수 있다. 네트워크 요소는 데이터를 수신 및 전송하는 모든 적합한 통신 프로토콜 또는 기술(예를 들어, WiFi, 블루투스 등)을 사용할 수 있다. 다양한 실시예에서, 예를 들어, 네트워크 요소(1406)는 센서(1402)로부터 수신되는 센서 데이터를 기반으로 하여 데이터를 전송하고, 및/또는 작동기(1404)를 활성화시키는 명령들을 수신하기 위해 배치될 수 있다. 센서(1402), 작동기(1404) 및 네트워크 요소(1406)는 네트워크(1410)를 통해 서로 결합될 수 있다. 결과적으로, 센서로부터 수신되는 데이터는 네트워크 요소(1406)에 전송될 수 있고, 네트워크 요소(1406)를 통해 수신되는 데이터는 작동기(1404) 및/또는 센서(1402)에 전달될 수 있다. 또한, 네트워크 요소(1406)는 전원(1408)에 전술된 구성 요소들의 각각을 결합시킨다. 일부 실시예들에서, 복수의 스트립(1004) 및/또는 능동 소자(902)들은 공유 네트워크 요소(1406)와 결합되고, 공유 네트워크 요소(1406)를 통해 데이터를 전송/수신한다.
전원(1408)은 전술한 전자 부품들에 전력을 공급하기 위해 배치되는 모든 적합한 전원일 수 있다. 일부 실시예들에서, 예를 들어, 전원(1408)은 배터리이다. 또 다른 실시예들에서, 전원(1408)은 착용 가능한 자세 자문 시스템(310)의 모든 적합한 노출 부분에 배치되는(예를 들어, 어깨에, 사용자가 착용하는 모자에 장착되는 등) 태양 전지판과 연결될 수 있다. 하나의 접근 방법에서, 예를 들어, 전원(1408)은 결과적으로 전술한 태양 전지판과 연결되어 태양 전지판에 의해 충전되는 배터리이다. 일부 구현들은 유선 또는 무선 연결을 사용하여 공유 전원(1408)에 모두 연결되는 복수의 능동 소자(902) 및/또는 스트립(1004)들을 포함할 수 있다.
다양한 실시예에서, 도 10에 도시된 3D 모델(1000)은 전술한 착용 가능한 자세 자문 시스템(310)의 구성 요소(예를 들어, 스트립, 능동 소자, 센서, 작동기, 네트워크 요소, 전원 등) 모두를 모델링하고 표시한다는 것을 유의해야 한다. 따라서, 3D 모델(1000)을 사용하여, 3D 프린터(308)는 기능적인 완전한 착용 가능한 자세 자문 시스템(310)을 프린팅할 수 있다. 착용 가능한 자세 자문 시스템(310) 및 능동 소자(902)들은 또한 다른 구성 요소들 예를 들어, 오디오 큐(cue) 또는 음성을 방출하기 위한 스피커, 사용자 인터페이스 또는 디스프레이 등을 포함할 수 있다는 것을 또한 유의해야 한다.
도 1의 방법(100)으로 돌아가서, 동작 114에서, 적합한 소프트웨어가 제어 장치(312)에 제공될 수 있다. 소프트웨어는 제어 장치(312)가 착용 가능한 자세 자문 시스템(310)과 통신하고, 착용 가능한 자세 자문 시스템(310)을 제어할 수 있도록 하는 제어 장치(312)에 설치될 수 있다. 일부 실시예들에서, 제어 장치(312)는 적합한 네트워크(예를 들어, 인터넷)를 통해 소프트웨어를 다운로드한다. 다른 실시예들에서, 컴퓨터 판독 가능한 저장 매체(예를 들어, CD, 플래시 드라이브, SD 카드 등)가 제어 장치(312)에 삽입되고, 제어 장치(312)로 소프트웨어를 전달하기 위해 사용된다. 제어 장치(312)는 스마트폰, 스마트워치, 착용 가능한 장치, 개인용 컴퓨터 및 랩톱 컴퓨터를 포함하여 모든 적합한 컴퓨팅 장치일 수 있지만, 이에 한정되지는 않는다.
설치된 소프트웨어는 매우 다양한 특징을 포함할 수 있다. 이러한 특징들은 자세 관리 모델, 3D 신체 모델(500) 및/또는 시스템 모델(1000)을 기반으로 하는 데이터; 시스템 구성 요소들의 위치(예를 들어, 작동기, 센서 등의 위치)에 대한 데이터; 각 구성 요소에 대한 고유 ID; 메시 데이터; 및 착용 가능한 자세 자문 시스템(310)과의 연결을 확립하기 위해 사용되는 통신 프로토콜들을 포함하지만, 이에 한정되지는 않는다. 일반적으로, 소프트웨어는 제어 장치(312)의 컴퓨터 판독 가능한 저장 매체(예를 들어, 하드 드라이브, 플래시 드라이브, 메모리 등)에 저장된다.
동작 116에서, 제어 장치(312)는 착용 가능한 자세 자문 시스템에 연결된다. 즉, 제어 장치(312)는 착용 가능한 자세 자문 시스템(310)과 무선 또는 유선 네트워크(316)를 통해 연결된다. 모든 적합한 네트워크 또는 통신 프로토콜 예를 들어, 블루투스, WiFi, NFC 등이 연결을 확립하기 위해 사용될 수 있다.
도 1의 방법(100)은 도 2의 방법(200)의 동작 202로 계속된다. 도 2의 동작 202에서, 착용 가능한 자세 자문 시스템(310)은 사용자에 의해 착용될 수 있다. 착용 가능한 자세 자문 시스템(310)이 사람의 등 아래 또는 몸통에 적용될 수 있는 방법을 도시하는 이것의 일 예가 도 10에 도시된다. 물론, 착용 가능한 자세 자문 시스템(310)은 신체의 상이한 부분들에 착용되도록 의도되는 매우 다양한 상이한 형태를 가질 수 있다.
동작 204에서, 착용 가능한 자세 자문 시스템의 센서(들)은 센서 데이터를 수집할 수 있다. 센서 데이터의 특성 및 데이터 수집 과정은 센서(들)의 설계에 따라 크게 달라질 수 있다. 일부 실시예들에서, 예를 들어, 센서는 센서를 지지하는 신체의 일부가 움직이거나 굽힐 때 변경할 수 있는 센서의 위치를 감지할 수 있는 가속도계이다. 또 다른 실시예들에서, 센서는 센서가 배치되는 신체의 위치에서의 압력, 압박감 및/또는 근육이나 피부의 긴장을 감지하는 압력 센서이다. 전술한 바와 같이, 착용 가능한 자세 자문 시스템(310)은 센서들이 배치되는 신체의 다양한 부분들로부터 동시에 데이터를 수집하는 복수의 센서들을 가질 수 있다.
동작 206에서, 착용 가능한 자세 자문 시스템(310)은 네트워크(316)를 통해 (예를 들어, 네트워크 요소(1406)를 사용하여) 제어 장치(312)에 센서 데이터를 전송할 수 있다. 동작 208에서, 제어 장치(312)는 센서 데이터를 수신하여 처리할 수 있다. 보다 구체적으로, 제어 장치(312)는 센서 데이터를 분석하고, 센서 데이터를 기반으로 하여 사용자의 현재 자세를 결정(동작 210)하기 위해 배치될 수 있다. 이러한 분석은 도 1의 동작 104에서 기술된 자세 관리 모델을 고려할 수 있다. 이후, 제어 장치는 사용자의 현재 자세가 바람직한 자세(예를 들어, 도 5의 바람직한 자세) 또는 건강하고 바람직한 자세에서 벗어나는 특정 다른 자세(예를 들어, 도 6의 다른 자세)와 일치하는 지 여부를 결정할 수 있다(동작 212).
현재 자세가 바람직한 자세인 경우, 방법(200)은 동작 204로 돌아가고, 착용 가능한 자세 자문 시스템(310)은 사용자의 자세를 계속 모니터링할 수 있다. 현재 자세가 바람직한 자세와 일치하지 않는 경우, 방법(200)은 동작 214를 진행한다. 동작 214에서, 제어 장치는 (예를 들어, 자세 관리 모델을 기반으로 하여) 사용자가 다른 자세에서 바람직한 자세로 이행하는 것을 도울 교정 작업을 결정할 수 있다.
교정 작업은 현재 자세 및 바람직한 자세에 따라 크게 달라질 수 있다. 다양한 실시예에서, 제어 장치(312)에 설치된 소프트웨어는 사용자가 바람직한 자세로 복귀하는 것을 돕는 각각의 자세에 대한 해당 교정 작업들뿐만 아니라, 복수의 가능한 다른 자세들을 저장할 수 있다. 교정 작업들은 일반적으로, 더 상세히 후술되는 바와 같이, 작동기들이 특정 작업을 수행하도록 하는 명령들을 포함할 수 있다.
동작 216에서, 제어 장치(312)는 착용 가능한 자세 자문 시스템(310)에 제어 데이터를 전송할 수 있다. 이후, 착용 가능한 자세 자문 시스템(310)의 작동기(들)은 전송된 제어 데이터에 응답하여 작업을 수행할 수 있다.
작동기(들)이 수행할 수 있는 작업의 유형은 현재 자세 및 제어 장치(312)에 의해 결정되는 교정 작업에 따라 달라질 수 있다. 다양한 실시예에서, 예를 들어, 작동기는 사용자가 느낄 수 있는 물리적 자극을 생성할 수 있다. 물리적 자극은 사용자가 다른 자세에서 (예를 들어, 자세 관리 모델의 교정 작업에 의해 표시되는 바와 같이) 바람직한 더 건강한 자세로 그들의 자세를 바꾸도록 촉구하기 위해 배치될 수 있다.
사용자가 도 7에 표시된 바와 같이 왼쪽으로 너무 멀리 자신의 팔꿈치를 기울이고 있는 경우의 일 예를 고려한다. 이것은 척추 건강에 해로운 커브를 야기한다. 일부 실시예들에서, 제어 데이터가 척추를 따라 배치된 작동기들이 사용자에 의해 느껴지는 압력을 생성하거나 진동시키도록 하고, 따라서 사용자는 자신의 척추를 똑바르게 하는 것을 상기한다. 대안적으로, 척추의 왼쪽에 배치되는 작동기들은, 왼쪽이 너무 많은 기장 하에 있어 똑 바르게 해야 한다는 것을 사용자에게 상기시키기 위해, 이러한 방식으로 활성화될 수 있다. 작동기들은 임의의 조합 또는 순서로 물리적 자극을 일으키기 위해 활성화될 수 있다(예를 들어, 복수의 작동기는 동시에, 임의의 적합한 패턴으로, 교대로 선을 따라 순서대로 활성화될 수 있고, 특정 패턴을 따르는 펄스들로 진동할 수 있다).
착용 가능한 자세 자문 시스템(310)은 또한 다른 방법들을 사용하여 사용자가 자신의 자세를 교정하도록 촉구할 수 있다. 일부 설계들은 진동, 압력 및/또는 열을 방출하는 작동기를 포함할 수 있다. 일부 구현들에서, 예를 들어, 착용 가능한 자세 자문 시스템(310) 및/또는 제어 장치(312)는 사용자가 그들의 자세를 교정하도록 상기시키는 가청음 예를 들어, 차임벨 소리, 링 또는 음성을 방출할 수 있다. 추가로 또는 대안적으로, 제어 장치(312)는 사용자의 자세가 교정되어야 한다는 것을 사용자에게 표시하는 메시지를 사용자 인터페이스 또는 스크린에 표시할 수 있다.
작동기 동작 및 교정 작업의 특성 및 규모는 착용 가능한 자세 자문 시스템(310)으로부터 수신되는 센서 데이터에 따라 달라질 수 있다. 다양한 실시예에서, 예를 들어, 제어 장치(312)는 정상적인 자세 및 (예를 들어, 도 1의 동작 104 및 동작 114와 관련하여 논의된 바와 같은) 하나 이상의 다른 자세를 표시하는 자세 관리 모델 또는 데이터를 저장할 수 있다. 각각의 자세는 착용 가능한 자세 자문 시스템(310)에서의 각 센서에 대한 특정 위치(예를 들어, 센서에 대한 바람직한 자세 위치는 사용자가 시스템(310)을 착용하고 있고, 바람직한 자세로 있는 경우에 센서가 있는 위치이다)와 관련될 수 있다. 제어 장치(312)는 센서 데이터를 수신하고(동작 204, 동작 206, 및 동작 208), 센서 데이터를 기반으로 하여 각 센서의 현재 위치를 결정한다. 또한, 제어 장치(312)는 각 센서의 현재 위치가 그의 해당하는 바람직한 자세 위치로부터 얼마나 많이 벗어나는 지 및/또는 만약 벗어나는 경우, 편차(deviation)의 방향을 결정할 수 있다. 일부 실시예들에서, 제어 장치(312)는 특정 셀(802)의 센서로부터 수신되는 센서 데이터를 기반으로 하여 사용자의 위치/자세 변화들을 결정하는 것을 돕기 위해 3D 신체 모델에 중첩되는 메시(예를 들어, 도 8의 메시(800))를 사용할 수 있다. 제어 장치(312)는 이후 이러한 편차 및 방향 정보를 기반으로 하여 교정 작업을 결정할 수 있다(동작 214).
상기 접근 방법의 일 실시예를 도시하는 것을 돕기 위해, 사용자에 의해 착용되는 착용 가능한 자세 자문 시스템(310)이 있는 일 예를 고려한다. 시스템(310)은 등 위쪽에 하나의 센서 및 등 아래쪽에 하나의 센서를 배치할 수 있다. 제어 장치(312)(예를 들어, 스마트폰, 스마트워치 등)는 등 위쪽 센서 및 등 아래쪽 센서에 대한 바람직한 자세 위치를 표시하는 데이터를 저장할 수 있다. 즉, 등 위쪽 센서 및 등 아래쪽 센서에 대한 바람직한 자세 위치는 사용자가 시스템(310)을 착용하고 있고, 바람직한 위치에 있는 (예를 들어, 건강한 방식으로 똑바로 서 있거나 앉아 있는) 경우에 센서들이 있는 위치들이다. 제어 장치(312)는 센서들의 현재 위치가 그들의 해당하는 바람직한 자세 위치들로부터 벗어난 것을 표시하는 센서 데이터를 센서들로부터 수신할 수 있다. 센서 데이터를 기반으로 하여, 제어 장치(312)는 사용자가 건강에 해로운 방식으로 구부리거나 굽히고 있음을 표시하는, 등 아래쪽 센서는 약간 앞으로 이동했고, 등 위쪽 센서는 그의 바람직한 자세 위치에 대해 훨씬 더 앞으로 그리고 아래쪽으로 이동했다고 결정할 수 있다(동작 204, 동작 206, 및 동작 208). 제어 장치(312)는 신호를 시스템(310)에 전송한다(동작 214 및 동작 216). 신호에 응답하고 신호를 기반으로 하여, 시스템(310)의 작동기들은 사용자에게 (예를 들어, 물리적 자극, 열, 압력, 진동 등을 사용하여) 사용자가 자신의 자세를 똑바르게 해야한다는 것을 표시할 수 있다. 즉, 일부 실시예들에서, 상기 편차 및 방향 데이터를 기반으로 하여, 작동기들에 의해 인가되는 물리적 자극 또는 신호는 사용자가 이동하거나 굽혀야 하는 특정 방향을 표시할 수 있다. 또한, 작동기 신호/자극의 강도는 사용자가 자신의 자세를 변경하도록 더 강하게 및 긴급하게 촉구하기 위해 편차의 양을 기반으로 하여 달라질 수 있다(예를 들어, 사용자가 많이 구부리는 경우, 물리적 자극의 강도는 사용자가 단지 약간 구부리고 있는 경우보다 훨씬 더 클 수 있다).
일단 교정 제어 데이터가 착용 가능한 자세 자문 시스템(310)에서 수신되고, 사용자가 촉구받으면, 방법(200)은 동작 204로 돌아갈 수 있다. 시스템의 센서들은 사용자의 자세를 계속 모니터링하고, 방법은 동작 204 내지 동작 218을 반복할 수 있다.
일부 접근 방법들은 전문가들이 제어 장치(312) 및 프린팅된 착용 가능한 자세 자문 시스템(310)을 사용하여 도 1의 방법(100)의 동작들의 일부를 다시 수행하는 동작을 포함할 수 있다. 일부 구현들에서, 예를 들어, 전문가는 사용자(302)에게 프린팅된 시스템(310)을 배치할 것이다. 전문가는 이후 제어 장치(312)를 사용하여 사용자의 자세를 검토할 수 있다. 예를 들어, 전문가는 사용자에게 서 있기, 앉기 및 다양한 다른 포즈들을 취하도록 요구하면서, (예를 들어, 도 2의 방법(200)에서 기술된 바와 같이) 사용자가 이들 포즈로 있을 때의 사용자의 자세에 대한 제어 장치(312)로부터의 피드백을 수신할 수 있다. 일부 실시예에서, 사용자의 자세에 대한 상세한 정보(예를 들어, 자세가 바람직한 자세를 충족시키는 지, 다른 자세인지 여부)는 제어 장치(312)의 사용자 인터페이스/디스플레이에 나타날 것이다. 이러한 피드백을 기반으로 하여, 전문가는 모델링 장치(306) 및/또는 제어 장치(312)에서 자세 관리 모델의 모든 측면(예를 들어, 바람직한 자세, 다른 자세 또는 교정 작업을 구성하는 것)을 조정할 수 있다. 이러한 방식으로, 전문가는 시스템을 더 구성하고 사용자에게 그것을 맞추기 위해 착용 가능한 자세 자문 시스템(310)을 사용할 수 있다.
다음으로 도 15를 참조하여, 본 발명의 특정 실시예에 따른 제어 장치(예를 들어, 도 3의 제어 장치(312))가 기술된다. 제어 장치(312)는 하나 이상의 프로세서를 포함하는 프로세서 유닛(1504), 저장 유닛(1502), 시스템 제어 모듈(1510), 사용자 인터페이스 유닛(1506), 및 네트워크 인터페이스 유닛(1512)을 포함할 수 있다. 제어 장치(312)는 스마트폰, 휴대용 장치, 컴퓨터 태블릿, 데스크톱 컴퓨터, 랩톱, 컴퓨터 안경, 스마트워치 및/또는 모든 유형의 착용 가능 또는 모바일 기술을 포함하여 모든 적합한 컴퓨팅 장치일 수 있지만, 이에 한정되지는 않는다.
네트워크 인터페이스 유닛(1512)은 장치(312)가 네트워크(316)를 통해 착용 가능한 자세 자문 시스템(310)과 통신할 수 있도록 하기에 적합한 하드웨어 또는 소프트웨어를 포함할 수 있다. 일부 실시예들에서, 네트워크 인터페이스 유닛(1512)은 또한 (예를 들어, 도 1의 동작 114와 관련하여 기술된 바와 같이) 제어 장치(312)에 설치될 수 있는 소프트웨어 또는 어플리케이션들을 (예를 들어, 인터넷 또는 다른 적합한 네트워크를 통해) 수신하기 위해 배치될 수 있다. 또 다른 실시예들에서, 네트워크 인터페이스 유닛(1512)은 모델링 장치(306)로부터 데이터(예를 들어, 자세 관리 모델)을 수신하기 위해 배치될 수 있다. 네트워크 인터페이스 유닛(1512)은 모든 적합한 네트워크(예를 들어, LAN, 인터넷 등) 또는 통신 프로토콜(예를 들어, 블루투스, WiFi, NFC 등)을 사용하여 데이터를 전송하고 데이터를 수신하기 위해 배치될 수 있다.
저장 유닛(1502)은 데이터 또는 실행 가능한 컴퓨터 코드를 저장하기에 적합한 하드웨어이다. 저장 유닛(1502)은 하드 드라이브, 플래시 드라이브, 비휘발성 메모리, 휘발성 메모리 또는 모든 다른 유형의 컴퓨터 판독 가능한 저장 매체를 포함할 수 있지만, 이에 한정되지는 않는다. 본 발명에서 기술되는 제어 장치(312)에 대한 모든 동작 또는 방법(예를 들어, 도 2의 동작 204 내지 동작 216)은 저장 유닛(1502)에 실행 가능한 컴퓨터 코드 또는 명령의 형태로 저장될 수 있다. 프로세서 유닛(1504)에 의한 컴퓨터 코드 또는 명령의 실행은 장치(312)가 전술한 동작 또는 방법들 중 어느 하나를 수행하도록 할 수 있다.
시스템 제어 모듈(1510)은 제어 장치(312)에 관련된 본 발명에서 기술된 동작 또는 방법들(예를 들어, 도 2의 동작 204 내지 동작 216) 중 어느 하나를 수행하기 위해 배치되는 하드웨어 또는 소프트웨어이다. 다양한 실시예에서, 시스템 제어 모듈(1510)은 착용 가능한 자세 자문 시스템(310)으로부터 센서 데이터를 수신하고, 사용자의 현재 자세를 결정하고, 교정 작업을 결정하고, 시스템(310)에 제어 데이터를 전송하기 위해 배치될 수 있다. 일부 실시예들에서, 시스템 제어 모듈(1510)은 온라인 스토어(예를 들어, 구글 플레이, 애플 앱 스토어 등)로부터 인터넷을 통해 제어 장치로 다운로드되는 모바일 어플리케이션의 형태를 갖는다.
사용자 인터페이스 유닛(1506)은 장치(312)의 사용자에게 사용자 인터페이스를 제공하기 위한 하드웨어 또는 소프트웨어일 수 있다. 다양한 실시예에서, 사용자 인터페이스 유닛(1506)은 마우스, 키보드, 터치 감응식(정전식) 스크린, 비디오 디스플레이, 전자잉크 디스플레이, LCD 스크린, OLED 스크린 및 헤드업 디스플레이를 포함하지만, 이에 한정되지는 않는다. 사용자 인터페이스 유닛(1506)은 또한 오디오 명령을 수신하고, 오디오 문(audio statement)을 만들 수 있다. 다양한 구현에서, 사용자 인터페이스 유닛(1506)은 (예를 들어, 도 1의 동작 114에서 논의된 바와 같이) 소프트웨어의 설치를 관리하고, (예를 들어, 도 2의 동작 218과 관련하여 논의된 바와 같이) 사용자가 자신의 자세를 교정하도록 촉구하는 메시지 또는 다이어그램을 표시하기 위해 사용되는 인터페이스를 디스플레이할 수 있다. 전문가 또는 사용자는 장치에 저장된 소프트웨어(예를 들어, 자세 관리 모델)를 작동시키거나 조정하기 위해 사용자 인터페이스를 사용할 수 있다.
다음으로 도 16을 참조하여, 본 발명의 특정 실시예에 따른 모델링 장치(306)(예를 들어, 도 3의 모델링 장치(306))가 기술된다. 모델링 장치(306)는 하나 이상의 프로세서를 포함하는 프로세서 유닛(1604), 저장 유닛(1602), 모델 처리 모듈(1610), 사용자 인터페이스 유닛(1606), 및 네트워크 인터페이스 유닛(1612)을 포함할 수 있다. 모델링 장치(306)는 단말기, 컴퓨터, 스마트폰, 휴대용 장치, 컴퓨터 태블릿, 랩톱, 컴퓨터 안경, 스마트워치 및/또는 모든 유형의 착용 가능 또는 모바일 기술을 포함하여 모든 적합한 컴퓨팅 장치일 수 있지만, 이에 한정되지는 않는다.
네트워크 인터페이스 유닛(1612)은 장치(306)가 제어 장치(312) 및/또는 3D 스캐너(304)와 통신하도록 하기에 적합한 하드웨어 또는 소프트웨어이다. 네트워크 인터페이스 유닛(1612)은 모든 적합한 네트워크(예를 들어, LAN, 인터넷 등) 또는 통신 프로토콜(예를 들어, 블루투스, WiFi 등)을 사용하여 제어 장치(312) 및/또는 3D 스캐너(304)에 데이터를 전송하고, 제어 장치(312) 및/또는 3D 스캐너(304)로부터 데이터를 수신하기 위해 배치될 수 있다. 일부 실시예들에서, 데이터 전송은 네트워크를 통해서보다는 컴퓨터 판독 가능한 저장 매체의 사용 또는 개입(예를 들어, 플래시 드라이브, CD, SD 카드 등의 사용)을 통해 이루어질 수 있다.
저장 유닛(1602)은 데이터 또는 실행 가능한 컴퓨터 코드를 저장하기에 적합한 하드웨어일 수 있다. 저장 유닛(1602)은 하드 드라이브, 플래시 드라이브, 비휘발성 메모리, 휘발성 메모리 또는 모든 다른 유형의 컴퓨터 판독 가능한 저장 매체를 포함할 수 있지만, 이에 한정되지는 않는다. 본 발명에서 기술되는 모델링 장치(306)에 대한 모든 동작 또는 방법들(예를 들어, 도 1의 동작 102 내지 동작 110)은 저장 유닛(1602)에 실행 가능한 컴퓨터 코드 또는 명령의 형태로 저장될 수 있다. 프로세서 유닛(1604)에 의한 컴퓨터 코드 또는 명령의 실행은 장치(306)가 전술한 동작 또는 방법들 중 어느 하나를 수행하도록 할 수 있다.
모델 처리 모듈(1610)은 모델 처리 장치에 관련된 본 발명에 기술된 동작 또는 방법들(예를 들어, 도 1의 동작 102 내지 동작 110) 중 어느 하나를 수행하기 위해 배치되는 하드웨어 또는 소프트웨어일 수 있다. 다양한 실시예에서, 모델 처리 모듈(1610)은 3D 스캐너로부터 데이터를 수신하고, 신체 모델, 자세 관리 모델 및/또는 시스템 모델을 생성하고, 및/또는 3D 프린터에 시스템 모델을 전송하기 위해 배치될 수 있다.
사용자 인터페이스 유닛(1606)은 장치(306)의 사용자에게 사용자 인터페이스를 제공하는 하드웨어 또는 소프트웨어일 수 있다. 다양한 실시예에서, 사용자 인터페이스 유닛은 마우스, 키보드, 터치 감응식(정전식) 스크린, 비디오 디스플레이, 전자잉크 디스플레이, LCD 스크린, OLED 스크린 및 헤드업 디스플레이를 포함하지만, 이에 한정되지는 않는다. 다양한 구현에서, 사용자 인터페이스 유닛(1606)은 전술한 모델들의 생성을 관리하기 위해 사용되는 인터페이스를 디스플레이할 수 있다. 일부 실시예들에서, 전문가(예를 들어, 물리 치료사)는 (예를 들어, 도 1의 동작 104와 관련하여 기술된 바와 같이) 특정 사용자에게 맞도록 자세 관리 모델을 조정하거나 사용자 지정하는 것을 돕기 위해 인터페이스와 인터랙트할 수 있다.
도 1 및 도 2의 방법(100) 및 방법(200)은 특정 동작들이 모델링 장치 또는 제어 장치에 의해 수행되는 일 예를 기술한다. 이들 동작은 다수의 장치에 의해 수행될 수 있다는 것을 이해해야 한다. 일부 실시예들에서, 예를 들어, 모델링 장치 및 제어 장치는 동일한 장치이다. 또 다른 실시예들에서, 그들의 특징 및 기능들은 더 많은 장치들 사이에 분할된다. 다양한 구현에서, 예를 들어, 3D 신체 모델은 하나의 장치에 의해 생성되고; 자세 관리 모델은 다른 장치에 의해 생성되고; 시스템 모델은 제3의 장치에 의해 생성되고; 제어 장치는 다른 장치들로부터 분리된다.
본 명세서에 기술된 방법 또는 동작들 중 어떤 것은 실행 가능한 소프트웨어 코드의 형태로 유형의 컴퓨터 판독 가능한 저장 매체에 저장될 수 있다. 코드는 이후 하나 이상의 프로세서에 의해 실행될 수 있다. 코드의 실행은 해당 장치(예를 들어, 모델링 장치(306), 제어 장치 등)가 기술된 동작들을 수행하도록 할 수 있다.
본 발명의 단지 몇 개의 실시예들이 상세히 기술되었지만, 본 발명은 본 발명의 사상 또는 범위를 벗어나지 않고 많은 다른 형태로 구현될 수 있다는 것을 이해해야 한다. 예를 들어, 본 발명 및 도면들은 특정 동작들을 수행하는 다양한 방법들(예를 들어, 도 1 및 도 2의 방법(100) 및 방법(200))을 기술한다. 일부 실시예들에서, 이들 동작/동작의 하나 이상이 수정, 재정렬 및/또는 삭제될 수 있음을 이해해야 한다. 또한, 도 3 및, 도 13 내지 도 16과 같은 일부 도면들은 다양한 구성 요소들을 포함하는 장치들을 기술한다. 일부 실시예들에서, 이들 구성 요소의 하나 이상이 함께 병합될 수 있다는 것을 유의해야 한다. 또 다른 실시예들에서, 하나 이상의 구성 요소가 더 많은 구성 요소들로 분리될 수 있다. 하나의 구성 요소의 특징들은 다른 구성 요소에 전달될 수 있고, 및/또는 적절하게 수정될 수 있다. 각각의 장치는 해당 도면에 도시된 것에 더하여 추가적인 구성 요소들을 가질 수 있다. 따라서, 본 실시예들은 본 명세서에서 주어진 세부 사항들에 한정되어서는 안된다.

Claims (20)

  1. 착용 가능한 자세 자문 시스템을 제조하는 방법으로서, 상기 방법은
    사용자 신체의 적어도 일부의 3차원(3D) 신체 모델을 획득하는 동작;
    상기 획득한 3D 신체 모델을 기반으로 하여 착용 가능한 자세 자문 시스템을 3D 프린팅하기 위한 3D 시스템 모델을 생성하는 동작으로서, 상기 3D 시스템 모델은 상기 사용자의 자세를 결정하는 것을 돕기 위해 배치되는 하나 이상의 센서 및 상기 사용자가 상기 자세를 조정하도록 지시하는 것을 돕기 위해 배치되는 하나 이상의 작동기(actuator)를 표시하는 동작; 및
    3D 프린터가 상기 착용 가능한 자세 자문 시스템을 프린팅할 수 있도록 상기 3D 프린터에 상기 3D 시스템 모델을 제공하는 동작을 포함하는 방법.
  2. 제1 항에 있어서,
    상기 3D 신체 모델에 메시(mesh)를 추가하는 동작을 더 포함하고, 상기 메시는 상기 3D 모델 상의 복수의 셀들을 정의하고, 각 셀은 하나 이상의 좌표에 의해 식별되는 상기 3D 신체 모델 상의 영역이고, 상기 셀들의 적어도 하나는 상기 작동기 또는 센서들 중 하나의 위치인 방법.
  3. 제2 항에 있어서,
    상기 셀들은 1) 상기 3D 모델 전체에 걸쳐서 고르지 않게 분포, 2) 크기가 다양 및 3) 비대칭 배열로 배치되는 것 중적어도 하나를 특징으로 하는 방법.
  4. 제1 항에 있어서,
    상기 3D 시스템 모델은 하나 이상의 스트립(strip)을 모델링하고, 각각의 스트립은 하나 이상의 능동 패드를 포함하고, 각각의 능동 패드는 센서, 작동기, 태양 전지판, 배터리, 및 원격 장치와 통신하기 위해 배치되는 네트워크 요소 중 하나 이상을 포함하고;
    각각의 센서는 사람의 현재 자세를 결정하는 것을 돕기 위해 배치되는 가속도계인 방법.
  5. 제1 항에 있어서,
    상기 3D 신체 모델을 획득하기 전에, 상기 3D 신체 모델을 생성하는 것을 돕기 위해 3D 스캐너를 사용하여 상기 사용자 신체의 적어도 일부를 스캐닝하는 동작; 및
    상기 3D 프린터에 상기 3D 프린팅 모델을 제공한 후에, 상기 3D 프린터를 사용하여, 상기 3D 시스템 모델에 표시된 하나 이상의 센서 및 하나 이상의 작동기를 포함하는 상기 착용 가능한 자세 자문 시스템을 프린팅하는 동작을 더 포함하는 방법.
  6. 제1 항에 있어서,
    상기 3D 신체 모델에 적어도 부분적으로 기반을 둔 자세 관리 모델을 생성하는 동작을 더 포함하고,
    상기 자세 관리 모델은 상기 사용자에 대한 바람직한 자세, 상기 바람직한 자세에서 벗어나는 상기 사용자에 대한 다른 자세(alternative posture), 및 상기 사용자가 상기 다른 자세에서 상기 바람직한 자세로 이행할 수 있는 방법을 표시하는 교정 작업을 정의하는 것을 돕는 것을 특징으로 하는 방법.
  7. 제6 항에 있어서,
    상기 자세 관리 모델은 컴퓨팅 장치에 저장되고;
    상기 방법은 상기 컴퓨팅 장치에서 전문가로부터의 입력을 수신하는 동작을 더 포함하고, 상기 입력이 상기 자세 관리 모델에서의 조정들을 야기하고, 상기 사용자에게 맞도록 상기 자세 관리 모델을 사용자 지정하는 방법.
  8. 제6 항에 있어서,
    상기 자세 관리 모델을 기반으로 하는 소프트웨어를 제공하는 동작; 및
    제어 장치에 상기 소프트웨어를 설치하는 동작을 더 포함하고, 상기 소프트웨어가 상기 착용 가능한 자세 자문 시스템이 상기 3D 시스템 모델을 기반으로 하여 프린팅된 후에 상기 착용 가능한 자세 자문 시스템으로부터 상기 제어 장치에서 수신되는 센서 데이터를 처리하기 위해 배치되고, 상기 수신된 데이터가 상기 사용자의 현재 자세를 표시하고, 상기 소프트웨어가 상기 사용자가 상기 현재 자세를 개선하기 위해 수행해야 하는 교정 작업을 표시하는 신호들을 상기 프린팅된 착용 가능한 자세 자문 시스템에 전송하는 것을 돕기 위해 더 배치되는 방법.
  9. 제6 항에 있어서,
    상기 착용 가능한 자세 자문 시스템이 상기 3D 시스템 모델을 기반으로 하여 프린팅되어 상기 사용자에게 배치된 후에 상기 착용 가능한 자세 자문 시스템의 하나 이상의 센서로부터 센서 데이터를 수신하는 동작; 및
    상기 자세 관리 모델을 결정하는 것을 돕기 위해 상기 센서 데이터를 사용하는 동작을 더 포함하는 방법.
  10. 제6 항에 있어서,
    제어 장치에 상기 자세 관리 모델을 기반으로 하는 소프트웨어를 설치하는 동작;
    상기 착용 가능한 자세 자문 시스템이 상기 3D 시스템 모델을 기반으로 하여 프린팅된 후에 상기 제어 장치에서 상기 사용자의 현재 자세를 표시하는 것을 돕는 신호들을 상기 착용 가능한 자세 자문 시스템의 상기 하나 이상의 센서로부터 수신하는 동작; 및
    상기 하나 이상의 작동기가 상기 현재 자세를 교정하도록 상기 사용자를 촉구하는 신호들을 상기 제어 장치에서 상기 프린팅된 착용 가능한 자세 자문 시스템으로 전송하는 동작을 더 포함하는 방법.
  11. 제10 항에 있어서,
    상기 사용자의 촉구 동작은 상기 하나 이상의 작동기에서 물리적 자극을 생성하는 동작을 포함하고, 상기 물리적 자극은 진동, 열 및 압력 중 하나 이상으로부터 선택되는 방법.
  12. 제11항에 있어서,
    상기 착용 가능한 자세 자문 시스템이 상기 3D 시스템 모델을 기반으로 하여 프린팅된 후에, 상기 시스템의 상기 하나 이상의 센서가 상기 사용자에 대해 비대칭 배치로 분포되도록 상기 사용자에 대해 상기 프린팅된 착용 가능한 자세 자문 시스템을 배치하는 동작을 더 포함하는 방법.
  13. 유형의 형태로 표현되는 실행 가능한 코드를 포함하는 컴퓨터 판독 가능한 저장 매체로서, 상기 컴퓨터 판독 가능한 저장 매체는
    사용자 신체의 적어도 일부의 3차원(3D) 신체 모델을 획득하기 위한 실행 가능한 컴퓨터 코드;
    상기 3D 신체 모델을 기반으로 하여 착용 가능한 자세 자문 시스템을 3D 프린팅하기 위한 3D 시스템 모델을 생성하기 위한 실행 가능한 컴퓨터 코드로서, 상기 3D 시스템 모델은 상기 사용자의 자세를 결정하는 것을 돕기 위해 배치되는 하나 이상의 센서 및 상기 사용자가 상기 자세를 조정하도록 지시하는 것을 돕기 위해 배치되는 하나 이상의 작동기를 모델링하는 실행 가능한 컴퓨터 코드; 및
    3D 프린터가 상기 착용 가능한 자세 자문 시스템을 프린팅할 수 있도록 상기 3D 프린터에 상기 3D 시스템 모델을 전송하기 위한 실행 가능한 컴퓨터 코드를 포함하는 컴퓨터 판독 가능한 저장 매체.
  14. 제13 항에 있어서,
    상기 3D 신체 모델에 적어도 부분적으로 기반을 둔 자세 관리 모델을 생성하기 위한 실행 가능한 컴퓨터 코드를 더 포함하고,
    상기 자세 관리 모델은 상기 사용자에 대한 바람직한 자세, 상기 바람직한 자세에서 벗어나는 상기 사용자에 대한 다른 자세, 및 상기 사용자가 상기 다른 자세에서 상기 바람직한 자세로 이행할 수 있는 방법을 표시하는 교정 작업을 정의하는 것을 돕는 것을 특징으로 하는 컴퓨터 판독 가능한 저장 매체.
  15. 제14 항에 있어서,
    상기 자세 관리 모델은 컴퓨팅 장치에 저장되고;
    상기 방법은 상기 컴퓨팅 장치로부터 입력을 수신하는 동작을 더 포함하고,
    상기 입력은 상기 자세 관리 모델에서의 조정들을 야기하고, 상기 사용자에게 맞도록 상기 자세 관리 모델을 사용자 지정하는 것을 특징으로 하는 컴퓨터 판독 가능한 저장 매체.
  16. 제14 항에 있어서,
    상기 자세 관리 모델을 기반으로 하는 소프트웨어를 제공하기 위한 실행 가능한 컴퓨터 코드; 및
    제어 장치에 상기 소프트웨어를 설치하기 위한 실행 가능한 컴퓨터 코드를 더 포함하고, 상기 소프트웨어가 상기 착용 가능한 자세 자문 시스템이 상기 3D 시스템 모델을 기반으로 하여 프린팅된 후에 상기 착용 가능한 자세 자문 시스템으로부터 상기 제어 장치에 수신되는 데이터를 처리하기 위해 배치되고, 상기 수신된 데이터가 상기 사용자의 현재 자세를 표시하고, 상기 소프트웨어가 상기 사용자가 상기 현재 자세를 개선하기 위해 수행해야 하는 교정 작업을 표시하는 신호들을 상기 프린팅된 착용 가능한 자세 자문 시스템에 전송하는 것을 돕기 위해 더 배치되는 컴퓨터 판독 가능한 저장 매체.
  17. 제14 항에 있어서,
    상기 착용 가능한 자세 자문 시스템이 상기 3D 시스템 모델을 기반으로 하여 프린팅되고 사용자에게 배치된 후에, 상기 착용 가능한 자세 자문 시스템의 하나 이상의 센서로부터 센서 데이터를 수신하기 위한 실행 가능한 컴퓨터 코드; 및
    상기 자세 관리 모델을 결정하는 것을 돕기 위해 상기 센서 데이터를 사용하기 위한 실행 가능한 컴퓨터 코드를 더 포함하는 컴퓨터 판독 가능한 저장 매체.
  18. 제14 항에 있어서,
    제어 장치에 상기 자세 관리 모델을 포함하는 소프트웨어를 설치하기 위한 실행 가능한 컴퓨터 코드;
    상기 착용 가능한 자세 자문 시스템이 상기 3D 시스템 모델을 기반으로 하여 프린팅된 후에 상기 제어 장치에서 상기 사용자의 현재 자세를 표시하는 것을 돕는 신호들을 상기 착용 가능한 자세 자문 시스템의 상기 하나 이상의 센서로부터 수신하기 위한 실행 가능한 컴퓨터 코드; 및
    상기 하나 이상의 작동기가 상기 현재 자세를 교정하도록 상기 사용자를 촉구하는 신호들을 상기 제어 장치에서 상기 프린팅된 착용 가능한 자세 자문 시스템으로 전송하기 위한 실행 가능한 컴퓨터 코드를 더 포함하는 컴퓨터 판독 가능한 저장 매체.
  19. 착용 가능한 자세 자문 시스템으로서,
    사용자에 의해 착용되도록 배치되는 착용 가능한 재료; 및
    상기 착용 가능한 재료가 상기 사용자에 의해 착용되는 경우, 복수의 능동 소자들이 상기 사용자에 대한 대칭 선에 대해 비대칭적으로 배치되도록 상기 착용 가능한 재료 상에 배치되는 복수의 능동 소자를 더 포함하고,
    상기 복수의 능동 소자 각각은,
    사람의 자세를 모니터링하는 것을 돕기 위해 배치되는 센서; 및
    사람이 현재 자세를 교정하도록 지시하는 것을 돕기 위해 사람에게 신호를 전송하기 위해 배치되는 작동기 중 적어도 하나를 포함하는 착용 가능한 자세 자문 시스템.
  20. 제19 항에 있어서, 척추의 다른 쪽보다 척추의 한 쪽에 더 많은 능동 소자들이 존재하고, 이로 인해 상기 착용 가능한 자세 자문 시스템이 사람에 대한 특정 관심 영역들에 능동 소자들을 집중할 수 있도록 상기 복수의 능동 소자가 사람의 척추에 대해 비대칭적으로 배치되는 것을 특징으로 하는 착용 가능하는 자세 자문 시스템.
KR1020160032760A 2015-04-22 2016-03-18 착용 가능한 자세 자문 시스템 KR20160125881A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2016/003771 WO2016171422A1 (en) 2015-04-22 2016-04-11 Wearable posture advisory system
EP16783356.5A EP3286675A4 (en) 2015-04-22 2016-04-11 Wearable posture advisory system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/693,705 US9855005B2 (en) 2015-04-22 2015-04-22 Wearable posture advisory system
US14/693,705 2015-04-22

Publications (1)

Publication Number Publication Date
KR20160125881A true KR20160125881A (ko) 2016-11-01

Family

ID=57147060

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160032760A KR20160125881A (ko) 2015-04-22 2016-03-18 착용 가능한 자세 자문 시스템

Country Status (3)

Country Link
US (1) US9855005B2 (ko)
EP (1) EP3286675A4 (ko)
KR (1) KR20160125881A (ko)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100201512A1 (en) 2006-01-09 2010-08-12 Harold Dan Stirling Apparatus, systems, and methods for evaluating body movements
ES2912600T3 (es) * 2014-04-30 2022-05-26 Mat Nv Sistemas y procedimientos para la personalización de objetos en la fabricación aditiva
US10155373B2 (en) * 2015-10-16 2018-12-18 Quest Integrated, Llc Printed multifunctional skin for aerodynamic structures, and associated systems and methods
WO2017095951A1 (en) * 2015-11-30 2017-06-08 Nike Innovate C.V. Apparel with ultrasonic position sensing and haptic feedback for activities
US10176275B1 (en) * 2016-03-28 2019-01-08 Luvlyu, Inc. Breast shape visualization and modeling tool
US20180103859A1 (en) * 2016-07-30 2018-04-19 Catalina F Provenzano Systems, Devices, and/or Methods for Managing Patient Monitoring
US11439508B2 (en) 2016-11-30 2022-09-13 Fited, Inc. 3D modeling systems and methods
US11477888B2 (en) * 2018-10-08 2022-10-18 Quest Integrated, Llc Printed multifunctional skin for aerodynamic structures and associated systems and methods
CN111513672A (zh) * 2019-02-01 2020-08-11 新华生物科技股份有限公司 穿戴式装置
US20200372825A1 (en) * 2019-05-21 2020-11-26 Romina Ghassemi Intelligent garment
US11580443B2 (en) 2019-06-14 2023-02-14 Kyndryl, Inc. Facilitating client ergonomic support via machine learning
SE543197C2 (en) * 2019-07-04 2020-10-20 Husqvarna Ab Power tool operator protection system and method
CN110575292B (zh) * 2019-08-15 2021-09-07 广东兰湾智能科技有限公司 可调节临时踝足矫形支架及踝足矫形器制作方法
US11819705B2 (en) * 2019-10-01 2023-11-21 Light tree Wearable device for body posture deviation detection and correction
CN111240481B (zh) * 2020-01-10 2021-02-09 鄢家厚 基于智能手表的读写距离识别方法
CN111265351B (zh) * 2020-01-19 2021-08-27 国家康复辅具研究中心 一种个性化3d打印脊柱侧弯矫形器的设计方法
CN112190258B (zh) * 2020-09-30 2021-07-20 珠海格力电器股份有限公司 座椅角度调节方法、装置、存储介质及电子设备
CA3220180A1 (en) 2021-05-25 2022-12-01 Lionel LE CARLUER System and method for providing personalized transactions based on 3d representations of user physical characteristics
CN115251897B (zh) * 2022-07-14 2023-11-14 广东工业大学 一种胸型量测装置及系统

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4655227A (en) * 1985-06-06 1987-04-07 Diagnospine Research Inc. Equipment for the detection of mechanical injuries in the lumbar spine of a patient, using a mathematical model
US5398697A (en) 1994-05-10 1995-03-21 Spielman; Steven B. Apparatus for monitoring spinal motion
WO1996017548A1 (en) 1994-12-05 1996-06-13 Kline Daniel S Posture training device
US5866818A (en) 1995-11-30 1999-02-02 Matsushita Electric Works, Ltd. Acceleration sensor device
EP1195139A1 (en) 2000-10-05 2002-04-10 Ecole Polytechnique Féderale de Lausanne (EPFL) Body movement monitoring system and method
US6544203B2 (en) 2001-01-10 2003-04-08 Ergomedics, Inc. Apparatus and method for continuous passive motion of the lumbar region
US7322952B2 (en) 2002-01-15 2008-01-29 University Of Iowa Research Foundation Support apparel such as back support and system
US6827694B2 (en) 2002-05-22 2004-12-07 Vladimir Gladoun Posture training device
IL157782A0 (en) 2003-09-05 2004-03-28 Hadasit Med Res Service Derotational brace for treatment of idiopathic scoliosis
JP3960298B2 (ja) 2003-11-19 2007-08-15 株式会社デンソー 寝姿及び体位検出装置
US7843351B2 (en) 2004-09-01 2010-11-30 Robert Bourne Back training device
JP4473754B2 (ja) 2005-03-11 2010-06-02 株式会社東芝 仮想試着装置
US20090137933A1 (en) 2007-11-28 2009-05-28 Ishoe Methods and systems for sensing equilibrium
US8018346B2 (en) 2008-06-19 2011-09-13 Mark Gottlieb Back bend sensor
US8515549B2 (en) 2008-07-11 2013-08-20 Medtronic, Inc. Associating therapy adjustments with intended patient posture states
US9956412B2 (en) 2008-07-11 2018-05-01 Medtronic, Inc. Linking posture states for posture responsive therapy
US8958885B2 (en) 2008-07-11 2015-02-17 Medtronic, Inc. Posture state classification for a medical device
US8886302B2 (en) 2008-07-11 2014-11-11 Medtronic, Inc. Adjustment of posture-responsive therapy
US20100078977A1 (en) 2008-09-30 2010-04-01 Gordon Glyck Posture trainer
TW201017588A (en) 2008-10-31 2010-05-01 Kun-Ta Lee Posture sensing alarm apparatus
WO2010054341A1 (en) 2008-11-09 2010-05-14 Bespoke Innovations, Inc. Custom braces, casts and devices and methods for designing and fabricating
US8613716B2 (en) * 2008-11-09 2013-12-24 3D Systems, Inc. Custom braces, casts and devices having limited flexibility and methods for designing and fabricating
US20100228488A1 (en) 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
EP2451525B1 (en) 2009-07-10 2019-06-12 University College Dublin National University Of Ireland, Dublin Apparatus for stimulating the lower back and abdominal muscles
US8217797B2 (en) 2009-09-15 2012-07-10 Dikran Ikoyan Posture training device
EP2987474B1 (en) 2010-05-04 2021-12-29 Koninklijke Philips N.V. Apparatus for sleep posture correction
AU2012214438B2 (en) 2011-02-08 2016-09-01 The General Hospital Corporation Patient positioning systems and methods
US20120245491A1 (en) 2011-03-25 2012-09-27 Novel Ergonomics LLC Posture feedback system and method, detachable traction system, and traction safety belt combination
WO2013010040A1 (en) 2011-07-13 2013-01-17 Zero2One System and method of biomechanical posture detection and feedback
EP2764557A4 (en) * 2011-09-26 2016-04-27 Univ Northeastern CUSTOMIZABLE INTEGRATED SENSORS
US20130204169A1 (en) 2012-01-20 2013-08-08 Endetek, Inc. Pain Management Device and System
US9907959B2 (en) 2012-04-12 2018-03-06 Medtronic, Inc. Velocity detection for posture-responsive therapy
US20130317400A1 (en) 2012-05-24 2013-11-28 Joseph Steven Ferezy Brace, Device, and Method for Correcting Poor Posture
US10159440B2 (en) * 2014-03-10 2018-12-25 L.I.F.E. Corporation S.A. Physiological monitoring garments
US9345609B2 (en) * 2013-01-11 2016-05-24 Elwha Llc Position sensing active torso support
US9387112B2 (en) 2013-02-28 2016-07-12 Marvin Frank Bryant Myoelectric hand orthosis
US20140277663A1 (en) 2013-03-15 2014-09-18 Neil Rohin Gupta System and Method for Creating Custom-Fit Apparel Designs
US11718035B2 (en) * 2014-02-07 2023-08-08 Printer Tailored, Llc Customized, wearable 3D printed articles and methods of manufacturing same
CN104385589A (zh) 2014-10-09 2015-03-04 北京理工大学 一种可穿戴模块化医疗设备的设计和3d打印制造方法

Also Published As

Publication number Publication date
EP3286675A1 (en) 2018-02-28
EP3286675A4 (en) 2018-05-02
US9855005B2 (en) 2018-01-02
US20160310064A1 (en) 2016-10-27

Similar Documents

Publication Publication Date Title
KR20160125881A (ko) 착용 가능한 자세 자문 시스템
US10621837B2 (en) Tactile information conversion device, tactile information conversion method, tactile information conversion program, and element arrangement structure
US11281296B2 (en) Tactile information conversion device, tactile information conversion method, and tactile information conversion program
JP6952713B2 (ja) 反射を利用する拡張現実システムおよび方法
KR101548156B1 (ko) 촉감과 관절 저항감을 동시에 전달하는 무선 외골격 햅틱 인터페이스 장치 및 그 구성 방법
KR20180088390A (ko) 인체 부착 제스처 인터페이스 및 프로젝션 디스플레이를 위한 시스템 및 방법
US20150251023A1 (en) Apparatus, method, and computer-readable recording medium for generating tactile sensation through non-invasive brain stimulation using ultrasonic waves
US20170060256A1 (en) System and method for controlling an electronic device with a facial gesture controller
CN102946942B (zh) 给送对于个体对象可定制的前庭刺激的系统和方法
Chu et al. Customized designs of short thumb orthoses using 3D hand parametric models
JP7283234B2 (ja) 姿勢特定装置、姿勢特定システム、および姿勢特定方法
US20190183388A1 (en) Body monitoring and training device
KR20180077400A (ko) 햅틱 기반 스마트 마사지 장치 및 그 방법
KR102268667B1 (ko) 사용자 맞춤형 자세 교정 쿠션, 자세 교정 시스템 및 이의 동작 방법
CN109513090B (zh) 速眠仪及其控制方法
US10391321B2 (en) Systems, methods, and devices for evaluating lead placement based on generated visual representations of sacrum and lead
WO2016171422A1 (en) Wearable posture advisory system
WO2024135778A1 (ja) 生体フィードバック検出装置、生体感覚拡張装置、生体感覚拡張方法、及びプログラム
KR102706314B1 (ko) 자세 교정 소프트웨어 시스템 및 자세 교정 의자
JP2019069065A (ja) 記録装置、記録方法、プログラム、皮膚刺激装置および皮膚刺激方法
US20240051815A1 (en) Piezoelectric adaptive mesh
CN117414274A (zh) 一种自适应沙发按摩系统及方法
KR20230052794A (ko) 뇌-컴퓨터 인터페이스를 구현하기 위한 뇌파 디코딩 모델 구축 방법과 이를 포함하는 햅틱 자극 제공 시스템 및 방법
JP2000126158A (ja) 力触覚呈示装置の制御方法