KR102147295B1 - 사용자의 자세를 모사하는 로봇 및 이를 포함하는 실시간 자세 모니터링 시스템 - Google Patents
사용자의 자세를 모사하는 로봇 및 이를 포함하는 실시간 자세 모니터링 시스템 Download PDFInfo
- Publication number
- KR102147295B1 KR102147295B1 KR1020180155519A KR20180155519A KR102147295B1 KR 102147295 B1 KR102147295 B1 KR 102147295B1 KR 1020180155519 A KR1020180155519 A KR 1020180155519A KR 20180155519 A KR20180155519 A KR 20180155519A KR 102147295 B1 KR102147295 B1 KR 102147295B1
- Authority
- KR
- South Korea
- Prior art keywords
- posture
- user
- heart rate
- case
- bracket
- Prior art date
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 22
- 230000008859 change Effects 0.000 claims description 22
- 238000000034 method Methods 0.000 claims description 16
- 230000017531 blood circulation Effects 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 3
- 230000036541 health Effects 0.000 abstract description 7
- 238000012937 correction Methods 0.000 description 6
- 208000020307 Spinal disease Diseases 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 239000000758 substrate Substances 0.000 description 5
- 230000001154 acute effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 210000000115 thoracic cavity Anatomy 0.000 description 2
- 206010023509 Kyphosis Diseases 0.000 description 1
- 210000000709 aorta Anatomy 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000001746 injection moulding Methods 0.000 description 1
- 210000001503 joint Anatomy 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0062—Arrangements for scanning
- A61B5/0064—Body surface scanning
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/024—Detecting, measuring or recording pulse rate or heart rate
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/024—Detecting, measuring or recording pulse rate or heart rate
- A61B5/02416—Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/026—Measuring blood flow
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/026—Measuring blood flow
- A61B5/0261—Measuring blood flow using optical means, e.g. infrared light
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1116—Determining posture transitions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/45—For evaluating or diagnosing the musculoskeletal system or teeth
- A61B5/4538—Evaluating a particular part of the muscoloskeletal system or a particular medical condition
- A61B5/4561—Evaluating static posture, e.g. undesirable back curvature
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7203—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/725—Details of waveform analysis using specific filters therefor, e.g. Kalman or adaptive filters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/0075—Means for protecting the manipulator from its environment or vice versa
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2560/00—Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
- A61B2560/04—Constructional details of apparatus
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/0205—Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/743—Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/10—Programme-controlled manipulators characterised by positioning means for manipulator elements
- B25J9/102—Gears specially adapted therefor, e.g. reduction gears
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/10—Programme-controlled manipulators characterised by positioning means for manipulator elements
- B25J9/12—Programme-controlled manipulators characterised by positioning means for manipulator elements electric
- B25J9/126—Rotary actuators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Physiology (AREA)
- Cardiology (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Physical Education & Sports Medicine (AREA)
- Hematology (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Fuzzy Systems (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Rheumatology (AREA)
- Automation & Control Theory (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Pulmonology (AREA)
- Manipulator (AREA)
Abstract
사용자가 자신의 상태와 자세를 실시간으로 모니터링하여, 건강 상태와 자세를 자각하고 이에 도움이되는 유용한 콘텐츠들을 제공받음으로써, 건강과 자세 교정을 효과적으로 도울 수 있는 로봇 및 실시간 자세 모니터링 시스템이 제공된다.
상기 로봇은 케이스; 상기 케이스에 배치되고, 사용자를 촬영하여 촬상 이미지를 생성하는 카메라; 상기 케이스에 배치되고, 디스플레이 이미지를 재생하는 디스플레이; 상기 카메라와 상기 디스플레이와 통신하는 전자 제어 유닛을 포함하고, 상기 전자 제어 유닛은 상기 촬상 이미지로부터 심박 정보를 도출하고, 상기 디스플레이 이미지를 상기 심박 정보와 대응되도록 변경하는 것을 특징으로 한다.
상기 로봇은 케이스; 상기 케이스에 배치되고, 사용자를 촬영하여 촬상 이미지를 생성하는 카메라; 상기 케이스에 배치되고, 디스플레이 이미지를 재생하는 디스플레이; 상기 카메라와 상기 디스플레이와 통신하는 전자 제어 유닛을 포함하고, 상기 전자 제어 유닛은 상기 촬상 이미지로부터 심박 정보를 도출하고, 상기 디스플레이 이미지를 상기 심박 정보와 대응되도록 변경하는 것을 특징으로 한다.
Description
본 발명은 사용자의 자세를 모사하는 로봇 및 이를 포함하는 실시간 자세 모니터링 시스템에 관한 것이다.
최근들어, 사람들이 직장이나 가정에서 나쁜 자세(Poor posture)로 작업을 수행하는 시간이 많아지면서, 척추질환을 가지는 환자의 수가 급증하고 있는 실정이다. 특히, 바른 자세(Correct posture)와 비교되는 나쁜 자세는 골반 경사의 변화로 인한 요추, 흉추, 경추의 부정렬을 발생시켜, 굽은등(thoracic kyphosis), 둥근어깨(round shoulder), 거북목(head forward position, 전방두부자세) 등을 유발시킨다.
통계적으로, 척추질환 진료인원은 2015년도 한해 동안만 1260만명(7년 새 365만명 증가)으로서, 척추 질환을 치료하기 위해 사용한 진료비는 3조 8755억원에 육박하고 있는 실정이다.
이에, 나쁜 자세로 인한 척추관절의 부정렬을 교정하기 위한 다양한 교정 기구가 출시되고 있다. 그러나 기구를 이용한 교정은 물리적이고 강제적인 교정인 점과 척추질환이 나타난 후의 사후적 조치인 점에서 바람직하지 않다.
한편, 현대인들은 다양한 척추질환뿐만 아니라, 업무 상의 스트레스로 고통받고 있는 실정이다.
따라서 사용자가 자신의 상태와 자세를 실시간으로 모니터링하여 자신의 상태와 자세를 직관적으로 알 수 있고, 건강 관리 및 자세 교정을 코칭(Coaching)받을 수 있는 실시간 자세 모니터링 시스템이 있다면, 상술한 문제점을 해결할 수 있을 것이다.
본 발명이 해결하고자 하는 과제는 사용자가 자신의 상태와 자세를 실시간으로 모니터링하여, 건강 상태와 자세를 자각하고 이에 도움이되는 유용한 콘텐츠들을 제공받음으로써, 건강과 자세 교정을 효과적으로 도울 수 있는 로봇 및 실시간 자세 모니터링 시스템을 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 로봇은 케이스; 상기 케이스에 배치되고, 사용자를 촬영하여 촬상 이미지를 생성하는 카메라; 상기 케이스에 배치되고, 디스플레이 이미지를 재생하는 디스플레이; 상기 카메라와 상기 디스플레이와 통신하는 전자 제어 유닛을 포함하고, 상기 전자 제어 유닛은 상기 촬상 이미지로부터 심박 정보를 도출하고, 상기 디스플레이 이미지를 상기 심박 정보와 대응되도록 변경할 수 있다.
상기 카메라는 적외선 파장 대역의 광을 획득하여 상기 촬상 이미지를 생성하고, 상기 전자 제어 유닛은 상기 촬상 이미지로부터 상기 사용자의 안면 부위 및 목 부위 중 적어도 하나의 혈류 변화 신호를 도출하고, 상기 혈류 변화 신호를 주파수 별로 분류하고 노이즈 신호를 필터링하여 심박 신호를 도출하고, 상기 심박 신호로부터 극대점 추출 알고리즘을 이용하여 심박 정보를 도출할 수 있다.
상기 디스플레이 이미지는 상기 심박 정보에 대응되는 배경과 문자와 숫자와 기호와 그래프와 이모지 중 적어도 하나를 포함하고, 상기 전자 제어 유닛은 상기 심박 정보를 이용하여, 사용자의 상태를 정상 심박 상태와 낮은 심박 상태와 높은 심박 상태로 분류하고, 상기 심박 정보에 대응되는 배경과 문자와 숫자와 기호와 그래프와 이모지 중 적어도 하나는 상기 사용자의 상태에 따라 다르게 표현될 수 있다.
상기 전자 제어 유닛은 상기 사용자의 양측 발에 의해 인가되는 압력의 크기와 분포를 센싱하는 패드와 통신하여 압력 신호로부터 자세 정보를 생성하고, 상기 디스플레이 이미지를 상기 자세 정보와 대응되도록 변경하고, 상기 디스플레이 이미지는 상기 심박 정보에 대응되는 배경과 문자와 숫자와 기호와 그래프와 이모지 중 적어도 하나와, 상기 자세 정보에 대응되는 배경과 문자와 숫자와 기호와 그래프와 이모지 중 적어도 하나를 포함하고, 상기 심박 정보에 대응되는 배경과 문자와 숫자와 기호와 그래프와 이모지 중 적어도 하나와 상기 자세 정보에 대응되는 배경과 문자와 숫자와 기호와 그래프와 이모지 중 적어도 하나는 동시에 재생되거나 이시에 상호 교번하며 재생될 수 있다.
상기 전자 제어 유닛은 상기 자세 정보를 이용하여, 사용자의 자세를 바른 자세와 상체가 나쁜 자세와 다리 꼬는 자세로 분류하고, 상기 자세 정보에 대응되는 배경과 문자와 숫자와 그래프와 이모지 중 적어도 하나는 상기 사용자의 자세에 따라 다르게 표현될 수 있다.
상기 로봇은 상기 다리 꼬는 자세에서 상기 자세 정보에 대응되도록 구동하는 제1다리와 제2다리와, 상기 제1다리와 상기 제2다리를 구동시키는 제1구동부를 더 포함하고, 상기 제1구동부는 제1모터와 상기 제1모터에 의해 일측과 타측으로 이동하는 랙기어와 상기 제1다리에 배치되는 제1종동 기어와 상기 제2다리에 배치되는 제2종동 기어를 포함하고, 상기 제1모터의 정회전 구동에 의해, 상기 랙기어는 일측으로 이동하여 상기 제1종동 기어와 치합함으로써 상기 제1종동 기어를 회전시키고, 상기 제1모터의 역회전 구동에 의해, 상기 랙기어는 타측으로 이동하여 상기 제2종동 기어와 치합함으로써 상기 제2종동 기어를 회전시키고, 상기 제1종동 기어와 상기 제2종동 기어는 회전축이 나란하고, 회전 방향이 반대일 수 있다.
상기 케이스는 상부 케이스와, 상기 상부 케이스의 하측에 배치되는 하부 케이스를 포함하고, 상기 케이스는 상기 상체가 나쁜 자세에서 상기 자세 정보에 대응되도록 틸팅되는 상부 케이스와, 상기 상부 케이스의 하측에 배치되는 하부 케이스를 포함하고, 상기 로봇은 상기 상부 케이스를 전후 방향과 좌우 방향 중 적어도 하나의 방향으로 틸팅시키는 제2구동부를 더 포함할 수 있다.
상기 제2구동부는 상기 상부 케이스를 지지하는 제1브라켓과, 상기 제1브라켓을 회전시키는 제2-1모터와, 상기 상부 케이스를 지지하는 제2브라켓과, 상기 제2브라켓을 회전시키는 제2-2모터를 포함하고, 상기 제1브라켓은 상기 제2브라켓에 회전이 가능하게 배치되고, 상기 제2브라켓은 상기 상부 케이스에 회전이 가능하게 배치될 수 있다.
상기 제2-1모터의 정회전 구동에 의해, 상기 제1브라켓은 상기 상부 케이스가 전방으로 틸팅되도록 회전하고, 상기 제2-1모터의 역회전 구동에 의해, 상기 제1브라켓은 상기 상부 케이스가 후방으로 틸팅되도록 회전하고, 상기 제2-2모터의 정회전 구동에 의해, 상기 제2브라켓은 상기 상부 케이스가 좌측으로 틸팅되도록 회전하고, 상기 제2-2모터의 역회전 구동에 의해, 상기 제2브라켓은 상기 상부 케이스가 우측으로 틸팅되도록 회전할 수 있다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 자세 모니터링 시스템은 상기 로봇을 포함할 수 있다.
본 발명에서는 카메라로 사용자를 촬상하고 심박 정보를 생성하여 사용자의 상태를 분석하고, 사용자의 양측 발에 인가되는 압력을 측정하는 패드로부터 센싱 신호를 전달받고 자세 정보를 생성하여 사용자의 자세를 분석하는 로봇을 제공한다.
본 발명의 로봇은 사용자의 상태와 자세를 분석하여, 디스플레이에서 이에 대응되는 다양한 종류의 문자, 숫자(수치), 기호 및 이모지 등으로 표현함으로써, 사용자가 자신의 상태와 자세를 실시간으로 모니터링할 수 있는 로봇을 제공한다.
또한, 본 발명의 로봇은 사용자가 다리를 꼬는 경우, 이를 모사하여 다리를 회전하므로, 사용자는 자신이 다리를 꼬고 있다는 것을 자각할 수 있다.
또한, 본 발명의 로봇은 사용자의 상체가 나쁜 자세에 있는 경우, 이를 모사하여 상부 케이스가 틸팅되므로, 사용자는 자신이 상체가 나쁜 자세에 있다는 것을 자각할 수 있다.
또한, 본 발명의 로봇은 제1구동부에서 하나의 모터를 이용하여 양측 다리를 회전시킴으로써, 구동 모듈에 소요되는 비용을 감소시켜, 제품 단가가 경제적인 이점이 있다.
또한, 본 발명의 로봇은 제2구동부에서 상부 케이스를 틸팅시키는 구동 부재가 컴팩트하게 배치됨으로써, 제품 사이즈를 줄일 수 있다.
나아가 본 발명의 자세 모니터링 시스템에서는 로봇으로부터 사용자의 상태와 자세를 전송받아 이에 매칭되는 다양한 스트레스 해소 및 자세 교정 컨텐츠를 제공하는 사용자 기기가 추가됨으로써, 사용자가 건강 관리 및 자세에 대한 코칭을 받을 수 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 자세 모니터링 시스템을 나타낸 개념도이다.
도 2는 본 발명의 로봇을 나타낸 사시도이다.
도 3은 본 발명의 로봇을 나타낸 분해도이다.
도 4는 본 발명의 심박 정보를 도출하는 방법을 나타낸 순서도이다.
도 5는 본 발명의 심박 정보를 도출하는 방법을 나타낸 개념도이다.
도 6 내지 도 8은 사용자가 바른 자세에서 다리 꼬는 자세를 취하는 경우, 로봇의 제1다리와 제2다리가 구동하는 것을 나타낸 사시도와 개념도이다.
도 9의 (1)은 본 발명의 로봇의 제2구동부를 나타낸 사시도이도, 도 9의 (2)는 본 발명의 로봇의 제2구동부를 도 9의 (1)과 반대 방향에서 바라본 것을 나타낸 사시도이다.
도 10과 도 11은 사용자가 상체가 나쁜 자세를 취하는 경우, 로봇의 상부 케이스가 틸팅하는 것을 나타낸 사시도이다.
도 2는 본 발명의 로봇을 나타낸 사시도이다.
도 3은 본 발명의 로봇을 나타낸 분해도이다.
도 4는 본 발명의 심박 정보를 도출하는 방법을 나타낸 순서도이다.
도 5는 본 발명의 심박 정보를 도출하는 방법을 나타낸 개념도이다.
도 6 내지 도 8은 사용자가 바른 자세에서 다리 꼬는 자세를 취하는 경우, 로봇의 제1다리와 제2다리가 구동하는 것을 나타낸 사시도와 개념도이다.
도 9의 (1)은 본 발명의 로봇의 제2구동부를 나타낸 사시도이도, 도 9의 (2)는 본 발명의 로봇의 제2구동부를 도 9의 (1)과 반대 방향에서 바라본 것을 나타낸 사시도이다.
도 10과 도 11은 사용자가 상체가 나쁜 자세를 취하는 경우, 로봇의 상부 케이스가 틸팅하는 것을 나타낸 사시도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "위(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
이하, "길이 방향"은 실질적으로, 환자가 누워있을 때 환자의 신장이 형성되는 방향을 의미할 수 있다. 또한, "폭 방향"은 실질적으로, 환자가 누워있을 때 환자의 양 어깨가 이격되는 방향을 의미할 수 있다. "수직 방향"은 실질적으로, "길이 방향" 및 "폭 방향"과 모두 수직인 방향을 의미할 수 있다. "수직 방향"은 "상하 방향"으로도 호칭될 수 있다.
이하, 도면을 참조하여 본 발명의 자세 모니터링 시스템(1000)을 설명한다. 도 1은 본 발명의 자세 모니터링 시스템을 나타낸 개념도이고, 도 2는 본 발명의 로봇을 나타낸 사시도이고, 도 3은 본 발명의 로봇을 나타낸 분해도이고, 도 4는 본 발명의 심박 정보를 도출하는 방법을 나타낸 순서도이고, 도 5는 본 발명의 심박 정보를 도출하는 방법을 나타낸 개념도이고, 도 6 내지 도 8은 사용자가 바른 자세에서 다리 꼬는 자세를 취하는 경우, 로봇의 제1다리와 제2다리가 구동하는 것을 나타낸 사시도와 개념도이고, 도 9의 (1)은 본 발명의 로봇의 제2구동부를 나타낸 사시도이도, 도 9의 (2)는 본 발명의 로봇의 제2구동부를 도 9의 (1)과 반대 방향에서 바라본 것을 나타낸 사시도이고, 도 10과 도 11은 사용자가 상체가 나쁜 자세를 취하는 경우, 로봇의 상부 케이스가 틸팅하는 것을 나타낸 사시도이다.
이하, 본 발명의 자세 모니터링 시스템(1000)이 입식 책상(스탠딩 데스크; Standing desk)에서 작업을 수행하는 사용자를 위해 마련된 경우를 예를 들어 설명하지만, 본 발명의 자세 모니터링 시스템(1000)이 입식 책상용으로 한정되는 것은 아니다. 일 예로, 본 발명의 자세 모니터링 시스템(1000)은 좌식 책상 등 다양한 환경에서 작업을 수행하는 사용자를 위해 마련될 수도 있다.
본 발명의 자세 모니터링 시스템(1000)은 로봇(100), 패드(200) 및 사용자 기기(300)를 포함할 수 있다.
패드(200)는 사용자의 양측 발 아래에 깔려, 사용자의 양측 발에 의해 인가되는 압력의 크기와 분포를 센싱하여 압력 신호를 도출할 수 있다. 이를 위해, 패드(200)에는 압력 센서가 내장될 수 있다. 다만, 본 발명의 패드(200)가 이에 한정되는 것은 아니다. 즉, 본 발명의 패드(200)에는 사용자의 자세를 판단하기 위한 소스(Source)를 제공하는 다양한 종류의 센서가 사용될 수 있다.
사용자 기기(300)에는 자세 모니터링 시스템(1000)을 위한 앱(APP; Application)이 구비되어 있을 수 있다. 사용자 기기(300)는 로봇(100) 및 패드(200)와 통신하여 사용자의 "심박 정보"와 "자세 정보"를 전달받고, 이를 데이터베이스화하고 진단하여 표나 그래프 등으로 표현되는 앱이미지 리스트를 제공(건강 일지 제공)할 수 있고, 진단 결과에 대응되는 다양한 코칭 컨텐츠(Coaching contents; 스트레스 해소법, 자세 교정 동영상 등)를 제공할 수 있다.
이를 위해, 사용자 기기(300)에는 스마트폰, 태블릿, PDA 및 랩톱 등과 같은 전기 통신 장치, 리모트 콘트롤러 중 하나 이상이 사용될 수 있으나, 본 발명의 사용자 기기(300)가 이에 한정되는 것은 아니다.
이하, 본 발명의 로봇(100)에 대해 설명한다. 로봇(100)은 사용자(1)의 "심박 정보(스트레스 지수와 관련)"를 측정하고, 이를 다양한 "디스플레이 이미지"로 재생시킴으로써, 사용자(1)가 자신의 스트레스를 자각하고 자발적으로 관리를 하도록 유도할 수 있다.
또한, 로봇(100)은 패드(200)로부터 압력 신호를 전달받고, 이로부터 사용자(1)의 "자세 정보"를 도출하여 다양한 "디스플레이 이미지"와 "사용자 모사 구동"으로 표현함으로써, 사용자(1)가 자신의 자세를 자각하고 자발적으로 바른 자세를 취하도록 유도할 수 있다.
로봇(100)은 케이스(110), 카메라(120), 디스플레이(130), 기판(140), 제1다리(150), 제2다리(160), 제1구동부(170), 제2구동부(180), 인공지능 스피커(190) 및 전자 제어 유닛(미도시; ECU; Electric control unit)을 포함할 수 있다.
케이스(110)는 로봇(110)의 외관을 형성하는 외장 부재일 수 있다. 케이스(110)는 플라스틱 사출 성형에 의해 제작될 수 있지만, 이에 한정되는 것은 아니다.
케이스(110)의 내부에는 카메라(120), 디스플레이(130), 기판(140), 제1구동부(170) 및 제2구동부(180)가 배치될 수 있다. 케이스(110)에는 카메라(120)의 광 경로를 제공하기 위한 제1윈도우(111-1)가 형성될 수 있다. 또한, 케이스(110)에는 디스플레이(130)를 외부로 노출시키기 위한 제2윈도우(111-2)가 형성될 수 있다.
케이스(110)의 하부에는 제1다리(150)와 제2다리(160)가 배치될 수 있다. 제1다리(150)와 제2다리(160)는 사용자의 자세를 모사하여 구동되며, 케이스(110)의 외부로 노출되어 사용자가 자신의 자세를 자각할 수 있도록 한다.
케이스(110)의 하측에는 인공지능 스피커(190)가 배치될 수 있다. 케이스(110)는 인공지능 스피커(190)에 의해 지지되거나 거치될 수 있다.
케이스(110)는 상부 케이스(111)와 하부 케이스(112)를 포함할 수 있다. 상부 케이스(111)와 하부 케이스(112)의 결합에 의해 케이스(110)의 내부 공간이 형성될 수 있다.
한편, 상부 케이스(111)에는 제1윈도우(111-1)와 제2윈도우(111-2)가 형성될 수 있으며, 하부 케이스(112)에는 제1다리(150)와 제2다리(160)가 배치될 수 있으며, 하부 케이스(112)는 인공지능 스피커(190)에 의해 지지될 수 있다.
또한, 상부 케이스(111)는 하부 케이스(112)의 상측에 배치되어, 사용자가 상체가 나쁜 자세를 취하는 경우, 제2구동부(180)에 의해 전후 방향과 좌우 방향 중 적어도 하나로 틸팅될 수 있다.
카메라(120)는 사용자(1)를 촬상하여 촬상 이미지를 생성할 수 있다. 카메라(120)의 촬상 이미지는 "심박 정보(스트레스 지수와 관련)"를 도출하기 위해 활용될 수 있다. 일 예로, 전자 제어 유닛은 카메라(120)의 촬상 이미지로부터 혈류 변화 신호를 도출하고 이를 처리하여 "심박 정보"를 도출할 수 있다.
이를 위해, 카메라(120)는 적외선 파장 대역의 광을 획득하여 촬상 이미지를 생성하는 적외선 카메라(IR camera; Infrared camera)일 수 있지만, 이에 한정되는 것은 아니다.
즉, 본 발명의 카메라(120)에는 사용자(1)의 "심박 정보"를 판단하기 위한 소스(Source)를 제공하는 다양한 종류의 카메라가 활용될 수 있고, 나아가 본 발명의 카메라(120)는 실질적으로 동일한 기능을 발휘하는 다양한 종류의 센서로 대체될 수도 있다.
카메라(120)는 주로 사용자(1)의 안면 부위와 목 부위 중 적어도 하나를 피사체로 촬상할 수 있다. 사용자(1)의 안면 부위와 목 부위는 대동맥의 진동 및 미세한 온도 변화를 분석하여 혈류 변화 신호를 도출하기 용이하기 때문이다.
한편, 카메라(120)는 전자 제어 유닛에 의해 제어되며, 사용자(1)가 촬상 영역에 위치하는지 여부가 판단되면 사용자(1)의 안면 부위와 목 부위를 포커싱하여 촬상할 수 있다.
디스플레이(130)에서는 "디스플레이 이미지"가 재생될 수 있다. "디스플레이 이미지"는 사용자(1)의 "심박 정보" 및/또는 "자세 정보"에 대응되는 배경과 문자와 숫자와 그래프와 이모지(Emoji) 중 적어도 하나를 포함할 수 있다(도 1의 (a1), (a2), (a3), (a4) 참조).
이 경우, 디스플레이(130)에서 사용자(1)의 "심박 정보"에 대응되는 배경과 문자와 숫자와 기호와 그래프와 이모지 중 적어도 하나와 사용자(1)의 "자세 정보"에 대응되는 배경과 문자와 숫자와 기호와 그래프와 이모지 중 적어도 하나는 동시(同時; at the same time)에 재생되거나 이시(異時; at the different time)에 상호 교번하며 재생될 수 있다.
즉, 사용자(1)의 "심박 정보"에 대응되는 이미지와 사용자(1)의 "자세 정보"에 대응되는 이미지는 하나의 프레임에 표현될 수도 있고, 상호 다른 프레임에 표현될 수도 있다.
다만, 이에 한정되는 것은 아니고, 본 발명의 "디스플레이 이미지"는 다양한 방법으로 재생될 수 있다. 일 예로, 디스플레이(130)에서 사용자(1)의 "심박 정보"에 대응되는 이미지만 재생될 수도 있고, 이와 반대로, 사용자(1)의 "자세 정보"에 대응되는 이미지만 재생될 수도 있다.
한편, 디스플레이(130)에는 다양한 종류의 디스플레이 패널(LCD, LED 등)이 이용될 수 있다. 일 예로, 본 발명의 디스플레이(130)로서 TFT LCD(Thin film transistor liquid crystal display)가 이용될 수 있다.
기판(140)은 인쇄 회로 기판(PCB; Printed circuit board)일 수 있다. 기판(140)에는 다양한 전자 부품이 실장될 수 있다. 일 예로, 기판(140)에는 카메라(120)와 디스플레이(130)가 실장될 수 있고, 전자 제어 유닛이 실장될 수 있다. 따라서 카메라(120)와 디스플레이(130)는 전자 제어 유닛과 송수신하며, 전자 제어 유닛으로부터 제어 신호를 전달받을 수 있다.
제1다리(150)와 제2다리(160)는 사용자(1)의 양측 다리에 대응되는 부재로서, 사용자(1)의 "다리 꼬는 자세"에서 사용자(1)를 모사하여 구동할 수 있다.
제1구동부(170)는 제1다리(150)와 제2다리(160)를 회전 구동시키는 부재일 구성 요소일 수 있고, 제2구동부(180)는 상부 케이스(111)를 틸팅 구동시키는 부재일 수 있다.
인공지능 스피커(190)는 사용자(1)의 작업에 유용한 정보를 제공하기 위해 마련된 것으로서, 사용자(1)의 질문을 자연어 처리(NLP; Natural language processing)와 인공 신경망 번역(NMT; Neural machine translation) 등을 통해 이해하고, 인공지능 기반(AI Based)의 빅데이터(Bigdata)를 활용하여, 사용자(1)의 질문에 매칭되는 답변을 제공할 수 있다(챗봇 서비스 제공; Chatter robot).
전자 제어 유닛(미도시)은 카메라(110)와 디스플레이(130)와 구동부(170)와 패드(200)와 통신하여, 카메라(110)로부터 촬상 이미지를 전달받고 패드(200)로부터 압력 신호를 전달받아 "심박 정보"와 "자세 정보"를 생성할 수 있다. 나아가 전자 제어 유닛은 "심박 정보"와 "자세 정보"에 따라 디스플레이(130)와 제1구동부(170)를 제어할 수 있다.
전자 제어 유닛은 로봇(100)에 내장될 수도 있고, 사용자 기기(300)에 내장될 수도 있고, 분할되어 로봇(100)과 사용자 기기(300)에 각각 내장될 수도 있다.
전자 제어 유닛이 사용자 기기(300)에 내장된 경우, 사용자 기기(300)는 상술한 앱이미지 리스트를 제공하거나 코칭 컨텐츠를 제공하는 기능뿐만 아니라, 전자 제어 유닛이 수행하는 기능을 실질적으로 동일하게 수행할 수 있다.
이하, 본 발명의 로봇(100)이 "심박 정보"를 이용하여, 사용자(1)의 상태를 "디스플레이 이미지"로 표현하는 것을 설명한다.
도 4에서 나타내는 바와 같이, 촬상 이미지로부터 "심박 정보"를 도출하는 방법은 사용자(1)의 위치 여부를 판단하는 단계(S100)와 촬상 이미지의 영상처리를 통해서 혈류 변화 신호를 도출하는 단계(S200)와 혈류 변화 신호로부터 심박 신호를 도출하는 단계(S300)와 심박 신호를 처리하여 "심박 정보"를 도출하는 단계(S400)를 포함할 수 있다.
사용자(1)의 위치 여부를 판단하는 단계(S100)에서, 전자 제어 유닛은 카메라(110)의 촬상 이미지를 분석하거나 또는 위치 감지 센서(이를 위해, 본 발명의 로봇이나 자세 모니터링 시스템은 구성 요소로서 위치 감지 센서를 추가로 포함할 수 있다)의 센싱 신호 등을 이용하여, 사용자(1)가 촬상 영역에 위치하는지 판단할 수 있다.
촬상 이미지의 영상처리를 통해서 혈류 변화 신호를 도출하는 단계(S200)는 사용자(1)가 촬상 영역에 위치하는 것으로 확인된 후, 진행될 수 있다.
전자 제어 유닛은 사용자(1)가 촬상 영역에 위치하는 경우, 이미지나 위치 정보 또는 3차원 깊이 데이터를 활용하여 사용자(1)의 안면 부위와 목 부위의 위치를 판단하고 카메라(110)의 촬상 영역이 사용자(1)의 안면 부위와 목 부위를 향하도록 카메라(110)를 구동시킬 수 있다. 이를 위해, 본 발명의 로봇(100)은 "카메라 구동 장치"를 추가적으로 포함할 수 있다.
전자 제어 유닛은 촬상 이미지를 분석하여 사용자의 안면 부위(특히, 관자놀이 부분)와 목 부위 중 적어도 하나의 혈류 변화 신호를 도출할 수 있다. 이 경우, 혈류 변화 신호는 도 5의 (1)에서 나타내는 바와 같이, 실시간으로 촬상되는 열화상 이미지를 분석하여 사용자의 안면 부위 및 목 부위 중 적어도 하나의 대동맥의 진동값과 온도 변화값 중 적어도 하나를 도출한 신호일 수 있다. 즉, 혈류 변화 신호는 사용자(1)의 안면 부위 및 목 부위 중 적어도 하나의 대동맥의 진동값과 온도 변화값 중 적어도 하나에 대한 신호일 수 있다.
그 다음으로, 전자 제어 유닛은 사용자(1)의 혈류 변화 신호를 주파수 별로 분류하고 노이즈 신호를 필터링하여 심박 신호를 도출할 수 있다. 즉, 혈류 변화 신호에는 도 5의 (2)에서 나타내는 바와 같이, 심박과 관련이 없는 신호가 포함되어 있을 수 있다. 전자 제어 유닛은 혈류 변화 신호를 고속 푸리에 변환(FFT; Fast fourier transform)을 통해 주파수 별로 분류하고 디지털 밴드 패스 필터(DBPF; Digital band pass filter)를 통해 심박 신호 이외의 노이즈 신호를 제거하는 과정을 통해 심박 신호만을 추출할 수 있다.
그 다음으로, 전자 제어 유닛은 심박 신호로부터 극대점 추출 알고리즘(Maximum extraction algorithm)을 이용하여 심박 정보를 도출할 수 있다. 그 결과, 도 5의 (3)에서 나타내는 바와 같이, "심박 정보"가 도출될 수 있다.
전자 제어 유닛은 디스플레이 이미지가 "심박 정보"에 대응되는 배경과 문자와 숫자(수치)와 기호와 그래프와 이모지 중 적어도 하나를 포함하도록, 디스플레이 이미지를 변경할 수 있다. 일 예로, 도 1의 (a4)와 같이, 디스플레이(130)에는 심박수 그래프가 재생될 수 있다.
한편, "심박 정보"는 실시간으로 갱신되므로, "심박 정보"에 대응되는 이미지는 실시간으로 변경될 수 있다. 즉, "심박 정보"는 디스플레이(130)에 실시간 변화되는 이미지로 나타남으로써, 사용자(1)는 자신의 상태(스트레스 상태)를 실시간으로 모니터링할 수 있다.
전자 제어 유닛은 "심박 정보"를 이용하여, 사용자(1)의 상태를 정상 심박 상태와 낮은 심박 상태와 높은 심박 상태로 분류할 수 있다. 이 경우, "심박 정보"에 대응되는 배경과 문자와 숫자와 기호와 그래프와 이모지 중 적어도 하나는 사용자(1)의 상태에 따라 다르게 표현될 수 있다. 이에 따라, 사용자(1)는 정상 심박 상태와 낮은 심박 상태와 높은 심박 상태를 직관적으로 인식할 수 있다.
일 예로, 사용자(1)가 스트레스를 많이 받는 경우, 심박은 높은 등락폭으로 요동하게 되므로, 디스플레이(130)에는 낮은 심박 상태와 높은 심박 상태에 대응되는 이미지가 주로 나타나게 된다. 이 경우, 사용자(1)는 디스플레이 이미지의 모니터링을 통해, 스트레스를 자가 인식하여 적당한 휴식을 취할 수 있다.
이와 반대로, 사용자(1)가 스트레스를 거의 받지 않는 경우, 심박은 안정적인 양상으로 보이므로, 디스플레이(130)에는 정상 심박 상태에 대응되는 이미지가 주로 나타나게 된다. 이 경우, 사용자(1)는 디스플레이 이미지의 모니터링을 통해, 자신이 정상 상태에 있음을 자가인식할 수 있다.
이하, 본 발명의 로봇(100)이 "자세 정보"를 이용하여, 사용자(1)의 자세를 "디스플레이 이미지"와 "사용자 모사 구동"으로 표현하는 것을 설명한다.
패드(200)로부터 사용자의 양측 발에 의해 인가되는 압력의 크기와 분포는 패드(200)에 의해 센싱되어 압력 신호로 도출될 수 있다. 전자 제어 유닛은 압력 신호를 처리하여 사용자(1)의 자세에 대한 "자세 정보"를 도출할 수 있다. 한편, 압력 신호로부터 "자세 정보"를 도출하는 방법에는 통상의 실시자가 용이하게 실시할 수 있는 다양한 기술이 이용될 수 있다.
전자 제어 유닛은 디스플레이 이미지가 "자세 정보"에 대응되는 배경과 문자와 숫자(수치)와 기호와 그래프와 이모지 중 적어도 하나를 포함하도록, 디시플레이 이미지를 변경할 수 있다.
한편, "자세 정보"는 실시간으로 갱신되므로, "자세 정보"에 대응되는 이미지는 실시간으로 변경될 수 있다. 즉, "자세 정보"는 디스플레이(130)에 실시간으로 변화되는 이미지로 나타남으로써, 사용자(1)는 자신의 자세를 실시간으로 모니터링할 수 있다.
전자 제어 유닛은 "자세 정보"를 이용하여, 사용자(1)의 자세를 바른 자세와 상체가 나쁜 자세와 다리 꼬는 자세로 분류할 수 있다. 이 경우, "자세 정보"에 대응되는 배경과 문자와 숫자와 기호와 그래프와 이모지 중 적어도 하나는 사용자(1)의 자세에 따라 다르게 표현될 수 있다.
일 예로, 디스플레이(130)에는 바른 자세에서 도 1의 (a1)과 같은 이모지가 재생될 수 있고, 상체가 나쁜 자세에서 도 1의 (a2)와 같은 이모지가 재생될 수 있고, 다리 꼬는 자세에서 도 1의 (a3)와 같은 이모지가 재생될 수 있다. 이에 따라, 사용자(1)는 자신의 자세를 직관적으로 인식할 수 있다.
나아가 전자 제어 유닛은 "자세 정보"를 이용하여, 바른 자세와 상체가 나쁜 자세와 다리 꼬는 자세를 더욱 세분화하여 분류할 수 있으며, 각각의 경우마다 "자세 정보"에 대응되는 이미지가 다르게 표현될 수 있다.
한편, 상술한 바와 같이, 전자 제어 유닛은 "심박 정보"에 대응되는 이미지와 "자세 정보"에 대응되는 이미지를 동시에 재생할 수도 있고, 이시에 재생할 수도 있다. 나아가 전자 제어 유닛은 "심박 정보"에 대응되는 이미지와 "자세 정보"에 대응되는 이미지가 상호 교번하며 재생되도록 제어할 수 있다.
전자 제어 유닛은 사용자(1)가 다리 꼬는 자세를 취하는 경우, "자세 정보"와 대응되어 제1다리(150)와 제2다리(160)가 회전 구동하도록, 제1구동부(170)를 제어할 수 있다. 이 경우, 제1다리(150)와 제2다리(160)는 사용자(1)의 다리 꼬는 자세를 모사하여, 사용자(1)가 다리 꼬는 자세를 자각할 수 있도록 한다.
도 6에서 나타내는 바와 같이, 사용자(1)가 바른 자세(상체 나쁜 자세인 경우도 마찬가지)인 경우, 제1구동부(170)는 구동하지 않으며 제1다리(150)와 제2다리(160)는 원상태로 고정되어 있을 수 있다. 이 경우, 제1다리(150)와 제2다리(160)는 상호 나란하게 배치되어 사용자(1)가 바른 자세로 있다는 것을 모사할 수 있다.
도 7에서 나타내는 바와 같이, 사용자(1)가 우측 다리를 꼬는 자세인 경우, 제1구동부(170)에 의해 제1다리(150)가 회전 구동할 수 있다. 이 경우, 제1다리(150)의 회전 방향은 정면에서 보았을 때 반시계 방향이고 제1다리(150)의 회전 반경은 약 90도가 되어, 사용자(1)가 우측 다리를 꼬는 자세에 있다는 것을 모사할 수 있다.
도 8에서 나타내는 바와 같이, 사용자(1)가 좌측 다리를 꼬는 자세인 경우, 제1구동부(170)에 의해 제2다리(160)가 회전 구동할 수 있다. 이 경우, 제2다리(160)의 회전 방향은 정면에서 보았을 때 시계 방향이고 제2다리(160)의 회전 반경은 약 90도가 되어, 사용자(1)가 좌측 다리를 꼬는 자세에 있다는 것을 모사할 수 있다.
한편, 본 발명의 로봇(100)은 양산 단가를 낮추어 가격 경쟁력을 확보하기 위해, 하나의 모터로 제1다리(150)와 제2다리(160)를 구동시킬 수 있다.
이를 위해, 제1구동부(170)는 제1모터(171)와 랙기어(172)와 구동 기어(173)와 제1종동 기어(174)와 제2종동 기어(175)를 포함할 수 있다.
구동 기어(173)는 제1모터(171)에 의해 구동하는 기어로서, 제1모터(171)의 샤프트(Shaft)에 배치될 수 있다. 랙기어(172)는 구동 기어(173)와 항시 치합하여, 제1모터(171)의 정회전 구동과 역회전 구동에 의해 일측과 타측으로 이동할 수 있다.
제1종동 기어(174)는 제1다리(150)에 배치될 수 있고, 랙기어(172)의 일측 이동(우측 이동)에 의해 랙기어(172)와 선택적으로 치합함으로써 회전할 수 있다. 즉, 제1종동 기어(174)는 제1모터(171)의 정회전 구동에 의해, 랙기어(172)가 일측으로 이동하면 랙기어(172)와 치합하여 회전할 수 있다.
제2종동 기어(175)는 제2다리(160)에 배치될 수 있고, 랙기어(172)의 타측 이동(좌측 이동)에 의해 랙기어(172)와 선택적으로 치합함으로써 회전할 수 있다. 즉, 제2종동 기어(175)는 제1모터(171)의 역회전 구동에 의해, 랙기어(172)가 타측으로 이동하면 랙기어(172)와 치합하여 회전할 수 있다.
한편, 제1종동 기어(174)와 제2종동 기어(175)는 회전축이 나란하고 회전 방향이 반대일 수 있다. 따라서 제1다리(150)와 제2다리(160)는 상호 나란하데 배치된 상태에서 반대 방향으로 회전하여, 양측 다리를 꼬는 자세를 각각 구현할 수 있다.
전자 제어 유닛은 사용자(1)가 상체가 나쁜 자세를 취하는 경우, "자세 정보"와 대응되어 상부 케이스(111)가 틸팅 구동하도록, 제2구동부(180)를 제어할 수 있다. 이 경우, 상부 케이스(111)는 사용자(1)의 상체가 나쁜 자세를 모사하여(사용자의 상체가 편향된 방향으로 상부 케이스가 틸팅됨), 사용자(1)가 상체가 나쁜 자세를 자각할 수 있도록 한다.
한편, 제2구동부(180)는 사용자(1)의 상체가 전방으로 기울어진 경우와 사용자(1)의 상체가 후방으로 기울어진 경우를 모사할 수 있도록, 상부 케이스(111)를 전방과 후방(전후 방향)으로 틸팅시킬 수 있다. 또한, 본 발명의 제2구동부(180)는 사용자(1)의 상체가 좌측으로 기울어진 경우와 사용자(1)의 상체가 우측으로 기울어진 경우를 모사할 수 있도록, 상부 케이스(111)를 좌측과 우측(좌우 방향)으로 틸팅시킬 수 있다.
이를 위해, 제2구동부(180)는 제2-1모터(181)와 제1브라켓(182)과 제2-2모터(183)와 제2브라켓(184)을 포함할 수 있다. 제2-1모터(181)는 제1브라켓(182)을 회전시킬 수 있고, 제2-2모터(183)는 제2브라켓(184)을 회전시킬 수 있고, 상부 케이스(111)는 제1브라켓(182)과 제2브라켓(184)에 의해 지지되어 전후 방향과 좌우 방향으로 틸팅 구동할 수 있다.
이를 위해, 제1브라켓(182)의 일측(상부바)은 상부 케이스(111)에 고정될 수 있고, 제1브라켓(182)의 타측(수평바에서 하측으로 연장되는 한 쌍의 링크)은 제2-1모터(181)의 샤프트와 연동(일측 링크)될 수 있는 동시에 제2브라켓(184)과 힌지 결합(타측 링크)할 수 있다.
또한, 제2브라켓(184)의 일측(전방 부분)은 상부 케이스(111)에 고정될 수 있고, 제2브라켓(184)의 타측(후방 부분)은 제2-2모터(183)의 사프트와 연동될 수 있다.
한편, 제2-1모터(181)는 대략적으로, 제1브라켓(182)의 일측(상부바)과 제2브라켓(183)의 사이에 배치될 수 있고, 이에 따라, 본 발명의 제2구동부(180)는 컴팩트(Comapct)한 구조를 가질 수 있다.
나아가 제2-1모터(181)의 샤프트와 제1브라켓(182)의 타측과, 제2-2모터(183)의 샤프트와 제2브라켓(184)의 타측 각각은 캠(181-1)에 의해 연동되어 안정적으로 회전 구동을 구현할 수 있다.
도 10의 (1)에서 나타내는 바와 같이, 사용자(1)가 상체가 전방으로 기울어진 자세를 취하는 경우, 제2-1모터(181)의 정회전 구동에 의해 제1브라켓(182)은 상부 케이스(111)가 전방으로 틸팅되도록 회전하여, 사용자(1)가 상체가 전방으로 기울어진 자세를 취하고 있다는 것을 모사할 수 있다. 이 경우, 제1브라켓(182)의 회전 반경은 약 90도 미만(예각)일 수 있다.
도 10의 (2)에서 나타내는 바와 같이, 사용자(1)가 상체가 후방으로 기울어진 자세를 취하는 경우, 제2-1모터(181)의 역회전 구동에 의해 제1브라켓(182)은 상부 케이스(111)가 후방으로 틸팅되도록 회전하여, 사용자(1)가 상체가 후방으로 기울어진 자세를 취하고 있다는 것을 모사할 수 있다. 이 경우, 제1브라켓(182)의 회전 반경은 약 90도 미만(예각)일 수 있다.
도 11의 (1)에서 나타내는 바와 같이, 사용자(1)가 상체가 좌측으로 기울어진 자세를 취하는 경우, 제2-2모터(183)의 정회전 구동에 의해 제2브라켓(183)은 상부 케이스(111)가 좌측으로 틸팅되도록 회전하여, 사용자(1)가 상체가 좌측으로 기울어진 자세를 취하고 있다는 것을 모사할 수 있다. 이 경우, 제2브라켓(184)의 회전 반경은 약 90도 미만(예각)일 수 있다.
도 11의 (2)에서 나타내는 바와 같이, 사용자(1)가 상체가 우측으로 기울어진 자세를 취하는 경우, 제2-2모터(183)의 역회전 구동에의해 제2브라켓(183)은 상부 케이스(111)가 우측으로 틸팅되도록 회전하여, 사용자(1)가 상체가 우측으로 기울어진 자세를 취하고 있다는 것을 모사할 수 있다. 이 경우, 제2브라켓(184)의 회전 반경은 약 90도 미만(예각)일 수 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
Claims (10)
- 케이스;
상기 케이스에 배치되고, 사용자를 촬영하여 촬상 이미지를 생성하는 카메라;
상기 케이스에 배치되고, 디스플레이 이미지를 재생하는 디스플레이; 및
상기 카메라와 상기 디스플레이와 통신하는 전자 제어 유닛을 포함하고,
상기 카메라는 적외선 파장 대역의 광을 획득하여 상기 촬상 이미지를 생성하고,
상기 전자 제어 유닛은 상기 촬상 이미지로부터 상기 사용자의 안면 부위 및 목 부위 중 적어도 하나의 혈류 변화 신호를 도출하고, 상기 혈류 변화 신호를 주파수 별로 분류하고 노이즈 신호를 필터링하여 심박 신호를 도출하고, 상기 심박 신호로부터 극대점 추출 알고리즘을 이용하여 심박 정보를 도출하고, 상기 디스플레이 이미지를 상기 심박 정보와 대응되도록 변경하는 로봇.
- 삭제
- 케이스;
상기 케이스에 배치되고, 사용자를 촬영하여 촬상 이미지를 생성하는 카메라;
상기 케이스에 배치되고, 디스플레이 이미지를 재생하는 디스플레이; 및
상기 카메라와 상기 디스플레이와 통신하는 전자 제어 유닛을 포함하고,
상기 전자 제어 유닛은 상기 촬상 이미지로부터 심박 정보를 도출하고, 상기 디스플레이 이미지를 상기 심박 정보와 대응되도록 변경하고,
상기 디스플레이 이미지는 상기 심박 정보에 대응되는 배경과 문자와 숫자와 기호와 그래프와 이모지 중 적어도 하나를 포함하고,
상기 전자 제어 유닛은 상기 심박 정보를 이용하여, 사용자의 상태를 정상 심박 상태와 낮은 심박 상태와 높은 심박 상태로 분류하고,
상기 심박 정보에 대응되는 배경과 문자와 숫자와 기호와 그래프와 이모지 중 적어도 하나는 상기 사용자의 상태에 따라 다르게 표현되는 로봇.
- 케이스;
상기 케이스에 배치되고, 사용자를 촬영하여 촬상 이미지를 생성하는 카메라;
상기 케이스에 배치되고, 디스플레이 이미지를 재생하는 디스플레이; 및
상기 카메라와 상기 디스플레이와 통신하는 전자 제어 유닛을 포함하고,
상기 전자 제어 유닛은 상기 촬상 이미지로부터 심박 정보를 도출하고, 상기 사용자의 양측 발에 의해 인가되는 압력의 크기와 분포를 센싱하는 패드와 통신하여 압력 신호로부터 자세 정보를 생성하고, 상기 디스플레이 이미지를 상기 심박 정보 및 상기 자세 정보와 대응되도록 변경하고,
상기 디스플레이 이미지는 상기 심박 정보에 대응되는 배경과 문자와 숫자와 기호와 그래프와 이모지 중 적어도 하나와, 상기 자세 정보에 대응되는 배경과 문자와 숫자와 기호와 그래프와 이모지 중 적어도 하나를 포함하고,
상기 심박 정보에 대응되는 배경과 문자와 숫자와 기호와 그래프와 이모지 중 적어도 하나와 상기 자세 정보에 대응되는 배경과 문자와 숫자와 기호와 그래프와 이모지 중 적어도 하나는 동시에 재생되거나 이시에 상호 교번하며 재생되는 로봇.
- 제4항에 있어서,
상기 전자 제어 유닛은 상기 자세 정보를 이용하여, 사용자의 자세를 바른 자세와 상체가 나쁜 자세와 다리 꼬는 자세로 분류하고,
상기 자세 정보에 대응되는 배경과 문자와 숫자와 그래프와 이모지 중 적어도 하나는 상기 사용자의 자세에 따라 다르게 표현되는 로봇.
- 제5항에 있어서,
상기 로봇은 상기 다리 꼬는 자세에서 상기 자세 정보에 대응되도록 구동하는 제1다리와 제2다리와, 상기 제1다리와 상기 제2다리를 구동시키는 제1구동부를 더 포함하고,
상기 제1구동부는 제1모터와 상기 제1모터에 의해 일측과 타측으로 이동하는 랙기어와 상기 제1다리에 배치되는 제1종동 기어와 상기 제2다리에 배치되는 제2종동 기어를 포함하고,
상기 제1모터의 정회전 구동에 의해, 상기 랙기어는 일측으로 이동하여 상기 제1종동 기어와 치합함으로써 상기 제1종동 기어를 회전시키고,
상기 제1모터의 역회전 구동에 의해, 상기 랙기어는 타측으로 이동하여 상기 제2종동 기어와 치합함으로써 상기 제2종동 기어를 회전시키고,
상기 제1종동 기어와 상기 제2종동 기어는 회전축이 나란하고, 회전 방향이 반대인 로봇.
- 제5항에 있어서,
상기 케이스는 상기 상체가 나쁜 자세에서 상기 자세 정보에 대응되도록 틸팅되는 상부 케이스와, 상기 상부 케이스의 하측에 배치되는 하부 케이스를 포함하고,
상기 로봇은 상기 상부 케이스를 전후 방향과 좌우 방향 중 적어도 하나의 방향으로 틸팅시키는 제2구동부를 더 포함하는 로봇.
- 제7항에 있어서,
상기 제2구동부는 제1브라켓과, 상기 제1브라켓을 회전시키는 제2-1모터와, 제2브라켓과, 상기 제2브라켓을 회전시키는 제2-2모터를 포함하고,
상기 제1브라켓의 일측은 상기 상부 케이스에 고정되고, 상기 제1브라켓의 타측은 상기 제2-1모터의 샤프트와 연동되고 상기 제2브라켓과 힌지 결합하고,
상기 제2브라켓의 일측은 상기 상부 케이스에 고정되고, 상기 제2브라켓의 타측은 상기 제2-2모터의 샤프트와 연동되는 로봇.
- 제8항에 있어서,
상기 제2-1모터의 정회전 구동에 의해, 상기 제1브라켓은 상기 상부 케이스가 전방으로 틸팅되도록 회전하고,
상기 제2-1모터의 역회전 구동에 의해, 상기 제1브라켓은 상기 상부 케이스가 후방으로 틸팅되도록 회전하고,
상기 제2-2모터의 정회전 구동에 의해, 상기 제2브라켓은 상기 상부 케이스가 좌측으로 틸팅되도록 회전하고,
상기 제2-2모터의 역회전 구동에 의해, 상기 제2브라켓은 상기 상부 케이스가 우측으로 틸팅되도록 회전하는 로봇.
- 제1항, 제3항 내지 제9항 중 어느 한 항의 로봇을 포함하는 자세 모니터링 시스템.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2018/015350 WO2020116678A1 (ko) | 2018-12-05 | 2018-12-05 | 사용자의 자세를 모사하는 로봇 및 이를 포함하는 실시간 자세 모니터링 시스템 |
KR1020180155519A KR102147295B1 (ko) | 2018-12-05 | 2018-12-05 | 사용자의 자세를 모사하는 로봇 및 이를 포함하는 실시간 자세 모니터링 시스템 |
US17/339,321 US20210330248A1 (en) | 2018-12-05 | 2021-06-04 | Robot for simulating posture of user and real-time posture monitoring system including the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180155519A KR102147295B1 (ko) | 2018-12-05 | 2018-12-05 | 사용자의 자세를 모사하는 로봇 및 이를 포함하는 실시간 자세 모니터링 시스템 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200068482A KR20200068482A (ko) | 2020-06-15 |
KR102147295B1 true KR102147295B1 (ko) | 2020-08-24 |
Family
ID=70974323
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180155519A KR102147295B1 (ko) | 2018-12-05 | 2018-12-05 | 사용자의 자세를 모사하는 로봇 및 이를 포함하는 실시간 자세 모니터링 시스템 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210330248A1 (ko) |
KR (1) | KR102147295B1 (ko) |
WO (1) | WO2020116678A1 (ko) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR200441761Y1 (ko) * | 2008-01-24 | 2008-09-05 | (주)다사로봇 | 회전 가능한 디스플레이 장치가 장착된 로봇 |
JP2014171574A (ja) | 2013-03-07 | 2014-09-22 | Sharp Corp | 呼吸モニタリング装置、システム、及び方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5570301A (en) * | 1994-07-15 | 1996-10-29 | Mitsubishi Electric Information Technology Center America, Inc. | System for unencumbered measurement and reporting of body posture |
JP4617428B2 (ja) * | 2004-09-24 | 2011-01-26 | 株式会社国際電気通信基礎技術研究所 | 動作生成システム |
KR101496909B1 (ko) * | 2009-01-22 | 2015-02-27 | 삼성전자 주식회사 | 로봇 |
KR20150053715A (ko) * | 2013-11-08 | 2015-05-18 | 상명대학교서울산학협력단 | 시각 피로 판단 방법 및 이를 적용하는 장치 |
KR101419430B1 (ko) * | 2014-04-30 | 2014-07-14 | 손민우 | 스마트 스트레스 큐어장치 및 방법 |
KR101485894B1 (ko) | 2014-08-06 | 2015-01-26 | 김한일 | 척추 교정 및 근력 강화 스트레칭 마사지 장치 |
US10311400B2 (en) * | 2014-10-24 | 2019-06-04 | Fellow, Inc. | Intelligent service robot and related systems and methods |
KR101546249B1 (ko) * | 2014-11-17 | 2015-08-21 | 성균관대학교산학협력단 | 앉은 자세에 반응하는 엠비언트 미디어 시스템 및 그 제어 방법 |
KR101663239B1 (ko) * | 2014-11-18 | 2016-10-06 | 상명대학교서울산학협력단 | 인체 미동에 의한 hrc 기반 사회 관계성 측정 방법 및 시스템 |
KR101866883B1 (ko) * | 2015-11-13 | 2018-06-12 | 금오공과대학교 산학협력단 | 비접촉 방식의 생체신호 측정방법 및 이를 이용한 생체신호 측정장치 |
KR20180042673A (ko) * | 2016-10-18 | 2018-04-26 | 성균관대학교산학협력단 | 영상을 이용한 호흡수 측정 방법 |
KR20180092456A (ko) * | 2017-02-09 | 2018-08-20 | 한국기술교육대학교 산학협력단 | 압력센서를 이용한 자세측정정보기반 바른 자세 유도 시스템 |
KR102165831B1 (ko) * | 2017-02-17 | 2020-10-14 | 상명대학교산학협력단 | 동공 반응을 이용한 뇌-심장 연결성 정보 추출 방법 및 시스템 |
JP7133771B2 (ja) * | 2018-02-13 | 2022-09-09 | パナソニックIpマネジメント株式会社 | 生体情報表示装置、生体情報表示方法及び生体情報表示プログラム |
-
2018
- 2018-12-05 WO PCT/KR2018/015350 patent/WO2020116678A1/ko active Application Filing
- 2018-12-05 KR KR1020180155519A patent/KR102147295B1/ko active IP Right Grant
-
2021
- 2021-06-04 US US17/339,321 patent/US20210330248A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR200441761Y1 (ko) * | 2008-01-24 | 2008-09-05 | (주)다사로봇 | 회전 가능한 디스플레이 장치가 장착된 로봇 |
JP2014171574A (ja) | 2013-03-07 | 2014-09-22 | Sharp Corp | 呼吸モニタリング装置、システム、及び方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20200068482A (ko) | 2020-06-15 |
WO2020116678A1 (ko) | 2020-06-11 |
US20210330248A1 (en) | 2021-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10905366B2 (en) | Method and system for correlating an image capturing device to a human user for analysis of cognitive performance | |
KR102669685B1 (ko) | 광 필드 프로세서 시스템 | |
CN103959357B (zh) | 用于眼科检查培训的系统和方法 | |
US6896655B2 (en) | System and method for conditioning the psychological state of a subject using an adaptive autostereoscopic display | |
Holmqvist et al. | Eye tracking: A comprehensive guide to methods and measures | |
US11612316B2 (en) | Medical system and method operable to control sensor-based wearable devices for examining eyes | |
Durgin et al. | Palm boards are not action measures: An alternative to the two-systems theory of geographical slant perception | |
US20180263488A1 (en) | Variable Lens System for Refractive Measurement | |
KR20220043113A (ko) | 안과 검사 시스템 및 방법(ophthalmologic testing systems and methods) | |
IL269159B1 (en) | Method and device for visual inspection | |
Slone et al. | Gaze in action: Head-mounted eye tracking of children's dynamic visual attention during naturalistic behavior | |
CN114599266A (zh) | 光场基于视力的测试设备、用于其的经调整的像素渲染方法、以及使用其的在线基于视力的测试管理系统和方法 | |
US12009083B2 (en) | Remote physical therapy and assessment of patients | |
US20180184899A1 (en) | System and method for detection and monitoring of a physical condition of a user | |
US20240289616A1 (en) | Methods and devices in performing a vision testing procedure on a person | |
Draper | The adaptive effects of virtual interfaces: vestibulo-ocular reflex and simulator sickness | |
CN112926523B (zh) | 基于虚拟现实的眼球追踪方法、系统 | |
KR20210045530A (ko) | Vr 타입 웨어러블 치료장치 | |
KR102147295B1 (ko) | 사용자의 자세를 모사하는 로봇 및 이를 포함하는 실시간 자세 모니터링 시스템 | |
US20220386953A1 (en) | Impairement screening system and method | |
Lopez | Off-the-shelf gaze interaction | |
US12042224B2 (en) | Method and device for determining at least one astigmatic effect of at least one eye | |
KR101887296B1 (ko) | 홍채 진단 시스템 및 그 시스템의 스트레스 진단 방법 | |
WO2023242635A2 (en) | Single device remote visual acuity testing systems and methods | |
JPH01284227A (ja) | 視覚情報分析装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |