KR101317383B1 - 로봇을 이용한 인지 능력 훈련 장치 및 그 방법 - Google Patents
로봇을 이용한 인지 능력 훈련 장치 및 그 방법 Download PDFInfo
- Publication number
- KR101317383B1 KR101317383B1 KR1020110104249A KR20110104249A KR101317383B1 KR 101317383 B1 KR101317383 B1 KR 101317383B1 KR 1020110104249 A KR1020110104249 A KR 1020110104249A KR 20110104249 A KR20110104249 A KR 20110104249A KR 101317383 B1 KR101317383 B1 KR 101317383B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- trainee
- teaching
- robot
- behavior
- Prior art date
Links
- 230000003930 cognitive ability Effects 0.000 title claims abstract description 107
- 238000012549 training Methods 0.000 title claims abstract description 70
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000033001 locomotion Effects 0.000 claims description 34
- 238000004891 communication Methods 0.000 claims description 23
- 230000009471 action Effects 0.000 claims description 14
- 230000000007 visual effect Effects 0.000 claims description 13
- 230000001149 cognitive effect Effects 0.000 claims description 10
- 230000001133 acceleration Effects 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 3
- 230000001172 regenerating effect Effects 0.000 claims 1
- 230000006399 behavior Effects 0.000 description 68
- 238000010586 diagram Methods 0.000 description 11
- 230000005484 gravity Effects 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 210000003128 head Anatomy 0.000 description 6
- 230000010365 information processing Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000011282 treatment Methods 0.000 description 6
- 238000007726 management method Methods 0.000 description 5
- 238000004088 simulation Methods 0.000 description 5
- 208000028698 Cognitive impairment Diseases 0.000 description 4
- 230000003542 behavioural effect Effects 0.000 description 4
- 208000010877 cognitive disease Diseases 0.000 description 4
- 238000009226 cognitive therapy Methods 0.000 description 4
- 230000006735 deficit Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 210000003127 knee Anatomy 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 3
- 210000001508 eye Anatomy 0.000 description 3
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000003920 cognitive function Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 210000001331 nose Anatomy 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 208000030886 Traumatic Brain injury Diseases 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000003925 brain function Effects 0.000 description 1
- 208000029028 brain injury Diseases 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 206010008129 cerebral palsy Diseases 0.000 description 1
- 230000007370 cognitive improvement Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000002483 medication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007659 motor function Effects 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 238000001584 occupational therapy Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000000554 physical therapy Methods 0.000 description 1
- 238000001671 psychotherapy Methods 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000002630 speech therapy Methods 0.000 description 1
- 238000009987 spinning Methods 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
- 230000009529 traumatic brain injury Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/30—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/70—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/50—Miscellaneous
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Educational Technology (AREA)
- General Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Educational Administration (AREA)
- Software Systems (AREA)
- Epidemiology (AREA)
- Public Health (AREA)
- Entrepreneurship & Innovation (AREA)
- Evolutionary Computation (AREA)
- Developmental Disabilities (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Social Psychology (AREA)
- Psychology (AREA)
- Psychiatry (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Physical Education & Sports Medicine (AREA)
- Hospice & Palliative Care (AREA)
- Tourism & Hospitality (AREA)
- Child & Adolescent Psychology (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- Manipulator (AREA)
Abstract
로봇을 이용한 인지능력 훈련 장치 및 그 방법이 개시된다. 본 발명의 일 태양에 따르면, 로봇의 행동을 제어하는 일련의 로봇 교시를 상기 로봇에 전송하는 교시 생성부; 피훈련자의 3차원 위치 정보와 색상 정보를 포함한 센서 정보를 수집하는 센서부; 수집된 센서 정보에 기반하여 피훈련자 행동 정보를 생성하는 피훈련자 행동 정보 생성부; 및 로봇 교시와 피훈련자 행동 정보에 기반하여 상기 피훈련자의 인지능력을 산출하는 인지능력 판단부를 포함하는, 인지 능력 훈련 장치가 개시된다.
Description
본 발명의 실시예들은 인지능력 훈련 장치 및 그 방법에 관한 것이다. 보다 구체적으로 본 발명의 실시예들은 로봇을 이용한 인지능력 훈련 장치 및 인지능력 평가 방법에 관한 것이다.
인지 능력은 적절한 정보를 구별하여 선택, 수용하고 이해, 보유하며 그 정보가 필요로 되는 상황과 만났을 때 관련된 정보를 검색하여 적절하게 적용하는 능력을 말한다. 따라서 인지장애가 발생하게 되면 이러한 정보 처리의 효율성이 떨어지며 인지 기능의 속도 및 지속성이 떨어져 일상생활을 위한 기능이 저하됨은 물론 문제가 발생하였을 때 이에 대한 적절한 대응이 어렵게 된다. 또한 외상성 뇌손상과, 뇌졸증 및 뇌성마비 등의 뇌의 구조적 손상을 입은 환자들은 각종 뇌기능의 장해를 필히 동반하게 되는데, 이들 환자들 가운데는 운동기능의 장애뿐만 아니라 주의 집중력, 기억력, 판단력, 문제 해결능력, 계획능력 등의 인지 능력의 장애, 특히 감각기관으로부터의 정보를 뇌에서 처리하고 받아들이는 능력인 지각능력의 장애 등을 동반하게 된다.
이러한 인지 기능 및 지각 능력의 장해는 뇌손상 후 재활 및 사회 복귀 능력에 심각한 장애를 미치게 되며, 이들 환자의 치료를 위해서는 정확하고 포괄적인 평가가 우선이 되어야 하며, 이러한 정확한 평가를 통해 문제점이 발견된 부분에 대하여 집중적인 치료를 실시하게 된다. 기본적으로는 각종 약물 치료, 물리 치료, 작업치료, 심리 치료, 언어 치료 등을 시행하게 되는 데 최근에는 인지장애와 지각 능력의 장애에 대하여 발달된 컴퓨터 기술을 이용한 여러 진단 및 치료 프로그램들이 개발되어 실용화 단계에 이르렀다. 그러나 지금까지 개발되고 보급된 컴퓨터 인지 치료 프로그램들이 상당수는 아직 임상적 활용도가 낮은 편이다.
한국 공개특허공보 10-2008-0005798은 모션 트랙킹 기술과 증강현실 기법을 활용한 인지 및 행동장애 재활 지원시스템을 개시하고 있다. 키보드나 마우스 조작의 불편을 해소하고 지루하지 않은 인지 및 행동장애 재활시스템을 구현하기 위하여 관심 컬러를 추출하고 CAMSHIFT 알고리즘을 적용시켰고, 이러한 관심 컬러 추출은 HSV 컬러 공간으로 변환시켜 추출하였으며, 다른 잡음을 줄이기 위하여 관심 컬러만을 사용하였다. 또한, 주의력과 반응 시간을 측정하는 Visual Reaction, Visual Differential Reaction, Visual Reaction and Move 기능을 수행하는 인지장애 재활 지원 시스템과, 주의 집중력과 손 움직임의 조절력을 측정하는 Visual Track and Target과 주의력과 시각 운동 능력을 측정하는 Visual Spatial and Motor 기능을 수행하는 행동장애 재활 지원시스템을 개시한다. 하지만 재활 지원 시스템은 환자에게 컴퓨터 모니터로 표시되는 표시장치에 의하여 2차원적인 정보만을 제공하고, 환자가 2차원적인 정보를 통해서만 인지치료를 할 수 밖에 없는 한계점을 갖고 있었다. 그리하여, 환자에게 단순한 제스쳐를 표현할 수 밖에 없어, 인지치료에 한계점을 드러낸다. 또한 환자의 신체를 이용하는 경우에도, 손 움직임의 조절력 등의 간단한 제스쳐는 가능하지만, 전신을 사용하거나 또는 환자의 활동반경이 확장된 치료를 하는 데에는 어려움이 있다.
본 발명의 일 측면에 의하면, 로봇을 통한 교시를 환자에게 전달함으로써 3차원의 실제 공간에서의 인지 치료를 할 수 있다.
본 발명의 다른 측면에 의하면, 환자의 전신을 활용한 다양한 인지 치료를 할 수 있다.
본 발명의 또 다른 측면에 의하면, 환자의 공간 지각 능력, 단기 기억 능력, 시력 및 운동 능력을 향상시킬 수 있다.
본 발명의 일 태양에 따르면, 로봇의 행동을 지시하는 일련의 로봇 교시 정보 또는 피훈련자의 행동을 지시하는 일련의 피훈련자 교시 정보를 생성하는 교시 생성부;
상기 로봇 교시 정보에 따른 로봇의 행동을 모사하거나, 상기 피훈련자 교시 정보에 따라 행동하는 상기 피훈련자의 3차원 위치 정보와 색상 정보 또는 모바일 장치 사용 정보를 포함한 센서 정보를 수집하는 센서부; 상기 센서부에 의해 수집된 센서 정보에 기반하여 피훈련자 행동 정보를 생성하는 피훈련자 행동 정보 생성부; 및 상기 로봇 교시 정보 또는 상기 피훈련자 교시 정보와 상기 피훈련자 행동 정보에 기반하여 상기 피훈련자의 인지능력을 산출하는 인지능력 판단부를 포함하는, 인지 능력 훈련 장치가 제공된다.
본 발명의 다른 태양에 따르면, 인지능력 훈련 장치 외부의 임의의 객체와 통신할 수 있는 제1통신부; 상기 피훈련자에게 시각 정보를 제공하는 표시부; 및 상기 피훈련자에게 음성 정보를 제공하는 음성부를 더 포함하되, 상기 일련의 로봇 교시 정보는 상기 제1통신부를 통하여 상기 로봇으로 전송되며, 상기 피훈련자 교시 정보는 상기 표시부 또는 상기 음성부를 통하여 상기 피훈련자에게 전달되는, 인지 능력 훈련 장치가 제공된다.
본 발명의 다른 태양에 따르면, 상기 모바일 장치 사용 정보는 상기 모바일 장치 내부의 터치 센서, 가속도 센서, 자기 센서 및 회전 센서 중 적어도 어느 하나로부터 생성되며,
상기 피훈련자 교시 정보가 상기 모바일 장치를 사용하여 로봇을 조종하는 교시인 경우, 상기 교시 생성부가 다시 일련의 로봇 교시 정보를 생성하는, 인지 능력 훈련 장치가 제공된다.
본 발명의 다른 태양에 따르면, 상기 로봇 교시 정보 또는 상기 피훈련자 교시 정보가 상기 피훈련자 행동 정보와 미리 설정한 범위에서, 동일하다고 판단되는 경우,
상기 교시 생성부가 상기 로봇의 행동을 제어하는 로봇 교시 정보를 다시 생성하여 상기 로봇으로 하여금 피드백 행동을 하게 하거나, 상기 표시부 또는 상기 음성부를 통하여 상기 피훈련자에게 피드백 정보가 제공되는, 인지 능력 훈련 장치가 제공된다.
본 발명의 다른 태양에 따르면, 상기 음성 정보는, 상기 피훈련자에게 상기 로봇 교시 정보 각각의 모사 또는 상기 피훈련자 교시정보의 행동 제한 시간을 안내하며, 상기 제한 시간의 간격을 조절할 수 있는, 인지 능력 훈련 장치가 제공된다.
본 발명의 다른 태양에 따르면, 상기 교시 생성부는, 상기 일련의 로봇 교시 정보 또는 피훈련자 교시 정보를 피훈련자 정보에 기반하여 상기 로봇 교시 정보를 생성하며, 상기 피훈련자 정보는 피훈련자의 얼굴 색상 정보, 성별 정보, 연령 정보, 상기 인지 능력 훈련 장치의 이용 정보를 포함하는, 인지 능력 훈련 장치가 제공된다.
본 발명의 다른 태양에 따르면, 상기 교시 생성부는, 로봇의 위치를 변경시키는 이동 교시를 생성하는 이동 교시 생성부; 및 로봇의 동작을 변경시키는 제스쳐 교시를 생성하는 제스쳐 교시 생성부를 포함하는, 인지 능력 훈련 장치가 제공된다.
본 발명의 다른 태양에 따르면, 상기 센서부는, 피훈련자의 3차원 위치정보를 수집하는 위치 센서부; 피훈련자의 색상정보를 수집하는 RGB 센서부; 피훈련자의 모바일 장치 사용 정보를 수집하는 모바일 장치 센서부를 포함하는, 인지 능력 훈련 장치 가 제공된다.
본 발명의 다른 태양에 따르면, 상기 수집된 피훈련자의 색상정보를 이용하여 이미 등록된 피훈련자인지 여부를 판별하고, 피훈련자 정보를 등록하는 피훈련자 정보관리부를 더 포함하는, 인지 능력 훈련 장치가 제공된다.
본 발명의 다른 태양에 따르면, 상기 피훈련자 정보 관리부는, 상기 수집된 피훈련자의 색상정보 중 얼굴의 색상 정보에 기반하여, 이미 저장된 피훈련자의 정보 중 일치하는 피훈련자 정보를 검색하는 피훈련자 얼굴 검색부; 및 상기 피훈련자 얼굴 검색부의 검색 결과, 일치하는 얼굴이 검색되지 않은 경우 상기 수집된 피훈련자의 색상정보 중 얼굴의 색상 정보를 포함한 피훈련자 정보를 등록하는 피훈련자 정보 등록부를 포함하는, 인지 능력 훈련 장치가 제공된다.
본 발명의 다른 태양에 따르면, 상기 피훈련자 행동 정보 생성부는, 상기 피훈련자의 이동 가능 장소를 복수의 공간으로 분할하고, 상기 피훈련자의 3차원 위치정보를 상기 복수의 공간에 매칭하여, 상기 피훈련자 행동 정보를 생성하는, 인지 능력 훈련 장치가 제공된다.
본 발명의 다른 태양에 따르면, 상기 피훈련자 행동 정보 생성부는, 상기 피훈련자의 3차원 위치정보를 이용함으로써 피훈련자의 신체 관절의 구부러진 각도를 계산하여, 상기 피훈련자 행동 정보를 생성하는, 인지 능력 훈련 장치가 제공된다.
본 발명의 또 다른 태양에 따르면, 로봇의 행동을 지시하는 일련의 로봇 교시 정보 또는 피훈련자의 행동을 지시하는 일련의 피훈련자 교시 정보를 생성하는 단계; 상기 로봇 교시 정보에 따른 로봇의 행동을 모사하거나, 상기 피훈련자 교시 정보에 따라 행동하는 상기 피훈련자의 3차원 위치 정보와 색상 정보 또는 모바일 장치 사용 정보를 포함한 센서 정보를 수집하는 단계; 상기 센서부에 의해 수집된 센서 정보에 기반하여 피훈련자 행동 정보를 생성하는 단계; 및 상기 로봇 교시 정보 또는 상기 피훈련자 교시정보와 상기 피훈련자 행동 정보에 기반하여 상기 피훈련자의 인지능력을 산출하는 단계를 포함하는, 인지 능력 훈련 방법이 제공된다.
본 발명의 또 다른 태양에 따르면, 상기 일련의 로봇 교시 정보 또는 일련의 피훈련자 교시 정보를 생성하는 단계는, 상기 일련의 로봇 교시 정보는 상기 로봇으로 전송되는 단계; 상기 피훈련자 교시 정보는 표시부를 통한 시각정보 또는 음성부를 통한 음성정보로 상기 피훈련자에게 전달되는 단계를 더 포함하는, 인지 능력 훈련 방법이 제공된다.
본 발명의 또 다른 태양에 따르면, 상기 일련의 로봇 교시 정보 또는 일련의 피훈련자 교시 정보를 생성하는 단계는, 상기 피훈련자 교시 정보가 상기 모바일 장치를 사용하여 로봇을 조종하는 교시인 경우, 다시 일련의 로봇 교시 정보를 생성하는 단계를 더 포함하는, 인지 능력 훈련 방법이 제공된다.
본 발명의 또 다른 태양에 따르면, 상기 로봇 교시 정보 또는 상기 피훈련자 교시 정보와 상기 피훈련자 행동 정보에 기반하여 상기 피훈련자의 인지능력을 산출하는 단계에서, 상기 로봇 교시 정보 또는 피훈련자 교시 정보가 상기 피훈련자 행동 정보와 미리 설정한 범위에서, 동일하다고 판단되는 경우, 상기 로봇의 행동을 제어하는 로봇 교시 정보를 다시 생성하여 상기 로봇으로 하여금 피드백 행동을 하게 하거나, 상기 표시부 또는 상기 음성부를 통하여 상기 피훈련자에게 피드백 정보가 제공되는 단계를 더 포함하는, 인지 능력 훈련 방법이 제공된다.
본 발명의 또 다른 태양에 따르면, 상기 음성 정보는, 상기 피훈련자에게 상기 로봇 교시 정보 각각의 모사 또는 상기 피훈련자 교시정보의 행동 제한 시간을 안내하며, 상기 제한 시간의 간격을 조절할 수 있는, 인지 능력 훈련 방법이 제공된다.
본 발명의 또 다른 태양에 따르면, 상기 일련의 로봇 교시 정보 또는 일련의 피훈련자 교시 정보를 생성하는 단계는, 상기 일련의 로봇 교시 정보 또는 피훈련자 교시 정보를 피훈련자 정보에 기반하여 상기 로봇 교시 정보를 생성하는 단계를 더 포함하며, 상기 피훈련자 정보는 피훈련자의 얼굴 색상 정보, 성별 정보, 연령 정보, 상기 인지 능력 훈련 장치의 이용 정보를 포함하는, 인지 능력 훈련 방법이 제공된다.
본 발명의 또 다른 태양에 따르면, 상기 일련의 로봇 교시 정보 또는 일련의 피훈련자 교시 정보를 생성하는 단계는, 로봇의 위치를 변경시키는 이동 교시를 생성하는 단계; 및 로봇의 동작을 변경시키는 제스쳐 교시를 생성하는 단계를 더 포함하는, 인지 능력 훈련 방법이 제공된다.
본 발명의 또 다른 태양에 따르면, 상기 일련의 로봇 교시 정보 또는 일련의 피훈련자 교시 정보를 생성하는 단계는, 상기 수집된 피훈련자의 색상정보를 이용하여 이미 등록된 피훈련자인지 여부를 판별하는 단계; 피훈련자 정보를 등록하는 단계를 더 포함하는, 인지 능력 훈련 방법이 제공된다.
본 발명의 또 다른 태양에 따르면, 상기 센서부에 의해 수집된 센서 정보에 기반하여 피훈련자 행동 정보를 생성하는 단계는, 상기 피훈련자의 이동 가능 장소를 복수의 공간으로 분할하는 단계; 및 상기 피훈련자의 3차원 위치정보를 상기 복수의 공간에 매칭하여, 상기 피훈련자 행동 정보를 생성하는 단계를 더 포함하는, 인지 능력 훈련 방법이 제공된다.
본 발명의 또 다른 태양에 따르면, 상기 센서부에 의해 수집된 센서 정보에 기반하여 피훈련자 행동 정보를 생성하는 단계는, 상기 피훈련자의 3차원 위치정보를 이용함으로써 피훈련자의 신체 관절의 구부러진 각도를 계산하는 단계를 더 포함하는, 인지 능령 훈련 방법이 제공된다.
본 발명의 또 다른 태양에 따르면, 로봇의 행동을 지시하는 일련의 로봇 교시 정보 또는 피훈련자의 행동을 지시하는 일련의 피훈련자 교시 정보를 생성하는 교시 생성부; 상기 로봇 교시 정보에 따른 로봇의 행동을 모사하거나, 상기 피훈련자 교시 정보에 따라 행동하는 상기 피훈련자의 3차원 위치 정보와 색상 정보 또는 모바일 장치 사용 정보를 포함한 센서 정보를 수집하는 센서부; 상기 센서부에 의해 수집된 센서 정보에 기반하여 피훈련자 행동 정보를 생성하는 피훈련자 행동 정보 생성부; 및 상기 로봇 교시 정보 또는 상기 피훈련자 교시 정보와 상기 피훈련자 행동 정보에 기반하여 상기 피훈련자의 인지능력을 산출하는 인지능력 판단부를 포함하는, 인지 능력 훈련 장치; 상기 인지 능력 훈련 장치와 통신하며 상기 일련의 로봇 교시 정보에 의하여 동작하는 상기 로봇; 피훈련자로부터 사용되어 상기 피훈련자 교시 정보에 따라 정보가 입력되는 상기 모바일 장치를 포함하는 인지 능력 훈련 시스템이 제공된다.
본 발명의 일 측면에 따르면, 환자에게 로봇에 의한 행동 교시를 전달함으로써 3차원의 실제 공간에서의 인지 능력 치료가 가능한 효과가 있다.
본 발명의 다른 측면에 따르면, 환자의 신체 전부를 활용하여 종래 인지 치료에 비해 인지 능력 향상이 뛰어난 효과가 있다.
본 발명의 또 다른 측면에 의하면, 환자의 공간 지각 능력, 단기 기억 능력, 시력 등이 발달하는 효과가 있다.
도1은 본 발명의 실시예에 따른, 인지 능력 훈련 장치(100), 로봇(200) 및 피훈련자(300), 피훈련자가 사용하는 모바일 장치(400)를 나타낸 도면이다.
도2는 본 발명의 실시예에 따른, 인지 능력 훈련 장치(100)의 내부 구성도이다.
도3은 본 발명의 실시예에 따른, 교시 생성부(110)의 내부 구성도이다.
도4는 본 발명의 실시예에 따른, 센서부(120)의 내부 구성도이다.
도5는 본 발명의 실시예에 따른, 피훈련자 정보 관리부(130)의 내부 구성도이다.
도6은 본 발명의 실시예에 따른, 피훈련자 행동 정보 생성부(140)의 내부 구성도이다.
도7은 본 발명의 실시예에 따른, 이동 교시에 따라 이동하는 로봇과 피훈련자의 활동 장소를 나타낸 도면이다.
도8은 본 발명의 실시예에 따른, 피훈련자 제스쳐 정보 처리부(142)의 내부 구성도이다.
도9는 본 발명의 실시예에 따른, 피훈련자의 신체를 관절로 표현하기 위한 도면이다.
도10은 본 발명의 실시예에 따른, 로봇(200)의 내부 구성도이다.
도11은 본 발명의 실시예에 따른, 인지 능력 평가 방법을 나타낸 흐름도이다.
도2는 본 발명의 실시예에 따른, 인지 능력 훈련 장치(100)의 내부 구성도이다.
도3은 본 발명의 실시예에 따른, 교시 생성부(110)의 내부 구성도이다.
도4는 본 발명의 실시예에 따른, 센서부(120)의 내부 구성도이다.
도5는 본 발명의 실시예에 따른, 피훈련자 정보 관리부(130)의 내부 구성도이다.
도6은 본 발명의 실시예에 따른, 피훈련자 행동 정보 생성부(140)의 내부 구성도이다.
도7은 본 발명의 실시예에 따른, 이동 교시에 따라 이동하는 로봇과 피훈련자의 활동 장소를 나타낸 도면이다.
도8은 본 발명의 실시예에 따른, 피훈련자 제스쳐 정보 처리부(142)의 내부 구성도이다.
도9는 본 발명의 실시예에 따른, 피훈련자의 신체를 관절로 표현하기 위한 도면이다.
도10은 본 발명의 실시예에 따른, 로봇(200)의 내부 구성도이다.
도11은 본 발명의 실시예에 따른, 인지 능력 평가 방법을 나타낸 흐름도이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
도1은 인지 능력 훈련 장치(100), 로봇(200) 및 피훈련자(300) 및 피훈련자가 사용하는 모바일 장치(400)를 나타낸 도면이다. 인지 능력 훈련 장치(100)는 로봇(200)의 행동을 제어하는 로봇 교시 정보 또는 피훈련자의 행동을 지시하는 일련의 피훈련자 교시 정보를 생성하여, 이에 따라 행동하는 피훈련자(300)의 정보를 수집하며, 로봇 교시 정보 또는 피훈련자 교시 정보와 피훈련자의 정보를 비교하여 피훈련자의 인지 능력을 훈련시키는 역할을 한다. 도1의 인지 능력 훈련 장치(100)는 센서를 통해 피훈련자(300)의 위치와 각종 제스쳐 및 모바일 장치의 사용여부를 파악한다. 인지 능력 훈련 장치(100)의 상세한 내용은 후술한다.
로봇(200)은 인지 능력 훈련 장치(100)의 로봇 교시 정보를 전송 받아 다양한 행동을 하는 역할을 한다. 일 실시예에서 로봇(200)은 인간과 같은 외관과 형태를 가지고 두 발로 걸을 수 있으며 두 팔이 달려 있어 손으로 뭔가를 조작할 수 있는 기능을 갖는다. 즉 로봇(200)은 휴머노이드 로봇일 수 있으며 복수의 관절을 가지고 있을 수 있다. 휴머노이드 로봇은 각 관절을 조절하는 것에 의해 팔 다리 등의 부위의 자세를 바꿀 수도 있다. 또한 걸음을 걷거나 물건을 던지거나 공을 차는 등의 동작을 할 수도 있다. 다른 실시예에서 로봇(200)은 로봇 구성요소의 일부만 휴머노이드 구성을 할 수도 있다. 예를 들어 상체 부위는 인간의 외관과 형태이나, 하체 부위는 바퀴를 연결하여 이동의 편이성을 용이하게 할 수도 있다.
피훈련자(300)는 로봇(200)이 표현하는 로봇 교시 정보를 보고 이를 따라한다. 피훈련자는 인지능력에 장애가 있는 사람일 수 있으며, 인지 능력 향상의 측정을 원하는 사람일 수도 있다. 특별히 피훈련자에 제한을 두지는 아니한다. 또한 피훈련자(300)는 피훈련자 교시 정보에 따라 이를 행동으로 옮긴다. 표시부, 음성부를 통해 전달되는 이동하는 행위, 제스쳐를 흉내내는 행위를 할 수 있으며, 로봇 자체를 조종하거나, 퀴즈를 맞추는 등의 행위도 할 수 있다.
모바일 장치(400)는 인지 능력 훈련 장치(100)로부터 전달받은 피훈련자 교시를 표현하기 위한 장치 수단이다. 피훈련자(300)에 의하여 사용된다. 일 실시예에서 피훈련자 교시는 이동하는 행위, 제스쳐를 흉내내는 행위, 로봇(300)을 이동시키기 위한 교시일 수 있으며, 로봇 자체를 조종하거나, 퀴즈를 맞추는 등의 행위일 수도 있다. 이 행위들은 모바일 장치(400)의 터치입력, 기울임 입력 등의 다양한 입력을 통해 표현될 수 있다. 모바일 장치(400)는 다양한 형태로 실시될 수 있고, 다양한 특징을 포함할 수 있다. 예를 들면, 모바일 장치(100)는 셀룰러 장치, 개인용 정보 단말기(PDA), 디지털 카메라, 디지털 카메라 인에이블 모바일 전화, 휴대용 컴퓨터 등 기타 유형의 처리 장치일 수 있다. 특히 모바일 장치(400)는 디스플레이, 터치 센서, 모션센서, 진동기, 스피커, 통신모듈 등이 포함된 스마트폰 또는 경우에 따라 소형의 스마트패드일 수 있다. 또한 모바일 장치(400)는 예를 들면, 프로세서, 운영 체제 및 애플리케이션 프로그램 인터페이스(API)를 갖춰 하나 이상의 소프트웨어 애플리케이션 및 운영 체제간에 통신을 제공하는 처리 시스템을 포함할 수 있다. 나아가 모바일 장치(400)의 처리 시스템은 다양한 소프트웨어 애플리케이션을 실행하도록 구성될 수 있다. 모바일 장치(400)는 인지 능력 훈련 장치(100) 또는 다른 외부 장치와 통신할 수 있으며, 통신을 할 수 있는 어떠한 하드웨어나 소프트웨어가 내부에 탑재될 수 있다. 모바일 장치(400) 내부의 각종 센서 정보, 를 포함한 송수신이 가능한 모든 정보는 모바일 장치(400)를 통해 인지 능력 훈련 장치(400) 또는 다른 외부 장치(미도시)로 전송되거나 수신될 수 있다. 통신방식은 WiFi, BlueTooth 일 수 있으며, 이에 제한되지는 아니한다. 모바일 장치(400)의 센서부는 각종 외부 입력에 대한 정보들을 감지하는 역할을 하며, 터치 센서, 가속도 센서, 자기 센서, 회전 센서를 포함할 수 있다. 터치센서는 사용자의 모바일 장치(400)에 대한 터치 입력을 감지하는 역할을 한다. 터치 센서는 싱글(single) 터치뿐 아니라 멀터(multi) 터치의 감지도 가능하다. 터치 입력의 형식은 터치한 점의 위치나 새로운 점, 이동한 점, 놓은(release) 점 등의 상태와 같은 것이거나, 탭(tab), 더블 탭(double tab), 패닝(panning), 플리킹(Flicking), 드래그 앤드 드랍(drag and drop), 핀칭(Pinching) 및 스트레칭(Stretching) 등의 터치를 통한 몇 가지 졔스쳐와 같은 것일 수 있다. 가속도센서는 모바일 장치(400)의 이동 또는 중력에 따라 작용하는 가속도를 측정할 수 있다. 자기 센서는 모바일 장치(400) 주변의 자기장 세기를 측정할 수 있다. 회전 센서는 자이로 센서로 불리우기도 하며, 모바일 장치(400)의 3차원 운동을 인식하는 센서로서 2축만 있거나 3축만 있을 수도 있다. 일 실시예에서, 각 센서들은 3축 센서일 수 있으나, 1축 또는 2축 등의 축퇴된 형태일 수도 있다. 또한, 각 센서들은 각 축 별로 나뉘어져 있을 수도 있다.
도2는 인지 능력 훈련 장치(100)의 내부 구성도이다. 인지 능력 훈련 장치(100)는 교시 생성부(110), 센서부(120), 피훈련자 정보 관리부(130), 피훈련자 행동 정보 생성부(140), 인지 능력 판단부(150), 표시부(160), 음성부(170), 제1통신부(180), 로봇 교시 DB(190), 피훈련자 정보DB(191), 행동 정보 DB(192)를 포함할 수 있다.
교시 생성부(110)는 로봇의 행동을 제어하는 일련의 로봇 교시 정보 또는 피훈련자의 행동을 지시하는 일련의 피훈련자 교시 정보를 생성하는 역할을 한다. 로봇 교시 정보는 로봇(200)의 행동을 제어하는 명령어 또는 지령으로써 로봇이 할 수 있는 모든 행위를 나타낼 수 있다. 피훈련자 교시 정보는 피훈련자가 할 수 있는 모든 행위를 나타내며, 예를 들어 인지 능력 훈련 장치(100)의 표시부 또는 음성부에 표현된 퀴즈 등을 맞추거나, 동작 등을 따라할 수 있으며, 로봇을 조종할 수도 있다. 이에 한정되지 않으며, 피훈련자가 할 수 있는 수많은 행위가 가능하다. 일 실시예에서, 일련의 로봇 교시 정보 또는 피훈련자 교시 정보의 구성을 변경하여 로봇 교시 정보의 난이도를 조절할 수 있다. 연속된 교시 정보의 수를 늘리거나, 다양한 종류의 교시 정보를 혼합하거나, 연속되는 교시 정보를 모사해야하는 제한 시간을 조절할 수 있다. 난이도를 조절하는 방법은 이에 한정되지 않으며 다양한 방법이 가능할 것이다. 다른 실시예에서, 교시 생성부(110)는 일련의 로봇 교시 정보또는 피훈련자 교시 정보를 피훈련자 정보에 기반하여 생성하며, 상기 피훈련자 정보는 피훈련자의 얼굴 색상 정보, 성별 정보, 연령 정보, 인지 능력 훈련 장치의 이용 정보를 포함할 수 있다. 즉 피훈련자의 수준에 따라 어렵거나 쉬운 교시 정보를 생성할 수 있으며, 이미 피훈련자가 보았던 교시 정보를 제외하고 다른 교시 정보를 생성하는 등의 인지 능력 향상을 보다 효율적으로 하기 위하여 교시 정보의 생성을 가능하게 한다. 예를 들어, 연령이 70세 이상인 경우 생성되는 교시의 수준을 낮출 수가 있으며, 종래 일정 득점 이상을 취득한 교시 정보 수준보다 어려운 교시 정보를 생성할 수 있다. 교시 생성부는 도3에서 도시한 것과 같이 로봇(200)의 위치를 변경시키는 이동 교시 정보를 생성하는 이동 교시 생성부(111), 로봇(200)의 동작을 변경시키는 제스쳐 교시 정보를 생성하는 제스쳐 교시 생성부(112), 음성으로 교시를 전달하는 음성 교시 생성부(113)를 포함할 수 있다. 도시하지는 않았지만 음성부 또는 표시부를 통해 각종 피훈련자의 직접적인 행동을 요청하는 교시 생성부가 존재할 수 있음은 물론이다.
이동 교시 생성부(111)에서는 도7의 경우처럼 사각형 형태의 공간에서 4→8→12→11→10→14→13→9→5→1→2→3 순서대로 이동하는 등의 일련의 이동 교시 정보를 생성할 수 있다. 다른 실시예에서, 좌로 이동, 우로 이동, 앞으로 이동, 뒤로 이동하는 이동 교시 정보를 생성할 수도 있다. 이동 교시 생성부(111)에서는, 인지 능력 훈련 장치(100)로부터의 상대적인 좌표, 로봇이 움직이는 공간의 절대적인 좌표 또는 로봇이 움직이는 공간 정보 자체(예를 들어 공간 4→8→12→11→10→14→13→9→5→1→2→3)를 로봇 교시 정보로써 로봇 교시 DB(190)에 저장해 놓을 수 있다.
제스쳐 교시 생성부(112)에서는 로봇(200)의 왼손과 오른손을 앞으로, 뒤로, 옆으로, 위로, 아래로 뻗는 등의 제스쳐 교시 정보를 생성할 수 있다. 또한 앉았다 일어서기, 점프 뛰기, 회전하기, 박수 치기 등의 제스쳐 교시 정보를 생성할 수도 있다. 그리고 고개를 좌우로 흔들기, 고개를 상하로 흔들기, 고개를 갸우뚱하기 등의 머리를 사용한 소위 헤드 제스쳐에 대한 제스쳐 교시 정보를 생성할 수도 있다. 눈을 감기, 웃기, 찡그리기, 놀라기 등의 얼굴의 표정을 사용한 소위 표정 제스쳐에 대한 제스쳐 교시 정보를 생성할 수도 있다. 제스쳐 교시 생성부(112)에서는, 로봇(200)의 각 관절 전체 또는 일부의 각도를 로봇 교시 정보로써 로봇 교시 DB(190)에 저장해 놓을 수 있다. 로봇(200)의 관절 위치 및 그에 따른 명칭은 도9에서 표현되는 도면을 참조하여 표1처럼 나타내질 수 있다.
관절 위치 | 관절명 |
J1 | 몸통(TOR) |
J2 | 머리(HEAD) |
J3 | 목(NECK) |
J4 | 왼쪽 어깨(LS) |
J5 | 왼쪽 팔꿈치(LE) |
J6 | 왼손(LW) |
J7 | 오른쪽 어깨(RS) |
J8 | 오른쪽 팔꿈치(RE) |
J9 | 오른손(RW) |
J10 | 왼쪽 엉덩이(LH) |
J11 | 왼쪽 무릎(LK) |
J12 | 왼발(LF) |
J13 | 오른쪽 엉덩이(RH) |
J14 | 오른쪽 무릎(RK) |
J15 | 오른발(RF) |
표2에서는 로봇(200)의 각 관절 전체 또는 일부의 각도를 로봇 교시 DB(190)에 저장해 놓는 방법을 나타내는데. 예를 들어, J7 _8의 표시는 J7 과J8 사이의 직선을 의미하며 J7 _8-J7 _ 3 의 표시는 양 직선 사이의 각도를 의미한다. 전체 관절 또는 특정 제스쳐에 관련된 관절 각도를 로봇 교시 정보로서 로봇 교시 DB(190)에 저장해 놓을 수도 있다.
제스쳐 교시 정보 | 로봇 관절 각도1 | 로봇 관절 각도2 |
오른손 앞으로 왼손 위로 |
J7 _8-J7 _3=90˚ J7 _8-J7 _1=90˚ |
J4 _3-J4 _5=90˚ J4 _5-J4 _1=135˚ |
오른손 앞으로 왼손 앞으로 |
J7 _8-J7 _3=90˚ J7 _8-J7 _1=90˚ |
J4 _3-J4 _5=90˚ J4 _5-J4 _1=90˚ |
무릎 구부리기 | J14 _13-J14 _15<90˚ |
J11 _10-J11 _12<90˚ |
음성 교시 생성부(113)에서는 로봇(200)이 음성으로 팔굽혀 펴기, 무릎 돌리기, 오른발 또는 왼발차기 등의 제스쳐를 표현하는 음성 교시 정보를 생성한다. 일 실시예에서, 로봇의 이동 또는 제스쳐 교시 정보로 표현하기 어려운 사항을 음성 교시 정보로 나타낼 수 있지만, 로봇의 이동 또는 제스쳐 교시 정보와 같은 내용도 음성 교시 정보로 생성될 수도 있다. 음성교시도 로봇 교시 정보로서 로봇 교시 DB(190)에 저장될 수 있다.
교시 생성부(110)의 로봇 교시 정보 전송은 무선 LAN(Local Area Network), MAN(Metropolitan Area Network), GSM(Global System for Mobile Network), EDGE(Enhanced Data GSM Environment), HSDPA(High Speed Downlink Packet Access), W-CDMA(Wideband Code Division Multiple Access), CDMA(Code Division Multiple Access), TDMA(Time Division Multiple Access), 블루투스(Bluetooth), 지그비(Zigbee), 와이-파이(Wi-Fi), VoIP(Voice over Internet Protocol), Wi-MAX(World Interoperability for Microwave Access) 및 초음파 활용 통신으로 이루어진 군으로부터 선택되는 하나 이상의 통신 방법으로 통신할 수 있다. 다만 실시예에 따라 제1통신부(180)에서 별도로 이루어질 수도 있다.
센서부(120)는 로봇 교시 정보에 따른 로봇의 행동을 모사하거나, 상기 피훈련자 교시 정보에 따라 행동하는 피훈련자의 3차원 위치 정보와 색상 정보 또는 모바일 장치 사용 정보를 포함한 센서 정보를 수집하는 역할을 한다. 도1의 인지 능력 훈련 장치(100)를 보면 원형으로 표현된 부분이 센서부(120)의 일부분이며, 피훈련자(300)의 정보를 수집하는 역할을 한다. 센서부(120)는 도4에서처럼 피훈련자(300)의 3차원 위치 정보를 수집하는 위치 센서부(121), 피훈련자의 색상 정보를 수집하는 RGB 센서부(122), 피훈련자가 내는 소리를 수집하는 음성 센서부(123), 피훈련자의 모바일 장치 사용 정보를 수집하는 모바일 장치 센서부(124)를 포함할 수 있다.
일 실시예에서, 위치 센서부(121)는 깊이 측정 센서(Depth Sensor)일 수 있으며, 깊이 측정 센서는 CMOS 센서와 결합된 적외선 레이저 프로젝터(Infrared laser projector)로 구성될 수 있으며 하나의 카메라에서 무수한 적외선 빔을 쏘고 반사되는 적외선을 통하여 어떠한 밝기 조건에서도 3차원을 감지할 수 있다. 가로와 세로 방향뿐만 아니라 센서와 멀고 가까운 거리까지 감지해 온몸이 어디있는지 어떻게 행동하는지, 파악할 수 있다. 적외선 카메라로 깊이 영상을 얻어내는 방법은 Time of Flight 방식이 일반적이나, 패턴(Structured light)을 대상물에 투영하고 스테레오 매칭(Stereo matching)을 통해 깊이를 계산할 수도 있다. 다른 실시예에서 Stream sequence에서 Blob labeling 기법을 이용하여 거리 단차가 발생하는 동적 물체에 대하여 피훈련자를 검출하며, 공간상의 위치를 추정하고 각 동적 물체에 대하여 id를 부여할 수도 있다.
일 실시에에서, RGB센서부(122)는 적색(Red), 녹색(Green), 청색(Blue)의 3색을 이용하여 피사체 즉 피훈련자의 색상 정보를 수집한다. 일 실시예에서, 색상정보 중 얼굴의 색상 정보를 수집하는 경우 피훈련자가 이미 등록된 피훈련자인지 여부를 판별하는데 사용할 수 있다.
일실시예에서, 모바일 장치 센서부(124)는 모바일 장치(400) 내부의 터치 센서, 가속도 센서, 자기 센서, 회전 센서에서의 정보를 수집하는 역할을 한다.
피훈련자 정보 관리부(130)는 피훈련자의 색상정보를 이용하여 이미 등록된 피훈련자인지 여부를 판별하고, 피훈련자 정보를 등록하는 역할을 한다. 피훈련자 정보 관리부(130)는 도5에서처럼 피훈련자의 색상 정보 중 얼굴의 색상 정보에 기반하여 이미 저장된 피훈련자의 정보 중 일치하는 피훈련자 정보를 검색하는 피훈련자 얼굴 검색부(131), 피훈련자 얼굴 검색부(131)의 검색 결과, 일치하는 얼굴이 검색되지 않은 경우 상기 수집된 피훈련자의 색상정보 중 얼굴의 색상 정보를 포함한 피훈련자 정보를 등록하는 피훈련자 정보 등록부(132)를 포함할 수 있다. 일 실시예에서 피훈련자의 얼굴 색상 정보에 기반하여, 인간의 얼굴 특징 정보를 참조하여 피훈련자 얼굴을 검색하거나, 비교할 수 있다. 여기서 인간 얼굴 특징 정보는 일반적으로 눈썹, 눈, 코, 귀 등의 형상이 일정 양식으로 표현되어 추출한 색상정보를 가지고 쉽게 얼굴로써 인식할 수 있게 하는 참조 정보이다. 일 실시예에서, 피훈련자 얼굴 검색부(131)는 피훈련자 정보DB(191)에서 피훈련자 정보를 검색할 수 있다. 다른 실시예에서, Local Binary Pattern과 Adoboost기법을 이용하여 얼굴을 검출할 수도 있다. 다른 실시예에서, 피훈련자 정보를 등록하는 경우, 피훈련자의 얼굴 정보를 활용하여 성별, 나이를 예측하여 피훈련자 정보에 저장할 수 있으며, 표시부(160) 또는 음성부(170)를 이용하여 피훈련자(300)로부터 직접 성별, 나이에 대한 정보를 입력받을 수 있다. 이는 교시 생성부(110)가 로봇 교시 정보를 생성할 때 참조할 수 있는 정보가 되기도 한다.
피훈련자 행동 정보 생성부(140)는 수집된 센서 정보에 기반하여 피훈련자 행동 정보를 생성하는 역할을 한다. 피훈련자 행동 정보 생성부(140)는 도6에서처럼 센서가 수집한 피훈련자 이동 정보를 처리하는 피훈련자 이동 정보 처리부(141), 제스처 정보를 처리하는 피훈련자 제스쳐 정보 처리부(142), 음성 정보를 처리하는 피훈련자 음성 정보 처리부(143), 모바일 장치 사용 정보를 처리하는 모바일 장치 사용 정보 처리부(144)를 포함할 수 있다.
피훈련자 이동 정보 처리부(141)는 일 실시예에서, 센서부(120)를 통해 수집한 위치정보를 활용하여 피훈련자 이동 정보를 처리하여 피훈련자 행동 정보를 생성한다. 먼저 도7과 같이 피훈련자 또는 로봇이 이동하는 공간을 복수의 공간으로 분할한다. 도7의 경우 가로4개, 세로4개의16개의 공간으로 분할하였으며 가로를 X축, 세로를 Y축으로 놓고 각각의 공간은 10x10 의 크기만큼 할당하였다. 설명의 용이를 위하여 정사각형으로 분할하였지만, 각 구성요소의 분할된 크기는 이에 제한없이 임의로 가능하다. 피훈련자 이동 정보 처리부(141)는 피훈련자의 무게중심의 X축 Y축 좌표 즉 위치 정보가 분할된 16개 공간 중 어디에 속해 있는 지 실시간으로 파악하여 좌표당 공간을 할당한다. 이 경우 피훈련자 행동 정보는 무게중심의 이동에 할당된 공간 정보이다. 무게중심을 산출하는 과정은, 위치 정보로 인식한 피훈련자 신체 전체의 위치 정보의 집합들을 K개의 군집으로 분해하는 거리에 기반을 둔 clustering 기법인 K-means 알고리즘을 통해 구할 수 있다. 도 7의 공간에서 4→8→12→11→10→14→13→9→5→1→2→3 순서대로 이동하는 등의 일련의 이동 교시 정보가 로봇(200)을 통해 표현된 경우, 피훈련자가 이를 보고 암기하여 이동하는 경로를 무게 중심의 이동에 따라 할당된 공간을 통해서 파악할 수 있다.
피훈련자 제스쳐 정보 처리부(142)는 일 실시예에서, 센서부(120)를 통해 수집한 위치정보를 활용하여 피훈련자 제스쳐 정보를 처리하여 피훈련자 행동 정보를 생성한다. 피훈련자의 위치 정보에서 관절 정보를 추출하고, 각 관절이 구부러진 각도를 계산하여 피훈련자가 어떠한 제스쳐를 취하고 있는지 파악할 수 있다. 이 경우 피훈련자 행동 정보는 각 관절의 구부러진 각도가 된다.
모바일 장치 사용 정보 처리부(144)는 일 실시예에서, 센서부(120)를 통해 수집한 모바일 장치 사용 정보를 활용하여 피훈련자 행동 정보를 생성한다. 모바일 장치(400)의 터치, 가속도, 자기장, 회전 센서값들의 변화를 통하여, 피훈련자가 모바일 장치를 통해 어떤 행위를 하고 잇는지 파악할 수 있다. 이 경우 피훈련자 행동 정보는 모바일 장치를 통해 파악된 사용자의 행위가 된다.
인지능력판단부(150)는 로봇 교시 정보 또는 상기 피훈련자 교시 정보와 상기 피훈련자 행동 정보에 기반하여 피훈련자의 인지능력을 산출하는 역할을 한다. 즉 피훈련자가 로봇 교시 정보 또는 상기 피훈련자 교시 정보를 정확하게 그리고 순서대로 기억하는 지 여부를 피훈련자 행위와 비교함으로써 피훈련자의 인지능력을 측정하는 것이다.
일 실시예에서, 로봇 교시 정보가 로봇이 위치를 변경시키는 이동 교시 정보인 경우, 인지 능력 훈련 장치(100)로부터의 로봇까지의 상대적인 좌표, 로봇이 움직이는 공간의 절대적인 좌표 또는 로봇이 움직이는 공간 정보 자체를 포함하는 로봇 교시 정보와 인지 능력 훈련 장치(100)로부터 피훈련자의 무게중심까지의 상대적인 좌표, 피훈련자의 무게중심의 절대적인 좌표 또는 피훈련자의 중심 이동에 할당된 공간 정보를 포함하는 피훈련자 행동 정보를 비교한다. 절대적인 좌표 또는 상대적인 좌표로 동일성을 비교하는 경우, 각 좌표가 분할한 공간 내부의 좌표의 경우 동일한 공간으로 간주한다. 연속되는 일련의 로봇 교시 정보의 경우 전체 로봇 교시 정보의 개수와 일치하는 로봇 교시 정보의 개수의 비를 인지 능력 점수로 할 수 있다. 예를 들어 도7에서처럼 4→8→12→11→10→14→13→9→5→1→2→3의 12개의 공간을 이동하는 로봇 교시 정보가 있는 경우4→8→12→11→ 15 →14→13→9→5→ 7 →2→3으로 피훈련자가 이동한 경우 10개의 공간이 일치하기 때문에 10/12의 비율로 백분율을 적용하여 83점의 인지능력점수를 산출할 수 있다. 산출된 인지능력점수는 표시부(160)를 통하여 표시될 수 있다. 또한 음성부(170)를 통하여 피훈련자에게 점수를 알려줄 수도 있다. 특정 실시예에서는, 음성부(170)에서는 이동 교시 정보 각각이 동일한 경우 그 즉시 피훈련자에게 음성으로 가부를 알려줄 수도 있다.
다른 실시예에서, 로봇 교시 정보가 로봇의 동작을 변경시키는 제스쳐 교시 정보인 경우 로봇의 전체 관절 각도 또는 특정 제스쳐에 관련된 관절 각도가 저장된 로봇 교시 정보와 피훈련자의 위치 정보에서 추출한 각 관절이 구부러진 각도 정보를 저장한 피훈련자 행동 정보를 비교한다. 로봇 교시 정보와 피훈련자 행동 정보에서의 관절 각도의 차이가 미리 설정한 특정 범위(예를 들어 10도) 안쪽으로 형성되는 경우 동일한 제스쳐를 취했다고 판단하여 인지능력 점수를 산출할 수 있다. 이동 교시 정보의 실시예처럼 일련의 제스쳐 교시 정보별로 동일성 여부를 측정하여 인지 능력 점수를 구할 수 있다. 또한 산출된 인지능력점수는 표시부(160)를 통하여 표시될 수 있다. 또한 음성부(170)를 통하여 피훈련자에게 점수를 알려줄 수도 있다. 특정 실시예에서는, 음성부(170)에서는 이동 교시 정보 각각이 동일한 경우 그 즉시 피훈련자에게 음성으로 가부를 알려줄 수도 있다.
다른 실시예에서 로봇 교시 정보 또는 상기 피훈련자 교시 정보와 상기 피훈련자 행동 정보가 미리 설정한 범위에서, 동일하다고 판단되는 경우, 교시 생성부가 상기 로봇의 행동을 제어하는 로봇 교시 정보를 다시 생성하여 상기 로봇으로 하여금 피드백 행동을 하게 하거나, 상기 표시부 또는 상기 음성부를 통하여 상기 피훈련자에게 피드백 정보가 제공될 수 있다. 즉 실시간으로 피훈련자의 따라하기, 즉 모사행위가 로봇 교시 정보와 일치한다는 정보를 피훈련자에게 직접 전달하기 위한 구성을 로봇을 통해 구현하는 것이다. 다시 생성되는 로봇 교시 정보는, 일반적인 로봇 교시 정보 모두를 포함할 수 있으며, 일 실시예에서 로봇을 통해 "짝짝짝", "맞습니다", "오케이" 등의 음성 정보를 전달하게 하는 음성교시 정보일 수 있으며, 실제로 로봇이 박수를 치게 하는 제스쳐 정보 또는 로봇이 웃는 표정 또는 징그린 표정을 하게 하는 제스쳐 정보일 수 있다. 이를 통하여 피훈련자가 현재 자신의 행동이 로봇 교시 정보와 동일한 행위인지를 알 수 있으며, 로봇과의 상호 인터랙션을 강화함으로써 보다 집중하여 인지 능력 평가를 받을 수 있게 되는 것이다. 또한 인지 능력 훈련 장치(100)의 표시부 또는 음성부를 통하여 피훈련자의 행위가 로봇 교시 정보 또는 피훈련자 교시정보 와 일치한다는 정보를 피훈련자에게 직접 전달할 수도 있다.
표시부(160)는 인지 능력 훈련 장치(100)가 피훈련자에게 제공하는 각종 정보를 표시하는 역할을 한다. 표시부(160)를 통하여 피훈련자 정보, 인지 능력 점수를 표시할 수도 있으며 피훈련자 정보를 입력 받을 수도 있다. 표시부(110)는 LCD(Liquid Crystal Display), PDP(Plasma Display Panel), 프로젝터 디스플레이일 수도 있고, 셔터 글래스(shutter glass) 방식, 렌티큘라(Lenticular) 방식, 패러랙스 배리어(parallax barrier) 방식 등의 오토스테레오그래피(autostereography) 또는 홀로그램(hologram)을 이용한 3차원 디스플레이일 수도 있으며, 터치입력을 인식할 수 있는 터치스크린 형태의 디스플레이일 수 있다.
음성부(170)는 인지 능력 훈련 장치(100)가 피훈련자에게 제공하는 각종 정보를 음성으로 전달하는 역할을 한다. 음성을 낼 수 있는 각종 사운드 모듈을 포함한다. 일 실시예에서, 피훈련자에게 로봇 교시 정보 각각의 모사 제한 시간을 안내할 수 있으며, 상기 모사 제한 시간의 간격을 조절할 수 도 있다. 예를 들어 도7의 4→8→12→11→10→14→13→9→5→1→2→3의 공간으로 이동하는 일련의 이동 제스쳐 정보를 생성하는 경우, 피훈련자가 행동하기 위한 박자를 안내하는 것이다. 각 공간을 이동할 수 있는 간격을 3초로 하여, 3초 내에 다음 공간으로 이동하지 않는 경우는 3초 후에 이동하였다고 하더라도 피훈련자 행동 정보 생성부에서, 로봇 교시 정보와 일치하지 않는 피훈련자 행동 정보라고 판단하도록 설정할 수 있다. 또한 그 모사 제한 시간 간격을 조절함으로써 일련의 로봇 교시 정보의 난이도를 조절할 수 가 있다. 3초의 간격을 두는 경우보다, 1.5초의 간격을 두는 경우 짧은 시간 내에 피훈련자가 행동하여야 되기 때문에 같은 로봇 교시 정보로도 더 어려운 형태의 인지 능력 평가가 이루어질 수 있는 것이다.
제1통신부(180)는 무선 LAN(Local Area Network), MAN(Metropolitan Area Network), GSM(Global System for Mobile Network), EDGE(Enhanced Data GSM Environment), HSDPA(High Speed Downlink Packet Access), W-CDMA(Wideband Code Division Multiple Access), CDMA(Code Division Multiple Access), TDMA(Time Division Multiple Access), 블루투스(Bluetooth), 지그비(Zigbee), 와이-파이(Wi-Fi), VoIP(Voice over Internet Protocol), Wi-MAX(World Interoperability for Microwave Access) 및 초음파 활용 통신으로 이루어진 군으로부터 선택되는 하나 이상의 통신 방법으로 통신할 수 있다. 다만 실시예에 따라 제1통신부(180)가 별도로 존재하지 않고, 인지 능력 훈련 장치(100)의 다른 구성요소부의 단일 기능으로 포함되어 있을 수도 있다. 예를 들어, 교시 생성부(110)의 로봇 교시 정보를 직접 외부의 로봇(200)으로 송신할 수도 있다.
로봇 교시 DB(190)는 교시 생성부(110)에서 생성된 로봇 교시 정보를 저장하는 역할을 한다. 일 실시예에서, 인지 능력 훈련 장치(100)로부터의 상대적인 좌표 또는 로봇이 움직이는 공간의 절대적인 좌표 로봇(200)의 각 관절 전체 또는 일부의 각도를 로봇 교시 DB(190)에 저장할 수도 있다. 다른 실시예에서, 로봇(200)의 각 관절 전체 또는 일부의 각도를 로봇 교시 DB(190)에 저장해 놓을 수 있다.
피훈련자 정보 DB(191)는 인지 능력 훈련 장치(100)를 사용하는 피훈련자에 관련된 정보 즉 피훈련자 정보를 저장한다. 피훈련자 정보는 얼굴 색상 정보, 성별 정보, 연령 정보, 상기 인지 능력 훈련 장치의 이용 정보를 포함할 수 있으며, 신규 피훈련자의 경우 피훈련자 정보 관리부(140)에 의하여 피훈련자 정보가 저장된다.
행동 정보 DB(192)는 피훈련자의 행동 정보를 저장하는 역할을 한다. 피훈련자의 행동 정보는 수집된 센서 정보에 기반하여 생성하게 되며, 전술한 바와 같이 좌표 정보 자체, 공간 정보, 관절의 각도 정보 등이 될 수 있다.
도10은 로봇(200)의 내부 구성도이다. 로봇(200)은 전술한 바와 같이 일 실시예에서 휴머노이드 일 수 있으며, 그 일부만 휴머노이드일 수 있다. 로봇(200)은 제어부(210), 동작부(220), 제2통신부(230)를 포함할 수 있다. 로봇(200)은 제2 통신부(230)를 통하여 인지 능력 훈련 장치(100)로부터 로봇 교시 정보를 전송 받고 제어부(210)를 통하여 동작부(220)를 제어하여 로봇 교시 정보에 따라 로봇(200)의 위치 또는 동작을 변경한다. 또한 음성부(미도시)를 통하여 음성 정보를 피훈련자에게 전달 할 수도 있다. 제2 통신부(230)의 통신 방식은 전술한 인지 능력 훈련 장치(100)와 동일한 통신 방식이 가능하다.
도11은 인지 능력 평가 방법을 나타낸 흐름도이다. 먼저 인지 능력 훈련 장치(100)는 센서기능을 이용하여 피훈련자를 인식한다(S1100). 일 실시예에서 RGB카메라는 통한 색상정보, 특히 얼굴의 색상 정보를 이용하여 피훈련자를 인식한다. 일 실시예에서 눈, 코, 입, 눈썹의 얼굴의 특징 정보를 참조할 수도 있다. 인식된 결과 기존 피훈련자가 아닌 경우(S1110) 예를 들어, 기존 피훈련자의 얼굴 정보 표현 값을 넘어서지 않는 경우, 피훈련자를 등록한다(S1120). 이 경우 피훈련자로부터 추가적인 정보를 입력 받을 수도 있으며, 피훈련자의 인식된 얼굴의 색상 정보를 이용하여 연령, 성별 등의 추가 정보를 추정해낼 수도 있다. 피훈련자 등록을 마치거나, 기존 피훈련자로 인식된 경우에, 인지 능력 훈련 장치(100)는 로봇(200)으로 로봇 교시 정보를 전송하거나 피훈련자 교시 정보를 전달한다. 전술한 바와 같이 로봇 교시 정보는 이동 교시 정보, 제스쳐 교시 정보, 음성 교시 정보를 포함할 수 있으며 이에 한정되지 아니하다. 피훈련자 교시 정보의 경우 로봇을 조종할 수 있는 교시를 포함하며 이에 한정되지 아니한다. 주어진 로봇 교시 정보에 따라 로봇은 동작하게 된다, 피훈련자 교시의 경우에는 로봇의 동작과정은 생략된다. 다만 로봇 조종 교시의 경우 피훈련자의 모바일 장치 입력에 따라 인지 능력 훈련 장치의 로봇 교시 생성 및 전송으로 인하여 로봇이 동작될 수 있다(S1130). 피훈련자는 로봇의 다양한 로봇 교시 정보를 보고 이를 따라하거나, 피훈련자 교시에 따른 행위를 하게 된다(S1140). 일련의 로봇 교시 정보 또는 피훈련자 교시 정보를 기억하고 이를 따라 함으로써, 인지 능력 특히 기억력 부분이 향상되게 된다. 피훈련자의 동작이 진행되는 동안 인지 능력 훈련 장치(100)는 센서로 피훈련자 신체 전부의 행동 정보를 또는 모바일 장치의 사용에 대하여 인식한다(S1160). 센서로 인식한 위치 정보 또는 색상 정보를 포함한 센서 정보를 통하여 피훈련자가 어떠한 행동을 하고 있는지, 행동 정보를 처리한다(S1170). 그 후, 로봇 교시 정보 또는 피훈련자 교시와와 피훈련자의 행동 정보를 비교하여, 동일성 여부를 판단하고(S1180) 이에 근거하여 인지능력을 판단하고 그 점수를 표현한다(S1190). 이 경우 실시간으로 로봇(200) 또는 인지 능력 훈련 장치(100)을 통하여 음성 또는 시각 정보를 통한 실시간 피드백이 이루어질 수도 있다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.
100: 인지 능력 훈련 장치
200: 로봇
300: 피훈련자
400: 모바일 장치
J1~J15: 관절
200: 로봇
300: 피훈련자
400: 모바일 장치
J1~J15: 관절
Claims (23)
- 로봇의 행동을 지시하는 일련의 로봇 교시 정보 또는 피훈련자의 행동을 지시하는 일련의 피훈련자 교시 정보를 생성하는 교시 생성부;
상기 로봇 교시 정보에 따른 로봇의 행동을 모사하거나, 상기 피훈련자 교시 정보에 따라 행동하는 상기 피훈련자의 3차원 위치 정보와 색상 정보 또는 모바일 장치 사용 정보를 포함한 센서 정보를 수집하는 센서부;
상기 센서부에 의해 수집된 센서 정보에 기반하여 피훈련자 행동 정보를 생성하는 피훈련자 행동 정보 생성부;
상기 로봇 교시 정보 또는 상기 피훈련자 교시 정보와 상기 피훈련자 행동 정보에 기반하여 상기 피훈련자의 인지능력을 산출하는 인지능력 판단부;
인지능력 훈련 장치 외부의 임의의 객체와 통신할 수 있는 제1통신부;
상기 피훈련자에게 시각 정보를 제공하는 표시부; 및
상기 피훈련자에게 음성 정보를 제공하는 음성부를 포함하되,
상기 일련의 로봇 교시 정보는 상기 제1통신부를 통하여 상기 로봇으로 전송되며, 상기 피훈련자 교시 정보는 상기 표시부 또는 상기 음성부를 통하여 상기 피훈련자에게 전달되는, 인지 능력 훈련 장치. - 삭제
- 로봇의 행동을 지시하는 일련의 로봇 교시 정보 또는 피훈련자의 행동을 지시하는 일련의 피훈련자 교시 정보를 생성하는 교시 생성부;
상기 로봇 교시 정보에 따른 로봇의 행동을 모사하거나, 상기 피훈련자 교시 정보에 따라 행동하는 상기 피훈련자의 3차원 위치 정보와 색상 정보 또는 모바일 장치 사용 정보를 포함한 센서 정보를 수집하는 센서부;
상기 센서부에 의해 수집된 센서 정보에 기반하여 피훈련자 행동 정보를 생성하는 피훈련자 행동 정보 생성부; 및
상기 로봇 교시 정보 또는 상기 피훈련자 교시 정보와 상기 피훈련자 행동 정보에 기반하여 상기 피훈련자의 인지능력을 산출하는 인지능력 판단부를 포함하되,
상기 모바일 장치 사용 정보는 상기 모바일 장치 내부의 터치 센서, 가속도 센서, 자기 센서 및 회전 센서 중 적어도 어느 하나로부터 생성되며,
상기 피훈련자 교시 정보가 상기 모바일 장치를 사용하여 로봇을 조종하는 교시인 경우, 상기 교시 생성부가 다시 일련의 로봇 교시 정보를 생성하는, 인지 능력 훈련 장치. - 제1항에 있어서,
상기 로봇 교시 정보 또는 상기 피훈련자 교시 정보가 상기 피훈련자 행동 정보와 미리 설정한 범위에서, 동일하다고 판단되는 경우,
상기 교시 생성부가 상기 로봇의 행동을 제어하는 로봇 교시 정보를 다시 생성하여 상기 로봇으로 하여금 피드백 행동을 하게 하거나, 상기 표시부 또는 상기 음성부를 통하여 상기 피훈련자에게 피드백 정보가 제공되는, 인지 능력 훈련 장치. - 제1항에 있어서,
상기 음성 정보는, 상기 피훈련자에게 상기 로봇 교시 정보 각각의 모사 또는 상기 피훈련자 교시정보의 행동 제한 시간을 안내하며, 상기 제한 시간의 간격을 조절할 수 있는, 인지 능력 훈련 장치. - 로봇의 행동을 지시하는 일련의 로봇 교시 정보 또는 피훈련자의 행동을 지시하는 일련의 피훈련자 교시 정보를 생성하는 교시 생성부;
상기 로봇 교시 정보에 따른 로봇의 행동을 모사하거나, 상기 피훈련자 교시 정보에 따라 행동하는 상기 피훈련자의 3차원 위치 정보와 색상 정보 또는 모바일 장치 사용 정보를 포함한 센서 정보를 수집하는 센서부;
상기 센서부에 의해 수집된 센서 정보에 기반하여 피훈련자 행동 정보를 생성하는 피훈련자 행동 정보 생성부; 및
상기 로봇 교시 정보 또는 상기 피훈련자 교시 정보와 상기 피훈련자 행동 정보에 기반하여 상기 피훈련자의 인지능력을 산출하는 인지능력 판단부를 포함하되,
상기 교시 생성부는, 상기 일련의 로봇 교시 정보 또는 피훈련자 교시 정보를 피훈련자 정보에 기반하여 상기 로봇 교시 정보를 생성하며,
상기 피훈련자 정보는 피훈련자의 얼굴 색상 정보, 성별 정보, 연령 정보, 상기 인지 능력 훈련 장치의 이용 정보를 포함하는,
인지 능력 훈련 장치. - 제1항에 있어서,
상기 교시 생성부는,
로봇의 위치를 변경시키는 이동 교시를 생성하는 이동 교시 생성부; 및
로봇의 동작을 변경시키는 제스쳐 교시를 생성하는 제스쳐 교시 생성부를 포함하는, 인지 능력 훈련 장치. - 로봇의 행동을 지시하는 일련의 로봇 교시 정보 또는 피훈련자의 행동을 지시하는 일련의 피훈련자 교시 정보를 생성하는 교시 생성부;
상기 로봇 교시 정보에 따른 로봇의 행동을 모사하거나, 상기 피훈련자 교시 정보에 따라 행동하는 상기 피훈련자의 3차원 위치 정보와 색상 정보 또는 모바일 장치 사용 정보를 포함한 센서 정보를 수집하는 센서부;
상기 센서부에 의해 수집된 센서 정보에 기반하여 피훈련자 행동 정보를 생성하는 피훈련자 행동 정보 생성부; 및
상기 로봇 교시 정보 또는 상기 피훈련자 교시 정보와 상기 피훈련자 행동 정보에 기반하여 상기 피훈련자의 인지능력을 산출하는 인지능력 판단부를 포함하되,
상기 센서부는,
피훈련자의 3차원 위치정보를 수집하는 위치 센서부;
피훈련자의 색상정보를 수집하는 RGB 센서부;
피훈련자의 모바일 장치 사용 정보를 수집하는 모바일 장치 센서부를 포함하는, 인지 능력 훈련 장치. - 제6항에 있어서,
상기 수집된 피훈련자의 색상정보를 이용하여 이미 등록된 피훈련자인지 여부를 판별하고, 피훈련자 정보를 등록하는 피훈련자 정보관리부를 더 포함하는, 인지 능력 훈련 장치. - 제8항에 있어서,
상기 피훈련자 정보 관리부는,
상기 수집된 피훈련자의 색상정보 중 얼굴의 색상 정보에 기반하여, 이미 저장된 피훈련자의 정보 중 일치하는 피훈련자 정보를 검색하는 피훈련자 얼굴 검색부; 및
상기 피훈련자 얼굴 검색부의 검색 결과, 일치하는 얼굴이 검색되지 않은 경우 상기 수집된 피훈련자의 색상정보 중 얼굴의 색상 정보를 포함한 피훈련자 정보를 등록하는 피훈련자 정보 등록부를 포함하는, 인지 능력 훈련 장치. - 제6항에 있어서,
상기 피훈련자 행동 정보 생성부는,
상기 피훈련자의 이동 가능 장소를 복수의 공간으로 분할하고, 상기 피훈련자의 3차원 위치정보를 상기 복수의 공간에 매칭하여, 상기 피훈련자 행동 정보를 생성하는, 인지 능력 훈련 장치. - 제6항에 있어서,
상기 피훈련자 행동 정보 생성부는,
상기 피훈련자의 3차원 위치정보를 이용함으로써 피훈련자의 신체 관절의 구부러진 각도를 계산하여, 상기 피훈련자 행동 정보를 생성하는, 인지 능력 훈련 장치. - 로봇의 행동을 지시하는 일련의 로봇 교시 정보 또는 피훈련자의 행동을 지시하는 일련의 피훈련자 교시 정보를 생성하는 단계;
상기 로봇 교시 정보에 따른 로봇의 행동을 모사하거나, 상기 피훈련자 교시 정보에 따라 행동하는 상기 피훈련자의 3차원 위치 정보와 색상 정보 또는 모바일 장치 사용 정보를 포함한 센서 정보를 수집하는 단계;
수집된 상기 센서 정보에 기반하여 피훈련자 행동 정보를 생성하는 단계; 및
상기 로봇 교시 정보 또는 상기 피훈련자 교시 정보와 상기 피훈련자 행동 정보에 기반하여 상기 피훈련자의 인지능력을 산출하는 단계를 포함하되,
상기 로봇 교시 정보 또는 상기 피훈련자 교시 정보와 상기 피훈련자 행동 정보에 기반하여 상기 피훈련자의 인지능력을 산출하는 단계에서,
상기 로봇 교시 정보 또는 피훈련자 교시 정보가 상기 피훈련자 행동 정보와 미리 설정한 범위에서, 동일하다고 판단되는 경우,
상기 로봇의 행동을 제어하는 로봇 교시 정보를 다시 생성하여 상기 로봇으로 하여금 피드백 행동을 하게 하거나, 표시부를 통한 시각정보 또는 음성부를 통한 음성정보로 상기 피훈련자에게 피드백 정보가 제공되는 단계를 더 포함하는, 인지 능력 훈련 방법. - 제13항에 있어서,
상기 일련의 로봇 교시 정보 또는 일련의 피훈련자 교시 정보를 생성하는 단계는,
상기 일련의 로봇 교시 정보는 상기 로봇으로 전송되는 단계;
상기 피훈련자 교시 정보는 상기 표시부를 통한 시각정보 또는 상기 음성부를 통한 음성정보로 상기 피훈련자에게 전달되는 단계를 더 포함하는, 인지 능력 훈련 방법. - 로봇의 행동을 지시하는 일련의 로봇 교시 정보 또는 피훈련자의 행동을 지시하는 일련의 피훈련자 교시 정보를 생성하는 단계;
상기 로봇 교시 정보에 따른 로봇의 행동을 모사하거나, 상기 피훈련자 교시 정보에 따라 행동하는 상기 피훈련자의 3차원 위치 정보와 색상 정보 또는 모바일 장치 사용 정보를 포함한 센서 정보를 수집하는 단계;
수집된 상기 센서 정보에 기반하여 피훈련자 행동 정보를 생성하는 단계; 및
상기 로봇 교시 정보 또는 상기 피훈련자 교시 정보와 상기 피훈련자 행동 정보에 기반하여 상기 피훈련자의 인지능력을 산출하는 단계를 포함하되,
상기 일련의 로봇 교시 정보 또는 일련의 피훈련자 교시 정보를 생성하는 단계는,
상기 피훈련자 교시 정보가 상기 모바일 장치를 사용하여 로봇을 조종하는 교시인 경우, 다시 일련의 로봇 교시 정보를 생성하는 단계를 더 포함하는, 인지 능력 훈련 방법. - 삭제
- 로봇의 행동을 지시하는 일련의 로봇 교시 정보 또는 피훈련자의 행동을 지시하는 일련의 피훈련자 교시 정보를 생성하는 단계;
상기 로봇 교시 정보에 따른 로봇의 행동을 모사하거나, 상기 피훈련자 교시 정보에 따라 행동하는 상기 피훈련자의 3차원 위치 정보와 색상 정보 또는 모바일 장치 사용 정보를 포함한 센서 정보를 수집하는 단계;
수집된 상기 센서 정보에 기반하여 피훈련자 행동 정보를 생성하는 단계; 및
상기 로봇 교시 정보 또는 상기 피훈련자 교시 정보와 상기 피훈련자 행동 정보에 기반하여 상기 피훈련자의 인지능력을 산출하는 단계를 포함하되,
상기 일련의 로봇 교시 정보 또는 일련의 피훈련자 교시 정보를 생성하는 단계는,
상기 일련의 로봇 교시 정보는 상기 로봇으로 전송되는 단계;
상기 피훈련자 교시 정보는 표시부를 통한 시각정보 또는 음성부를 통한 음성정보로 상기 피훈련자에게 전달되는 단계를 더 포함하고,
상기 음성 정보는, 상기 피훈련자에게 상기 로봇 교시 정보 각각의 모사 또는 상기 피훈련자 교시정보의 행동 제한 시간을 안내하며, 상기 제한 시간의 간격을 조절할 수 있는, 인지 능력 훈련 방법. - 로봇의 행동을 지시하는 일련의 로봇 교시 정보 또는 피훈련자의 행동을 지시하는 일련의 피훈련자 교시 정보를 생성하는 단계;
상기 로봇 교시 정보에 따른 로봇의 행동을 모사하거나, 상기 피훈련자 교시 정보에 따라 행동하는 상기 피훈련자의 3차원 위치 정보와 색상 정보 또는 모바일 장치 사용 정보를 포함한 센서 정보를 수집하는 단계;
수집된 상기 센서 정보에 기반하여 피훈련자 행동 정보를 생성하는 단계; 및
상기 로봇 교시 정보 또는 상기 피훈련자 교시 정보와 상기 피훈련자 행동 정보에 기반하여 상기 피훈련자의 인지능력을 산출하는 단계를 포함하되,
상기 일련의 로봇 교시 정보 또는 일련의 피훈련자 교시 정보를 생성하는 단계는,
상기 일련의 로봇 교시 정보 또는 피훈련자 교시 정보를 피훈련자 정보에 기반하여 상기 로봇 교시 정보를 생성하는 단계를 더 포함하며,
상기 피훈련자 정보는 피훈련자의 얼굴 색상 정보, 성별 정보, 연령 정보, 상기 인지 능력 훈련 장치의 이용 정보를 포함하는,
인지 능력 훈련 방법. - 제13항에 있어서,
상기 일련의 로봇 교시 정보 또는 일련의 피훈련자 교시 정보를 생성하는 단계는,
로봇의 위치를 변경시키는 이동 교시를 생성하는 단계; 및
로봇의 동작을 변경시키는 제스쳐 교시를 생성하는 단계를 더 포함하는, 인지 능력 훈련 방법. - 제18항에 있어서,
상기 일련의 로봇 교시 정보 또는 일련의 피훈련자 교시 정보를 생성하는 단계는,
상기 수집된 피훈련자의 색상정보를 이용하여 이미 등록된 피훈련자인지 여부를 판별하는 단계;
이미 등록된 피훈련자가 아니라고 판별되는 경우, 피훈련자 정보를 등록하는 단계를 더 포함하는, 인지 능력 훈련 방법. - 로봇의 행동을 지시하는 일련의 로봇 교시 정보 또는 피훈련자의 행동을 지시하는 일련의 피훈련자 교시 정보를 생성하는 단계;
상기 로봇 교시 정보에 따른 로봇의 행동을 모사하거나, 상기 피훈련자 교시 정보에 따라 행동하는 상기 피훈련자의 3차원 위치 정보와 색상 정보 또는 모바일 장치 사용 정보를 포함한 센서 정보를 수집하는 단계;
수집된 상기 센서 정보에 기반하여 피훈련자 행동 정보를 생성하는 단계; 및
상기 로봇 교시 정보 또는 상기 피훈련자 교시 정보와 상기 피훈련자 행동 정보에 기반하여 상기 피훈련자의 인지능력을 산출하는 단계를 포함하되,
상기 수집된 상기 센서 정보에 기반하여 피훈련자 행동 정보를 생성하는 단계는,
상기 피훈련자의 이동 가능 장소를 복수의 공간으로 분할하는 단계; 및
상기 피훈련자의 3차원 위치정보를 상기 복수의 공간에 매칭하여, 상기 피훈련자 행동 정보를 생성하는 단계를 더 포함하는, 인지 능력 훈련 방법. - 로봇의 행동을 지시하는 일련의 로봇 교시 정보 또는 피훈련자의 행동을 지시하는 일련의 피훈련자 교시 정보를 생성하는 단계;
상기 로봇 교시 정보에 따른 로봇의 행동을 모사하거나, 상기 피훈련자 교시 정보에 따라 행동하는 상기 피훈련자의 3차원 위치 정보와 색상 정보 또는 모바일 장치 사용 정보를 포함한 센서 정보를 수집하는 단계;
수집된 상기 센서 정보에 기반하여 피훈련자 행동 정보를 생성하는 단계; 및
상기 로봇 교시 정보 또는 상기 피훈련자 교시 정보와 상기 피훈련자 행동 정보에 기반하여 상기 피훈련자의 인지능력을 산출하는 단계를 포함하되,
상기 수집된 상기 센서 정보에 기반하여 피훈련자 행동 정보를 생성하는 단계는,
상기 피훈련자의 3차원 위치정보를 이용함으로써 피훈련자의 신체 관절의 구부러진 각도를 계산하는 단계를 더 포함하는, 인지 능력 훈련 방법. - 로봇의 행동을 지시하는 일련의 로봇 교시 정보 또는 피훈련자의 행동을 지시하는 일련의 피훈련자 교시 정보를 생성하는 교시 생성부; 상기 로봇 교시 정보에 따른 로봇의 행동을 모사하거나, 상기 피훈련자 교시 정보에 따라 행동하는 상기 피훈련자의 3차원 위치 정보와 색상 정보 또는 모바일 장치 사용 정보를 포함한 센서 정보를 수집하는 센서부; 상기 센서부에 의해 수집된 센서 정보에 기반하여 피훈련자 행동 정보를 생성하는 피훈련자 행동 정보 생성부; 및 상기 로봇 교시 정보 또는 상기 피훈련자 교시 정보와 상기 피훈련자 행동 정보에 기반하여 상기 피훈련자의 인지능력을 산출하는 인지능력 판단부를 포함하는, 인지 능력 훈련 장치;
상기 인지 능력 훈련 장치와 통신하며 상기 일련의 로봇 교시 정보에 의하여 동작하는 상기 로봇;
피훈련자로부터 사용되어 상기 피훈련자 교시 정보에 따라 정보가 입력되는 상기 모바일 장치를 포함하는 인지 능력 훈련 시스템.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110104249A KR101317383B1 (ko) | 2011-10-12 | 2011-10-12 | 로봇을 이용한 인지 능력 훈련 장치 및 그 방법 |
EP12839556.3A EP2767967A4 (en) | 2011-10-12 | 2012-08-17 | APPARATUS FOR ENABLING RECONNAISSANCE CAPACITY USING A ROBOT AND ASSOCIATED METHOD |
US14/350,760 US20140258192A1 (en) | 2011-10-12 | 2012-08-17 | Apparatus for training recognition capability using robot and method for same |
PCT/KR2012/006543 WO2013055024A1 (ko) | 2011-10-12 | 2012-08-17 | 로봇을 이용한 인지 능력 훈련 장치 및 그 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110104249A KR101317383B1 (ko) | 2011-10-12 | 2011-10-12 | 로봇을 이용한 인지 능력 훈련 장치 및 그 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130039585A KR20130039585A (ko) | 2013-04-22 |
KR101317383B1 true KR101317383B1 (ko) | 2013-10-11 |
Family
ID=48082044
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110104249A KR101317383B1 (ko) | 2011-10-12 | 2011-10-12 | 로봇을 이용한 인지 능력 훈련 장치 및 그 방법 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20140258192A1 (ko) |
EP (1) | EP2767967A4 (ko) |
KR (1) | KR101317383B1 (ko) |
WO (1) | WO2013055024A1 (ko) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103513768B (zh) * | 2013-08-30 | 2016-08-24 | 展讯通信(上海)有限公司 | 一种基于移动终端姿态变化的控制方法及装置、移动终端 |
US11185267B2 (en) * | 2016-10-18 | 2021-11-30 | The Johns Hopkins University | Automated system for measurement of spatial-cognitive abilities |
KR101895959B1 (ko) * | 2017-05-19 | 2018-09-06 | (주)뤼이드 | 기계학습 프레임워크의 분석 결과를 해석하는 방법, 장치 및 컴퓨터 프로그램 |
US11161236B2 (en) | 2017-09-14 | 2021-11-02 | Sony Interactive Entertainment Inc. | Robot as personal trainer |
US10777006B2 (en) * | 2017-10-23 | 2020-09-15 | Sony Interactive Entertainment Inc. | VR body tracking without external sensors |
CN109991973A (zh) * | 2017-12-29 | 2019-07-09 | 深圳市优必选科技有限公司 | 一种机器人运动控制方法、装置以及机器人 |
US10726248B2 (en) | 2018-02-01 | 2020-07-28 | Ford Global Technologies, Llc | Validating gesture recognition capabilities of automated systems |
KR102363083B1 (ko) | 2019-04-11 | 2022-02-15 | 우승희 | 사용자 참여형 ai 훈련 서비스를 제공하는 전자 장치, 서버, 및 시스템 |
CN114973357B (zh) * | 2022-05-07 | 2024-07-09 | 湖南大学 | 一种基于双标签学习的人脸表情识别方法 |
KR102563623B1 (ko) * | 2023-03-02 | 2023-08-04 | 주식회사 인비전테크 | 치매예방을 위한 블록형 코딩 조립체 및 로봇 장치의 운용방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006320424A (ja) * | 2005-05-17 | 2006-11-30 | Tama Tlo Kk | 動作教示装置とその方法 |
KR100772497B1 (ko) * | 2006-10-09 | 2007-11-01 | 박찬애 | 골프 클리닉 시스템 및 그것의 운용방법 |
KR101036429B1 (ko) * | 2010-08-24 | 2011-05-23 | 윤상범 | 가상현실 무도 수련장치 및 방법, 그 기록 매체 |
KR20120004279A (ko) * | 2010-07-06 | 2012-01-12 | 김민한 | 착용형 인지력 향상 시스템 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8185747B2 (en) * | 2003-05-22 | 2012-05-22 | Access Security Protection, Llc | Methods of registration for programs using verification processes with biometrics for fraud management and enhanced security protection |
KR100953902B1 (ko) * | 2003-12-12 | 2010-04-22 | 닛본 덴끼 가부시끼가이샤 | 정보 처리 시스템, 정보 처리 방법, 정보 처리용 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체, 단말 및 서버 |
US20050243655A1 (en) * | 2004-04-19 | 2005-11-03 | Mccutcheon Shawn | Programmable analog display timer system |
JP2007152442A (ja) * | 2005-11-30 | 2007-06-21 | Mitsubishi Heavy Ind Ltd | ロボット案内システム |
KR20080005798A (ko) | 2006-07-10 | 2008-01-15 | (주)유리시스 | 모션트랙킹 기술과 증강현실 기법을 활용한 인지 및행동장애 재활 지원시스템 |
JP5327668B2 (ja) * | 2008-12-09 | 2013-10-30 | 公立大学法人首都大学東京 | ユーザ健康維持活性化支援及び見守りシステム |
KR20110095533A (ko) * | 2010-02-19 | 2011-08-25 | 모빌토크(주) | 로봇과 디스플레이장치를 이용한 교육방법 |
DE102010023914A1 (de) * | 2010-03-02 | 2011-09-08 | Marcel Reese | Verfahren und Vorrichtung zur Steuerung eines Statthalters |
US20120198353A1 (en) * | 2011-01-28 | 2012-08-02 | Microsoft Corporation | Transferring data using a physical gesture |
-
2011
- 2011-10-12 KR KR1020110104249A patent/KR101317383B1/ko not_active IP Right Cessation
-
2012
- 2012-08-17 WO PCT/KR2012/006543 patent/WO2013055024A1/ko active Application Filing
- 2012-08-17 US US14/350,760 patent/US20140258192A1/en not_active Abandoned
- 2012-08-17 EP EP12839556.3A patent/EP2767967A4/en not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006320424A (ja) * | 2005-05-17 | 2006-11-30 | Tama Tlo Kk | 動作教示装置とその方法 |
KR100772497B1 (ko) * | 2006-10-09 | 2007-11-01 | 박찬애 | 골프 클리닉 시스템 및 그것의 운용방법 |
KR20120004279A (ko) * | 2010-07-06 | 2012-01-12 | 김민한 | 착용형 인지력 향상 시스템 |
KR101036429B1 (ko) * | 2010-08-24 | 2011-05-23 | 윤상범 | 가상현실 무도 수련장치 및 방법, 그 기록 매체 |
Also Published As
Publication number | Publication date |
---|---|
EP2767967A4 (en) | 2015-08-12 |
EP2767967A1 (en) | 2014-08-20 |
WO2013055024A1 (ko) | 2013-04-18 |
KR20130039585A (ko) | 2013-04-22 |
US20140258192A1 (en) | 2014-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101317383B1 (ko) | 로봇을 이용한 인지 능력 훈련 장치 및 그 방법 | |
Hansberger et al. | Dispelling the gorilla arm syndrome: the viability of prolonged gesture interactions | |
US10058773B2 (en) | Man-machine interaction controlling method and applications thereof | |
González-Ortega et al. | A Kinect-based system for cognitive rehabilitation exercises monitoring | |
CN105027030B (zh) | 用于三维成像、映射、建网和界面连接的无线腕式计算和控制设备和方法 | |
CN103246351B (zh) | 一种用户交互系统和方法 | |
Gamage et al. | So predictable! continuous 3d hand trajectory prediction in virtual reality | |
Wang et al. | Feature evaluation of upper limb exercise rehabilitation interactive system based on kinect | |
WO2023087954A1 (zh) | 一种脑卒中患者上肢康复训练系统 | |
US20230116624A1 (en) | Methods and systems for assisted fitness | |
Hu et al. | Stereopilot: A wearable target location system for blind and visually impaired using spatial audio rendering | |
Karime et al. | A fuzzy-based adaptive rehabilitation framework for home-based wrist training | |
Riecke et al. | 3D user interfaces for virtual reality and games: 3D selection, manipulation, and spatial navigation | |
Semblantes et al. | Visual feedback framework for rehabilitation of stroke patients | |
Vogiatzaki et al. | Serious games for stroke rehabilitation employing immersive user interfaces in 3D virtual environment | |
US9000899B2 (en) | Body-worn device for dance simulation | |
CN112230777A (zh) | 一种基于非接触式交互的认知训练系统 | |
Yun et al. | Animation fidelity in self-avatars: impact on user performance and sense of agency | |
Obukhov et al. | Control of adaptive running platform based on machine vision technologies and neural networks | |
US11998798B2 (en) | Virtual guided fitness routines for augmented reality experiences | |
BenSiSaid et al. | Tracking rower motion without on-body sensors using an instrumented machine and an artificial neural network | |
Tang et al. | Collaborative rehabilitation support system: a comprehensive solution for everyday rehab | |
KR102510048B1 (ko) | 운동 동작에 따른 증강현실 데이터를 출력하는 전자 장치의 제어 방법 | |
Vogiatzaki et al. | Rehabilitation after stroke using immersive user interfaces in 3D virtual and augmented gaming environments | |
KR102589169B1 (ko) | 동영상을 이용한 골프 레슨 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20161004 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20170928 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |