KR20220119237A - 인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법 및 장치 - Google Patents

인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법 및 장치 Download PDF

Info

Publication number
KR20220119237A
KR20220119237A KR1020210022756A KR20210022756A KR20220119237A KR 20220119237 A KR20220119237 A KR 20220119237A KR 1020210022756 A KR1020210022756 A KR 1020210022756A KR 20210022756 A KR20210022756 A KR 20210022756A KR 20220119237 A KR20220119237 A KR 20220119237A
Authority
KR
South Korea
Prior art keywords
user
artificial intelligence
intelligence robot
psychological state
psychological
Prior art date
Application number
KR1020210022756A
Other languages
English (en)
Inventor
박병선
박종건
Original Assignee
강릉원주대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 강릉원주대학교산학협력단 filed Critical 강릉원주대학교산학협력단
Priority to KR1020210022756A priority Critical patent/KR20220119237A/ko
Publication of KR20220119237A publication Critical patent/KR20220119237A/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/10ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to drugs or medications, e.g. for ensuring correct administration to patients
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Biomedical Technology (AREA)
  • Psychiatry (AREA)
  • Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Chemical & Material Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Physics & Mathematics (AREA)
  • Medicinal Chemistry (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Manipulator (AREA)

Abstract

본 발명의 일 실시 예에 따른 인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법은 인공지능 로봇이 사용자의 일상 생활 정보를 획득하는 단계, 인공지능 로봇이 사용자의 심리 측정 결과 및 일상 생활 정보에 기초하여 사용자의 심리 상태를 평가하는 단계, 및 인공지능 로봇이 사용자의 심리 상태의 판단 결과에 따른 인터렉션을 수행하는 단계를 포함한다.

Description

인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법 및 장치{METHOD AND APPARATUS FOR EVALUATING PSYCHOLOGICAL STATE OF USER USING ARTIFICIAL INTELLIGENCE ROBOT}
본 발명은 인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법 및 장치에 관한 것이다. 보다 자세하게는, 사용자의 일상 생활 정보에 기반하여 사용자의 심리 상태에 따른 인터렉션을 수행함으로써 사용자에게 자신의 심리상태를 안내할 수 있는 사용자 심리 상태를 평가하는 방법 및 장치에 관한 것이다.
최근의 로봇 개발은 이전과 같이 단순히 기계적인 컴퓨팅 장치가 아니라, 사람의 상태를 지속적으로 모니터링하고 모니터링된 상태에 따라 즉각적인 대응방안을 제공해줄 수 있는 로봇으로서의 개발로 그 방향이 재설정되고 있으며, 이러한 로봇은 인간과 상호 작용(Interaction)한다 하여 인터렉션 로봇 또는 인공지능 로봇으로 불리고 있다.
그러나 현재 출시되어 있는 인공지능 로봇이 수행하는 상호 작용은 사용자로부터 입력을 수신하고 그에 따른 응답을 출력하는 단순하고 수동적인 동작이 대부분인바, 사용자의 현재 상태를 반영하여 종합적인 상황에 따라 적절한 대응책을 제공하기에는 무리가 있으며, 단순한 컴퓨팅 장치로 보는 것이 적절하다.
한편, 최근의 인공지능 로봇 개발은 일반 사용자뿐만 아니라, 노인이나 장애인, 코로나 시대에 정신 건강에 문제가 있는 사람들, 자폐증, 아동 등과 같이 심리적인 도움이 필요한 사용자의 심리 상태에 대한 정확한 평가를 통해 최적화된 서비스를 제공할 수 있는 진정한 의미의 상호 작용을 구현하는 것을 매우 중요한 목표로 설정하고 있다.
여기서, 최적화된 서비스와 관련하여 콘텐츠 제공을 대표적으로 들 수 있는바, 제공하고자 하는 콘텐츠의 종류에 제한을 두지 않는 상태에서, 인공지능 로봇이 사용자의 요청에 따른 콘텐츠를 제공하거나, 사용자의 심리 상태에 따른 콘텐츠를 먼저 제공하고, 그에 따른 후속적인 인터렉션까지 수행할 수 있도록 구현한다면 사용자에게 최적화된 서비스 제공과 더불어 사용자의 심리 상태에 따른 효과적인 대응책까지 제시해 줄 수 있을 것이다.
따라서 다양한 사용자의 심리 상태에 대한 정확한 평가를 통해 효과적인 대응책에 해당하는 인터렉션을 수행할 수 있는, 새로운 개념의 인공지능 로봇이 요구된다. 본 발명은 이를 해결하기 위해 제안된 것이다.
대한민국 공개특허공보 제 10-2018-0079825호(2018.07.11)
본 발명이 해결하고자 하는 기술적 과제는 사용자의 심리 상태를 지속적으로 평가하는 인터렉션을 통해 일반 사용자뿐만 아니라, 노인이나 장애인, 코로나 시대에 정신 건강에 문제가 있는 사람들, 자폐증, 아동 등과 같이 심리적인 도움이 필요한 사용자에게 즉각적인 대응책으로서의 인터렉션을 제공할 수 있는 인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법 및 장치를 제공하는 것이다.
본 발명의 해결하고자 하는 또 다른 기술적 과제는 사용자에게 필요한 적절한 대응책으로서 콘텐츠를 인터렉션을 통해 제공하고, 그에 따른 후속적인 인터렉션까지 수행함으로써 사용자에게 심리적 해결방안을 제공할 수 있는 인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법 및 장치를 제공하는 것이다.
본 발명이 해결하고자 하는 또 다른 기술적 과제는 인공지능 로봇과 인터렉션을 수행하면서 사용자에 대한 심리 평가가 자연스럽게 이루어질 수 있는 인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법 및 장치를 제공하는 것이다.
본 발명이 해결하고자 하는 또 다른 기술적 과제는 과학적이고 정확한 심리 상태 평가 결과를 제공할 수 있는 인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법 및 장치를 제공하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상기 기술적 과제를 달성하기 위한 본 발명의 일 실시 예에 따른 인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법은 (a) 인공지능 로봇이 사용자의 일상 생활 정보를 획득하는 단계, (b) 상기 인공지능 로봇이 상기 획득한 사용자의 일상 생활 정보에 기초하여 사용자의 심리 상태를 평가하는 단계 및 (c) 상기 인공지능 로봇이 상기 평가한 사용자의 심리 상태 판단 결과에 따른 인터렉션을 수행하는 단계를 포함한다.
일 실시 예에 따르면, 상기 (a)단계 이전에, (a') 상기 인공지능 로봇이 상기 사용자의 심리 측정 결과를 불러오는 단계를 더 포함하고, 이 경우 상기 (b)단계는, (b') 상기 인공지능 로봇이 상기 획득한 사용자의 일상 생활 정보와 상기 불러온 심리 측정 결과에 기초하여 사용자의 심리 상태를 평가하는 단계일 수 있다.
일 실시 예에 따르면, 상기 심리 측정 결과는, 오프라인 방식 또는 온라인 방식을 통해 상기 사용자 또는 관련 기관으로부터 별도로 획득한 심리 측정 결과 데이터일 수 있다.
일 실시 예에 따르면, 상기 (a) 단계는, (a-1) 상기 인공지능 로봇이 사용자의 환경 정보를 획득하는 단계를 더 포함할 수 있다.
일 실시 예에 따르면, 상기 (a-1) 단계는, 상기 인공지능 로봇이 밝기 정보를 감지하거나, 상기 사용자 외 사람을 감지하여 상기 사용자의 환경 정보를 획득하는 것일 수 있다.
일 실시 예에 따르면, 상기 (a) 단계는, (a-2) 상기 인공지능 로봇이 상기 사용자의 인공지능 로봇에 대한 활용 정보를 획득하는 단계를 더 포함할 수 있다.
일 실시 예에 따르면, 상기 (a-2) 단계는, 상기 인공지능 로봇을 통해 이용한 서비스에 대한 정보를 감지하거나, 상기 인공지능 로봇의 활용 빈도 또는 활용 시간을 감지하여 상기 사용자의 인공지능 로봇에 대한 활용 정보를 획득하는 것일 수 있다.
일 실시 예에 따르면, 상기 (a) 단계는, (a-3) 상기 인공지능 로봇이 상기 사용자의 심리 척도 측정 정보를 획득하는 단계를 더 포함할 수 있다.
일 실시 예에 따르면, 상기 (a-3) 단계는, 복수 개의 공지된 심리 상태 측정 문항 세트 중 상기 인공지능 로봇이 파악한 상기 사용자의 연령에 대응되는 심리 상태 측정 문항 세트를 출력하고 이에 대한 답변을 수신하여 상기 사용자의 심리 척도 측정 정보를 획득하는 것일 수 있다.
일 실시 예에 따르면, 상기 (c) 단계의 인터렉션은, 상기 사용자의 심리 상태의 판단 결과에 따라 미리 설정된 번호 또는 인터넷 주소로 전화를 걸거나, 상기 번호 또는 인터넷 주소로 메시지를 송신하거나, 미리 설정된 단말과 네트워크 연결을 수행하는 인터렉션일 수 있다.
상기와 같은 본 발명에 따르면, 인공지능 로봇이 사용자로부터 획득한 일상 생활 정보 그리고 경우에 따라 이와 더불어 사용자로부터 직접 입력 받은 심리 측정 결과에 기초하여 사용자의 심리 상태를 평가하고, 그에 따른 인터렉션을 제공함으로써 사용자의 현재 상황에 적합한 대응책을 제공해 줄 수 있다 는 효과가 있다.
또한, 평가한 심리 상태에 따른 콘텐츠를 매칭하여 제공할 수 있으므로 사용자인 인간을 전적으로 이해하면서 실시간으로 코칭해주는 보호자가 바로 옆에 있는 것 같은 심리적인 안정감을 제공할 수 있다는 효과가 있다.
또한, 인공지능 로봇과 인터렉션을 수행하면서 사용자의 심리 평가가 자연스럽게 이루어지기 때문에 심리 평가를 위해 다른 사람이 나를 평가한다는 부담감을 감소시킬 수 있다는 효과가 있다.
또한, 단순히 개인의 진술과 문진에 의해서만 이루어지던 심리 상태 평가에서 더 나아가, 사용자의 일상 생활 정보까지 이용하여 심리 상태를 평가하는바, 보다 과학적이고 정확한 심리 상태 평가가 이루어질 수 있다는 효과가 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.
도 1은 본 발명의 일 실시 예에 따른 인공지능 로봇을 예시적으로 도시한 도면이다.
도 2는 본 발명의 일 실시 예에 따른 인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법의 순서도를 도시한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 인터렉션 로봇의 눈에 카메라 센서가 설치된 경우, 사용자의 환경 정보를 획득하기 위한 식별 표지로서 사람, 또는 사람 주변의 환경을 인식하는 모습이 예시적으로 도시한 도면이다.
도 4는 본 발명의 일 실시 예에 따른 인공지능 로봇이 사용자의 심리 상태를 평가하는 구체적 방법의 순서도이다.
도 5는 본 발명의 일 실시 예에 따른 인공지능 로봇이 불러오는 사용자의 심리 측정 결과의 예시도이다.
도 6은 본 발명의 일 실시 예에 따른 인공지능 로봇을 통해 획득한 사용자의 일상 생활 정보의 예시도이다.
도 7 및 도 8은 본 발명의 일 실시 예에 따른 인공지능 로봇이 수행하는 다양한 인터렉션을 나타내는 예시도이다.
도 9는 본 발명의 일 실시 예에 따른 인공지능 로봇의 제어 서버의 구성을 도시한 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 일 실시 예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 일 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 일 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 일 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다.
또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 일 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.
그에 따라, 이하의 명세서에서 사용하는 "업체"는 영리 또는 비영리 사업을 운영하는 사익 또는 공익 업체를 불문하며, "시설"은 이들 업체가 운영하는 모든 시설로 규정하여 설명하도록 한다.
한편, 명세서에서 사용되는 "포함한다 (comprises)" 및/또는 "포함하는 (comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
이하, 본 발명에 대하여 첨부된 도면에 따라 보다 상세히 설명한다.
도 1은 본 발명의 일 실시 예에 따른 인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법의 대상이 되는 인공지능 로봇(100)을 예시적으로 도시한 도면이다.
그러나 이는 본 발명의 목적을 달성하기 위한 바람직한 일 실시 예일 뿐이며, 필요에 따라 일부 구성이 추가되거나 삭제될 수 있고, 어느 한 구성이 수행하는 역할을 다른 구성이 함께 수행할 수도 있음은 물론이다.
본 발명의 일 실시 예에 따른 인공지능 로봇(100)은 바디부(110), 헤드부(120), 제 1 구동부(130) 및 제 2 구동부(140)를 포함할 수 있으며, 기타 본 발명의 일 실시 예에 따른 인공지능 로봇(100)의 구동을 위해 필요한 부가적인 구성들 역시 더 포함할 수 있다.
바디부(110)는 본 발명의 일 실시 예에 따른 인공지능 로봇(100)의 주요 부품들, 예를 들어 CPU(미도시), 배터리(미도시), 네트워크 모듈(미도시) 등과 같은 부품들이 내부에 실장 또는 기타 다른 부품들이 외부에 연결되는 중심 구성으로서, 소정 정보의 텍스트를 출력하는 디스플레이부(115), 음성을 출력하는 스피커부(117) 및 사용자의 음성이나 주변 소리를 수신하는 마이크부(미도시)를 더 포함할 수 있다.
디스플레이부(115)는 일종의 액정 표시 장치로 볼 수 있으며, 소정 정보의 텍스트, 이미지 및 동영상 중 어느 하나 이상이 출력될 수 있다. 여기서 소정 정보는 통신 상태 강도 정보, 배터리 잔량 정보, 무선 인터넷 ON/OFF 정보 등과 같은 본 발명의 일 실시 예에 따른 인공지능 로봇(100)의 상태 정보뿐만 아니라, 사용자의 심리 상태 정보 및 후술할 스피커부(117)를 통해 인공지능 로봇(100)이 출력하는 음성을 텍스트로 변환한 정보까지 해당될 수 있다. 예를 들어, 인공지능 로봇(100)이 사용자의 심리 상태를 평가한 후, 사용자의 심리가 "불안함"이라면, 이에 대한 텍스트가 "현재 심리 상태: 불안함"으로, 사용자가 인공지능 로봇(100)을 통해 기상 알람(Alarm)을 설정하였다면, 이에 대한 텍스트가 "오전 7:00 기상"으로 디스플레이부(115)에 출력될 수 있다.
또한 디스플레이부(115)는 네트워크 모듈(미도시)을 통해 인공지능 로봇(100)이 보호자 등과 같은 타인의 단말 또는 심리 전문 기관의 단말과 연결된 경우, 타인의 단말 또는 심리 전문 기관(의료 기관을 포함함)의 단말로부터 송신되는 영상을 출력할 수도 있다. 예를 들어, 사용자의 심리가 "불안함"이라면, 디스플레이부(115)는 심리 전문 기관의 단말로부터 송신되는 전문가의 통화 영상을 출력할 수 있다.
이러한 디스플레이부(115)에 출력되는 텍스트는 앞서 설명한 정보 중 어느 하나가 반복하여 출력될 수도 있으나, 복수 개의 정보가 번갈아가며 출력되거나, 특정 정보가 디폴트 설정되어 출력될 수도 있다. 예를 들어, 통신 상태 강도 정보, 배터리 잔량 정보, 무선 인터넷 ON/OFF 정보 등과 같은 인공지능 로봇(100)의 상태 정보는 디스플레이부(115) 상단 또는 하단에 작은 텍스트로 디폴트 설정되어 지속적으로 출력되고, 기타 다른 정보들이 번갈아가며 출력될 수 있다.
한편, 디스플레이부(115)는 이미지 및 동영상 중 어느 하나 이상을 출력할 수 있다고 한바, 이 경우 디스플레이부(115)는 시안성 향상을 위해 텍스트만 출력하는 경우보다 고해상도임과 동시에 큰 사이즈의 액정 표시 장치로 구현하는 것이 바람직하다고 할 것이며, 도 1의 디스플레이부(115)는 예시적인 것으로 보아야 할 것이다.
스피커부(117)는 음성을 출력한다. 여기서 음성은 사용자와 인터렉션을 통해 응답하고자 하는 본 발명의 일 실시 예에 따른 인공지능 로봇(100)의 출력 중 청각적인 정보에 해당하는 것으로써, 사용자의 단말(200)에 설치된 인공지능 로봇(100) 전용 어플리케이션(미도시)를 통해 음성의 종류를 다양하게 설정할 수 있다.
예를 들어, 스피커부(117)를 통해 출력하는 음성의 종류를 남성 목소리, 여성 목소리, 성인 목소리 및 아동 목소리 등과 같이 다양한 목소리 중 어느 하나로 선택할 수 있으며, 한국어, 영어, 일본어 및 불어 등과 같이 언어의 종류까지 선택할 수 있다.
한편, 스피커부(117)가 음성을 출력하기는 하나, 통상적인 스피커가 수행하는 역할, 예를 들어 보편적인 소리 출력을 수행하지 않는 것이 아니며, 이 역시 동일하게 수행할 수 있다. 예를 들어, 사용자가 인공지능 로봇(100)을 통해 음악을 감상하고 싶은 경우, 스피커부(117)를 통해 음악을 출력할 수 있음은 물론이며, 디스플레이부(115)를 통해 동영상을 출력하는 경우, 해당 동영상과 동기화되는 소리는 스피커부(117)를 통해 출력될 수 있다.
또한 스피커부(117)는 네트워크 모듈(미도시)을 통해 인공지능 로봇(100)이 보호자 등과 같은 타인의 단말 또는 심리 전문 기관의 단말과 연결된 경우, 타인의 단말 또는 심리 전문 기관(의료 기관을 포함함)의 단말로부터 송신되는 음성을 출력할 수도 있다.
마이크부(미도시)는 사용자의 음성이나 주변 소리, 더 나아가 후술할 피드백 중 음성을 수신한다. 여기서 사용자의 음성이나 주변 소리는 사용자와의 인터렉션에 있어서 사용자 입력으로 취급되는 중요한 정보이기에, 마이크부(미도시)가 배치되는 위치는 사용자의 음성이나 주변 소리를 수신하는데 방해되는 요소가 없는 위치에 배치하는 것이 바람직하다. 예를 들어, 도 1에 도시된 바디부(110) 전면에 형성된 스피커부(117)의 홀(Hole) 바로 후면에 배치한다면, 사용자의 음성이나 주변 소리를 직접적으로 수신할 수 있을 것이다.
네트워크 모듈(미도시)를 통해 인공지능 단말(100)과 보호자 등과 같은 타인의 단말 또는 심리 전문 기관의 단말이 연결된 경우, 마이크부(미도시)에 의해 수신된 사용자의 음성은 인공지능 로봇(100)이 타인의 단말 또는 심리 전문 기관의 단말에 전달될 수 있다.
한편, 마이크부(미도시)는 스피커부(117)와 별도로 배치된 독립된 구성이 아니라, 스피커부(117)와 일체로 형성할 수도 있다. 이 경우, 앞서 설명한 마이크부(미도시)가 배치되는 위치에 대한 사항은 고려할 필요가 없을 것이며, 바디부(110) 내부의 공간 활용성 역시 양호해질 수 있을 것이다.
더 나아가 바디부(110)는 후술할 식별 표지의 인식, 인터렉션을 수행하기 위한 카메라 센서(미도시), 적외선 센서(미도시), 압력 센서(미도시), 터치 센서(미도시), 조도 센서(미도시) 등과 같은 공지된 센서들을 더 포함할 수 있다.
헤드부(120)는 본 발명의 일 실시 예에 따른 인공지능 로봇(100)의 머리가 되는 구성으로서, 다양한 형상으로 구현할 수 있다.
예를 들어, 도 1에는 사각형 형상의 헤드부(120)가 2개의 원 형상의 눈과 1개의 반달 형상의 입을 포함하는 것으로 도시되어 있으나, 이는 예시적인 것에 불과하며, 헤드부(120) 자체의 형상, 눈 및 입의 형상을 상이하게 하여 구현할 수도 있으며, 눈 및 입 이외에 부가적인 구성, 예를 들어, 코 및 귀 등과 같은 구성까지 함께 구현할 수 있음은 물론이다.
한편, 헤드부(120)는 사용자와 본 발명의 일 실시 예에 따른 인공지능 로봇(100) 사이에서 이루어지는 감정적인 교감의 측면에서 매우 중요한바, 이는 인간 사이의 대화에서 그 중요성을 유추해볼 수 있다. 가족 사이에서, 친구 사이에서, 업무 적인 관계가 있는 사이 모두를 포함하는 인간과 인간 사이에서 대화를 진행할 때, 감정적인 교감을 이룰 수 있는 가장 좋은 방법은 서로의 눈을 보며 대화를 하는 것이다. 이는 인공지능 로봇(100)에도 동일하게 적용할 수 있는바, 본 발명의 일 실시 예에 따른 인공지능 로봇(100)의 헤드부(120)가 포함하는 2개의 눈을 몰입도 있게 구현하고, 특이성 있는 제어 방법을 적용함으로써 실제 인간과 대화하는 느낌을 제공할 수 있고, 결과적으로 사용자와 감정적인 교감이 용이하게 이루어질 수 있을 것이다. 이는 발광부(125)에 대한 것인바, 이이 대한 자세한 설명은 후술하도록 한다.
헤드부(120)가 포함하는 2개의 눈 각각에는 카메라 센서(미도시), 적외선 센서(미도시) 및 비전 센서(미도시) 중 어느 하나 이상을 형성할 수 있는바, 시각적인 기능을 수행하는 이들 센서와 눈을 매칭함으로써 본 발명의 일 실시 예에 따른 인공지능 로봇(100)과 인터렉션하는 사용자의 몰입도를 향상시킬 수 있을 것이며, 눈은 인공지능 로봇(100)의 신장을 기준으로 가장 높은 위치에 배치된 구성이기에 센서들의 시각적인 범위의 측면에서도 장점이 있다 할 것이다.
또한, 도시되지 않았으나 헤드부(120)가 포함하는 2개의 눈 중 적어도 어느 하나에는 조도를 감지하는 조도 센서가 더 포함될 수도 있다. 조도 센서는 사용자의 일상 생활 정보로서 인공지능 로봇(100)이 위치한 공간의 밝기 정보를 획득할 수 있다.
한편, 도 1에 도시된 사각형 형상의 헤드부(120)는 1개의 반달 형상의 입을 포함하고 있는바, 입은 의사소통을 위한 소리를 내는 기관이기 때문에 앞서 바디부(110)에 대한 설명에서 언급한 스피커부(117)를 바디부(110)가 아니라 헤드부(120)의 입에 형성할 수도 있다. 이 경우, 스피커부(117)가 출력하는 음성에 대응되도록 입을 움직이게 구현하여 실제 인간과 대화하는 느낌을 제공할 수 있고, 결과적으로 사용자와 감정적인 교감이 용이하게 이루어질 수 있을 것이다.
스피커부(117)뿐만 아니라 헤드부(120)의 입에 카메라 센서(미도시), 적외선 센서(미도시), 비전 센서(미도시), 조도 센서(미도시) 등을 형성할 수도 있으며, 이 역시 앞서 눈에 형성한 경우와 유사한 효과를 얻을 수 있을 것이므로 중복 서술을 방지하기 위해 자세한 설명은 생략하도록 한다.
제 1 구동부(130) 및 제 2 구동부(140)는 본 발명의 일 실시 예에 따른 인공지능 로봇(100)의 동적인 구동을 담당한다.
보다 구체적으로, 제 1 구동부(130)는 본 발명의 일 실시 예에 따른 인공지능 로봇(100)의 팔 역할을, 제 2 구동부(140)는 다리 역할을 담당하며, 제 1 구동부(130) 및 제 2 구동부(140) 모두 사용자와 감정적인 교감이 용이하게 이루어질 수 있도록 이바지하는바, 이이 대한 자세한 설명은 후술하도록 한다.
한편, 도 1에는 제 1 구동부(130) 및 제 2 구동부(140)가 모두 2단으로 구현된 모습이 도시되어 있으나, 이는 예시적인 것에 불과하며, 3단 이상으로 구현함으로써 본 발명의 일 실시 예에 따른 인공지능 로봇(100)의 동작에 현실감을 부여할 수 있을 것이나, 이는 어디까지나 선택 사항이라 할 것이다.
지금까지 본 발명의 일 실시 예에 따른 인공지능 로봇(100)이 포함하는 구성을 도 1을 참조하며 설명하였다. 그러나 이는 모두 예시적인 것이며, 사용자의 심리 상태를 실시간으로 평가하면서 사용자와 감정적인 교감이 용이하게 이루어짐과 동시에 콘텐츠 제공이 효과적으로 이루어질 수 있도록 인공지능 로봇(100)의 구성을 변경 또는 개량할 수 있음은 물론이고, 도 1에 예시적으로 도시한 인공지능 로봇(100)뿐만 아니라 인터렉션 기능을 제공하는 인공지능 로봇이라면 종류를 불문하고 본 발명의 일 실시 예에 따른 인공지능 로봇(100)으로 활용할 수 있다 할 것이다.
이하, 본 발명의 일 실시 예에 따른 인공지능 로봇(100)을 기초로, 본 발명의 일 실시 예에 따른 인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법에 대하여 도 2 내지 도 8을 참조하여 설명하도록 한다.
도 2는 본 발명의 일 실시 예에 따른 인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법의 순서도를 도시한 도면이다.
이는 본 발명의 목적을 달성함에 있어서 바람직한 일 실시 예일뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있고, 더 나아가 어느 한 단계가 다른 단계에 포함될 수도 있음은 물론이다.
한편, 각 단계는 앞서 본 발명의 일 실시 예에 따른 인공지능 로봇(100)이 포함하는 구성인 바디부(110), 디스플레이부(115), 스피커부(117), 마이크부(미도시), 헤드부(120), 제 1 구동부(130) 및 제 2 구동부(140) 중 어느 하나 이상에 의해 수행되나, 설명의 편의를 위해 이하 인공지능 로봇(100)에 의해 수행되는 것으로 설명을 이어가도록 한다.
우선, 인공지능 로봇(100)이 사용자의 일상 생활 정보를 획득한다(S210).
여기서 일상 생활 정보는 사용자와 관련된 모든 정보를 포함하는 최광의 개념인바, 그에 따라 사용자의 일상 생활 정보를 획득하는 S210 단계는 사용자의 환경 정보를 획득하는 단계(S210-1)를 포함할 수 있다.
여기서 사용자의 환경 정보는 인공지능 로봇(100)이 다양한 종류의 식별 표지를 인식함으로써 획득할 수 있는바, 식별 표지는 인식 가능한 모든 대상을 포함하는 최광의의 개념으로서 시각적으로 확인 가능한 대상과 확인 불가능한 대상 모두를 포함할 수 있다.
식별 표지는 보다 구체적으로 시각적으로 확인 가능한 대상으로서 사람, 사물, 이미지, 동영상, 텍스트, 바코드, QR 코드, RFID 태그, 조도, 밝기 등일 수 있으며, 시각적으로 확인 불가능한 대상으로서 소리, 냄새, 네트워크 연결 요청 신호 등일 수 있으며, 이와 더불어 다양한 대상들을 더 포함할 수 있음은 물론이다.
이러한 식별 표지는 인식되는 대상이기에, 본 발명의 일 실시 예에 따른 인공지능 로봇(100)이 이들 대상을 인식할 수 있는 센서(미도시) 등을 포함하고 있다면 그 종류에는 제한이 없다. 예를 들어, 사람, 사물, 이미지, 동영상, 텍스트, 바코드, QR 코드, 조도, 밝기 등은 카메라 센서(미도시)가, RFID 태그는 RFID 칩(미도시)이, 소리는 마이크(미도시)가, 향기는 냄새 감지 센서(미도시)가, 네트워크 연결 요청 신호는 네트워크 모듈(미도시)가 인식할 수 있으므로 이들이 본 발명의 일 실시 예에 따른 인공지능 로봇(100)에 포함되어 있다면 인식은 유효하게 수행될 수 있는 것이며, 이하의 설명에선 이를 전제로 설명을 이어가도록 한다.
도 3은 본 발명의 일 실시 예에 따른 인터렉션 로봇의 눈에 카메라 센서가 설치된 경우, 환경 정보를 획득하기 위한 식별 표지로서 사람 또는 사람 주변의 환경을 인식하는 모습이 예시적으로 도시한 도면이다.
도 3을 참조하면, 본 발명의 일 실시 예에 따른 인공지능 로봇(100)의 눈에 카메라 센서(미도시)가 설치된 경우, 식별 표지로서 사람, 또는 사람 주변의 환경(예를 들어, 소파, 식물, 조명 등)을 인식하는 모습이 예시적으로 도시되어 있는 바, 식별 표지는 인공지능 로봇(100)이 인식 가능한 범위 이내에 배치되어야 할 것이고 인식시키고자 하는 사용자의 의사가 반영된 것으로 볼 수 있다.
한편, 이와 별론으로, 본 발명의 일 실시 예에 따른 인공지능 로봇(100)이 카메라 센서(미도시) 또는 적외선 센서(미도시) 등을 통해 특정 공간 내에서 충돌 없이 자율 주행을 수행하는 경우, 인공지능 로봇(100) 스스로 식별 표지를 탐색하여 인식할 수도 있는바, 예를 들어, 인공지능 로봇(100)이 가정 내에서 자율 주행을 수행하다가 인식 가능한 범위 내에서 A라는 노래를 인식한 경우, 이를 식별 표지로 간주하여 S210 단계를 수행할 수도 있으며, 이는 사용자의 의사보다는 사용자의 실생활에 최적화된 인터렉션으로 볼 수 있을 것이다.
S210 단계에서 사용자의 일상 생활 정보를 획득하는 것은 인공지능 로봇(100)의 활용 정보를 획득하는 단계(S210-2)를 포함할 수 있다.
여기서 인공지능 로봇(100)의 활용 정보는 사용자가 인공지능 로봇(100)을 통해 어떤 서비스를 이용하였는지를 기록한 데이터, 예를 들어, 장르나 분위기 등에 따라 사용자의 심리 상태에 영향을 줄 수 있는 음악 중 어떠한 것을 청취하였는지, 심리 상태에 간접적으로 영향을 줄 수 있는 콘텐츠로서 이야기, 종료, 명상 등을 이용하였는지, 심리 상태와 더불어 건강과 기분에 까지 영향을 미칠 수 있는 댄스나 운동, 움직임 등이 얼마나 수행되었는지 등에 관한 것으로서, 인공지능 로봇(100)과 사용자가 인터렉션을 수행한 경우, 인터렉션의 모든 원인과 그 결과물이 될 수 있다.
또한, 인공지능 로봇(100)을 사용자가 ON/OFF 입력함으로써 인공지능 로봇(100)이 턴온되거나 턴오프된 경우 인공지능 로봇(100)은 사용자의 인공지능 로봇(100)의 활용 빈도 또는 활용 시간 등과 같은 활용 정보까지 일상 생활 정보로서 획득할 수도 있다.
더 나아가, 사용자의 일상 생활 정보를 획득하는 S210 단계는 사용자의 심리 척도 측정 정보를 획득하는 단계(S210-3)를 포함할 수 있다.
여기서 심리 척도 측정 정보는 인공지능 로봇(100)이 사용자의 마음건강, 우울, 불안, 자아 존중감과 관련된 질문들을 사용자에게 물은 경우 사용자로부터 획득한 각 질문 항목에 대한 답변 정보가 될 수 있는바, 이와 관련하여 인공지능 로봇(100)은 사용자의 일상 생활 정보를 획득하는 단계(S210) 이전에 인공지능 로봇(100)이 사용자의 심리 측정 결과를 불러오는 단계(S205)를 더 포함할 수 있다.
S205 단계는 보다 구체적으로 종이와 같은 오프라인 방식 또는 태블릿, 핸드폰 등을 활용한 온라인 방식 등을 통해 수행한 심리 측정 결과 데이터(예를 들어, 별도의 기관으로부터 획득한 excel 파일 형식의 심리 측정 결과, excel 파일 형식의 보호자의 사전 인터뷰 결과 등)를 사용자 또는 관련 기관으로부터 직접 입력 받거나 수신하는 것을 나타내며, 심리 측정 결과 데이터는 미리 설정된 하나 이상의 항목/질문에 대한 답변 정보를 담고 있을 수 있다.
이러한 S205 단계는 항상 요구되는 것보다는 인공지능 로봇(100)이 사용자에 대한 기본적인 정보를 보유하고 있지 않은 사용 초기 상태에서만 요구되는 것이 바람직한바, 이 경우는 사용자로부터 획득할 일상 생활 정보 자체가 존재하지 않기에 사용자가 기존에 수행한 심리 측정 결과를 직접적으로 불러옴으로써 심리 상태 평가의 품질과 신뢰도를 어느 정도 수준 이상까지 향상시킬 수 있기 때문이다.
다시 사용자의 심리 척도 측정 정보를 획득하는 단계에 대한 설명으로 돌아가면, 심리 척도 측정 항목은 예를 들어, "가끔 불을 지르고 싶은 충동이 있다" "집을 꾸민다면 OO색으로 꾸밀 것이다"와 같은 다양한 심리 상태를 판단하기 위한 어떠한 질문이 될 수 있다.
더 나아가 심리 척도 측정 정보는 인공지능 로봇(100)이 공지된 다양한 심리 상태 측정 문항을 출력하고, 사용자가 이에 대한 답변을 함으로써 획득할 수도 있는바, 예를 들어 10문항으로 구성된 마음건강 K-10(김용석, 2011, 한국어판 정신건강 선별도구(K10,K6)의 타당화 연구. 정신 건강과 사회복지, 37, 65-88), 10문항으로 구성된 자아존중감 RSES(Rosenberg, M (1965). Society and the adolescent self-image. Princeton, NJ: Princeton University Press.), 10문항으로 구성된 성인 우울 CES-D10-D(신서연 (2011). 한국어판 단축형 CES-D들의 타당성 연구. 서울대학교 대학원 석사학위논문), 11문항으로 구성된 청소년 우울 CES-DC-11(허만세, 이순희, 김영숙 (2017). 한국어판 CES-DC 11의 개발. 정신건강과 사회복지, 45(1), 255-285), 15문항으로 구성된 노인 우울 GDS-SF(Y. Jang , B. J. Small & W. E. Haley (2001) Cross-cultural comparability of the Geriatric Depression Scale: Comparison between older Koreans and older Americans, Aging & Mental Health, 5:1, 31-37), 7문항으로 구성된 불안 GAD-7(Spitzer R. L, Kroenke K, Williams J. B. W, Lφwe B (2006). A Brief Measure for Assessing Generalized Anxiety Disorder: The GAD-7. Arch Intern Med. 166(10), 1092-1097)등과 같이 공지된 심리 상태 측정 문항을 출력할 수 있을 것이며, 이뿐만 아니라 주기적인 크롤링을 통해 다양한 종류의 심리 상태 측정 문항을 광범위하게 수집할 수도 있을 것이다.
한편, 공지된 심리 상태 측정 문항을 출력함에 있어서 인공지능 로봇(100)이 파악한 사용자의 연령, 예를 들어 사용자가 유아에 해당하는 연령인 경우, 청소년에 해당하는 연령인 경우, 성인에 해당하는 연령인 경우, 노인에 해당하는 연령인 경우를 개별적으로 파악하여, 사용자의 연령에 최적화된 심리 상태 측정 문항을 출력할 수 있을 것이며, 어느 한 세트의 심리 상태 측정 문항을 출력하는 경우 이에 포함되는 모든 문항을 전부 출력하되, 일부만 출력하지 않음이 바람직하다 할 것이다. 이는 심리 상태 평가의 정확도를 향상시키기 위함인바, 공지된 심리 상태 측정 문항의 경우 이를 설계한 저자가 그에 따른 심리 상태 평가 알고리즘까지 설계해 놓음이 대부분이기 때문에 이를 그대로 준수함이 정확도의 측면에서 바람직하기 때문이다.
다시 도 2에 대한 설명으로 돌아가도록 한다.
사용자의 일상 생활 정보를 획득했다면, 인공지능 로봇(100)은 획득한 일상 생활 정보를 기초로 사용자의 심리 상태를 평가한다(S220).
도 4는 본 발명의 일 실시 예에 따른 인공지능 로봇(100)이 사용자의 심리 상태를 평가하는 구체적 방법의 순서도이고, 도 5는 인공지능 로봇이 불러오는 사용자의 심리 측정 결과의 예시도이며, 도 6은 인공지능 로봇을 통해 획득된 사용자의 일상 생활 정보의 예시도이다.
심리 상태를 평가하는 S220 단계는 사용자의 심리 상태 평가 결과를 구조화하는 단계(S220-1)를 포함할 수 있다.
도 5를 참조하면, 사용자의 심리 상태 평가 결과는 하나 이상의 항목/질문에 대한 답변 정보를 담고 있을 수 있고, 인공지능 로봇(100)은 사용자의 답변에 따라 대응되는 심리 상태를 매핑하여 저장할 수 있다.
보다 구체적으로, 심리 평가 항목 1에 대해서 답변 A, B가 있고, 사용자가 답변 A를 선택한 경우, 인공지능 로봇(100)은 답변 A에 대응되는 심리 상태로서 "불안함" 및 "싫어함"을 매핑시켜 저장할 수 있다.
여기서 심리 측정 항목은 인공지능 로봇(100)이 사용자로부터 획득한 모든 일상 생활 정보에 관한 것일 수 있는바, 예를 들어, 일상 생활 정보가 포함하는 사용자의 환경 정보에 관한 심리 측정 항목, 인공지능 로봇(100)의 활용 정보에 관한 심리 측정 항목, 사용자의 심리 척도 측정 정보에 관한 심리 측정 항목을 모두 포함할 수 있으며, 모든 항목에 대한 다양한 답변에 대응되는 심리 상태 전부가 매핑되어 있을 수 있다.
더 나아가, 인공지능 로봇(100)은 심리 측정 항목별로 각 심리 상태에 대한 가중치를 설정할 수 있다.
예를 들어, "불안함"과 "슬픔"의 범위에 대한 답변만을 획득하는 심리 평가 항목 2에 대해서 사용자가 답변 A를 선택한 경우 인공지능 로봇(100)은 "불안함"과 "슬픔"에 대해 답변 B에 비하여 높은 가중치를 부여할 수 있다.
다시 도 4를 참조하면, 심리 상태를 평가하는 S220 단계는 사용자의 심리 상태 평가 결과에 기반하여 사용자의 일상 생활 정보에 대응되는 사용자의 심리 상태를 학습하는 단계(S220-2) 및 사용자의 심리 상태의 학습 결과에 기초하여 사용자의 심리 상태를 재평가하는 단계(S220-3)을 더 포함할 수 있다.
사용자의 일상 생활 정보는 전술한 바와 같이 다양한 식별 표지 또는 인공지능 로봇(100)의 활용 정보에 기반하여 획득되는 것일 수 있고, 일상 생활 정보 또한 인공지능 로봇(100)에 의해 하나 이상의 항목 별로 구조화될 수 있다.
예를 들어, 도 6을 참조하면 일상 생활 정보의 제 1 항목이 "환경의 밝기"인 경우 식별 표지는 인공지능 로봇(100)이 조도 센서(미도시)로부터 획득한 조도일 수 있고, 조도의 강약에 따라 환경의 밝기가 점수화될 수 있다.
또 다른 예를 들어, 일상 생활 정보의 제 2 항목이 "사용자를 제외한 사람의 인지 빈도"인 경우 식별 표지는 사람이 될 수 있고, 사람을 식별하는 다양한 얼굴 인식 알고리즘 등이 적용되어 사용자를 제외한 사람의 인지 빈도가 점수화될 수 있다.
또 다른 예를 들어, 일상 생활 정보의 제 3 항목이 "사용자의 로봇 활용 빈도"인 경우 인공지능 로봇(100)의 활용 데이터는 미리 설정된 기간 동안의 사용자의 로봇 활용 빈도가 될 수 있고, 이 또한 점수화될 수 있다.
또 다른 예를 들어, 일상 생활 정보의 제 4 항목이 "사용자의 로봇 활용 시간"인 경우 인공지능 로봇(100)의 활용 데이터는 미리 설정된 기간 동안의 사용자의 로봇 활용 시간이 될 수 있고, 이 또한 점수화될 수 있다.
또 다른 예를 들어, 일상 생활 정보의 제 5 항목이 "식물의 인지 빈도"인 경우 식별 표지는 사물이 될 수 있고, 마찬가지로 CNN(Convolution neural network)과 같은 딥러닝 모델 등이 적용되어 등이 적용되어 식물의 공간 차지율이 점수화되어 저장될 수 있다.
이상의 예시 외에도 다양한 식별 표지 또는 인공지능 로봇(100)의 활용 데이터가 사용자의 심리 상태를 평가하기 위한 일상 생활 정보로서 활용될 수 있음은 물론이다.
한편, 인공지능 로봇(100)이 획득한 일상 생활 정보의 각 항목별 점수에 따라 특정 심리 상태(예를 들어, "슬픔")와 그 수준은 특정 분류 알고리즘에 따라 매핑되는 것이 가능하고, 이러한 분류 알고리즘은 수동으로 저장된 매핑 테이블도 해당될 수 있으나, 본 발명의 일 실시 예에 따른 인공지능 로봇(100)은 일상 생활 정보에 대응되는 심리 상태를 분류하는 알고리즘을 별도로 학습할 수도 있다.
심리 상태의 분류를 위해서는 다양한 분류 학습 알고리즘이 적용될 수 있으며, 의사결정트리, CART(classification and regression tree), C5.0 알고리즘, 회귀분석, Logistic 회귀분석, 베이지언 (Bayesian) 분류, SVM (Scalable Vector Machine), K-NN(k-nearest neighbor) 등이 다양한 분류 알고리즘이 이용될 수 있고, 이에 한정되지 아니한다.
예를 들어, 사용자의 심리 상태 측정 결과에서 "슬픔"과 "불안함"이 높게 나타나고 일상 생활 정보로서 "환경의 밝기"와 "사용자의 로봇 활용 빈도"에 대해 낮은 점수가 획득된 경우, "환경의 밝기" 및 "사용자의 로봇 활용 빈도"의 낮은 점수와 "슬픔"과 "불안함"이 높은 상관 관계를 갖도록 분류 알고리즘은 학습될 수 있으며, 추후 "환경의 밝기"와 "사용자의 로봇 활용 빈도"가 낮은 상황이 재현되었을 때 "슬픔"과 "불안함"이 높은 확률로 사용자의 심리 상태로서 평가될 수 있다.
다시 도 2에 대한 설명으로 돌아가도록 한다.
사용자의 심리 상태를 평가했다면, 인공지능 로봇(100)은 평가된 사용자의 심리 상태에 따른 인터렉션을 수행한다(S230).
도 7 및 도 8은 인공지능 로봇(100)이 수행하는 다양한 인터렉션을 나타내는 예시도인바, 여기서 인터렉션은 평가된 사용자의 심리 상태와 연동되는 그리고 종류에 제한이 없는 광범위한 인터렉션으로서 사용자의 심리 상태에 대응되는 콘텐츠의 출력, 사용자의 심리 상태에 대응되는 콘텐츠의 사용자의 단말(200)로의 전송, 콘텐츠에 대한 정보의 출력, 콘텐츠에 대한 정보의 사용자의 단말(200)로의 전송, 콘텐츠에 대한 정보에 따라 부여되는 감정에 매칭된 음성, 제스처 및 색상 중 어느 하나 이상의 출력, 사용자의 심리 상태에 대응되는 음성 출력 또는 사용자의 단말(200)로의 전송, 및 미리 설정된 번호 또는 인터넷 주소로의 전화 요청(예를 들어, 보호자 통화 걸기), 상기 번호 또는 인터넷 주소로의 메시지 전송(예를 들어, 보호자 또는 전문가 방문 요청 메시지), 및 미리 설정된 단말(예를 들어, 의료 기관의 컴퓨터)과의 네트워크 연결 중 어느 하나 이상일 수 있으며, 이와 더불어 사용자의 심리 상태에 대응되기만 한다면 그 종류에 제한은 없다 할 것이다. 이하, 인터렉션을 세부적으로 설명하도록 한다.
사용자의 심리 상태에 대응되는 콘텐츠의 출력은 예를 들어 심리 상태로서 "불안함"에 대해 가장 높은 점수가 획득된 경우, 도 7에 도시된 바와 같이 사용자에게 심리적 편안함을 줄 수 있는 동영상 콘텐츠의 제공이 될 수 있고, 이외에도 불안함을 해소할 수 있는 다양한 콘텐츠의 제공이 될 수 있다.
여기서 출력하는 콘텐츠는 종류의 제한이 없으나, 본 발명의 일 실시 예에 따른 인공지능 로봇(100)이 콘텐츠를 출력하는 것이기에, 디스플레이부(115), 스피커부(117), 제 1 구동부(130) 및 제 2 구동부(140) 중 어느 하나 이상을 이용하여 출력 가능한 이미지, 동영상, 텍스트, 소리, 제스처 등일 수 있으며, 해당 콘텐츠를 출력하면서 발광부(125)에 특정 색상의 빛이 함께 출력될 수 있다.
여기서 발광부(125)에 출력되는 특정 색상의 빛은 출력하는 콘텐츠에 부여된 심리 상태에 따라 상이해질 수도 있다.
더 나아가 도 8을 참조하면 인공지능 로봇(100)은 사용자의 평가된 심리 상태의 히스토리 데이터를 콘텐츠로서 제공하는 것도 가능하다. 예를 들어, 매일 주기적으로 인공지능 로봇(100)에 의해 심리 상태의 평가가 수행된 경우, 사용자의 요청에 따라 심리 상태의 패턴을 시각적으로 또는 청각적으로 제공하는 것이 가능하며, 사용자가 보고자 하는 심리 상태를 선택하면, 선택한 심리 상태에 따른 히스토리 데이터만을 별도로 제공할 수도 있다.
또한, 인공지능 로봇(100)은 사용자의 요청에 따라 제공하는 것뿐만 아니라, 사용자의 심리 상태가 긍정적인 상태로 호전되었을 경우 이를 알리고 사용자를 응원하기 위해 자동으로 심리 상태의 패턴을 시각적으로 또는 청각적으로 제공하거나 적절한 컨텐츠를 제공하는 것도 가능하며, 이와 반대로 사용자의 심리 상태가 부정적인 상태로 변경되었을 경우 이를 알리고 사용자의 심리 상태를 긍정적인 상태로 호전시키기 위해 자동으로 심리 상태의 패턴을 시각적으로 또는 청각적으로 제공하거나 적절한 컨텐츠를 제공하는 것도 가능하다 할 것이다.
더 나아가, 사용자의 평가된 심리 상태의 히스토리 데이터를 사용자의 과거 심리 상태의 히스토리 데이터와 비교하여 제공하거나 사용자와 동일/유사한 연령대 등과 같은 군의 타 평균의 데이터와 비교하여 제공하거나 어떠한 차이가 있는지를 별도로 제공할 수도 있다.
이상 설명하며 참조한 도 7 및 도 8은 도 1에 예시적으로 도시된
본 발명의 일 실시 예에 따른 인공지능 로봇(100)에 의해 수행되는 경우 디스플레이부(115)의 크기가 작아 사용자가 디스플레이부(115)를 통해 콘텐츠를 식별하기 어려울 수도 있음을 반영하여, 별도의 사용자의 단말(200)에 출력되는 것을 기준으로 도시하였으나, 이에 한정하는 것은 아니며, 디스플레이부(115)의 크기가 콘텐츠 식별에 어려움을 겪지 않을 정도로 확보가 된다면 인공지능 로봇(100)의 디스플레이부(15)를 통해 출력될 수 있음은 물론이라 할 것이다.
더 나아가, 별도로 도시하지는 않았으나 본 발명의 일 실시 예에 따른 인공지능 로봇(100)은 주기적으로 사용자에게 심리 상태 평가를 요청하거나, 장기간 동안 심리 상태 평가가 이뤄지지 않은 경우 사용자에게 심리 상태 평가를 요청하는 것도 가능하다. 이 경우 사용자로부터 획득한 일상 생활 정보 중, 인공지능 로봇(100)의 활용 정보를 이용할 수 있을 것이다.
한편, 심리 상태 평가 요청 결과, 사용자로부터 기존 심리 상태 평가 결과와 상이한 새로운 심리 상태 평가 결과를 획득한 경우 인공지능 로봇(100)은 도 2에 도시된 S210 내지 S230 단계를 다시 수행할 수 있으며, 이는 사용자 심리 상태의 히스토리 데이터로 제공될 수 있을 것이다.
지금까지 본 발명의 일 실시 예에 따른 인공지능 로봇(100)을 활용한 사용자 심리 상태를 평가하는 방법에 대하여 설명하였다. 본 발명에 따르면, 인공지능 로봇(100)이 사용자로부터 획득한 일상 생활 정보 그리고 경우에 따라 이와 더불어 사용자로부터 직접 입력 받은 심리 측정 결과에 기초하여 사용자의 심리 상태를 평가하고, 그에 따른 인터렉션을 제공함으로써 사용자의 현재 상황에 적합한 대응책을 제공해 줄 수 있다. 또한, 평가한 심리 상태에 따른 콘텐츠를 매칭하여 제공할 수 있으므로 사용자인 인간을 전적으로 이해하면서 실시간으로 코칭해주는 보호자가 바로 옆에 있는 것 같은 심리적인 안정감을 제공할 수 있다는 효과가 있다. 또한, 인공지능 로봇(100)과 인터렉션을 수행하면서 사용자의 심리 평가가 자연스럽게 이루어지기 때문에 심리 평가를 위해 다른 사람이 나를 평가한다는 부담감을 감소시킬 수 있다는 효과가 있다. 또한, 단순히 개인의 진술과 문진에 의해서만 이루어지던 심리 상태 평가에서 더 나아가, 사용자의 일상 생활 정보까지 이용하여 심리 상태를 평가하는바, 보다 과학적이고 정확한 심리 상태 평가가 이루어질 수 있다는 효과가 있다.
이상 설명한 본 발명의 일 실시 예에 따른 인공지능 로봇(100)을 활용한 사용자 심리 상태를 평가하는 방법은 동일한 기술적 특징을 모두 포함하는 인공지능 로봇(100)의 제어 서버(1000)로 구현할 수 있다. 도 9는 인공지능 로봇의 제어 서버(1000)의 구성을 도시한 도면이다.
인공지능 로봇의 제어 서버(1000)는 도 9에 도시된 바와 같이, 프로세서(10), 네트워크 인터페이스(20), 메모리(30), 스토리지(40) 및 이들을 연결하는 데이터 버스(50)를 포함할 수 있다.
프로세서(10)는 각 구성의 전반적인 동작을 제어한다. 프로세서(10)는 CPU(Central Processing Unit), MPU(Micro Processer Unit), MCU(Micro Controller Unit) 또는 본 발명이 속하는 기술 분야에서 널리 알려져 있는 형태의 프로세서 중 어느 하나일 수 있다. 아울러, 프로세서(10)는 본 발명의 일 실시 예에 따른 사용자 심리 상태를 평가하는 방법을 수행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다.
네트워크 인터페이스(20)는 인공지능 로봇(100)의 유무선 인터넷 통신을 지원하며, 그 밖의 공지의 통신 방식을 지원할 수도 있다. 따라서 네트워크 인터페이스(20)는 그에 따른 통신 모듈을 포함하여 구성될 수 있다.
메모리(30)는 각종 데이터, 명령 및/또는 정보를 저장하며, 본 발명의 제 2 및 제 3 일 실시 예에 따른 콘텐츠 인터렉션 방법을 수행하기 위해 스토리지(40)로부터 하나 이상의 컴퓨터 프로그램(41)을 로드할 수 있다. 도 1에서는 메모리(30)의 하나로 RAM을 도시하였으나 이와 더불어 다양한 저장 매체를 메모리(30)로 이용할 수 있음은 물론이다.
스토리지(40)는 하나 이상의 컴퓨터 프로그램(41) 및 대용량 네트워크 데이터(42)를 비임시적으로 저장할 수 있다. 이러한 스토리지(40)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 널리 알려져 있는 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체 중 어느 하나일 수 있다.
컴퓨터 프로그램(41)은 메모리(30)에 로드되어, 하나 이상의 프로세서(10)에 의해 (A) 사용자의 일상 생활 정보를 획득하는 오퍼레이션, (B) 상기 획득한 사용자의 일상 생활 정보에 기초하여 사용자의 심리 상태를 평가하는 오퍼레이션 및 (C) 상기 사용자의 심리 상태 판단 결과에 따른 인터렉션을 수행하는 오퍼레이션을 수행할 수 있다.
한편, 본 발명의 일 실시 예에 따른 인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법은 동일한 기술적 특징을 모두 포함하는 매체에 저장된 컴퓨터 프로그램으로 구현할 수도 있다. 중복 서술을 방지하기 위해 자세히 기재하지는 않았지만, 앞서 설명한 본 발명의 일 실시 예에 따른 인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법의 모든 기술적 특징은 매체에 저장된 컴퓨터 프로그램 그리고 인공지능 로봇의 제어 서버(1000)에 모두 동일하게 적용될 수 있으며, 그에 따라 동일한 효과를 도출할 수 있다.
이상 첨부된 도면을 참조하여 본 발명의 일 실시 예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 일 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
10: 프로세서
20: 네트워크 인터페이스
30: 메모리
40: 스토리지
41: 컴퓨터 프로그램
50: 데이터 버스
100: 인공지능 로봇
110: 바디부
115: 디스플레이부
117: 스피커부
120: 헤드부
125: 발광부
130: 제 1 구동부
140: 제 2 구동부
200: 사용자의 단말
1000: 제어 서버

Claims (10)

  1. (a) 인공지능 로봇이 사용자의 일상 생활 정보를 획득하는 단계;
    (b) 상기 인공지능 로봇이 상기 획득한 사용자의 일상 생활 정보에 기초하여 사용자의 심리 상태를 평가하는 단계; 및
    (c) 상기 인공지능 로봇이 상기 평가한 사용자의 심리 상태 판단 결과에 따른 인터렉션을 수행하는 단계;
    를 포함하는 인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법.
  2. 제 1 항에 있어서,
    상기 (a)단계 이전에,
    (a') 상기 인공지능 로봇이 상기 사용자의 심리 측정 결과를 불러오는 단계;
    를 더 포함하고,
    이 경우 상기 (b)단계는,
    (b') 상기 인공지능 로봇이 상기 획득한 사용자의 일상 생활 정보와 상기 불러온 심리 측정 결과에 기초하여 사용자의 심리 상태를 평가하는 단계;
    인 인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법.
  3. 제 2 항에 있어서,
    상기 심리 측정 결과는,
    오프라인 방식 또는 온라인 방식을 통해 상기 사용자 또는 관련 기관으로부터 별도로 획득한 심리 측정 결과 데이터인,
    인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법.
  4. 제 1항에 있어서,
    상기 (a) 단계는,
    (a-1) 상기 인공지능 로봇이 사용자의 환경 정보를 획득하는 단계;
    를 더 포함하는 인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법.
  5. 제 4항에 있어서,
    상기 (a-1) 단계는,
    상기 인공지능 로봇이 밝기 정보를 감지하거나, 상기 사용자 외 사람을 감지하여 상기 사용자의 환경 정보를 획득하는,
    인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법.
  6. 제 1항에 있어서,
    상기 (a) 단계는,
    (a-2) 상기 인공지능 로봇이 상기 사용자의 인공지능 로봇에 대한 활용 정보를 획득하는 단계;
    를 더 포함하는 인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법.
  7. 제9항에 있어서,
    상기 (a-2) 단계는,
    상기 인공지능 로봇을 통해 이용한 서비스에 대한 정보를 감지하거나, 상기 인공지능 로봇의 활용 빈도 또는 활용 시간을 감지하여 상기 사용자의 인공지능 로봇에 대한 활용 정보를 획득하는,
    인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법.
  8. 제 1항에 있어서,
    상기 (a) 단계는,
    (a-3) 상기 인공지능 로봇이 상기 사용자의 심리 척도 측정 정보를 획득하는 단계;
    를 더 포함하는 인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법.
  9. 제8항에 있어서,
    상기 (a-3) 단계는,
    복수 개의 공지된 심리 상태 측정 문항 세트 중 상기 인공지능 로봇이 파악한 상기 사용자의 연령에 대응되는 심리 상태 측정 문항 세트를 출력하고 이에 대한 답변을 수신하여 상기 사용자의 심리 척도 측정 정보를 획득하는,
    인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법.
  10. 제 1 항에 있어서,
    상기 (c) 단계의 인터렉션은,
    상기 사용자의 심리 상태의 판단 결과에 따라 미리 설정된 번호 또는 인터넷 주소로 전화를 걸거나, 상기 번호 또는 인터넷 주소로 메시지를 송신하거나, 미리 설정된 단말과 네트워크 연결을 수행하는 인터렉션인,
    인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법.
KR1020210022756A 2021-02-19 2021-02-19 인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법 및 장치 KR20220119237A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210022756A KR20220119237A (ko) 2021-02-19 2021-02-19 인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210022756A KR20220119237A (ko) 2021-02-19 2021-02-19 인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20220119237A true KR20220119237A (ko) 2022-08-29

Family

ID=83113804

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210022756A KR20220119237A (ko) 2021-02-19 2021-02-19 인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법 및 장치

Country Status (1)

Country Link
KR (1) KR20220119237A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116312081A (zh) * 2022-09-07 2023-06-23 中山大学 一种基于球类游戏的儿童孤独症治疗装置
KR102551856B1 (ko) 2023-04-14 2023-07-06 주식회사 플랙스 딥러닝 기반의 예측 모델에 기반하여 보조 보행 장치를 이용하는 피보호자의 감정 상태를 예측하는 전자 장치 및 그 동작 방법
KR102563243B1 (ko) 2022-10-31 2023-08-03 주식회사 마음스토리 빅데이터에 기반한 메타 인지 향상을 위한 감정 예측 방법 및 시스템
KR102563244B1 (ko) 2022-10-31 2023-08-03 주식회사 마음스토리 빅데이터에 기반한 메타 인지 향상을 위한 일상 정보 피드백 방법 및 시스템

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180079825A (ko) 2017-01-02 2018-07-11 엘지전자 주식회사 커뮤니케이션 로봇

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180079825A (ko) 2017-01-02 2018-07-11 엘지전자 주식회사 커뮤니케이션 로봇

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116312081A (zh) * 2022-09-07 2023-06-23 中山大学 一种基于球类游戏的儿童孤独症治疗装置
CN116312081B (zh) * 2022-09-07 2024-05-07 中山大学 一种基于球类游戏的儿童孤独症治疗装置
KR102563243B1 (ko) 2022-10-31 2023-08-03 주식회사 마음스토리 빅데이터에 기반한 메타 인지 향상을 위한 감정 예측 방법 및 시스템
KR102563244B1 (ko) 2022-10-31 2023-08-03 주식회사 마음스토리 빅데이터에 기반한 메타 인지 향상을 위한 일상 정보 피드백 방법 및 시스템
KR102551856B1 (ko) 2023-04-14 2023-07-06 주식회사 플랙스 딥러닝 기반의 예측 모델에 기반하여 보조 보행 장치를 이용하는 피보호자의 감정 상태를 예측하는 전자 장치 및 그 동작 방법

Similar Documents

Publication Publication Date Title
KR20220119237A (ko) 인공지능 로봇을 활용한 사용자 심리 상태를 평가하는 방법 및 장치
Rincon et al. A new emotional robot assistant that facilitates human interaction and persuasion
Ghandeharioun et al. Emma: An emotion-aware wellbeing chatbot
Benssassi et al. Wearable assistive technologies for autism: opportunities and challenges
Kachouie et al. Socially assistive robots in elderly care: a mixed-method systematic literature review
Abdollahi et al. Artificial emotional intelligence in socially assistive robots for older adults: a pilot study
US10779761B2 (en) Sporadic collection of affect data within a vehicle
CN110300946A (zh) 智能助理
KR102383458B1 (ko) 학습결과에 대한 관리를 지원하는 능동형 인공지능 튜터링 시스템
Lin An Assistive Handwashing System with Emotional Intelligence
KR20130093290A (ko) 감성 교감 로봇 서비스 시스템 및 그 방법
Griol et al. Mobile conversational agents for context-aware care applications
US11074491B2 (en) Emotionally intelligent companion device
CN113287175A (zh) 互动式健康状态评估方法及其系统
US20210151154A1 (en) Method for personalized social robot interaction
KR20200143764A (ko) 감성 교감 서비스 시스템 및 그 방법
US10978209B2 (en) Method of an interactive health status assessment and system thereof
McNaull et al. Flexible context aware interface for ambient assisted living
CN112135568A (zh) 信息处理装置、信息处理方法和程序
CN112074804A (zh) 信息处理系统、信息处理方法和记录介质
US11461404B2 (en) System and method for adjustment of a device personality profile
JP7347414B2 (ja) 情報処理システム、情報処理方法、および記録媒体
De Carolis et al. User modeling in social interaction with a caring agent
Ras et al. Engineering tele-health solutions in the ambient assisted living lab
US20220108775A1 (en) Techniques for updating a health-related record of a user of an input/output device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal