KR20200095668A - Elderly care system and method using AI speakers - Google Patents

Elderly care system and method using AI speakers Download PDF

Info

Publication number
KR20200095668A
KR20200095668A KR1020190013263A KR20190013263A KR20200095668A KR 20200095668 A KR20200095668 A KR 20200095668A KR 1020190013263 A KR1020190013263 A KR 1020190013263A KR 20190013263 A KR20190013263 A KR 20190013263A KR 20200095668 A KR20200095668 A KR 20200095668A
Authority
KR
South Korea
Prior art keywords
voice
voice data
doll device
management server
transmitting
Prior art date
Application number
KR1020190013263A
Other languages
Korean (ko)
Inventor
조영식
박지훈
Original Assignee
주식회사 프론트유
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 프론트유 filed Critical 주식회사 프론트유
Priority to KR1020190013263A priority Critical patent/KR20200095668A/en
Publication of KR20200095668A publication Critical patent/KR20200095668A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Marketing (AREA)
  • Computational Linguistics (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Strategic Management (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Telephonic Communication Services (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

Disclosed are an elderly care system and method using an AI speaker. The elderly care system of the present invention includes a doll device having a microphone collecting a voice, a speaker outputting the voice, and a transmission unit transmitting the collected voice data to a management server. The management server may include a preprocessing unit normalizing by excluding non-natural language elements from the received voice data, a voice analysis unit analyzing the voice data preprocessed by the preprocessing unit based on big data, and a message transmission unit transmitting a message corresponding to the analyzed result to the doll device.

Description

AI 스피커를 이용한 노인 케어 시스템 및 방법{Elderly care system and method using AI speakers}Elderly care system and method using AI speakers

본 발명은 케어가 필요한 사용자의 발성을 분석하여 질병 유무를 파악하거나 의료 정보로 활용 관리 되도록 처리하는 AI 스피커를 이용한 노인 케어 시스템 및 방법에 관한 것이다.The present invention relates to an elderly care system and method using an AI speaker that analyzes the voice of a user in need of care to determine the presence or absence of a disease or to be used and managed as medical information.

실버 산업 및 유사 케어 산업은 지속적으로 발전될 것으로 전망되고 있다. 케어가 필요한 노인의 발성 분석 결과를 통해 각종 질병이나 치매의 진행 여부 등을 미리 파악할 수 있고 의료 정보로 활용하여 사전 진단과 예방을 통해 발병율을 낮추고 증상을 완화시킬 수 있는 연구가 진행되어 왔다. 이와 관련하여 발성 행태에 최적화된 실버 세대 친화형 음성인터페이스를 위한 여러 연구가 진행되어 왔다. 음성인터페이스 관련 국내외 연구현황에 따르면 애플(SIRI), 구글(음성검색) 등은 클라우드 기반의 인프라를 구축하고 개인 맞춤형 서비스로 진화시키고 있다. 예를 들면 구글은 안드로이드(Android) 운영체제의 모바일 시장 내에서의 영향력으로 2012년 6월 자체 개발한 음성인식 서비스 '구글 나우(Google Now)'를 공개하였고, 음성검색에 최적화된 새로운 검색 엔진 알고리즘인 '허밍버드(hummingbird)'도 공개하였다. 국내에서는 음성 분석 기술을 이용하여 음성 변수를 추출하고 이에 비모수적인 통계 방법을 적용하여 체질을 구분할 수 있는 음성 분석을 통한 체질 구분 방법이 개시된바 있다(한국등록특허공보 제10-0926771호 참조). 그러나, 음성 분석 기술을 이용하는 케어 관련 기술들은 독거노인 등 사회안전망이 필요한 취약계층의 일상을 실시간으로 모니터링하여 음성 인식 기능을 이용하여 사용자와 직접 교감하고 정서적인 안정을 제공하거나, 음성 분석을 통하여 건강 상태를 판단하거나, 건강 상태에 따른 대응 방법을 제공하지는 못하므로, 원격 관리 및 진료나 일상적인 건강 관리 방안으로 사용되기에는 한계가 있다. 이에 따라 케어가 필요한 사용자를 위한 음성인식 도구를 활용하여 사용자의 음절별 발화속도 조정에 따른 음성인식율의 특성과 변화를 추적하고 음성인식에서 나타나는 치매 등의 질병을 조기에 발견 진단하고 사용자 케어에 대응할 수 있는 제안이 요구되고 있다.The silver industry and similar care industry are expected to continue to develop. Research has been conducted to lower the incidence rate and alleviate symptoms through pre-diagnosis and prevention by using it as medical information to determine the progression of various diseases or dementia through the results of speech analysis of the elderly in need of care. In this regard, several studies have been conducted for a silver generation-friendly voice interface optimized for vocal behavior. According to domestic and international research on voice interface, Apple (SIRI) and Google (voice search) are building cloud-based infrastructure and evolving into personalized services. For example, Google released its own voice recognition service'Google Now' in June 2012 due to the influence of the Android operating system in the mobile market, and a new search engine algorithm optimized for voice search. 'Hummingbird' was also released. In Korea, a voice analysis method has been used to extract a voice variable and a non-parametric statistical method is applied thereto to classify the constitution through voice analysis. (See Korean Patent Publication No. 10-0926771). However, care-related technologies using voice analysis technology monitor the daily life of vulnerable groups who need social safety nets such as the elderly living alone in real time, and use the voice recognition function to directly communicate with users and provide emotional stability, or through voice analysis. Since it cannot determine a condition or provide a response method according to a health condition, there is a limit to use as a remote management and medical treatment or a routine health management method. Accordingly, using a voice recognition tool for users in need of care, the characteristics and changes of the voice recognition rate according to the user's utterance rate adjustment for each syllable are tracked, and diseases such as dementia appearing in voice recognition can be detected early, diagnosed, and responded to user care. A possible proposal is being demanded.

특허문헌 1. 국내공개특허공보 제10-2015-0112901호(공개일 2015.10.07)Patent Document 1. Korean Patent Publication No. 10-2015-0112901 (published on 2015.10.07)

특허문헌 2. 국내등록특허공보 제10-1894722호(공고일 2018.10.04)Patent Document 2. Korean Patent Publication No. 10-1894722 (announcement date 2018.10.04)

본 발명에서 해결하고자 하는 기술적인 과제 중 하나는, 케어가 필요한 사용자의 발성을 분석하여 질병 유무를 파악하거나 의료 정보로 활용하도록 하는데 있다.One of the technical problems to be solved in the present invention is to identify the presence or absence of a disease by analyzing the voice of a user in need of care or to use it as medical information.

본 발명에서 해결하고자 하는 기술적인 과제 중 하나는, 음성 데이터를 분석하는데 있어서 지정된 사용자가 아닌 중복 사용자에 의한 음성 데이터의 저장과 관리 문제를 해결하는데 있다.One of the technical problems to be solved in the present invention is to solve the problem of storing and managing voice data by a duplicate user rather than a designated user in analyzing the voice data.

상기 목적들은, 본 발명에 따르면, 음성을 수집하는 마이크; 음성을 출력하는 스피커; 수집되는 음성 데이터를 분류 처리하고 분류 처리된 음성 데이터를 관리 서버로 전송하는 전송부;를 구비하는 인형 디바이스; 및 상기 관리 서버는 수신되는 음성 데이터 중 비자연어를 배제하여 정규화하는 전처리부; 상기 전처리부에서 전처리된 음성 데이터를 빅데이터 기반으로 분석하는 음성 분석부; 분석된 결과에 대응되는 메시지를 상기 인형 디바이스로 전송하는 메시지 전송부;를 포함하는, AI 스피커를 이용한 노인 케어 시스템으로부터 달성될 수 있다.The above objects, according to the present invention, a microphone for collecting voice; A speaker outputting sound; A doll device including a transmission unit for classifying the collected voice data and transmitting the classified voice data to the management server; And a preprocessor for normalizing by excluding non-natural languages from the received voice data. A voice analysis unit that analyzes the voice data preprocessed by the preprocessor based on big data; A message transmission unit for transmitting a message corresponding to the analyzed result to the doll device; including, can be achieved from the elderly care system using an AI speaker.

본 발명의 실시예에 따르면 인형 디바이스를 통해 수집된 음성 데이터를 관리 서버로 전송하고, 관리 서버에서 전송한 메시지를 인형 디바이스로 전송하는 중계부;를 포함하여 구성될 수 있다.According to an embodiment of the present invention, the voice data collected through the doll device may be transmitted to a management server, and a relay unit configured to transmit a message transmitted from the management server to the doll device.

본 발명의 실시예에 따르면, 상기 관리 서버는 상기 인형 디바이스의 IR 센서 영상과 수집된 음성 데이터 신호를 이용하여 사용자의 질병 여부를 판단하는 질병 판단부;를 포함하여 구성될 수 있다.According to an embodiment of the present invention, the management server may include a disease determination unit that determines whether a user has a disease using an IR sensor image of the doll device and a collected voice data signal.

본 발명의 실시예에 따르면, 상기 관리 서버는 상기 인형 디바이스의 IR 센서 영상과 수집된 음성 데이터신호의 음절과 모음 사이의 길이를 측정하여 질병 진행 여부를 판단하는 질병 판단부;를 더 포함하여 구성될 수 있다.According to an embodiment of the present invention, the management server further comprises a disease determination unit configured to determine whether a disease has progressed by measuring a length between a syllable and a vowel of the IR sensor image of the doll device and the collected voice data signal. Can be.

상기 목적들은, 본 발명에 따르면, 사용자의 음성을 수집하는 마이크, 음성을 출력하는 스피커를 구비하는 인형 디바이스를 통해 음성 데이터를 수집 저장 관리하고 관리 서버로 음성 데이터를 전송하는 단계; 관리 서버의 전처리부를 통해 상기 단계로부터 수신되는 음성 데이터 신호들 중 비자연어적인 요소를 배제하여 정규화하는 단계; 상기 단계로부터 전처리된 음성 데이터를 빅데이터 기반으로 분석하는 음성 분석 단계; 및 상기 단계로부터 분석된 결과에 대응되는 메시지를 상기 인형 디바이스로 전송하는 메시지 전송 단계;를 포함하는, AI 스피커를 이용한 노인 케어 방법으로부터 달성될 수 있다.The above objects are, according to the present invention, the steps of collecting, storing and managing voice data through a doll device including a microphone for collecting the user's voice and a speaker for outputting voice, and transmitting the voice data to a management server; Normalizing by excluding non-natural language elements among voice data signals received from the step through a preprocessor of the management server; A voice analysis step of analyzing the voice data preprocessed from the step based on big data; And a message transmission step of transmitting a message corresponding to the result analyzed from the step to the doll device. It may be achieved from the elderly care method using an AI speaker.

본 발명의 실시예에 따르면, 상기 음성 데이터를 전송하는 단계는, 상기 인형 디바이스로부터 수집되는 음성 데이터를 관리 서버로 전송하고, 상기 관리 서버에서 전송한 메시지를 상기 인형 디바이스로 전송하는 중계 단계;를 포함하여 구성될 수 있다.According to an embodiment of the present invention, the transmitting of the voice data includes: a relay step of transmitting the voice data collected from the doll device to a management server, and transmitting a message transmitted from the management server to the doll device; It can be configured to include.

본 발명의 실시예에 따르면, 상기 음성 분석 단계는, 상기 인형 디바이스의 IR 센서 영상과 수집된 음성 데이터 신호를 이용하여 사용자의 질병 여부를 판단하는 질병 판단 단계;를 포함하여 구성될 수 있다.According to an embodiment of the present invention, the voice analysis step may include a disease determination step of determining whether a user has a disease using an IR sensor image of the doll device and a collected voice data signal.

본 발명의 실시예에 따르면, 상기 음성 분석 단계는, 상기 인형 디바이스의 IR 센서 영상과 수집된 음성 데이터신호의 음절과 모음 사이의 길이를 측정하여 질병 진행 여부를 판단하는 질병 판단 단계;를 더 포함하여 구성될 수 있다.According to an embodiment of the present invention, the voice analysis step further includes a disease determination step of determining whether the disease progresses by measuring a length between a syllable and a vowel of the IR sensor image of the doll device and the collected voice data signal. Can be configured.

본 발명은, 케어가 필요한 노인의 주거 공간에 배치하여 상시적으로 발성을 분석하여 질병 유무를 파악하거나 의료 정보를 취득하여 활용할 수 있는 효과가 있다.The present invention has the effect of being able to determine the presence or absence of a disease or obtain medical information by analyzing vocalization at all times by placing it in a residential space of the elderly in need of care.

본 발명은, 지정된 사용자가 아닌 중복 사용자 또는 외부 음향 신호에 의한 음성 데이터의 분석과 저장 및 관리 문제를 해결하여 분석 결과의 신뢰성을 제고시키는 효과가 있다.The present invention has an effect of improving the reliability of an analysis result by solving the problem of analyzing, storing, and managing voice data by a duplicate user or an external sound signal other than a designated user.

본 발명은, 독거노인 등 사회안전망이 필요한 취약층 사용자와 교감하면서 정서적인 안정을 제공할 수 있는 효과가 있다.The present invention has the effect of providing emotional stability while communicating with users of the vulnerable who need a social safety net, such as the elderly living alone.

본 발명은, 음성 분석을 통하여 건강 상태를 판단하거나 건강 상태에 따른 대응 방법을 제공하고 원격 진료나 일상적인 건강 관리에 활용할 수 있는 효과가 있다.The present invention has an effect of determining a health condition through voice analysis or providing a response method according to the health condition, and utilizing it for remote medical treatment or daily health management.

도 1은 본 발명의 일실시예에 따른 AI 스피커를 이용한 노인 케어 시스템 네트워크의 예시이다.
도 2는 본 발명의 일실시예에 따른 AI 스피커를 이용한 노인 케어 시스템을 구성하는 인형 디바이스 시스템의 예시이다.
도 3은 본 발명의 일실시예에 따른 AI 스피커를 이용한 노인 케어 시스템을 구성하는 인형 디바이스의 디자인 유형의 예시이다.
도 4는 본 발명의 일실시예에 따른 AI 스피커를 이용한 노인 케어 시스템을 구성하는 관리 서버의 예시이다.
도 5는 본 발명의 일실시예에 따른 AI 스피커를 이용한 노인 케어 시스템을 구성하는 인형 디바이스와 관리 서버 간 통신 데이터 처리의 예시이다.
도 6은 본 발명의 일실시예에 따른 AI 스피커를 이용한 노인 케어 시스템 제어 관련 플로우 챠트의 예시이다.
1 is an example of an elderly care system network using an AI speaker according to an embodiment of the present invention.
2 is an example of a doll device system constituting the elderly care system using an AI speaker according to an embodiment of the present invention.
3 is an example of a design type of a doll device constituting an elderly care system using an AI speaker according to an embodiment of the present invention.
4 is an example of a management server configuring an elderly care system using an AI speaker according to an embodiment of the present invention.
5 is an example of communication data processing between a doll device and a management server constituting an elderly care system using an AI speaker according to an embodiment of the present invention.
6 is an example of a flow chart related to controlling an elderly care system using an AI speaker according to an embodiment of the present invention.

이하, 본 발명의 바람직한 실시예에 따른 'AI 스피커를 이용한 노인 케어 시스템 및 방법'을 설명하면 다음과 같다.Hereinafter, a'senior care system and method using an AI speaker' according to a preferred embodiment of the present invention will be described as follows.

본 발명에서 사용되는 용어 중 '인형 디바이스'는 'A1 스피커' 또는 '스마트 스피커'로도 혼용된 수 있다. 'AI 스피커(artificial intelligence speaker)'는 AI(인공지능)의 기능이 더해진 스피커일 수 있다. 예를 들면 음악이나 라디오를 청취하는 기능 외에 음성인식 기능을 제공할 수 있는 스피커일 수 있다.Among the terms used in the present invention,'doll device' may be used interchangeably as'A1 speaker' or'smart speaker'. The'artificial intelligence speaker' may be a speaker to which the function of artificial intelligence (AI) is added. For example, it may be a speaker capable of providing a voice recognition function in addition to listening to music or radio.

본 발명은 케어가 필요한 노령층의 건강을 관리하고 진단하는데 있어서 연령대별로 각각 음절, 발음, 음성 속도 패턴이 특이점을 갖고 각각의 특이점들은 질병의 유무와 진행 등과 관련된 건강 정보로 활용할 수 있다는 점에 착안된 것으로 케어가 필요한 노령층을 위한 음성 인식 툴을 활용하여 노령층의 음절별 발화속도 패턴에 따른 음성 인식율의 특성과 변화를 추적하고 음성인식을 통해 파악되는 치매 등의 질병을 조기에 발견하고 진단하거나 신속하게 대응할 수 있도록 제시된다.In the present invention, in managing and diagnosing the health of the elderly in need of care, it was conceived that syllables, pronunciation, and voice speed patterns for each age group have unique points, and each peculiar point can be used as health information related to the presence or progress of diseases. It uses a voice recognition tool for the elderly who need care to track the characteristics and changes of the voice recognition rate according to the speech speed pattern of each syllable of the elderly, and detect and diagnose diseases such as dementia early, identified through voice recognition, or quickly. It is presented to be able to respond.

도 1은 본 발명의 일실시예에 따른 AI 스피커를 이용한 노인 케어 시스템 네트워크의 예시이다.1 is an example of an elderly care system network using an AI speaker according to an embodiment of the present invention.

도 2는 본 발명의 일실시예에 따른 AI 스피커를 이용한 노인 케어 시스템을 구성하는 인형 디바이스 시스템의 예시이다.2 is an example of a doll device system constituting the elderly care system using an AI speaker according to an embodiment of the present invention.

도 3은 본 발명의 일실시예에 따른 AI 스피커를 이용한 노인 케어 시스템을 구성하는 인형 디바이스의 디자인 유형의 예시이다.3 is an example of a design type of a doll device constituting an elderly care system using an AI speaker according to an embodiment of the present invention.

도 4는 본 발명의 일실시예에 따른 AI 스피커를 이용한 노인 케어 시스템을 구성하는 관리 서버의 예시이다.4 is an example of a management server configuring an elderly care system using an AI speaker according to an embodiment of the present invention.

본 발명의 일실시예에 따른 AI 스피커를 이용한 노인 케어 시스템(A)은, 도 1 내지 도 4에 도시된 바와 같이, 유무선 통신 네트워크(100), 유무선 통신 네트워크(100)와 데이터를 송수신하는 통신모듈(210)을 구비하는 인형 디바이스(200), 인형 디바이스(200)와 통신 가능하도록 통신모듈(310)을 통해 접속되는 관리 서버(300)로 구성될 수 있다.Elderly care system (A) using an AI speaker according to an embodiment of the present invention, as shown in Figures 1 to 4, wired and wireless communication network 100, communication for transmitting and receiving data with the wired and wireless communication network 100 It may be composed of a doll device 200 having a module 210 and a management server 300 connected through the communication module 310 to enable communication with the doll device 200.

또한, 인형 디바이스(200)로부터 수집되는 음성 데이터를 관리 서버(300)로 전송하고, 관리 서버(300)에서 전송한 메시지를 인형 디바이스(200)로 진단 결과 음향 또는 푸시 메세지 등의 메세지로 송수신하는 중계부(400)를 포함하여 구성될 수 있다.In addition, voice data collected from the doll device 200 is transmitted to the management server 300, and the message transmitted from the management server 300 is transmitted and received by the doll device 200 as a diagnosis result sound or a message such as a push message. It may be configured to include a relay unit 400.

도 2는 본 발명의 일실시예에 따른 AI 스피커를 이용한 노인 케어 시스템을 구성하는 인형 디바이스 시스템의 예시이다.2 is an example of a doll device system constituting the elderly care system using an AI speaker according to an embodiment of the present invention.

인형 디바이스(200)는 도 2에 도시된 바와 같이 사용자로부터 발화되는 음성을 수집하여 제어부(250)로 입력하는 마이크(220), 제어부(250)로부터 음성을 입력받아 출력하는 스피커(230), 스피커(230)로부터 출력되는 음성을 정규화 처리하는 음성정보처리부(240) 및 음성정보처리부(240)로부터 처리된 음성 데이터를 관리 서버(300)로 전송하는 전송부(270)를 구비하여 구성될 수 있다. 여기서, 음성을 정규화하여 처리하는 음성정보처리부(240)는 음성을 자연어와 비자연어로 구분하여 처리하는 분류처리부(260)를 포함하여 구성될 수 있다.As shown in FIG. 2, the doll device 200 includes a microphone 220 that collects voice uttered from a user and inputs it to the controller 250, a speaker 230 that receives and outputs voice from the controller 250, and a speaker A voice information processing unit 240 for normalizing the voice output from the voice information 230 and a transmission unit 270 for transmitting voice data processed from the voice information processing unit 240 to the management server 300 may be provided. . Here, the speech information processing unit 240 that normalizes and processes speech may include a classification processing unit 260 that separates and processes speech in natural and non-natural languages.

인형 디바이스(200)는 스마트 스피커(인공지능 스피커)의 기능을 수행할 수 있다. 예를 들면 음성인식과 인식된 음성정보를 처리하여 관리 서버(300)로 전송할 수 있다.The doll device 200 may perform the function of a smart speaker (artificial intelligence speaker). For example, voice recognition and recognized voice information may be processed and transmitted to the management server 300.

인형 디바이스(200)는 인공지능을 통해 더 많은 음성 데이터를 수집하여 빅 데이터로 축적할 수 있다. 인형 디바이스(200)에 내장될 수 있는 음성정보처리부(240) 및 제어부(250)는 대화의 의도와 패턴을 인공지능으로 학습할 수 있다. 이는 학습에 필요한 데이터가 많이 있을 수록 더 빨리 학습할 수 있다. 인형 디바이스(200)에 탑재될 수 있는 음성정보처리부(240) 및 제어부(250)는 데이터베이스(280) 클라우드를 통해 더 많은 데이터를 수집하고 관리되거나 음성을 학습하고 기억할 수 있다.The doll device 200 may collect more voice data through artificial intelligence and accumulate it as big data. The voice information processing unit 240 and the control unit 250 that may be embedded in the doll device 200 may learn the intention and pattern of conversation with artificial intelligence. This means that the more data you need for learning, the faster you can learn. The voice information processing unit 240 and the control unit 250 that may be mounted on the doll device 200 may collect and manage more data or learn and store voices through the database 280 cloud.

이를 통해 인형 디바이스(200)의 사용자가 의도된 원래 사용자인지, 아니면 원래의 사용자가 아니고 다른 사용자인지 등을 구분하고 판단하는 분별력을 갖출 수 있다.Through this, it is possible to have discernment to distinguish and determine whether the user of the doll device 200 is the intended original user, or whether it is a user other than the original user.

음성인식 기반의 인형 디바이스(200)의 주된 음성 입출력 장치는 마이크(220)와 스피커(230)이다. 인형 디바이스(200)은 이 같은 주요 장치만으로 이루어져 있기 때문에 음성 데이터 수집 면에서 이와 비교되는 다른 스마트 기기들, 예를 들면 스마트폰이나 TV보다 효율적일 수 있다. 예를 들면 다른 스마트 기기들의 경우 사용자가 음성기능을 활성화 한 후에야 음성 데이터를 녹음하고 처리할수 있지만 인형 디바이스(200)는 음소거 기능 사용을 제외 하고는 상시 음성 데이터를 녹음하고 축적할 수 있는 점에서 유리할 수 있다.The main voice input/output devices of the doll device 200 based on voice recognition are a microphone 220 and a speaker 230. Since the doll device 200 is composed of only such main devices, it may be more efficient than other smart devices compared to other smart devices, for example, a smart phone or a TV in terms of collecting voice data. For example, in the case of other smart devices, voice data can be recorded and processed only after the user activates the voice function, but the doll device 200 is advantageous in that it can always record and accumulate voice data except for the use of the mute function. I can.

음성인식 인형 디바이스(200)는 음성 데이터를 처리할 때 기존의 터치 방식플랫폼을 음성 기반의 플랫폼으로 이동시킨다. 이와 동시에 인형 디바이스(200)에의해 제공될 수 있는 음성인식 서비스는 명령 수행 능력이 우수할 수 있으며, 직접 손으로 조작하지 않아도 되기 때문에 작동법이 간단해지고 특히 거동이 자유롭지 않고 터치 조작력이 떨어지는 노령층의 사용자들에 적합한 인터페이스로 제공될 수 있다.The voice recognition doll device 200 moves the existing touch type platform to a voice-based platform when processing voice data. At the same time, the voice recognition service that can be provided by the doll device 200 can have excellent command execution ability, and since it does not require manual manipulation, the operation method is simple, and in particular, users of the elderly people who are not free to move and have low touch manipulation power. It can be provided with an interface suitable for the field.

인형 디바이스(200)를 통한 음성인식은 음성을 인식할 때 수집되는 음성 데이터를 기초로 음성을 연령대 별로 구분하여 처리할 수 있고 사용자를 학습된 축적데이터와 비교하여 자동적으로 분류 처리할 수 있다. 이같은 분류 처리는 앞서 설명된 바와 같이 의도된 지정 사용자와 의도되지 않은 중간에 개입될 수 있는 비지정 사용자를 분별할 수 있으므로 사용자와 관련된 음성인식을 정보 처리와 관리에 신뢰성을 제공할 수 있게된다.The voice recognition through the doll device 200 may classify and process the voice by age group based on voice data collected when the voice is recognized, and automatically classify and process the user by comparing it with the learned accumulated data. As described above, this classification process can discriminate between an intended designated user and a non-designated user who may be intervened unintended, thereby providing reliability in information processing and management of voice recognition related to the user.

인형 디바이스(200)는 음성 데이터 축적 과정에서 학습되고 기억된 지정된 사용자의 음성을 제외한 비지정 사용자의 음성 데이터는 자동적으로 분류 처리하여 기존 축적 빅 데이터의 오류를 차단하는 필터링 모듈을 구비할 수 있다.The doll device 200 may include a filtering module that automatically classifies and processes voice data of non-designated users except for the voice of a designated user learned and stored in the voice data accumulation process to block errors in existing accumulated big data.

인형 디바이스(200)에 의한 음성정보처리는 예를 들면 현재 수집되는 음성 데이터를 축적되고 학습된 음성 데이터와 비교하여 현재 입력되는 음성 데이터를 성인-중년-고령 등으로 구분되는 연령대별로 분류처리할 수 있다. In the voice information processing by the doll device 200, for example, the currently collected voice data is accumulated and compared with the learned voice data, and the currently input voice data can be classified and processed by age group divided into adult-middle-aged-old, etc. have.

예를 들어, 성인, 중년, 고령 사람들을 그룹으로 분류, 대화를 하는 동안 말더듬과 속도패턴을 비교 기준값 파라미터로 설정하여 현재 인형 디바이스(200)로 수집되는 음성 데이터를 연령대별로 구분하여 판단할 수 있다.For example, it is possible to classify adults, middle-aged, and elderly people into groups, and set the stuttering and speed patterns as a comparison reference value parameter during conversation, and the voice data currently collected by the doll device 200 may be classified and determined by age group. .

다수의 연구결과에 따르면 성인을 21-30세(평균 25세), 중년 1은 45-54세(평균 49세), 중년 2는 55-64세(평균 60세), 고령 1은 65-74세(평균 68세), 고령 2는 75-91세(평균 80세)로 카테고리를 나누어 실험하는 경우 젊은 성인 남자가 중년과 고령의 성인보다 말의 속도가 더 빠르고, 중년 2의 성인이 고령 2보다 빠르게 말하며, 젊은 성인, 중년, 고령 1은 고령 2보다 빠르게 말한다는 것을 평균적인 결과값으로 도출하고 있다.According to a number of studies, adults 21-30 years old (average 25 years old), middle aged 1 45-54 years old (average 49 years old), middle aged 2 55-64 years old (average 60 years old), and aged 1 65-74 years old. When experimenting by dividing the categories into age (average 68 years old) and aged 2, 75-91 years old (average 80 years), young adult males speak faster than middle-aged and elderly adults, and middle-aged 2 adults are aged 2 It is derived as an average result that young adults, middle-aged, and old 1 speak faster than old 2.

따라서, 인형 디바이스(200)로 수집되는 음성 데이터로 현재 사용자 연령을 자동적으로 분류 처리할 수 있고, 동시에 원래 지정된 사용자인지 중간에 개입된 비지정 사용자인지를 판단할 수 있고, 지정 사용자의 음성 데이터만 축적하고 빅 데이터로 관리될 수 있으므로 비지정 사용자 개입에 의한 음성 데이터 분석 결과의 오류를 차단하고 음성 정보 처리 및 관리에 신뢰성을 제공할 수 있다.Therefore, it is possible to automatically classify and process the current user age with the voice data collected by the doll device 200, and at the same time, it is possible to determine whether it is an originally designated user or an intervening non-designated user, and only the voice data of the designated user is accumulated Since it can be managed as big data, it can block errors in the analysis result of voice data due to non-designated user intervention, and provide reliability for voice information processing and management.

한편, 인형 디바이스(200)를 통해 수집되는 음성 데이터가 음성정보처리부(240)를 통해 자연어-비자연어로 분류처리되는 과정에서 분류되는 음성 데이터가 데이터 베이스(280)의 빅 데이터로 학습된 데이터와 일치하는 경우 인형 디바이스(200)에서 수집되는 음성 데이터는 전송부(270) 및 통신모듈(210)을 통해 관리 서버(300)로 전송될 수 있다.On the other hand, the voice data that is classified in the process of classifying the voice data collected through the doll device 200 into a natural language-non-natural language through the voice information processing unit 240 and the data learned as big data of the database 280 If matched, the voice data collected by the doll device 200 may be transmitted to the management server 300 through the transmission unit 270 and the communication module 210.

인형 디바이스(200)를 통해 수집되는 음성 데이터가 음성정보처리부(240)를 통해 자연어-비자연어로 분류처리되는 과정에서 분류되는 음성 데이터가 데이터 베이스(280)의 빅 데이터로 학습된 데이터와 일치하지 않을 경우 제어부(250)는 자체 전원을 차단하여 음성 데이터 수집을 종료할 수 있다.The voice data collected through the doll device 200 is classified and processed in natural language-non-natural language through the voice information processing unit 240, and the classified voice data does not match the data learned as big data of the database 280. If not, the control unit 250 may cut off its own power to end voice data collection.

별도의 필터링 모듈을 통해 음성 데이터 축적 과정에서 학습되고 기억된 지정된 사용자의 음성을 제외한 비지정 사용자의 음성 데이터를 포함하여 외부로부터 개입될 수 있는 모든 비자연어들을 자동적으로 분류 처리하여 축적된 기존 사용자 빅 데이터의 오류를 차단하게 된다.Existing user big data accumulated by automatically classifying and processing all non-natural languages that may be intervened from outside, including the voice data of non-designated users, excluding the voice data of the designated user learned and memorized during the voice data accumulation process through a separate filtering module. Will block the error.

여기서, 자연어는, 빅 데이터로 축적되거나 학습되는 모든 '언어'로서 사람이 내는 순수한 '발음', '음절' 및 '소리'를 포함할 수 있다. 비자연어는, 발음 과정에서 말을 할 때 중간에 쉬는 '간격', '스치는 소리', '부딪히는 소리', '동물이 내는 소리', '각종 기계 및 기구 작동 소리', '자연에서 나는 소리' 등을 포함하는 사람을 제외한 외부의 소리를 포함할 수 있다. Here, the natural language may include pure'pronunciation','syllables', and'sound' produced by humans as all'language' accumulated or learned as big data. Unnatural languages are'intervals','sounds of grasping','sounds of bumps','sounds made by animals','sounds of operation of various machines and devices', and'sounds from nature' during speech during the pronunciation process. It may contain external sounds other than people including the back.

아래의 표 1은 음성정부처리부(240) 또는 필터링 모듈을 통해 분류 되어 빅 데이터로 축적 관리되거나 학습될 수 있는 음성 데이터 분류 구분의 예시이다.Table 1 below is an example of classification and classification of voice data that can be classified through the voice government processing unit 240 or a filtering module and stored and managed as big data or learned.

수집 데이터 신호Acquisition data signal 분류 필드Classification field 분류 필드Classification field 처리결과Processing result 일반 언어Plain language 자연어Natural language -- 저장Save 모음(자음)Consonant vowel) 자연어Natural language -- 저장Save 음절Syllable 자연어Natural language -- 저장Save 발음Pronunciation 자연어Natural language -- 저장Save 기침 소리cough 자연어Natural language -- 저장Save 숨소리breath 자연어Natural language -- 저장Save 동물(짐승)소리Animal (beast) sound -- 비자연어Unnatural language 버림Discard 물소리Sound of water -- 비자연어Unnatural language 버림Discard 기계음Mechanical sound -- 비자연어Unnatural language 버림Discard 바람소리The sound of the wind -- 비자연어Unnatural language 버림Discard 깨지는 소리Cracking sound -- 비자연어Unnatural language 버림Discard 숲소리Forest sound -- 비자연어Unnatural language 버림Discard

표 1과 같이 인형 디바이스를 통해 수집되는 모든 음성 데이터들은 활용 가능한 음성 데이터와 활용 불가능한 데이터로 자동 분류되어 데이터베이스에 저장되거나 버림값으로 분류하여 버릴 수 있다.As shown in Table 1, all voice data collected through the doll device can be automatically classified as available voice data and unusable data and stored in a database or classified as discarded values.

또한, 본 발명의 일실시예에 따른 AI 스피커를 이용한 노인 케어 시스템(A)을 구성하는 인형 디바이스(200)는 관리 서버(300)로부터 분석된 질병 관련 메세지를 포함하는 건강 관리 정보를 수신하고 수신된 메시지를 음성으로 합성하여 스피커(230)를 통해 출력하여 질병 발생 관련 정보를 직접 소리로 들려주는 음성 합성부(281) 및 복수의 터치센서(282)들, 그리고 충격감지 센서(283)를 구비하여 사용자의 행동을 인식하여 사용자의 특이점 정보로 관리하도록 구성될 수 있다.In addition, the doll device 200 constituting the elderly care system (A) using an AI speaker according to an embodiment of the present invention receives and receives health management information including a disease-related message analyzed from the management server 300 A voice synthesizer 281 that synthesizes the generated message into voice and outputs it through the speaker 230 to directly sound information related to disease occurrence, a plurality of touch sensors 282, and a shock sensor 283 are provided. Thus, it can be configured to recognize the user's behavior and manage it as the user's singularity information.

그리고, 인형 디바이스(200)의 내부에 IR 센서(284)를 내장하여 사용자의 활동을 감지하고 이에 반응하는 음성 신호를 제어부(250)를 통해 합성하여 스피커(230)로 출력하도록 구성될 수 있다.In addition, an IR sensor 284 is embedded in the doll device 200 to sense a user's activity and synthesize a voice signal in response thereto through the controller 250 and output to the speaker 230.

인형 디바이스(200)의 적소에는 관리 서버(300)로부터 전송되는 메세지를 수신하여 표시하기 위한 디스플레이부(미도시) 및 전원을 공급하는 전원부(미도시)를 구비할 수 있다.A display unit (not shown) for receiving and displaying a message transmitted from the management server 300 and a power supply unit (not shown) for supplying power may be provided at the right place of the doll device 200.

도 3은 본 발명의 일실시예에 따른 AI 스피커를 이용한 노인 케어 시스템을 구성하는 인형 디바이스의 디자인 유형의 예시이다.3 is an example of a design type of a doll device constituting an elderly care system using an AI speaker according to an embodiment of the present invention.

바람직하게는, 인형 디바이스(200)의 디자인으로는 도 4에 도시된 바와 같이 사람에게 정서적 안정감과 친근감을 줄 수 있는 동물류를 형상화한 디자인이 선택될 수 있다. 예를 들면, 강아지, 곰 등을 디자인 형상으로 형상화한 인형이 바람직한 인형 디바이스(200)의 외형 디자인으로 선택될 수 있다.Preferably, as the design of the doll device 200, as shown in FIG. 4, a design in the shape of an animal that can provide emotional stability and friendliness to a person may be selected. For example, a doll in which a dog, a bear, etc. is shaped into a design shape may be selected as a desirable external design of the doll device 200.

이와 같이 AI 스피커를 이용한 노인 케어 시스템을 구성하기 위하여 도 3과 같은 강아지를 형상을 디자인으로 형상화한 인형 디바이스(200)에 대한 인지 및 감성 평가 결과의 예는 아래와 같다.In this way, in order to configure the elderly care system using the AI speaker, an example of the cognitive and emotional evaluation results for the doll device 200 in which the shape of the dog as shown in FIG. 3 is shaped as a design is as follows.

시험 목적은 실버 케어 로봇인 인형 디바이스가 인지기능, 우울, 일상생활수행능력에 미치는 효과를 파악하는 것이다.The purpose of the test is to determine the effect of the doll device, a silver care robot, on cognitive function, depression, and ability to perform daily life.

시험 방법으로 참가자는 기준에 의하여 실험군 17명, 대조군 25명으로 하여 실험군과 대조군으로 나누어 실버 케어 서비스를 내장한 인형 디바이스와 놀이 형태로 진행하는 방법으로 실시하였다. 시험 기간은 노인 1인당 1회기 약 30분씩 1주 2회, 5주 동안 진행하였다.As a test method, participants were divided into an experiment group and a control group with 17 subjects in the experimental group and 25 subjects in the control group according to the criteria, and conducted in the form of a doll device and a play with a built-in silver care service. The test period was conducted for 5 weeks, twice a week, approximately 30 minutes per session per elderly person.

실험도구로는 인지기능-치매 간이선별검사(K-MMSE), 우울-단축형 우울측정도구(Short-form Geriatric Depression Scale;GDS), 일상생활수행능력-노인 기능사정도구 중 일상생활수행능력 문항을 선별하여 실시하였다.Experimental tools include cognitive function-dementia simple screening test (K-MMSE), depression-short-form Geriatric Depression Scale (GDS), daily life performance ability-elderly skill assessment questionnaire. It was carried out by selection.

시험결과 실버케어 인형 디바이스는 실험군의 인지기능 저하를 늦추고 일상생활수행능력을 향상시키는데 도움이 되는 것으로 평가되었다. 우울점수는 유의미한 차이가 나타나지 않았다.As a result of the test, the silver care doll device was evaluated to be helpful in slowing down the cognitive decline in the experimental group and improving the ability to perform daily life. There was no significant difference in depression score.

이와 같이 인형 디바이스를 노인 케어용으로 사용하는 경우 심리적인 안정감을 상승시키는 것을 알 수 있다.In this way, it can be seen that the use of the doll device for elderly care increases the psychological stability.

한편, 인형 디바이스(200)의 음성 데이터를 관리 서버(300)의 빅 데이터 음성 분석을 통해 인지될 수 있는 질병 진단의 대표적인 예는 아래의 표 2와 같다.On the other hand, a representative example of disease diagnosis that can be recognized by the voice data of the doll device 200 through the big data voice analysis of the management server 300 is shown in Table 2 below.

표 2는 비자연어를 제외한 사람이 내는 언어(자연어)에 기반하는 질병 진단의 예일 수 있으나 반드시 일치하는 것은 아니며, 임상 실험으로 수시 업 데이트될 수 있다.Table 2 may be an example of disease diagnosis based on human language (natural language) excluding non-natural languages, but is not necessarily consistent and may be updated as a clinical trial.

질병 구분Disease classification 증 상Symptom 푸시메세지 내용Content of the push message
후두암

Laryngeal cancer
큰 소리로 말할 때 거칠고 쥐어짜는 듯 한 소리가 남When speaking out loud, it makes a rough and squeezing sound 질병 의심Suspected disease

폐암, 갑상생암

Lung cancer, thyroid cancer
목소리 크기와 상관없이 바람이 빠지는 듯 잡음이 섞임Noise mixes as if the wind is falling, regardless of the volume of the voice 질병 의심Suspected disease

파킨슨병

Parkinson's disease
목소리의 크기가 작아지고 떨림이 심함. 발음이 정확하지 않고 음성 신호의 음절과 모음 사이의 길이를 길어짐The volume of the voice is reduced and the trembling is severe. The pronunciation is not accurate and the length between the syllables and vowels of the speech signal is lengthened. 질병 의심Suspected disease

조울증

Bipolar disorder
기분이 좋을 때는 빠르게, 우울할 때는 느리게 말함Speaking quickly when in a good mood, slow when feeling depressed 질병 의심Suspected disease
과잉행동장애증후군Hyperactivity disorder syndrome 짧은 음절로 말함Speaking in short syllables 질병 의심Suspected disease 외상 후 스트레스 장애Post-traumatic stress disorder 특정 음을 길게 발음함Pronouncing certain notes for a long time 질병 의심Suspected disease

인형 디바이스(200)는 사용자 주변에 놓여 있는 위치에서 사용자가 얼마나 정확하게 발음하는지, 말하는 속도가 빠르지 않은지, 말을 할 때 중간에 어느 정도 간격으로 숨을 쉬고 그 패턴이 어떤지, 목소리가 불안정하게 떨리지는 않는지, 말끝을 흐리지는 않는지 등의 비언어적인 요소와 자연어 및 비자연어적인 요소들로 분류 추출할 수 있고 이는 빅 데이터로 학습되고 관리될 수 있다.The puppet device 200 is how accurately the user pronounces at a location placed around the user, whether the speaking speed is not fast, how many intervals in the middle when speaking, how the pattern is, and how the voice is unstable. It can be classified and extracted into non-verbal elements such as whether or not the words are not obscured, as well as natural and non-natural language elements, which can be learned and managed as big data.

도 4는 본 발명의 일실시예에 따른 AI 스피커를 이용한 노인 케어 시스템을 구성하는 관리 서버의 예시이다.4 is an example of a management server configuring an elderly care system using an AI speaker according to an embodiment of the present invention.

관리 서버(300)는 통신 모듈(310)을 통해 수신되는 음성 데이터를 정규화하는 전처리부(320), 전처리된 음성 데이터를 분석하는 빅데이터 기반의 음성 분석부(330), 분석된 결과에 대응되는 메시지를 인형 디바이스(200)로 전송하는 메시지 전송부(350)를 포함하여 구성될 수 있다.The management server 300 includes a preprocessor 320 that normalizes voice data received through the communication module 310, a big data-based voice analysis unit 330 that analyzes the preprocessed voice data, and corresponds to the analyzed result. It may be configured to include a message transmission unit 350 for transmitting a message to the doll device 200.

또한, 관리 서버(300)는 인형 디바이스(200)의 IR 센서 영상과 수집된 음성 데이터 신호를 이용하여 사용자의 질병 여부를 판단하는 질병 판단부(340)를 포함하여 구성될 수 있다.In addition, the management server 300 may include a disease determination unit 340 that determines whether a user has a disease using the IR sensor image of the doll device 200 and the collected voice data signal.

또한, 관리 서버(300)는 인형 디바이스(200)로부터 수신되는 IR 센서(284)의 영상과 수집된 음성 데이터 신호의 음절과 모음 사이의 길이를 측정하고 이를 데이터 베이스(360)의 질병 분류 기준값과 비교하여 질병 진행 여부를 진단하고 판단하는 질병 판단부(340)를 포함하여 구성될 수 있다.In addition, the management server 300 measures the length between the syllables and vowels of the image of the IR sensor 284 received from the doll device 200 and the collected voice data signal, and the disease classification reference value of the database 360 It may be configured to include a disease determination unit 340 for diagnosing and determining whether the disease progresses or not.

도 5는 본 발명의 일실시예에 따른 AI 스피커를 이용한 노인 케어 시스템을 구성하는 인형 디바이스와 관리 서버 간 통신 데이터 처리의 예시이다.5 is an example of communication data processing between a doll device and a management server constituting an elderly care system using an AI speaker according to an embodiment of the present invention.

이와 같이 구성된 본 발명의 실시예에 따른 AI 스피커를 이용한 노인 케어 시스템을 통한 노인 케어 방법을 살펴보면 다음과 같다.A method of care for the elderly through the elderly care system using an AI speaker according to an embodiment of the present invention configured as described above will be described as follows.

사용자의 음성을 수집하는 마이크, 음성을 출력하는 스피커를 구비하는 인형 디바이스를 통해 음성 데이터를 수집 저장 관리하고 관리 서버로 음성 데이터를 전송하는 단계; 관리 서버의 전처리부를 통해 상기 단계로부터 수신되는 음성 데이터 신호들 중 비자연어적인 요소를 배제하여 정규화하는 단계; 상기 단계로부터 전처리된 음성 데이터를 빅데이터 기반으로 분석하는 음성 분석 단계; 및 상기 단계로부터 분석된 결과에 대응되는 메시지를 상기 인형 디바이스로 전송하는 메시지 전송 단계를 포함할 수 있다.Collecting and managing voice data through a doll device including a microphone for collecting user's voice and a speaker for outputting voice, and transmitting voice data to a management server; Normalizing by excluding non-natural language elements among voice data signals received from the step through a preprocessor of the management server; A voice analysis step of analyzing the voice data preprocessed from the step based on big data; And a message transmission step of transmitting a message corresponding to a result analyzed from the step to the doll device.

그리고, 음성 데이터를 전송하는 단계에서는 인형 디바이스로부터 수신된 음성 데이터를 관리 서버로 전송하고, 상기 관리 서버에서 전송한 메시지를 상기 인형 디바이스로 전송하는 중계 단계를 포함할 수 있다.In addition, the transmitting of the voice data may include a relay step of transmitting the voice data received from the doll device to the management server, and transmitting the message transmitted from the management server to the doll device.

그리고, 음성 분석 단계에서는 인형 디바이스의 IR 센서 영상과 수집된 음성 데이터 신호를 이용하여 사용자의 질병 여부를 판단하는 질병 판단 단계를 포함할 수 있다.In addition, the voice analysis step may include a disease determination step of determining whether the user has a disease using the IR sensor image of the doll device and the collected voice data signal.

또한, 음성 분석 단계에서는 인형 디바이스의 IR 센서 영상과 수집된 음성 데이터신호의 음절과 모음 사이의 길이를 측정하여 질병 진행 여부를 판단하는 질병 판단 단계를 더 포함할 수 있다.In addition, the voice analysis step may further include a disease determination step of determining whether the disease progresses by measuring a length between a syllable and a vowel of the IR sensor image of the doll device and the collected voice data signal.

도 6은 본 발명의 일실시예에 따른 AI 스피커를 이용한 노인 케어 시스템 제어 관련 플로우 챠트의 대표적인 예시이다.6 is a representative example of a flow chart related to controlling an elderly care system using an AI speaker according to an embodiment of the present invention.

먼저, 지정된 사용자가 인형 디바이스의 구동 전원을 인가하였는지가 판단된다(S110).First, it is determined whether the designated user has applied power to drive the doll device (S110).

상기 S110단계에서의 판단결과, 인형 디바이스 구동 전원이 'ON'인 것으로 판단되면, 인형 디바이스의 마이크를 통해 외부 음성 데이터의 수집이 시작된다(S120).As a result of the determination in step S110, when it is determined that the power to drive the doll device is'ON', collection of external voice data is started through the microphone of the doll device (S120).

상기 S120단계에서 음성 데이터 수집이 시작되면 이와 동시에 인형 디바이스의 제어부에서는 지정된 사용자인지의 여부를 판단한다(S130).When the voice data collection starts in step S120, at the same time, the controller of the doll device determines whether or not the user is a designated user (S130).

상기 S130단계에의 판단결과, 지정된 사용자가 아닌 것으로 판단되면 처음 시작 단계로 되돌린다.As a result of the determination in step S130, if it is determined that the user is not the designated user, the initial step is returned.

상기 S130단계에의 판단결과, 지정된 사용자인 것으로 판단되면 연속적으로 사용자 연령을 판단한다(S140). 이어서 수집되는 음성 데이터를 사용자가 내는 음성인 자연어와 사용자를 제외한 주변 소음을 분류하여 자연어/비자연어 체계로 음성 데이터에 대한 분류 처리를 실행한다(S150).As a result of the determination in step S130, if it is determined that the user is a designated user, the age of the user is continuously determined (S140). Subsequently, the collected voice data is classified into natural language, which is a voice produced by the user, and ambient noise excluding the user, and classification processing is performed on the voice data in a natural/unnatural language system (S150).

상기 S150단계에서 분류 처리된 음성 데이터 중 비자연어를 제외한 '자연어' 만을 데이터베이스에 저장하고 학습과 축적으로 빅 데이터 관리를 시작한다(S160).Among the voice data classified in step S150, only'natural language' excluding non-natural language is stored in the database, and big data management is started through learning and accumulation (S160).

상기 S160단계에서 관리되는 음성 데이터는 관리 서버로 전송되고, 관리 서버에서는 음성 데이터 신호를 빅 데이터를 기반으로 비교 평가 또는 연산 판단을 시작한다(S180).The voice data managed in step S160 is transmitted to the management server, and the management server starts comparative evaluation or calculation determination based on big data of the voice data signal (S180).

상기 S180단계에서 판단된 빅 데이터를 기반으로 질병인지, 또는 질병이 의심되는지가 판단된다(S190).It is determined whether a disease or a disease is suspected based on the big data determined in step S180 (S190).

상기 S190단계에의 판단결과, 질병 또는 질병 의심으로 판단되지 않은 경우 수신된 음성 데이터 정보 처리 결과들은 관리 서버의 빅 데이터로 축적된다(S200).When the determination result in step S190 is not determined as a disease or disease suspicion, the received voice data information processing results are accumulated as big data of the management server (S200).

상기 S190단계에의 판단결과, 질병 또는 질병 의심으로 판단되는 경우 사용자 당사자 인형 디바이스로 푸시 메세지를 전송하여 통지하는 것으로 음성 데이터에 대한 음성 분석 루틴이 종료된다(S210).As a result of the determination in step S190, when it is determined that a disease or a disease is suspected, the voice analysis routine for the voice data is terminated by sending a push message to the user's doll device and notifying it (S210).

한편, 본 발명의 일실시예에 따른 AI 스피커를 이용한 노인 케어 시스템의 활용 영역과 그 평가 예를 살펴보면 아래와 같다.Meanwhile, an application area of the elderly care system using an AI speaker according to an embodiment of the present invention and an example of its evaluation are as follows.

노년층의 음성을 인형 디바이스(200)를 통해 녹음하고, SOLA(Synchronized Overlap-Add algorithm)를 활용하여 노년층의 발화속도를 조정한 후, 조정 전후의 인식율의 차이를 확인하였다. 그 결과, 발화속도 조정 후 음성 인식율은 조정 전보다 남성 14.5%, 여성 10.1% 씩 상승된 것을 확인하였다. 즉, 노인남성의 평균 인식율은 78.6%이고, 조정 후 93.1%로 약 14.5% 인식율이 향상되었고, 노인여성은 발화속도 조정 전 77.0%에서 조정 후 87.1%로 약 10.1%로 음성인식의 향상을 보였다.The voices of the elderly were recorded through the doll device 200, and the speech speed of the elderly was adjusted using a Synchronized Overlap-Add algorithm (SOLA), and the difference in recognition rate before and after the adjustment was confirmed. As a result, it was confirmed that the speech recognition rate increased by 14.5% for men and 10.1% for women after the speech rate was adjusted. In other words, the average recognition rate of elderly men was 78.6%, and the recognition rate improved by 93.1% after adjustment by about 14.5%, and voice recognition by elderly women was improved from 77.0% before adjustment to 87.1% after adjustment to 10.1%. .

노년층의 음절별 발화속도를 조정하는 경우 청년의 음성인식율과 상당히 비슷해졌음을 알 수 있다. 이와 더불어, 노년층의 경우 발화속도 조정 후 약 9.9%의 음성인식 실패율이 확인되었다. 이에 음성인식 실패원인 분석을 통하여 초성약화, 묵음문제, 발음오류의 3가지의 원인이 확인되었다.It can be seen that the voice recognition rate of the young people is quite similar to the voice recognition rate of the young when adjusting the speech speed of each syllable in the elderly. In addition, in the case of the elderly, voice recognition failure rate of about 9.9% was confirmed after the speech rate was adjusted. Accordingly, through analysis of the cause of speech recognition failure, three causes were identified: initial weakness, silence problem, and pronunciation error.

이 중에서 발음오류는 가장 많이 나타나는 오류로 확인되었다. 발화속도 조정 전에는 성공했지만 조정 후 실패한 오류에서는 나타나지 않았고, 조정 전후 모두 실패한 경우에만 많이 나타나는 오류임을 확인하였다. 초성약화는 초성에 대한 음절의 길이와 에너지값에 대한 유지가 확보된다면 더 정확한 음성인식 성공율율 기대해 볼 수 있을 것이며, 마지막으로 묵음 문제는 복합명사(예, 다운로드 관리)에 주로 나타났고, 이 경우에는 묵음이 부족하게 나타나는 음성에 직접적으로 묵음을 추가한 후, 묵음문제의 오류의 84%가 음성인식 성공율로 나타남을 확인하였다.Among them, pronunciation errors were identified as the most common errors. It was confirmed that it was successful before the ignition speed adjustment, but it did not appear in the error that failed after the adjustment, and it was a common error only when both before and after the adjustment failed. In the case of initial weakening, if the length and energy value of the syllable for the initial voice are secured, a more accurate speech recognition success rate can be expected. Finally, the silent problem mainly appeared in compound nouns (eg download management). After adding silence directly to the voice that lacks silence, 84% of the errors in the silence problem appear as the speech recognition success rate.

본 시험을 통하여 인형 디바이스(200)를 부담감 없이 사용하는 과정에서 연령대별로 추출된 음성 데이터를 기초로 발화의 속도와 패턴 등을 청년층에 가깝게 교정하는 음성인터페이스 기능 보완을 통해 노년층의 인형 디바이스(200) 사용에 대한 관심을 끌 수 있는 결과를 얻을 수 있었고, 본 발명은 빅 데이터에 기반하는 질병의 진단과 처방을 포함하여 발화 속도와 관련되는 치매나 노화를 지연시키는 뇌 기능 활성을 촉진시킬 수 있는 용도로도 사용할 수 있음을 확인할 수 있었다.In the process of using the doll device 200 without burden through this test, the doll device 200 of the elderly by supplementing the voice interface function that corrects the speed and pattern of speech closer to the youth based on the voice data extracted by age group. A result that could attract interest in use was obtained, and the present invention is used to promote brain function activity that delays dementia or aging related to the rate of ignition, including diagnosis and prescription of diseases based on big data It was confirmed that it can also be used as.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 실시예로 한정되지 않으며 본 발명의 요지를 벗어나지 않은 범위 내에서 수정 및 변형하여 실시할 수 있으며 수정과 변형이 이루어진 것은 본 발명의 기술 사상에 포함된다.The present invention has been described with reference to the embodiments shown in the drawings, but is not limited to the embodiments, and can be carried out with modifications and variations without departing from the gist of the present invention, and modifications and variations are made in the spirit of the present invention. Included.

100: 유무선통신 네트워크(망)
200: 인형 디바이스 210: 통신모듈
220: 마이크 230: 스피커
240: 음성정보처리부 250: 제어부
260: 분류처리부 270: 전송부
280: 데이터베이스 281: 음성합성부
282: 터치센서 283: 충격감지센서
284: IR센서 300: 관리서버
310: 통신모듈 320: 전처리부
330: 음성분석부 340: 질병판단부
350: 메세지 전송부 360: 데이터베이스
100: wired/wireless communication network (network)
200: doll device 210: communication module
220: microphone 230: speaker
240: voice information processing unit 250: control unit
260: classification processing unit 270: transmission unit
280: database 281: speech synthesis unit
282: touch sensor 283: shock sensor
284: IR sensor 300: management server
310: communication module 320: preprocessor
330: voice analysis unit 340: disease judgment unit
350: message transmission unit 360: database

Claims (8)

음성을 수집하는 마이크; 음성을 출력하는 스피커; 수집되는 음성 데이터를 분류 처리하고 분류 처리된 음성 데이터를 관리 서버로 전송하는 전송부;를 구비하는 인형 디바이스; 및
상기 관리 서버는 수신되는 음성 데이터 중 비자연어를 배제하여 정규화하는 전처리부; 상기 전처리부에서 전처리된 음성 데이터를 빅데이터 기반으로 분석하는 음성 분석부; 분석된 결과에 대응되는 메시지를 상기 인형 디바이스로 전송하는 메시지 전송부;를 포함하는, AI 스피커를 이용한 노인 케어 시스템.
A microphone for collecting voice; A speaker outputting sound; A doll device including a transmission unit for classifying the collected voice data and transmitting the classified voice data to the management server; And
The management server may include a preprocessor for normalizing by excluding non-natural languages from among received voice data; A voice analysis unit that analyzes the voice data preprocessed by the preprocessor based on big data; A message transmission unit for transmitting a message corresponding to the analyzed result to the doll device; including, elderly care system using an AI speaker.
제 1 항에 있어서,
상기 인형 디바이스를 통해 수집된 음성 데이터를 관리 서버로 전송하고, 관리 서버에서 전송한 메시지를 인형 디바이스로 전송하는 중계부;를 더 포함하는 AI 스피커를 이용한 노인 케어 시스템.
The method of claim 1,
A relay unit for transmitting the voice data collected through the doll device to the management server, and transmitting the message transmitted from the management server to the doll device; the elderly care system using an AI speaker further comprising.
제 1 항에 있어서,
상기 관리 서버는 상기 인형 디바이스의 IR 센서 영상과 수집된 음성 데이터 신호를 이용하여 사용자의 질병 여부를 판단하는 질병 판단부;를 포함하는 AI 스피커를 이용한 노인 케어 시스템.
The method of claim 1,
The management server is a disease determination unit for determining whether the user is sick using the IR sensor image of the doll device and the collected voice data signal; and an aged care system using an AI speaker comprising a.
제 1 항에 있어서,
상기 관리 서버는 상기 인형 디바이스의 IR 센서 영상과 수집된 음성 데이터신호의 음절과 모음 사이의 길이를 측정하여 질병 진행 여부를 판단하는 질병 판단부;를 더 포함하는 AI 스피커를 이용한 노인 케어 시스템.
The method of claim 1,
The management server further comprises a disease determination unit for determining whether the disease progresses by measuring the length between the syllables and vowels of the IR sensor image of the doll device and the collected voice data signal.
사용자의 음성을 수집하는 마이크, 음성을 출력하는 스피커를 구비하는 인형 디바이스를 통해 음성 데이터를 수집 저장 관리하고 관리 서버로 음성 데이터를 전송하는 단계;
관리 서버의 전처리부를 통해 상기 단계로부터 수신되는 음성 데이터 신호들 중 비자연어적인 요소를 배제하여 정규화하는 단계;
상기 단계로부터 전처리된 음성 데이터를 빅데이터 기반으로 분석하는 음성 분석 단계; 및 상기 단계로부터 분석된 결과에 대응되는 메시지를 상기 인형 디바이스로 전송하는 메시지 전송 단계;를 포함하는, AI 스피커를 이용한 노인 케어 방법.
Collecting and managing voice data through a doll device including a microphone for collecting user's voice and a speaker for outputting voice, and transmitting voice data to a management server;
Normalizing by excluding non-natural language elements among voice data signals received from the step through a preprocessor of the management server;
A voice analysis step of analyzing the voice data preprocessed from the step based on big data; And a message transmitting step of transmitting a message corresponding to the result analyzed from the step to the doll device. Including, the elderly care method using an AI speaker.
제 4 항에 있어서,
상기 음성 데이터를 전송하는 단계는, 상기 인형 디바이스로부터 수집되는 음성 데이터를 관리 서버로 전송하고, 상기 관리 서버에서 전송한 메시지를 상기 인형 디바이스로 전송하는 중계 단계;를 포함하는 AI 스피커를 이용한 노인 케어 방법.
The method of claim 4,
The transmitting of the voice data may include a relay step of transmitting the voice data collected from the doll device to a management server, and transmitting a message transmitted from the management server to the doll device; Way.
제 4 항에 있어서,
상기 음성 분석 단계는, 상기 인형 디바이스의 IR 센서 영상과 수집된 음성 데이터 신호를 이용하여 사용자의 질병 여부를 판단하는 질병 판단 단계;를 포함하는 AI 스피커를 이용한 노인 케어 방법.
The method of claim 4,
The voice analysis step includes a disease determination step of determining whether a user has a disease using an IR sensor image of the doll device and a collected voice data signal.
제 4 항에 있어서,
상기 음성 분석 단계는, 상기 인형 디바이스의 IR 센서 영상과 수집된 음성 데이터신호의 음절과 모음 사이의 길이를 측정하여 질병 진행 여부를 판단하는 질병 판단 단계;를 더 포함하는 IR 스피커를 이용한 노인 케어 방법.
The method of claim 4,
The voice analysis step further comprises: a disease determination step of determining whether the disease progresses by measuring the length between the syllables and vowels of the IR sensor image of the doll device and the collected voice data signal; .
KR1020190013263A 2019-02-01 2019-02-01 Elderly care system and method using AI speakers KR20200095668A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190013263A KR20200095668A (en) 2019-02-01 2019-02-01 Elderly care system and method using AI speakers

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190013263A KR20200095668A (en) 2019-02-01 2019-02-01 Elderly care system and method using AI speakers

Publications (1)

Publication Number Publication Date
KR20200095668A true KR20200095668A (en) 2020-08-11

Family

ID=72048242

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190013263A KR20200095668A (en) 2019-02-01 2019-02-01 Elderly care system and method using AI speakers

Country Status (1)

Country Link
KR (1) KR20200095668A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230159781A (en) * 2022-05-13 2023-11-22 미스터마인드 주식회사 A method and an apparatus for providing analyzing information of cognitive cards based on artificial intelligence conversation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150112901A (en) 2014-03-28 2015-10-07 세종대학교산학협력단 System and method for reconizing voice
KR101894722B1 (en) 2018-03-12 2018-10-04 미디어젠(주) Health anomaly prediction system using speech disorder diagnosis and Method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150112901A (en) 2014-03-28 2015-10-07 세종대학교산학협력단 System and method for reconizing voice
KR101894722B1 (en) 2018-03-12 2018-10-04 미디어젠(주) Health anomaly prediction system using speech disorder diagnosis and Method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230159781A (en) * 2022-05-13 2023-11-22 미스터마인드 주식회사 A method and an apparatus for providing analyzing information of cognitive cards based on artificial intelligence conversation

Similar Documents

Publication Publication Date Title
US12051410B2 (en) Method and apparatus to provide comprehensive smart assistant services
US10223934B2 (en) Systems and methods for expressive language, developmental disorder, and emotion assessment, and contextual feedback
Young et al. Difficulties in automatic speech recognition of dysarthric speakers and implications for speech-based applications used by the elderly: A literature review
Bocklet et al. Detection of persons with Parkinson's disease by acoustic, vocal, and prosodic analysis
US20230045064A1 (en) Voice recognition using accelerometers for sensing bone conduction
CN112750465A (en) Cloud language ability evaluation system and wearable recording terminal
US11915705B2 (en) Facial movements wake up wearable
KR102314213B1 (en) System and Method for detecting MCI based in AI
JP2018050847A (en) Cognitive function evaluation apparatus, cognitive function evaluation method, and program
US20180308501A1 (en) Multi speaker attribution using personal grammar detection
CN110480656B (en) Accompanying robot, accompanying robot control method and accompanying robot control device
Hay et al. Car-talk: Location-specific speech production and perception
JP3908965B2 (en) Speech recognition apparatus and speech recognition method
US20240220016A1 (en) System and method for using gestures and expressions for controlling speech applications
JP2024531884A (en) Decoding detected silent speech
Vojtech et al. Surface electromyography–based recognition, synthesis, and perception of prosodic subvocal speech
WO2021035067A1 (en) Measuring language proficiency from electroencephelography data
CN109074809B (en) Information processing apparatus, information processing method, and computer-readable storage medium
JP2021110895A (en) Hearing impairment determination device, hearing impairment determination system, computer program and cognitive function level correction method
van Brenk et al. Investigating acoustic correlates of intelligibility gains and losses during slowed speech: A hybridization approach
Mulfari et al. Edge computing solutions supporting voice recognition services for speakers with dysarthria
KR20200095668A (en) Elderly care system and method using AI speakers
WO2015168274A1 (en) System and method for expressive language, developmental disorder, and emotion assessment
Ifukube Sound-based assistive technology
WO2020235089A1 (en) Evaluation device, training device, methods therefor, and program

Legal Events

Date Code Title Description
E601 Decision to refuse application