KR102433246B1 - 음성에 기초한 어린이의 감정 컨디션 검출 시스템 - Google Patents
음성에 기초한 어린이의 감정 컨디션 검출 시스템 Download PDFInfo
- Publication number
- KR102433246B1 KR102433246B1 KR1020200054148A KR20200054148A KR102433246B1 KR 102433246 B1 KR102433246 B1 KR 102433246B1 KR 1020200054148 A KR1020200054148 A KR 1020200054148A KR 20200054148 A KR20200054148 A KR 20200054148A KR 102433246 B1 KR102433246 B1 KR 102433246B1
- Authority
- KR
- South Korea
- Prior art keywords
- voice
- child
- information
- recording device
- children
- Prior art date
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 59
- 230000002996 emotional effect Effects 0.000 title claims abstract description 46
- 230000008451 emotion Effects 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 7
- 206010011469 Crying Diseases 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 10
- 238000009434 installation Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000000034 method Methods 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000003442 weekly effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0004—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4803—Speech analysis specially adapted for diagnostic purposes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/746—Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/15—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/06—Children, e.g. for attention deficit diagnosis
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Public Health (AREA)
- Physiology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Computational Linguistics (AREA)
- Hospice & Palliative Care (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Child & Adolescent Psychology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Telephonic Communication Services (AREA)
Abstract
본 발명은 음성에 기초한 어린이의 감정 컨디션 검출 시스템에 관한 것으로, 그 구성은 어린이가 생활하는 어린이집과 유치원과 같은 적어도 하나 이상의 공동 시설에서 어린이가 생활하는 공간에 적어도 하나 이상 설치되어 어린이의 음성을 녹음 수집하는 음성녹음 기기;와, 상기 음성녹음 기기에 녹음된 수집된 음성 정보를 관리서버로 전송하는 하나 이상의 유·무선 송신부;와, 상기 유·무선 송신부에서 전송되는 음정 정보를 수신하는 유·무선 수신부;와, 상기 유·무선 수신부로 수신된 음성 정보를 저장하는 데이터베이스와, 상기 데이터베이스에 저장된 음성 정보로부터 적어도 하나 이상의 감정 항목에 해당하는 소리를 추출하여 객관적인 검출정보를 생성하는 검출부를 포함하는 관리서버;로 이루어지는 것을 특징으로 하는 것으로서,
유치원이나 어린이집과 같은 공동 시설에 설치되는 음성녹음 기기를 통해 공동 시설에 생활하는 어린이의 음성을 녹음 수집하고, 그 수집된 음성 정보를 관리서버의 검출부를 통해 설정된 감정 항목에 해당하는 소리를 추출하고, 그 추출된 정보를 기반으로 객관적인 검출정보를 생산한 후, 그 검출정보를 어린이의 보호자 휴대폰으로 전송함으로, 어린이의 보호자는 검출정보를 기초로 자신 아이의 감정 컨디션을 매우 객관적으로 인지할 수 있어 공동 시설에 생활하면서 적응하는 아이에 대한 보호자의 근심 걱정을 효과적으로 해소할 수 있는 효과가 있다.
또한, 음성을 녹음하는 음성녹음 기기는 종래의 CCTV와 같은 기기에 대비하여 매우 저렴한 가격을 형성하고 있어 설치 운영에 대한 금전적인 부담이 없어 소규모의 공동 시설에서도 용이하게 운영될 수 있을 뿐만 아니라, 음성만 녹음되는 특성상 개인 사생활 보호 및 초상권에 대한 폐해를 방지할 수 있어 현실적으로 사용범용성이 우수한 효과가 있다.
유치원이나 어린이집과 같은 공동 시설에 설치되는 음성녹음 기기를 통해 공동 시설에 생활하는 어린이의 음성을 녹음 수집하고, 그 수집된 음성 정보를 관리서버의 검출부를 통해 설정된 감정 항목에 해당하는 소리를 추출하고, 그 추출된 정보를 기반으로 객관적인 검출정보를 생산한 후, 그 검출정보를 어린이의 보호자 휴대폰으로 전송함으로, 어린이의 보호자는 검출정보를 기초로 자신 아이의 감정 컨디션을 매우 객관적으로 인지할 수 있어 공동 시설에 생활하면서 적응하는 아이에 대한 보호자의 근심 걱정을 효과적으로 해소할 수 있는 효과가 있다.
또한, 음성을 녹음하는 음성녹음 기기는 종래의 CCTV와 같은 기기에 대비하여 매우 저렴한 가격을 형성하고 있어 설치 운영에 대한 금전적인 부담이 없어 소규모의 공동 시설에서도 용이하게 운영될 수 있을 뿐만 아니라, 음성만 녹음되는 특성상 개인 사생활 보호 및 초상권에 대한 폐해를 방지할 수 있어 현실적으로 사용범용성이 우수한 효과가 있다.
Description
본 발명은 음성에 기초한 어린이의 감정 컨디션 검출 시스템에 관한 것으로, 더욱 상세하게는 유치원이나 어린이집과 같은 공동 시설에 설치되는 음성녹음 기기를 통해 공동 시설에 생활하는 어린이의 음성을 녹음 수집하고, 그 수집된 음성 정보를 관리서버의 검출부를 통해 설정된 감정 항목에 해당하는 소리를 추출하고, 그 추출된 정보를 기반으로 객관적인 검출정보를 생산한 후, 그 검출정보를 어린이의 보호자 휴대폰으로 전송함으로, 어린이의 보호자는 검출정보를 기초로 자신 아이의 감정 컨디션을 매우 객관적으로 인지할 수 있어 공동 시설에 생활하면서 적응하는 아이에 대한 보호자의 근심 걱정을 효과적으로 해소할 수 있는 음성에 기초한 어린이의 감정 컨디션 검출 시스템에 관한 것이다.
일반적으로 유치원이나 어린이집과 같은 공동 시설에 자신의 아이를 의탁하는 부모(보호자)들은 대부분 자신의 아이가 공동 시설에서 잘 적응하여 재미있고 편안하게 생활하고 있는지에 대해 항상 고민과 걱정이 있다.
비록, 공동 시설에서 아이를 돌보는 선생님과 부모의 소통을 통해 아이의 적응 상태를 전달받지만, 현실적으로 선생님과 부모의 소통 횟수가 매우 적을 뿐만 아니라, 아이에 대한 선생님의 주관적인 판단에 의한 것이므로 상기와 같은 부모의 고민은 현실적으로 해결되지 않고 있는 실정이다.
한편, 공동 시설에 설치되는 CCTV를 통해 촬영된 영상을 통해 공동 시설에서 생활하는 아이의 영상을 확인하는 방식으로 아이의 생활 상태를 확인할 수 있으나, 이러한 영상은 안전사고와 같은 특별한 상황에서만 확인할 수 있고, 또한 최근에는 시설에 설치되는 CCTV는 개인 사생활 보호와 초상권으로 인한 폐해로 인해 설치되지 않거나, 설치되었더라도 제대로 사용되지 않는 경우가 빈번하여 CCTV를 통해서는 아이의 적응, 생활 상태를 효과적으로 확인하기가 곤란하다.
더욱이, CCTV는 설치 및 운영에 금전적으로 많은 비용이 요구되는 만큼 규모가 작은 공동 시설에서는 CCTV의 설치가 자체가 곤란하여 CCTV를 통한 아이의 적응 및 생활 상태를 확인하기에는 많은 어려움이 있다.
따라서 유치원이나 어린이집과 같은 공동 시설에 아이를 의탁하는 부모에게 아이가 공동 시설에서 생활하는 적응 상태를 명확하게 인지할 수 있는 객관적인 정보를 제공할 수 있는 시스템이 필요한 실정이다.
본 발명은 상기한 바와 같은 제반 문제점을 해결하기 위하여 제안된 것으로, 그 목적은 유치원이나 어린이집과 같은 공동 시설에 설치되는 음성녹음 기기를 통해 공동 시설에 생활하는 어린이의 음성을 녹음 수집하고, 그 수집된 음성 정보를 관리서버의 검출부를 통해 설정된 감정 항목에 해당하는 소리를 추출하고, 그 추출된 정보를 기반으로 객관적인 검출정보를 생산한 후, 그 검출정보를 어린이의 보호자 휴대폰으로 전송함으로, 어린이의 보호자는 검출정보를 기초로 자신 아이의 감정 컨디션을 매우 객관적으로 인지할 수 있어 공동 시설에 생활하면서 적응하는 아이에 대한 보호자의 근심 걱정을 효과적으로 해소할 수 있는 음성에 기초한 어린이의 감정 컨디션 검출 시스템을 제공함에 있다.
또한, 음성을 녹음하는 음성녹음 기기는 종래의 CCTV와 같은 기기에 대비하여 매우 저렴한 가격을 형성하고 있어 설치 운영에 대한 금전적인 부담이 없어 소규모의 공동 시설에서도 용이하게 운영될 수 있을 뿐만 아니라, 음성만 녹음되는 특성상 개인 사생활 보호 및 초상권에 대한 폐해를 방지할 수 있어 현실적으로 사용범용성이 우수한 음성에 기초한 어린이의 감정 컨디션 검출 시스템을 제공함에 있다.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 음성에 기초한 어린이의 감정 컨디션 검출 시스템은 어린이가 생활하는 어린이집과 유치원과 같은 적어도 하나 이상의 공동 시설에서 어린이가 생활하는 공간에 적어도 하나 이상 설치되어 어린이의 음성을 녹음 수집하는 음성녹음 기기;와, 상기 음성녹음 기기에 녹음된 수집된 음성 정보를 관리서버로 전송하는 하나 이상의 유·무선 송신부;와, 상기 유·무선 송신부에서 전송되는 음정 정보를 수신하는 유·무선 수신부;와, 상기 유·무선 수신부로 수신된 음성 정보를 저장하는 데이터베이스와, 상기 데이터베이스에 저장된 음성 정보로부터 적어도 하나 이상의 감정 항목에 해당하는 소리를 추출하여 객관적인 검출정보를 생성하는 검출부를 포함하는 관리서버;를 포함하되,
상기 관리서버의 검출부는 상기 데이터베이스에 저장된 음성 정보로부터 추출하고자 하는 감정 항목을 설정하는 것으로, 상기 감정 항목으로는 기쁨, 슬픔, 분노 항목이 포함되며, 그 항목 중에서 적어도 하나 이상이 설정되도록 하는 설정부와, 상기 설정부에서 설정된 감정 항목에 해당하는 소리를 상기 데이터베이스에 저장된 음성 정보로부터 추출하되, 상기 기쁨 항목은 웃음소리, 상기 슬픔 항목은 울음소리, 상기 분노 항목은 화내는 소리를 추출하는 추출부와, 상기 추출부를 통해 추출된 정보를 기반으로 상기 설정부에서 설정된 각 항목에 해당하는 소리가 지속된 전체 시간이나 총 횟수 또는 전체 시간과 총 횟수를 산출하는 산출부로 이루어지며,
상기 음성녹음 기기로부터 녹음될 어린이의 음성을 상기 음성녹음 기기를 통해 최소 2회 이상 반복 녹음하고, 그 녹음된 음성 정보를 기반으로 어린이의 음성에 대한 고유의 파형을 분석하여 어린이와 그 어린이 고유의 음성을 매칭시키는 음성 매칭부;를 더 포함하여 이루어져,
상기 음성녹음 기기를 통해 다수의 어린이 음성이 녹음되더라도, 그 녹음 수집되는 음성 정보로부터 각 어린이 별로 음성이 구분되어 수집되도록 하는 것을 특징으로 한다.
상기 관리서버의 검출부는 상기 데이터베이스에 저장된 음성 정보로부터 추출하고자 하는 감정 항목을 설정하는 것으로, 상기 감정 항목으로는 기쁨, 슬픔, 분노 항목이 포함되며, 그 항목 중에서 적어도 하나 이상이 설정되도록 하는 설정부와, 상기 설정부에서 설정된 감정 항목에 해당하는 소리를 상기 데이터베이스에 저장된 음성 정보로부터 추출하되, 상기 기쁨 항목은 웃음소리, 상기 슬픔 항목은 울음소리, 상기 분노 항목은 화내는 소리를 추출하는 추출부와, 상기 추출부를 통해 추출된 정보를 기반으로 상기 설정부에서 설정된 각 항목에 해당하는 소리가 지속된 전체 시간이나 총 횟수 또는 전체 시간과 총 횟수를 산출하는 산출부로 이루어지며,
상기 음성녹음 기기로부터 녹음될 어린이의 음성을 상기 음성녹음 기기를 통해 최소 2회 이상 반복 녹음하고, 그 녹음된 음성 정보를 기반으로 어린이의 음성에 대한 고유의 파형을 분석하여 어린이와 그 어린이 고유의 음성을 매칭시키는 음성 매칭부;를 더 포함하여 이루어져,
상기 음성녹음 기기를 통해 다수의 어린이 음성이 녹음되더라도, 그 녹음 수집되는 음성 정보로부터 각 어린이 별로 음성이 구분되어 수집되도록 하는 것을 특징으로 한다.
삭제
삭제
삭제
삭제
삭제
삭제
이상에서와 같이 본 발명에 따른 음성에 기초한 어린이의 감정 컨디션 검출 시스템에 의하면, 유치원이나 어린이집과 같은 공동 시설에 설치되는 음성녹음 기기를 통해 공동 시설에 생활하는 어린이의 음성을 녹음 수집하고, 그 수집된 음성 정보를 관리서버의 검출부를 통해 설정된 감정 항목에 해당하는 소리를 추출하고, 그 추출된 정보를 기반으로 객관적인 검출정보를 생산한 후, 그 검출정보를 어린이의 보호자 휴대폰으로 전송함으로, 어린이의 보호자는 검출정보를 기초로 자신 아이의 감정 컨디션을 매우 객관적으로 인지할 수 있어 공동 시설에 생활하면서 적응하는 아이에 대한 보호자의 근심 걱정을 효과적으로 해소할 수 있는 효과가 있다.
또한, 음성을 녹음하는 음성녹음 기기는 종래의 CCTV와 같은 기기에 대비하여 매우 저렴한 가격을 형성하고 있어 설치 운영에 대한 금전적인 부담이 없어 소규모의 공동 시설에서도 용이하게 운영될 수 있을 뿐만 아니라, 음성만 녹음되는 특성상 개인 사생활 보호 및 초상권에 대한 폐해를 방지할 수 있어 현실적으로 사용범용성이 우수한 효과가 있다.
도 1은 본 발명의 실시예에 따른 음성에 기초한 어린이의 감정 컨디션 검출 시스템의 블럭도
도 2는 도 1에 도시된 음성에 기초한 어린이의 감정 컨디션 검출 시스템의 개념도
도 3은 도 1에 도시된 음성에 기초한 어린이의 감정 컨디션 검출 시스템을 설명하기 위한 도면
도 2는 도 1에 도시된 음성에 기초한 어린이의 감정 컨디션 검출 시스템의 개념도
도 3은 도 1에 도시된 음성에 기초한 어린이의 감정 컨디션 검출 시스템을 설명하기 위한 도면
본 발명의 바람직한 실시예에 따른 음성에 기초한 어린이의 감정 컨디션 검출 시스템을 첨부된 도면에 의거하여 상세히 설명한다. 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 공지 기능 및 구성에 대한 상세한 기술은 생략한다.
도 1 내지 도 3은 본 발명의 실시예에 따른 음성에 기초한 어린이의 감정 컨디션 검출 시스템을 도시한 것으로, 도 1은 본 발명의 실시예에 따른 음성에 기초한 어린이의 감정 컨디션 검출 시스템의 블럭도를, 도 2는 도 1에 도시된 음성에 기초한 어린이의 감정 컨디션 검출 시스템의 개념도를, 도 3은 도 1에 도시된 음성에 기초한 어린이의 감정 컨디션 검출 시스템을 설명하기 위한 도면을 각각 나타낸 것이다.
상기 도면에 도시한 바와 같이, 본 발명의 실시예에 따른 음성에 기초한 어린이의 감정 컨디션 검출 시스템(100)은 음성녹음 기기(10)와, 유·무선 송신부(20)와, 유·무선 수신부(30)와, 관리서버(40)를 포함하고 있다.
도 1과 도 2에 도시된 바와 같이, 상기 음성녹음 기기(10)는 어린이가 생활하는 어린이집과 유치원과 같은 적어도 하나 이상의 공동 시설에서 어린이가 생활하는 공간에 적어도 하나 이상 설치되어 어린이의 음성(목소리)을 녹음 수집하도록 한다.
여기서, 상기 음성녹음 기기(10)를 통해 녹음되는 음성 정보는 후설될 상기 유·무선 송·수신부(20,30)를 통해 후설될 상기 관리서버(40)로 전송되어 상기 관리서버(40)의 검출부(42)를 통해 어린이의 객관적인 감정 컨디션을 검출하는 정보로 사용된다.
따라서 상기 음성녹음 기기(10)는 어린이의 음성이 용이하게 녹음될 수 있도록 어린이가 활동하는 영역에 골고루 배치됨이 바람직하다.
이러한 상기 음성녹음 기기(10)는 통상의 음성인식 스피커 등과 같은 기기로 구현될 수 있다.
도 1과 도 2에 도시된 바와 같이, 상기 유·무선 송신부(20)는 상기 음성녹음 기기(10)가 설치되는 공동 시설에 하나 이상 설치되는 것으로, 상기 음성녹음 기기(10)에 녹음된 수집된 음성 정보를 수집하여 상기 관리서버(40)로 전송하도록 한다.
여기서, 상기 유·무선 송신부 및 유·무선 수신부는 유선뿐만 아니라, 지그비(zigbee), 블루투스(bluetooth), 와이파이(Wi-Fi) 등과 같은 무선통신 방식을 통해 음성 정보를 송신하도록 한다.
도 1과 도 2에 도시된 바와 같이, 상기 유·무선 수신부(30)는 상기 유·무선 송신부(20)에서 전송되는 음정 정보를 수신하고, 그 수신된 음성 정보를 상기 관리서버(40)의 데이터베이스(41)로 제공하도록 한다.
도 1과 도 2에 도시된 바와 같이, 상기 관리서버(40)는 상기 유·무선 수신부(30)로 수신된 음성 정보를 저장하는 데이터베이스(41)와, 상기 데이터베이스(41)에 저장된 음성 정보로부터 적어도 하나 이상의 감정 항목에 해당하는 소리를 추출하여 객관적인 검출정보를 생성하는 검출부(42)로 이루어지는데,
상기 검출부(42)는 설정부(42a)와, 추출부(42b)와, 산출부(42c)로 구성된다.
상기 설정부(42a)는 상기 데이터베이스(41)에 저장된 음성 정보로부터 추출하고자 하는 감정 항목을 설정하는 것으로, 상기 감정 항목으로는 기쁨, 슬픔, 분노 항목이 포함되며, 그 항목 중에서 적어도 하나 이상이 설정되도록 한다.
즉, 관리자는 상기 데이터베이스(41)에 저장된 음성 정보로부터 추출하고자 하는 상기 설정부(42a)를 통해 항목을 선택 설정하는데, 설명의 편의를 위해 기쁨, 슬픔, 분노 항목을 모두 선택 설정하도록 하나, 일부 항목만 선택적으로 설정할 수 있음은 물론이다.
여기서, 상기 감정 항목으로 사람의 가장 기본적인 감정인 기쁨, 슬픔, 분노 항목으로 구분하였으나, 그 외의 감정인 질투심, 괴로움 등과 같은 항목을 별도의 감정 항목으로 추가할 수 있음은 물론이다.
상기 추출부(42b)에서는 상기 설정부(42a)에서 설정된 감정 항목에 해당하는 소리를 상기 데이터베이스(41)에 저장된 음성 정보로부터 추출하되, 상기 기쁨 항목은 웃음소리, 상기 슬픔 항목은 울음소리, 상기 분노 항목은 화내는 소리를 추출하도록 한다.
이렇게 상기 음성 정보로부터 추출된 추출정보는 후설될 상기 산출부(42c)에서 객관적인 검출정보를 생성하는 기반이 된다.
도 3b에 도시된 바와 같이, 상기 산출부(42c)는 상기 추출부(42b)를 통해 추출된 정보를 기반으로 상기 설정부(42a)에서 설정된 각 항목에 해당하는 소리가 지속된 전체 시간이나 총 횟수 또는 전체 시간과 총 횟수를 산출하는 방식으로 매우 객관적인 검출정보가 생산된다.
즉, 상기 산출부(42c)를 통해 산출 생산된 검출정보는 사람의 주관적인 판단이 배제된 통계 정보이므로 매우 객관적인 정보로 볼 수 있으므로, 상기 검출정보를 통해 공동 시설에서 생활하는 어린이의 감정 컨디션을 매우 객관적으로 알 수 있게 된다.
일 예로, 어린이의 음성 정보로부터 추출된 항목 중에서 상기 기쁨 항목의 전체 시간이나 총 횟수가 많은 경우에는 어린이의 감정 컨디션이 밝고 행복한 상태로 인지할 수 있고, 상기 슬픔 항목이 많은 경우에는 어린이의 감정 컨디션이 다소 불편하고 불행한 상태로 인지할 수 있고, 상기 분노 항목이 많은 경우에는 어린이의 감정 컨디션이 다소 불안하고 화가 난 상태로 인지할 수 있다.
여기서, 각 항목에 대한 단편적인 어린이의 감정 컨디션 상태를 설명하였으나, 상기의 감정 항목들을 복합적으로 수집 해석하여 보다 다양하고 정밀하게 어린이의 감정 컨디션을 검출할 수 있음은 물론이다.
또한, 상기 설정부(42a)를 통해 설정되는 감정 항목으로 활동성 항목을 더 포함하여,
상기 추출부(42b)에서는 활동성 항목으로 상기 음성녹음 기기를 통해 녹음되는 음성이 멀어지고 가까워지는 정보를 기반으로 어린이의 움직임 상태를 추출하도록 하며,
상기 산출부(42c)에서는 상기 추출부(42b)에서 추출된 정보를 기반으로 상기 활동성 항목에 해당하는 어린이의 움직임이 지속되는 전체 시간이나 총 횟수 또는 전체 시간과 총 횟수를 산출하도록 한다.
통상적으로 어린이가 소리를 내면서 이동하는 경우에 상기 음성녹음 기기(10)로부터 어린이가 멀어지면 음성의 소리가 점차 작아지고, 반대로 상기 음성녹음 기기(10)로 가까워지면 음성 소리가 점차 커지지는데, 이러한 정보를 기반으로 상기 추출부(42b)는 어린이의 움직임 상태를 추출하게 된다.
따라서, 도 3b에 도시된 바와 같이 상기 산출부(43c)는 상기 추출부(42b)의 추출정보를 기반으로 어린이의 움직임 상태가 지속된 전체 시간, 총 횟수를 산출함으로, 상기 검출정보에 어린이의 감정 항목과 함께 활동성 항목을 포함하여 함께 검출할 수 있다.
여기서, 상기 추출부(42b)는 각종 소리를 구분 검출하는 프로그램이나, 각각의 소리를 다양한 딥 러닝 방식으로 학습 습득하는 AI(Artificial Intelligence)를 통해 추출할 수 있다.
한편, 도 1과 도 2에 도시된 바와 같이 상기 관리서버(40)의 검출부(42)를 통해 생성되는 객관적인 검출정보를 각 어린이의 보호자 휴대폰(1)으로 전송하는 알림 전송부(60);를 더 포함하여 이루어진다.
즉, 도 3c에 도시된 바와 같이 상기 알림 전송부(60)에서 전송되는 객관적인 검출정보를 수신하는 어린이의 보호자는 공동 시설에서 생활하는 자신 아이의 감정 컨디션과 활동성을 객관적으로 확인 인지할 수 있어 공동 시설에 생활하면서 적응하는 아이에 대한 보호자의 근심 걱정을 효과적으로 해소할 수 있도록 한다.
더욱이, 상기 알람 전송부(60)에서 전송되는 객관적인 검출정보를 통해 상기 슬픔 및 분노 항목이 과도하게 검출된 경우에는 보호자의 적절한 개입을 유도하여 어린이가 바른 인성을 갖도록 적합한 시기에 바람직한 교육을 받도록 유도하거나, 어린이에 대한 학대와 폭력이 발생하는 상황을 미리 포착 대처하여 어린이가 안전하게 보호될 수 있도록 유도할 수 있다.
여기서, 상기 알람 전송부(60)는 상기 검출부(42)에서 생산된 검출정보를 하루에 한 번씩 보호자의 휴대폰(1)으로 전송하도록 하나, 시간별, 주별, 월별 등과 같이 다양한 시간 간격으로 전송할 수 있음은 물론이다.
한편, 도 1과 도 2에 도시된 바와 같이 상기 음성녹음 기기(10)로부터 녹음될 어린이의 음성을 상기 음성녹음 기기(10)를 통해 최소 2회 이상 반복 녹음하고, 그 녹음된 음성 정보를 기반으로 어린이의 음성에 대한 고유의 파형을 분석하여 어린이와 그 어린이 고유의 음성을 매칭시키는 음성 매칭부(50);를 더 포함하여 이루어진다.
통상적으로 유치원이나 어린이집과 같은 공동 시설은 다수의 어린이가 함께 생활하는 공간이므로 상기 음성인식 기기(10)를 통해 다수의 어린이 음성이 함께 녹음되므로, 그 녹음된 음성 정보로부터 각 어린이의 감정 항목을 추출하기 위해서는 음성 정보로부터 각 어린이 별로 음성의 구분 수집이 요구된다.
따라서, 도 3a에 도시된 바와 같이 상기 음성 매칭부(50)를 통해 상기 음성녹음 기기(10)에 녹음될 수 있는 어린이 별로 각 어린이의 고유의 음성 파형을 인식시켜 어린이와 그 어린이의 음성을 매칭하는 과정이 선 수행되어야 하는데,
본 발명에서는 상기 음성녹음 기기(10)로부터 녹음될 어린이의 음성을 상기 음성녹음 기기(10)를 통해 최소 2회 이상 반복 녹음하고, 상기 음성 매칭부(50)는 녹음된 음성 정보를 기반으로 어린이의 음성에 대한 고유의 파형을 분석하는 방식으로 어린이와 그 어린이 고유의 음성을 매칭시키며, 이렇게 매칭된 매칭 정보는 상기 관리서버(40)의 데이터베이스(41)로 전송되어 저장 관리될 수 있다.
즉, 상기 음성녹음 기기(10)를 통해 다수의 어린이 음성이 녹음되더라도, 그 녹음 수집되는 음성 정보로부터 각 어린이 별로 음성이 구분되어 수집될 수 있어 다수의 어린이의 감정 컨디션을 용이하게 검출할 수 있는 것이다.
상기와 같은 구성으로 이루어진 본 발명의 음성에 기초한 어린이의 감정 컨디션 검출 시스템(100)은 유치원이나 어린이집과 같은 공동 시설에 설치되는 상기 음성녹음 기기(10)를 통해 공동 시설에 생활하는 어린이의 음성을 녹음 수집하고, 그 수집된 음성 정보를 상기 관리서버(40)의 검출부(42)를 통해 설정된 감정 항목에 해당하는 소리를 추출하고, 그 추출된 정보를 기반으로 객관적인 검출정보를 생산한 후, 그 검출정보를 어린이의 보호자 휴대폰(1)으로 전송함으로, 어린이의 보호자는 검출정보를 기초로 자신 아이의 감정 컨디션을 매우 객관적으로 인지할 수 있어 공동 시설에 생활하면서 적응하는 아이에 대한 보호자의 근심 걱정을 효과적으로 해소할 수 있는 효과가 있다.
또한, 음성을 녹음하는 상기 음성녹음 기기(10)는 종래의 CCTV와 같은 기기에 대비하여 매우 저렴한 가격을 형성하고 있어 설치 운영에 대한 금전적인 부담이 없어 소규모의 공동 시설에서도 용이하게 운영될 수 있을 뿐만 아니라, 음성만 녹음되는 특성상 개인 사생활 보호 및 초상권에 대한 폐해를 방지할 수 있어 현실적으로 사용범용성이 우수한 효과가 있다.
상기와 같은 구성을 가진 본 발명의 실시예에 따른 음성에 기초한 어린이의 감정 컨디션 검출 시스템(100)은 다음과 같이 어린이의 음성으로부터 객관적인 검출정보를 생산하여 보호자에게 제공하도록 한다.
먼저, 도 2와 도 3a에 도시된 바와 같이 유치원이나 어린이집과 같은 공동 시설에 생활하는 다수의 어린이에 대한 감정 컨디션의 검출이 요구되면, 그 공동 시설에 다수의 음성녹음 기기(10)와 유·무선 송신부(20)를 설치한 후, 상기 음성녹음 기기(10)와 음성 매칭부(50)를 통해 각 어린이 별로 어린이와 그 어린이의 고유의 음성을 매칭시킨다.
그런 후, 도 2에 도시된 바와 같이 공동 시설에 설치되는 음성녹음 기기(10)를 통해 공동 시설에서 생활하는 다수의 어린이 음성을 녹음하고, 그 녹음된 음성 정보는 상기 유·무선 송신부(20)를 통해 관리서버(40)로 전송한다.
그러면, 도 2와 도 3b에 도시된 바와 같이 유·무선 수신부(30)는 상기 유·무선 송신부(20)에서 전송된 음성 정보를 수신하여 상기 관리서버(40)의 데이터베이스(41)로 제공하고, 그 데이터베이스(41)에 저장된 음성 정보는 검출부(42)를 통해 설정된 감정 항목에 해당하는 소리가 추출 산출되어 어린이의 감정 컨디션을 인지할 수 있는 객관적인 검출정보가 생산되도록 한다.
그런 후, 도 2와 도 3c에 도시된 바와 같이 상기 관리서버(40)의 알람 전송부(60)는 상기 검출부(42)에서 생산된 검출정보를 각 어린이의 보호자 휴대폰(1)으로 전송시켜 보호자가 자신 아이의 감정 컨디션을 객관적으로 인지할 수 있도록 한다.
본 발명의 음성에 기초한 어린이의 감정 컨디션 검출 시스템(100)을 유치원이나 어린이집과 같이 어린이가 생활하는 공동 시설에 적용하여 어린이의 감정 컨디션을 검출하는 방법을 설명하였으나, 노인들이 생활하는 양로원, 경로당, 요양원 등의 공동 시설에 설치하여 관심과 관리가 요구되는 노인들의 감정 컨디션을 검출하는데 적용하여 사용할 수 있음은 물론이다.
본 발명은 첨부된 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것으로 상술한 실시예에 한정되지 않으며, 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 실시예가 가능하다는 점을 이해할 수 있을 것이다. 또한, 본 발명의 사상을 해치지 않는 범위 내에서 당업자에 의한 변형이 가능함은 물론이다. 따라서, 본 발명에서 권리를 청구하는 범위는 상세한 설명의 범위 내로 정해지는 것이 아니라 후술되는 청구범위와 이의 기술적 사상에 의해 한정될 것이다.
1. 휴대폰
10. 음성녹음 기기 20. 유·무선 송신부
30. 유·무선 수신부 40. 관리서버
41. 데이터베이스 42. 검출부
42a. 설정부 42b. 추출부
42c. 산출부 50. 음성 매칭부
60. 알림 전송부
100. 음성에 기초한 어린이의 감정 컨디션 검출 시스템
10. 음성녹음 기기 20. 유·무선 송신부
30. 유·무선 수신부 40. 관리서버
41. 데이터베이스 42. 검출부
42a. 설정부 42b. 추출부
42c. 산출부 50. 음성 매칭부
60. 알림 전송부
100. 음성에 기초한 어린이의 감정 컨디션 검출 시스템
Claims (5)
- 어린이가 생활하는 어린이집과 유치원과 같은 적어도 하나 이상의 공동 시설에서 어린이가 생활하는 공간에 적어도 하나 이상 설치되어 어린이의 음성(목소리)을 녹음 수집하는 음성녹음 기기(10);
상기 음성녹음 기기(10)에 녹음된 수집된 음성 정보를 관리서버(40)로 전송하는 하나 이상의 유·무선 송신부(20);
상기 유·무선 송신부(20)에서 전송되는 음정 정보를 수신하는 유·무선 수신부(30); 및
상기 유·무선 수신부(30)로 수신된 음성 정보를 저장하는 데이터베이스(41)와, 상기 데이터베이스(41)에 저장된 음성 정보로부터 적어도 하나 이상의 감정 항목에 해당하는 소리를 추출하여 객관적인 검출정보를 생성하는 검출부(42)를 포함하는 관리서버(40);를 포함하되,
상기 상기 관리서버(40)의 검출부(42)는 상기 데이터베이스(41)에 저장된 음성 정보로부터 추출하고자 하는 감정 항목을 설정하는 것으로, 상기 감정 항목으로는 기쁨, 슬픔, 분노 항목이 포함되며, 그 항목 중에서 적어도 하나 이상이 설정되도록 하는 설정부(42a)와, 상기 설정부(42a)에서 설정된 감정 항목에 해당하는 소리를 상기 데이터베이스(41)에 저장된 음성 정보로부터 추출하되, 상기 기쁨 항목은 웃음소리, 상기 슬픔 항목은 울음소리, 상기 분노 항목은 화내는 소리를 추출하는 추출부(42b)와, 상기 추출부(42b)를 통해 추출된 정보를 기반으로 상기 설정부(42a)에서 설정된 각 항목에 해당하는 소리가 지속된 전체 시간이나 총 횟수 또는 전체 시간과 총 횟수를 산출하는 산출부(42c)로 이루어지며,
상기 음성녹음 기기(10)로부터 녹음될 어린이의 음성을 상기 음성녹음 기기(10)를 통해 최소 2회 이상 반복 녹음하고, 그 녹음된 음성 정보를 기반으로 어린이의 음성에 대한 고유의 파형을 분석하여 어린이와 그 어린이 고유의 음성을 매칭시키는 음성 매칭부(50);를 더 포함하여 이루어져,
상기 음성녹음 기기(10)를 통해 다수의 어린이 음성이 녹음되더라도, 그 녹음 수집되는 음성 정보로부터 각 어린이 별로 음성이 구분되어 수집되도록 하는 것을 특징으로 하는 음성에 기초한 어린이의 감정 컨디션 검출 시스템. - 삭제
- 삭제
- 삭제
- 삭제
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200054148A KR102433246B1 (ko) | 2020-05-06 | 2020-05-06 | 음성에 기초한 어린이의 감정 컨디션 검출 시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200054148A KR102433246B1 (ko) | 2020-05-06 | 2020-05-06 | 음성에 기초한 어린이의 감정 컨디션 검출 시스템 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210135902A KR20210135902A (ko) | 2021-11-16 |
KR102433246B1 true KR102433246B1 (ko) | 2022-08-17 |
Family
ID=78717121
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200054148A KR102433246B1 (ko) | 2020-05-06 | 2020-05-06 | 음성에 기초한 어린이의 감정 컨디션 검출 시스템 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102433246B1 (ko) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101029786B1 (ko) | 2006-09-13 | 2011-04-19 | 니뽄 덴신 덴와 가부시키가이샤 | 감정 검출 방법, 감정 검출 장치, 그 방법을 실장한 감정 검출 프로그램 및 그 프로그램을 기록한 기록 매체 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101328928B1 (ko) * | 2006-10-26 | 2013-11-14 | 엘지전자 주식회사 | 이동통신 단말기의 회의록 작성 방법 |
KR20140094336A (ko) * | 2013-01-22 | 2014-07-30 | 삼성전자주식회사 | 사용자 감정 추출이 가능한 전자기기 및 전자기기의 사용자 감정 추출방법 |
KR20160116586A (ko) * | 2015-03-30 | 2016-10-10 | 한국전자통신연구원 | 사용자 감정 인식 방법 및 장치 |
KR102019470B1 (ko) * | 2017-12-12 | 2019-09-06 | 세종대학교산학협력단 | 음성 발화 양식을 이용한 발화자 감정인식 방법 및 시스템 |
-
2020
- 2020-05-06 KR KR1020200054148A patent/KR102433246B1/ko active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101029786B1 (ko) | 2006-09-13 | 2011-04-19 | 니뽄 덴신 덴와 가부시키가이샤 | 감정 검출 방법, 감정 검출 장치, 그 방법을 실장한 감정 검출 프로그램 및 그 프로그램을 기록한 기록 매체 |
Non-Patent Citations (1)
Title |
---|
전유미 외, ‘생체신호를 활용한 학습 기반 영유아 스트레스 상태 식별 모델 연구’, 한국전자거래학회지, 2017.05.* |
Also Published As
Publication number | Publication date |
---|---|
KR20210135902A (ko) | 2021-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11631407B2 (en) | Smart speaker system with cognitive sound analysis and response | |
US8626505B2 (en) | Identifying and generating audio cohorts based on audio data input | |
US10785643B2 (en) | Deep learning neural network based security system and control method therefor | |
US10832673B2 (en) | Smart speaker device with cognitive sound analysis and response | |
US7248170B2 (en) | Interactive personal security system | |
US10096234B1 (en) | Smart band for autonumously recognizing crisis situation and automatically requesting rescue on the basis of sound and motion patterns | |
CN104040480A (zh) | 利用声学语境进行搜索的方法和系统 | |
KR102359344B1 (ko) | 인공지능 기반의 영유아 행동 및 심리분석 스마트 보육환경 모니터링 시스템 및 그 방법 | |
US20180040222A1 (en) | Activity monitor | |
Droghini et al. | A Combined One‐Class SVM and Template‐Matching Approach for User‐Aided Human Fall Detection by Means of Floor Acoustic Features | |
KR20210006419A (ko) | 건강 관련 정보 생성 및 저장 | |
US20210272555A1 (en) | Method, software, and device for training an alarm system to classify audio of an event | |
KR102488741B1 (ko) | 현장 상황 식별성이 향상된 비상벨 시스템 | |
Bonifazi et al. | A machine learning based sentient multimedia framework to increase safety at work | |
KR102433246B1 (ko) | 음성에 기초한 어린이의 감정 컨디션 검출 시스템 | |
KR102331335B1 (ko) | 취약자 돌봄 로봇 및 그 제어 방법 | |
KR102433242B1 (ko) | 음성에 기초한 어린이의 감정 컨디션 검출방법 | |
KR102667622B1 (ko) | 영상과 음성 신호 분석에 의한 상황판단 시스템 및 그 운용방법 | |
KR20200069506A (ko) | 청각장애인을 위한 딥러닝 기반의 스마트홈 경고 알림 서비스 제공방법, 이를 수행하기 위한 소리 분석 장치 및 이를 포함하는 스마트홈 경고 알림 시스템 | |
CN110428894B (zh) | 分布式监控系统及方法 | |
JP6605774B1 (ja) | 情報処理システム、情報処理装置、情報処理方法およびコンピュータプログラム | |
TWI656502B (zh) | 隨身安全照護方法、裝置及系統 | |
Tundis et al. | An IoT-based context-aware model for danger situations detection | |
KR101862337B1 (ko) | 정보 출력 장치, 방법 및 컴퓨터 판독 가능한 기록 매체 | |
KR102338445B1 (ko) | 정보 출력 장치, 방법 및 컴퓨터 판독 가능한 기록 매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |