KR102573461B1 - Smart artificial intelligence multi-fungtion emergency bell system and its control method - Google Patents

Smart artificial intelligence multi-fungtion emergency bell system and its control method Download PDF

Info

Publication number
KR102573461B1
KR102573461B1 KR1020230064590A KR20230064590A KR102573461B1 KR 102573461 B1 KR102573461 B1 KR 102573461B1 KR 1020230064590 A KR1020230064590 A KR 1020230064590A KR 20230064590 A KR20230064590 A KR 20230064590A KR 102573461 B1 KR102573461 B1 KR 102573461B1
Authority
KR
South Korea
Prior art keywords
module
voice
service
user
information
Prior art date
Application number
KR1020230064590A
Other languages
Korean (ko)
Inventor
오희재
최동수
이재용
김경수
김현진
이주연
이동우
박재현
임윤재
최종명
Original Assignee
주식회사 디앤샤인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 디앤샤인 filed Critical 주식회사 디앤샤인
Priority to KR1020230064590A priority Critical patent/KR102573461B1/en
Application granted granted Critical
Publication of KR102573461B1 publication Critical patent/KR102573461B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/006Alarm destination chosen according to type of event, e.g. in case of fire phone the fire service, in case of medical emergency phone the ambulance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/014Alarm signalling to a central station with two-way communication, e.g. with signalling back
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/10Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B3/00Audible signalling systems; Audible personal calling systems
    • G08B3/10Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/02User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Emergency Management (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Tourism & Hospitality (AREA)
  • Mathematical Physics (AREA)
  • Strategic Management (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Evolutionary Computation (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Computing Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)

Abstract

본 발명은 스마트 인공지능 다기능 비상벨 시스템 및 이의 제어방법에 관한 것으로서, 사용자의 음성을 입력받기 위한 마이크를 통하여 음성을 수집하는 음성수집모듈에서 수집된 음성을 외부 서버로 송수신하는 송수신모듈을 구비한 비상벨장치; 및 상기 비상벨장치로부터 수집된 음성을 제공받아 텍스트화하는 음성처리모듈과, 추출된 키워드 및 텍스트로부터 사용자의 감정을 분석하는 감정분석모듈과, 상기 감정분석모듈에서 검출된 감정데이터와 미리 저장된 서비스기관 정보 데이터를 비교하여 매칭된 서비스기관에 상기 감정데이터를 제공하여 서비스를 요청하는 서비스기관연계모듈을 포함하는 제어부;를 포함하여 서버를 관리하는 관제센터;를 포함하여, 재해, 재난, 사건, 사고로부터의 인명 및 재산 보호, 방범, 범죄예방 등의 목적으로 구축될 수 있으며, 장소가 협소한 곳에도 운용 가능하여 위급상황에 도움을 요청하여 위급상황 전파할 수 있으며, 실내외 열악한 환경에서도 사용될 수 있다.The present invention relates to a smart artificial intelligence multifunctional emergency bell system and a control method thereof, and is provided with a transmission/reception module for transmitting and receiving the collected voice from a voice collection module that collects voice through a microphone for receiving a user's voice to an external server emergency bell device; And a voice processing module that converts the voice collected from the emergency bell device into text, an emotion analysis module that analyzes the user's emotion from the extracted keywords and text, and the emotion data detected by the emotion analysis module and a pre-stored service. A control center including a service agency linkage module that compares agency information data and provides the emotion data to matched service agencies to request a service; including, a control center that manages a server; It can be built for the purpose of protecting life and property from accidents, crime prevention, and crime prevention. It can be operated even in a narrow place, so it can request help in an emergency situation and spread the emergency situation. It can be used in poor indoor and outdoor environments. there is.

Description

스마트 인공지능 다기능 비상벨 시스템 및 이의 제어방법{SMART ARTIFICIAL INTELLIGENCE MULTI-FUNGTION EMERGENCY BELL SYSTEM AND ITS CONTROL METHOD}Smart artificial intelligence multi-function emergency bell system and its control method {SMART ARTIFICIAL INTELLIGENCE MULTI-FUNGTION EMERGENCY BELL SYSTEM AND ITS CONTROL METHOD}

본 발명은 스마트 인공지능 다기능 비상벨 시스템 및 이의 제어방법에 관한 것으로서, 보다 상세하게는 사용자의 음성정보에 따라 위급상황 및 필요 서비스 등에 대응한 위급상황 신고 또는 다양한 공공정보 제공 및 시설 유지관리, 정보조회, 상업 광고 등을 수행할 수 있는 스마트 인공지능 다기능 비상벨 시스템 및 이의 제어방법에 관한 것이다.The present invention relates to a smart artificial intelligence multifunctional emergency bell system and a control method thereof, and more particularly, to report an emergency situation in response to an emergency situation and necessary services according to a user's voice information, or to provide various public information and maintain facilities, information It relates to a smart artificial intelligence multi-function emergency bell system that can perform inquiries, commercial advertisements, etc., and a control method thereof.

최근 들어 주로 공공장소 중 감시 사각지대 등에서 불특정인을 대상으로 하는 강력범죄 등에 대응하기 위한 적극적인 방법으로 전국 지자체 및 공공, 민간 등에서 비상벨 시스템을 설치 및 운영 중이고, 적용 범위 또한 점차 확대되어 가고 있다.Recently, emergency bell systems are being installed and operated in local governments, public and private sectors nationwide as an active method to respond to violent crimes targeting unspecified persons in blind spots of surveillance mainly in public places, and the scope of application is gradually expanding.

현재까지 방범 및 범죄 예방을 위한 가장 보편적인 방범 방법으로는 CCTV 감시 시스템이 이용되어 왔으나, 설치위치가 노출되어 있고 카메라로 습득한 화상 정보의 분석 위주로 운영되고 있기 때문에 음향 정보의 이용에는 취약한 단점을 가지고 있다.Until now, CCTV surveillance system has been used as the most common crime prevention method for crime prevention and crime prevention. Have.

특히 상기 CCTV 감시 시스템의 경우, 여성이 생활하는 숙소나 화장실 등 영상 수집이 어려운 곳에는 설치가 불가하기 때문에 해당 공간에 대한 감시는 물론 범죄 상황에서 신속히 대응할 수 없는 문제점이 있었다.In particular, in the case of the CCTV monitoring system, since it is impossible to install it in places where it is difficult to collect images, such as accommodations or bathrooms where women live, there is a problem in that it cannot monitor the space and respond quickly in a criminal situation.

이러한 문제를 극복하고자 공공장소 중 감시 사각지대 등에서 불특정인을 대상으로 하는 강력범죄에 대응하기 위한 적극적인 방법으로 전국 지자체 및 공공, 민간 등에서 비상벨 시스템을 설치 및 운영 중에 있으며 적용 범위 또한 점차 확대되어 가고 있다.In order to overcome these problems, emergency bell systems are being installed and operated in local governments, public and private sectors across the country as an active method to respond to violent crimes targeting unspecified persons in blind spots among public places, and the scope of application is gradually expanding. there is.

여기서 비상벨 시스템은 재해, 재난, 사건, 사고로부터의 인명 및 재산 보호, 방범, 범죄 예방 등의 목적으로 구축되는 시스템으로서 해당 비상 상황을 신속히 관계자에게 전달하여 구조 등의 조치가 이루어질 수 있도록 하는 시스템이다.Here, the emergency bell system is a system built for the purpose of protecting human life and property from disasters, disasters, incidents, accidents, crime prevention, and crime prevention. am.

비상벨 시스템은 IoT 기술을 도입한 IoT 비상벨 시스템이 시장에 출시되어 있고 있으며, 이 경우에는 3G, LTE와 같은 광대역 네트워크(통신망)와 연결되어 사용된다.As for the emergency bell system, an IoT emergency bell system introducing IoT technology has been released on the market, and in this case, it is used in connection with a broadband network (communication network) such as 3G and LTE.

한편, 공공장소 등에서 공공 서비스를 제공하기 위한 무인 안내데스크 (키오스크)는 인공지능 기술과 IoT 기술을 활용하여 공공시설 정보를 제공하는 자동화된 안내 시스템으로 사용되어지고, 일예로는 주요 대도시의 시청, 역사, 대형 병원 등에서 정보제공, 상담 및 예약 결제, 관리 등의 목적으로도 운용되고 있다. On the other hand, unmanned information desks (kiosks) for providing public services in public places are used as automated guidance systems that provide public facility information using artificial intelligence and IoT technology. Examples include city halls in major cities, It is also operated for the purpose of providing information, consulting, reservation payment, and management at stations and large hospitals.

이러한, 무인 안내데스크는 대부분 키오스크를 활용한 시각적인 인터페이스(UI) 환경을 제공하며, 가시성 유지를 위해 대형 LCD 패널을 사용하게 됨에 따라 협소한 장소의 경우에는 시스템 구축 및 이용에 문제가 있으며, 또, 고온 다습한 환경에서 장시간 노출되기 때문에 고장이 잦은 문제가 있었다.Most of these unmanned information desks provide a visual interface (UI) environment using a kiosk, and as large LCD panels are used to maintain visibility, there is a problem in building and using the system in a narrow place. However, since it is exposed for a long time in a high-temperature and high-humidity environment, it has a problem of frequent failure.

또한, 키오스크 및 인터넷 검색에 익숙하지 않은 고령자나 외국인 관광객들에게는 불편하며, 무인 안내데스크는 CCTV와 같은 카메라로 사용자들의 모습을 촬영하기 때문에 사생활 침해로 개인정보보호에 문제가 있었다.In addition, it is inconvenient for the elderly or foreign tourists who are not accustomed to kiosks and Internet searches, and since the unmanned information desks take pictures of users with cameras such as CCTVs, there is a problem in protecting personal information due to invasion of privacy.

1. 한국등록특허 제10-1434502호(2014.08.20.)1. Korean Patent Registration No. 10-1434502 (2014.08.20.) 2. 한국등록특허 제10-1832446호(2018.02.20.)2. Korea Patent Registration No. 10-1832446 (2018.02.20.) 3. 한국공개특허 제10-2022-0064702호(2022.05.19.)3. Korean Patent Publication No. 10-2022-0064702 (2022.05.19.)

본 발명은 스마트 인공지능 다기능 비상벨 시스템 및 이의 제어방법에 관한 것으로서, 다양한 무인 공공 서비스를 제공할 수 있는 다기능 비상벨 시스템을 제공하고자 하는데 있으며, 특히 실내외 화장실 등 협소한 장소에 설치가 가능하며, 온습도가 높은 열악한 환경에서도 운용이 가능한 스마트 인공지능 비상벨을 제공하고자 하는데 있다.The present invention relates to a smart artificial intelligence multifunctional emergency bell system and a control method thereof, and is intended to provide a multifunctional emergency bell system capable of providing various unmanned public services. In particular, it can be installed in narrow places such as indoor and outdoor toilets, It is intended to provide a smart artificial intelligence emergency bell that can be operated even in harsh environments with high temperature and humidity.

본 발명은 스마트 인공지능 다기능 비상벨 시스템에 따르면, 사용자의 음성을 입력받기 위한 마이크를 통하여 음성을 수집하는 음성수집모듈에서 수집된 음성을 외부 서버로 송수신하는 송수신모듈을 구비한 비상벨장치; 및 상기 비상벨장치로부터 수집된 음성을 제공받아 텍스트화하는 음성처리모듈과, 추출된 키워드 및 텍스트로부터 사용자의 감정을 분석하는 감정분석모듈과, 상기 감정분석모듈에서 검출된 감정데이터와 미리 저장된 서비스기관 정보 데이터를 비교하여 매칭된 서비스기관에 상기 감정데이터를 제공하여 서비스를 요청하는 서비스기관연계모듈을 포함하는 제어부;를 포함하여 서버를 관리하는 관제센터;를 포함한다.According to the present invention, a smart artificial intelligence multifunctional emergency bell system, an emergency bell device having a transmission/reception module for transmitting and receiving the collected voice from a voice collection module that collects voice through a microphone for receiving a user's voice to an external server; And a voice processing module that converts the voice collected from the emergency bell device into text, an emotion analysis module that analyzes the user's emotion from the extracted keywords and text, and the emotion data detected by the emotion analysis module and a pre-stored service. A control center that manages servers including a control unit including a service agency linking module requesting a service by comparing agency information data and providing the emotion data to a matched service agency.

또한, 상기 제어부는, 상기 음성처리모듈에서 변환된 텍스트에서 키워드를 추출하여 상기 감정분석모듈에 제공하는 키워드추출모듈;을 포함할 수 있다.In addition, the control unit may include a keyword extraction module for extracting keywords from the text converted by the voice processing module and providing the extracted keywords to the emotion analysis module.

또한, 상기 제어부는, 상기 음성수집모듈에서 수집되는 음성 정보의 위치에 대한 정보를 수집하는 위치정보수집모듈;을 포함하고, 상기 키워드추출모듈에서 추출된 키워드와 상기 위치정보수집모듈에서 수집된 위치정보값을 비교하여, 매칭되는 매칭데이터를 상기 서비스기관연계모듈에 제공할 수 있다.In addition, the control unit includes a location information collection module that collects information about the location of the voice information collected by the voice collection module, and includes the keyword extracted from the keyword extraction module and the location collected from the location information collection module. By comparing information values, matched matching data may be provided to the service agency linking module.

또한, 상기 제어부는, 상기 키워드추출모듈에서 추출된 키워드 값이 상기 위치정보수집모듈에서 수집된 위치정보값에 해당하는 키워드가 아니면, 미리 저장된 추가정보를 사용자에게 음성으로 출력하는 인공지능대화모듈;을 포함할 수 있다.In addition, the control unit may include an artificial intelligence dialog module outputting pre-stored additional information to the user as a voice when the keyword value extracted from the keyword extraction module is not a keyword corresponding to the location information value collected from the location information collection module; can include

또한, 상기 인공지능대화모듈은, 상기 음성처리모듈에서 변환된 텍스트를 시간순으로 저장하여 대화목록데이터를 생성하고, 상기 대화목록데이터에 대한 정보를 상기 키워드추출모듈과 상기 감정분석모듈 및 상기 위치정보수집모듈에 각 제공하여 대화 흐름에 해당하는 결과를 제공받아 키워드결과데이터를 생성하고, 상기 키워드결과데이터를 상기 서비스기관연계모듈에서 제공받아 미리 저장한 서비스기관 정보 데이터에 매칭되는 서비스기관에 상기 키워드결과데이터를 제공하여 서비스를 요청할 수 있다.In addition, the artificial intelligence dialogue module generates dialogue list data by storing the text converted in the voice processing module in chronological order, and converts information on the dialogue list data to the keyword extraction module, the emotion analysis module, and the location information. The keyword result data is generated by receiving the result corresponding to the conversation flow by providing each to the collection module, and the keyword result data is received from the service institution linking module and is matched with the service institution information data stored in advance. Service can be requested by providing result data.

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

본 발명의 스마트 인공지능 다기능 비상벨 시스템 및 이의 제어방법에 대한 것으로서, 다음과 같은 효과를 나타낼 수 있다.As for the smart artificial intelligence multifunctional emergency bell system and its control method of the present invention, it can exhibit the following effects.

첫째로, 본 발명의 스마트 인공지능 다기능 비상벨 시스템 및 이의 제어방법에 따르면, 재해, 재난, 사건, 사고로부터의 인명 및 재산 보호, 방범, 범죄예방 등의 목적으로 구축되며, 장소가 협소한 곳에도 운용 가능하여 위급상황에 도움을 요청하여 위급상황 전파할 수 있으며, 실내외 열악한 환경에서도 사용될 수 있는 효과가 있다.First, according to the smart artificial intelligence multifunctional emergency bell system and its control method of the present invention, it is built for the purpose of protecting life and property from disasters, calamities, incidents, accidents, crime prevention, crime prevention, etc. It can also be operated, so it can request help in an emergency situation and spread the emergency situation, and it has the effect of being used in poor indoor and outdoor environments.

둘째로, 본 발명의 스마트 인공지능 다기능 비상벨 시스템 및 이의 제어방법에 따르면, 스마트 인공지능 비상벨장치는 실시간으로 사용자의 요청사항을 관제센터로 전송하여 사용자의 요청에 따른 대응을 할 수 있는 효과가 있다.Second, according to the smart artificial intelligence multifunctional emergency bell system and its control method of the present invention, the smart artificial intelligence emergency bell device transmits the user's request to the control center in real time to respond to the user's request. there is

셋째로, 본 발명의 스마트 인공지능 다기능 비상벨 시스템 및 이의 제어방법에 따르면, 유지 관리를 위한 현장 인력을 최소화하면서도 효율성을 극대화할 수 있게 되며, 비상벨장치의 지속적인 유지 관리는 물론 기능 이상 및 파손 등에 대한 신속한 조치가 가능하여 운영 공백시간을 최소화할 수 있게 되는 효과를 나타낼 수 있다.Thirdly, according to the smart artificial intelligence multifunctional emergency bell system and its control method of the present invention, it is possible to maximize efficiency while minimizing on-site manpower for maintenance, and to continuously maintain and manage emergency bell devices as well as malfunction and damage. It can show the effect of minimizing the operational blank time by enabling prompt action on the etc.

넷째로, 본 발명의 스마트 인공지능 다기능 비상벨 시스템 및 이의 제어방법에 따르면, 소형 LCD패널 또는 LCD패널 없이 음성만으로 사용할 수 있게 되어 소형화가 가능하며, 가시성 확보와 혹한 환경에서도 영향이 적기 때문에 설치장소의 제약 없이 사용할 수 있는 효과가 있다.Fourth, according to the smart artificial intelligence multi-function emergency bell system and its control method of the present invention, it can be used only by voice without a small LCD panel or LCD panel, enabling miniaturization, securing visibility and having little effect even in harsh environments. There is an effect that can be used without any restrictions.

다섯째로, 본 발명의 스마트 인공지능 다기능 비상벨 시스템 및 이의 제어방법에 따르면, 디지털 사용에 익숙하지 않은 사용자(외국인 등)들에게 편의성을 제공하면서 사생활 침해 문제를 해소할 수 있는 효과가 있다.Fifth, according to the smart artificial intelligence multifunctional emergency bell system and its control method of the present invention, it is possible to solve the privacy invasion problem while providing convenience to users (foreigners, etc.) who are not familiar with digital use.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명에 따른 스마트 인공지능 다기능 비상벨 시스템 및 이의 제어방법을 나타내는 개략도이다.
도 2는 도 1의 구성을 나타내는 도이다.
도 3은 도 2의 스마트 인공지능 다기능 비상벨 시스템의 일 실시예를 나타내는 블록도이다.
도 4는 도 1의 일 실시예에 따른 스마트 인공지능 다기능 비상벨 시스템의 제어방법을 나타내는 순서도이다.
도 5는 도 4의 다른 실시예에 따른 제어방법을 나타내는 순서도이다.
1 is a schematic diagram showing a smart artificial intelligence multi-function emergency bell system and a control method thereof according to the present invention.
Figure 2 is a diagram showing the configuration of Figure 1;
Figure 3 is a block diagram showing an embodiment of the smart artificial intelligence multi-function emergency bell system of FIG.
4 is a flowchart illustrating a control method of a smart artificial intelligence multi-function emergency bell system according to an embodiment of FIG. 1 .
5 is a flowchart illustrating a control method according to another embodiment of FIG. 4 .

본 발명을 설명함에 있어서, 본 명세서 및 청구범위에 사용된 용어나 단어는 발명자가 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.In describing the present invention, the terms or words used in this specification and claims are based on the principle that the inventor can appropriately define the concept of the term in order to best describe his or her invention. should be interpreted as a meaning and concept that corresponds to the technical idea of

또한, 명세서 전체에서, 어떤 부분이 다른 부분과 '연결' 되어 있다고 할 때, 이는 '직접적으로 연결' 되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 '간접적으로 연결' 되어 있는 경우도 포함한다. In addition, throughout the specification, when a part is said to be 'connected' to another part, this is not only the case where it is 'directly connected', but also the case where it is 'indirectly connected' with another element in between. include

또한, 어떤 구성요소를 '포함' 한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.In addition, 'including' a certain component means that other components may be further included, rather than excluding other components unless otherwise stated.

도 1은 본 발명에 따른 스마트 인공지능 다기능 비상벨 시스템 및 이의 제어방법을 나타내는 개략도이고, 도 2는 도 1의 구성을 나타내는 도이며, 도 3은 도 2의 스마트 인공지능 다기능 비상벨 시스템의 일 실시예를 나타내는 블록도이고, 도 4는 도 1의 일 실시예에 따른 스마트 인공지능 다기능 비상벨 시스템의 제어방법을 나타내는 순서도이며, 도 5는 도 4의 다른 실시예에 따른 제어방법을 나타내는 순서도이다.1 is a schematic diagram showing a smart artificial intelligence multi-function emergency bell system and a control method thereof according to the present invention, FIG. 2 is a diagram showing the configuration of FIG. 1, and FIG. 3 is one of the smart artificial intelligence multi-function emergency bell system of FIG. Figure 4 is a block diagram showing an embodiment, Figure 4 is a flow chart showing a control method of a smart artificial intelligence multi-function emergency bell system according to one embodiment of Figure 1, Figure 5 is a flow chart showing a control method according to another embodiment of Figure 4 am.

이하, 첨부된 도면을 참조하여 본 발명의 스마트 인공지능 다기능 비상벨 시스템 및 이의 제어방법에 대한 일 실시예를 설명하기로 한다. Hereinafter, an embodiment of a smart artificial intelligence multifunctional emergency bell system and a control method thereof of the present invention will be described with reference to the accompanying drawings.

도 1 내지 도 3을 참고하여 본 발명에 따른 스마트 인공지능 다기능 비상벨 시스템을 설명하면, 스마트 인공지능 다기능 비상벨 시스템은 경보신호를 음향으로 출력하는 스피커와, 사용자의 음성을 입력받기 위한 마이크를 통하여 음성을 수집하는 음성수집모듈(B1)에서 수집된 음성을 외부 서버로 송수신하는 송수신모듈(B5)을 구비한 비상벨장치(10); 및 비상벨장치(10)로부터 수집된 음성을 제공받아 텍스트화하는 음성처리모듈(M1)과, 추출된 키워드 및 텍스트로부터 사용자의 감정을 분석하는 감정분석모듈(M3)과, 감정분석모듈(M3)에서 검출된 감정데이터와 미리 저장된 서비스기관 정보 데이터를 비교하여 매칭된 서비스기관(30)에 상기 감정데이터를 제공하여 서비스를 요청하는 서비스기관연계모듈(M4)을 포함하는 제어부를 포함하여 서버를 관리하는 관제센터(20)를 포함한다. Referring to FIGS. 1 to 3, the smart artificial intelligence multifunctional emergency bell system according to the present invention is described. The smart artificial intelligence multifunctional emergency bell system includes a speaker outputting an alarm signal as sound and a microphone for receiving a user's voice. An emergency bell device 10 having a transmission/reception module (B5) for transmitting and receiving the voice collected by the voice collection module (B1) for collecting voice through an external server; And a voice processing module (M1) for receiving the voice collected from the emergency bell device (10) and converting it into text, an emotion analysis module (M3) for analyzing the user's emotion from the extracted keywords and text, and an emotion analysis module (M3) A server including a control unit including a service agency linkage module (M4) that compares the emotion data detected in ) with the service agency information data stored in advance and provides the emotion data to the matched service agency 30 to request a service. It includes a control center 20 that manages.

비상벨장치(10)는 공중 화장실, 관사, 엘리베이터 등을 포함하여 범죄에 쉽게 노출될 수 있는 구역(이하 '방범 대상 구역'이라 함)에 설치되어 사용자 주도로 비상 상황에서 구조를 요청하거나 경보를 알리면서 관제센터(20)를 통하여 서비스기관(30)을 제공하며 관제센터(20) 또는 서비스기관(30)과 비상통화를 실시할 수 있다.The emergency bell device 10 is installed in an area easily exposed to crime (hereinafter referred to as a 'crime prevention area'), including public toilets, residences, elevators, etc., to request rescue or alarm in an emergency situation led by the user. While notifying, the service institution 30 is provided through the control center 20, and an emergency call can be made with the control center 20 or the service institution 30.

비상벨장치(10)는 사용자의 음성 정보를 수집하는 음성수집모듈(B1), 소외부에 노출되고 정전용량식 터치센서로 구성되는 구조요청버튼과, 구조요청버튼의 작동 시 구조요청신호를 생성하고 이를 선택된 하나의 관제센터(20)로 송신하는 구조요청모듈(B2), 구조요청모듈(B2)에서 구조요청신호에 의해 알람을 출력하는 스피커모듈(B3), 구조요청모듈(B2)과 연동하여 작동하는 경광등모듈(B4)을 포함한다.The emergency bell device 10 includes a voice collection module (B1) that collects user's voice information, a rescue request button exposed to the outside and composed of a capacitive touch sensor, and a rescue request signal generated when the rescue request button is operated. and interlocks with the rescue request module (B2) that transmits it to the selected control center (20), the speaker module (B3) that outputs an alarm by the rescue request signal from the rescue request module (B2), and the rescue request module (B2) and a warning light module (B4) that operates by

또한, 비상벨장치(10)는 관제센터(20)와 음성 송수신을 제공하는 송수신모듈(B5)을 포함하고, 이상음성판단모듈(B6)과 관제센터(20)의 담당자와 통화 연결을 시도하는 통화연결모듈(B7)을 포함할 수 있다.In addition, the emergency bell device 10 includes a transmission and reception module (B5) that provides voice transmission and reception with the control center 20, and attempts to connect the call with the person in charge of the abnormal voice determination module (B6) and the control center (20) A call connection module (B7) may be included.

음성수집모듈(B1)은 사용자의 음성을 인식하여 음성 정보를 수집 및 저장할 수 있다. 음성수집모듈(B1)은 수집된 음성 정보를 관제센터(20)로 제공할 수 있다. 음성수집모듈(B1)은 비상벨장치(10)의 특정 앱과 무선으로 연동하는 대화형 휴먼 인터페이스(Human Interface)로 구현되어 대화식으로 원격 관리자의 음성 정보를 수행할 수도 있다.The voice collection module B1 may recognize a user's voice to collect and store voice information. The voice collection module B1 may provide the collected voice information to the control center 20 . The voice collection module (B1) is implemented as an interactive human interface that wirelessly interworks with a specific app of the emergency bell device 10 and can interactively perform voice information of a remote manager.

음성수집모듈(B1)은 사용자의 저장된 음성 정보 중 일정 구간의 음성은 관제센터(20)로 전송되고 수집된 음성정보는 일부 또는 전부 삭제될 수 있는 것으로 설계자의 선택에 의해 적용될 수 있다.The voice collection module B1 transmits the voice of a certain section among the user's stored voice information to the control center 20 and partially or entirely deletes the collected voice information, which can be applied by the designer's choice.

구조요청모듈(B2)은 비상벨장치(10) 외부에 노출된 정전용량식 터치센서로 구성된 구조요청버튼과, 구조요청버튼의 작동 시 구조요청신호를 생성하고 이를 선택된 하나의 관제센터(20)로 제공한다.The rescue request module (B2) generates a rescue request signal when a rescue request button is composed of a capacitive touch sensor exposed to the outside of the emergency bell device 10 and a rescue request button is operated, and one control center 20 selects the rescue request signal. provided by

구조요청모듈(B2)은 구조요청버튼이 외부에 노출되며, 구조요청버튼의 작동에 따른 입력신호에 반응하여 경보신호를 출력한다. 구조요청버튼은 물리 버튼으로 구성하거나 바람직하게는 고장의 최소화와 조작의 편의성을 고려하여 상술한 바와 같이 정전용량식 터치 센서로 구성될 수 있다.The rescue request module (B2) has a rescue request button exposed to the outside and outputs an alarm signal in response to an input signal according to the operation of the rescue request button. The rescue request button may be composed of a physical button or, preferably, a capacitive touch sensor as described above in consideration of minimization of failure and convenience of operation.

구조요청모듈(B2)은 사용자 조작에 의해 비상벨을 출력함과 더불어 구조요청신호를 생성하고 관제센터(20)로 송신할 수 있다. 구조요청모듈(B2)은 구조요청버튼의 작동으로 출력되는 경보신호를 음향 즉 비상벨로 출력하는 스피커모듈(B3)을 포함할 수 있다. The rescue request module B2 may output an emergency bell by user manipulation, generate a rescue request signal, and transmit the signal to the control center 20 . The rescue request module (B2) may include a speaker module (B3) that outputs the alarm signal output by the operation of the rescue request button as a sound, that is, an emergency bell.

스피커모듈(B3)은 비상벨장치(10)에 경보신호를 음향으로 출력하는 스피커를 포함하고, 이러한 스피커를 통하여 경보신호 또는 후술하는 관제센터(20)의 관리자의 음성이 출력될 수 있다.The speaker module (B3) includes a speaker that outputs an alarm signal to the emergency bell device 10 as sound, and an alarm signal or a manager's voice of the control center 20 described later can be output through this speaker.

경광등모듈(B4)은 구조요청모듈(B2)에서 출력되는 경보신호에 연동하여 비상벨과 함께 작동함으로써 주위에 비상 상황임을 시각적으로 알릴 수 있도록 표시할 수 있다.The warning light module (B4) operates together with an emergency bell in conjunction with the alarm signal output from the rescue request module (B2), so that it can be displayed so as to visually inform the surroundings of an emergency situation.

이에 따라 구조요청모듈(B2)은 구조요청버튼의 작동 시, 경보신호와 구조요청신호를 함께 출력하게 되는데 스피커모듈(B3)에서 경보신호를 발생시키고, 경광등모듈(B4)에서 비상 상황을 알리는 비상벨을 작동시킨다. 그리고 구조요청모듈(B2)은 출력된 구조요청신호를 송수신모듈(B5)을 통해 관제센터(20)로 송신한다.Accordingly, the rescue request module (B2) outputs an alarm signal and a rescue request signal together when the rescue request button is operated. The speaker module (B3) generates an alarm signal and the warning light module (B4) informs an emergency activate the bell The rescue request module B2 transmits the output rescue request signal to the control center 20 through the transmission/reception module B5.

송수신모듈(B5)은 비상벨장치(10)와 관제센터(20)를 무선 연결하며, 비상벨장치(10)의 정보를 관제센터(20)로 제공할 수 있으며, 관제센터(20)에도 송수신모듈(B5)에 대응하는 송수신모듈이 구비되는 것은 당연하고, 동일한 작용 및 효과를 나타나기 때문에 관제센터(20)에 구비된 송수신모듈에 대하여는 상세한 설명을 생략한다. The transmission/reception module (B5) wirelessly connects the emergency bell device 10 and the control center 20, can provide information of the emergency bell device 10 to the control center 20, and also transmits and receives information to the control center 20. It is natural that the transmission/reception module corresponding to the module B5 is provided, and since the same actions and effects are exhibited, a detailed description of the transmission/reception module provided in the control center 20 will be omitted.

예컨대, 송수신모듈(B5)은 음성수집모듈(B1) 및 구조요청모듈(B2), 이상음성판단모듈(B6), 통화연결모듈(B7)의 정보를 선택된 하나의 관제센터(20)로 송신하거나 관제센터(20)로부터 제어신호를 수신할 수 있다. For example, the transmission/reception module (B5) transmits information of the voice collection module (B1), the rescue request module (B2), the abnormal voice determination module (B6), and the call connection module (B7) to one selected control center (20), or A control signal may be received from the control center 20 .

송수신모듈(B5)은 선택된 하나의 무선 통신망을 통해 연결될 수 있으며, 바람직하게는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 블루투스 통신, 적외선통신, 초음파 통신, 가시광 통신(VLC: Visible Light Communication), 라이파이(LiFi) 등이 포함되나 이에 한정되지는 않는다.The transmission/reception module B5 may be connected through a selected wireless communication network, preferably 3G, 4G, 5G, 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), World Interoperability for Microwave Access (WIMAX), Wi-Fi, Bluetooth communication, infrared communication, ultrasonic communication, visible light communication (VLC: Visible Light Communication), LiFi, and the like are included, but are not limited thereto.

이상음성판단모듈(B6)은 기계 학습을 통해 학습된 구조요청 시 기준 음성 주파수가 저장되며, 사용자의 음성 인식에 의해 작동신호가 입력될 경우 음성 인식에 사용된 사용자의 음성 주파수와 기저장된 기준 음성 주파수를 비교하여 상호 양 음성 주파수 간 유사도를 분석하고, 그 분석결과를 관제센터(20)로 제공할 수 있다. The abnormal voice determination module (B6) stores the reference voice frequency upon rescue request learned through machine learning, and when an operating signal is input by user voice recognition, the user's voice frequency used for voice recognition and the pre-stored reference voice The frequency is compared to analyze the similarity between the mutual sound frequencies, and the analysis result may be provided to the control center 20 .

이러한, 비상벨장치(10)는 관제센터(20)의 담당자와 통화를 수행할 수 있도록 함으로써 범죄를 포함한 비상상황을 확인할 수 있다. 비상상황 시에는 사용자에게 담당자의 육성을 통한 초동 대처를 지시할 수 있다.Such an emergency bell device 10 can confirm an emergency situation including a crime by enabling a person in charge of the control center 20 to perform a call. In case of an emergency, the user can be instructed to respond to the first action by nurturing the person in charge.

통화연결모듈(B7)은 사용자가 관제센터(20)의 담당자와 통화를 시도할 수 있다. 통화연결모듈(B7)은 물리적 버튼의 통화연결버튼을 포함할 수 있다.The call connection module (B7) allows the user to attempt a call with the person in charge of the control center (20). The call connection module B7 may include a call connection button of a physical button.

통화연결모듈(B7)은 통화연결버튼을 누르게 되면 마이크를 통하여 수신받아 송수신모듈(B5)에 의해 사용자의 음성이 관제센터(20)의 담당자에게 전달되고, 관제센터(20)의 담당자의 음성 또한 반대로 스피커모듈(B3)을 통하여 출력될 수 있다.When the call connection module (B7) presses the call connection button, it is received through the microphone and the user's voice is transmitted to the person in charge of the control center (20) by the transmission and reception module (B5), and the voice of the person in charge of the control center (20) is also transmitted. Conversely, it can be output through the speaker module (B3).

이러한 비상벨장치(10)는 사용자의 비상상황 요청 또는 관제센터(20)의 담당자와 통화를 통해 요구(요청)할 수 있다. This emergency bell device 10 can be requested (requested) through a user's emergency request or a call with a person in charge of the control center (20).

관제센터(20)는 사용자의 음성이 인식된 후 키워드 도출과 감정분석이 완료되면, 이를 기반으로 상황 인지 및 서비스를 식별하여 서비스를 제공할 수 있다. 관제센터(20)는 딥러닝기법에 따른 인공지능을 사용하여 수집된 음성 정보에 대하여 지속적으로 음성 정보를 축적하여 학습하고, 학습된 내용을 기반으로 비교판단하여 추출된 키워드에 따른 상황이 발생했는지를 신속하게 판단할 수 있다.When the user's voice is recognized and keyword derivation and emotion analysis are completed, the control center 20 may provide the service by identifying contextual awareness and service based on this. The control center 20 continuously accumulates and learns voice information about the collected voice information using artificial intelligence based on deep learning techniques, and compares and judges based on the learned content to determine whether a situation has occurred according to the extracted keyword. can be quickly judged.

예컨대 관제센터(20)는 음성정보에 따라 데이터 베이스로 저장하고, 추출된 키워드를 딥러닝 기반 인공지능은 음성정보의 키워드 추출 또는 키워드를 분류하는 능력을 향상시킬 수 있다.For example, the control center 20 stores voice information in a database, and deep learning-based artificial intelligence can improve the ability to extract keywords from voice information or classify keywords.

관제센터(20)는 딥러닝 기반 인공지능이 많은 학습을 할수록 해당 건축물의 화재 상황에 대한 인식의 정확도 및 신뢰도가 높아지므로 최종적으로는 별도의 관리자가 관리하지 않고 무인으로 비상황상 및 음성정보에 따른 상황 발생여부에 대해 대응이 가능할 수 있다.In the control center 20, the more deep learning-based artificial intelligence learns, the higher the accuracy and reliability of recognition of the fire situation of the building, so in the end, it is not managed by a separate manager and unmanned according to emergency situations and voice information. It may be possible to respond to whether or not a situation occurs.

관제센터(20)는 비상벨장치(10)로부터 전달되는 요청들을 모니터링할 수 있다. 관제센터(20)는 범죄로 인한 비상 상황에 따라 관리 인력 등을 방범 대상 구역으로 출동시켜 범죄 등에 신속하게 대응할 수 있다.The control center 20 may monitor requests transmitted from the emergency bell device 10 . The control center 20 can promptly respond to a crime by dispatching management personnel to a crime prevention target area according to an emergency situation caused by a crime.

관제센터(20)는 비상벨장치(10)에서 송신하는 알림신호와 양 음성 주파수간 유사도에 대한 분석결과를 수신 및 저장하고, 관제센터(20)의 요청에 따라 선택적으로 수신한 양 음성 주파수간 유사도에 대한 분석결과를 제공정보로서 서비스기관(30)에 제공할 수 있다.The control center 20 receives and stores the analysis result of the similarity between the notification signal transmitted from the emergency bell device 10 and both voice frequencies, and selectively receives between the two voice frequencies at the request of the control center 20. The analysis result for the degree of similarity may be provided to the service agency 30 as provision information.

보다 상세하게는, 관제센터(20)는 비상벨장치(10)로부터 정보를 제공받는 제어부를 포함하고, 제어부는 음성처리모듈(M1), 키워드추출모듈(M2), 감정분석모듈(M3), 서비스기관연계모듈(M4), 위치정보수집모듈(M5), 인공지능대화모듈(M6)을 포함할 수 있다.More specifically, the control center 20 includes a control unit receiving information from the emergency bell device 10, and the control unit includes a voice processing module (M1), a keyword extraction module (M2), an emotion analysis module (M3), It may include a service agency linkage module (M4), a location information collection module (M5), and an artificial intelligence dialogue module (M6).

음성처리모듈(M1)은 비상벨장치(10)로부터 수집된 음성을 제공받아 텍스트화 할 수 있다. 음성처리모듈(M1)은 음성수집모듈(B1)로부터 음성이 입력되어 수집된 정보를 제공받아, 해당 음성정보(성분)를 분석하여 음성을 문장(텍스트)으로 변환한다.The voice processing module M1 may receive the voice collected from the emergency bell device 10 and convert it into text. The voice processing module (M1) receives the voice input and collected information from the voice collection module (B1), analyzes the voice information (component), and converts the voice into a sentence (text).

음성처리모듈(M1)은 음성을 텍스트화하는데 있어서 음성인식률의 향상을 위하여 외부서버와 통신으로 연결되어 외부서버로부터 음성인식률이 높아질 수 있는 정보들을 업데이트하거나 제공받아 음성을 텍스트화하는데 정확성을 향상시킬 수 있다.The voice processing module (M1) is connected by communication with an external server to improve the voice recognition rate in converting voice into text, and updates or receives information that can increase the voice recognition rate from the external server to improve accuracy in converting voice into text. can

일 실시예로, 음성처리모듈(M1)은 음성 신호는 시간 축을 따라 연속적인 파형으로 표현되는데 이러한 파형을 분석하기는 어렵기 때문에 음성 신호를 작은 단위로 나누고 각 단위에서 특징을 추출하여 주파수, 에너지, 음성의 성별, 연령, 발화자의 특성 등을 추출할 수 있다.In one embodiment, the voice processing module M1 divides the voice signal into small units because it is difficult to analyze the voice signal since the voice signal is represented as a continuous waveform along the time axis and extracts features from each unit to obtain frequency and energy. , voice gender, age, speaker characteristics, etc. can be extracted.

이에 따라 제어부는, 추출된 특성들을 기계 모델로 학습시켜 즉, 딥러닝을 통한 학습으로 음성 신호와 해당 음성 신호에 대한 텍스트와의 관계를 학습하게 되어, 재귀 신경망(Recurrent Neural Network, RNN), 합성곱 신경망(Convolutional Neural Network, CNN), 트랜스포머(Transformer) 등의 딥러닝 모델이 활용될 수 있으며 이러한 학습모델은 이미 공지된 기술로서 상세한 설명은 생략하기로 한다.Accordingly, the control unit learns the extracted characteristics as a machine model, that is, learns the relationship between a voice signal and the text for the voice signal by learning through deep learning, and uses a Recurrent Neural Network (RNN), synthesis Deep learning models such as convolutional neural networks (CNNs) and transformers may be used, and since these learning models are already known technologies, a detailed description thereof will be omitted.

음성처리모듈(M1)은 은닉 마르코프 모델(Hidden Markov Model), 비터비(Viterbi) 알고리즘, WFST(Weighted Finite State Transducer) 등으로 구현될 수 있다. 음성처리모듈(M1)에서는 사용자의 음성을 수집 또는 녹음 동작이 실시간으로 실시될 수 있다. 음성처리모듈(M1)은 음성수집모듈(B1)에서 수집된 현장의 음성을 저장하는 것으로, 기설정된 특정 구간에 대한 음성만을 저장한다. The voice processing module M1 may be implemented with a Hidden Markov Model, a Viterbi algorithm, a Weighted Finite State Transducer (WFST), and the like. In the voice processing module M1, a user's voice may be collected or recorded in real time. The voice processing module (M1) stores the field voice collected by the voice collection module (B1), and stores only the voice for a predetermined specific section.

한편, 음성처리모듈(M1)은 비상벨장치(10)에 구비될 수 있으며, 이때에는 저장용량을 고려하여 저장된 음성신호를 관제센터(20)로 송신한 후 저장공간에서 해당 음성신호를 삭제할 수 있다. 바람직하게는 본 발명의 일실시예와 같이 관제센터(20)에 음성처리모듈(M1)이 구비되는 것이다.On the other hand, the voice processing module (M1) may be provided in the emergency bell device 10, and at this time, the voice signal stored in consideration of the storage capacity may be transmitted to the control center 20 and then the corresponding voice signal may be deleted from the storage space. there is. Preferably, as in one embodiment of the present invention, the control center 20 is provided with a voice processing module (M1).

일 실시예로 음성처리모듈(M1)은 비상벨장치(10)에 작동신호가 입력되는 시점(t1)으로부터 설정된 이전 시간(t2)까지의 녹음된 음성을 저장할 수 있다. 바람직하게 t2는 t1으로부터 30초 이전 시간 일 수 있다. In one embodiment, the voice processing module (M1) may store the recorded voice from the time point (t1) when the operation signal is input to the emergency bell device (10) to the set previous time (t2). Preferably, t2 may be a time before 30 seconds from t1.

이러한 음성처리모듈(M1)은 비상벨장치(10)와 관제센터(20)를 무선으로 연동하는 대화형 휴먼 인터페이스(Human Interface)로 구현되어 대화식으로 원격 관리자의 음성 명령을 수행할 수 있도록 구현될 수 있다. This voice processing module (M1) is implemented as an interactive human interface that wirelessly links the emergency bell device 10 and the control center 20 to be implemented so that the remote manager's voice command can be interactively performed. can

음성처리모듈(M1)은 음성 엔진과 대화 엔진으로 분리된 구성을 일례로 예시하고 있으나, 이에 제한을 두지는 않으며, 대화형 휴먼 인터페이스 방식으로 대화식의 수행 명령이 실행될 수 있도록 하는 인공지능(AI) 엔진으로 이해될 수 있다. The voice processing module (M1) is an example of a configuration separated into a voice engine and a conversation engine, but is not limited thereto, and artificial intelligence (AI) that allows interactive execution commands to be executed in a conversational human interface manner. can be understood as an engine.

또한, 음성처리모듈(M1)의 대화 엔진은 음성 명령을 운영시스템 내 처리 명령으로 변환하는 기능과, 처리명령 가능 여부 및 권한 여부를 판단하는 기능을 갖도록 구현할 수 있다.In addition, the dialogue engine of the voice processing module M1 may be implemented to have a function of converting a voice command into a processing command within the operating system and a function of determining whether a processing command is available and whether the processing command is authorized.

처리 명령 변환은 미리 설정된 처리 명령 과 음성 명령의 비교 분석으로 판단하고, 처리명령 가능 여부 및 권한 여부 판단은 미리 설정된 시스템 운영자의 권한별 처리 가능한 명령의 비교 분석할 수 있다.Processing command conversion may be determined by comparison and analysis between a preset processing command and a voice command, and processing command availability and authority may be determined by comparison and analysis of commands that can be processed for each authority of a preset system operator.

키워드추출모듈(M2)은 음성처리모듈(M1)에서 변환된 텍스트에서 키워드를 추출할 수 있다. The keyword extraction module M2 may extract keywords from the text converted in the voice processing module M1.

예컨대, 키워드추출모듈(M2)은 사용자가 입력한 긴 음성 데이터를 자동으로 요약하여 중요한 내용을 추출할 수 있다. 키워드추출모듈(M2)은 음성신호를 인식하여 텍스트로 변환한 후, 텍스트 데이터를 처리하여 문장 구조, 키워드 문맥 등을 파악하고, 사용자의 요구사항을 정확하게 추출할 수 있다.For example, the keyword extraction module M2 can extract important contents by automatically summarizing long voice data input by the user. The keyword extraction module M2 recognizes the voice signal and converts it into text, and then processes the text data to determine the sentence structure and keyword context, and can accurately extract the user's requirements.

키워드추출모듈(M2)은 음성인식으로 사용자의 음성정보가 텍스트로 변환되면, 자동 요약 기능으로 사용자의 요구사항 분석을 위한 핵심 키워드를 추출할 수 있다. 키워드추출모듈(M2)은 짧은 문장의 경우 키워드의 추출을 단어만으로 가능할 수 있으나 긴 문장의 경우에는 문장속에서 주요 키워드를 추출하는 것은 어렵다.When the user's voice information is converted into text by voice recognition, the keyword extraction module (M2) can extract key keywords for analyzing user requirements through an automatic summary function. The keyword extraction module M2 can extract keywords only with words in the case of short sentences, but it is difficult to extract the main keywords from the sentences in the case of long sentences.

때문에 하나의 알고리즘으로 주요 키워드를 추출하게 되면 오류가 있을 가능성이 있기 때문에 수개의 알고리즘을 통하여 주요 키워드를 추출하여 정확성을 향상시킬 수 있다.Therefore, since there is a possibility of errors when main keywords are extracted with one algorithm, accuracy can be improved by extracting main keywords through several algorithms.

예컨대, 키워드추출모듈(M2)에서 사용되어지는 TextRank 알고리즘, LexRank, LSA(Latent Semantic Analysis), RAKE(Rapid Automatic Keyword Extraction), N-gram, 잠재 디리클레 할당(Latent Dirichlet Allocation, LDA), TF-IDF(Term Frequency-Inverse Document Frequency)기법과 토픽 모델링(Topic Modeling)기법 등이 이용될 수 있다.For example, the TextRank algorithm used in the keyword extraction module (M2), LexRank, LSA (Latent Semantic Analysis), RAKE (Rapid Automatic Keyword Extraction), N-gram, Latent Dirichlet Allocation (LDA), TF-IDF (Term Frequency-Inverse Document Frequency) technique and Topic Modeling technique can be used.

여기서, TextRank 알고리즘은 단어들간의 연결성을 분석하여 중요도를 판단하고, 각 단어를 노드(Node)로 단어간 관계를 엣지(Edge)로 나타내어 랭킹을 계산하여 중요한 단어는 다른 단어와의 연결성을 높이는 것으로서 다른 알고리즘들과 함께 사용될 수 있다.Here, the TextRank algorithm determines the importance by analyzing the connectivity between words, calculates the ranking by representing each word as a node and the relationship between words as an edge, and increases the connectivity of important words with other words. Can be used with other algorithms.

또, RAKE알고리즘은 주요 단어와 구를 추출하는 것으로서 문장 내에서 불용어(Stopwords)와 구분자(Punctuations)를 제거 후, 단어의 빈도수와 구의 빈도수를 계산하여 다어와 구의 점수를 계산하여 높은 점수를 갖는 단어와 구를 추출하여 키워드를 추출할 수 있다.In addition, the RAKE algorithm extracts key words and phrases, removes stopwords and punctuations from the sentence, calculates the frequency of words and phrases, calculates the scores of different words and phrases, and then the words with high scores. You can extract keywords by extracting phrases and phrases.

또, N-gram은 연속된 N개의 단어를 하나의 단위로 보고, 해당 단어들의 빈도수를 계산하여 빈도수가 많은 단어로 인해 중요한 단어를 추출할 수 있다. 또, TF-IDF는 해당 단어가 문서 내에서 등장한 빈도(TF)와 해당 단어가 다른 문서에서 등장한 빈도의 역수(IDF)를 곱하여 해당 단어의 가중치를 계산하고 이를 기준으로 가중치가 높은 단어를 추출할 수 있다.In addition, N-gram can extract important words due to words with high frequency by viewing consecutive N words as one unit and calculating the frequency of the corresponding words. In addition, TF-IDF calculates the weight of the word by multiplying the frequency (TF) in which the word appears in the document and the reciprocal of the frequency (IDF) in which the word appears in other documents, and extracts a word with a high weight based on this. can

또, 토픽 모델링은 문서 내에서 주요 토픽이나 주제를 추출하는 방법으로 LDA와 같은 통계적 모델링 기법이며, 문서 내에서 토픽이 어떻게 분포되어 있는지를 파악하여 주요 토픽을 추출할 수 있다.In addition, topic modeling is a statistical modeling technique such as LDA as a method of extracting main topics or subjects from documents, and it is possible to extract main topics by identifying how topics are distributed in documents.

이상과 같은 다양한 알고리즘을 통하여 사용자의 음성 정보에 대한 키워드 추출에 있어 정확성을 향상시킬 수 있으며, 키워드 추출을 위한 알고리즘은 이에 한정되지 아니할 것이다. It is possible to improve accuracy in extracting keywords for user voice information through various algorithms as described above, and the algorithm for extracting keywords will not be limited thereto.

키워드추출모듈(M2)은 음성처리모듈(M1)에서 제공받은 텍스트들로부터 키워드를 추출시킬 수 있다. 키워드추출모듈(M2)은 제어부에 미리 저정된 데이터에 기초하여 키워드를 추출하여 분류할 수 있다.The keyword extraction module M2 may extract keywords from texts provided by the voice processing module M1. The keyword extraction module M2 may extract and classify keywords based on data previously stored in the control unit.

키워드추출모듈(M2)은 위치정보수집모듈(M5)로부터 위치에 대한 정보를 함께 제공받아 핵심 키워드의 의미를 더욱 정확하게 할 수 있다. 때문에 키워드추출모듈(M2)의 추가로 서비스 매칭 정확도를 더욱 향상시킬 수 있다. 키워드추출모듈(M2)은 추출된 키워드를 감정분석모듈(M3)에 제공할 수 있다. The keyword extraction module (M2) receives information on the location from the location information collection module (M5) and can further accurately define the meaning of the core keyword. Therefore, service matching accuracy can be further improved by adding the keyword extraction module M2. The keyword extraction module M2 may provide the extracted keywords to the emotion analysis module M3.

감정분석모듈(M3)은 음성처리모듈(M1) 및 키워드추출모듈(M2)로부터 음성 정보 및 추출된 키워드를 제공받아 사용자의 감정을 분석하여 감정 데이터를 생성할 수 있다. The emotion analysis module M3 may generate emotion data by receiving voice information and extracted keywords from the voice processing module M1 and the keyword extraction module M2 and analyzing the user's emotion.

감정분석모듈(M3)은 수집된 음성 정보로부터 음성의 속도, 음량의 높낮이, 톤에 대한 특징벡터를 추출한 음성정보를 딥러닝 학습을 통해 저장된 정보와 비교하여 사용자의 감정 데이터를 생성한다. The emotion analysis module M3 compares voice information obtained by extracting feature vectors for voice speed, volume pitch, and tone from the collected voice information with information stored through deep learning to generate user emotion data.

감정분석모듈(M3)은 기계학습 알고리즘을 사용하여 학습하고 감정을 판정하는 모델을 생성, 감정분석으로 사용자 위급상황 발생 여부를 신속하게 판정하고 대응할 수 있으며, 딥러닝 기반 학습을 더 추가하여 감정을 분석할 수 있다.The emotion analysis module (M3) creates a model that learns and judges emotions using a machine learning algorithm, and can quickly determine and respond to user emergency situations through emotion analysis, and deep learning-based learning is further added to detect emotions. can be analyzed.

감정분석모듈(M3)은 동시 입력 음성으로 감정분석을 수행하여, 기 저장된 데이터와 비교하여 사용자의 상태가 위급 상태인지 확인할 수 있다. 감정분석모듈(M3)은 기계학습 기반 또는 딥러닝 기반 학습을 통하여 사용자의 음성 정보를 기반으로 감정을 분석하여 정확성을 향상시킬 수 있다. The emotion analysis module M3 performs emotion analysis with simultaneous input voices, and compares with pre-stored data to determine whether the user's state is in an emergency state. The emotion analysis module M3 can improve accuracy by analyzing emotions based on user voice information through machine learning-based or deep learning-based learning.

기계학습 기반 알고리즘에는 서포트 벡터 머신(Support Vector Machine, SVM), 판단 트리(Decision Tree), 랜던 포레스트(Random Forest), 가우시안 커널 기반의 NB(Naive Bayes), KNN, Naive Bayes, 등이 사용될 수 있으며, 딥러닝 기반 학습에는 RNN, CNN, LSTM, GRU, Transformer 등이 사용될 수 있다. Support vector machine (SVM), decision tree, random forest, Gaussian kernel-based NB (Naive Bayes), KNN, Naive Bayes, etc. can be used for machine learning-based algorithms. , RNN, CNN, LSTM, GRU, Transformer, etc. can be used for deep learning-based learning.

이러한 딥러닝 모델은 일예에 의한 것으로 이에 한정되지 아니하는 것으로 음성 정보(신호)를 텍스트로 변환할 수 있는 기계학습이라면 다른 방법에 의해서도 가능하다.Such a deep learning model is by way of example, and is not limited thereto, and machine learning capable of converting voice information (signal) into text is also possible by other methods.

감정분석모듈(M3)은 상기에서 언급한 기계학습 기반 또는 딥러닝 기반 학습에서 사용자가 선택적으로 적용하여 사용되어질 수 있으며, 이 중 어느 하나이상이 적용되어 정확성을 더욱 향상시킬 수 있다.The emotion analysis module (M3) can be used by selectively applying it by the user in the above-mentioned machine learning-based or deep learning-based learning, and any one or more of these can be applied to further improve accuracy.

일 실시예에 의하면, 사용자의 요구사항에 대한 키워드 도출과 감정분석이 완료되면, 이를 기반으로 상황 인지 및 서비스를 식별할 수 있다.According to an embodiment, when the keyword derivation and sentiment analysis for the user's requirements are completed, context awareness and service may be identified based on this.

감정정보emotion information 핵심 키워드key keyword 평온tranquility 놀람surprised ...... 공포fear 도움help 서비스 A1Service A1 서비스 A2Service A2 ...... 서비스 AnService An 필요함need 서비스 B1Service B1 서비스 B2Service B2 ...... 서비스 BnService Bn 부족함lack of 서비스 C1service C1 서비스 C2service C2 ...... 서비스 CnService Cn :: :: :: :: :: 확인요청confirmation request 서비스 X1Service X1 서비스 X1Service X1 ...... 서비스 Xnservice Xn

표 1에서 나타나고 있는 바와 같이, 2차원의 매트릭스를 기반으로 서비스를 탐색할 수 있다. 표 1은 X축은 감정 정보이며, Y축은 주요 핵심 키워드이며, X축과 Y축에 해당하는 상황에 맞는 것으로 매칭하여 서비스를 제공할 수 있다.As shown in Table 1, services can be searched based on a two-dimensional matrix. In Table 1, the X-axis is emotion information, and the Y-axis is the main keyword, and the service can be provided by matching with the situation corresponding to the X-axis and Y-axis.

예컨대, 2차원의 매트릭스를 기반으로 서비스기관(30)을 탐색하고, 상황 인지 과정에서 수집된 음성으로 분석하여 사용자가 공포 또는 놀람 등의 감정을 보이면서, 동시에 도움이 필요한 키워드가 식별될 경우, 비상 상황으로 판단하여 구조요청모듈(B2), 경광등모듈(B4), 이상음성판단모듈(B6), 통화연결모듈(B7)을 발동시켜 상기에서 언급된 바와 같은 절차를 수행할 수 있다.For example, when a user shows emotions such as fear or surprise by searching for a service agency 30 based on a two-dimensional matrix and analyzing voices collected in a situational awareness process and at the same time identifying keywords that require help, an emergency Depending on the situation, the rescue request module (B2), the warning light module (B4), the abnormal voice determination module (B6), and the call connection module (B7) may be activated to perform the above-mentioned procedure.

한편, 제어부는 키워드추출모듈(M2)에서 추출된 키워드가 비상 상황이 아니라고 판단될 경우, 위치정보수집모듈(M5)에서 위치 정보를 제공받고, 자연어 분석 로직을 구동한다. Meanwhile, when the controller determines that the keyword extracted from the keyword extraction module M2 is not an emergency situation, the controller receives location information from the location information collection module M5 and drives natural language analysis logic.

자연어 분석 로직은 위치정보수집모듈(M5)에서 음성정보 또는 비상벨장치(10)의 위치 정보는 사용자가 서비스를 요청한 장소 정보이기 때문에 추출된 키워드와 매칭하여 사용자의 요구사항이 정확하게 분류할 수 있게 되어 서비스를 매칭 정확도를 향상시킬 수 있다. The natural language analysis logic matches the extracted keywords so that the user's requirements can be accurately classified because the voice information or the location information of the emergency bell device 10 in the location information collection module (M5) is information about the place where the user requested the service. As a result, service matching accuracy can be improved.

이때, 서비스 실행 결과는 자연어로 생성하고, 다기능 비상벨 내의 스피커를 통해 사용자에게 의미가 불분명할 때에는 기설정된 정보로 응답할 수 있다.At this time, the service execution result is generated in natural language, and when the meaning is unclear to the user through the speaker in the multi-function emergency bell, it can respond with preset information.

먼저, 상황 인지 과정에서 사용자가 공포 또는 놀람 등의 감정을 보이면서, 동시에 도움이 필요한 키워드를 추출한 경우, 비상 상황으로 판정하고 비상벨 자체 기능을 발동하고, 관제센터(20)에서 경찰로 서비스 매칭하여 해당하는 키워드(정보)를 경찰서로 제공한다.First, in the process of recognizing the situation, when the user shows emotions such as fear or surprise, and at the same time extracts a keyword that requires help, it is determined as an emergency situation, the emergency bell function is activated, and the control center 20 service matches with the police The corresponding keyword (information) is provided to the police station.

사용자의 요구사항이 정확하게 판정되어 서비스기관을 매칭하도록 서비스기관연계모듈(M4)로 정보를 제공할 수 있다. It is possible to provide information to the service agency linking module M4 so that the user's requirements are accurately determined and the service agency is matched.

서비스기관연계모듈(M4)은 음성처리모듈(M1), 키워드추출모듈(M2), 감정분석모듈(M3)로부터 각 제공받은 데이터에 기초하여 미리 저장된 서비스기관 정보 데이터와 비교하여 서비스기관(30)을 매칭시킬 수 있다.The service agency linking module (M4) compares the data received from the voice processing module (M1), the keyword extraction module (M2), and the emotion analysis module (M3) with pre-stored service agency information data, and the service agency (30) can be matched.

예컨대, 서비스기관연계모듈(M4)은 검출된 감정 데이터와 미리 저장된 서비스기관 정보 데이터를 비교하여 서비스기관(30)을 매칭시키고, 매칭된 서비스기관(30)에 감정 데이터를 제공하여 해당하는 서비스를 요청할 수 있다.For example, the service agency linking module M4 compares the detected emotion data with pre-stored service agency information data to match the service agency 30, and provides the matched service agency 30 with the emotion data to provide a corresponding service. can request

그러나, 사용자들이 자주 사용하는 단어들은 하나의 상황에서도 다양하다. 즉, 많은 사용자들은 동일한 상황에서 다양한 음절, 문장, 단어 등으로 표현한다. 이처럼 많은 사용자들이 즐겨 사용하는 단어를 예측할 수 없는 문제가 있다. 또, 단어 선택의 폭은 넓고, 단어의 동음이의어, 동의어, 유의어, 다의어, 방언, 발음, 강세 등의 문제가 있다.However, words frequently used by users vary even in one context. That is, many users express various syllables, sentences, words, etc. in the same situation. As such, there is a problem in that many users cannot predict the words they like to use. In addition, the range of word selection is wide, and there are problems such as homonyms, synonyms, synonyms, polysynonyms, dialects, pronunciation, and stress of words.

이와 같이, 공공 서비스를 제공할 때, 비상벨장치(10)의 사용 위치(장소)에 따라 사용자의 서비스 요구사항이 달라질 수 있다. In this way, when providing public services, the user's service requirements may vary depending on the location (location) of the emergency bell device 10.

때문에 관제센터(20)는 비상벨장치(10)의 위치 정보를 수집하는 위치정보수집모듈(M5)을 포함하여, 사용자의 문언을 해석하는데 있어서 예측 가능하여 정확성이 향상될 수 있다.Therefore, the control center 20 includes a location information collection module (M5) that collects location information of the emergency bell device 10, so that accuracy can be improved by being predictable in interpreting the user's words.

위치정보수집모듈(M5)은 비상벨장치(10)의 송수신위치에 따라 위치 정보를 수집하거나, 비상벨장치(10)에 GPS 등 위치정보를 수집하는 장치로부터 위치 정보를 수집할 수 있다.The location information collection module M5 may collect location information according to the transmission/reception location of the emergency bell device 10 or may collect location information from a device that collects location information such as GPS in the emergency bell device 10.

제어부는 추출된 키워드 또는 감정 데이터와 위치정보수집모듈(M5)에서 수집된 음성 수집 위치를 비교하여 서비스기관연계모듈(M4)에 제공하면 상술한 바와 같이 서비스기관(30)을 연계시킬 수 있다. When the control unit compares the extracted keyword or emotion data with the voice collection location collected by the location information collection module M5 and provides the information to the service agency linkage module M4, the service agency 30 can be linked as described above.

제어부는 사용자가 요구하는 문언상 의미를 도출하여 서비스기관(30)을 매칭시키기 때문에 정확도를 향상시킬 수 있는 효과가 있다. Since the control unit derives the literal meaning requested by the user and matches the service agency 30, there is an effect of improving accuracy.

또한, 제어부는 상술한 데이터들을 서비스기관(30)에 제공하기 전에 위치정보수집모듈(M5)에서 제공되는 위치 정보와 비교하여 사용자의 요청사항에 해당하는 문제를 해결할 수 있도록 정보를 제공할 수 있게 되어 정확성을 향상시킬 수 있다.In addition, the control unit compares the above-described data with the location information provided from the location information collection module M5 before providing the above data to the service institution 30, and provides the information so as to solve the problem corresponding to the user's request. and can improve accuracy.

일 실시예에 의하면, 제어부는 “휴지가 떨어졌어요”라는 음성 정보를 제공받으면, 상기에서의 과정을 수행 후 위치정보수집모듈(M5)에서 음성 정보를 제공받은 위치 정보(비상벨장치의 위치정보)에 따라 서술어를 해석하여 화장실과 공원에 각각 설치된 비상벨장치(10)를 해당 문장을 다르게 판단하며 이에 따른 학습을 진행할 수 있다. According to one embodiment, when the control unit receives the voice information "The toilet paper has run out", after performing the above process, the location information (location information of the emergency bell device) provided with the voice information from the location information collection module (M5) ), the emergency bell device 10 installed in the toilet and the park is judged differently according to the corresponding sentence by interpreting the predicate, and learning can be performed accordingly.

즉, 제어부는 위치정보수집모듈(M5)에서 제공받은 위치정보 또는 비상벨장치(10)가 설치된 위치정보에 따라 화장실의 경우 “떨어지다”를 “~을 다 사용하여 없다”는 것으로 해당 서비스를 연계시킬 수 있다.That is, the control unit connects the corresponding service to “fall” in the case of a toilet to “no use” according to the location information provided from the location information collection module M5 or the location information where the emergency bell device 10 is installed. can make it

또, 제어부는 공원의 경우 “~이 바닥에 있다”라고 해석하여 청소하는 서비스를 연계시킬 수 있다. In addition, in the case of a park, the control unit may interpret “~ is on the floor” and link the cleaning service.

따라서, 제어부는 동음이의어를 장소에 따른 해석이 가능하여 서비스 매칭률을 높일 수 있는 효과가 있다.Therefore, the control unit can interpret homonyms according to the place, so that the service matching rate can be increased.

또한, 다른 실시예에 의하면, 도서관에서 입력된 “홍길동 찾아줘”라는 음성이 인식될 경우, 주어 해석에 의해 저자 홍길동 또는 책 제목 중 홍길동이 들어가 있는 것으로 인식하여 홍길동의 저서 또는 도서 정보를 안내하는 서비스를 호출할 수 있다.In addition, according to another embodiment, when the voice of “Find me Hong Gil-dong” input from the library is recognized, it is recognized that the author Gil-dong Hong or among the book titles Gil-dong Hong is included by the subject interpretation to guide the book or book information of Gil-dong Hong. service can be called.

또한, 공원에서는 시민 홍길동으로 인식하여 공원 내에서 홍길동을 찾는 서비스를 제공할 수 있다. In addition, the park may recognize Hong Gil-dong as a citizen and provide a service for finding Hong Gil-dong in the park.

위치정보수집모듈(M5)은 음성을 수집한 곳의 위치 정보 또는 비상벨장치(10)가 설치된 위치정보 등에 따라 위치 정보를 수집할 수 있다. 위치정보수집모듈(M5)은 비상벨장치(10)간 GPS기술, Wi-Fi AP, Bluetooth, NFC, 블루투스 로우 에너지(BLE) 등으로 이용 연결되어 관제센터(20)에서 음성 정보를 수집한 위치를 특정할 수 있다.The location information collection module M5 may collect location information according to the location information of the place where the voice is collected or the location information where the emergency bell device 10 is installed. The location information collection module (M5) is connected using GPS technology, Wi-Fi AP, Bluetooth, NFC, Bluetooth Low Energy (BLE), etc. between emergency bell devices 10 and collects voice information from the control center 20 can be specified.

이에 따라, 제어부는 위치정보수집모듈(M5)에서 제공받은 위치정보를 자연어 처리하여 사용자의 음성 정보로부터 추출된 키워드에서 발생한 동음이의어, 동의어와 같이 둘 이상의 의미로 해석될 수 있는 단어를 비교하여 음성 정보에 대한 의미를 더욱 정확하게 할 수 있다.Accordingly, the control unit processes the location information provided from the location information collection module (M5) in natural language, compares words that can be interpreted in two or more meanings, such as homonyms and synonyms generated from keywords extracted from the user's voice information, and information can be made more precise.

이렇게 도출된 문언상 의미들을 설치 위치(장소)에 특화된 서비스를 지원하며, 각 서비스에 맞는 음성인식을 기계 학습을 통해 서비스를 제공할 수 있다.The derived linguistic meanings support services specialized for the installation location (place), and speech recognition suitable for each service can be provided through machine learning.

또한, 제어부는 키워드추출모듈(M2)에서 추출된 키워드 값이 위치정보수집모듈(M5)에서 수집된 위치정보값에 해당하는 키워드가 아니면, 미리 저장된 추가정보를 사용자에게 음성으로 출력하는 인공지능대화모듈(M6)에 의해 구동될 수 있다.In addition, if the keyword value extracted from the keyword extraction module (M2) is not a keyword corresponding to the location information value collected from the location information collection module (M5), the controller outputs pre-stored additional information as a voice to the user. It can be driven by module M6.

인공지능대화모듈(M6)은 선택된 하나의 관제센터(20)에서 비상벨장치(10)로 대화를 시도할 수 있다. 인공지능대화모듈(M6)은 자연어처리(Natural Language Processing, NLP)를 통해 사용자의 질문에 대답하는 프로그램으로, 대화 관리, 자연어 생성 기능을 수행할 수 있다.The artificial intelligence dialogue module (M6) may attempt to communicate with the emergency bell device (10) in one selected control center (20). The artificial intelligence dialogue module (M6) is a program that answers user's questions through Natural Language Processing (NLP), and can perform dialogue management and natural language generation functions.

이러한 인공지능대화모듈(M6)은 문장의 분석, 의도 파악, 응답 생성, 답변 출력을 할 수 있는 것으로 인공지능 챗봇일 수 있다. 인공지능대화모듈(M6)은 서비스 매칭 알고리즘은 음성인식 결과로 식별된 사용자의 요청사항에 대응하는 서비스(함수)를 호출하는 매칭 알고리즘이다.The artificial intelligence dialogue module M6 may be an artificial intelligence chatbot capable of analyzing sentences, grasping intentions, generating responses, and outputting answers. The artificial intelligence dialog module (M6) is a matching algorithm that calls a service (function) corresponding to the user's request identified as a result of voice recognition.

인공지능대화모듈(M6)은 대화 이력 데이터베이스는 사용자와 시스템 간의 대화 내용을 저장하는 데이터베이스이다. 대화 이력 데이터베이스 내의 대화 흐름을 키워드추출모듈(M2) 및 감정분석모듈(M3)에서 분석하여 사용자의 불만 사항을 식별할 수 있다. The conversation history database of the artificial intelligence dialogue module (M6) is a database that stores conversation contents between the user and the system. The user's dissatisfaction may be identified by analyzing the conversation flow in the conversation history database in the keyword extraction module (M2) and the emotion analysis module (M3).

인공지능대화모듈(M6)은 사용자와 대화를 시도할 수 있다. 인공지능대화모듈(M6)은 사용자의 질의응답에 대한 데이터를 저장하고, 자연어처리 AI 알고리즘, 대화 관리 및 자연어 생성을 위한 챗봇, 사용자 요구사항 대응을 위한 서비스 매칭 알고리즘, 대화 이력을 데이터베이스로 구축(학습)할 수 있다. The artificial intelligence dialogue module (M6) may attempt to communicate with the user. The artificial intelligence dialogue module (M6) stores data on the user's Q&A, builds a natural language processing AI algorithm, a chatbot for dialogue management and natural language generation, a service matching algorithm for responding to user requirements, and a database of conversation history ( learning) can.

이에 따라, 인공지능대화모듈(M6)은 사용자가 원하는 기능이나 개선이 필요한 부분을 사용자에게 지속적으로 질의응답으로 파악하여 사용자의 요청사항을 반영할 수 있다.Accordingly, the artificial intelligence dialog module (M6) can reflect the user's request by continuously identifying the function desired by the user or the part requiring improvement through Q&A to the user.

인공지능대화모듈(M6)은 비상벨장치(10)의 마이크 및 스피커를 통하여 대화를 시도할 수 있으며, 마이크를 통하여 음성을 수집하고, 스피커를 통하여 음성(주파수)을 출력하여 사용자와 대화를 시도할 수 있다.The artificial intelligence dialogue module (M6) can attempt a conversation through the microphone and speaker of the emergency bell device 10, collects voice through the microphone, and outputs voice (frequency) through the speaker to attempt a conversation with the user. can do.

한편, 인공지능대화모듈(M6)의 경우 구조요청버튼과 마찬가지로 버튼식으로 구성되어 사용자가 직접 버튼을 누른 경우 혹은 누르고 있는 경우에만 통화 연결이 시도될 수 있다. On the other hand, in the case of the artificial intelligence dialogue module (M6), it is composed of a button type like the rescue request button, and a call connection can be attempted only when the user directly presses or holds the button.

또한, 인공지능대화모듈(M6)은 비상벨장치(10)에 구비된 모듈(B1~B7)을 통해서 관제센터(20)의 담당자와 대화를 할 수 있다.In addition, the artificial intelligence dialogue module (M6) can communicate with the person in charge of the control center (20) through the modules (B1 to B7) provided in the emergency bell device (10).

이때, 범죄자의 물리적인 행위에 따라 사용자가 버튼을 누르지 못하는 상황을 고려하여 구조요청버튼의 작동에 따른 입력신호 출력시 자동으로 통화 연결을 시도하게 할 수 있다.At this time, in consideration of the situation in which the user cannot press the button due to the criminal's physical action, a call connection may be automatically attempted when an input signal is output according to the operation of the rescue request button.

예컨대, 사용자는 구조요청모듈(B2)을 통하여 구조요청을 하였지만 외부 환경에 의해 사용자가 더 이상 구조요청을 하지 못하는 상황 즉, 거짓말로 안전한 상황이라고 할 경우에는 서비스를 제공할 수 없다.For example, when a user makes a rescue request through the rescue request module B2, but the external environment prevents the user from making a rescue request any longer, that is, in a falsely safe situation, the service cannot be provided.

때문에 인공지능대화모듈(M6)은 사용자와 대화 중 음성처리모듈(M1) 및 감정분석모듈(M3)을 통하여 실시간으로 사용자의 음성을 분석하여 미리 저장된 비상상황 데이터에 해당하면 서비스기관연계모듈(M4)로 구조요청신호를 전송할 수 있다.Therefore, the artificial intelligence dialogue module (M6) analyzes the user's voice in real time through the voice processing module (M1) and the emotion analysis module (M3) during the conversation with the user, and if it corresponds to the emergency situation data stored in advance, the service agency linkage module (M4 ) can transmit a rescue request signal.

또는 관제센터(20)의 담당자와 사용자가 대화 중에 실시간으로 사용자의 음성을 분석하여 미리 저장된 비상상황 데이터에 해당하면 관제센터(20)의 담당자에게 비상상황을 인지할 수 있도록 알림을 제공할 수 있다.Alternatively, if the user's voice is analyzed in real time during a conversation between the person in charge of the control center 20 and the user, and it corresponds to emergency data stored in advance, a notification may be provided to the person in charge of the control center 20 so that the person in charge of the control center 20 can recognize an emergency situation. .

한편, 서비스 유형이 확실하지 않을 경우, 비상벨장치(10)로부터 사용자에게 추가 질의(대화)를 실시할 수 있다. 이에 따라 사용자가 요구하는 서비스를 명확히 하여 정확도를 향상시킬 수 있다.On the other hand, if the service type is not certain, an additional query (conversation) may be conducted to the user from the emergency bell device 10. Accordingly, it is possible to improve accuracy by clarifying the service requested by the user.

여기서, 음성인식은 사용자가 입력한 음성신호를 전처리하고, 주파수 성분을 분석, 음성 특성을 파악하여 필요한 정보를 추출할 수 있다. 이렇게 추출한 정보에서 사용자가 말한 단어를 판별하고 텍스트로 변환시킨다.Here, voice recognition can extract necessary information by pre-processing a voice signal input by a user, analyzing frequency components, and grasping voice characteristics. From the information extracted in this way, words spoken by the user are determined and converted into text.

사용자가 건물 내에 위치하는 경우에 긴급 상황이 발생하는 경우 무분별하게 알람 신호가 출력되면 가해자를 자극하여 오히려 위험한 상황에 빠질 수 있다. 제어부는 GPS 신호의 수신 여부를 이용하여 실내 이동 여부를 판단하며, 실내 이동 후 사용자의 비명이 인식되는 경우 스피커가 알람 음향을 출력하지 않도록 제어한다. When an emergency situation occurs when a user is located in a building, if an alarm signal is indiscriminately output, the perpetrator may be stimulated and put into a dangerous situation. The control unit determines whether or not to move indoors by using whether a GPS signal is received, and controls the speaker not to output an alarm sound when a user's scream is recognized after moving indoors.

또한, 본 발명의 다른 실시예에 따르면, 비명 인식 후 바로 알람 음향이 출력되는 것이 아니라, 관제센터(20) 또는 보호자 등이 상황 정보 또는 비명 인식 전후의 음향을 듣고 긴급 상황으로 판단하는 경우, 관제센터(20) 또는 보호자의 단말기에서 알람 출력 제어 신호를 휴대용 비명 인식기로 전송하는 경우에 출력할 수 있다.In addition, according to another embodiment of the present invention, the alarm sound is not output immediately after scream recognition, but when the control center 20 or the guardian hears situation information or sound before and after scream recognition and determines that it is an emergency situation, When the center 20 or the guardian's terminal transmits an alarm output control signal to a portable scream recognizer, it can be output.

제어부는 비명 인식 이후, GPS 신호가 수신되지 않다가 다시 수신되는 시점에 스피커가 알람 음향을 출력하도록 제어한다. 제어부는 건물 내에서 외부로 이동하는 시점에 스피커가 알람 음향을 출력하도록 제어할 수 있다. After scream recognition, the controller controls the speaker to output an alarm sound when the GPS signal is not received and then received again. The controller may control the speaker to output an alarm sound when moving from inside the building to the outside.

본 실시예에 따르면, 무분별한 상황 정보의 전송을 방지하기 위해, 제어부는 음성수집모듈(B1)에서 한 번의 비명이 인식되는 경우가 아니라, 미리 설정된 시간 이내에 복수의 횟수로 비명이 인식되는 경우에 상황 정보가 관제센터(20)로 전송되도록 제어할 수 있다. According to the present embodiment, in order to prevent indiscriminate transmission of situation information, the control unit controls the situation when a scream is recognized a plurality of times within a preset time instead of when a scream is recognized once in the voice collection module (B1). Information can be controlled to be transmitted to the control center (20).

그러나 긴급한 상황에서는 한 번의 비명만이 발생할 수 있기 때문에 한번만 인식이 될 경우 이 후에 발생하는 소음(음성) 등을 소정시간 동안 추적하여 비상 상황을 관제센터(20)에 전달할 수 있음은 물론이다.However, since only one scream can occur in an emergency situation, if it is recognized only once, it is possible to track the noise (voice) generated thereafter for a predetermined time and deliver the emergency situation to the control center 20. Of course.

서비스기관(30)의 담당자는 비상벨장치(10)의 작동 이전의 녹음된 음성을 청취하여 상황 발생 시점으로부터 이전에 대한 상황을 파악할 수 있다. The person in charge of the service institution 30 can listen to the recorded voice before the operation of the emergency bell device 10 to understand the situation from the time of occurrence to the previous situation.

이러한 정보를 취합하여 비상벨장치(10)의 오작동이나 허위 신고 여부 등에 대한 판단은 물론 관리 인 력의 현장 출동 여부를 판단하는데 도움을 줄 수 있게 되는 것이다.By collecting this information, it is possible to help determine whether the emergency bell device 10 is malfunctioning or falsely reported, as well as determining whether management personnel are dispatched to the site.

서비스기관(30)은 사용자의 요구사항 중 외부 기관 요청이 필요한 경우에 호출시킬 수 있다.The service institution 30 may call when a request from an external institution is required among user requests.

일 실시예에 의하면, 사용자가 화장실에 화장지가 없음을 음성정보로 제공하면, 관제센터(20)는 음성처리모듈(M1)과 키워드추출모듈(M2), 감정분석모듈(M3)로부터 화장실, 화장지가 부족한 정보를 도출하여 해당 화장실의 관리자에게 사용자의 요청사항을 서비스기관(30)에 전달한다. 이 후 서비스기관(30)은 해당하는 문제를 해소하기 위하여 대응하여 문제를 해소할 수 있다.According to an embodiment, when the user provides voice information that there is no toilet paper in the bathroom, the control center 20 outputs the toilet paper and toilet paper from the voice processing module M1, the keyword extraction module M2, and the emotion analysis module M3. derives insufficient information and transmits the user's request to the service institution 30 to the manager of the corresponding toilet. After that, the service institution 30 may solve the problem in response to solve the corresponding problem.

서비스기관(30)은 사용자 설정에 의해 다양한 서비스를 제공할 수 있다. 예컨대, 서비스기관(30)은 화장실을 모니터링하는 관리자와 연계될 수 있다. 이때 서비스기관(30)은 관제센터(20)에서 제공받은 정보를 관리자에게 결과값을 제공한다. 이 후 관리자는 제공받은 결과값에 해당하는 서비스를 제공하여 사용자가 요청했던 문제를 해소할 수 있다.The service agency 30 may provide various services according to user settings. For example, the service agency 30 may be associated with a manager monitoring the toilet. At this time, the service organization 30 provides the information received from the control center 20 to the manager as a result value. Thereafter, the administrator may solve the problem requested by the user by providing a service corresponding to the provided result value.

딥러닝 분산 처리 장치는, 딥러닝을 통해 감시 대상 지역의 환경 특성(환경 조건)에서 나타나는 감시 대상 객체의 특징을 지속적으로 학습하여 감시 대상 객체에 대한 식별 정확도를 높일 수 있다.The deep learning distributed processing device continuously learns the characteristics of the object to be monitored that appear in the environmental characteristics (environmental conditions) of the target area to be monitored through deep learning, thereby increasing the accuracy of identification of the object to be monitored.

기존의 마우스나 키보드 조작의 수작업에 의한 영상관제의 시스템 운영과 수행 명령을 대신하는 음성 명령을 통한 대화식 운영방식으로 로컬 영상 장치의 구동 제어와, 영상 모니터링 감시 제어 및 영상관제의 시스템 제어 관리를 포함하는 모든 업무가 원격으로 제어될 수 있다. Including driving control of local video devices, video monitoring monitoring control, and video control system control management through interactive operation method through voice commands instead of video control system operation and execution commands by manual mouse or keyboard operation Everything you do can be controlled remotely.

특히, 인공지능대화모듈(M6)은 스피커, 마이크 등을 통해 관리자의 음성 명령을 원격으로 전달받거나, 기저장된 질문데이터를 제공하여 사용자와 질의응답을 제공할 수 있다. 이에 따라 음성수집모듈(B1) 또는 음성처리모듈(M1), 키워드추출모듈(M2), 감정분석모듈(M3) 등을 통하여 정확한 요청사항을 해결할 수 있기 때문에 정확성이 향상될 수 있다. 이러한 대화형 휴먼 인터페이스 방식일 수 있다.In particular, the artificial intelligence dialogue module M6 can remotely receive a manager's voice command through a speaker, microphone, or the like, or provide pre-stored question data to provide Q&A with the user. Accordingly, since accurate requests can be resolved through the voice collection module (B1), voice processing module (M1), keyword extraction module (M2), emotion analysis module (M3), etc., accuracy can be improved. It may be such a interactive human interface method.

이와 같은 음성처리모듈(M1) 및 인공지능대화모듈(M6)은 별도의 작업 없이 서로 대화하듯 원격 명령을 지시하고 처리하여 관리의 편의성 및 효율성이 더욱 향상된다. 이에 대한 대응방법으로 서비스기관(30)에 정보를 제공하게 되어 복잡한 과정을 거치지 않고 빠르고 편리하며 정확한 시스템의 원격 운영이 가능하다.The voice processing module (M1) and the artificial intelligence dialog module (M6) instruct and process remote commands as if they are talking to each other without separate work, further improving the convenience and efficiency of management. As a countermeasure to this, information is provided to the service institution 30, and thus, it is possible to remotely operate the system quickly, conveniently, and accurately without going through a complicated process.

또한, 일반적으로 건물 내의 공간에서 여러 사람이 대화를 하거나 또는 어린이들이 큰 소리로 대화를 하는 경우 비명으로 오인식하는 경우가 발생할 수 있다. In addition, in general, when several people talk in a space within a building or children talk loudly, it may be misrecognized as a scream.

이러한 상황을 고려하여, 미리 설정된 시간 이내에 복수의 횟수로 비명이 인식되는 경우에만 상황 정보가 관제센터(20)로 전송될 수 있다. 바람직하게, 사용자 음성의 크기보다는 트리거 리스트에 저장된 하나 이상의 미리 설정된 시간 이내에 복수의 횟수로 인식되는 경우에 상황 정보가 관제센터(20)로 전송될 수 있다. Considering this situation, situation information may be transmitted to the control center 20 only when a scream is recognized a plurality of times within a preset time. Preferably, situation information may be transmitted to the control center 20 when it is recognized a plurality of times within one or more preset times stored in the trigger list rather than the volume of the user's voice.

본 발명의 일 실시예에 따르면, 비상벨장치(10)의 송수신모듈(B5)은 관제센터(20)로 상황 정보를 전송할 수 있으며, 긴급 상황 메시지를 주변 다른 기기로 브로드캐스팅할 수 있다. According to one embodiment of the present invention, the transmission/reception module (B5) of the emergency bell device 10 may transmit situation information to the control center 20, and may broadcast an emergency situation message to other peripheral devices.

상황 정보의 전송과 긴급 상황 메시지의 브로드캐스팅은 별도의 칩으로 구현될 수 있다. 긴급 상황 메시지의 브로드캐스팅은 주변 근거리에 위치한 다른 비상벨장치(10)로 전송하여 알람 음향을 출력하여 비상상황임을 주변에 알리게 되어 다른 사용자의 도움을 받을 수 있다.Transmission of context information and broadcasting of emergency messages may be implemented as separate chips. Broadcasting of the emergency message is transmitted to other emergency bell devices 10 located in a short distance to output an alarm sound to inform the surroundings of an emergency situation, so that other users can receive help.

비상벨장치(10)는 블루투스와 같은 근거리 네트워크 통신을 송수신모듈(B5)을 통해 사용될 수 있다. 비상벨장치(10)는 근거리 네트워크를 통해 사용자가 소지하는 이동 통신 단말과 페어링될 수 있다. 비상벨장치(10)는 시간에 따른 상황 정보를 주기적으로 관제센터(20)로 전송한다. Emergency bell device 10 may be used through a short-range network communication such as Bluetooth through the transmission and reception module (B5). The emergency bell device 10 may be paired with a mobile communication terminal possessed by a user through a local area network. The emergency bell device 10 periodically transmits situation information according to time to the control center 20 .

비상벨장치(10)와 관제센터(20)는 페어링 정보를 포함할 수 있고, 관제센터(20)는 음성 인식 이후 상술한 페어링 상태가 해제되는지 여부를 통해 긴급 상황인지 여부를 판단할 수 있으며 비상벨장치(10)에 문제가 있는 것으로 판단할 수 있다. The emergency bell device 10 and the control center 20 may include pairing information, and the control center 20 may determine whether or not it is an emergency situation through whether the above-described pairing state is released after voice recognition, and emergency It can be determined that the bell device 10 has a problem.

관제센터(20)는 상황 정보를 수신하여 사용자가 긴급 상황에 있는지 여부를 판단한다. 예를 들어, 긴급 상황 발생 이후, 시간에 따른 사용자의 위치가 오랜 시간 동안 그대로 있거나 또는 빠른 속도로 이동하는 경우 가해자에 의해 감금되거나 또는 가해자의 차량 등을 통해 다른 장소로 이동하는 것으로 판단할 수 있다. The control center 20 receives the situation information and determines whether the user is in an emergency situation. For example, after an emergency occurs, if the user's location over time remains unchanged for a long time or moves at high speed, it can be determined that the perpetrator is confined or moved to another place through the perpetrator's vehicle. .

이러한 점을 고려하여, 관제센터(20)는 비명 인식 시점으로부터 미리 설정된 제 1임계치 시간 이상 위치 정보가 갱신되지 않거나 위치 정보가 미리 설정된 속도 이상으로 변경되는 경우 긴급 상황인 것으로 판단한다. In consideration of this point, the control center 20 determines that an emergency situation occurs when the location information is not updated for more than a preset first threshold time from the scream recognition time or the location information is changed at a preset speed or more.

또한, 관제센터(20)는 비명 인식 이후의 주변 음향에 비명이 추가로 인식되는지 여부를 이용하여 긴급 상황 여부를 판단할 수 있다. In addition, the control center 20 may determine whether or not an emergency situation exists by using whether or not a scream is additionally recognized in the ambient sound after the scream recognition.

본 발명의 일 실시예에 따르면, 관제센터(20)가 아닌 별도의 인공 신경망 모델이 구축된 AI 서버로 주변 음향 정보를 전송하고, AI 서버가 주변 음향 정보를 분석하여 긴급 상황인지 여부를 판단할 수 있다.According to an embodiment of the present invention, ambient sound information is transmitted to an AI server built with a separate artificial neural network model, rather than the control center 20, and the AI server analyzes the ambient sound information to determine whether it is an emergency situation. can

예를 들어, 소정 크기 이상의 음향이 인식되어 비상벨장치(10)가 상황 정보를 전송하고, 주변 음향에 복수의 트리거가 하나 이상 포함되는 경우 관제센터(20)는 긴급 상황이 발생한 것으로 판단할 수 있다.For example, when a sound of a predetermined size or more is recognized and the emergency bell device 10 transmits situation information, and one or more triggers are included in the ambient sound, the control center 20 may determine that an emergency situation has occurred. there is.

서비스기관(30)은 작업자의 선택에 따라 다양한 서비스에 연결될 수 있는 것으로 일예로 화장실 관리실, 지자체의 경찰서, 지자체 소방서, 지자체의 민원 상황실, 방범 대상 구역을 담당하는 지구대, 자율방범대, 관리실 등일 수 있으며, 이중 어느 하나 또는 어느 하나 이상에 매칭되어 사용자에게 서비스를 제공할 수 있다. The service agency 30 can be connected to various services according to the operator's choice. For example, the toilet management room, the local government police station, the local fire station, the civil complaint situation room of the local government, the police unit in charge of the crime prevention area, autonomous crime prevention unit, management office, etc. , It is possible to provide a service to the user by matching any one or more than one of them.

도 2 및 도 4를 참조하여 본 발명에 따른 스마트 인공지능 다기능 비상벨 시스템의 제어방법의 일 실시예를 설명하면, 스마트 인공지능 다기능 비상벨 시스템의 제어방법은 사용자가 음성정보를 제공하게 되면, 비상벨장치(10)의 음성수집모듈(B1)에서 음성 정보들을 수집(S10)한다.Referring to FIGS. 2 and 4, an embodiment of a control method of a smart artificial intelligence multifunctional emergency bell system according to the present invention is described. When a user provides voice information, The voice information is collected in the voice collection module (B1) of the emergency bell device (10) (S10).

이렇게 수집된 음성정보는 관제센터(20)의 음성처리모듈(M1)로 송신되고, 음성처리모듈(M1)은 음성수집모듈(B1)로부터 제공받은 음성을 텍스트화(S20)할 수 있다. 텍스트화된 문장에서 키워드추출모듈(M2)에서 키워드를 추출(S30)할 수 있다. The collected voice information is transmitted to the voice processing module M1 of the control center 20, and the voice processing module M1 may convert the voice provided from the voice collection module B1 into text (S20). Keywords can be extracted from the textualized sentence in the keyword extraction module (M2) (S30).

이때, 제어부는 수집된 음성정보에 기초하여 사용자의 감정을 분석하여 감정 데이터를 생성(S15)할 수 있다.At this time, the controller may analyze the user's emotion based on the collected voice information and generate emotion data (S15).

제어부는 텍스트화된 키워드 및 분석된 감정 데이터를 미리 저장된 감정 데이터에 비교하여 사용자의 요청 키워드를 분류(S40)한다. The control unit classifies the user's requested keyword by comparing the textualized keyword and the analyzed emotion data with previously stored emotion data (S40).

이렇게 추출된 키워드와 미리 저장된 서비스기관 정보 데이터를 비교하여 검출된 키워드에 해당하는 서비스기관(30)에 추출된 키워드를 제공하여 서비스를 요청(S56)한다.The extracted keyword is compared with previously stored service agency information data, and the extracted keyword is provided to the service agency 30 corresponding to the detected keyword to request a service (S56).

이에 따라 사용자는 서비스기관(30)으로부터 문제해결을 위한 서비스를 제공받을 수 있다.Accordingly, the user can receive a service for problem solving from the service organization 30 .

한편, 상기 S15단계에서, 감정 데이터는 수집된 음성정보를 딥러닝 학습을 통해 저장된 정보와 비교하여 음성의 속도 또는 음량의 높낮이, 톤에 대한 특징벡터를 추출한 데이터에 기초하여 사용자의 감정을 분석할 수 있다.On the other hand, in step S15, the emotion data is to analyze the user's emotion based on the data obtained by comparing the collected voice information with information stored through deep learning and extracting feature vectors for voice speed, volume pitch, and tone. can

또한, S40단계 이후에, 분류된 키워드가 미리 저장된 비상상황에 해당하는 키워드를 비교(S50)한다.In addition, after step S40, the classified keywords are compared with keywords corresponding to pre-stored emergency situations (S50).

여기서, 제어부는 분류된 키워드가 비상상황에 해당하는 키워드일 경우 비상 키워드에 해당하는 비상 서비스를 제공(S60)하는 것으로 비상벨장치(10)의 구조요청모듈(B2), 스피커모듈(B3), 경광등모듈(B4)을 작동시킬 수 있다.Here, the control unit provides an emergency service corresponding to the emergency keyword when the classified keyword is a keyword corresponding to an emergency situation (S60), and the rescue request module (B2) of the emergency bell device (10), the speaker module (B3), The warning light module (B4) can be operated.

이때, S50단계에서, 제어부는 비상상황에 해당하지 아니하면 음성정보가 수집되는 위치에 대한 정보를 수집(S55)하고. 수집된 위치정보와 추출된 키워드에 기초하여 음성정보에 해당하는 서비스기관에 추출된 키워드를 제공하여 서비스를 요청(S56)할 수 있다.At this time, in step S50, the control unit collects (S55) information about the location where voice information is collected if it does not correspond to an emergency situation. Based on the collected location information and the extracted keyword, the service may be requested by providing the extracted keyword to the service agency corresponding to the voice information (S56).

이 후 서비스를 요청한 결과를 사용자에게 음성으로 출력하여 결과를 알려줄 수 있다(S70). 알람 신호의 출력 여부는 긴급 상황으로 판단되더라도 현재 사용자의 위치에 따라 다르게 제어될 수 있다. Thereafter, the result of requesting the service may be output to the user as a voice to notify the result (S70). Whether or not to output the alarm signal may be differently controlled according to the current user's location even if it is determined to be an emergency situation.

도 2 및 도 5를 참조하여 본 발명에 따른 스마트 인공지능 다기능 비상벨 시스템의 제어방법의 다른 실시예를 설명하면, 스마트 인공지능 다기능 비상벨 시스템의 제어방법은 사용자가 음성정보를 제공하게 되면, 비상벨장치(10)의 음성수집모듈(B1)에서 음성 정보들을 수집(S10)한다.Referring to FIGS. 2 and 5, another embodiment of the control method of the smart artificial intelligence multifunctional emergency bell system according to the present invention is described. When the user provides voice information, The voice information is collected in the voice collection module (B1) of the emergency bell device (10) (S10).

이렇게 수집된 음성정보는 관제센터(20)의 음성처리모듈(M1)로 송신되고, 음성처리모듈(M1)은 음성수집모듈(B1)로부터 제공받은 음성을 텍스트화(S20)할 수 있다. 텍스트화된 문장에서 키워드추출모듈(M2)에서 키워드를 추출(S30)할 수 있다. The collected voice information is transmitted to the voice processing module M1 of the control center 20, and the voice processing module M1 may convert the voice provided from the voice collection module B1 into text (S20). Keywords can be extracted from the textualized sentence in the keyword extraction module (M2) (S30).

이때, 제어부는 수집된 음성정보에 기초하여 사용자의 감정을 분석하여 감정 데이터를 생성(S15)할 수 있다.At this time, the controller may analyze the user's emotion based on the collected voice information and generate emotion data (S15).

제어부는 텍스트화된 키워드 및 분석된 감정 데이터를 미리 저장된 감정 데이터에 비교하여 사용자의 요청 키워드를 추출하여 분류(S40)한다. The control unit extracts and classifies the user's requested keyword by comparing the textualized keyword and the analyzed emotion data with previously stored emotion data (S40).

이렇게 추출된 키워드와 미리 저장된 서비스기관 정보 데이터를 비교하여 검출된 키워드에 해당하는 서비스기관(30)에 추출된 키워드를 제공하여 서비스를 요청(S56)한다.The extracted keyword is compared with previously stored service agency information data, and the extracted keyword is provided to the service agency 30 corresponding to the detected keyword to request a service (S56).

이에 따라 사용자는 서비스기관(30)으로부터 문제해결을 위한 서비스를 제공받을 수 있다.Accordingly, the user can receive a service for problem solving from the service organization 30 .

한편, 상기 S15단계에서, 감정 데이터는 수집된 음성정보를 딥러닝 학습을 통해 저장된 정보와 비교하여 음성의 속도 또는 음량의 높낮이, 톤에 대한 특징벡터를 추출한 데이터에 기초하여 사용자의 감정을 분석할 수 있다.On the other hand, in step S15, the emotion data is to analyze the user's emotion based on the data obtained by comparing the collected voice information with information stored through deep learning and extracting feature vectors for voice speed, volume pitch, and tone. can

또한, S40단계 이후에, 분류된 키워드가 미리 저장된 비상상황에 해당하는 키워드를 비교(S50)한다.In addition, after step S40, the classified keywords are compared with keywords corresponding to pre-stored emergency situations (S50).

여기서, 분류된 키워드가 비상상황인지를 판단할 수 있다(S50). 분류된 키워드가 비상상황에 해당하는 키워드일 경우 비상 키워드에 해당하는 비상 서비스를 제공할 수 있다(S60). Here, it may be determined whether the classified keyword is an emergency situation (S50). If the classified keyword corresponds to an emergency situation, an emergency service corresponding to the emergency keyword may be provided (S60).

이때, S50단계에서, 제어부는 비상상황에 해당하지 아니하면 음성정보가 수집되는 위치에 대한 정보를 수집(S55)하고. 수집된 위치정보와 추출된 키워드에 기초하여 음성정보에 해당하는 서비스기관에 추출된 키워드를 제공하여 서비스를 요청(S56)할 수 있다.At this time, in step S50, the control unit collects (S55) information about the location where voice information is collected if it does not correspond to an emergency situation. Based on the collected location information and the extracted keyword, the service may be requested by providing the extracted keyword to the service agency corresponding to the voice information (S56).

한편, 상기 S30단계에서, 추출된 키워드 값이 미리 저장된 추가정보를 사용자에게 음성으로 출력하여 대화를 시도할 수 있다(S31). 즉, 주요 키워드를 추출하는데 실패하면 사용자와의 대화를 시도할 수 있다.Meanwhile, in the above step S30, the user may try to have a conversation by outputting the additional information in which the extracted keyword value is pre-stored as a voice to the user (S31). That is, if it fails to extract the main keyword, it may try to have a conversation with the user.

또한, 상기 S31단계에서, 수집된 음성 정보에서 변환된 텍스트를 시간순으로 저장하여 대화목록데이터를 생성하여, 상기 대화목록데이터에 대한 정보로부터 키워드를 추출하고, 수집된 음성 정보에서 감정을 분석 및 위치정보를 각 제공받아 대화 흐름에 해당하는 결과에 대한 키워드결과데이터를 생성하고, 상기 키워드결과데이터에 따라 미리 저장한 서비스기관 정보 데이터에 매칭되는 서비스기관을 호출하여 상기 키워드결과데이터를 제공할 수 있다.In addition, in the step S31, conversation list data is generated by storing the text converted from the collected voice information in chronological order, keywords are extracted from the information on the conversation list data, and emotions are analyzed and located in the collected voice information. Each information is received, keyword result data for a result corresponding to a conversation flow is generated, and the keyword result data can be provided by calling a service institution matching pre-stored service institution information data according to the keyword result data. .

여기서, 대화시도는 사용자에게 다양한 질문들을 할 수 있으며, 이러한 질문들은 키워드를 추출하는데 유리한 질문들일 수 있다. 또, 질문의 예시는 설정자가 미리 제어부에 설정해둘 수 있다. 대답에 대응하여 질문을 조합하여 다양한 질문을 할 수 있으며, 기계학습에 의해 학습되어진 저장된 데이터를 로딩하여 저장된 사용자에게 질문할 수 있다. Here, the conversation attempt may ask the user various questions, and these questions may be useful questions for extracting keywords. In addition, examples of questions may be set by the setter in the control unit in advance. Various questions can be asked by combining questions in response to answers, and stored data learned through machine learning can be loaded and stored to ask questions to the user.

이와 같은 본 발명의 스마트 인공지능 다기능 비상벨 시스템 및 제어방법에 따르면, 재해, 재난, 사건, 사고로부터의 인명 및 재산 보호, 방범, 범죄예방 등의 목적으로 구축될 수 있으며, 장소가 협소한 곳에도 운용 가능하여 위급상황에 도움을 요청하여 위급상황 전파할 수 있으며, 실내외 열악한 환경에서도 사용될 수 있는 효과가 있다.According to the smart artificial intelligence multifunctional emergency bell system and control method of the present invention, it can be built for the purpose of protecting human life and property from disasters, disasters, incidents, accidents, crime prevention, and crime prevention, and can be used in narrow places It can also be operated, so it can request help in an emergency situation and spread the emergency situation, and it has the effect of being used in poor indoor and outdoor environments.

또한, 본 발명에 따른 스마트 인공지능 비상벨장치는 실시간으로 사용자의 요청사항을 관제센터로 전송하여 사용자의 요청에 따른 대응을 할 수 있고, 유지 관리를 위한 현장 인력을 최소화하면서도 효율성을 극대화할 수 있게 되며, 비상벨장치의 지속적인 유지 관리는 물론 기능 이상 및 파손 등에 대한 신속한 조치가 가능하여 운영 공백시간을 최소화할 수 있게 되는 효과를 나타낼 수 있다.In addition, the smart artificial intelligence emergency bell device according to the present invention can respond to the user's request by transmitting the user's request to the control center in real time, and can maximize efficiency while minimizing the field manpower for maintenance. In addition, continuous maintenance of the emergency bell device, as well as rapid action for malfunction and damage, etc. can be performed, thereby minimizing operational blank time.

더하여, 본 발명에 따르면, 소형 LCD패널 또는 LCD패널 없이 음성만으로 사용할 수 있게 되어 소형화가 가능하며, 가시성 확보와 혹한 환경에서도 영향이 적기 때문에 설치장소의 제약 없이 사용할 수 있고, 디지털 사용에 익숙하지 않은 사용자(외국인 등)들에게 편의성을 제공하면서 사생활 침해 문제를 해소할 수 있는 효과가 있다.In addition, according to the present invention, since it can be used only by voice without a small LCD panel or LCD panel, it can be miniaturized, and it can be used without restrictions in the installation place because it secures visibility and has little effect even in harsh environments, and it can be used without restrictions on digital use. It has the effect of resolving the privacy invasion problem while providing convenience to users (foreigners, etc.).

본 발명은 상기에서 설명된 실시예로 한정되지 않으며, 둘 이상의 실시예를 조합하거나 적어도 어느 하나의 실시예와 공지기술을 조합한 것을 새로운 실시예로 포함할 수 있음은 물론이다.Of course, the present invention is not limited to the above-described embodiments, and may include a combination of two or more embodiments or a combination of at least one embodiment and known technology as a new embodiment.

이상에서 본 발명의 바람직한 실시 예에 대하여 상세하게 설명하였지만 본 발명은 이에 한정되지 않으며, 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념(기술적 사상)을 이용한 당해 분야의 통상의 지식을 가진 자에 의해 여러 변형 및 개량 형태가 가능하고, 본 발명의 권리범위에 속한다고 할 것이며, 이러한 본 발명의 구체적인 보호 범위는 첨부된 청구범위에 의하여 명확해질 것이다.Although the preferred embodiments of the present invention have been described in detail above, the present invention is not limited thereto, and those skilled in the art using the basic concept (technical idea) of the present invention defined in the following claims Various modifications and improvements are possible and will be said to belong to the scope of the present invention, and the specific protection scope of the present invention will be clarified by the appended claims.

10: 비상벨장치
20: 관제센터
30: 서비스 센터
10: emergency bell device
20: control center
30: service center

Claims (11)

사용자의 음성을 입력받기 위한 마이크를 통하여 음성을 수집하는 음성수집모듈에서 수집된 음성을 외부 서버로 송수신하는 송수신모듈을 구비한 비상벨장치; 및
상기 비상벨장치로부터 수집된 음성을 제공받아 텍스트화하는 음성처리모듈과, 추출된 키워드 및 텍스트로부터 사용자의 감정을 분석하는 감정분석모듈과, 상기 감정분석모듈에서 검출된 감정데이터와 미리 저장된 서비스기관 정보 데이터를 비교하여 매칭된 서비스기관에 상기 감정데이터를 제공하여 서비스를 요청하는 서비스기관연계모듈을 포함하는 제어부;를 포함하여 서버를 관리하는 관제센터;를 포함하고,
상기 제어부는,
상기 음성처리모듈에서 변환된 텍스트에서 키워드를 추출하여 상기 감정분석모듈에 제공하는 키워드추출모듈; 및 상기 음성수집모듈에서 수집되는 음성 정보의 위치에 대한 정보를 수집하는 위치정보수집모듈;을 포함하고,
상기 키워드추출모듈에서 추출된 키워드와 상기 위치정보수집모듈에서 수집된 위치정보값을 비교하여, 매칭되는 매칭데이터를 상기 서비스기관연계모듈에 제공하며,
상기 키워드추출모듈에서 추출된 키워드 값이 상기 위치정보수집모듈에서 수집된 위치정보값에 해당하는 키워드가 아니면, 미리 저장된 추가정보를 사용자에게 음성으로 출력하는 인공지능대화모듈;을 더 포함하는 스마트 인공지능 다기능 비상벨 시스템.
An emergency bell device having a transmission/reception module for transmitting and receiving the voice collected by the voice collection module for collecting voice through a microphone for receiving the user's voice to an external server; and
A voice processing module that receives and converts voices collected from the emergency bell device into text, an emotion analysis module that analyzes the user's emotions from the extracted keywords and text, and the emotion data detected by the emotion analysis module and pre-stored service institutions A control center including a control center for managing a server; including a control unit including a service agency linking module requesting a service by comparing information data and providing the emotion data to a matched service agency;
The control unit,
a keyword extraction module extracting keywords from the text converted by the voice processing module and providing the extracted keywords to the emotion analysis module; And a location information collection module for collecting information on the location of the voice information collected by the voice collection module;
Comparing the keyword extracted from the keyword extraction module with the location information value collected from the location information collection module, and providing matching data to the service institution linking module;
If the keyword value extracted by the keyword extraction module is not a keyword corresponding to the location information value collected by the location information collection module, an artificial intelligence dialog module outputting pre-stored additional information as a voice to the user; smart artificial intelligence further comprising: Intelligent multifunctional emergency bell system.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 인공지능대화모듈은,
상기 음성처리모듈에서 변환된 텍스트를 시간순으로 저장하여 대화목록데이터를 생성하고, 상기 대화목록데이터에 대한 정보를 상기 키워드추출모듈과 상기 감정분석모듈 및 상기 위치정보수집모듈에 각 제공하여 대화 흐름에 해당하는 결과를 제공받아 키워드결과데이터를 생성하고, 상기 키워드결과데이터를 상기 서비스기관연계모듈에서 제공받아 미리 저장한 서비스기관 정보 데이터에 매칭되는 서비스기관에 상기 키워드결과데이터를 제공하여 서비스를 요청하는 스마트 인공지능 다기능 비상벨 시스템.
According to claim 1,
The artificial intelligence dialogue module,
The text converted by the voice processing module is stored in chronological order to generate conversation list data, and information on the conversation list data is provided to the keyword extraction module, the emotion analysis module, and the location information collection module, respectively, so that the conversation flows. Receiving the corresponding result, generating keyword result data, receiving the keyword result data from the service institution linking module and providing the keyword result data to a service institution that matches the previously stored service institution information data to request a service Smart artificial intelligence multifunctional emergency bell system.
제1항에 있어서,
상기 인공지능대화모듈은,
사용자와 대화 중 상기 음성처리모듈 및 감정분석모듈을 통하여 실시간으로 사용자의 음성을 분석하여 미리 저장된 비상상황 데이터에 해당하면 상기 서비스기관연계모듈로 구조요청신호를 전송하는 스마트 인공지능 다기능 비상벨 시스템.
According to claim 1,
The artificial intelligence dialogue module,
Smart artificial intelligence multifunctional emergency bell system that analyzes the user's voice in real time through the voice processing module and emotion analysis module during conversation with the user and transmits a rescue request signal to the service agency linkage module if it corresponds to the pre-stored emergency data.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020230064590A 2023-05-18 2023-05-18 Smart artificial intelligence multi-fungtion emergency bell system and its control method KR102573461B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230064590A KR102573461B1 (en) 2023-05-18 2023-05-18 Smart artificial intelligence multi-fungtion emergency bell system and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230064590A KR102573461B1 (en) 2023-05-18 2023-05-18 Smart artificial intelligence multi-fungtion emergency bell system and its control method

Publications (1)

Publication Number Publication Date
KR102573461B1 true KR102573461B1 (en) 2023-09-06

Family

ID=87973930

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230064590A KR102573461B1 (en) 2023-05-18 2023-05-18 Smart artificial intelligence multi-fungtion emergency bell system and its control method

Country Status (1)

Country Link
KR (1) KR102573461B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117149983A (en) * 2023-10-30 2023-12-01 山东高速信息集团有限公司 Method, device and equipment for intelligent dialogue based on expressway service

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070056227A (en) * 2005-11-29 2007-06-04 주식회사 엘지텔레콤 Gps terminal and method for rescuing victim using mobile communication network
KR101434502B1 (en) 2008-05-02 2014-08-27 주식회사 드림넷코리아 Bmergency bell system
KR101822085B1 (en) * 2017-02-02 2018-01-25 인성 엔프라 주식회사 emergency alarm apparatus having emergency bell
KR101832446B1 (en) 2017-07-31 2018-04-13 주식회사 포딕스시스템 A emergency bell-cctv integrated system with bidirectional call function in emergency bell with single network
KR20210077036A (en) * 2019-12-16 2021-06-25 현대자동차주식회사 Apparatus and method for judging emergency in vehicle
KR20220064702A (en) 2020-11-12 2022-05-19 한국광기술원 System for controlling acoustic-based emergency bell and method thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070056227A (en) * 2005-11-29 2007-06-04 주식회사 엘지텔레콤 Gps terminal and method for rescuing victim using mobile communication network
KR101434502B1 (en) 2008-05-02 2014-08-27 주식회사 드림넷코리아 Bmergency bell system
KR101822085B1 (en) * 2017-02-02 2018-01-25 인성 엔프라 주식회사 emergency alarm apparatus having emergency bell
KR101832446B1 (en) 2017-07-31 2018-04-13 주식회사 포딕스시스템 A emergency bell-cctv integrated system with bidirectional call function in emergency bell with single network
KR20210077036A (en) * 2019-12-16 2021-06-25 현대자동차주식회사 Apparatus and method for judging emergency in vehicle
KR20220064702A (en) 2020-11-12 2022-05-19 한국광기술원 System for controlling acoustic-based emergency bell and method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117149983A (en) * 2023-10-30 2023-12-01 山东高速信息集团有限公司 Method, device and equipment for intelligent dialogue based on expressway service
CN117149983B (en) * 2023-10-30 2024-02-27 山东高速信息集团有限公司 Method, device and equipment for intelligent dialogue based on expressway service

Similar Documents

Publication Publication Date Title
CN110741433B (en) Intercom communication using multiple computing devices
US11631407B2 (en) Smart speaker system with cognitive sound analysis and response
KR101622111B1 (en) Dialog system and conversational method thereof
US10685648B2 (en) Sensor fusion model to enhance machine conversational awareness
KR101827320B1 (en) Server for call center using artificial intelligence
US10832673B2 (en) Smart speaker device with cognitive sound analysis and response
US11016729B2 (en) Sensor fusion service to enhance human computer interactions
KR20190065200A (en) Method and apparatus for recognizing a voice
JP2019164345A (en) System for processing sound data, user terminal and method for controlling the system
US10706848B1 (en) Anomaly detection for voice controlled devices
KR101322486B1 (en) General dialogue service apparatus and method
KR102573461B1 (en) Smart artificial intelligence multi-fungtion emergency bell system and its control method
US10950223B2 (en) System and method for analyzing partial utterances
KR20190031167A (en) Electronic Device and method for controlling the electronic device
CN110719553B (en) Smart speaker system with cognitive sound analysis and response
US20210097990A1 (en) Speech processing method and apparatus therefor
KR20190096308A (en) electronic device
US11373656B2 (en) Speech processing method and apparatus therefor
KR102284694B1 (en) System for providing concierge service using self-driving robot
KR101573303B1 (en) System for Providing Civil Service Based on Position Information and Method for Providing Thereof
US20220157305A1 (en) Information processing apparatus, information processing method, and program
Dweik et al. Skeleton of implementing voice control for building automation systems
KR20230070601A (en) Sound-based intelligent emergency analysis system and method thereof
Asskour et al. Design & Development Of Mapping Tool For The Blind Or Partially Sighted
US20230215422A1 (en) Multimodal intent understanding for automated assistant

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant