KR20180052909A - Interface system and method for database based on voice/sound analysis and legacy - Google Patents

Interface system and method for database based on voice/sound analysis and legacy Download PDF

Info

Publication number
KR20180052909A
KR20180052909A KR1020160150053A KR20160150053A KR20180052909A KR 20180052909 A KR20180052909 A KR 20180052909A KR 1020160150053 A KR1020160150053 A KR 1020160150053A KR 20160150053 A KR20160150053 A KR 20160150053A KR 20180052909 A KR20180052909 A KR 20180052909A
Authority
KR
South Korea
Prior art keywords
voice
module
speaker
database
analyzing
Prior art date
Application number
KR1020160150053A
Other languages
Korean (ko)
Inventor
서형호
최규태
Original Assignee
(주)트리포스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)트리포스 filed Critical (주)트리포스
Priority to KR1020160150053A priority Critical patent/KR20180052909A/en
Publication of KR20180052909A publication Critical patent/KR20180052909A/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/10Details of telephonic subscriber devices including a GPS signal receiver

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Telephonic Communication Services (AREA)

Abstract

Disclosed are an interface system and a method for linking and processing a database based on voice/sound analysis and a legacy. The system includes: a speaker mobile terminal for transmitting a voice and an ambient sound of a speaker; a call receiving module for receiving a voice and an ambient sound of the speaker from the speaker mobile terminal; an age information inference module for inferring age information of the speaker by analyzing the voice and the ambient sound received from the call receiving module; a gender information inference module for inferring a gender of the speaker by analyzing the voice and the ambient sound received from the call receiving module; a psychological state inference module for inferring the psychological state of the speaker by analyzing the voice and the ambient sound received from the call receiving module; a situation decision server/database including a truth/false inference module for inferring the truth/false of the speaker by analyzing the voice and the ambient sound received from the call receiving module; and a user terminal for displaying the age information deduced by the age information inference module, gender information deduced by the gender information inference module, the psychological state deduced by the psychological state inference module, and the truth/false information deduced by the truth/false inference module in real time.

Description

음성/음향 분석 기반의 데이터베이스와 레거시의 연계 처리를 위한 인터페이스 시스템 및 방법{INTERFACE SYSTEM AND METHOD FOR DATABASE BASED ON VOICE/SOUND ANALYSIS AND LEGACY}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an interface system and method for processing a voice /

본 발명은 인터페이스 시스템 및 방법에 관한 것으로서, 구체적으로는 음성/음향 분석 기반의 데이터베이스와 레거시의 연계 처리를 위한 인터페이스 시스템 및 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an interface system and method, and more particularly, to an interface system and method for linkage processing between a database based on voice / sound analysis and a legacy.

매년 끊임없이 발생되는 많은 응급 사고라든가 범죄 사고에 대한 신고 전화가 폭주하고 있다.A lot of emergency calls or criminal incidents are reported every year.

그런데 이처럼 폭주하는 신고 전화에는 허위 신고가 상당 비율을 차지하고 있다.However, a false report is a significant proportion of the report of such a congestion.

무분별한 신고 전화는 몇초 간격으로 발생할 정도로 잦은데, 짧은 시간안에 허위 신고 여부를 판단하고 초기에 신속하게 이를 판단해야 한다.Unreasonable calls are frequent every few seconds, so you have to judge whether you are falsely notified within a short period of time and make a quick decision early on.

신고 전화의 접수자는 허위 신고 전화를 오랫동안 끌면서 진정한 신고 전화를 놓쳐서는 안된다.The recipient of the telephone call should not miss the true telephone call while attracting the false telephone call for a long time.

한편, 허위 신고가 아닌 경우, 발화자는 당황하여 제대로 상황을 전달하지 못하는 경우가 많이 있다. 이러한 경우 발화자의 음성이나 주변 음향을 통해서 신고의 진정성은 물론 그 위급성을 신속하고 정확하게 판단함은 물론 짧은 시간안에 사고 현장이나 발화자에 대해 가능한 한 많은 정보를 파악하고 추론해내야 한다.On the other hand, if it is not a false report, the speaker is often embarrassed and often fails to deliver the situation properly. In this case, it is necessary to quickly and accurately judge not only the authenticity of the declaration but also the urgency of the declaration through the voice of the speaker or the surrounding sound, as well as grasping and reasoning as much information as possible about the accident scene or the speaker in a short time.

하지만, 짧은 시간안에 신고 전화 접수자가 정확하고 신속하게 많은 정보를 파악해내는 것은 쉽지 않고 그 정확성이나 객관성에서도 일정하지 않을 수 있는 문제점이 있다.However, there is a problem that it is not easy to grasp a lot of information accurately and quickly within a short time, and accuracy and objectivity may not be constant.

본 발명의 목적은 음성/음향 분석 기반의 데이터베이스와 레거시의 연계 처리를 위한 인터페이스 시스템을 제공하는 데 있다.An object of the present invention is to provide an interface system for linkage processing between a database based on voice / sound analysis and legacy.

본 발명의 다른 목적은 음성/음향 분석 기반의 데이터베이스와 레거시의 연계 처리를 위한 인터페이스 방법을 제공하는 데 있다.Another object of the present invention is to provide a method for interfacing a legacy with a database based on voice / sound analysis.

상술한 본 발명의 목적에 따른 음성/음향 분석 기반의 데이터베이스와 레거시의 연계 처리를 위한 인터페이스 시스템은, 발화자의 음성 및 주변 음향을 송신하는 발화자 이동 단말; 상기 발화자 이동 단말로부터 발화자의 음성 및 주변 음향을 수신하는 통화 수신 모듈과, 상기 통화 수신 모듈에서 수신된 음성 및 주변 음향을 분석하여 상기 발화자의 연령 정보를 추론하는 연령 정보 추론 모듈과, 상기 통화 수신 모듈에서 수신된 음성 및 주변 음향을 분석하여 상기 발화자의 성별을 추론하는 성별 정보 추론 모듈과, 상기 통화 수신 모듈에서 수신된 음성 및 주변 음향을 분석하여 상기 발화자의 심리 상태를 추론하는 심리 상태 추론 모듈과, 상기 통화 수신 모듈에서 수신된 음성 및 주변 음향을 분석하여 상기 발화자의 진실/거짓을 추론하는 진실/거짓 추론 모듈을 포함하는 상황 판단 서버/데이터베이스; 상기 연령 정보 추론 모듈에서 추론된 연령 정보, 상기 성별 정보 추론 모듈에서 추론된 성별 정보, 상기 심리 상태 추론 모듈에서 추론된 심리 상태 및 상기 진실/거짓 추론 모듈에서 추론된 진실/거짓을 실시간 디스플레이하는 사용자 단말을 포함하도록 구성될 수 있다.According to an aspect of the present invention, there is provided a speech / sound analysis based database and an interface system for linkage processing of a legacy system, the system comprising: a speech mobile terminal for transmitting speech and ambient sounds of a speaker; An age information inference module for inferring age information of the talker by analyzing the voice and the ambient sound received from the call receiving module; A module for inferring a gender of the talker by analyzing the voice and the ambient sound received from the module; a psychological state reasoning module for analyzing the voice and the ambient sound received from the call receiving module to infer the psychological state of the talker; And a truth / false inference module for inferring the truth / false of the speaker by analyzing the voice and the ambient sound received from the call receiving module. The gender information deduced by the gender information reasoning module, the psychological state inferred from the psychological state reasoning module, and the truth / false information deduced from the truth / false inference module, May be configured to include a terminal.

이때, 상기 상황 판단 서버/데이터베이스는, 상기 통화 수신 모듈에서 상기 발화자 이동 단말로부터 발화자의 음성 및 주변 음향을 수신하는 경우, 해당 통신사 서버를 통해 상기 발화자 이동 단말의 GPS(global positioning system) 기능을 턴온(turn-on)시키는 GPS(global positioning system) 원격 제어 모듈을 더 포함하도록 구성될 수 있다.In this case, when receiving the voice of the speaker and the ambient sound from the speaking terminal mobile terminal in the call receiving module, the situation judging server / database may turn on the global positioning system (GPS) function of the speaking terminal through the corresponding communication server, a global positioning system (GPS) remote control module that turns on the GPS module.

상술한 본 발명의 다른 목적에 따른 음성/음향 분석 기반의 데이터베이스와 레거시의 연계 처리를 위한 인터페이스 방법은, 발화자 이동 단말이 발화자의 음성 및 주변 음향을 송신하는 단계; 상황 판단 서버/데이터베이스가 상기 발화자 이동 단말로부터 발화자의 음성 및 주변 음향을 수신하는 단계; 상기 상황 판단 서버/데이터베이스가 상기 수신된 음성 및 주변 음향을 분석하여 상기 발화자의 연령 정보를 추론하는 단계; 상기 상황 판단 서버/데이터베이스가 상기 수신된 음성 및 주변 음향을 분석하여 상기 발화자의 성별 정보를 추론하는 단계; 상기 상황 판단 서버/데이터베이스가 상기 수신된 음성 및 주변 음향을 분석하여 상기 발화자의 심리 상태를 추론하는 단계; 상기 상황 판단 서버/데이터베이스가 상기 수신된 음성 및 주변 음향을 분석하여 상기 발화자의 진실/거짓을 추론하는 단계; 사용자 단말이 상기 상황 판단 서버/데이터베이스가 추론한 연령 정보, 성별 정보, 심리 상태 및 진실/거짓을 디스플레이하는 단계를 포함하도록 구성될 수 있다.According to another aspect of the present invention, there is provided a method for interfacing between a database and a legacy system, the method comprising the steps of: transmitting a voice and a surrounding sound of a speaker; The situation judging server / database receiving the voice of the speaker and the ambient sound from the talker mobile terminal; Analyzing the received voice and ambient sounds to infer the age information of the speaker; Analyzing the received voice and the ambient sound to infer the gender information of the speaker; Analyzing the received voice and ambient sounds to infer the psychological state of the speaker; Analyzing the received voice and ambient sounds to infer the truth / falsehood of the speaker; The user terminal may be configured to display age information, gender information, psychological state, and truth / false inferred by the situation judgment server / database.

여기서, 상기 상황 판단 서버/데이터베이스에서 상기 발화자 이동 단말로부터 발화자의 음성 및 주변 음향을 수신하는 경우, 상기 상황 판단 서버/데이터베이스가 해당 통신사 서버를 통해 상기 발화자 이동 단말의 GPS(global positioning system) 기능을 턴온(turn-on)시키고 상기 발화자 이동 단말로부터 GPS 좌표를 실시간 수신하여 디스플레이하는 단계를 더 포함하도록 구성될 수 있다.Here, when the situation determination server / database receives the voice of the speaker and the ambient sound from the speaker terminal, the situation determination server / database may transmit the global positioning system (GPS) function of the speaker terminal through the corresponding communication company server Turning on the GPS coordinates and receiving and displaying GPS coordinates from the speaking terminal in real time.

상술한 음성/음향 분석 기반의 데이터베이스와 레거시의 연계 처리를 위한 인터페이스 시스템 및 방법에 의하면, 발화자의 음성 및 주변 음향으로부터 발화자의 연령, 성별, 심리 상태, 진실/거짓 그리고 주변 상황까지 추론하도록 구성됨으로써, 짧은 시간안에 허위 신고를 신속하고 정확하게 판단하며 사고 신고에 따른 정확한 상황을 판단하도록 하는 효과가 있다.According to the above-described interface system and method for linkage processing between a database based on voice / sound analysis and legacy, it is possible to deduce the age, gender, psychological state, truth / false, and peripheral conditions of a speaking person from the voice of the speaking person and the surrounding sound It is possible to quickly and accurately judge a false report in a short time and to judge the exact situation according to an accident report.

도 1은 본 발명의 일 실시예에 따른 음성/음향 분석 기반의 데이터베이스와 레거시의 연계 처리를 위한 인터페이스 시스템의 블록 구성도이다.
도 2는 본 발명의 일 실시예에 따른 음성/음향 분석 기반의 데이터베이스와 레거시의 연계 처리를 위한 인터페이스 방법의 흐름도이다.
FIG. 1 is a block diagram of an interface system for association processing between a database based on voice / sound analysis and a legacy according to an embodiment of the present invention.
FIG. 2 is a flowchart of a voice / sound analysis based database and an interface method for association processing of legacy according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 발명을 실시하기 위한 구체적인 내용에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail to the concrete inventive concept. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. Like reference numerals are used for like elements in describing each drawing.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.The terms first, second, A, B, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 음성/음향 분석 기반의 데이터베이스와 레거시의 연계 처리를 위한 인터페이스 시스템의 블록 구성도이다.FIG. 1 is a block diagram of an interface system for association processing between a database based on voice / sound analysis and a legacy according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 음성/음향 분석 기반의 데이터베이스와 레거시의 연계 처리를 위한 인터페이스 시스템(100)은 발화자 이동 단말(110), 상황 판단 서버/데이터베이스(120), 사용자 단말(130), 그래픽 제공 모듈(140), 레거시 데이터베이스(150), 인터페이스 모듈(160)을 포함하도록 구성될 수 있다.Referring to FIG. 1, an interface system 100 for coupling processing between a database based on voice / sound analysis and a legacy according to an embodiment of the present invention includes a speaker terminal 110, a situation determination server / database 120, A user terminal 130, a graphic providing module 140, a legacy database 150, and an interface module 160. [

이하, 세부적인 구성에 대하여 설명한다.Hereinafter, the detailed configuration will be described.

발화자 이동 단말(110)은 발화자의 음성 및 주변 음향을 송신하도록 구성될 수 있다. 최근의 신고 전화의 대부분은 이동 단말을 통해서 이루어지는 경향이 있다. 발화자 이동 단말(110) 역시 이동 단말로 구성될 수 있다.The talker mobile terminal 110 may be configured to transmit the speech of the speaking party and the ambient sound. Most of the recent reported calls tend to be made through mobile terminals. The talker mobile terminal 110 may also be configured as a mobile terminal.

상황 판단 서버/데이터베이스(120)는 통화 수신 모듈(121), 연령 정보 추론 모듈(122), 성별 정보 추론 모듈(123), 심리 상태 추론 모듈(124), 진실/거짓 추론 모듈(125), 주변 음향 추론 모듈(126), 주변 음향 데이터베이스(127) 및 GPS 원격 제어 모듈(128)을 포함하도록 구성될 수 있다.The situation judgment server / database 120 includes a call receiving module 121, an age information reasoning module 122, a gender information reasoning module 123, a psychology state reasoning module 124, a truth / false inference module 125, An acoustic reasoning module 126, a peripheral acoustic database 127, and a GPS remote control module 128. [

이하, 세부적인 구성에 대하여 설명한다.Hereinafter, the detailed configuration will be described.

통화 수신 모듈(121)은 발화자 이동 단말(110)로부터 발화자의 음성 및 주변 음향을 수신하도록 구성될 수 있다. 통화 수신 모듈(121)에서 수신되는 음성 및 주변 음향은 음성 통화 데이터베이스에 자동 백업되도록 구성될 수 있다. 자동 백업된 음성 및 주변 음향은 실시간 분석에 활용될 수 있다.The call receiving module 121 may be configured to receive the voice of the speaking party and the ambient sound from the speaking terminal mobile terminal 110. [ The voice and ambient sounds received at the call receiving module 121 may be configured to be automatically backed up to the voice call database. Automatically backed up voice and ambient sounds can be used for real-time analysis.

통화 수신 모듈(121)은 음성과 주변 음향을 구별하여 음성과 주변 음향을 각각 추출하고, 추출된 음성은 연령 정보 추론 모듈(122), 성별 정보 추론 모듈(123), 심리 상태 추론 모듈(124) 및 진실/거짓 추론 모듈(125)의 추론에 이용될 수 있다.The call reception module 121 distinguishes the voice and the ambient sound to extract the voice and the ambient sound, respectively, and the extracted voice includes an age information reasoning module 122, a gender information reasoning module 123, a psychology state reasoning module 124, And inference of the truth / false inference module 125.

연령 정보 추론 모듈(122)은 통화 수신 모듈(121)에서 수신된 음성 및 주변 음향을 분석하여 발화자의 연령 정보를 추론하도록 구성될 수 있다.The age information inference module 122 may be configured to infer the age information of the speaker by analyzing the voice and the ambient sound received from the call reception module 121. [

구체적으로는 다음과 같은 추론 판단 기준에 따라 연령 정보가 추론될 수 있다.Specifically, the age information can be inferred according to the following inference criteria.

일반적으로 노인의 발화 행태는 청년들에 비해 유의한 차이를 유발하는 인자들이 있다. 노인들의 경우 청년들에 비해 발화 속도가 대체로 느리면서 음절들의 발화 속도도 일정치 않은 문제점이 있다. 또한 묵음이 부적절한 위치에 길게 삽입되며, 초성과 종성의 발음에 있어서 비정상적인 행태를 보이는 경향이 있다.Generally speaking, there are some factors that cause significant difference in speaking behaviors of elderly people compared to young people. In the elderly, the speed of speech is generally slower than that of young people, and the speed of speech of syllables is not constant. In addition, the silence is inserted in an inappropriate position, and there is a tendency to exhibit abnormal behaviors in pronounciation and pronation.

한편, 청년층은 노년층에 비하여 더 긴 MPT(maximum phonation time)를 보였고 이는 정상 성인이라 하더라도 연령이 증가함에 따른 모음의 연장 수행력이 낮아지는 경향이 있다. 음절의 반복 속도 및 규칙성을 검사하는 AMR(alternating motion rate)과 SMR(sequential motion rate)도 청년층이 노년층에 비하여 더 빠른 것으로 나타나고 있다.On the other hand, younger adults showed longer MPT (maximum phonation time) than older adults, which means that the elongation performance of vowels tends to decrease with age. The alternating motion rate (AMR) and sequential motion rate (SMR), which check the repetition rate and regularity of syllables, are also found to be faster in younger people than in older people.

한편, 노인은 ??은 연령층에 비해 말 산출에 과여하는 인지적 감각 및 운동적 기능 등이 저하되므로 전체 말 속도와 조음 속도가 느려지고, 이러한 변화는 노인기 내에서도 높은 연령대일수록 더욱 확연하게 관찰되는 경향이 있다.On the other hand, the elderly have lower cognitive sensation and motor function, which contribute to horse output, than the older age group. Therefore, the overall speech rate and articulation rate are slowed down. .

그리고 노인은 주관적, 객관적인 측면에서 모두 높은 장애 출현율을 보이며, 노인 여성의 경우에는 성인 여성에 비해 유의하게 높은 음성 장애 지수를 보인다.In addition, the elderly exhibit a high incidence of disability in both subjective and objective aspects, and the elderly women exhibit a significantly higher voice disorder index than adult women.

그리고 남성의 경우 40세에서 50세까지 보컬 피치(vocal pitch)가 낮아지고 그 이후에 다시 상승하며 여성은 나이가 듦에 따라 피치가 떨어지는 경향이 있다.And for men, the vocal pitch is lowered from 40 to 50 and then rising again, and women tend to fall in pitch as they get older.

그리고 지터(jitter)와 시머(shimmer)를 측정한 결과, 노인 남성은 진동의 변화율과 파형의 규칙성이 증가되었고, 노인 여성은 진동의 변화율만 증가되는 경향이 있다. 여기서, 지터는 성대 진동의 변화율이며, 시머는 음성 파형의 규칙성을 의미한다. 이러한 경향은 후두 조절 기능의 감소나 후두 조직의 퇴행성 변화를 나타내는 것이다. 발성의 안정성을 나타내는 또 하나의 지표인 잡음대 조파비를 측정한 결과, 노인 여성에게 있어서 의미있게 증가되어 연령 증가에 따른 발성의 불안정성을 뒷받침 해주고 있다.As a result of measuring jitter and shimmer, the rate of change of vibration and the regularity of waveform are increased in elderly males, and the rate of change of vibration in elderly females only tends to increase. Here, jitter is the rate of change of the vocal fold vibration, and the shimmer means the regularity of the voice waveform. This tendency is indicative of a decrease in laryngeal function or a degenerative change in the laryngeal tissue. As a result of the measurement of the noise contrast ratio, which is another indicator of the stability of the vocalization, it is significantly increased in the elderly woman, which supports the instability of the vocalization according to the age increase.

후두의 퇴행성 변화에 따른 음성 지표의 변화를 보면 성대 진동의 변화율(jitter)의 경우 더 큰 값을 보이는 경향이 있다.The change of the voice index due to degenerative changes of the larynx tends to show a larger value in the jitter of the vocal fold vibration.

성별 정보 추론 모듈(123)은 통화 수신 모듈(121)에서 수신된 음성 및 주변 음향을 분석하여 발화자의 성별을 추론하도록 구성될 수 있다.The gender information inference module 123 may be configured to infer the gender of the speaker by analyzing the voice and the ambient sound received from the call receiving module 121. [

성별 정보 추론 모듈(123)은 다음과 같은 기준에 의해 성별을 추론하도록 구성될 수 있다.The gender information inference module 123 may be configured to deduce gender based on the following criteria.

성별 정보 추론 모듈(123)은 최대 발성 지속 시간, 기본 주파수, 주파수 변동률, 진폭 변동률, 소음대 배음비, 평균 기본 주파수, 최대 기본 주파수, 최소 기본 주파수의 차이를 분석할 수 있다.The gender information inference module 123 can analyze the difference between the maximum speech duration time, the fundamental frequency, the frequency variation rate, the amplitude variation rate, the noise to noise ratio, the average fundamental frequency, the maximum fundamental frequency, and the minimum fundamental frequency.

성별에 따라서는 기본 주파수, 주파수 변동률, 진폭 변동률, 최대 기본 주파수에서 유의한 차이를 나타낸다. 또한 소음대 배음비, 평균 기본 주파수, 최소 기본 주파수는 성별에 따라서 유의한 차이가 보이지 않는다. 더불어 기본 주파수는 연별 발화와 모음 연장 발성 사이에서 유의한 차이를 나타낸다.According to gender, there are significant differences in fundamental frequency, frequency variation, amplitude variation, and maximum fundamental frequency. In addition, there is no significant difference according to gender, noise - to - noise ratio, average fundamental frequency, and minimum fundamental frequency. In addition, the fundamental frequency shows a significant difference between the annual utterance and vocal extension.

심리 상태 추론 모듈(124)은 통화 수신 모듈(121)에서 수신된 음성 및 주변 음향을 분석하여 발화자의 심리 상태를 추론하도록 구성될 수 있다.The psychological state inference module 124 may be configured to infer the psychological state of the speaker by analyzing the voice and the ambient sound received at the call receiving module 121. [

심리 상태 및 의도는 다음과 같은 기준에 의해 추론될 수 있다.The psychological state and intention can be inferred by the following criteria.

먼저 발화 행태를 통해 발화자의 성격을 추론할 수 있는데, 발화 속도, 묵음 길이, 묵음 빈도수, 피치의 상대적 변화량을 기반으로 발화자의 외향성과 내향성을 판단할 수 있다.First, the personality of the speaker can be deduced through the spoken behavior. The extroversion and introversion of the speaker can be judged on the basis of the speaking rate, silence length, silence frequency, and relative variation of the pitch.

또한, 발화자의 뇌파/맥파 센싱 정보로부터 유쾌/유쾌/안정 중 하나의 감성 상태를 판단하는 감성 추론 엔진에 의해 발화자의 감성이나 성격, 심리 상태, 의도 등을 다면적으로 파악할 수 있다.In addition, the emotion inference engine for judging one emotion state of pleasant / pleasant / stable from the EEG / pulse wave sensing information of a speaking person can grasp the emotion, personality, psychological state, intention, etc. of the speaking person in various aspects.

진실/거짓 추론 모듈(125)은 통화 수신 모듈(121)에서 수신된 음성 및 주변 음향을 분석하여 발화자의 진실/거짓을 추론하도록 구성될 수 있다.The truth / false inference module 125 may be configured to infer the truth / falsehood of the speaker by analyzing the voice and ambient sounds received at the call receiving module 121.

발화자의 진실/거짓은 다음과 같은 기준에 의해 추론될 수 있다.The truth / falsehood of a speaker can be inferred by the following criteria.

먼저 신고 접수자의 질문에 대해 5초 동안 발화자의 대답을 저장한 후 이를 분석하여 진실 또는 거짓을 판단하도록 구성될 수 있다.First, the speaker's answer to the question of the sender's question can be stored for 5 seconds and analyzed to judge the truth or falsehood.

여기서 신고 접수자는 동일한 패턴의 질문을 하고 이러한 질문에 따라야 할 몇가지 답변을 미리 설정한 후 이를 통해 진실/거짓을 판단하도록 구성될 수 있다.Here, the report taker can be configured to ask questions of the same pattern, to pre-set some answers to follow these questions, and to judge truth / falsehood through them.

주변 음향 추론 모듈(126)은 통화 수신 모듈(121)에서 추출되는 주변 음향을 주변 상황의 파악에 이용하도록 구성될 수 있다.The peripheral acoustic reasoning module 126 may be configured to use the ambient sound extracted from the call receiving module 121 for grasping the surrounding situation.

주변 음향 추론 모듈(126)은 주변 음향을 미리 저장된 음향 데이터베이스(127)의 음향과 대비하여 주변 음향이 어떠한 음향인지 추론하도록 구성될 수 있다.The ambient acoustic reasoning module 126 may be configured to infer the ambient sound to be acoustic of the ambient sound in contrast to the sound of the previously stored acoustic database 127. [

예를 들어, 차 소리, 사람 소리, 비 소리 등등의 음향을 음향 데이터베이스(127)에 미리 저장해 놓고 상호 대비하여 주변 상황을 판단하도록 구성될 수 있다.For example, it is possible to preliminarily store sound such as a car sound, a human sound, a rain sound, and the like in the sound database 127 and determine the surrounding situation in relation to each other.

GPS 원격 제어 모듈(128)은 통화 수신 모듈(121)에서 발화자 이동 단말(110)로부터 발화자의 음성 및 주변 음향을 수신하는 경우, 해당 통신사 서버를 통해 발화자 이동 단말(110)의 GPS(global positioning system) 기능을 턴온(turn-on)시키도록 구성될 수 있다.The GPS remote control module 128 receives the voice of the speaking party and the ambient sound from the speaking terminal 110 in the call receiving module 121 and transmits the global positioning system (GPS) of the speaking terminal 110 Quot; function < / RTI >

기지국이나 와이파이에 의한 위치 추적의 경우 그 오차가 심하기 때문에 GPS 원격 제어 모듈(128)에 의해 발화자 이동 단말(110)의 GPS 기능을 켜고 그 GPS 좌표를 실시간 모니터링하는 것이 바람직하다.It is preferable that the GPS remote control module 128 turns on the GPS function of the speaking terminal 110 and monitors the GPS coordinates in real time because the error is significant in the case of the positioning by the base station or the Wi-Fi.

사용자 단말(130)은 연령 정보 추론 모듈(122)에서 추론된 연령 정보, 성별 정보 추론 모듈(123)에서 추론된 성별 정보, 심리 상태 추론 모듈(124)에서 추론된 심리 상태 및 진실/거짓 추론 모듈(125)에서 추론된 진실/거짓, 그리고 주변 음향 추론 모듈(126)의 주변 상황을 실시간 디스플레이하도록 구성될 수 있다.The user terminal 130 may include age information deduced from the age information reasoning module 122, gender information deduced from the gender information reasoning module 123, psychological state deduced from the psychological state reasoning module 124, and truth / A truth / false inferred from the sound module 125, and the ambient conditions of the ambient sound reasoning module 126 in real time.

또한, 사용자 단말(130)은 GPS 원격 제어 모듈(128)에 의해 발화자 이동 단말(110)의 GPS 좌표를 실시간 표시하도록 구성될 수 있다.Also, the user terminal 130 may be configured to display the GPS coordinates of the speaker terminal 110 in real time by the GPS remote control module 128.

그래픽 제공 모듈(140)은 상황 판단 서버/데이터베이스(120)의 음성/음향 분석 결과를 그래픽 데이터로 변환하여 사용자 단말(130)로 제공하도록 구성될 수 있다.The graphic providing module 140 may be configured to convert the voice / sound analysis result of the situation determining server / database 120 into graphic data and provide it to the user terminal 130.

레거시 데이터베이스(150)에는 음성/음향 판단 자료가 저장된다.The legacy database 150 stores voice / sound judgment data.

인터페이스 모듈(160)은 상황 판단 서버/데이터베이스(120) 및 레거시 데이터베이스(150) 간의 인터페이스를 수행하도록 구성될 수 있다.The interface module 160 may be configured to interface between the situation determination server / database 120 and the legacy database 150.

도 2는 본 발명의 일 실시예에 따른 음성/음향 분석 기반의 데이터베이스와 레거시의 연계 처리를 위한 인터페이스 방법의 흐름도이다.FIG. 2 is a flowchart of a voice / sound analysis based database and an interface method for association processing of legacy according to an embodiment of the present invention.

도 2를 참조하면, 발화자 이동 단말(110)이 발화자의 음성 및 주변 음향을 송신한다(S101).Referring to FIG. 2, the talker mobile terminal 110 transmits voice of a speaking party and ambient sound (S101).

다음으로, 상황 판단 서버/데이터베이스(120)가 발화자 이동 단말(110)로부터 발화자의 음성 및 주변 음향을 수신한다(S102).Next, the situation determination server / database 120 receives the voice of the speaking party and the ambient sound from the speaking terminal 110 (S102).

다음으로, 상황 판단 서버/데이터베이스(120)가 수신된 음성 및 주변 음향을 분석하여 발화자의 연령 정보를 추론한다(S103).Next, the situation determination server / database 120 analyzes the received voice and the ambient sound to infer the age information of the speaker (S103).

다음으로, 상황 판단 서버/데이터베이스(120)가 수신된 음성 및 주변 음향을 분석하여 발화자의 성별 정보를 추론한다(S104).Next, the situation judgment server / database 120 analyzes the received voice and the ambient sound to infer the gender information of the speaker (S104).

다음으로, 상황 판단 서버/데이터베이스(120)가 수신된 음성 및 주변 음향을 분석하여 발화자의 심리 상태를 추론한다(S105).Next, the situation determination server / database 120 analyzes the received voice and the ambient sound to infer the psychological state of the speaker (S105).

다음으로, 상황 판단 서버/데이터베이스(120)가 수신된 음성 및 주변 음향을 분석하여 발화자의 진실/거짓을 추론한다(S106).Next, the situation judgment server / database 120 analyzes the received voice and the ambient sound to deduce the truth / falsehood of the speaker (S106).

다음으로, 사용자 단말(130)이 상황 판단 서버/데이터베이스(120)가 추론한 연령 정보, 성별 정보, 심리 상태 및 진실/거짓을 디스플레이한다(S107).Next, the user terminal 130 displays age information, gender information, psychological state, and truth / false information deduced by the situation judgment server / database 120 (S107).

다음으로, 상황 판단 서버/데이터베이스(120)에서 발화자 이동 단말(110)로부터 발화자의 음성 및 주변 음향을 수신하는 경우, 상황 판단 서버/데이터베이스(120)가 해당 통신사 서버(10)를 통해 발화자 이동 단말(110)의 GPS(global positioning system) 기능을 턴온(turn-on)시키고 발화자 이동 단말(110)로부터 GPS 좌표를 실시간 수신하여 디스플레이한다(S108).In the case where the situation judging server / database 120 receives the voice of the speaking party and the ambient sound from the speaking party mobile terminal 110, the situation judging server / The global positioning system (GPS) function of the mobile terminal 110 is turned on and the GPS coordinates are received from the speaking terminal 110 in real time and displayed (S108).

다음으로, 그래픽 제공 모듈(140)이 상황 판단 서버/데이터베이스(120)의 음성/음향 분석 결과를 사용자 단말(130)로 제공한다(S109).Next, the graphic providing module 140 provides the voice / sound analysis result of the situation judgment server / database 120 to the user terminal 130 (S109).

다음으로, 인터페이스 모듈(160)이 상황 판단 서버/데이터베이스(120) 및 레거시 데이터베이스(150) 간의 인터페이스를 수행한다(S110).Next, the interface module 160 performs an interface between the situation determination server / database 120 and the legacy database 150 (S110).

이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention as defined in the following claims. There will be.

110: 발화자 이동 단말
120: 상황 판단 서버/데이터베이스
121: 통화 수신 모듈
122: 연령 정보 추론 모듈
123: 성별 정보 추론 모듈
124: 심리 상태 추론 모듈
125: 진실/거짓 추론 모듈
126: 주변 음향 추론 모듈
127: 주변 음향 데이터베이스
128: GPS 원격 제어 모듈
130: 사용자 단말
140: 그래픽 제공 모듈
150: 레거시 데이터베이스
160: 인터페이스 모듈
110: Speaker Mobile terminal
120: Situation judgment server / database
121: Call receiving module
122: Age Information Inference Module
123: Gender Information Inference Module
124: psychological state inference module
125: Truth / False Inference Module
126: Peripheral acoustic reasoning module
127: ambient acoustic database
128: GPS remote control module
130: User terminal
140: Graphical presentation module
150: Legacy database
160: Interface module

Claims (4)

발화자의 음성 및 주변 음향을 송신하는 발화자 이동 단말;
상기 발화자 이동 단말로부터 발화자의 음성 및 주변 음향을 수신하는 통화 수신 모듈과, 상기 통화 수신 모듈에서 수신된 음성 및 주변 음향을 분석하여 상기 발화자의 연령 정보를 추론하는 연령 정보 추론 모듈과, 상기 통화 수신 모듈에서 수신된 음성 및 주변 음향을 분석하여 상기 발화자의 성별을 추론하는 성별 정보 추론 모듈과, 상기 통화 수신 모듈에서 수신된 음성 및 주변 음향을 분석하여 상기 발화자의 심리 상태를 추론하는 심리 상태 추론 모듈과, 상기 통화 수신 모듈에서 수신된 음성 및 주변 음향을 분석하여 상기 발화자의 진실/거짓을 추론하는 진실/거짓 추론 모듈을 포함하는 상황 판단 서버/데이터베이스;
상기 연령 정보 추론 모듈에서 추론된 연령 정보, 상기 성별 정보 추론 모듈에서 추론된 성별 정보, 상기 심리 상태 추론 모듈에서 추론된 심리 상태 및 상기 진실/거짓 추론 모듈에서 추론된 진실/거짓을 실시간 디스플레이하는 사용자 단말;
상기 상황 판단 서버/데이터베이스의 음성/음향 분석 결과를 그래픽 데이터로 변환하여 상기 사용자 단말로 제공하는 그래픽 제공 모듈;
음성/음향 판단 자료가 저장되는 레거시 데이터베이스;
상기 상황 판단 서버/데이터베이스 및 상기 레거시 데이터베이스 간의 인터페이스를 수행하는 인터페이스 모듈을 포함하는 음성/음향 분석 기반의 데이터베이스와 레거시의 연계 처리를 위한 인터페이스 시스템.
A speaker terminal for transmitting a voice of the speaker and a surrounding sound;
An age information inference module for inferring age information of the talker by analyzing the voice and the ambient sound received from the call receiving module; A module for inferring a gender of the talker by analyzing the voice and the ambient sound received from the module; a psychological state reasoning module for analyzing the voice and the ambient sound received from the call receiving module to infer the psychological state of the talker; And a truth / false inference module for inferring the truth / false of the speaker by analyzing the voice and the ambient sound received from the call receiving module.
The gender information deduced by the gender information reasoning module, the psychological state inferred from the psychological state reasoning module, and the truth / false information deduced from the truth / false inference module, Terminal;
A graphic providing module for converting the voice / sound analysis result of the situation determination server / database into graphic data and providing the result to the user terminal;
A legacy database storing voice / sound judgment data;
And an interface module for performing an interface between the situation determination server / database and the legacy database.
제1항에 있어서, 상기 상황 판단 서버/데이터베이스는,
상기 통화 수신 모듈에서 상기 발화자 이동 단말로부터 발화자의 음성 및 주변 음향을 수신하는 경우, 해당 통신사 서버를 통해 상기 발화자 이동 단말의 GPS(global positioning system) 기능을 턴온(turn-on)시키는 GPS(global positioning system) 원격 제어 모듈을 더 포함하도록 구성되는 것을 특징으로 하는 음성/음향 분석 기반의 데이터베이스와 레거시의 연계 처리를 위한 인터페이스 시스템.
The system according to claim 1, wherein the situation determination server /
When the call receiving module receives the voice of the speaking party and the ambient sound from the speaking mobile terminal, the global positioning (GPS) function of turning on the global positioning system (GPS) function of the speaking party mobile terminal through the corresponding communication company server system and a remote control module. The interface system for association processing between a database based on voice / sound analysis and a legacy system.
발화자 이동 단말이 발화자의 음성 및 주변 음향을 송신하는 단계;
상황 판단 서버/데이터베이스가 상기 발화자 이동 단말로부터 발화자의 음성 및 주변 음향을 수신하는 단계;
상기 상황 판단 서버/데이터베이스가 상기 수신된 음성 및 주변 음향을 분석하여 상기 발화자의 연령 정보를 추론하는 단계;
상기 상황 판단 서버/데이터베이스가 상기 수신된 음성 및 주변 음향을 분석하여 상기 발화자의 성별 정보를 추론하는 단계;
상기 상황 판단 서버/데이터베이스가 상기 수신된 음성 및 주변 음향을 분석하여 상기 발화자의 심리 상태를 추론하는 단계;
상기 상황 판단 서버/데이터베이스가 상기 수신된 음성 및 주변 음향을 분석하여 상기 발화자의 진실/거짓을 추론하는 단계;
사용자 단말이 상기 상황 판단 서버/데이터베이스가 추론한 연령 정보, 성별 정보, 심리 상태 및 진실/거짓을 디스플레이하는 단계;
그래픽 제공 모듈이 상황 판단 서버/데이터베이스의 음성/음향 분석 결과를 사용자 단말로 제공하는 단계;
인터페이스 모듈이 상기 상황 판단 서버/데이터베이스 및 레거시 데이터베이스 간의 인터페이스를 수행하는 단계를 포함하는 음성/음향 분석 기반의 데이터베이스와 레거시의 연계 처리를 위한 인터페이스 방법.
Transmitting a voice of a speaking party and ambient sound to a speaker terminal;
The situation judging server / database receiving the voice of the speaker and the ambient sound from the talker mobile terminal;
Analyzing the received voice and ambient sounds to infer the age information of the speaker;
Analyzing the received voice and the ambient sound to infer the gender information of the speaker;
Analyzing the received voice and ambient sounds to infer the psychological state of the speaker;
Analyzing the received voice and ambient sounds to infer the truth / falsehood of the speaker;
Displaying the age information, gender information, psychological state, and truth / falsehood of the user terminal inferred by the situation judgment server / database;
Providing the graphic providing module to the user terminal of the voice / sound analysis result of the situation judging server / database;
Wherein the interface module performs an interface between the situation determination server / database and the legacy database.
제3항에 있어서,
상기 상황 판단 서버/데이터베이스에서 상기 발화자 이동 단말로부터 발화자의 음성 및 주변 음향을 수신하는 경우, 상기 상황 판단 서버/데이터베이스가 해당 통신사 서버를 통해 상기 발화자 이동 단말의 GPS(global positioning system) 기능을 턴온(turn-on)시키고 상기 발화자 이동 단말로부터 GPS 좌표를 실시간 수신하여 디스플레이하는 단계를 더 포함하도록 구성되는 것을 특징으로 하는 음성/음향 분석 기반의 데이터베이스와 레거시의 연계 처리를 위한 인터페이스 방법.
The method of claim 3,
In a case where the situation judging server / database receives the voice of the speaking person and the ambient sound from the speaking terminal mobile terminal, the situation judging server / database turns on the global positioning system (GPS) function of the speaking terminal through the corresponding communication company server and transmitting the GPS coordinates to the speaker terminal in real-time, and displaying the received GPS coordinates in real time.
KR1020160150053A 2016-11-11 2016-11-11 Interface system and method for database based on voice/sound analysis and legacy KR20180052909A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160150053A KR20180052909A (en) 2016-11-11 2016-11-11 Interface system and method for database based on voice/sound analysis and legacy

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160150053A KR20180052909A (en) 2016-11-11 2016-11-11 Interface system and method for database based on voice/sound analysis and legacy

Publications (1)

Publication Number Publication Date
KR20180052909A true KR20180052909A (en) 2018-05-21

Family

ID=62453426

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160150053A KR20180052909A (en) 2016-11-11 2016-11-11 Interface system and method for database based on voice/sound analysis and legacy

Country Status (1)

Country Link
KR (1) KR20180052909A (en)

Similar Documents

Publication Publication Date Title
ES2242634T3 (en) TELEPHONE EMOTION DETECTOR WITH OPERATOR FEEDBACK.
US11195542B2 (en) Detecting repetitions in audio data
JP2006005945A (en) Method of communicating and disclosing feelings of mobile terminal user and communication system thereof
CN109460752A (en) Emotion analysis method and device, electronic equipment and storage medium
JP2014170132A (en) State estimation device, state estimation method and computer program for state estimation
EP4020467A1 (en) Voice coaching system and related methods
WO2017085992A1 (en) Information processing apparatus
JP2017100221A (en) Communication robot
CN109599127A (en) Information processing method, information processing unit and message handling program
CN110881987A (en) Old person emotion monitoring system based on wearable equipment
KR101799874B1 (en) Situation judgment system and method based on voice/sound analysis
KR20220048381A (en) Device, method and program for speech impairment evaluation
EP4006903A1 (en) System with post-conversation representation, electronic device, and related methods
JP2017196115A (en) Cognitive function evaluation device, cognitive function evaluation method, and program
JP2020000713A (en) Analysis apparatus, analysis method, and computer program
JP2006230446A (en) Health-condition estimating equipment
JP6598227B1 (en) Cat-type conversation robot
KR20180052909A (en) Interface system and method for database based on voice/sound analysis and legacy
KR20180052907A (en) System and method of supplying graphic statistics using database based on voice/sound analysis
JP6718623B2 (en) Cat conversation robot
KR20170098445A (en) Situation judgment apparatus based on voice/sound analysis
KR20170098446A (en) Situation judgment ethod based on voice/sound analysis
KR102571549B1 (en) Interactive elderly neglect prevention device
US7216078B2 (en) Learning device, mobile communication terminal, information recognition system, and learning method
KR20190085272A (en) Open api system and method of json format support by mqtt protocol