KR102620070B1 - Autonomous articulation system based on situational awareness - Google Patents

Autonomous articulation system based on situational awareness Download PDF

Info

Publication number
KR102620070B1
KR102620070B1 KR1020220131569A KR20220131569A KR102620070B1 KR 102620070 B1 KR102620070 B1 KR 102620070B1 KR 1020220131569 A KR1020220131569 A KR 1020220131569A KR 20220131569 A KR20220131569 A KR 20220131569A KR 102620070 B1 KR102620070 B1 KR 102620070B1
Authority
KR
South Korea
Prior art keywords
condition
real
information
time
situation awareness
Prior art date
Application number
KR1020220131569A
Other languages
Korean (ko)
Inventor
장창희
Original Assignee
주식회사 타이렐
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 타이렐 filed Critical 주식회사 타이렐
Priority to KR1020220131569A priority Critical patent/KR102620070B1/en
Application granted granted Critical
Publication of KR102620070B1 publication Critical patent/KR102620070B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Abstract

상황인지 요인을 제공하고, 실시간 컨디션을 입력 받는 사용자 단말 및 상기 사용자 단말로부터 상기 실시간 컨디션을 전달 받고 저장 및 이에 따른 발화를 매칭하는 서버를 포함하고, 상기 서버는, 상기 사용자 단말을 통해 사용자의 상기 실시간 컨디션을 전달받아 컨디션 리스트를 생성하는 컨디션 감지 모듈, 상기 컨디션 리스트를 상기 실시간 컨디션과 비교해 상황 인지 정보를 생성하는 상황 인지 모듈 및 상기 상황 인지 정보를 상기 사용자 단말을 통해 자율적으로 선 발화하는 출력 모듈을 포함하는 것을 특징으로 하는 상황 인지에 따른 자율발화 시스템을 제공할 수 있다.
It includes a user terminal that provides situational recognition factors and receives real-time conditions, and a server that receives the real-time conditions from the user terminal, stores them, and matches the corresponding utterance, wherein the server receives the real-time conditions from the user terminal and matches the corresponding utterance. A condition detection module that receives real-time conditions and generates a condition list, a situation awareness module that compares the condition list with the real-time conditions to generate situation awareness information, and an output module that autonomously selects the situation awareness information through the user terminal. It is possible to provide an autonomous ignition system according to situation recognition, characterized in that it includes.

Description

상황 인지에 따른 자율발화 시스템 {Autonomous articulation system based on situational awareness} Autonomous articulation system based on situational awareness}

본 발명은 상황 인지에 따른 자율발화 시스템에 관한 것으로, 보다 상세하게는 사용자 단말을 통해 사용자의 컨디션을 구분하여 컨디션에 따른 대화 주제를 동적으로 선택하고 텍스트, 모바일 푸쉬 및 음성으로 선 발화하는 상황 인지에 따른 자율발화 시스템에 관한 것이다.The present invention relates to an autonomous speech system based on situation awareness. More specifically, the present invention relates to a situation awareness system that classifies the user's condition through the user terminal, dynamically selects a conversation topic according to the condition, and selects a conversation topic through text, mobile push, and voice. It is about an autonomous ignition system according to .

인공지능은 4차 산업혁명의 도래와 함께 주목받고 있는 분야중 하나로, 현재 구글의 Alphago와 같은 특정 분야에 한해 전문가에 가까운 지능을 가진 AI나 애플의 Siri 또는 삼성의 Bixby 처럼 사용자의 명령을 수행하는 비서와 같은 AI가 주로 개발되어 있다.Artificial intelligence is one of the fields that is attracting attention with the advent of the 4th industrial revolution. Currently, it is limited to certain fields such as Google's Alphago, AI with intelligence close to expert, or AI that carries out user commands such as Apple's Siri or Samsung's Bixby. AI, such as secretaries, is mainly developed.

이러한 비서와 같은 형태의 AI는 사용자의 명령을 인식하고, 사용자가 처한 상황을 인지 및 인식하여 사용자에게 가장 적합하고 유용한 정보를 능동적으로 제공하는 서비스를 제공한다.This type of assistant-like AI recognizes the user's commands, recognizes and recognizes the situation the user is in, and provides a service that actively provides the most appropriate and useful information to the user.

하지만 종래에 상용화된 비서와 같은 형태의 AI가 사용자를 인식하는 방식은 특정 단어에 대한 음성 인식을 통해서만 가능하며 이러한 방식을 통해 인식하지 않았을 경우 비서와 같은 형태의 AI 측에서는 어떠한 행동도 하지 않는 수동적 태도를 보인다는 한계가 있다.However, the method in which a conventionally commercialized AI, such as a secretary, can recognize a user is only possible through voice recognition for a specific word, and if it is not recognized through this method, the AI, such as a secretary, takes a passive attitude and does not take any action. There is a limit to showing.

예를 들어, 애플의 Siri나 삼성의 Bixby의 경우 사용자가 AI를 동작시키는 특정 단어를 언급하고, 그 후 원하는 서비스를 덧붙이면 그에 맞는 사용자 명령을 인식하고, AI가 발화하는 시스템을 취하고 있다.For example, in the case of Apple's Siri or Samsung's Bixby, the system uses a system in which the user mentions a specific word that activates the AI, then adds the desired service, recognizes the appropriate user command, and makes the AI speak.

그러나, 이러한 수동적인 발화 시스템은 사용자가 비서와 같은 형태의 AI를 먼저 호출할 때까지 대기하고 있기 때문에 사용자가 AI를 활성화하기 위해서는 매번 AI를 호출하는 과정을 수행해야 하는 불편함이 있었다.However, because this passive speech system waits for the user to call an AI such as a secretary first, there was an inconvenience in that the user had to perform the process of calling the AI every time to activate the AI.

따라서, 선 발화 시스템을 가진 상황 인지에 따른 자율발화 시스템의 개발이 절실한 실정이 였다.Therefore, there was an urgent need to develop an autonomous ignition system based on situational awareness with a pre-ignition system.

선행기술로는 한국공개특허 제10-2071-0117364호 "인공 지능 비서 제공 방법 및 이에 사용되는 음성 인식 장비"가 개시되어 있다.As prior art, Korean Patent Publication No. 10-2071-0117364 “Method of providing artificial intelligence assistant and voice recognition equipment used therefor” is disclosed.

본 발명은 상기한 바와 같은 문제점을 해결하고자 발명한 것으로, 사용자의 컨디션을 인지하고, 이에 따라 상황 인지 정보를 생성하고, 상황 인지 정보에 따른 대화 주제를 선 발화 하는 것으로써, 사용자가 AI를 활성화하기 위해서는 매번 AI를 호출하는 과정을 생략하고, 이에 따라, 사용자의 사용 편의성을 증대시키는 상황 인지에 따른 자율발화 시스템을 제공하는 것을 목적으로 한다.The present invention was invented to solve the problems described above. It recognizes the user's condition, generates situational awareness information accordingly, and selects conversation topics according to the situational awareness information, allowing the user to activate AI. In order to do this, the purpose is to provide an autonomous speech system based on situational awareness that omits the process of calling AI each time and thus increases user convenience.

상기와 같은 과제를 해결하기 본 발명의 실시 예에 따른 상황 인지에 따른 자율 발화 시스템은, 상황인지 요인을 제공하고, 실시간 컨디션을 입력 받는 사용자 단말 및 상기 사용자 단말로부터 상기 실시간 컨디션을 전달 받고 저장 및 이에 따른 발화를 매칭하는 서버를 포함하고, 상기 서버는,상기 실시간 컨디션을 컨디션 정보로 변환하는 변환 모듈, 상기 컨디션 정보를 전달받아 컨디션 리스트를 생성하는 컨디션 감지 모듈, 상기 컨디션 리스트를 상기 실시간 컨디션과 비교해 상황 인지 정보를 생성하는 상황 인지 모듈 및 상기 상황 인지 정보를 상기 사용자 단말을 통해 자율적으로 선 발화하는 출력 모듈을 포함할 수 있다.To solve the above problems, an autonomous speech system based on situation awareness according to an embodiment of the present invention provides situation recognition factors, a user terminal that receives real-time conditions, and a user terminal that receives the real-time conditions from the user terminal, stores and stores them. It includes a server that matches the corresponding utterance, wherein the server includes a conversion module that converts the real-time condition into condition information, a condition detection module that receives the condition information and generates a condition list, and configures the condition list with the real-time condition. It may include a context awareness module that compares and generates situation awareness information, and an output module that autonomously selects the situation awareness information through the user terminal.

또한, 상기 컨디션 감지 모듈은, 상기 사용자 단말에 탑재된 GPS, 조도 센서, 카메라, 마이크 센서 및 저장된 메시지와 같은 사용자 정보를 입력으로 받아 디지털 신호로 변환하고 상기 디지털 신호를 분석해 사용자의 실시간 컨디션을 인지하는 것으로 상기 컨디션 리스트를 생성할 수 있다.In addition, the condition detection module receives user information such as GPS, illuminance sensor, camera, microphone sensor, and stored messages mounted on the user terminal as input, converts it into a digital signal, and analyzes the digital signal to recognize the user's real-time condition. You can create the condition list by doing this.

또한, 상기 컨디션 감지 모듈은, 매시, 분 마다 시행되며, 기 저장된 상기 컨디션 리스트와 상기 실시간 컨디션 조건을 대조해, 상기 실시간 컨디션이 상기 상황 인지 정보 생성 조건을 충족하였는지 판단하는 스케쥴러를 더 포함할 수 있다.In addition, the condition detection module is implemented every hour or minute, and may further include a scheduler that compares the pre-stored condition list and the real-time condition conditions to determine whether the real-time condition satisfies the situation awareness information generation conditions. .

또한, 상기 스케쥴러는, 상기 컨디션 리스트와 상기 실시간 컨디션의 조건을 비교할 때, 전체 조건과 개별 조건으로 나누어 비교 할 수 있다.Additionally, when comparing the conditions of the condition list and the real-time condition, the scheduler may divide the conditions into overall conditions and individual conditions.

또한, 상기 상황 인지 모듈은, 상기 컨디션 리스트와 상기 실시간 컨디션을 비교할 때, 입력되는 실시간 컨디션을 패턴화하고, 상기 상황인지 자율발화 시스템이 출력하는 모든 음성 및 텍스트 출력물을 템플릿화 할 수 있다.Additionally, when comparing the condition list and the real-time condition, the situation awareness module may pattern the input real-time condition and template all voice and text output from the situation-aware autonomous speech system.

또한, 상기 출력 모듈은 선 발화 시, 상기 인지 정보를 토대로 상기 컨디션 리스트 중 각 상기 실시간 컨디션과 일치하는 대화 주제를 선택하여 발화할 수 있다.Additionally, when making a first speech, the output module may select a conversation topic that matches each real-time condition from the condition list based on the recognition information and make the speech.

또한, 상기 출력 모듈은, 선 발화 할 때, 대화 주제는 상기 컨디션 리스트 중 다수 개의 컨디션 정보와 연결되고, 상기 컨디션 정보 또한 다수 개의 상기 대화 주제와 연결이 가능하여, 동일한 상기 컨디션 정보에서도 다른 상기 대화 주제가 발생할 수 있다.In addition, when the output module makes a preliminary speech, the conversation topic is connected to a plurality of condition information in the condition list, and the condition information can also be connected to a plurality of conversation topics, so that even in the same condition information, other conversations are possible. A topic may arise.

또한, 상기 출력 모듈은,선 발화 할 때, 상기 컨디션 정보와 연결된 상기 대화 주제가 다수 개 일 경우 다수 개 중 하나를 무작위로 출력할 수 있다.Additionally, when making a first speech, if there are multiple conversation topics linked to the condition information, the output module may randomly output one of the multiple topics.

또한, 상기 출력 모듈은,발화 할 때, 발화된 상기 대화 주제가 상기 상황 인지 정보 생성에 관여하는 것으로써, 다음 발화되는 상기 대화 주제에 영향을 주는 것을 특징으로 할 수 있다.In addition, the output module may be characterized in that, when speaking, the uttered conversation topic is involved in generating the situation awareness information, thereby influencing the conversation topic uttered next.

또한, 상기 상황 인지에 따른 자율발화 시스템은, 상기 사용자 단말을 포함한 다수 개의 사용자 단말의 데이터를 수집하고, 각각의 상기 컨디션 정보 마다 가장 많이 발화된 상기 대화 주제를 선정하고, 상기 대화 주제를 발화 할 때, 대화 주제와 관련된 선택지를 추천하여 발화하는 추천 모듈을 더 포함할 수 있다.In addition, the autonomous speech system according to the situation recognition collects data from a plurality of user terminals including the user terminal, selects the most frequently uttered conversation topic for each of the condition information, and utters the conversation topic. When doing so, it may further include a recommendation module that recommends and utters options related to the conversation topic.

또한, 상기 추천 모듈은,상기 대화 주제 발화 시, 발화 횟수를 기준으로 차등해, 추천 등급을 상기 선택지에 부여해, 등급을 매기고,이를 상기 사용자 단말에 표기할 수 있다.In addition, when the conversation topic is uttered, the recommendation module can differentiate it based on the number of utterances, assign a recommendation grade to the options, grade them, and display them on the user terminal.

본 발명의 실시 예에 따른 상황 인지에 따른 자율발화 시스템은, 상황 인지 정보를 토대로 선 발화하는 것으로써, 사용자의 사용 편의성을 증가 시킬 수 있다.The autonomous ignition system based on situation awareness according to an embodiment of the present invention can increase user convenience by igniting based on situation awareness information.

또한, 발화 횟수를 기준으로 하는 추천 방식을 통해 사용자에게 보다 질 좋은 서비스 제공처를 제시할 수 있다.In addition, better quality service providers can be presented to users through a recommendation method based on the number of utterances.

도 1은 본 발명의 실시 예에 따른 상황 인지에 따른 자율발화 시스템의 구성도.
도 2는 실시간 컨디션 수집 방법을 도시한 사시도.
도 3은 도 1의 서버를 도시한 구성도.
도 4는 상황 인지 정보 생성 방식을 나타낸 구성도.
도 5는 출력 모듈의 선 발화 방식을 나타낸 예시도.
도 6은 추천 모듈이 포함된 본 발명의 실시 예에 따른 상황 인지에 따른 자율 발화 시스템의 구성도.
도 7은 본 발명의 실시 예에 따른 추천 모듈을 통한 선택지 생성을 도시한 예시도.
도 8은 사용자 단말에 추천 등급이 표시된 것을 도시한 사시도.
1 is a configuration diagram of an autonomous ignition system based on situation recognition according to an embodiment of the present invention.
Figure 2 is a perspective view showing a real-time condition collection method.
Figure 3 is a configuration diagram showing the server of Figure 1.
Figure 4 is a configuration diagram showing a situation awareness information generation method.
Figure 5 is an example diagram showing the selection method of the output module.
Figure 6 is a configuration diagram of an autonomous speech system based on situation recognition according to an embodiment of the present invention including a recommendation module.
Figure 7 is an example diagram showing selection creation through a recommendation module according to an embodiment of the present invention.
Figure 8 is a perspective view showing a recommendation rating displayed on a user terminal.

이하, 도면을 참조한 본 발명의 설명은 특정한 실시 형태에 대해 한정되지 않으며, 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있다. 또한, 이하에서 설명하는 내용은 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the description of the present invention with reference to the drawings is not limited to specific embodiments, and various changes may be made and various embodiments may be possible. In addition, the content described below should be understood to include all conversions, equivalents, and substitutes included in the spirit and technical scope of the present invention.

이하의 설명에서 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용되는 용어로서, 그 자체에 의미가 한정되지 아니하며, 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.In the following description, the terms first, second, etc. are terms used to describe various components, and their meaning is not limited, and is used only for the purpose of distinguishing one component from other components.

본 명세서 전체에 걸쳐 사용되는 동일한 참조 번호는 동일한 구성요소를 나타낸다.Like reference numerals used throughout this specification refer to like elements.

본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 이하에서 기재되는 "포함하다", "구비하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로 해석되어야 하며, 하나 또는 그 이상의 다른 특징들이나, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.As used herein, singular expressions include plural expressions, unless the context clearly dictates otherwise. In addition, terms such as “comprise,” “provide,” or “have” used below are intended to designate the presence of features, numbers, steps, operations, components, parts, or a combination thereof described in the specification. It should be construed and understood as not precluding the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 갖는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the technical field to which the present invention pertains. Terms such as those defined in commonly used dictionaries should be interpreted as having meanings consistent with the meanings they have in the context of the related technology, and should not be interpreted as having ideal or excessively formal meanings, unless explicitly defined in the present application. No.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여 하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, when describing with reference to the accompanying drawings, identical components will be assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted. In describing the present invention, if it is determined that a detailed description of related known technologies may unnecessarily obscure the gist of the present invention, the detailed description will be omitted.

이하, 본 발명의 실시 예를 첨부한 도 1 내지 도 8를 참조하여 상세히 설명하기로 한다.Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying FIGS. 1 to 8.

도 1은 본 발명의 실시 예에 따른 상황 인지에 따른 자율발화 시스템의 구성도이고, 도 2는 실시간 컨디션 수집 방법을 도시한 사시도이며, 도 3은 도 1의 서버를 도시한 구성도이고, 도 4는 상황 인지 정보 생성 방식을 나타낸 구성도이며, 도 5는 출력 모듈의 선 발화 방식을 나타낸 예시도이다.FIG. 1 is a configuration diagram of an autonomous ignition system based on situation recognition according to an embodiment of the present invention, FIG. 2 is a perspective view showing a real-time condition collection method, FIG. 3 is a configuration diagram showing the server of FIG. 1, and FIG. 4 is a configuration diagram showing the situation awareness information generation method, and Figure 5 is an example diagram showing the selection method of the output module.

먼저 도 1내지 도 3을 참조하면, 본 발명의 실시 예에 따른 상황 인지에 따른 자율발화 시스템은, 사용자 단말(100) 및 서버(200)를 포함할 수 있다.First, referring to FIGS. 1 to 3, an autonomous speech system based on situation recognition according to an embodiment of the present invention may include a user terminal 100 and a server 200.

사용자 단말(100)은 외부의 자극을 입력으로 받을 수 있는 GPS, 조도 센서, 카메라, 마이크 센서 등을 탑재할 수 있다.The user terminal 100 may be equipped with GPS, an illumination sensor, a camera, a microphone sensor, etc. that can receive external stimuli as input.

이로 인해, 사용자 단말(100)은 여러 종류의 하드웨어 센서를 구비하고 이를 소프트웨어로 처리 가능한 PC 또는 스마트폰 형식의 단말로 형성되는 것이 바람직하나 이에 한정하지 않는다.For this reason, the user terminal 100 is preferably formed as a PC or smartphone type terminal equipped with various types of hardware sensors and capable of processing them with software, but is not limited thereto.

이때, 사용자 단말(100)은 실시간 컨디션(110)을 입력 받을 수 있다.At this time, the user terminal 100 can receive input of the real-time condition 110.

구체적으로 도 2를 참조하면, 실시간 컨디션(110)은 사용자 단말(100)을 통해 입력 받는 사용자의 나이, 성별, 현재 날짜, 시간, 날씨, 조도, 사용자의 표정 등 유동적인 조건과 고정적인 조건 모두 포함할 수 있다.Specifically, referring to FIG. 2, the real-time condition 110 includes both flexible and fixed conditions such as the user's age, gender, current date, time, weather, illumination, and the user's facial expression, which are input through the user terminal 100. It can be included.

또한, 실시간 컨디션(110)은 유동적인 조건을 실시간으로 파악해 사용자의 현재 상황을 판단할 수 있다.In addition, the real-time condition 110 can determine the user's current situation by identifying fluid conditions in real time.

예를 들어, 실시간 컨디션(110)은 GPS의 변화에 따라 다른 형식의 입력으로 인식 되어 사용자 단말(100)에 입력될 수 있다.For example, the real-time condition 110 may be recognized as a different type of input depending on changes in GPS and input into the user terminal 100.

따라서, 실시간 컨디션(110)은 위치, 날씨 및 시간과 같은 유동적인 요소들의 변화에 따라 사용자 단말(100)에 다른 형식으로 인식되어 입력될 수 있다.Accordingly, the real-time condition 110 may be recognized and input into the user terminal 100 in different formats according to changes in flexible factors such as location, weather, and time.

이때, 실시간 컨디션(110)은 다수 개의 조건을 통해 결정 될 수 있다.At this time, the real-time condition 110 can be determined through multiple conditions.

예를 들어, 실시간 컨디션(110)은 ‘비오는 날씨의 바다’와 ‘눈오는 날씨의 바다’, ‘화창한 날씨의 바다’와 같이 다수개의 조건을 조합하여 형성될 수 있다.For example, the real-time condition 110 can be formed by combining multiple conditions, such as ‘sea in rainy weather’, ‘sea in snowy weather’, and ‘sea in sunny weather’.

이때, 실시간 컨디션(110)은 상기에서 언급한 날씨와 위치뿐만 아니라 다양한 조건을 결합하는 것으로 형성될 수 있다.At this time, the real-time condition 110 may be formed by combining various conditions as well as the weather and location mentioned above.

또한, 실시간 컨디션(110)의 입력 방식은 수동 방식과 자동 방식을 통해 입력 될 수 있다In addition, the real-time condition 110 can be input through manual and automatic methods.

이때, 실시간 컨디션(110)은 사용자의 컨디션을 지속적으로 관찰해, 자동으로 사용자 단말(100)에 입력될 수 있다.At this time, the real-time condition 110 can be automatically input into the user terminal 100 by continuously observing the user's condition.

또한, 실시간 컨디션(110)은 수동 방식을 통해 사용자 단말(100)을 통해 직접 입력 받을 수 있다.Additionally, the real-time condition 110 can be directly input through the user terminal 100 through a manual method.

여기서, 실시간 컨디션(110)을 직접 입력하는 방식은 텍스트나 음성을 통해 사용자가 문자를 입력하거나 음성을 발화하는 것으로 해석할 수 있다.Here, the method of directly inputting the real-time condition 110 can be interpreted as the user inputting text or uttering a voice through text or voice.

서버(200)는 사용자 단말(100)로부터 실시간 컨디션(110)을 전달 받고 저장 및 이에 따른 발화를 매칭할 수 있다.The server 200 can receive the real-time condition 110 from the user terminal 100, store it, and match the corresponding utterance.

구체적으로 도 3을 참조하면, 서버(200)는 변환 모듈(210) 컨디션 감지 모듈(220), 상황 인지 모듈(230) 및 출력 모듈(240)을 더 포함할 수 있다.Specifically, referring to FIG. 3 , the server 200 may further include a conversion module 210, a condition detection module 220, a situation recognition module 230, and an output module 240.

변환 모듈(210)은 실시간 컨디션(110)을 컨디션 정보(211)로 변환할 수 있다.The conversion module 210 can convert the real-time condition 110 into condition information 211.

컨디션 감지 모듈(220)은 사용자 단말(100)에 탑재된 GPS, 조도 센서, 카메라, 마이크 센서 및 저장된 메시지와 같은 사용자 정보(221)를 입력으로 받아 디지털 신호(222)로 변환함에 따라 컨디션 리스트(223)를 생성할 수 있다.The condition detection module 220 receives user information 221 such as GPS, illuminance sensor, camera, microphone sensor, and stored messages mounted on the user terminal 100 as input and converts it into a digital signal 222 to create a condition list ( 223) can be created.

이때, 사용자 정보(221)는 음성이나 광량, 음파 및 텍스트 등의 다양한 형태로 형성될 수 있다.At this time, the user information 221 may be formed in various forms such as voice, light amount, sound wave, and text.

디지털 신호(222)는 사용자 정보(221)를 기존의 변조 방식을 통해 변환하여 생성한 것으로서, 기존의 스마트폰 단말 및 PC 단말의 소프트웨어나 하드웨어를 통해 이루어 지는 방식과 유사한 방식을 사용하는 것으로써, 구체적인 설명은 생략하기로 한다.The digital signal 222 is generated by converting the user information 221 through an existing modulation method, using a method similar to that performed through software or hardware of existing smartphone terminals and PC terminals. Detailed explanation will be omitted.

컨디션 리스트(223)는 실시간 컨디션(110)을 입력 받고 다수 개의 컨디션 정보(211)를 포함할 수 있다.The condition list 223 may receive a real-time condition 110 and include a plurality of condition information 211.

이때, 컨디션 리스트(223)는 입력 받은 실시간 컨디션(110)을 컨디션 정보(211)로 변환하여, 기존의 컨디션 리스트(223)에 추가하고, 저장할 수 있다.At this time, the condition list 223 can convert the input real-time condition 110 into condition information 211, add it to the existing condition list 223, and store it.

이에 따라, 컨디션 리스트(223)는 지속적으로 목록의 가짓수를 증가시킬 수 있다.Accordingly, the condition list 223 can continuously increase the number of items in the list.

한편, 컨디션 감지 모듈(220)은 매시, 분 마다 시행되며, 기 저장된 컨디션 리스트(223)와 실시간 컨디션(110)의 조건을 대조하는 스케쥴러(224)를 더 포함할 수 있다.Meanwhile, the condition detection module 220 is implemented every hour or minute, and may further include a scheduler 224 that compares the conditions of the pre-stored condition list 223 and the real-time condition 110.

삭제delete

삭제delete

삭제delete

이에 따라, 스케쥴러(224)는 매시, 분 마다 시행될 때, 컨디션 리스트(223)와 실시간 컨디션(110)의 대조 시, 정확도와 신뢰도를 증가 시킬 수 있다.Accordingly, when the scheduler 224 is executed every hour or minute, accuracy and reliability can be increased when comparing the condition list 223 and the real-time condition 110.

상황 인지 모듈(230)은 컨디션 리스트(223)를 실시간 컨디션(110)의 비교를 통해 상황 인지 정보(231)를 생성할 수 있다.The situation awareness module 230 may generate situation awareness information 231 by comparing the condition list 223 with the real-time condition 110.

이때, 상황 인지 모듈(220)은 컨디션 리스트(213)와 실시간 컨디션(110)을 비교할 때, 입력되는 실시간 컨디션(110)을 패턴화하고, 상황인지 자율발화 시스템(1)이 출력하는 모든 음성 및 텍스트 출력물을 템플릿화 할 수 있다.At this time, when comparing the condition list 213 and the real-time condition 110, the situation recognition module 220 patterns the input real-time condition 110 and all the voices and voices output by the situation-aware autonomous speech system 1. Text output can be templated.

따라서, 상황 인지 모듈(230)은 입력되는 실시간 컨디션(110)의 패턴화를 통해 컨디션 리스트(223)에 저장된 유사한 패턴의 컨디션 정보(211)들과 비교 분석 하는 것으로 비교 속도를 증진 시킬 수 있다.Accordingly, the situation recognition module 230 can improve comparison speed by patterning the input real-time condition 110 and comparing and analyzing it with condition information 211 of a similar pattern stored in the condition list 223.

또한, 상황 인지 모듈(230)은 출력물을 템플릿화함에 따라 자주 사용되는 음성 및 텍스트를 더욱 빠르게 출력 할 수 있다.Additionally, the situation awareness module 230 can output frequently used voices and texts more quickly by templateizing the output.

이때, 탬플릿은 자주 사용되는 명령어를 모아두거나 프로그램에서 무엇인가를 만들 때, 안내 역할을 하는데 사용되는 꼴을 나타내는 것으로 통상의 기술자가 이해함에 어려움이 없는 것으로서, 자세한 설명은 생략하기로 한다.At this time, the template represents a form used to serve as a guide when collecting frequently used commands or creating something in a program, and is not difficult for a person skilled in the art to understand, so a detailed explanation will be omitted.

한편, 도 4를 참조하면, 상황 인지 정보(231)는 컨디션 리스트 (223)와 실시간 컨디션(110)을 비교할 때, 컨디션 리스트(223)에 저장되어 있는 컨디션 정보(110)와의 일치 여부 및 일치 정도에 따라 다르게 생성될 수 있다.Meanwhile, referring to FIG. 4, when comparing the condition list 223 and the real-time condition 110, the situation awareness information 231 determines whether and to what degree it matches the condition information 110 stored in the condition list 223. It may be created differently depending on the

예를 들어, 상황 인지 정보(231)는 실시간 컨디션(110)의 변화로 GPS 이동을 감지할 때, 컨디션 리스트(223) 중 유사한 조건을 가지는 컨디션 정보(211)를 파악할 수 있다.For example, when detecting GPS movement due to a change in real-time conditions 110, the situation awareness information 231 may identify condition information 211 having similar conditions among the condition list 223.

이때, 상황 인지 정보(231)는 입력되는 실시간 컨디션(110)을 토대로, 저장된 컨디션 정보(211)와 동일한 상황인지, 유사한 상황인지, 다른 상황인지를 파악함으로써, 서로 다른 형태로 형성될 수 있다.At this time, the situation awareness information 231 may be formed in different forms by determining whether the situation is the same as the stored condition information 211, a similar situation, or a different situation based on the input real-time condition 110.

이때, 상황 인지 정보(231)는 동일한 상황일 때, 저장된 컨디션 정보(211)중 하나를 통해 생성될 수 있다.At this time, the situation awareness information 231 may be generated through one of the stored condition information 211 when the situation is the same.

또한, 상황 인지 정보(231)는 유사한 상황 및 다른 상황일 때, 동일한 상황일 때의 컨디션 정보(211)를 제외한 나머지 컨디션 정보(211)를 통해 형성될 수 있다.Additionally, the situation awareness information 231 may be formed through the remaining condition information 211 excluding the condition information 211 for the same situation in similar and different situations.

출력 모듈(240)은 상황 인지 정보(231)를 사용자 단말(100)을 통해 자율적으로 선 발화할 수 있다.The output module 240 can autonomously select the situation awareness information 231 through the user terminal 100.

이때, 출력 모듈(240)은 선 발화 기능을 ON, OFF 할 수 있다.At this time, the output module 240 can turn the pre-ignition function ON or OFF.

출력 모듈(240)은 선 발화 기능 ON 시 음성을 통해 대화 주제를 발화 하고, 선 발화 기능 OFF 시, 텍스트의 형태로 사용자 단말(100)의 알림 기능을 통해 전달하는 것이 바람직하다.It is preferable that the output module 240 utters the conversation topic through voice when the pre-speech function is turned on, and transmits it in the form of text through the notification function of the user terminal 100 when the pre-speech function is turned off.

자세히는, 도 5를 참조하면, 출력 모듈(240)은 선 발화 시, 상황 인지 정보(231)와 일치하는 대화 주제(241)를 선택하여 발화할 수 있다.In detail, referring to FIG. 5, the output module 240 may select and utter a conversation topic 241 that matches the situation awareness information 231 when making the first utterance.

또한, 출력 모듈(240)은 선 발화 할 때, 대화 주제(241)가 다수 개의 상황 인지 정보(231)와 연결될 수 있다.Additionally, when the output module 240 makes a selection, the conversation topic 241 may be connected to a plurality of situation awareness information 231.

이에 더해, 출력 모듈(240)은 선 발화 시, 상황 인지 정보(231) 또한 다수 개의 대화 주제(241)와 연결될 수 있다.In addition, the output module 240 may be connected to the situation awareness information 231 and a plurality of conversation topics 241 when making a first speech.

이에 따라, 출력 모듈(240)은 동일한 실시간 컨디션(110)에서도 다른 대화 주제(241)를 선 발화 할 수 있다.Accordingly, the output module 240 can select a different conversation topic 241 even in the same real-time condition 110.

이때, 출력 모듈(240)은 선 발화 시, 상황 인지 정보(231)와 연결된 대화 주제(241)가 다수 개 일 경우 다수 개 중 하나를 무작위로 출력할 수 있다.At this time, when making the first speech, the output module 240 may randomly output one of the plurality of conversation topics 241 connected to the situation awareness information 231.

이로 인해, 출력 모듈(240)을 통한 발화 시, 발화의 선택지가 증가 함으로써, 좀 더 다양한 대화를 사용자와 이어갈 수 있다.As a result, when speaking through the output module 240, the number of speech options increases, allowing more diverse conversations to be held with the user.

또한, 출력 모듈(240)은 발화 할 때, 발화된 대화 주제(241)가 상황 인지 정보(231)의 생성에 관여하는 것으로써, 다음 발화되는 대화 주제(241)에 영향을 줄 수 있다.In addition, when the output module 240 utters a conversation, the uttered conversation topic 241 participates in the creation of the situation awareness information 231, thereby influencing the next uttered conversation topic 241.

도 6은 추천 모듈이 포함된 본 발명의 실시 예에 따른 상황 인지에 따른 자율 발화 시스템의 구성도이고, 도 7은 본 발명의 실시 예에 따른 추천 모듈을 통한 선택지 생성을 도시한 예시도이며, 도 8은 사용자 단말에 추천 등급이 표시된 것을 도시한 사시도이다.Figure 6 is a configuration diagram of an autonomous speech system based on situation recognition according to an embodiment of the present invention including a recommendation module, and Figure 7 is an exemplary diagram showing selection generation through a recommendation module according to an embodiment of the present invention. Figure 8 is a perspective view showing a recommendation level displayed on a user terminal.

먼저, 도 6 및 도 7을 참조하면, 본 발명의 실시 예에 따른 상황 인지에 따른 자율 발화 시스템(1)은 추천 모듈(300)을 더 포함할 수 있다.First, referring to FIGS. 6 and 7 , the autonomous speech system 1 based on situation recognition according to an embodiment of the present invention may further include a recommendation module 300.

추천 모듈(300)은 사용자 단말(100)을 포함한 다수 개의 사용자 단말(100)의 데이터를 수집할 수 있다.The recommendation module 300 may collect data from a plurality of user terminals 100, including the user terminal 100.

이때, 추천 모듈(300)은 네트워크 연결 방식을 통해 본 발명의 실시 예에 따른 상황 인지에 따른 자율 발화 시스템(1)을 이용하는 사용자들의 데이터를 수집 및 저장할 수 있다.At this time, the recommendation module 300 may collect and store data of users using the autonomous speech system 1 according to situation recognition according to an embodiment of the present invention through a network connection method.

또한, 추천 모듈(300)은 수집된 사용자들의 데이터를 통해, 각각의 컨디션 정보(211) 마다 가장 많이 발화된 대화 주제(241)를 선정할 수 있다.Additionally, the recommendation module 300 may select the most frequently uttered conversation topic 241 for each condition information 211 through the collected user data.

이때, 추천 모듈(300)은 최다 선택된 대화 주제(241)를 발화 할 때, 대화 주제와 관련된 선택지(310)를 추천하여 발화할 수 있다.At this time, when uttering the most selected conversation topic 241, the recommendation module 300 may recommend and utter an option 310 related to the conversation topic.

이때, 선택지(310)는 식당, 놀이시설, 카페, 관광지와 같은 장소의 형태로 추천하는 것이 바람직하다.At this time, it is desirable to recommend the choice 310 in the form of a place such as a restaurant, amusement facility, cafe, or tourist attraction.

또한, 선택지(310)는 수집된 사용자들의 데이터를 추천 모듈(300)이 분석함에 따라 시간, 날씨, 날짜와 같은 즉, 실시간 컨디션(110)에 따라 변경될 수 있다.Additionally, the options 310 may change according to real-time conditions 110, such as time, weather, and date, as the recommendation module 300 analyzes the collected user data.

이때, 선택지(310)의 데이터베이스는 대형 웹사이트 플렛폼이나, 업체들이 제공하는 데이터베이스(D)를 활용하는 것이 바람직하나, 이에 한정하지 않고 직접 구축한 데이터베이스를 활용할 수 있다.At this time, it is preferable to use a large website platform or a database (D) provided by companies as the database of choice 310, but it is not limited to this and a database built directly can be used.

다음으로 도 8을 참조하면, 추천 모듈(300)은 대화 주제(241) 발화 시, 발화 횟수를 기준으로 차등해, 추천 등급(320)을 선택지(310)에 부여해, 등급을 매기고, 이를 사용자 단말(100)에 표기할 수 있다.Next, referring to FIG. 8, when the conversation topic 241 is uttered, the recommendation module 300 differentiates it based on the number of utterances, assigns a recommendation grade 320 to the option 310, grades it, and sends it to the user terminal. It can be written as (100).

추천 등급(320)은 대화 주제(241)의 발화량과 사용자 만족도를 종합하여 생성될 수 있다.The recommendation grade 320 may be generated by combining the amount of speech of the conversation topic 241 and user satisfaction.

이때, 사용자 만족도는 실시간 컨디션(110)의 변화를 감지하여, 선택지(310)에 방문 여부를 판단하는 것으로 선택지(310)를 방문하는 사용자의 사용자 단말(100)에 알림창을 생성될 수 있다.At this time, user satisfaction is determined by detecting changes in the real-time condition 110 and determining whether to visit the choice 310, and a notification window may be generated on the user terminal 100 of the user visiting the choice 310.

또한, 사용자 만족도는 알림창의 형태로 사용자 단말(100)에 표기되어, 사용자가 선택지(310) 이용 후 선택지의 추천 등급(320)을 직접 판단해 점수를 매길 수 있다.In addition, user satisfaction is displayed on the user terminal 100 in the form of a notification window, so that the user can directly determine the recommendation level 320 of the option after using the option 310 and score it.

이때, 추천 등급(320)은 별 모형과 같이 시인성이 뛰어난 형태로 형성되고, 선택지(310)의 일측면에 위치하여 선택지(310)와 추천 등급(320) 한눈에 볼 수 있는 형태로 형성되는 것이 바람직하다.At this time, the recommendation grade 320 is formed in a form with excellent visibility, like a star model, and is located on one side of the selection 310 so that the selection 310 and the recommendation grade 320 can be seen at a glance. desirable.

이상으로 첨부된 도면을 참조하여 본 발명의 실시 예를 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고 다른 구체적인 형태로 실시할 수 있다는 것을 이해할 수 있을 것이다. 따라서 이상에서 기술한 실시 예는 모든Although embodiments of the present invention have been described above with reference to the attached drawings, those skilled in the art can realize that the present invention can be implemented in other specific forms without changing the technical idea or essential features of the present invention. You will be able to understand it. Therefore, the embodiments described above are all

면에서 예시적인 것이며 한정적이 아닌 것이다.It is illustrative in that respect and is not limited.

1: 상황 인지에 따른 자율 발화 시스템
100: 사용자 단말
110: 실시간 컨디션
200: 서버
210: 변환 모듈
211: 컨디션 정보
220: 컨디션 감지 모듈
221: 사용자 정보
222: 디지털 신호
223: 컨디션 리스트
224: 스케쥴러
230: 상황 인지 모듈
231: 상황 인지 정보
240: 출력 모듈
241: 대화 주제
300: 추천 모듈
310: 선택지
320: 추천 등급
D: 데이터베이스
1: Autonomous ignition system based on situation awareness
100: user terminal
110: Real-time condition
200: server
210: conversion module
211: Condition information
220: Condition detection module
221: User information
222: digital signal
223: Condition list
224: Scheduler
230: Situation awareness module
231: Situational awareness information
240: output module
241: Topic of conversation
300: Recommended module
310: Options
320: Recommended rating
D: database

Claims (11)

상황인지 요인을 제공하고, GPS, 조도 센서, 카메라, 마이크 센서가 탑재되어 사용자의 나이, 성별, 현재 날짜, 시간, 날씨 조도, 사용자의 표정을 포함하는 유동적인 조건 및 고정적인 조건을 포함하는 실시간 컨디션을 입력 받는 사용자 단말;
상기 사용자 단말로부터 상기 실시간 컨디션을 전달 받고 저장 및 이에 따른 발화를 매칭하는 서버 및
상기 사용자 단말을 포함한 다수 개의 사용자 단말의 데이터를 수집하고, 각각의 상기 컨디션 정보 마다 가장 많이 발화된 대화 주제를 선정하고, 상기 대화 주제를 발화 할 때, 대화 주제와 관련된 선택지를 추천하여 발화하는 추천 모듈을 포함하고,
상기 서버는,
상기 실시간 컨디션을 컨디션 정보로 변환하는 변환 모듈;
상기 컨디션 정보를 전달받아 컨디션 리스트를 생성하는 컨디션 감지 모듈;
상기 컨디션 리스트를 상기 실시간 컨디션과 비교해 상황 인지 정보를 생성하는 상황 인지 모듈 및
상기 상황 인지 정보를 상기 사용자 단말을 통해 자율적으로 선 발화하는 출력 모듈을 포함하며,
상기 출력모듈은,
선 발화 시, 상기 상황 인지 정보를 토대로 대화 주제를 선택하여 발화하고,
상기 추천 모듈은,
상기 대화 주제 발화 시, 발화 횟수를 기준으로 차등해, 추천 등급을 상기 선택지에 부여해, 등급을 매기고,이를 상기 사용자 단말에 표기하고,
상기 선택지는,
식당, 놀이시설, 카페, 관광지와 같은 장소의 형태이고, 상기 실시간 컨디션에 따라 변경되는 것이며,
상기 추천 등급은,
상기 대화 주제의 발화량과, 상기 실시간 컨디션 변화를 감지하여 상기 선택지에 방문 여부를 판단하는 사용자 만족도를 종합하여 생성되는 것을 특징으로 하는 상황 인지에 따른 자율발화 시스템.
It provides situational awareness factors and is equipped with GPS, illuminance sensor, camera, and microphone sensors to provide real-time information including dynamic and fixed conditions, including the user's age, gender, current date, time, weather illuminance, and the user's facial expression. A user terminal that receives input of conditions;
A server that receives the real-time condition from the user terminal, stores it, and matches the corresponding utterance, and
Recommendation that collects data from a plurality of user terminals, including the user terminal, selects the most frequently spoken conversation topic for each condition information, and recommends and utters options related to the conversation topic when the conversation topic is uttered. Contains modules,
The server is,
a conversion module that converts the real-time condition into condition information;
a condition detection module that receives the condition information and generates a condition list;
A situation awareness module that generates situation awareness information by comparing the condition list with the real-time conditions, and
It includes an output module that autonomously selects the situation awareness information through the user terminal,
The output module is,
When speaking first, a conversation topic is selected and uttered based on the above situational awareness information,
The recommended module is,
When the conversation topic is uttered, it is differentiated based on the number of utterances, a recommendation grade is given to the options, a grade is given, and this is displayed on the user terminal,
The above options are:
It is in the form of a place such as a restaurant, amusement facility, cafe, or tourist attraction, and changes according to the real-time conditions,
The above recommendation level is,
An autonomous speech system based on situational awareness, characterized in that it is generated by combining the amount of speech of the conversation topic and user satisfaction that determines whether to visit the option by detecting changes in the real-time condition.
제 1항에 있어서,
상기 컨디션 감지 모듈은,
상기 사용자 단말에 탑재된 GPS, 조도 센서, 카메라, 마이크 센서 및 저장된 메시지와 같은 사용자 정보를 입력으로 받아 디지털 신호로 변환하고 상기 디지털 신호를 분석해 사용자의 실시간 컨디션을 인지하는 것으로 상기 컨디션 리스트를 생성하는 것을 특징으로 하는 상황 인지에 따른 자율발화 시스템.
According to clause 1,
The condition detection module is,
Receives user information such as GPS, illuminance sensor, camera, microphone sensor, and stored messages mounted on the user terminal as input, converts them into digital signals, and analyzes the digital signals to recognize the user's real-time condition to generate the condition list. An autonomous ignition system based on situation recognition, characterized by:
제 1항에 있어서,
상기 컨디션 감지 모듈은,
매시, 분 마다 시행되며, 기 저장된 상기 컨디션 리스트와 상기 실시간 컨디션 조건을 대조해,상기 실시간 컨디션이 상기 상황 인지 정보 생성 조건을 충족하였는지 판단하는 스케쥴러를 더 포함하는 것을 특징으로 하는 상황 인지에 따른 자율발화 시스템.
According to clause 1,
The condition detection module is,
It is performed every hour and minute, and further includes a scheduler that compares the pre-stored condition list and the real-time condition conditions and determines whether the real-time condition satisfies the situation awareness information generation conditions. Autonomous speech according to situation awareness. system.
삭제delete 제 1항에 있어서,
상기 상황 인지 모듈은,
상기 컨디션 리스트와 상기 실시간 컨디션을 비교할 때, 입력되는 실시간 컨디션을 패턴화하고, 상기 상황인지 자율발화 시스템이 출력하는 모든 음성 및 텍스트 출력물을 템플릿화 하는 것을 특징으로 하는 상황 인지에 따른 자율발화 시스템.
According to clause 1,
The situation awareness module is,
When comparing the condition list and the real-time condition, the input real-time condition is patterned and all voice and text output from the situation-aware autonomous speech system is templated.
삭제delete 제 1항에 있어서,
상기 출력 모듈은,
선 발화 시, 대화 주제는 다수 개의 상황 인지 정보와 연결되고, 상기 상황 인지 정보 또한, 다수 개의 대화 주제와 연결이 가능하여, 동일한 상기 상황 인지 정보를 통한 발화 시에도, 상기 대화 주제의 차이가 발생하는 것을 특징으로 하는 상황 인지에 따른 자율발화 시스템.
According to clause 1,
The output module is,
When speaking first, the conversation topic is connected to multiple situation awareness information, and the situation awareness information can also be connected to multiple conversation topics, so even when speaking through the same situation awareness information, differences in the conversation topic occur. An autonomous ignition system based on situation recognition, characterized by:
제 1항에 있어서,
상기 출력 모듈은,
선 발화 할 때, 상기 상황 인지 정보와 연결된 상기 대화 주제가 다수 개 일 경우 다수 개 중 하나를 무작위로 출력하는 것을 특징으로 하는 상황 인지에 따른 자율발화 시스템.
According to clause 1,
The output module is,
When speaking first, if there are multiple conversation topics connected to the situation awareness information, an autonomous speech system based on situation awareness, characterized in that one of the plurality is randomly output.
제 1항에 있어서,
상기 출력 모듈은,
발화 할 때, 발화된 상기 대화 주제가 상기 상황 인지 정보 생성에 관여하는 것으로써, 다음 발화되는 상기 대화 주제에 영향을 주는 것을 특징으로 하는 상황 인지에 따른 자율발화 시스템.
According to clause 1,
The output module is,
An autonomous speech system based on situation awareness, characterized in that when speaking, the uttered conversation topic is involved in generating the situation awareness information, thereby influencing the conversation topic uttered next.
삭제delete 삭제delete
KR1020220131569A 2022-10-13 2022-10-13 Autonomous articulation system based on situational awareness KR102620070B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220131569A KR102620070B1 (en) 2022-10-13 2022-10-13 Autonomous articulation system based on situational awareness

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220131569A KR102620070B1 (en) 2022-10-13 2022-10-13 Autonomous articulation system based on situational awareness

Publications (1)

Publication Number Publication Date
KR102620070B1 true KR102620070B1 (en) 2024-01-02

Family

ID=89511980

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220131569A KR102620070B1 (en) 2022-10-13 2022-10-13 Autonomous articulation system based on situational awareness

Country Status (1)

Country Link
KR (1) KR102620070B1 (en)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010108402A (en) * 1999-03-26 2001-12-07 요트.게.아. 롤페즈 Client-server speech recognition
KR20080038896A (en) * 2006-10-31 2008-05-07 삼성전자주식회사 Method and apparatus for alarming of speech-recognition error
CN103065630A (en) * 2012-12-28 2013-04-24 安徽科大讯飞信息科技股份有限公司 User personalized information voice recognition method and user personalized information voice recognition system
KR20130133629A (en) * 2012-05-29 2013-12-09 삼성전자주식회사 Method and apparatus for executing voice command in electronic device
CN103700369A (en) * 2013-11-26 2014-04-02 安徽科大讯飞信息科技股份有限公司 Voice navigation method and system
KR20140089795A (en) * 2013-01-07 2014-07-16 엘지전자 주식회사 Home appliance, and method for including the same
KR20140106715A (en) * 2012-03-08 2014-09-03 엘지전자 주식회사 An apparatus and method for multiple device voice control
JP2016512609A (en) * 2013-01-29 2016-04-28 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Method and system for automatic speech recognition
KR101664080B1 (en) * 2015-07-28 2016-10-10 현대자동차 주식회사 Voice dialing system and method thereof
KR20180037868A (en) * 2016-10-05 2018-04-13 현대자동차주식회사 Apparatus and method for analyzing speech meaning
JP2019008315A (en) * 2018-09-18 2019-01-17 日本放送協会 Learning data generation device and program thereof
WO2019103936A1 (en) * 2017-11-22 2019-05-31 Amazon Technologies, Inc. Fully managed and continuously trained automatic speech recognition service
WO2019116604A1 (en) * 2017-12-15 2019-06-20 Mitsubishi Electric Corporation Speech recognition system
KR102315020B1 (en) * 2020-10-20 2021-10-21 주식회사 디엔엑스 Apparatus and method for providing customized voice interaction based on user life pattern

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010108402A (en) * 1999-03-26 2001-12-07 요트.게.아. 롤페즈 Client-server speech recognition
KR20080038896A (en) * 2006-10-31 2008-05-07 삼성전자주식회사 Method and apparatus for alarming of speech-recognition error
KR20140106715A (en) * 2012-03-08 2014-09-03 엘지전자 주식회사 An apparatus and method for multiple device voice control
KR20130133629A (en) * 2012-05-29 2013-12-09 삼성전자주식회사 Method and apparatus for executing voice command in electronic device
CN103065630A (en) * 2012-12-28 2013-04-24 安徽科大讯飞信息科技股份有限公司 User personalized information voice recognition method and user personalized information voice recognition system
KR20140089795A (en) * 2013-01-07 2014-07-16 엘지전자 주식회사 Home appliance, and method for including the same
JP2016512609A (en) * 2013-01-29 2016-04-28 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Method and system for automatic speech recognition
CN103700369A (en) * 2013-11-26 2014-04-02 安徽科大讯飞信息科技股份有限公司 Voice navigation method and system
KR101664080B1 (en) * 2015-07-28 2016-10-10 현대자동차 주식회사 Voice dialing system and method thereof
KR20180037868A (en) * 2016-10-05 2018-04-13 현대자동차주식회사 Apparatus and method for analyzing speech meaning
WO2019103936A1 (en) * 2017-11-22 2019-05-31 Amazon Technologies, Inc. Fully managed and continuously trained automatic speech recognition service
WO2019116604A1 (en) * 2017-12-15 2019-06-20 Mitsubishi Electric Corporation Speech recognition system
JP2019008315A (en) * 2018-09-18 2019-01-17 日本放送協会 Learning data generation device and program thereof
KR102315020B1 (en) * 2020-10-20 2021-10-21 주식회사 디엔엑스 Apparatus and method for providing customized voice interaction based on user life pattern

Similar Documents

Publication Publication Date Title
US11496582B2 (en) Generation of automated message responses
US10580404B2 (en) Indicator for voice-based communications
US10074369B2 (en) Voice-based communications
CN106201424B (en) A kind of information interacting method, device and electronic equipment
US10453449B2 (en) Indicator for voice-based communications
US20150279366A1 (en) Voice driven operating system for interfacing with electronic devices: system, method, and architecture
US20180240459A1 (en) Method and system for automation of response selection and composition in dialog systems
US10176806B2 (en) Motor vehicle operating device with a correction strategy for voice recognition
US11887580B2 (en) Dynamic system response configuration
US11574637B1 (en) Spoken language understanding models
CN101346758A (en) Emotion recognizer
US10755704B2 (en) Information processing apparatus
US20130253932A1 (en) Conversation supporting device, conversation supporting method and conversation supporting program
US11605387B1 (en) Assistant determination in a skill
US10143027B1 (en) Device selection for routing of communications
CN116417003A (en) Voice interaction system, method, electronic device and storage medium
CN115148185A (en) Speech synthesis method and device, electronic device and storage medium
CN114283820A (en) Multi-character voice interaction method, electronic equipment and storage medium
JP2019159060A (en) Output content control device, output content control method, and output content control program
KR102620070B1 (en) Autonomous articulation system based on situational awareness
KR20190032557A (en) Voice-based communication
US11544303B1 (en) Responding with unresponsive content
US11563708B1 (en) Message grouping
US11172527B2 (en) Routing of communications to a device
US11798538B1 (en) Answer prediction in a speech processing system

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant