KR20180046550A - Apparatus and method for conversaion using artificial intelligence - Google Patents

Apparatus and method for conversaion using artificial intelligence Download PDF

Info

Publication number
KR20180046550A
KR20180046550A KR1020160141804A KR20160141804A KR20180046550A KR 20180046550 A KR20180046550 A KR 20180046550A KR 1020160141804 A KR1020160141804 A KR 1020160141804A KR 20160141804 A KR20160141804 A KR 20160141804A KR 20180046550 A KR20180046550 A KR 20180046550A
Authority
KR
South Korea
Prior art keywords
voice
signal
unit
user
script
Prior art date
Application number
KR1020160141804A
Other languages
Korean (ko)
Inventor
이재윤
Original Assignee
이재윤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이재윤 filed Critical 이재윤
Priority to KR1020160141804A priority Critical patent/KR20180046550A/en
Publication of KR20180046550A publication Critical patent/KR20180046550A/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/18Artificial neural networks; Connectionist approaches
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • H05B37/02

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Telephonic Communication Services (AREA)

Abstract

The present invention relates to a dialogue device using artificial intelligence and a method thereof. According to an embodiment of the present invention, the dialogue device using artificial intelligence comprises: a storage unit for storing a script signal by signaling a keyword; a reception unit for recognizing voice of a user; a first conversion unit for signaling the voice received from the receiving unit to convert the same into a voice signal; a determination unit for determining user information from the received voice or converted voice signal; a signal extraction unit for extracting the script signal corresponding to the voice signal; a second conversion unit for converting the script signal extracted from the signal extraction unit into a voice; and a sound unit for transmitting the voice converted by the second conversion unit. The signal extraction unit extracts the script signal corresponding to the voice signal by an artificial intelligence module. The artificial intelligence module analyzes the script signal converted by the first conversion unit to analyze the meaning of received voice information, and extracts a script signal pre-stored in the storage unit in accordance with a preset dialogue model. The dialog model includes a dialogue flow tree corresponding to a dialogue meaning and a dialogue order.

Description

인공지능을 이용한 대화 장치 및 방법{APPARATUS AND METHOD FOR CONVERSAION USING ARTIFICIAL INTELLIGENCE}[0001] APPARATUS AND METHOD FOR CONVERSION USING ARTIFICIAL INTELLIGENCE [0002]

본 발명은 인공지능을 이용한 대화 장치 및 방법에 관한 것으로서, 구체적으로는 음성 인식을 통한 인공 지능 대화 장치 및 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to an interactive apparatus and method using artificial intelligence, and more particularly, to an artificial intelligent interactive apparatus and method using speech recognition.

음성 인식이란 기계로 하여금 인간의 일상적인 음성을 이해하고 이해된 음성에 따라 업무를 수행하게 하는 것을 말한다.Speech Recognition refers to the ability of a machine to understand the daily voice of humans and perform tasks according to the understood voice.

음성 인식의 기술은 컴퓨터와 정보 통신의 발달로 인해 인간이 직접 움직이지 않고서도 원거리에서 정보를 손쉽게 얻을 수 있으며, 음성에 따라 작동하는 시스템으로 이루어진 기기들의 개발로 이어지고 있다.The technology of speech recognition is leading to the development of devices composed of a system that can easily obtain information from a remote place and operate according to voice due to development of computer and information communication.

이러한 음성 인식 기술을 바탕으로 다양한 음성 인식 응용 시스템이 개발되고 있으며, 그 중의 하나는 사용자가 발성한 언어에 따라 원하는 정보를 안내하는 시스템이다. 예를 들어, 어느 단체의 전화 번호 안내 시스템이 있다고 가정할 때, 사용자가 찾고자 하는 부서의 명칭을 음성으로 발성을 하게 되면 해당 부서의 전화번호를 사용자의 모니터 상에 디스플레이하는 시스템을 생각할 수 있다.Various speech recognition application systems have been developed based on the speech recognition technology, and one of them is a system for guiding desired information according to a user's spoken language. For example, supposing that there is a telephone number guidance system of a certain group, a system in which a telephone number of a corresponding department is displayed on a monitor of a user when the user speaks the name of the department to be searched by voice.

이와 같이, 종래의 음성 인식 시스템들은 인간의 음성을 일방적으로 받아들이고, 인간의 음성에 따라 그 요구를 처리하는 일방향적인 시스템에 머무르고 있었다. 또한, 인간과 서로 대화를 통해 쌍방향으로 교류하는 시스템은, 그 필요성이 날로 증대됨에도 불구하고, 기술이 충분하지 못하다.In this way, conventional speech recognition systems have unilaterally accepted a human voice unilaterally, and have remained in a one-way system that processes the request according to human voice. In addition, systems that interact with humans in a bidirectional manner through dialogue with each other are inadequate in technology, although the necessity is increasing day by day.

한편, 최근에 1인 가구가 늘어나면서, 인간은 혼자 있는 시간이 늘어나게 되면서, 공감을 주고 받으며 대화를 나눌 상대가 부족하다. 따라서, 인간의 대화 상대로서 쌍방향 대화가 가능한 대화 장치 혹은 대화 시스템의 필요성은 날로 커지고 있다. 그러나, 종래의 시스템은 인간의 대화를 충분히 인지하거나 학습하지 못하므로, 대화에 한계가 있다는 문제점이 있었다. 특히, 사회적인 소외 계층의 경우에는 대화상대의 필요성이 더욱 큼에도 불구하고, 인간과 서로 대화가 가능한 장치나 시스템이 충분히 준비되지 않고 있다. 또한, 소외 계층 뿐 아니라, 인간은 나이, 성별, 성격, 관심사 등 개인마다 각기 다른 개성과 성향을 가지고 있는데, 각기 다른 개인의 개성에 맞추어 맞춤형 대화를 할 수 있는 시스템에 대한 요구도 이어지고 있다.On the other hand, as the number of single-person households has increased recently, the number of people living alone has increased, and there is not enough people to share and communicate with each other. Therefore, the necessity of a conversation apparatus or a conversation system capable of interactive conversation as a human conversation partner is increasing day by day. However, the conventional system does not fully understand or learn human conversation, so there is a problem that conversation is limited. Especially, in the case of the social marginalized people, although the necessity of conversation partner is greater, there are not enough devices or systems capable of communicating with human beings. In addition, not only marginalized people but also human beings have different personality and tendencies for each individual such as age, sex, personality, and interest, and there is a demand for a system capable of customized conversation according to the personality of each individual.

또한, 1인 가구에서는 안전 및 보안의 필요성도 강화되고 있으며, 다양한 보안 시스템이 개발되고 있으나, 현재는 인공지능과 음성 인식장치를 이용하여 이와 연동되는 안전 또는 보안 시스템이 개발되지는 않고 있는 실정이다.In addition, the security and security need is strengthened in one-person households, and a variety of security systems are being developed, but nowadays there is no safety or security system that is interlocked with artificial intelligence and voice recognition device .

본 발명은 인간과 쌍방향 소통이 가능한 인공지능을 이용한 대화 장치 및 방법을 제공하기 위한 것이다.The present invention is intended to provide a dialogue apparatus and method using artificial intelligence capable of interacting with human beings.

또한, 안전과 보안 기능이 포함된 인공지능을 이용한 대화 장치 및 방법을 제공하기 위한 것이다.The present invention also provides a communication apparatus and method using artificial intelligence including security and security functions.

본 발명의 목적은 여기에 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited thereto, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

본 발명은 인공지능을 이용한 대화 장치를 제공한다.The present invention provides a communication device using artificial intelligence.

본 발명의 일 실시예에 따르면, 키워드를 신호화하여 스크립트 신호로 저장하는 저장부; 사용자의 음성을 인식하는 수신부; 상기 수신부로부터 수신된 음성을 신호화하여 음성 신호로 변환하는 제1 변환부; 수신된 상기 음성 또는 변환된 상기 음성 신호로부터 사용자의 정보를 판단하는 판별부; 상기 음성 신호에 대응되는 스크립트 신호를 추출하는 신호 추출부; 상기 신호 추출부로부터 추출된 스크립트 신호를 음성으로 변환하는 제2 변환부; 상기 제2 변환부에서 변환된 음성을 송출하는 음향부를 포함하고, 상기 신호 추출부는 인공지능 모듈에 의해서 상기 음성 신호에 대응되는 스크립트 신호를 추출하되, 상기 인공지능 모듈은, 상기 제1 변환부에서 변환된 스크립트 신호를 분석하여 수신된 음성 정보의 의미를 분석하고, 기설정된 대화 모델에 따라 상기 저장부에 기저장된 스크립트 신호를 추출하며, 상기 대화 모델은, 대화 의미와 대화 순서에 대응되는 대화 흐름 트리로 구성된다.According to an embodiment of the present invention, there is provided a storage medium for storing a script signal for signaling a keyword; A receiving unit for recognizing the user's voice; A first converting unit for converting a voice received from the receiving unit into a voice signal; A determination unit for determining user information from the received voice or the converted voice signal; A signal extracting unit for extracting a script signal corresponding to the voice signal; A second conversion unit for converting the script signal extracted from the signal extraction unit into speech; And the sound extracting unit extracts a script signal corresponding to the voice signal by the artificial intelligence module, and the artificial intelligence module extracts a script signal corresponding to the voice signal from the first conversion unit Analyzing the converted script signal, analyzing the meaning of the received speech information, extracting a script signal pre-stored in the storage unit according to a predetermined dialogue model, the dialogue model including a dialogue meaning and a dialogue flow corresponding to the dialogue order Tree.

일 실시예에 따르면, 상기 인공지능 모듈은, 수신되는 사용자의 음성정보를 누적하여 저장하고, 저장된 상기 음성정보들로부터 사용자에 관한 데이터를 분석하고, 상기 분석된 사용자에 관한 데이터를 기반으로 상기 대화 흐름 트리를 변경한다.According to one embodiment, the artificial intelligence module accumulates and stores voice information of a user to be received, analyzes data on the user from the stored voice information, and transmits the conversation based on the analyzed user- Change the flow tree.

일 실시예에 따르면, 상기 인공지능 모듈은, 수신되는 상기 사용자 음성을 분석하여 사용자의 상태정보를 파악하고, 파악된 상태정보로부터 대응되는 스크립트 신호를 추출하며, 상기 음향부는 상기 사용자의 상태정보에 따라 기설정된 주파수 및 크기의 음성을 송출하되, 상기 사용자의 상태정보는, 사용자의 감정, 나이, 성별 중 적어도 어느 하나를 포함한다.According to an embodiment, the artificial intelligence module analyzes state information of a user by analyzing the received user voice, extracts a corresponding script signal from the detected state information, The user's state information includes at least one of emotion, age, and gender of the user.

일 실시예에 따르면, 상기 음향부는, 미등록 사용자의 음성이 소정 시간 연속하여 상기 수신부에 수신되는 경우, 위험 신호를 송출한다.According to an embodiment, the sound unit transmits a danger signal when an unregistered user's voice is received by the receiving unit continuously for a predetermined time.

일 실시예에 따르면, 본체를 이루는 하우징; 외부로 광을 발산하는 조명부; 외부로 액체를 분사하는 분사부; 소정의 정보를 디스플레이하는 표시부; 상기 조명부와 상기 분사부를 제어하는 제어부를 더 포함하되, 상기 조명부는 무드등으로 제공되고, 상기 분사부는, 물을 분사하는 스프레이와, 향수를 분사하는 디퓨저를 포함하며, 상기 제어부는, 상기 수신부에서 수신되는 음성 중 기설정된 키워드가 포함되어 있는 경우, 상기 조명부와 상기 분사부의 전원을 온-오프하고, 상기 음향부는 다국어 음성이 지원가능하고, 외부기기와 무선 연결되어, 상기 외부 기기로부터 송신되는 신호를 수신하여 그 신호에 대응되는 음향을 송출하며, 상기 표시부에 표시되는 상기 소정의 정보는 상기 수신부에 음성을 발산하는 사용자의 정보 또는 통신망에 의해 수신된 정보이다.According to one embodiment, there is provided a portable terminal comprising: a housing constituting a main body; An illumination unit for emitting light to the outside; A jetting portion for jetting liquid to the outside; A display unit for displaying predetermined information; Wherein the illumination unit is provided in a mood or the like, and the injection unit includes a sprayer for spraying water and a diffuser for spraying perfume, wherein the control unit controls the sprayer unit And a controller for controlling the power of the illuminating unit and the jetting unit to be turned on and off when a preset keyword among the received voice is included, wherein the sound unit is capable of supporting multi-lingual voice, And transmits the sound corresponding to the signal, and the predetermined information displayed on the display unit is information of a user that emits a sound to the receiving unit or information received by a communication network.

본 발명은 인공지능을 이용한 대화 방법을 제공한다.The present invention provides a dialogue method using artificial intelligence.

본 발명의 일 실시예에 따르면, 키워드를 신호화하여 스크립트 신호로 저장하는 저장 단계; 사용자의 음성을 수신하는 수신 단계; 상기 수신된 음성을 신호화하여 음성 신호로 변환하는 제1 변환 단계; 상기 수신 단계에서 수신된 음성 또는 제1 변환 단계에서 변환된 음성 신호 로부터 사용자의 정보를 판단하는 판별 단계; 상기 음성 신호에 대응되는 스크립트 신호를 추출하는 신호 추출 단계; 상기 추출된 스크립트 신호를 음성으로 변환하는 제2 변환 단계; 상기 변환된 음성을 송출하는 음향 송출 단계;를 포함하고, 상기 신호 추출 단계에서는, 인공지능에 의해 상기 제1 변환 단계에서 변환된 스크립트 신호를 분석하여 수신된 음성 정보의 의미를 분석하고, 기설정된 대화 모델에 따라서 상기 저장단계에서 저장된 스크립트 신호를 추출하며, 상기 대화 모델은, 대화 의미와 대화 순서에 대응되는 대화 흐름 트리로 구성되고, 상기 판별 단계는, 상기 사용자의 음성을 분석하여 사용자의 상태정보를 파악하고, 상기 음향 송출 단계에서는 상기 사용자의 상태정보에 따라 기설정된 주파수 및 크기의 음성을 송출하며, 상기 신호 추출 단계에서는, 수신되는 사용자의 음성 정보를 누적하여 저장하고, 사용자에 관한 데이터를 분석하여, 상기 분석된 데이터를 기반으로 인공지능에 의해 상기 대화 흐름 트리를 변경한다.According to an embodiment of the present invention, there is provided a method of generating a script, the method comprising: storing a keyword as a script signal; A receiving step of receiving a user's voice; A first conversion step of converting the received voice signal into a voice signal; A discriminating step of discriminating the user's information from the voice received in the receiving step or the voice signal converted in the first converting step; A signal extracting step of extracting a script signal corresponding to the voice signal; A second conversion step of converting the extracted script signal into speech; And analyzing the meaning of the received voice information by analyzing the script signal converted in the first conversion step by the artificial intelligence, Extracting a script signal stored in the storing step according to a dialogue model, wherein the dialogue model comprises a dialogue flow tree corresponding to a dialogue meaning and a dialogue order, and the determining step analyzes the user's speech In the sound transmission step, a voice having a preset frequency and size is transmitted according to the status information of the user. In the signal extracting step, the voice information of the user to be received is accumulated and stored, , And the interactive flow tree is changed by artificial intelligence based on the analyzed data The.

일 실시예에 따르면, 상기 신호 추출 단계에서는, 기설정된 특정 계층의 사용자에 맞추어, 인공 지능에 의해 상기 스크립트 신호를 추출하되, 상기 특정 계층은, 성별, 나이 및 직업 중 적어도 어느 하나를 포함한다.According to one embodiment, in the signal extracting step, the script signal is extracted by artificial intelligence according to a user of a predetermined layer, and the specific layer includes at least one of sex, age, and occupation.

본 발명의 일 실시 예에 의하면, 인공지능을 이용하여 인간과 쌍방향 소통이 가능하다.According to an embodiment of the present invention, bi-directional communication with a human is possible using artificial intelligence.

또한, 본 발명의 일 실시 예에 의하면, 인공지능 및 음성인식을 통해 사용자의 안전과 보안을 담보할 수 있다. In addition, according to an embodiment of the present invention, security and security of a user can be secured through artificial intelligence and speech recognition.

본 발명의 효과가 상술한 효과들로 한정되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-mentioned effects, and the effects not mentioned can be clearly understood by those skilled in the art from the present specification and attached drawings.

도 1은 본 발명에 의한 인공지능을 이용한 대화 장치의 구성을 간략하게 보여주는 블럭도이다.
도 2는 커뮤니케이션 유닛의 구성을 보여주는 블럭도이다.
도 3은 신호 추출부의 작동원리를 간략하게 보여주는 블럭도이다.
도 4는 기능 유닛의 구성을 보여주는 블럭도이다.
도 5는 본 발명에 의한 인공지능을 이용한 대화 장치를 보여주는 사시도이다.
도 6은 본 발명에 의한 인공지능을 이용한 대화 방법을 순차적으로 보여주는 순서도이다.
1 is a block diagram briefly showing a configuration of an interactive apparatus using artificial intelligence according to the present invention.
2 is a block diagram showing the configuration of the communication unit.
3 is a block diagram briefly showing the operation principle of the signal extracting unit.
4 is a block diagram showing the configuration of the functional unit.
FIG. 5 is a perspective view showing an interactive apparatus using artificial intelligence according to the present invention.
FIG. 6 is a flowchart sequentially illustrating an artificial intelligence dialogue method according to the present invention.

이하, 본 발명의 실시 예를 첨부된 도면들을 참조하여 더욱 상세하게 설명한다. 본 발명의 실시 예는 여러 가지 형태로 변형할 수 있으며, 본 발명의 범위가 아래의 실시 예들로 한정되는 것으로 해석되어서는 안 된다. 본 실시 예는 당업계에서 평균적인 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위해 제공되는 것이다. 따라서 도면에서의 요소의 형상은 보다 명확한 설명을 강조하기 위해 과장된 것이다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The embodiments of the present invention can be modified in various forms, and the scope of the present invention should not be construed as being limited to the following embodiments. This embodiment is provided to more fully describe the present invention to those skilled in the art. The shape of the elements in the figures is therefore exaggerated to emphasize a clearer description.

이하, 도 1 내지 도 6을 참조하여 본 발명의 일 예를 상세히 설명한다.Hereinafter, an example of the present invention will be described in detail with reference to FIGS. 1 to 6. FIG.

도 1은 본 발명에 의한 인공지능을 이용한 대화 장치의 구성을 간략하게 보여주는 블럭도이다. 도 2은 커뮤니케이션 유닛의 구성을 보여주는 블럭도이며, 도 3는 신호 추출부(160)의 작동원리를 간략하게 보여주는 블럭도이고, 도 4는 기능 유닛(200)의 구성을 보여주는 블럭도이고, 도 5는 본 발명에 의한 인공지능을 이용한 대화 장치를 보여주는 사시도이다.1 is a block diagram briefly showing a configuration of an interactive apparatus using artificial intelligence according to the present invention. FIG. 2 is a block diagram showing the configuration of the communication unit, FIG. 3 is a block diagram briefly showing the operation principle of the signal extraction unit 160, FIG. 4 is a block diagram showing the configuration of the functional unit 200, 5 is a perspective view showing a talking apparatus using artificial intelligence according to the present invention.

도 1 내지 도 5를 참조하면, 본 발명에 의한 인공지능을 이용한 대화 장치(1)는 커뮤니케이션 유닛(100)과 기능 유닛(200)을 포함한다.Referring to FIGS. 1 to 5, an artificial intelligence interactive apparatus 1 according to the present invention includes a communication unit 100 and a functional unit 200.

커뮤니케이션 유닛(100)은 인간, 즉 사용자의 음성을 인식하고, 인공지능을 통해 사용자의 말에 적절한 답변을 음성으로 송출한다. 즉, 커뮤니케이션 유닛(100)을 통해 인간과 대화가 이어질 수 있도록 한다.The communication unit 100 recognizes the voice of the user, that is, the user, and sends out an appropriate answer to the user's voice through the AI. That is, the communication unit 100 enables communication with the human being.

커뮤니케이션 유닛(100)은 저장부(110), 수신부(120), 제1 변환부(130), 판별부(140), 데이터 기록부(150), 신호 추출부(160), 제2 변환부(170), 음향부(180)를 포함한다.The communication unit 100 includes a storage unit 110, a reception unit 120, a first conversion unit 130, a determination unit 140, a data recording unit 150, a signal extraction unit 160, a second conversion unit 170 And an acoustic portion 180, as shown in FIG.

저장부(110)는 키워드를 신호화하여 스크립트 신호로 저장한다. 키워드는 후술하는 음향부(180)를 통해 송출되는 단어를 의미한다. 키워드는 다국어로 제공될 수 있다. 여러 나라의 언어에 의한 키워드들이 신호화되어 저장된다.The storage unit 110 stores a keyword as a script signal. The keyword refers to a word transmitted through the acoustic unit 180 described later. Keywords may be provided in multiple languages. The keywords of the languages of various countries are signaled and stored.

수신부(120)는 인간, 즉 사용자의 음성을 수신하여 인식한다. 사용자가 말을 하면, 이를 받아들인다.The receiving unit 120 receives and recognizes the human, that is, the voice of the user. When the user speaks, they accept it.

제1 변환부(130)는 수신부(120)로부터 수신된 음성을 신호화하여 음성 신호로 변환한다. The first conversion unit 130 converts the voice received from the receiving unit 120 into a voice signal.

판별부(140)는 수신부(120)로부터 수신된 음성 또는 제1 변환부(130)에 의해 변환된 음성 신호로부터 사용자의 정보를 판별할 수 있다. 일 예로, 판별부(140)는 사용자의 상태정보를 파악할 수 있다. 상태정보란 사용자의 현재의 상태를 나타낼 수 있는 정보를 의미한다. 사용자의 현재의 감정상태, 나이, 성별 등 다양한 정보일 수 있다. 감정상태란 기쁨, 슬픔, 우울, 지침 등의 인간이 가질 수 있는 감정상태를 의미한다. 감정상태를 판별하기 위해, 음성의 크기 및 음성 신호의 주파수를 고려할 수 있다. 일 예로, 음성의 크기에 기준범위를 설정하고, 그 범위를 기준으로 기설정치의 크기보다 높으면 기쁨, 슬픔, 화남 등의 흥분 상태로 인지할 수 있다. 또는, 기설정치의 크기보다 낮으면, 차분, 우울 등의 상태로 인지할 수 있다. The determining unit 140 can determine the user's information from the voice received from the receiving unit 120 or the voice signal converted by the first converting unit 130. [ For example, the determination unit 140 may determine the status information of the user. The status information means information that can indicate the current status of the user. The user's current emotional state, age, sex, and the like. Emotional state means emotional state that human can have such as joy, sadness, depression, and guidance. In order to determine the emotional state, the size of the voice and the frequency of the voice signal can be considered. For example, if the reference range is set to the size of the voice and the range is larger than the size of the reference value based on the range, it can be recognized as an excited state such as joy, sadness or angryness. Alternatively, if it is lower than the size of the preset value, it can be recognized as a state of difference, depression, and the like.

또한 음성 신호의 주파수가 기설정치보다 높은 상태라면, 고음을 의미하므로 마찬가지로 기쁨, 화남 등의 흥분 상태로 인지할 수 있다. 음성 신호의 주파수가 기설정치보다 낮은 상태라면, 저음을 의미하므로, 차분, 우울 등의 상태로 인지할 수 있다.Further, if the frequency of the voice signal is higher than the preset value, it means a high sound, so that it can be recognized as an excited state such as joy or angry. If the frequency of the voice signal is lower than the preset value, it means low sound, so it can be recognized as a state of difference, depression, and the like.

또한, 성별에 의한 음성의 차이 및 나이에 의한 음성의 차이에 관한 설정기준을 입력하고, 이를 기준으로 사용자의 성별 및 나이를 파악할 수 있다. 일 예로, 제1 변환부(130)에 의해 변환된 음성 신호의 최고 및 최저 주파수를 파악하여, 기설정된 주파수 범위 내에 있는지를 판단하여 사용자의 성별을 판단할 수 있다. 예를 들어, 남성 사용자의 음성 신호 주파수와, 여성 사용자의 음성 신호 주파수에 관한 기준을 설정하고, 사용자에 의해 수신된 음성 신호의 주파수가 그 범위 내에 있는지 여부를 판별하여, 사용자의 성별을 파악할 수 있다. 또한, 사용자가 고령일수록 일반적으로 어투가 느리다는 점을 고려하여, 사용자의 음성신호의 주기를 파악하여 사용자의 나이를 파악할 수 있다.In addition, a setting criterion regarding the difference of voice by sex and the difference of voice by age can be input, and the sex and age of the user can be determined based on the setting criterion. For example, the maximum and minimum frequencies of the voice signal converted by the first conversion unit 130 may be determined, and it may be determined whether the voice signal is within a preset frequency range to determine the sex of the user. For example, it is possible to set a criterion relating to a voice signal frequency of a male user and a voice signal frequency of a female user, determine whether the frequency of the voice signal received by the user is within the range, have. In addition, considering the fact that the user is older and the sound is generally slow, the user can grasp the age of the user by grasping the period of the voice signal of the user.

판별부(140)는 사용자가 기등록된 사용자인지, 또는 미등록된 사용자인지 판단할 수 있다. 기등록된 사용자의 음성 정보를 입력하고, 입력된 음성 정보와 수신된 음성 정보를 비교하여 음성의 패턴 및 주파수, 주기를 비교하여 오차범위 내에 있는지를 비교함으로써, 현재 사용하고 있는 사용자가 기등록 사용자인지 미등록 사용자인지를 판단할 수 있다.The determination unit 140 may determine whether the user is a previously registered user or an unregistered user. The user's voice information is input, and the inputted voice information is compared with the received voice information to compare the pattern, frequency, and period of the voice to check whether they are within the error range, It is possible to determine whether or not the user is an unregistered user.

데이터 기록부(150)는 사용자와의 대화를 기록, 저장할 수 있다. 사용자는 등록 사용자일 수 있다. 데이터 기록부(150)는 사용자와의 대화를 저장함으로써, 사용자에 관한 정보를 누적하여 취득하고, 인공 지능 모듈(162)은 누적된 대화 기록을 바탕으로 대화 흐름 트리를 변경하여 후속 대화를 진행할 수 있다.The data recording unit 150 can record and store a conversation with a user. The user may be a registered user. The data recording unit 150 accumulates the information about the user by storing the conversation with the user, and the AI module 162 can change the conversation flow tree based on the accumulated conversation record to proceed with the subsequent conversation .

도 3은 신호 추출부(160)의 작동 원리를 간략하게 보여주는 블럭도이다.3 is a block diagram briefly showing the operation principle of the signal extracting unit 160. As shown in FIG.

신호 추출부(160)는 음성 신호에 대응되는 스크립트 신호를 추출하여 후술하는 제2 변환부(170)로 전달한다. 신호 추출부(160)는 사람과 본 발명에 의한 인공지능을 이용한 대화 장치(1) 사이에 대화가 이어질 수 있도록 하는 본질적인 역할을 하는 구성으로 제공된다.The signal extracting unit 160 extracts a script signal corresponding to the voice signal and transmits the extracted script signal to the second converting unit 170, which will be described later. The signal extracting unit 160 is provided in a configuration that plays an essential role in enabling conversation to proceed between a person and the conversation apparatus 1 using the artificial intelligence according to the present invention.

도 3을 참조하면, 신호 추출부(160)는 인공지능 모듈(162)에 의하여 작동된다. 인공지능 모듈(162)은 수신된 음성 및 제1 변환부(130)에서 변환된 음성 신호를 분석하고, 이에 대해 사용자에게 답변할 적절한 키워드를 선택한다. 반드시 키워드에 한하는 것은 아니며 완성된 문장이 될 수 있도록 답변할 음성을 지정, 선택한다. 일 예로, 사용자의 질문 또는 명령에 대해 적절한 답변을 찾고, 이 답변에 해당하는 스크립트 신호를 선택하여 추출한다. 또는 사용자의 말에 대하여, 자연스럽게 이어질 수 있는 답변을 찾고, 이 답변에 해당하는 스크립트 신호를 선택하여 추출한다. Referring to FIG. 3, the signal extraction unit 160 is operated by the artificial intelligence module 162. The AI module 162 analyzes the received voice and the voice signal converted by the first conversion unit 130, and selects an appropriate keyword to answer to the user. It is not limited to keywords, but selects and selects a voice to be answered so that it is a completed sentence. As an example, an appropriate answer to a user's question or command is searched, and a script signal corresponding to the answer is selected and extracted. Or, for the user's speech, find the answer that can be naturally followed, and select and extract the script signal corresponding to this answer.

구체적으로, 인공지능 모듈(162)은, 제1 변환부(130)에서 변환된 스크립트 신호를 분석하여 수신된 음성 정보의 의미를 분석하고, 기설정된 대화 모델(164)에 따라 저장부(110)에 기저장된 스크립트 신호를 추출한다. 대화 모델(164)은 대화 의미와 대화 순서에 대응되는 대화 흐름 트리로 구성된다. 대화 의미란 음성 정보가 전달하고자 하는 의미를 말하며, 대화 순서란 자연스럽게 이어질 수 있는 대화 흐름을 말한다. 대화 흐름 트리란 대화 의미와 대화 순서를 종합한 것으로서, 사용자와 본 발명에 의한 인공지능을 이용한 대화 장치(1)가 주고받는 대화의 의미를 파악하고, 그 대화들이 적절하게 이어질 수 있는 대화 순서를 지칭한다.Specifically, the AI module 162 analyzes the script signal converted by the first conversion unit 130, analyzes the meaning of the received voice information, and stores it in the storage unit 110 according to a predetermined dialogue model 164, And extracts the pre-stored script signal. The dialogue model 164 comprises a dialogue flow tree corresponding to dialogue semantics and dialogue order. Conversational meaning refers to the meaning that voice information is intended to convey, and conversation order refers to a conversation flow that can be naturally connected. The dialogue flow tree is a synthesis of dialog meaning and dialogue order. It is to understand the meaning of dialogue between the user and the dialogue device 1 using the artificial intelligence according to the present invention, Quot;

인공지능 모듈(162)은 대화 흐름 트리를 변경할 수 있다. 일 예로, 인공지능 모듈(162)은 사용자에 관한 데이터를 누적하여 분석함으로써 사용자의 성향을 파악하고, 각각의 사용자의 성향에 맞게 대화 흐름 트리를 변경할 수 있다. 일 예로, 등록사용자와 같은 장기 사용자가 있는 경우, 이러한 장기 사용자로부터 반복 수신되는 음성정보를 누적하여 저장하고, 저장된 음성정보들로부터 사용자에 관한 데이터를 분석한다. 또한 분석된 사용자에 관한 데이터를 기반으로, 그 사용자의 나이, 성별, 성향, 성격 등을 정립하고, 그에 맞추어 대화가 진행되도록 대화 흐름 트리를 변경할 수 있다.The AI module 162 may change the conversation flow tree. In one example, the AI module 162 can analyze the user's data by accumulating and analyzing data about the user, and change the conversation flow tree to suit each user's preference. For example, if there is a long-term user such as a registered user, the voice information repeatedly received from the long-term user is accumulated and stored, and the user-related data is analyzed from the stored voice information. In addition, based on the analyzed user data, the user can change the conversation flow tree so that the age, sex, inclinations, personality, and the like of the user are established and the conversation proceeds accordingly.

또는, 인공지능 모듈(162)은 기설정된 특정 계층의 사용자에 맞추어, 저장부(110)로부터 스크립트 신호를 선별적으로 추출할 수 있다. 일 예로 특정 계층은 성별, 나이, 직업 등일 수 있다. Alternatively, the artificial intelligence module 162 may selectively extract a script signal from the storage unit 110 in accordance with a user of a predetermined layer. For example, a particular class may be gender, age, occupation, and the like.

일 예로, 특정 계층은 1인 가구의 다수를 차지하는 청년층 또는 노년층으로 설정할 수 있다. 일 예로, 20대 여성의 청년층 또는 60대 이상의 노년층으로 설정할 수 있다. 이 경우, 설정된 특정 계층의 사용자는 외로움을 느끼는 경우가 많으므로, 이러한 감정을 보완할 수 있는 대화 흐름을 위해 대화 흐름 트리를 변경하거나, 또는 기설정된 바에 따라 외로움을 보완할 수 있는 키워드를 중심으로 스크립트 신호를 선별적으로 추출하여 후속 대화를 이어나가도록 할 수 있다.For example, a particular class may be a youth or an elderly person who occupies a large majority of single-person households. For example, it can be set up as a young person in their 20s or as an elderly person in their 60s or older. In this case, the user of the specified hierarchy often feels lonely. Therefore, the conversation flow tree may be changed for the conversation flow to compensate for such feelings, or the keyword may be supplemented with loneliness The script signal can be selectively extracted and the subsequent conversation can be continued.

또한, 인공지능 모듈(162)은 수신부(120)에 수신된 음성이 기등록된 사용자의 음성인 경우, 데이터 기록부(150)에 기저장된 대화 기록을 이용하여 기설정된 대화 모델(164)에 따라 스크립트 신호를 추출할 수 있다. 구체적으로, 사용자가 판별부(140)에 의해 등록된 사용자로 판별된 경우, 등록된 사용자의 성격, 성별, 나이 등을 분석하여 패턴화하여 기설정된 대화 모델(164)에 의해 대화를 이어나갈 수 있도록 한다. 일 예로, 등록사용자의 신상 등 개인정보가 입력되어 있으므로, 이에 근거하여 대화를 이어나갈 수 있도록 기설정된 대화 모델(164)에 의해 스크립트 신호를 추출할 수 있다. If the voice received by the receiving unit 120 is voice of a registered user, the artificial intelligence module 162 generates a script (not shown) according to the dialog model 164 previously set using the conversation history stored in the data recording unit 150, The signal can be extracted. Specifically, when the user is determined to be a user registered by the determination unit 140, the personality, sex, and age of the registered user are analyzed and patterned, and the dialogue model 164 can continue the conversation . For example, since the personal information such as the personal information of the registered user is inputted, the script signal can be extracted by the dialogue model 164 that is set up so that the conversation can be continued based on the personal information.

인공지능 모듈(162)은 사용자의 주된 관심사에 대한 대화를 이어나가도록 할 수 있다. 일 예로, 등록 사용자의 수신된 음성에 포함되는 키워드의 개수를 분석하고, 이를 기록할 수 있다. 이때 키워드는 등록 사용자의 주된 관심사에 관한 것으로서, 관심 키워드로서 기록된다. 인공지능 모듈(162)은 본 발명에 의한 인공지능을 이용한 대화 장치(1)의 전원이 오프 상태에서 온 상태가 되면, 이전에 관심 키워드로 등록된 키워드를 후술하는 음향부(180)를 통해 송출할 수 있다. 즉, 관심 키워드에 해당하는 스크립트 신호를 추출하여, 관심 키워드를 포함하는 음성을 송출함으로써, 자연스럽게 주된 관심사에 대한 대화를 이어나갈 수 있다. 이를 통해, 사용자는 편안함과 친근함을 느낄 수 있으며, 후속 대화를 이어나갈 수 있다.The AI module 162 may be able to continue the conversation about the user's primary interests. For example, the number of keywords included in the received voice of the registered user can be analyzed and recorded. At this time, the keyword is related to the main interest of the registered user and is recorded as a keyword of interest. The artificial intelligence module 162 transmits the keywords previously registered as the keyword of interest to the artificial intelligence module 162 through the sound unit 180 when the power of the conversation apparatus 1 using the artificial intelligence according to the present invention is turned on from the off state can do. That is, by extracting a script signal corresponding to a keyword of interest and transmitting a voice containing a keyword of interest, conversation on a main interest can be naturally continued. Through this, the user can feel comfortable and friendly, and can continue the follow-up conversation.

제2 변환부(170)는 신호 추출부(160)로부터 추출된 스크립트 신호를 음성으로 변환한다. 제2 변환부(170)는 다국어 음성을 지원할 수 있다.The second conversion unit 170 converts the script signal extracted from the signal extraction unit 160 into speech. The second conversion unit 170 may support multi-language voice.

음향부(180)는 제2 변환부(170)로부터 변환된 음성을 외부로 송출한다. 사용자는 음향부(180)로부터 송출된 음성을 듣고, 그에 맞추어 적절한 답변을 할 것이고, 사용자의 답변 음성은 다시 수신부(120)에 의해 수신되어 상기 과정들이 반복된다. 따라서, 사용자와 관계에서 계속적으로 대화가 이어질 수 있다.The acoustic unit 180 transmits the converted voice from the second conversion unit 170 to the outside. The user will listen to the voice transmitted from the sound unit 180 and respond accordingly, and the voice of the user is received again by the receiving unit 120 and the above processes are repeated. Thus, the conversation can be continued continuously in relation with the user.

음향부(180)는 위험 신호를 송출할 수 있다. 일 예로, 음향부(180)는 알람음을 발생시킬 수 있다. 구체적으로, 미등록 사용자의 음성이 소정 시간 연속하여 수신부(120)에 수신되는 경우, 음향부(180)는 알람음을 발생시킨다. 기등록된 사용자의 음성 수신없이, 미등록 사용자의 음성이 설정된 소정 시간 동안 계속해서 수신되는 경우, 타인의 주거 침입과 같은 상황이 발생한 것으로 간주하고, 위험 신호를 송출하여 위험 상황을 외부에 알릴 수 있다. 위험 신호는 경찰서 또는 보안업체와 같은 기관에 전달될 수 있다. 또는 음향부(180) 자체적으로 알람음을 발생시켜 직접적으로 외부에서도 위험 상황을 인지가능하도록 할 수 있다.The acoustic unit 180 can send a danger signal. In one example, the acoustic unit 180 may generate an alarm sound. Specifically, when the voice of the unregistered user is received by the receiving unit 120 continuously for a predetermined time, the acoustics unit 180 generates an alarm sound. When the voice of an unregistered user is continuously received for a predetermined time without receiving a voice of a previously registered user, it is considered that a situation such as a house invasion of another person has occurred, and a danger signal is transmitted to inform the outside of the dangerous situation . Hazardous signals can be communicated to agencies such as police or security companies. Alternatively, the acoustic unit 180 itself can generate an alarm sound so that the user can recognize the dangerous situation directly from the outside.

음향부(180)는 외부기기와 무선 연결될 수 있다. 일 예로, 음향부(180)는 외부기기와 근거리 무선 기술로 연결될 수 있다. 음향부(180)는 블루투스(bluetooth) 방식에 의해 외부기기와 연결될 수 있다. 음향부(180)는 외부 기기로부터 송신되는 신호를 수신하여 그 신호에 대응되는 음향을 송출할 수 있다.The acoustic unit 180 may be wirelessly connected to an external device. For example, the acoustic unit 180 may be connected to an external device through a short-range wireless technology. The acoustic unit 180 may be connected to an external device by a Bluetooth method. The acoustic unit 180 may receive a signal transmitted from an external device and transmit sound corresponding to the signal.

음향부(180)는 사용자의 성별과 다른 성별의 음성을 송출할 수 있다. 일 예로, 판별부(140)가 사용자의 성별을 남성으로 판별한 경우, 음향부(180)는 여성의 음성으로 음향을 송출할 수 있다.The acoustic unit 180 can transmit voice of a gender different from that of the user. For example, when the determination unit 140 determines that the user's sex is male, the acoustic unit 180 can transmit sound with the female voice.

도 4는 기능 유닛(200)의 구성을 보여주는 블럭도이고, 도 5는 인공지능을 이용한 대화 장치(1)를 보여주는 사시도이다. 아래에서는 도 4 및 도 5를 참조하며 기능 유닛(200)을 설명한다.Fig. 4 is a block diagram showing the configuration of the functional unit 200, and Fig. 5 is a perspective view showing the interactive apparatus 1 using artificial intelligence. The functional unit 200 will be described below with reference to Figs. 4 and 5. Fig.

기능 유닛(200)은 사용자가 시각적, 청각적, 그리고 후각적으로 소정의 효과를 인지할 수 있도록 기능을 수행한다. 일 예로, 본 발명에 의한 인공지능을 이용한 대화 장치(1)가 위치한 실내 주변 환경에 영향을 미침으로써, 사용자가 보다 안락함을 느낄 수 있도록 한다. 기능 유닛(200)은 하우징(210), 전원부(220), 조명부(230), 분사부(240), 표시부(250), 제어부(260)를 포함할 수 있다.The functional unit 200 performs functions so that the user can perceive a predetermined effect visually, audibly, and smell. For example, the present invention affects the indoor environment in which the conversation apparatus 1 using the artificial intelligence according to the present invention is located, thereby enabling the user to feel more comfortable. The functional unit 200 may include a housing 210, a power source 220, an illumination unit 230, a jetting unit 240, a display unit 250, and a control unit 260.

하우징(210)은 인공지능을 이용한 대화 장치(1)의 본체를 이룬다. 하우징(210)은 외관을 형성한다. 하우징(210) 내부에는 상술한 커뮤니케이션 유닛(100)이 설치될 수 있다.The housing 210 constitutes the body of the interactive apparatus 1 using artificial intelligence. The housing 210 forms an outer appearance. The communication unit 100 may be installed inside the housing 210.

전원부(220)는 본 발명에 의한 인공지능을 이용한 대화 장치(1)의 전원을 온-오프한다. The power supply unit 220 turns on / off the power of the interactive apparatus 1 using the artificial intelligence according to the present invention.

조명부(230)는 외부로 광을 발산할 수 있다. 조명부(230)는 하우징(210)의 내부에 설치될 수 있다. 조명부(230)는 무드등으로 제공될 수 있다.The illumination unit 230 can emit light to the outside. The illumination unit 230 may be installed inside the housing 210. The illumination unit 230 may be provided as a mood or the like.

분사부(240)는 외부로 액체를 발산할 수 있다. 액체는 물 또는 향수 중 적어도 어느 하나일 수 있다. 분사부(240)는 스프레이와 디퓨저를 포함할 수 있다. 스프레이는 물을 분무 형태로 비산시킬 수 있다. 디퓨저는 향수를 분무 형태로 비산시킬 수 있다. 따라서, 스프레이에 의해 실내는 가습효과를 얻을 수 있다. 디퓨저에 의해 실내는 악취제거 또는 방향 효과를 얻을 수 있다.The jetting section 240 can emit liquid to the outside. The liquid may be at least one of water or perfume. The jetting section 240 may include a sprayer and a diffuser. Sprays can scatter water in spray form. The diffuser can disperse perfume in spray form. Therefore, the humidification effect can be obtained in the room by spraying. By the diffuser, the odor can be removed or the direction effect can be obtained in the room.

표시부(250)는 소정의 정보를 디스플레이 할 수 있다. 소정의 정보는 수신부(120)에 음성을 발산하는 사용자의 정보, 실내 정보, 통신망에 의해 수신된 정보일 수 있다. 통신망은 인터넷과 같은 무선통신망일 수 있다. 통신망에 의해 수신되는 정보는 날씨와 같은 외부 정보일 수 있다. 사용자의 정보는 등록된 사용자인지 여부를 포함할 수 있다. 실내 정보는 실내 온도, 실내 습도 등을 포함할 수 있다.The display unit 250 can display predetermined information. The predetermined information may be information of a user who emits a voice to the receiving unit 120, room information, or information received by a communication network. The network may be a wireless network, such as the Internet. The information received by the network may be external information such as weather. The user's information may include whether or not the user is a registered user. The indoor information may include room temperature, indoor humidity, and the like.

제어부(260)는 조명부(230), 분사부(240), 그리고 전원부(220)를 제어할 수 있다. 제어부(260)는 사용자의 음성에 따라 조명부(230)와 분사부(240)의 작동을 온-오프 할 수 있다. 구체적으로, 사용자로부터 수신되는 음성 중 기설정된 특정 키워드가 포함되어 있는 경우, 이에 따라 조명부(230) 또는 분사부(240)가 온-오프 될 수 있다. 일 예로, 사용자가 '불을 끌 것'라는 의미를 가지는 키워드를 말하면, 이를 인식하여 조명부(230)의 전원을 오프할 수 있다.The control unit 260 may control the illumination unit 230, the jetting unit 240, and the power supply unit 220. The control unit 260 can turn on and off the operation of the illumination unit 230 and the jetting unit 240 according to the user's voice. Specifically, when the predetermined keyword is included in the voice received from the user, the illuminating unit 230 or the jetting unit 240 can be turned on / off accordingly. For example, if the user speaks a keyword meaning 'to turn off the light,' the power of the illumination unit 230 can be turned off by recognizing the keyword.

도 6은 본 발명에 의한 인공지능을 이용한 대화 방법을 순차적으로 보여주는 순서도이다. 아래에서는 도 6을 참조하여, 상술한 인공지능을 이용한 대화 장치(1)를 이용하여 인공지능을 이용한 대화 방법을 설명한다.FIG. 6 is a flowchart sequentially illustrating an artificial intelligence dialogue method according to the present invention. Hereinafter, referring to Fig. 6, a dialogue method using artificial intelligence will be described using the above-described dialog device 1 using artificial intelligence.

본 발명에 의한 인공지능을 이용한 대화 방법은 저장 단계(S110), 수신 단계(S120), 제1 변환 단계(S130), 판별 단계(S140), 데이터 기록 단계(S150), 신호 추출 단계(S160), 제2 변환 단계(S170), 그리고 음향 송출 단계(S180)를 포함할 수 있다.The dialogue method using the artificial intelligence according to the present invention may include a storing step S110, a receiving step S120, a first converting step S130, a determining step S140, a data recording step S150, a signal extracting step S160, , A second conversion step (S170), and an audio transmission step (S180).

저장 단계(S110)는 다수의 키워드를 신호화하여 스크립트 신호로 저장부(110)에 저장된다. 이 키워드들은 음향 송출 단계(S180)에서 음향부(180)를 통해 송출될 수 있다.In the storing step (S110), a plurality of keywords are signaled and stored as a script signal in the storage unit (110). These keywords may be transmitted through the acoustic unit 180 in the sound transmitting step S180.

수신 단계(S120)에서는 수신부(120)를 통해 사용자의 음성을 수신한다. 여기서 수신된 사용자의 음성의 의미를 분석하고 파악하여 적절한 답변을 음향 송출 단계(S180)에서 송출하면서 사용자와의 대화가 이루어지게 된다. In the receiving step (S120), the user's voice is received through the receiving unit (120). Here, the meaning of the received voice of the user is analyzed and grasped, and a proper answer is transmitted in an audio transmission step (S180), and conversation with the user is performed.

제1 변환 단계(S130)에서는 수신된 음성을 제1 변환부(130)가 음성 신호로 변환한다.In the first conversion step S130, the first conversion unit 130 converts the received voice into a voice signal.

판별 단계(S140)에서는 사용자의 정보를 판별한다. 일 예로, 판별부(140)가 사용자의 상태정보를 판별할 수 있다. 사용자의 감정상태를 판별할 수 있다. 또는 등록된 사용자인지 여부를 판별할 수 있다. 또는 사용자의 신상정보를 판별할 수 있다. 일 예로, 사용자의 나이, 성별 등을 판별할 수 있다.In the discriminating step S140, the information of the user is discriminated. For example, the determination unit 140 may determine the status information of the user. The emotion state of the user can be determined. Or whether the user is a registered user. Or the user's personal information. For example, the age, sex, etc. of the user can be determined.

데이터 기록 단계(S150)에서는 사용자의 음성을 기록, 저장할 수 있다. 또는 사용자와의 대화 기록을 기록, 저장할 수 있다. 기록, 저장된 대화 데이터는 인공지능 모듈(162)에 의해 후속 대화에서 활용되어, 사용자와의 자연스러운 대화가 이어질 수 있도록 한다.In the data recording step (S150), the voice of the user can be recorded and stored. Or record conversation records with the user. The recorded and stored conversation data is utilized in the subsequent conversation by the AI module 162 to allow natural conversation with the user to follow.

신호 추출 단계(S160)에서는 음성 신호에 대응되는 스크립트 신호를 추출한다. 신호 추출 단계(S160)에서는 신호 추출부(160)의 인공지능 모듈(162)에 의해서 스크립트 신호가 추출된다. 인공지능 모듈(162)에 의해 대화 모델(164)에 근거하여 사용자의 음성에 대한 대화가 유지될 수 있도록 적절한 답변이 될 수 있는 스크립트 신호를 추출한다. 대화 모델(164)은 대화 의미와 대화 순서에 대응되는 대화 흐름 트리로 구성될 수 있다.In the signal extraction step (S160), a script signal corresponding to the voice signal is extracted. In the signal extraction step (S160), a script signal is extracted by the artificial intelligence module (162) of the signal extraction unit (160). Extracts a script signal that can be an appropriate answer so that the conversation about the user's voice can be maintained by the artificial intelligence module 162 based on the dialog model 164. The dialogue model 164 may comprise a dialogue flow tree corresponding to dialogue meaning and dialogue order.

제2 변환 단계(S170)에서는 추출된 스크립트 신호를 제2 변환부(170)에서 음성으로 변환한다. 변환되는 음성은 다국어 지원이 가능하도록 제공될 수 있다. 또한, 남성 또는 여성의 음성, 그리고 다양한 연령대의 음성을 모두 지원가능하도록 제공될 수 있다. 이 음성들은 사용자의 특성에 맞추어 제공될 수 있다. 사용자가 속한 계층이나 집단에 맞추어 사용자가 선호하는 음성으로 제공될 수 있다.In the second conversion step (S170), the extracted script signal is converted into speech in the second conversion unit (170). The voice to be converted can be provided to enable multi-language support. It can also be provided to support both male and female voices and voices of various ages. These voices can be provided according to the characteristics of the user. And may be provided as a user-preferred voice according to the hierarchy or group to which the user belongs.

음향 송출 단계(S180)에서는 제2 변환 단계(S170)에서 변환된 음성을 음향부(180)로부터 외부로 송출한다. 송출되는 음향은 인간의 음성일 수 있다. 다국어, 성별, 나이 제한없이 다양한 유형의 음성이 송출될 수 있다. 또느, 인간의 음성 뿐 아니라, 외부 기기와 연결된 경우, 외부 기기에 의해 전달된 신호에 의해 다양한 음향을 송출할 수 있다. In the sound transmission step S180, the sound converted in the second conversion step S170 is transmitted from the sound unit 180 to the outside. The sound emitted can be human voice. Various types of voices can be sent out without limitation in multiple languages, gender, and age. In addition to human voice, when connected to an external device, various sounds can be transmitted by a signal transmitted by an external device.

상술한 실시예에서는 음성 인식을 이용한 대화방법이 저장 단계(S110), 수신 단계(S120), 제1 변환 단계(S130), 판별 단계(S140), 데이터 기록 단계(S150), 신호 추출 단계(S160), 제2 변환 단계(S170), 그리고 음향 송출 단계(S180)로 순차적으로 이루어지는 것으로 설명하였으나, 반드시 이에 한하는 것은 아니다. 일부 단계는 생략될 수 있으며, 또는 각 단계의 순서가 변경될 수 있다.In the above-described embodiment, the conversation method using speech recognition is performed in a storing step S110, a receiving step S120, a first converting step S130, a discriminating step S140, a data recording step S150, a signal extracting step S160 ), A second conversion step (S170), and an audio transmission step (S180). However, the present invention is not limited thereto. Some steps may be omitted, or the order of each step may be changed.

상술한 실시예에서는 판별부(140)가 판별하는 사용자의 정보를 예시적으로 감정상태, 나이, 성별, 직업 등으로 설명하였으나, 반드시 이에 한하는 것은 아니며, 사용자의 건강상태와 같은 다양한 사용자의 정보를 판별할 수 있다. 이러한 사용자 정보는 표시부(250)에 디스플레이 될 수 있다.In the above-described embodiment, the information of the user determined by the determining unit 140 is exemplarily described as an emotion state, an age, a sex, a job, and the like. However, the present invention is not limited thereto. Can be determined. Such user information may be displayed on the display unit 250. [

이상의 상세한 설명은 본 발명을 예시하는 것이다. 또한 전술한 내용은 본 발명의 바람직한 실시 형태를 나타내어 설명하는 것이며, 본 발명은 다양한 다른 조합, 변경 및 환경에서 사용할 수 있다. 즉 본 명세서에 개시된 발명의 개념의 범위, 저술한 개시 내용과 균등한 범위 및/또는 당업계의 기술 또는 지식의 범위내에서 변경 또는 수정이 가능하다. 저술한 실시예는 본 발명의 기술적 사상을 구현하기 위한 최선의 상태를 설명하는 것이며, 본 발명의 구체적인 적용 분야 및 용도에서 요구되는 다양한 변경도 가능하다. 따라서 이상의 발명의 상세한 설명은 개시된 실시 상태로 본 발명을 제한하려는 의도가 아니다. 또한 첨부된 청구범위는 다른 실시 상태도 포함하는 것으로 해석되어야 한다.The foregoing detailed description is illustrative of the present invention. In addition, the foregoing is intended to illustrate and explain the preferred embodiments of the present invention, and the present invention may be used in various other combinations, modifications, and environments. That is, it is possible to make changes or modifications within the scope of the concept of the invention disclosed in this specification, within the scope of the disclosure, and / or within the skill and knowledge of the art. The embodiments described herein are intended to illustrate the best mode for implementing the technical idea of the present invention and various modifications required for specific applications and uses of the present invention are also possible. Accordingly, the detailed description of the invention is not intended to limit the invention to the disclosed embodiments. It is also to be understood that the appended claims are intended to cover such other embodiments.

1: 인공지능을 이용한 대화 장치 100: 커뮤니케이션 유닛
110: 저장부 120: 수신부
140: 판별부 160: 신호 추출부
200: 기능 유닛 230: 조명부
240: 분사부 260: 제어부
1: Communication device 100 using artificial intelligence: Communication unit
110: storage unit 120: receiving unit
140: discrimination unit 160: signal extraction unit
200: function unit 230: illumination unit
240: jetting section 260:

Claims (7)

키워드를 신호화하여 스크립트 신호로 저장하는 저장부;
사용자의 음성을 인식하는 수신부;
상기 수신부로부터 수신된 음성을 신호화하여 음성 신호로 변환하는 제1 변환부;
수신된 상기 음성 또는 변환된 상기 음성 신호로부터 사용자의 정보를 판단하는 판별부;
상기 음성 신호에 대응되는 스크립트 신호를 추출하는 신호 추출부;
상기 신호 추출부로부터 추출된 스크립트 신호를 음성으로 변환하는 제2 변환부; 및
상기 제2 변환부에서 변환된 음성을 송출하는 음향부를 포함하고,
상기 신호 추출부는 인공지능 모듈에 의해서 상기 음성 신호에 대응되는 스크립트 신호를 추출하되,
상기 인공지능 모듈은,
상기 제1 변환부에서 변환된 스크립트 신호를 분석하여 수신된 음성 정보의 의미를 분석하고, 기설정된 대화 모델에 따라 상기 저장부에 기저장된 스크립트 신호를 추출하며,
상기 대화 모델은,
대화 의미와 대화 순서에 대응되는 대화 흐름 트리로 구성되는 인공지능을 이용한 대화 장치.
A storage unit for storing a keyword as a script signal;
A receiving unit for recognizing the user's voice;
A first converting unit for converting a voice received from the receiving unit into a voice signal;
A determination unit for determining user information from the received voice or the converted voice signal;
A signal extracting unit for extracting a script signal corresponding to the voice signal;
A second conversion unit for converting the script signal extracted from the signal extraction unit into speech; And
And an acoustic unit for transmitting the voice converted by the second conversion unit,
Wherein the signal extracting unit extracts a script signal corresponding to the speech signal by an artificial intelligence module,
The artificial intelligence module includes:
Analyzing the meaning of the received voice information by analyzing the converted script signal in the first conversion unit, extracting a previously stored script signal in the storage unit according to a predetermined dialogue model,
The conversation model includes:
A dialogue device using artificial intelligence composed of dialogue meaning and dialogue flow tree corresponding to dialogue order.
제1항에 있어서,
상기 인공지능 모듈은,
수신되는 사용자의 음성정보를 누적하여 저장하고, 저장된 상기 음성정보들로부터 사용자에 관한 데이터를 분석하고,
상기 분석된 사용자에 관한 데이터를 기반으로 상기 대화 흐름 트리를 변경하는 인공지능을 이용한 대화 장치.
The method according to claim 1,
The artificial intelligence module includes:
Accumulates and stores voice information of the received user, analyzes data related to the user from the stored voice information,
And changing the conversation flow tree based on the analyzed user-related data.
제2항에 있어서,
상기 인공지능 모듈은,
수신되는 상기 사용자 음성을 분석하여 사용자의 상태정보를 파악하고, 파악된 상태정보로부터 대응되는 스크립트 신호를 추출하며,
상기 음향부는 상기 사용자의 상태정보에 따라 기설정된 주파수 및 크기의 음성을 송출하되,
상기 사용자의 상태정보는,
사용자의 감정, 나이 및 성별 중 적어도 어느 하나를 포함하는 인공지능을 이용한 대화 장치.
3. The method of claim 2,
The artificial intelligence module includes:
Analyzing the received user voice to grasp the status information of the user, extracting a corresponding script signal from the detected status information,
Wherein the sound unit transmits a voice of a predetermined frequency and size according to the status information of the user,
The status information of the user includes:
And at least one of emotion, age, and sex of the user.
제3항에 있어서,
상기 음향부는,
미등록 사용자의 음성이 소정 시간 연속하여 상기 수신부에 수신되는 경우, 위험 신호를 송출하는 인공지능을 이용한 대화 장치.
The method of claim 3,
The acoustic unit includes:
And a danger signal is transmitted when an unregistered user's voice is received by the receiving unit continuously for a predetermined time.
제4항에 있어서,
본체를 이루는 하우징;
외부로 광을 발산하는 조명부;
외부로 액체를 분사하는 분사부;
소정의 정보를 디스플레이하는 표시부; 및
상기 조명부와 상기 분사부를 제어하는 제어부를 더 포함하되,
상기 조명부는 무드등으로 제공되고,
상기 분사부는,
물을 분사하는 스프레이와,
향수를 분사하는 디퓨저를 포함하며,
상기 제어부는,
상기 수신부에서 수신되는 음성 중 기설정된 키워드가 포함되어 있는 경우, 상기 조명부와 상기 분사부의 전원을 온-오프하고,
상기 음향부는 다국어 음성이 지원가능하고, 외부기기와 무선 연결되어, 상기 외부 기기로부터 송신되는 신호를 수신하여 그 신호에 대응되는 음향을 송출하며,
상기 표시부에 표시되는 상기 소정의 정보는 상기 수신부에 음성을 발산하는 사용자의 정보 또는 통신망에 의해 수신된 정보인 인공지능을 이용한 대화 장치.
5. The method of claim 4,
A housing constituting a main body;
An illumination unit for emitting light to the outside;
A jetting portion for jetting liquid to the outside;
A display unit for displaying predetermined information; And
Further comprising a control unit for controlling the illumination unit and the injection unit,
The illumination unit is provided in a mood or the like,
The injection unit
A spray for spraying water,
A diffuser for spraying perfume,
Wherein,
Wherein when the predetermined keyword is included in the sound received by the receiving unit, the controller turns on / off the power of the illumination unit and the injection unit,
The acoustic unit is capable of supporting multi-lingual voice, wirelessly connecting with an external device, receiving a signal transmitted from the external device, and transmitting sound corresponding to the signal,
Wherein the predetermined information displayed on the display unit is information received from the user via the communication network or information of a user who emits a voice to the receiving unit.
키워드를 신호화하여 스크립트 신호로 저장하는 저장 단계;
사용자의 음성을 수신하는 수신 단계;
상기 수신된 음성을 신호화하여 음성 신호로 변환하는 제1 변환 단계;
상기 수신 단계에서 수신된 음성 또는 제1 변환 단계에서 변환된 음성 신호 로부터 사용자의 정보를 판단하는 판별 단계;
상기 음성 신호에 대응되는 스크립트 신호를 추출하는 신호 추출 단계;
상기 추출된 스크립트 신호를 음성으로 변환하는 제2 변환 단계; 및
상기 변환된 음성을 송출하는 음향 송출 단계;를 포함하고,
상기 신호 추출 단계에서는,
인공지능에 의해 상기 제1 변환 단계에서 변환된 스크립트 신호를 분석하여 수신된 음성 정보의 의미를 분석하고, 기설정된 대화 모델에 따라서 상기 저장단계에서 저장된 스크립트 신호를 추출하며,
상기 대화 모델은, 대화 의미와 대화 순서에 대응되는 대화 흐름 트리로 구성되고,
상기 판별 단계는,
상기 사용자의 음성을 분석하여 사용자의 상태정보를 파악하고,
상기 음향 송출 단계에서는 상기 사용자의 상태정보에 따라 기설정된 주파수 및 크기의 음성을 송출하며,
상기 신호 추출 단계에서는,
수신되는 사용자의 음성 정보를 누적하여 저장하고, 사용자에 관한 데이터를 분석하여, 상기 분석된 데이터를 기반으로 인공지능에 의해 상기 대화 흐름 트리를 변경하는 인공지능을 이용한 대화 방법.
A storing step of storing a keyword as a script signal;
A receiving step of receiving a user's voice;
A first conversion step of converting the received voice signal into a voice signal;
A discriminating step of discriminating the user's information from the voice received in the receiving step or the voice signal converted in the first converting step;
A signal extracting step of extracting a script signal corresponding to the voice signal;
A second conversion step of converting the extracted script signal into speech; And
And an audio transmitting step of transmitting the converted voice,
In the signal extracting step,
Analyzing the meaning of the received voice information by analyzing the script signal converted in the first conversion step by artificial intelligence, extracting the script signal stored in the storing step according to a predetermined dialogue model,
Wherein the dialogue model comprises a dialogue flow tree corresponding to a dialogue meaning and a dialogue order,
Wherein,
Analyzes the voice of the user to grasp the status information of the user,
In the sound transmitting step, a voice having a predetermined frequency and size is transmitted according to the status information of the user,
In the signal extracting step,
A dialogue method using artificial intelligence that accumulates and stores voice information of a received user, analyzes data about a user, and changes the conversation flow tree by artificial intelligence based on the analyzed data.
제6항에 있어서,
상기 신호 추출 단계에서는,
기설정된 특정 계층의 사용자에 맞추어, 인공지능에 의해 상기 스크립트 신호를 추출하되,
상기 특정 계층은, 성별, 나이 및 직업 중 적어도 어느 하나를 포함하는 인공지능을 이용한 대화 방법.
The method according to claim 6,
In the signal extracting step,
Extracting the script signal by artificial intelligence according to a user of a predetermined layer,
Wherein the specific layer includes at least one of sex, age, and occupation.
KR1020160141804A 2016-10-28 2016-10-28 Apparatus and method for conversaion using artificial intelligence KR20180046550A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160141804A KR20180046550A (en) 2016-10-28 2016-10-28 Apparatus and method for conversaion using artificial intelligence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160141804A KR20180046550A (en) 2016-10-28 2016-10-28 Apparatus and method for conversaion using artificial intelligence

Publications (1)

Publication Number Publication Date
KR20180046550A true KR20180046550A (en) 2018-05-09

Family

ID=62200717

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160141804A KR20180046550A (en) 2016-10-28 2016-10-28 Apparatus and method for conversaion using artificial intelligence

Country Status (1)

Country Link
KR (1) KR20180046550A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102098003B1 (en) * 2018-10-11 2020-04-07 삼성생명보험주식회사 Method, apparatus and computer-readable medium for operating chatbot
WO2020196955A1 (en) * 2019-03-27 2020-10-01 엘지전자 주식회사 Artificial intelligence device and method for operation of artificial intelligence device
KR20230099936A (en) 2021-12-28 2023-07-05 (주)스마일게이트엔터테인먼트 A dialogue friends porviding system based on ai dialogue model

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102098003B1 (en) * 2018-10-11 2020-04-07 삼성생명보험주식회사 Method, apparatus and computer-readable medium for operating chatbot
WO2020196955A1 (en) * 2019-03-27 2020-10-01 엘지전자 주식회사 Artificial intelligence device and method for operation of artificial intelligence device
US11580969B2 (en) 2019-03-27 2023-02-14 Lg Electronics Inc. Artificial intelligence device and method of operating artificial intelligence device
KR20230099936A (en) 2021-12-28 2023-07-05 (주)스마일게이트엔터테인먼트 A dialogue friends porviding system based on ai dialogue model

Similar Documents

Publication Publication Date Title
US11823681B1 (en) Accessory for a voice-controlled device
KR102374910B1 (en) Voice data processing method and electronic device supporting the same
KR101336641B1 (en) Emotional Sympathy Robot Service System and Method of the Same
KR102543693B1 (en) Electronic device and operating method thereof
KR102445382B1 (en) Voice processing method and system supporting the same
KR102409303B1 (en) Method and Apparatus for Voice Recognition
KR20190109868A (en) System and control method of system for processing sound data
KR100825719B1 (en) Method for generating emotions and emotions generating robot
CN112513833A (en) Electronic device and method for providing artificial intelligence service based on presynthesized dialog
US10789948B1 (en) Accessory for a voice controlled device for output of supplementary content
KR102421824B1 (en) Electronic device for providing voice based service using external device and operating method thereof, the external device and operating method thereof
KR20210010270A (en) Robot and method for recognizinig wake-up word thereof
KR20200143764A (en) Emotional Sympathy Service System and Method of the Same
KR20190008663A (en) Voice data processing method and system supporting the same
WO2018155116A1 (en) Information processing device, information processing method, and computer program
CN111919248A (en) System for processing user utterances and control method thereof
KR20180046550A (en) Apparatus and method for conversaion using artificial intelligence
US11222638B2 (en) Communication device and control program for communication device
KR102511517B1 (en) Voice input processing method and electronic device supportingthe same
KR102421745B1 (en) System and device for generating TTS model
JP6598369B2 (en) Voice management server device
WO2020021861A1 (en) Information processing device, information processing system, information processing method, and information processing program
KR102519635B1 (en) Method for displaying an electronic document for processing a voice command and electronic device thereof
CN112219235A (en) System comprising an electronic device for processing a user's speech and a method for controlling speech recognition on an electronic device
CN113314115B (en) Voice processing method of terminal equipment, terminal equipment and readable storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E601 Decision to refuse application