KR20180046550A - Apparatus and method for conversaion using artificial intelligence - Google Patents
Apparatus and method for conversaion using artificial intelligence Download PDFInfo
- Publication number
- KR20180046550A KR20180046550A KR1020160141804A KR20160141804A KR20180046550A KR 20180046550 A KR20180046550 A KR 20180046550A KR 1020160141804 A KR1020160141804 A KR 1020160141804A KR 20160141804 A KR20160141804 A KR 20160141804A KR 20180046550 A KR20180046550 A KR 20180046550A
- Authority
- KR
- South Korea
- Prior art keywords
- voice
- signal
- unit
- user
- script
- Prior art date
Links
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 54
- 238000000034 method Methods 0.000 title claims abstract description 23
- 238000006243 chemical reaction Methods 0.000 claims abstract description 31
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 239000000284 extract Substances 0.000 claims abstract description 11
- 230000006854 communication Effects 0.000 claims description 16
- 238000004891 communication Methods 0.000 claims description 16
- 238000005286 illumination Methods 0.000 claims description 14
- 238000005507 spraying Methods 0.000 claims description 5
- 230000008451 emotion Effects 0.000 claims description 4
- 238000002347 injection Methods 0.000 claims description 4
- 239000007924 injection Substances 0.000 claims description 4
- 239000007788 liquid Substances 0.000 claims description 4
- 239000002304 perfume Substances 0.000 claims description 4
- 239000007921 spray Substances 0.000 claims description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 4
- 230000036651 mood Effects 0.000 claims description 3
- 230000011664 signaling Effects 0.000 abstract description 3
- 241000282414 Homo sapiens Species 0.000 description 13
- 230000002452 interceptive effect Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000002996 emotional effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 230000005281 excited state Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 206010037180 Psychiatric symptoms Diseases 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 230000009545 invasion Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- H05B37/02—
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
본 발명은 인공지능을 이용한 대화 장치 및 방법에 관한 것으로서, 구체적으로는 음성 인식을 통한 인공 지능 대화 장치 및 방법에 관한 것이다.BACKGROUND OF THE
음성 인식이란 기계로 하여금 인간의 일상적인 음성을 이해하고 이해된 음성에 따라 업무를 수행하게 하는 것을 말한다.Speech Recognition refers to the ability of a machine to understand the daily voice of humans and perform tasks according to the understood voice.
음성 인식의 기술은 컴퓨터와 정보 통신의 발달로 인해 인간이 직접 움직이지 않고서도 원거리에서 정보를 손쉽게 얻을 수 있으며, 음성에 따라 작동하는 시스템으로 이루어진 기기들의 개발로 이어지고 있다.The technology of speech recognition is leading to the development of devices composed of a system that can easily obtain information from a remote place and operate according to voice due to development of computer and information communication.
이러한 음성 인식 기술을 바탕으로 다양한 음성 인식 응용 시스템이 개발되고 있으며, 그 중의 하나는 사용자가 발성한 언어에 따라 원하는 정보를 안내하는 시스템이다. 예를 들어, 어느 단체의 전화 번호 안내 시스템이 있다고 가정할 때, 사용자가 찾고자 하는 부서의 명칭을 음성으로 발성을 하게 되면 해당 부서의 전화번호를 사용자의 모니터 상에 디스플레이하는 시스템을 생각할 수 있다.Various speech recognition application systems have been developed based on the speech recognition technology, and one of them is a system for guiding desired information according to a user's spoken language. For example, supposing that there is a telephone number guidance system of a certain group, a system in which a telephone number of a corresponding department is displayed on a monitor of a user when the user speaks the name of the department to be searched by voice.
이와 같이, 종래의 음성 인식 시스템들은 인간의 음성을 일방적으로 받아들이고, 인간의 음성에 따라 그 요구를 처리하는 일방향적인 시스템에 머무르고 있었다. 또한, 인간과 서로 대화를 통해 쌍방향으로 교류하는 시스템은, 그 필요성이 날로 증대됨에도 불구하고, 기술이 충분하지 못하다.In this way, conventional speech recognition systems have unilaterally accepted a human voice unilaterally, and have remained in a one-way system that processes the request according to human voice. In addition, systems that interact with humans in a bidirectional manner through dialogue with each other are inadequate in technology, although the necessity is increasing day by day.
한편, 최근에 1인 가구가 늘어나면서, 인간은 혼자 있는 시간이 늘어나게 되면서, 공감을 주고 받으며 대화를 나눌 상대가 부족하다. 따라서, 인간의 대화 상대로서 쌍방향 대화가 가능한 대화 장치 혹은 대화 시스템의 필요성은 날로 커지고 있다. 그러나, 종래의 시스템은 인간의 대화를 충분히 인지하거나 학습하지 못하므로, 대화에 한계가 있다는 문제점이 있었다. 특히, 사회적인 소외 계층의 경우에는 대화상대의 필요성이 더욱 큼에도 불구하고, 인간과 서로 대화가 가능한 장치나 시스템이 충분히 준비되지 않고 있다. 또한, 소외 계층 뿐 아니라, 인간은 나이, 성별, 성격, 관심사 등 개인마다 각기 다른 개성과 성향을 가지고 있는데, 각기 다른 개인의 개성에 맞추어 맞춤형 대화를 할 수 있는 시스템에 대한 요구도 이어지고 있다.On the other hand, as the number of single-person households has increased recently, the number of people living alone has increased, and there is not enough people to share and communicate with each other. Therefore, the necessity of a conversation apparatus or a conversation system capable of interactive conversation as a human conversation partner is increasing day by day. However, the conventional system does not fully understand or learn human conversation, so there is a problem that conversation is limited. Especially, in the case of the social marginalized people, although the necessity of conversation partner is greater, there are not enough devices or systems capable of communicating with human beings. In addition, not only marginalized people but also human beings have different personality and tendencies for each individual such as age, sex, personality, and interest, and there is a demand for a system capable of customized conversation according to the personality of each individual.
또한, 1인 가구에서는 안전 및 보안의 필요성도 강화되고 있으며, 다양한 보안 시스템이 개발되고 있으나, 현재는 인공지능과 음성 인식장치를 이용하여 이와 연동되는 안전 또는 보안 시스템이 개발되지는 않고 있는 실정이다.In addition, the security and security need is strengthened in one-person households, and a variety of security systems are being developed, but nowadays there is no safety or security system that is interlocked with artificial intelligence and voice recognition device .
본 발명은 인간과 쌍방향 소통이 가능한 인공지능을 이용한 대화 장치 및 방법을 제공하기 위한 것이다.The present invention is intended to provide a dialogue apparatus and method using artificial intelligence capable of interacting with human beings.
또한, 안전과 보안 기능이 포함된 인공지능을 이용한 대화 장치 및 방법을 제공하기 위한 것이다.The present invention also provides a communication apparatus and method using artificial intelligence including security and security functions.
본 발명의 목적은 여기에 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited thereto, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.
본 발명은 인공지능을 이용한 대화 장치를 제공한다.The present invention provides a communication device using artificial intelligence.
본 발명의 일 실시예에 따르면, 키워드를 신호화하여 스크립트 신호로 저장하는 저장부; 사용자의 음성을 인식하는 수신부; 상기 수신부로부터 수신된 음성을 신호화하여 음성 신호로 변환하는 제1 변환부; 수신된 상기 음성 또는 변환된 상기 음성 신호로부터 사용자의 정보를 판단하는 판별부; 상기 음성 신호에 대응되는 스크립트 신호를 추출하는 신호 추출부; 상기 신호 추출부로부터 추출된 스크립트 신호를 음성으로 변환하는 제2 변환부; 상기 제2 변환부에서 변환된 음성을 송출하는 음향부를 포함하고, 상기 신호 추출부는 인공지능 모듈에 의해서 상기 음성 신호에 대응되는 스크립트 신호를 추출하되, 상기 인공지능 모듈은, 상기 제1 변환부에서 변환된 스크립트 신호를 분석하여 수신된 음성 정보의 의미를 분석하고, 기설정된 대화 모델에 따라 상기 저장부에 기저장된 스크립트 신호를 추출하며, 상기 대화 모델은, 대화 의미와 대화 순서에 대응되는 대화 흐름 트리로 구성된다.According to an embodiment of the present invention, there is provided a storage medium for storing a script signal for signaling a keyword; A receiving unit for recognizing the user's voice; A first converting unit for converting a voice received from the receiving unit into a voice signal; A determination unit for determining user information from the received voice or the converted voice signal; A signal extracting unit for extracting a script signal corresponding to the voice signal; A second conversion unit for converting the script signal extracted from the signal extraction unit into speech; And the sound extracting unit extracts a script signal corresponding to the voice signal by the artificial intelligence module, and the artificial intelligence module extracts a script signal corresponding to the voice signal from the first conversion unit Analyzing the converted script signal, analyzing the meaning of the received speech information, extracting a script signal pre-stored in the storage unit according to a predetermined dialogue model, the dialogue model including a dialogue meaning and a dialogue flow corresponding to the dialogue order Tree.
일 실시예에 따르면, 상기 인공지능 모듈은, 수신되는 사용자의 음성정보를 누적하여 저장하고, 저장된 상기 음성정보들로부터 사용자에 관한 데이터를 분석하고, 상기 분석된 사용자에 관한 데이터를 기반으로 상기 대화 흐름 트리를 변경한다.According to one embodiment, the artificial intelligence module accumulates and stores voice information of a user to be received, analyzes data on the user from the stored voice information, and transmits the conversation based on the analyzed user- Change the flow tree.
일 실시예에 따르면, 상기 인공지능 모듈은, 수신되는 상기 사용자 음성을 분석하여 사용자의 상태정보를 파악하고, 파악된 상태정보로부터 대응되는 스크립트 신호를 추출하며, 상기 음향부는 상기 사용자의 상태정보에 따라 기설정된 주파수 및 크기의 음성을 송출하되, 상기 사용자의 상태정보는, 사용자의 감정, 나이, 성별 중 적어도 어느 하나를 포함한다.According to an embodiment, the artificial intelligence module analyzes state information of a user by analyzing the received user voice, extracts a corresponding script signal from the detected state information, The user's state information includes at least one of emotion, age, and gender of the user.
일 실시예에 따르면, 상기 음향부는, 미등록 사용자의 음성이 소정 시간 연속하여 상기 수신부에 수신되는 경우, 위험 신호를 송출한다.According to an embodiment, the sound unit transmits a danger signal when an unregistered user's voice is received by the receiving unit continuously for a predetermined time.
일 실시예에 따르면, 본체를 이루는 하우징; 외부로 광을 발산하는 조명부; 외부로 액체를 분사하는 분사부; 소정의 정보를 디스플레이하는 표시부; 상기 조명부와 상기 분사부를 제어하는 제어부를 더 포함하되, 상기 조명부는 무드등으로 제공되고, 상기 분사부는, 물을 분사하는 스프레이와, 향수를 분사하는 디퓨저를 포함하며, 상기 제어부는, 상기 수신부에서 수신되는 음성 중 기설정된 키워드가 포함되어 있는 경우, 상기 조명부와 상기 분사부의 전원을 온-오프하고, 상기 음향부는 다국어 음성이 지원가능하고, 외부기기와 무선 연결되어, 상기 외부 기기로부터 송신되는 신호를 수신하여 그 신호에 대응되는 음향을 송출하며, 상기 표시부에 표시되는 상기 소정의 정보는 상기 수신부에 음성을 발산하는 사용자의 정보 또는 통신망에 의해 수신된 정보이다.According to one embodiment, there is provided a portable terminal comprising: a housing constituting a main body; An illumination unit for emitting light to the outside; A jetting portion for jetting liquid to the outside; A display unit for displaying predetermined information; Wherein the illumination unit is provided in a mood or the like, and the injection unit includes a sprayer for spraying water and a diffuser for spraying perfume, wherein the control unit controls the sprayer unit And a controller for controlling the power of the illuminating unit and the jetting unit to be turned on and off when a preset keyword among the received voice is included, wherein the sound unit is capable of supporting multi-lingual voice, And transmits the sound corresponding to the signal, and the predetermined information displayed on the display unit is information of a user that emits a sound to the receiving unit or information received by a communication network.
본 발명은 인공지능을 이용한 대화 방법을 제공한다.The present invention provides a dialogue method using artificial intelligence.
본 발명의 일 실시예에 따르면, 키워드를 신호화하여 스크립트 신호로 저장하는 저장 단계; 사용자의 음성을 수신하는 수신 단계; 상기 수신된 음성을 신호화하여 음성 신호로 변환하는 제1 변환 단계; 상기 수신 단계에서 수신된 음성 또는 제1 변환 단계에서 변환된 음성 신호 로부터 사용자의 정보를 판단하는 판별 단계; 상기 음성 신호에 대응되는 스크립트 신호를 추출하는 신호 추출 단계; 상기 추출된 스크립트 신호를 음성으로 변환하는 제2 변환 단계; 상기 변환된 음성을 송출하는 음향 송출 단계;를 포함하고, 상기 신호 추출 단계에서는, 인공지능에 의해 상기 제1 변환 단계에서 변환된 스크립트 신호를 분석하여 수신된 음성 정보의 의미를 분석하고, 기설정된 대화 모델에 따라서 상기 저장단계에서 저장된 스크립트 신호를 추출하며, 상기 대화 모델은, 대화 의미와 대화 순서에 대응되는 대화 흐름 트리로 구성되고, 상기 판별 단계는, 상기 사용자의 음성을 분석하여 사용자의 상태정보를 파악하고, 상기 음향 송출 단계에서는 상기 사용자의 상태정보에 따라 기설정된 주파수 및 크기의 음성을 송출하며, 상기 신호 추출 단계에서는, 수신되는 사용자의 음성 정보를 누적하여 저장하고, 사용자에 관한 데이터를 분석하여, 상기 분석된 데이터를 기반으로 인공지능에 의해 상기 대화 흐름 트리를 변경한다.According to an embodiment of the present invention, there is provided a method of generating a script, the method comprising: storing a keyword as a script signal; A receiving step of receiving a user's voice; A first conversion step of converting the received voice signal into a voice signal; A discriminating step of discriminating the user's information from the voice received in the receiving step or the voice signal converted in the first converting step; A signal extracting step of extracting a script signal corresponding to the voice signal; A second conversion step of converting the extracted script signal into speech; And analyzing the meaning of the received voice information by analyzing the script signal converted in the first conversion step by the artificial intelligence, Extracting a script signal stored in the storing step according to a dialogue model, wherein the dialogue model comprises a dialogue flow tree corresponding to a dialogue meaning and a dialogue order, and the determining step analyzes the user's speech In the sound transmission step, a voice having a preset frequency and size is transmitted according to the status information of the user. In the signal extracting step, the voice information of the user to be received is accumulated and stored, , And the interactive flow tree is changed by artificial intelligence based on the analyzed data The.
일 실시예에 따르면, 상기 신호 추출 단계에서는, 기설정된 특정 계층의 사용자에 맞추어, 인공 지능에 의해 상기 스크립트 신호를 추출하되, 상기 특정 계층은, 성별, 나이 및 직업 중 적어도 어느 하나를 포함한다.According to one embodiment, in the signal extracting step, the script signal is extracted by artificial intelligence according to a user of a predetermined layer, and the specific layer includes at least one of sex, age, and occupation.
본 발명의 일 실시 예에 의하면, 인공지능을 이용하여 인간과 쌍방향 소통이 가능하다.According to an embodiment of the present invention, bi-directional communication with a human is possible using artificial intelligence.
또한, 본 발명의 일 실시 예에 의하면, 인공지능 및 음성인식을 통해 사용자의 안전과 보안을 담보할 수 있다. In addition, according to an embodiment of the present invention, security and security of a user can be secured through artificial intelligence and speech recognition.
본 발명의 효과가 상술한 효과들로 한정되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-mentioned effects, and the effects not mentioned can be clearly understood by those skilled in the art from the present specification and attached drawings.
도 1은 본 발명에 의한 인공지능을 이용한 대화 장치의 구성을 간략하게 보여주는 블럭도이다.
도 2는 커뮤니케이션 유닛의 구성을 보여주는 블럭도이다.
도 3은 신호 추출부의 작동원리를 간략하게 보여주는 블럭도이다.
도 4는 기능 유닛의 구성을 보여주는 블럭도이다.
도 5는 본 발명에 의한 인공지능을 이용한 대화 장치를 보여주는 사시도이다.
도 6은 본 발명에 의한 인공지능을 이용한 대화 방법을 순차적으로 보여주는 순서도이다.1 is a block diagram briefly showing a configuration of an interactive apparatus using artificial intelligence according to the present invention.
2 is a block diagram showing the configuration of the communication unit.
3 is a block diagram briefly showing the operation principle of the signal extracting unit.
4 is a block diagram showing the configuration of the functional unit.
FIG. 5 is a perspective view showing an interactive apparatus using artificial intelligence according to the present invention.
FIG. 6 is a flowchart sequentially illustrating an artificial intelligence dialogue method according to the present invention.
이하, 본 발명의 실시 예를 첨부된 도면들을 참조하여 더욱 상세하게 설명한다. 본 발명의 실시 예는 여러 가지 형태로 변형할 수 있으며, 본 발명의 범위가 아래의 실시 예들로 한정되는 것으로 해석되어서는 안 된다. 본 실시 예는 당업계에서 평균적인 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위해 제공되는 것이다. 따라서 도면에서의 요소의 형상은 보다 명확한 설명을 강조하기 위해 과장된 것이다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The embodiments of the present invention can be modified in various forms, and the scope of the present invention should not be construed as being limited to the following embodiments. This embodiment is provided to more fully describe the present invention to those skilled in the art. The shape of the elements in the figures is therefore exaggerated to emphasize a clearer description.
이하, 도 1 내지 도 6을 참조하여 본 발명의 일 예를 상세히 설명한다.Hereinafter, an example of the present invention will be described in detail with reference to FIGS. 1 to 6. FIG.
도 1은 본 발명에 의한 인공지능을 이용한 대화 장치의 구성을 간략하게 보여주는 블럭도이다. 도 2은 커뮤니케이션 유닛의 구성을 보여주는 블럭도이며, 도 3는 신호 추출부(160)의 작동원리를 간략하게 보여주는 블럭도이고, 도 4는 기능 유닛(200)의 구성을 보여주는 블럭도이고, 도 5는 본 발명에 의한 인공지능을 이용한 대화 장치를 보여주는 사시도이다.1 is a block diagram briefly showing a configuration of an interactive apparatus using artificial intelligence according to the present invention. FIG. 2 is a block diagram showing the configuration of the communication unit, FIG. 3 is a block diagram briefly showing the operation principle of the
도 1 내지 도 5를 참조하면, 본 발명에 의한 인공지능을 이용한 대화 장치(1)는 커뮤니케이션 유닛(100)과 기능 유닛(200)을 포함한다.Referring to FIGS. 1 to 5, an artificial intelligence
커뮤니케이션 유닛(100)은 인간, 즉 사용자의 음성을 인식하고, 인공지능을 통해 사용자의 말에 적절한 답변을 음성으로 송출한다. 즉, 커뮤니케이션 유닛(100)을 통해 인간과 대화가 이어질 수 있도록 한다.The
커뮤니케이션 유닛(100)은 저장부(110), 수신부(120), 제1 변환부(130), 판별부(140), 데이터 기록부(150), 신호 추출부(160), 제2 변환부(170), 음향부(180)를 포함한다.The
저장부(110)는 키워드를 신호화하여 스크립트 신호로 저장한다. 키워드는 후술하는 음향부(180)를 통해 송출되는 단어를 의미한다. 키워드는 다국어로 제공될 수 있다. 여러 나라의 언어에 의한 키워드들이 신호화되어 저장된다.The
수신부(120)는 인간, 즉 사용자의 음성을 수신하여 인식한다. 사용자가 말을 하면, 이를 받아들인다.The
제1 변환부(130)는 수신부(120)로부터 수신된 음성을 신호화하여 음성 신호로 변환한다. The
판별부(140)는 수신부(120)로부터 수신된 음성 또는 제1 변환부(130)에 의해 변환된 음성 신호로부터 사용자의 정보를 판별할 수 있다. 일 예로, 판별부(140)는 사용자의 상태정보를 파악할 수 있다. 상태정보란 사용자의 현재의 상태를 나타낼 수 있는 정보를 의미한다. 사용자의 현재의 감정상태, 나이, 성별 등 다양한 정보일 수 있다. 감정상태란 기쁨, 슬픔, 우울, 지침 등의 인간이 가질 수 있는 감정상태를 의미한다. 감정상태를 판별하기 위해, 음성의 크기 및 음성 신호의 주파수를 고려할 수 있다. 일 예로, 음성의 크기에 기준범위를 설정하고, 그 범위를 기준으로 기설정치의 크기보다 높으면 기쁨, 슬픔, 화남 등의 흥분 상태로 인지할 수 있다. 또는, 기설정치의 크기보다 낮으면, 차분, 우울 등의 상태로 인지할 수 있다. The determining
또한 음성 신호의 주파수가 기설정치보다 높은 상태라면, 고음을 의미하므로 마찬가지로 기쁨, 화남 등의 흥분 상태로 인지할 수 있다. 음성 신호의 주파수가 기설정치보다 낮은 상태라면, 저음을 의미하므로, 차분, 우울 등의 상태로 인지할 수 있다.Further, if the frequency of the voice signal is higher than the preset value, it means a high sound, so that it can be recognized as an excited state such as joy or angry. If the frequency of the voice signal is lower than the preset value, it means low sound, so it can be recognized as a state of difference, depression, and the like.
또한, 성별에 의한 음성의 차이 및 나이에 의한 음성의 차이에 관한 설정기준을 입력하고, 이를 기준으로 사용자의 성별 및 나이를 파악할 수 있다. 일 예로, 제1 변환부(130)에 의해 변환된 음성 신호의 최고 및 최저 주파수를 파악하여, 기설정된 주파수 범위 내에 있는지를 판단하여 사용자의 성별을 판단할 수 있다. 예를 들어, 남성 사용자의 음성 신호 주파수와, 여성 사용자의 음성 신호 주파수에 관한 기준을 설정하고, 사용자에 의해 수신된 음성 신호의 주파수가 그 범위 내에 있는지 여부를 판별하여, 사용자의 성별을 파악할 수 있다. 또한, 사용자가 고령일수록 일반적으로 어투가 느리다는 점을 고려하여, 사용자의 음성신호의 주기를 파악하여 사용자의 나이를 파악할 수 있다.In addition, a setting criterion regarding the difference of voice by sex and the difference of voice by age can be input, and the sex and age of the user can be determined based on the setting criterion. For example, the maximum and minimum frequencies of the voice signal converted by the
판별부(140)는 사용자가 기등록된 사용자인지, 또는 미등록된 사용자인지 판단할 수 있다. 기등록된 사용자의 음성 정보를 입력하고, 입력된 음성 정보와 수신된 음성 정보를 비교하여 음성의 패턴 및 주파수, 주기를 비교하여 오차범위 내에 있는지를 비교함으로써, 현재 사용하고 있는 사용자가 기등록 사용자인지 미등록 사용자인지를 판단할 수 있다.The
데이터 기록부(150)는 사용자와의 대화를 기록, 저장할 수 있다. 사용자는 등록 사용자일 수 있다. 데이터 기록부(150)는 사용자와의 대화를 저장함으로써, 사용자에 관한 정보를 누적하여 취득하고, 인공 지능 모듈(162)은 누적된 대화 기록을 바탕으로 대화 흐름 트리를 변경하여 후속 대화를 진행할 수 있다.The
도 3은 신호 추출부(160)의 작동 원리를 간략하게 보여주는 블럭도이다.3 is a block diagram briefly showing the operation principle of the
신호 추출부(160)는 음성 신호에 대응되는 스크립트 신호를 추출하여 후술하는 제2 변환부(170)로 전달한다. 신호 추출부(160)는 사람과 본 발명에 의한 인공지능을 이용한 대화 장치(1) 사이에 대화가 이어질 수 있도록 하는 본질적인 역할을 하는 구성으로 제공된다.The
도 3을 참조하면, 신호 추출부(160)는 인공지능 모듈(162)에 의하여 작동된다. 인공지능 모듈(162)은 수신된 음성 및 제1 변환부(130)에서 변환된 음성 신호를 분석하고, 이에 대해 사용자에게 답변할 적절한 키워드를 선택한다. 반드시 키워드에 한하는 것은 아니며 완성된 문장이 될 수 있도록 답변할 음성을 지정, 선택한다. 일 예로, 사용자의 질문 또는 명령에 대해 적절한 답변을 찾고, 이 답변에 해당하는 스크립트 신호를 선택하여 추출한다. 또는 사용자의 말에 대하여, 자연스럽게 이어질 수 있는 답변을 찾고, 이 답변에 해당하는 스크립트 신호를 선택하여 추출한다. Referring to FIG. 3, the
구체적으로, 인공지능 모듈(162)은, 제1 변환부(130)에서 변환된 스크립트 신호를 분석하여 수신된 음성 정보의 의미를 분석하고, 기설정된 대화 모델(164)에 따라 저장부(110)에 기저장된 스크립트 신호를 추출한다. 대화 모델(164)은 대화 의미와 대화 순서에 대응되는 대화 흐름 트리로 구성된다. 대화 의미란 음성 정보가 전달하고자 하는 의미를 말하며, 대화 순서란 자연스럽게 이어질 수 있는 대화 흐름을 말한다. 대화 흐름 트리란 대화 의미와 대화 순서를 종합한 것으로서, 사용자와 본 발명에 의한 인공지능을 이용한 대화 장치(1)가 주고받는 대화의 의미를 파악하고, 그 대화들이 적절하게 이어질 수 있는 대화 순서를 지칭한다.Specifically, the
인공지능 모듈(162)은 대화 흐름 트리를 변경할 수 있다. 일 예로, 인공지능 모듈(162)은 사용자에 관한 데이터를 누적하여 분석함으로써 사용자의 성향을 파악하고, 각각의 사용자의 성향에 맞게 대화 흐름 트리를 변경할 수 있다. 일 예로, 등록사용자와 같은 장기 사용자가 있는 경우, 이러한 장기 사용자로부터 반복 수신되는 음성정보를 누적하여 저장하고, 저장된 음성정보들로부터 사용자에 관한 데이터를 분석한다. 또한 분석된 사용자에 관한 데이터를 기반으로, 그 사용자의 나이, 성별, 성향, 성격 등을 정립하고, 그에 맞추어 대화가 진행되도록 대화 흐름 트리를 변경할 수 있다.The
또는, 인공지능 모듈(162)은 기설정된 특정 계층의 사용자에 맞추어, 저장부(110)로부터 스크립트 신호를 선별적으로 추출할 수 있다. 일 예로 특정 계층은 성별, 나이, 직업 등일 수 있다. Alternatively, the
일 예로, 특정 계층은 1인 가구의 다수를 차지하는 청년층 또는 노년층으로 설정할 수 있다. 일 예로, 20대 여성의 청년층 또는 60대 이상의 노년층으로 설정할 수 있다. 이 경우, 설정된 특정 계층의 사용자는 외로움을 느끼는 경우가 많으므로, 이러한 감정을 보완할 수 있는 대화 흐름을 위해 대화 흐름 트리를 변경하거나, 또는 기설정된 바에 따라 외로움을 보완할 수 있는 키워드를 중심으로 스크립트 신호를 선별적으로 추출하여 후속 대화를 이어나가도록 할 수 있다.For example, a particular class may be a youth or an elderly person who occupies a large majority of single-person households. For example, it can be set up as a young person in their 20s or as an elderly person in their 60s or older. In this case, the user of the specified hierarchy often feels lonely. Therefore, the conversation flow tree may be changed for the conversation flow to compensate for such feelings, or the keyword may be supplemented with loneliness The script signal can be selectively extracted and the subsequent conversation can be continued.
또한, 인공지능 모듈(162)은 수신부(120)에 수신된 음성이 기등록된 사용자의 음성인 경우, 데이터 기록부(150)에 기저장된 대화 기록을 이용하여 기설정된 대화 모델(164)에 따라 스크립트 신호를 추출할 수 있다. 구체적으로, 사용자가 판별부(140)에 의해 등록된 사용자로 판별된 경우, 등록된 사용자의 성격, 성별, 나이 등을 분석하여 패턴화하여 기설정된 대화 모델(164)에 의해 대화를 이어나갈 수 있도록 한다. 일 예로, 등록사용자의 신상 등 개인정보가 입력되어 있으므로, 이에 근거하여 대화를 이어나갈 수 있도록 기설정된 대화 모델(164)에 의해 스크립트 신호를 추출할 수 있다. If the voice received by the receiving
인공지능 모듈(162)은 사용자의 주된 관심사에 대한 대화를 이어나가도록 할 수 있다. 일 예로, 등록 사용자의 수신된 음성에 포함되는 키워드의 개수를 분석하고, 이를 기록할 수 있다. 이때 키워드는 등록 사용자의 주된 관심사에 관한 것으로서, 관심 키워드로서 기록된다. 인공지능 모듈(162)은 본 발명에 의한 인공지능을 이용한 대화 장치(1)의 전원이 오프 상태에서 온 상태가 되면, 이전에 관심 키워드로 등록된 키워드를 후술하는 음향부(180)를 통해 송출할 수 있다. 즉, 관심 키워드에 해당하는 스크립트 신호를 추출하여, 관심 키워드를 포함하는 음성을 송출함으로써, 자연스럽게 주된 관심사에 대한 대화를 이어나갈 수 있다. 이를 통해, 사용자는 편안함과 친근함을 느낄 수 있으며, 후속 대화를 이어나갈 수 있다.The
제2 변환부(170)는 신호 추출부(160)로부터 추출된 스크립트 신호를 음성으로 변환한다. 제2 변환부(170)는 다국어 음성을 지원할 수 있다.The
음향부(180)는 제2 변환부(170)로부터 변환된 음성을 외부로 송출한다. 사용자는 음향부(180)로부터 송출된 음성을 듣고, 그에 맞추어 적절한 답변을 할 것이고, 사용자의 답변 음성은 다시 수신부(120)에 의해 수신되어 상기 과정들이 반복된다. 따라서, 사용자와 관계에서 계속적으로 대화가 이어질 수 있다.The
음향부(180)는 위험 신호를 송출할 수 있다. 일 예로, 음향부(180)는 알람음을 발생시킬 수 있다. 구체적으로, 미등록 사용자의 음성이 소정 시간 연속하여 수신부(120)에 수신되는 경우, 음향부(180)는 알람음을 발생시킨다. 기등록된 사용자의 음성 수신없이, 미등록 사용자의 음성이 설정된 소정 시간 동안 계속해서 수신되는 경우, 타인의 주거 침입과 같은 상황이 발생한 것으로 간주하고, 위험 신호를 송출하여 위험 상황을 외부에 알릴 수 있다. 위험 신호는 경찰서 또는 보안업체와 같은 기관에 전달될 수 있다. 또는 음향부(180) 자체적으로 알람음을 발생시켜 직접적으로 외부에서도 위험 상황을 인지가능하도록 할 수 있다.The
음향부(180)는 외부기기와 무선 연결될 수 있다. 일 예로, 음향부(180)는 외부기기와 근거리 무선 기술로 연결될 수 있다. 음향부(180)는 블루투스(bluetooth) 방식에 의해 외부기기와 연결될 수 있다. 음향부(180)는 외부 기기로부터 송신되는 신호를 수신하여 그 신호에 대응되는 음향을 송출할 수 있다.The
음향부(180)는 사용자의 성별과 다른 성별의 음성을 송출할 수 있다. 일 예로, 판별부(140)가 사용자의 성별을 남성으로 판별한 경우, 음향부(180)는 여성의 음성으로 음향을 송출할 수 있다.The
도 4는 기능 유닛(200)의 구성을 보여주는 블럭도이고, 도 5는 인공지능을 이용한 대화 장치(1)를 보여주는 사시도이다. 아래에서는 도 4 및 도 5를 참조하며 기능 유닛(200)을 설명한다.Fig. 4 is a block diagram showing the configuration of the
기능 유닛(200)은 사용자가 시각적, 청각적, 그리고 후각적으로 소정의 효과를 인지할 수 있도록 기능을 수행한다. 일 예로, 본 발명에 의한 인공지능을 이용한 대화 장치(1)가 위치한 실내 주변 환경에 영향을 미침으로써, 사용자가 보다 안락함을 느낄 수 있도록 한다. 기능 유닛(200)은 하우징(210), 전원부(220), 조명부(230), 분사부(240), 표시부(250), 제어부(260)를 포함할 수 있다.The
하우징(210)은 인공지능을 이용한 대화 장치(1)의 본체를 이룬다. 하우징(210)은 외관을 형성한다. 하우징(210) 내부에는 상술한 커뮤니케이션 유닛(100)이 설치될 수 있다.The
전원부(220)는 본 발명에 의한 인공지능을 이용한 대화 장치(1)의 전원을 온-오프한다. The
조명부(230)는 외부로 광을 발산할 수 있다. 조명부(230)는 하우징(210)의 내부에 설치될 수 있다. 조명부(230)는 무드등으로 제공될 수 있다.The
분사부(240)는 외부로 액체를 발산할 수 있다. 액체는 물 또는 향수 중 적어도 어느 하나일 수 있다. 분사부(240)는 스프레이와 디퓨저를 포함할 수 있다. 스프레이는 물을 분무 형태로 비산시킬 수 있다. 디퓨저는 향수를 분무 형태로 비산시킬 수 있다. 따라서, 스프레이에 의해 실내는 가습효과를 얻을 수 있다. 디퓨저에 의해 실내는 악취제거 또는 방향 효과를 얻을 수 있다.The
표시부(250)는 소정의 정보를 디스플레이 할 수 있다. 소정의 정보는 수신부(120)에 음성을 발산하는 사용자의 정보, 실내 정보, 통신망에 의해 수신된 정보일 수 있다. 통신망은 인터넷과 같은 무선통신망일 수 있다. 통신망에 의해 수신되는 정보는 날씨와 같은 외부 정보일 수 있다. 사용자의 정보는 등록된 사용자인지 여부를 포함할 수 있다. 실내 정보는 실내 온도, 실내 습도 등을 포함할 수 있다.The
제어부(260)는 조명부(230), 분사부(240), 그리고 전원부(220)를 제어할 수 있다. 제어부(260)는 사용자의 음성에 따라 조명부(230)와 분사부(240)의 작동을 온-오프 할 수 있다. 구체적으로, 사용자로부터 수신되는 음성 중 기설정된 특정 키워드가 포함되어 있는 경우, 이에 따라 조명부(230) 또는 분사부(240)가 온-오프 될 수 있다. 일 예로, 사용자가 '불을 끌 것'라는 의미를 가지는 키워드를 말하면, 이를 인식하여 조명부(230)의 전원을 오프할 수 있다.The
도 6은 본 발명에 의한 인공지능을 이용한 대화 방법을 순차적으로 보여주는 순서도이다. 아래에서는 도 6을 참조하여, 상술한 인공지능을 이용한 대화 장치(1)를 이용하여 인공지능을 이용한 대화 방법을 설명한다.FIG. 6 is a flowchart sequentially illustrating an artificial intelligence dialogue method according to the present invention. Hereinafter, referring to Fig. 6, a dialogue method using artificial intelligence will be described using the above-described
본 발명에 의한 인공지능을 이용한 대화 방법은 저장 단계(S110), 수신 단계(S120), 제1 변환 단계(S130), 판별 단계(S140), 데이터 기록 단계(S150), 신호 추출 단계(S160), 제2 변환 단계(S170), 그리고 음향 송출 단계(S180)를 포함할 수 있다.The dialogue method using the artificial intelligence according to the present invention may include a storing step S110, a receiving step S120, a first converting step S130, a determining step S140, a data recording step S150, a signal extracting step S160, , A second conversion step (S170), and an audio transmission step (S180).
저장 단계(S110)는 다수의 키워드를 신호화하여 스크립트 신호로 저장부(110)에 저장된다. 이 키워드들은 음향 송출 단계(S180)에서 음향부(180)를 통해 송출될 수 있다.In the storing step (S110), a plurality of keywords are signaled and stored as a script signal in the storage unit (110). These keywords may be transmitted through the
수신 단계(S120)에서는 수신부(120)를 통해 사용자의 음성을 수신한다. 여기서 수신된 사용자의 음성의 의미를 분석하고 파악하여 적절한 답변을 음향 송출 단계(S180)에서 송출하면서 사용자와의 대화가 이루어지게 된다. In the receiving step (S120), the user's voice is received through the receiving unit (120). Here, the meaning of the received voice of the user is analyzed and grasped, and a proper answer is transmitted in an audio transmission step (S180), and conversation with the user is performed.
제1 변환 단계(S130)에서는 수신된 음성을 제1 변환부(130)가 음성 신호로 변환한다.In the first conversion step S130, the
판별 단계(S140)에서는 사용자의 정보를 판별한다. 일 예로, 판별부(140)가 사용자의 상태정보를 판별할 수 있다. 사용자의 감정상태를 판별할 수 있다. 또는 등록된 사용자인지 여부를 판별할 수 있다. 또는 사용자의 신상정보를 판별할 수 있다. 일 예로, 사용자의 나이, 성별 등을 판별할 수 있다.In the discriminating step S140, the information of the user is discriminated. For example, the
데이터 기록 단계(S150)에서는 사용자의 음성을 기록, 저장할 수 있다. 또는 사용자와의 대화 기록을 기록, 저장할 수 있다. 기록, 저장된 대화 데이터는 인공지능 모듈(162)에 의해 후속 대화에서 활용되어, 사용자와의 자연스러운 대화가 이어질 수 있도록 한다.In the data recording step (S150), the voice of the user can be recorded and stored. Or record conversation records with the user. The recorded and stored conversation data is utilized in the subsequent conversation by the
신호 추출 단계(S160)에서는 음성 신호에 대응되는 스크립트 신호를 추출한다. 신호 추출 단계(S160)에서는 신호 추출부(160)의 인공지능 모듈(162)에 의해서 스크립트 신호가 추출된다. 인공지능 모듈(162)에 의해 대화 모델(164)에 근거하여 사용자의 음성에 대한 대화가 유지될 수 있도록 적절한 답변이 될 수 있는 스크립트 신호를 추출한다. 대화 모델(164)은 대화 의미와 대화 순서에 대응되는 대화 흐름 트리로 구성될 수 있다.In the signal extraction step (S160), a script signal corresponding to the voice signal is extracted. In the signal extraction step (S160), a script signal is extracted by the artificial intelligence module (162) of the signal extraction unit (160). Extracts a script signal that can be an appropriate answer so that the conversation about the user's voice can be maintained by the
제2 변환 단계(S170)에서는 추출된 스크립트 신호를 제2 변환부(170)에서 음성으로 변환한다. 변환되는 음성은 다국어 지원이 가능하도록 제공될 수 있다. 또한, 남성 또는 여성의 음성, 그리고 다양한 연령대의 음성을 모두 지원가능하도록 제공될 수 있다. 이 음성들은 사용자의 특성에 맞추어 제공될 수 있다. 사용자가 속한 계층이나 집단에 맞추어 사용자가 선호하는 음성으로 제공될 수 있다.In the second conversion step (S170), the extracted script signal is converted into speech in the second conversion unit (170). The voice to be converted can be provided to enable multi-language support. It can also be provided to support both male and female voices and voices of various ages. These voices can be provided according to the characteristics of the user. And may be provided as a user-preferred voice according to the hierarchy or group to which the user belongs.
음향 송출 단계(S180)에서는 제2 변환 단계(S170)에서 변환된 음성을 음향부(180)로부터 외부로 송출한다. 송출되는 음향은 인간의 음성일 수 있다. 다국어, 성별, 나이 제한없이 다양한 유형의 음성이 송출될 수 있다. 또느, 인간의 음성 뿐 아니라, 외부 기기와 연결된 경우, 외부 기기에 의해 전달된 신호에 의해 다양한 음향을 송출할 수 있다. In the sound transmission step S180, the sound converted in the second conversion step S170 is transmitted from the
상술한 실시예에서는 음성 인식을 이용한 대화방법이 저장 단계(S110), 수신 단계(S120), 제1 변환 단계(S130), 판별 단계(S140), 데이터 기록 단계(S150), 신호 추출 단계(S160), 제2 변환 단계(S170), 그리고 음향 송출 단계(S180)로 순차적으로 이루어지는 것으로 설명하였으나, 반드시 이에 한하는 것은 아니다. 일부 단계는 생략될 수 있으며, 또는 각 단계의 순서가 변경될 수 있다.In the above-described embodiment, the conversation method using speech recognition is performed in a storing step S110, a receiving step S120, a first converting step S130, a discriminating step S140, a data recording step S150, a signal extracting step S160 ), A second conversion step (S170), and an audio transmission step (S180). However, the present invention is not limited thereto. Some steps may be omitted, or the order of each step may be changed.
상술한 실시예에서는 판별부(140)가 판별하는 사용자의 정보를 예시적으로 감정상태, 나이, 성별, 직업 등으로 설명하였으나, 반드시 이에 한하는 것은 아니며, 사용자의 건강상태와 같은 다양한 사용자의 정보를 판별할 수 있다. 이러한 사용자 정보는 표시부(250)에 디스플레이 될 수 있다.In the above-described embodiment, the information of the user determined by the determining
이상의 상세한 설명은 본 발명을 예시하는 것이다. 또한 전술한 내용은 본 발명의 바람직한 실시 형태를 나타내어 설명하는 것이며, 본 발명은 다양한 다른 조합, 변경 및 환경에서 사용할 수 있다. 즉 본 명세서에 개시된 발명의 개념의 범위, 저술한 개시 내용과 균등한 범위 및/또는 당업계의 기술 또는 지식의 범위내에서 변경 또는 수정이 가능하다. 저술한 실시예는 본 발명의 기술적 사상을 구현하기 위한 최선의 상태를 설명하는 것이며, 본 발명의 구체적인 적용 분야 및 용도에서 요구되는 다양한 변경도 가능하다. 따라서 이상의 발명의 상세한 설명은 개시된 실시 상태로 본 발명을 제한하려는 의도가 아니다. 또한 첨부된 청구범위는 다른 실시 상태도 포함하는 것으로 해석되어야 한다.The foregoing detailed description is illustrative of the present invention. In addition, the foregoing is intended to illustrate and explain the preferred embodiments of the present invention, and the present invention may be used in various other combinations, modifications, and environments. That is, it is possible to make changes or modifications within the scope of the concept of the invention disclosed in this specification, within the scope of the disclosure, and / or within the skill and knowledge of the art. The embodiments described herein are intended to illustrate the best mode for implementing the technical idea of the present invention and various modifications required for specific applications and uses of the present invention are also possible. Accordingly, the detailed description of the invention is not intended to limit the invention to the disclosed embodiments. It is also to be understood that the appended claims are intended to cover such other embodiments.
1: 인공지능을 이용한 대화 장치
100: 커뮤니케이션 유닛
110: 저장부
120: 수신부
140: 판별부
160: 신호 추출부
200: 기능 유닛
230: 조명부
240: 분사부
260: 제어부1:
110: storage unit 120: receiving unit
140: discrimination unit 160: signal extraction unit
200: function unit 230: illumination unit
240: jetting section 260:
Claims (7)
사용자의 음성을 인식하는 수신부;
상기 수신부로부터 수신된 음성을 신호화하여 음성 신호로 변환하는 제1 변환부;
수신된 상기 음성 또는 변환된 상기 음성 신호로부터 사용자의 정보를 판단하는 판별부;
상기 음성 신호에 대응되는 스크립트 신호를 추출하는 신호 추출부;
상기 신호 추출부로부터 추출된 스크립트 신호를 음성으로 변환하는 제2 변환부; 및
상기 제2 변환부에서 변환된 음성을 송출하는 음향부를 포함하고,
상기 신호 추출부는 인공지능 모듈에 의해서 상기 음성 신호에 대응되는 스크립트 신호를 추출하되,
상기 인공지능 모듈은,
상기 제1 변환부에서 변환된 스크립트 신호를 분석하여 수신된 음성 정보의 의미를 분석하고, 기설정된 대화 모델에 따라 상기 저장부에 기저장된 스크립트 신호를 추출하며,
상기 대화 모델은,
대화 의미와 대화 순서에 대응되는 대화 흐름 트리로 구성되는 인공지능을 이용한 대화 장치.
A storage unit for storing a keyword as a script signal;
A receiving unit for recognizing the user's voice;
A first converting unit for converting a voice received from the receiving unit into a voice signal;
A determination unit for determining user information from the received voice or the converted voice signal;
A signal extracting unit for extracting a script signal corresponding to the voice signal;
A second conversion unit for converting the script signal extracted from the signal extraction unit into speech; And
And an acoustic unit for transmitting the voice converted by the second conversion unit,
Wherein the signal extracting unit extracts a script signal corresponding to the speech signal by an artificial intelligence module,
The artificial intelligence module includes:
Analyzing the meaning of the received voice information by analyzing the converted script signal in the first conversion unit, extracting a previously stored script signal in the storage unit according to a predetermined dialogue model,
The conversation model includes:
A dialogue device using artificial intelligence composed of dialogue meaning and dialogue flow tree corresponding to dialogue order.
상기 인공지능 모듈은,
수신되는 사용자의 음성정보를 누적하여 저장하고, 저장된 상기 음성정보들로부터 사용자에 관한 데이터를 분석하고,
상기 분석된 사용자에 관한 데이터를 기반으로 상기 대화 흐름 트리를 변경하는 인공지능을 이용한 대화 장치.
The method according to claim 1,
The artificial intelligence module includes:
Accumulates and stores voice information of the received user, analyzes data related to the user from the stored voice information,
And changing the conversation flow tree based on the analyzed user-related data.
상기 인공지능 모듈은,
수신되는 상기 사용자 음성을 분석하여 사용자의 상태정보를 파악하고, 파악된 상태정보로부터 대응되는 스크립트 신호를 추출하며,
상기 음향부는 상기 사용자의 상태정보에 따라 기설정된 주파수 및 크기의 음성을 송출하되,
상기 사용자의 상태정보는,
사용자의 감정, 나이 및 성별 중 적어도 어느 하나를 포함하는 인공지능을 이용한 대화 장치.3. The method of claim 2,
The artificial intelligence module includes:
Analyzing the received user voice to grasp the status information of the user, extracting a corresponding script signal from the detected status information,
Wherein the sound unit transmits a voice of a predetermined frequency and size according to the status information of the user,
The status information of the user includes:
And at least one of emotion, age, and sex of the user.
상기 음향부는,
미등록 사용자의 음성이 소정 시간 연속하여 상기 수신부에 수신되는 경우, 위험 신호를 송출하는 인공지능을 이용한 대화 장치.
The method of claim 3,
The acoustic unit includes:
And a danger signal is transmitted when an unregistered user's voice is received by the receiving unit continuously for a predetermined time.
본체를 이루는 하우징;
외부로 광을 발산하는 조명부;
외부로 액체를 분사하는 분사부;
소정의 정보를 디스플레이하는 표시부; 및
상기 조명부와 상기 분사부를 제어하는 제어부를 더 포함하되,
상기 조명부는 무드등으로 제공되고,
상기 분사부는,
물을 분사하는 스프레이와,
향수를 분사하는 디퓨저를 포함하며,
상기 제어부는,
상기 수신부에서 수신되는 음성 중 기설정된 키워드가 포함되어 있는 경우, 상기 조명부와 상기 분사부의 전원을 온-오프하고,
상기 음향부는 다국어 음성이 지원가능하고, 외부기기와 무선 연결되어, 상기 외부 기기로부터 송신되는 신호를 수신하여 그 신호에 대응되는 음향을 송출하며,
상기 표시부에 표시되는 상기 소정의 정보는 상기 수신부에 음성을 발산하는 사용자의 정보 또는 통신망에 의해 수신된 정보인 인공지능을 이용한 대화 장치.
5. The method of claim 4,
A housing constituting a main body;
An illumination unit for emitting light to the outside;
A jetting portion for jetting liquid to the outside;
A display unit for displaying predetermined information; And
Further comprising a control unit for controlling the illumination unit and the injection unit,
The illumination unit is provided in a mood or the like,
The injection unit
A spray for spraying water,
A diffuser for spraying perfume,
Wherein,
Wherein when the predetermined keyword is included in the sound received by the receiving unit, the controller turns on / off the power of the illumination unit and the injection unit,
The acoustic unit is capable of supporting multi-lingual voice, wirelessly connecting with an external device, receiving a signal transmitted from the external device, and transmitting sound corresponding to the signal,
Wherein the predetermined information displayed on the display unit is information received from the user via the communication network or information of a user who emits a voice to the receiving unit.
사용자의 음성을 수신하는 수신 단계;
상기 수신된 음성을 신호화하여 음성 신호로 변환하는 제1 변환 단계;
상기 수신 단계에서 수신된 음성 또는 제1 변환 단계에서 변환된 음성 신호 로부터 사용자의 정보를 판단하는 판별 단계;
상기 음성 신호에 대응되는 스크립트 신호를 추출하는 신호 추출 단계;
상기 추출된 스크립트 신호를 음성으로 변환하는 제2 변환 단계; 및
상기 변환된 음성을 송출하는 음향 송출 단계;를 포함하고,
상기 신호 추출 단계에서는,
인공지능에 의해 상기 제1 변환 단계에서 변환된 스크립트 신호를 분석하여 수신된 음성 정보의 의미를 분석하고, 기설정된 대화 모델에 따라서 상기 저장단계에서 저장된 스크립트 신호를 추출하며,
상기 대화 모델은, 대화 의미와 대화 순서에 대응되는 대화 흐름 트리로 구성되고,
상기 판별 단계는,
상기 사용자의 음성을 분석하여 사용자의 상태정보를 파악하고,
상기 음향 송출 단계에서는 상기 사용자의 상태정보에 따라 기설정된 주파수 및 크기의 음성을 송출하며,
상기 신호 추출 단계에서는,
수신되는 사용자의 음성 정보를 누적하여 저장하고, 사용자에 관한 데이터를 분석하여, 상기 분석된 데이터를 기반으로 인공지능에 의해 상기 대화 흐름 트리를 변경하는 인공지능을 이용한 대화 방법.
A storing step of storing a keyword as a script signal;
A receiving step of receiving a user's voice;
A first conversion step of converting the received voice signal into a voice signal;
A discriminating step of discriminating the user's information from the voice received in the receiving step or the voice signal converted in the first converting step;
A signal extracting step of extracting a script signal corresponding to the voice signal;
A second conversion step of converting the extracted script signal into speech; And
And an audio transmitting step of transmitting the converted voice,
In the signal extracting step,
Analyzing the meaning of the received voice information by analyzing the script signal converted in the first conversion step by artificial intelligence, extracting the script signal stored in the storing step according to a predetermined dialogue model,
Wherein the dialogue model comprises a dialogue flow tree corresponding to a dialogue meaning and a dialogue order,
Wherein,
Analyzes the voice of the user to grasp the status information of the user,
In the sound transmitting step, a voice having a predetermined frequency and size is transmitted according to the status information of the user,
In the signal extracting step,
A dialogue method using artificial intelligence that accumulates and stores voice information of a received user, analyzes data about a user, and changes the conversation flow tree by artificial intelligence based on the analyzed data.
상기 신호 추출 단계에서는,
기설정된 특정 계층의 사용자에 맞추어, 인공지능에 의해 상기 스크립트 신호를 추출하되,
상기 특정 계층은, 성별, 나이 및 직업 중 적어도 어느 하나를 포함하는 인공지능을 이용한 대화 방법.The method according to claim 6,
In the signal extracting step,
Extracting the script signal by artificial intelligence according to a user of a predetermined layer,
Wherein the specific layer includes at least one of sex, age, and occupation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160141804A KR20180046550A (en) | 2016-10-28 | 2016-10-28 | Apparatus and method for conversaion using artificial intelligence |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160141804A KR20180046550A (en) | 2016-10-28 | 2016-10-28 | Apparatus and method for conversaion using artificial intelligence |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20180046550A true KR20180046550A (en) | 2018-05-09 |
Family
ID=62200717
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160141804A KR20180046550A (en) | 2016-10-28 | 2016-10-28 | Apparatus and method for conversaion using artificial intelligence |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20180046550A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102098003B1 (en) * | 2018-10-11 | 2020-04-07 | 삼성생명보험주식회사 | Method, apparatus and computer-readable medium for operating chatbot |
WO2020196955A1 (en) * | 2019-03-27 | 2020-10-01 | 엘지전자 주식회사 | Artificial intelligence device and method for operation of artificial intelligence device |
KR20230099936A (en) | 2021-12-28 | 2023-07-05 | (주)스마일게이트엔터테인먼트 | A dialogue friends porviding system based on ai dialogue model |
-
2016
- 2016-10-28 KR KR1020160141804A patent/KR20180046550A/en not_active Application Discontinuation
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102098003B1 (en) * | 2018-10-11 | 2020-04-07 | 삼성생명보험주식회사 | Method, apparatus and computer-readable medium for operating chatbot |
WO2020196955A1 (en) * | 2019-03-27 | 2020-10-01 | 엘지전자 주식회사 | Artificial intelligence device and method for operation of artificial intelligence device |
US11580969B2 (en) | 2019-03-27 | 2023-02-14 | Lg Electronics Inc. | Artificial intelligence device and method of operating artificial intelligence device |
KR20230099936A (en) | 2021-12-28 | 2023-07-05 | (주)스마일게이트엔터테인먼트 | A dialogue friends porviding system based on ai dialogue model |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11823681B1 (en) | Accessory for a voice-controlled device | |
KR102374910B1 (en) | Voice data processing method and electronic device supporting the same | |
KR101336641B1 (en) | Emotional Sympathy Robot Service System and Method of the Same | |
KR102543693B1 (en) | Electronic device and operating method thereof | |
KR102445382B1 (en) | Voice processing method and system supporting the same | |
KR102409303B1 (en) | Method and Apparatus for Voice Recognition | |
KR20190109868A (en) | System and control method of system for processing sound data | |
KR100825719B1 (en) | Method for generating emotions and emotions generating robot | |
CN112513833A (en) | Electronic device and method for providing artificial intelligence service based on presynthesized dialog | |
US10789948B1 (en) | Accessory for a voice controlled device for output of supplementary content | |
KR102421824B1 (en) | Electronic device for providing voice based service using external device and operating method thereof, the external device and operating method thereof | |
KR20210010270A (en) | Robot and method for recognizinig wake-up word thereof | |
KR20200143764A (en) | Emotional Sympathy Service System and Method of the Same | |
KR20190008663A (en) | Voice data processing method and system supporting the same | |
WO2018155116A1 (en) | Information processing device, information processing method, and computer program | |
CN111919248A (en) | System for processing user utterances and control method thereof | |
KR20180046550A (en) | Apparatus and method for conversaion using artificial intelligence | |
US11222638B2 (en) | Communication device and control program for communication device | |
KR102511517B1 (en) | Voice input processing method and electronic device supportingthe same | |
KR102421745B1 (en) | System and device for generating TTS model | |
JP6598369B2 (en) | Voice management server device | |
WO2020021861A1 (en) | Information processing device, information processing system, information processing method, and information processing program | |
KR102519635B1 (en) | Method for displaying an electronic document for processing a voice command and electronic device thereof | |
CN112219235A (en) | System comprising an electronic device for processing a user's speech and a method for controlling speech recognition on an electronic device | |
CN113314115B (en) | Voice processing method of terminal equipment, terminal equipment and readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E601 | Decision to refuse application |