KR20190115517A - Character display device based the artificial intelligent and the display method thereof - Google Patents

Character display device based the artificial intelligent and the display method thereof

Info

Publication number
KR20190115517A
KR20190115517A KR1020180030945A KR20180030945A KR20190115517A KR 20190115517 A KR20190115517 A KR 20190115517A KR 1020180030945 A KR1020180030945 A KR 1020180030945A KR 20180030945 A KR20180030945 A KR 20180030945A KR 20190115517 A KR20190115517 A KR 20190115517A
Authority
KR
South Korea
Prior art keywords
artificial intelligence
code
unit
text data
smart toy
Prior art date
Application number
KR1020180030945A
Other languages
Korean (ko)
Other versions
KR102063389B1 (en
Inventor
천하봉
정지은
송원서
송지민
심혜린
김민경
박송화
Original Assignee
숙명여자대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숙명여자대학교산학협력단 filed Critical 숙명여자대학교산학협력단
Priority to KR1020180030945A priority Critical patent/KR102063389B1/en
Publication of KR20190115517A publication Critical patent/KR20190115517A/en
Application granted granted Critical
Publication of KR102063389B1 publication Critical patent/KR102063389B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Abstract

A character display device based on artificial intelligence and a display method thereof are disclosed. The character display device based on artificial intelligence according to the present invention includes a smart toy, generates text data and a command code corresponding to a sound output from the speaker of an artificial intelligence device, transmits the same to the smart toy, The smart toy displays the received text data as one or more of an emoticon, a symbol, and a character on a display part, and drives an operation execution part to perform an operation corresponding to the command code. This not only expands the way of communication and expression of a fragmentary AI device, but also adds fun. So, the combination of visual elements makes the hearing impaired as well as the general public AI speakers available to expand the consumer base.

Description

인공지능 기반의 캐릭터 표시 장치 및 그 표시 방법{CHARACTER DISPLAY DEVICE BASED THE ARTIFICIAL INTELLIGENT AND THE DISPLAY METHOD THEREOF} Character display device based on artificial intelligence and its display method {CHARACTER DISPLAY DEVICE BASED THE ARTIFICIAL INTELLIGENT AND THE DISPLAY METHOD THEREOF}

본 발명은 인공지능 스피커에 관한 것으로, 보다 상세하게는 인공지능 스피커로 입출력되는 음성을 인식하여 디스플레이부를 이용하여 인식된 내용을 시각적으로 표시하거나 또는 동작 실행부를 구동하여 움직임으로 표현할 수 있는 인공지능 스피커를 이용한 표시장치 및 그 표시 방법에 관한 것이다.The present invention relates to an artificial intelligence speaker, and more particularly, an artificial intelligence speaker capable of visually displaying a recognized content using a display unit by recognizing voice input and output to an artificial intelligence speaker or by driving an operation execution unit. A display device using the same and a display method thereof.

인공지능 스피커(artificial intelligence speaker, 이하 "AI Speaker"라 함)는 인공지능 알고리즘을 이용해 사용자와 음성으로 의사소통을 한다. Artificial intelligence speakers (hereinafter referred to as "AI Speakers") communicate with the user by voice using artificial intelligence algorithms.

AI 스피커를 이용하면 음성인식을 통해 집안의 기기를 목소리만으로 간편하게 제어하는 식으로 손쉽게 스마트홈 환경을 구축할 수 있다.Using AI speaker, you can easily build a smart home environment by simply controlling voice in your home with voice recognition.

또한 터치 기반과 달리 음성 기반 조작은 쉽게 배우고 사용할 수 있다. 우리가 스마트폰에서 ‘시리’나 ‘S보이스’ 등을 이용해 기기를 제어하는 게 낯설지 않듯, 음성인식 기반 UI 플랫폼은 우리 생활 가까이에 숨어 있다. 억지로 배우지 않아도 자연스럽게 배울 수 있는 UI인 셈이다.Also, unlike touch-based, voice-based operation is easy to learn and use. It's not uncommon for us to control devices using Siri or S-Voice on smartphones, but voice recognition-based UI platforms are hiding near our lives. It's a UI that can be learned naturally without forcibly learning.

AI 스피커는 스마트 스피커 또는 인공지능 비서 등으로 불리며, 하나 이상의 인상적인 말(hot word)의 도움을 받아 상호작용 동작과 핸즈프리 활성화를 제공하는 가상 비서가 내장된 보이스 커맨드 디바이스이자, 음성인식을 통해 음악 감상, 정보 검색 등의 기능을 수행한다는 것이 일반 스피커와의 차이점이다.AI speakers are called smart speakers or AI assistants, and are voice command devices with a built-in virtual assistant that provides interactive action and hands-free activation with the help of one or more hot words. It is different from general speakers in that it performs functions such as searching and information.

음성인식 기반 기기의 주된 입출력 장치는 마이크와 스피커다. AI 스피커는 이 같은 주요 장치만으로 이루어져 있기 때문에 음소거기능 사용을 제외하고는 상시 음성데이터를 녹음하고, 클라우드 서버에 축적할 수 있는 이점이 있다.The main input / output devices of voice recognition-based devices are microphones and speakers. Since AI speaker is composed of only these main devices, there is an advantage in that it can record voice data at all times and accumulate it in a cloud server except using a mute function.

또한, AI 스피커가 사용자의 말을 알아들을 수 있게 된 것은‘딥 러닝’으로 기계가 수십만 개의 인간의 일상 언어를 빠르게 학습할 수 있었기 때문이었다.In addition, AI speakers were able to understand what users were saying because “deep learning” allowed machines to learn hundreds of thousands of human everyday languages quickly.

그럼에도 불구하고, 아직 음성인식명령에 차이가 있으며, 입력된 명령어와 자연어 인식 기능간에는 아직 갭이 발생하고 있다.Nevertheless, there are still differences in voice recognition commands, and gaps still occur between input commands and natural language recognition functions.

이에 더하여 음악을 듣거나 TV를 보고 있을 때, 다른 소음과 잡음이 있을 때, 또는 사용자가 멀리 있을 때는 어떻게 소리를 인식할 수 있을까라는 자문을 하지 않을 수 없다.In addition, you have to ask yourself how you can recognize the sound when you are listening to music or watching TV, when there are other noises and noises, or when the user is far away.

이러한 문제들을 해결하기 위하여 원거리 음성 인식률을 향상시키거나 또는 아마존과 같이 마이크를 무려 7개를 사용하여 해결하려 했지만 여전히 동일한 문제점이 존재한다.To solve these problems, I tried to improve remote speech recognition rate or use 7 microphones like Amazon, but the same problem still exists.

이러한 인공지능 스피커가 도 1에 도시되어 있다.Such an AI speaker is shown in FIG.

한편, 최근 스마트토이들은 다양한 IT 기술과 접목돼 새로운 형태로 바뀌고 있다. Meanwhile, smart toys have recently been transformed into new forms by combining with various IT technologies.

사람의 말이나 행동에 반응하거나 태블릿, 모바일 앱 등과 결합해 새로운 형태로 발전하고 있다. It is evolving into a new form that responds to people's words or actions or combines with tablets and mobile apps.

해외 시장에는 다양한 형태의 스마트토이가 출시되고 있다. 우선 바비인형으로 유명한 매텔(Mattel)은 사용자와 대화할 수 있도록 한 스마트토이 '헬로바비'를 선보였다. Various types of smart toys are being released to the overseas market. First of all, Mattel, famous for Barbie dolls, introduced 'Hello Barbie', a smart toy that enables users to talk to users.

인형에 달린 버튼을 누르고 어린이가 말을 하면 이를 녹음하고 암호화해 인터넷을 통해 클라우드 서버로 전송한다. Press the button on the doll and the child speaks, records it, encrypts it, and sends it to the cloud server over the Internet.

서버에서는 음성인식 SW가 이를 분석해 적절한 대답을 선별하고 이를 다시 헬로바비에게 전송해 어린이와 바비가 서로 대화를 할 수 있도록 했다. On the server, the voice recognition SW analyzed it, selected the appropriate answer, and sent it back to Hello Barbie, so that the child and Barbie could talk to each other.

스마트토이는 빅데이터, 웨어러블 등 다양한 IT 기술과 결합해 지속적인 발전을 해 나갈 것이며 단순히 놀이와 교육을 넘어 일상 속 다양한 분야에서 활용될 것으로 전망된다.Smart Toy will continue to develop by combining with various IT technologies such as big data and wearables, and it is expected to be used in various fields in daily life beyond simply play and education.

또한, 스마트 토이가 클라우드, 빅데이터, 인공지능 등의 ICT 기술과 접목되어 복합적인 제품으로 출시된다면 공감각적 정보의 전달과 시각적인 재미를 더해 줌과 동시에 일반인뿐만 아니라 청각 장애인도 사용가능하여 소비층의 영역을 훨씬 넓힐 수가 있을 것이다.In addition, if Smart Toy is released as a complex product combined with ICT technologies such as cloud, big data, and artificial intelligence, it can deliver synesthesia information and visual fun, and can be used not only for the general public but also for the hearing impaired. You will be able to expand your scope even further.

그리고 AI 스피커가 가지는 인식의 한계성과 표현의 한계성은 개선이 필요한 영역이 될 수 있다. 현재 시장에 출시되어진 대다수의 AI 스피커가 주로 마이크와 스피커를 통해 서버와의 사용자 커뮤니케이션에 집중하고 있다. 이러한 상황은 AI스피커를 사용하면서 사용자가 전달하고자 하는 내용의 음성을 AI스피커가 제대로 받아들이고 있는지에 대한 정확한 피드백을 주지 못하고 있기 때문에 서버와의 커뮤니케이션 과정에서 혼란의 여지가 발생하게 된다. 또한, 전달된 내용에 따른 서버에서 출력되어진 결과의 음성도 단지 스피커를 통한 음성에 머물고 있기 때문에 사용자와의 적극적인 교감을 끌어내고 있지는 못하고 있다. 이렇게 사용자가 내용을 전달할 때와 결과를 전달받을 때 발생하게 되는 인식과 표현의 한계성은 현재 운용되고 있는 AI스피커가 가진 큰 문제점이 아닐 수 없다. In addition, the limitation of recognition and the limitation of expression that AI speakers have may be an area that needs improvement. The vast majority of AI speakers on the market today focus on user communication with servers via microphones and speakers. This situation causes confusion in the process of communicating with the server because the AI speaker does not give accurate feedback as to whether or not the AI speaker is properly receiving the voice of the user's content. In addition, since the voice of the result output from the server according to the delivered content is only staying in the voice through the speaker, it does not draw an active rapport with the user. This limitation of recognition and expression that occurs when a user delivers content and receives a result is a big problem with the current AI speaker.

KR 공개특허공보 제10-2000-0062975호(2002. 05. 03)KR Publication No. 10-2000-0062975 (2002. 05. 03)

따라서, 이러한 문제점을 해결하기 위한 본 발명은 인공지능 스피커 소리의 내용 데이터가 스피커 외부에 설치되어 있는 토이 디바이스를 통해 시각적인 문자나 동작실행부의 움직임으로 표시되어 사용자 커뮤니케이션과 표현의 방식을 확장시킬 수 있는 인공지능 스피커를 이용한 표시장치와 그 표시방법을 제공하는 것을 목적으로 한다.Accordingly, the present invention for solving this problem is to display the content data of the artificial intelligence speaker sound as a visual character or the movement of the execution unit through a toy device installed outside the speaker to extend the way of user communication and expression. An object of the present invention is to provide a display device using the artificial intelligence speaker and a display method thereof.

그리고 본 발명은 소리로만 전달되기 어려운 내용의 표현을 이모티콘, 기호, 문자, 동작, 제스처, 속도 등으로 다양하게 표현함으로써 사용자와 인공지능 스피커 사이의 상호작용을 강화 및 확장시킬 수 있는 인공지능 스피커를 이용한 표시장치 및 그 표시방법을 제공하는 것을 다른 목적으로 한다.In addition, the present invention provides an artificial intelligence speaker that can enhance and expand the interaction between the user and the artificial intelligence speaker by expressing various expressions of contents that are difficult to be transmitted only by sound, such as emoticons, symbols, characters, actions, gestures, and speed. It is another object of the present invention to provide a display device and a display method thereof.

상술한 과제를 해결하기 위한 본 발명의 일실시예에 의한 인공지능 기반의 캐릭터 표시 장치는, 인공지능 디바이스에서 출력되는 사운드 또는 코드에 대응하여 표시창에 표시하거나 또는 동작으로 표현 가능한 스마트 토이를 구비하고, 상기 인공지능 디바이스는 스피커로 출력되는 사운드에 대응되는 텍스트 데이터와 명령코드를 생성하여 상기 스마트토이로 전송하고, 상기 스마트 토이로 수신된 텍스트 데이터는 디스플레이부에 이모티콘, 기호, 그리고 문자 중 어느 하나 이상으로 표시되고, 수신된 명령코드에 대응되는 연속적 동작코드로 신체 부위 중 어느 하나를 캐릭터로 표현한 동작 실행부의 동작을 수행하도록 제어함으로써 달성될 수 있다.Characteristic apparatus based on the artificial intelligence according to an embodiment of the present invention for solving the above problems, and has a smart toy that can be displayed on the display window or represented by the operation corresponding to the sound or code output from the artificial intelligence device The artificial intelligence device generates text data and command codes corresponding to sound output from a speaker and transmits the text data to the smart toy, and the text data received by the smart toy is any one of an emoticon, a symbol, and a character on a display unit. It can be achieved by controlling to perform the operation of the operation execution unit, which is displayed as above and represents any one of the body parts as a character with a continuous operation code corresponding to the received command code.

또한, 인공지능 디바이스는 서버와 통신하는 통신인터페이스부, 상기 동작실행부를 실행할 명령 코드와 상기 디스플레이부에 표시할 텍스트 데이터를 저장하는 컨텐츠저장부, 상기 명령코드와 텍스트데이터를 상기 스마트토이로 전송하는 연결부. 상기 통신인터페이스부를 통하여 서버로 전송 또는 수신하는 음성데이터에 대응하는 명령코드와 텍스트데이터를 상기 컨텐츠저장부에서 판독하여 상기 연결부를 통하여 상기 스마트토이로 전송하는 디바이스 제어부를 포함할 수 있다.The artificial intelligence device may further include a communication interface for communicating with a server, a content storage unit for storing command code to execute the operation execution unit and text data to be displayed on the display unit, and transmitting the command code and text data to the smart toy. Connections. It may include a device control unit for reading the command code and text data corresponding to the voice data transmitted or received to the server through the communication interface unit in the content storage unit to transmit to the smart toy through the connection unit.

또한, 디스플레이부는 LED로 구성되고, LED 칼라로 표시되는 텍스트를 통해 수신된 텍스트 데이터를 표시하고, 신체 부위 중 어느 하나를 캐릭터로 표현한 동작실행부는 해당 신체 부위 동작의 움직임, 제스처, 또는 속도 중 어느 하나 이상으로 증강된 내용을 표시할 수 있다.In addition, the display unit is composed of LED, and displays the text data received through the text displayed in the LED color, the motion execution unit that represents any one of the body parts as a character of any of the movement, gesture, or speed of the body part motion One or more augmented content can be displayed.

또한, 인공지능 디바이스는 신체 부위 중 어느 하나를 캐릭터로 표현한 동작 실행부가 해당 신체 부위의 길이와 3축으로 변형될 수 있는 각도가 고려된 명령코드를 결정하여 상기 컨텐츠 저장부에 저장하고, 동작 종류에 따라 명령코드를 결정하기 이전에 해당 동작 종류에 따라 연속적인 동작을 나타내는 연속코드를 연속적으로 추출하고, 추출된 연속코드로 동작코드를 구성하여 상기 컨텐츠 저장부에 저장하도록 구성할 수 있다.In addition, the artificial intelligence device determines the command code considering the length of the body part and the angle that can be transformed into three axes by the motion execution unit expressing any one of the body parts as a character, and stores the command code in the content storage unit. Before determining the command code according to the operation code can be configured to continuously extract a continuous code indicating a continuous operation according to the operation type, and to configure the operation code from the extracted continuous code to store in the content storage.

따라서, 본 발명의 인공지능 스피커를 이용한 표시장치에 의하면, 기존의 인공지능 스피커에 시각적, 물리적 효과를 더해주는 악세서리 디바이스를 인공지능 스피커 바디에 결합시킴으로써 단편적인 인공지능 스피커의 커뮤니케이션의 방식과 표현의 방식을 확장시키는 것이 가능하다.Therefore, according to the display device using the artificial intelligence speaker of the present invention, the communication device and the manner of expression of the fragmentary artificial intelligence speaker by combining an accessory device that adds visual and physical effects to the existing artificial intelligence speaker to the artificial intelligence speaker body It is possible to extend it.

또한, 본 발명의 인공지능 스피커를 이용한 표시장치에 의하면, 사용자로 하여금 공감각적 정보의 전달과 시각적인 재미를 더해줌과 동시에 일반인 뿐 만 아니라 청각장애인도 사용 가능하여 소비층의 영역을 넓힐 수 있는 효과가 있다.In addition, according to the display device using the artificial intelligence speaker of the present invention, the user can add synesthesia information and visual fun, and can use not only the general public but also the hearing impaired person to expand the area of the consumer group. There is.

또한, 본 발명의 인공지능 스피커를 이용한 표시장치에 의하면, 다양한 캐릭터의 특성을 적용 및 이용하여 스피커의 특성을 규정지을 수 있기 때문에 악세서리 중심의 사업구조를 만들어 낼 수 있고, 이에 따라 다양한 캐릭터 관련 기업의 사업 아이템으로 확장이 가능한 효과가 있다.In addition, according to the display device using the artificial intelligence speaker of the present invention, it is possible to define the characteristics of the speaker by applying and using the characteristics of the various characters, thereby creating an accessory-oriented business structure, accordingly various character-related companies Can be extended to business items.

또한, 본 발명의 인공지능 스피커를 이용한 표시장치에 의하면, 인공지능 스피커, 스마트폰 악세사리, 청각장애인용 도우미, 모든 소리가 나오는 인공지능이 포함된 다양한 디바이스(청소기, 에어컨 등등)에 연결하여 서비스를 확장할 수 있다.In addition, according to the display device using the artificial intelligence speaker of the present invention, the service by connecting to a variety of devices (cleaners, air conditioners, etc.) including artificial intelligence speakers, smart phone accessories, helpers for the hearing impaired, all-sounding AI Can be extended.

또한, 본 발명의 인공지능 스피커를 이용한 표시장치에 의하면, 스마트 폰, 노트북 등 디지털 기기 악세사리, 청각장애인용 디바이스에도 적용하여 사용할 수 있는 효과가 있다.In addition, according to the display device using the artificial intelligence speaker of the present invention, there is an effect that can be applied to the digital device accessories, such as smart phones, laptops, devices for the hearing impaired.

그리고 본 발명의 인공지능 스피커를 이용한 표시장치에 의하면, 스마트 토이가 가질 수 있는 스마트한 기능들과 토이로써 감정이입이 가능한 부분은 이러한 AI스피커가 가진 인식과 표현의 한계성을 적극적으로 보완 및 개선해 줄 수 있는 효과가 있다. In addition, according to the display device using the artificial intelligence speaker of the present invention, the smart functions that the smart toy can have and the part that can be empathized as a toy actively complement and improve the limitation of the recognition and expression of the AI speaker. It can be effective.

도 1은 종래의 AI스피커들을 도시한 도면,
도 2는 본 발명의 인공지능 스피커를 이용한 표시장치를 구동하기 위한 시스템,
도 3은 AI음성 대화형 인터랙션의 구조도,
그리고
도 4는 본 발명의 스마트토이의 동작 방법을 설명하기 위한 흐름도이다.
1 is a view showing a conventional AI speakers,
2 is a system for driving a display device using the artificial intelligence speaker of the present invention;
3 is a structural diagram of an AI voice interactive interaction,
And
4 is a flowchart illustrating a method of operating a smart toy of the present invention.

본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정 해석되지 아니하며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.The terms or words used in this specification and claims are not to be construed as limiting in their usual or dictionary meanings, and the inventors may properly define the concept of terms in order to best explain their invention in the best way possible. It should be interpreted as meaning and concept corresponding to the technical idea of the present invention.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈", "장치" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 및/또는 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when a part is said to "include" a certain component, it means that it can further include other components, without excluding other components unless specifically stated otherwise. In addition, the terms “… unit”, “… unit”, “module”, “device”, and the like described in the specification mean a unit that processes at least one function or operation, which is implemented by a combination of hardware and / or software. Can be.

명세서 전체에서 "및/또는"의 용어는 하나 이상의 관련 항목으로부터 제시 가능한 모든 조합을 포함하는 것으로 이해되어야 한다. 예를 들어, "제1 항목, 제2 항목 및/또는 제3 항목"의 의미는 제1, 제2 또는 제3 항목뿐만 아니라 제1, 제2 또는 제3 항목들 중 2개 이상으로부터 제시될 수 있는 모든 항목의 조합을 의미한다.The term "and / or" throughout the specification should be understood to include all combinations that can be presented from one or more related items. For example, the meaning of "first item, second item and / or third item" may be given from two or more of the first, second or third items as well as the first, second or third items. Any combination of the possible items.

명세서 전체에서 각 단계들에 있어 식별부호(예를 들어, a, b, c, ...)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 한정하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.For each step throughout the specification, an identification code (eg, a, b, c, ...) is used for convenience of description, and the identification code does not limit the order of the steps. Unless the context clearly dictates a particular order, it may occur differently from the stated order. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.

이하, 도면을 참고하여 본 발명의 일실시예에 대하여 설명한다.Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

도 2는 본 발명의 인공지능 스피커를 이용한 표시장치를 구동하기 위한 시스템으로 도시된 바와 같이, 본 발명은 인공지능 기반의 캐릭터 표시 장치를 구성하여 인공지능 디바이스(100)에서 출력되는 사운드 또는 코드에 대응하여 표시창에 표시하거나 또는 동작으로 표현가능한 스마트 토이(200)를 포함하여 구성함으로써, 인공지능 스피커 소리의 내용 데이터가 스피커 외부에 설치되어 있는 토이 디바이스에 문자나 움직임으로 표시되어 커뮤니케이션과 표현의 방식을 확장시킬 수 있도록 동작한다.2 is shown as a system for driving a display device using an artificial intelligence speaker of the present invention, the present invention configures a character display device based on artificial intelligence to the sound or code output from the artificial intelligence device 100 By including a smart toy 200 that can be displayed on the display window or expressed in motion, the contents data of the AI speaker sound is displayed as a character or a movement on a toy device installed outside the speaker, thereby communicating and expressing. It works to extend.

또한, 인공지능 디바이스(100)는 스피커로 출력되는 사운드 또는 마이크로 입력되는 사운드에 대응되는 텍스트 데이터와 명령코드를 생성하여 스마트토이(200)로 전송하고, 스마트 토이(200)는 수신한 텍스트데이터는 디스플레이부(230)에 이모티콘, 기호, 그리고 문자 중 어느 하나 이상으로 표시하고, 명령코드는 동작실행부(240)를 구동하여 해당하는 동작을 수행하도록 동작한다.In addition, the artificial intelligence device 100 generates text data and command codes corresponding to the sound output from the speaker or the sound input into the microphone and transmits the generated command data to the smart toy 200. The smart toy 200 receives the received text data. One or more of an emoticon, a symbol, and a character are displayed on the display unit 230, and the command code operates to drive the operation execution unit 240 to perform a corresponding operation.

이를 위하여 인공지능 디바이스(100)는 클라우드 서버(300)와 통신하는 통신인터페이스부(110), 사용자의 음성을 수신하여 서버(300)로 전송하는 마이크(130), 서버(300)에서 전송되는 음성데이터를 출력하는 스피커(140), 전자기기를 제어하기 위한 제어 데이터를 출력하는 출력부(150), 스마트 토이의 동작실행부(240)를 실행시킬 명령코드와 디스플레이부(230)에 표시할 텍스트 데이터를 저장하는 컨텐츠저장부(160), 상기 명령코드와 텍스트데이터를 스마트토이(200)로 전송하는 연결부(170)를 포함하고, 통신인터페이스부(110)를 통하여 서버(300)로 전송 또는 수신하는 음성데이터에 대응하는 명령코드와 텍스트데이터를 컨텐츠저장부(160)에서 판독하여 연결부(170)를 통하여 스마트토이(200)로 전송하는 디바이스 제어부(120)를 포함하여 구성한다.To this end, the artificial intelligence device 100 includes a communication interface 110 communicating with a cloud server 300, a microphone 130 for receiving a user's voice and transmitting it to the server 300, and a voice transmitted from the server 300. Speaker 140 for outputting data, an output unit 150 for outputting control data for controlling the electronic device, a command code to execute the operation execution unit 240 of the smart toy and the text to be displayed on the display 230 Content storage unit 160 for storing data, and the connection unit 170 for transmitting the command code and text data to the smart toy 200, and transmits or receives to the server 300 through the communication interface 110 And a device controller 120 for reading command codes and text data corresponding to the voice data from the content storage unit 160 and transmitting the command codes and text data to the smart toy 200 through the connection unit 170.

통신인터페이스부(110)는 다양한 통신 방식(웹통신, 무선통신이나 블루투스(Bluetooth), Zigbee 등)을 통해서 데이터 송수신이 가능한 것이나, 본 발명에서는 클라우드 서버(300)와 웹을 통하여 통신하는 인터넷 통신을 통하여 서버(300)와 통신하는 것으로 설명한다.The communication interface 110 may transmit and receive data through various communication methods (web communication, wireless communication, Bluetooth, Zigbee, etc.), but in the present invention, the internet communication communicating with the cloud server 300 through the web is performed. It will be described as communicating with the server 300 through.

연결부(170)는 NFC나 블루투스와 같은 근거리 무선통신을 사용하여 스마트토이(200)와 통신할 수 있으나, USB를 연결할 수 있는 커넥터로 구성한다.The connection unit 170 may communicate with the smart toy 200 using short-range wireless communication such as NFC or Bluetooth, but is configured as a connector to connect the USB.

따라서, 디바이스 제어부(120)는 연결부(170)를 통하여 명령코드와 텍스트데이터를 전송할 수 있으나, USB커넥터의 연결을 자동 감지하여 연결된 경우에만 데이터를 전송하게 할 수도 있다.Accordingly, the device controller 120 may transmit the command code and the text data through the connection unit 170, but may also transmit data only when the USB connector is automatically detected and connected.

디바이스 제어부(120)는 출력되는 음성 신호에 가장 잘 매칭 되는 문자열을 음향 모델 추정 기술을 이용하여 문자열로 추정하여 해당 문자열에 대한 텍스트 데이터와 명령코드를 컨텐트저장부(160)로부터 추출하여 스마트 토이(200)로 전송하도록 동작한다.The device controller 120 estimates a string that best matches the output voice signal using a sound model estimation technique, extracts text data and command code for the string from the content storage unit 160, and extracts the smart toy ( 200).

또한, 문자음성변환(TTS;Text to Speech) 기술을 바탕으로 사용자의 목소리를 텍스트로 변환해 인식하고 명령을 수행하도록 동작한다.In addition, based on the Text to Speech (TTS) technology, it converts the user's voice into text to recognize and execute a command.

AI 스피커와 같은 인공지능 디바이스(100)는 사람의 언어가 기기 간 통신의 인터페이스가 되므로, 마이크(130)는 하나 이상으로 설치하고, 가능하면 모든 방향에 탑재되어 어느 방향에서도 음성 인식이 가능하도록 하는 것이 필요하다.Artificial intelligence device 100, such as AI speaker is a person's language is the interface between the device, the microphone 130 is installed in one or more, if possible to be mounted in all directions to enable speech recognition in any direction It is necessary.

인공지능 디바이스는 음성을 해석·분석한 후 그에 맞는 결과물을 최종 서비스하는 구조로서, 음성을 인식하고, 인식된 음성은 서버(300)로 전송되어 언어처리부(330)에서 해석·분석되며, 분석된 최종 결과물은 제휴된 디바이스·콘텐츠를 통해 서비스되는 것이다.The artificial intelligence device is a structure that analyzes and analyzes the voice and then services the final result according thereto. The AI device recognizes the voice, and the recognized voice is transmitted to the server 300 and interpreted and analyzed by the language processor 330. The end result is service through affiliated devices and content.

즉, 통상의 인공지능 디바이스는 사용자가 음성으로 스피커를 불러 기기를 활성화 한 다음, 사용자 음성을 녹음하고 녹음 파일을 서버로 전송한 후, 사용자 요청에 답을 주는 방식으로 작동된다. That is, a typical artificial intelligence device operates by activating a device by a user calling a speaker by voice, recording a user's voice, transmitting a recording file to a server, and responding to a user request.

이때 디바이스 제어부(120)는 서버(300)로 데이터를 전송할 때 암호화하여 전송하고, 서버(300)에서 암호화된 데이터를 수신하게 된다.In this case, the device controller 120 encrypts and transmits the data to the server 300, and receives the encrypted data from the server 300.

바람직하게는 음성 파일을 전송하면서 암호화되고, 이 파일을 서버에 저장하면서 다시 한번 암호화 되게 해서 안전하게 저장되게 한다.Preferably it is encrypted while transmitting the voice file, and once again encrypted while storing this file on the server to be stored securely.

(아래의 파란색 글자의 내용은 인공지능 스피커에 대한 특허 내용으로 보입니다. 본 발명을 설명하기 위해서 필요한 것인지요?) -> 서버와 인공지능디바이스간의 기본적 기능에 대하여 설명된 부분입니다. 이부분은 발명의 구현을 보다 명확히하면서, 인공지능디바이스가 스마트 토이와 어떻게 구동될 수 있는 지의 근거를 제시하는 것이므로 염려하지 않으셔도 됩니다.) (The blue text below appears as a patent for the AI speaker. Is it necessary to explain the present invention?)-> The basic functions between the server and the AI device are explained. This part makes clear the implementation of the invention, and it does not need to worry as it provides a basis for how the AI device can be operated with the smart toy.)

이러한 인공지능 디바이스는 물리적 접촉 없이 음성만으로 원하는 정보를 얻거나 기능을 수행할 수 있다는 점은 핸즈프리(Hands-Free)로 이어지며 많은 일을 동시에 수행하기 편리한 장점이 있고, 이론상 모든 IT 디바이스와 연동이 가능하다는 것이다.These artificial intelligence devices can get hands-free information or perform functions by voice only without physical contact, resulting in hands-free and convenient to perform many tasks at the same time. It is possible.

본 발명의 서버(300)는 클라우드 서버로 동작되며, 인공지능 디바이스(100)의 마이크(130)로 입력된 음성을 처리하여 다시 스피커(140)와 출력부(150)로 출력하도록 동작한다.The server 300 of the present invention operates as a cloud server, and operates to process the voice input through the microphone 130 of the artificial intelligence device 100 and output it to the speaker 140 and the output unit 150 again.

즉, 처리된 음성은 출력부(150)를 통하여 제휴된 디바이스를 제어하게 되며, 콘텐츠는 스피커(140)를 통하여 서비스하게 된다.That is, the processed voice controls the associated device through the output unit 150, and the content is serviced through the speaker 140.

클라우드 서버(300)와 인공지능 디바이스(100)는 대화형 인터랙션을 수행한다. 대화형 인터랙션이란 음성이나 챗봇 등 대화형 조작을 통한 인터랙션으로 수행기능과 역할범위에 따라 대화형 에이전트, 인공지능 비서 등의 이름으로 다양하게 지칭되는 이 시스템은 음성 또는 문자를 통하여 인간과 기계가 정보를 주고받는다.The cloud server 300 and the artificial intelligence device 100 perform interactive interaction. Interactive interaction is an interaction through interactive operation such as voice or chatbot. The system is called variously by name of interactive agent, artificial intelligence assistant, etc. according to the function and the range of role. Give and take.

인공지능의 구현을 위해서는 높은 사양의 서버가 필요하다. 그래서 비용이 많이 든다. 그러나 클라우드로 제공하게 되면, 높은 사양의 서버가 필요 없게 된다. AI 구현을 위한 처리 과정이 클라우드 서버에서 이뤄지기 때문이다. 이는 AI 구축비용을 대폭 절감시켜 줘, 누구나 쉽게 AI 서비스를 이용 받을 수 있게 한다.The implementation of artificial intelligence requires a server with high specifications. So it costs a lot. But delivering it to the cloud eliminates the need for high-end servers. This is because the processing for the AI implementation takes place in the cloud server. This greatly reduces the cost of building AI, making it easier for anyone to use AI services.

이러한 이점 외에도, 클라우드를 적용하면 2가지 이점이 더 있다. 장소와 시간에 제한을 받지 않고 AI 서비스를 받을 수 있으며 하드웨어 제약 조건이 없다. In addition to these benefits, there are two more benefits to applying the cloud. You can get AI services anywhere and at any time, with no hardware constraints.

클라우드 서버(300)는 웹서비스 플랫폼으로 새로운 웹기반의 운영체재의 가능성을 보여준다. 통상 클라우드 서버는 간단한 검색과 저장, 그리고 데이터 관리와 관련한 핵심적인 서비스 API의 형태로 구축한 복잡한 비즈니스 로직은 거대한 서버 클라우드속에 캡슐화되어 저장하고, 이 서비스를 이용하는 데 최소한의 비용만 받음으로써 수많은 비지니스 파트너들이 이를 이용하도록 유도할 수 있기 때문니다.Cloud server 300 shows the possibility of a new web-based operating system as a web service platform. Cloud servers typically build complex business logic in the form of key service APIs related to simple search, storage, and data management. Because they can get them to use it.

따라서 본 발명의 서버(300)는 ‘음성인식’, ‘자연어처리’, ‘추천’ 등 인공지능 기술을 바탕으로 하는 인공지능 플랫폼(AI Platform)으로 동작되는, 클라우드 컴퓨팅 플랫폼이다. 스피커 등 다양한 기기와 서비스를 매개로 사용자의 요청을 처리하는 역할을 맡는다.Therefore, the server 300 of the present invention is a cloud computing platform that operates as an AI platform based on artificial intelligence technologies such as 'speech recognition', 'natural language processing', and 'recommendation'. It is responsible for handling user requests through various devices and services such as speakers.

인공지능 플랫폼은 사용자와 인공지능 플랫폼을 매개하는 인터페이스로 동작하는 인공지능 스피커나 인공지능 비서와는 구분된다. The AI platform is distinguished from AI speakers or AI assistants that operate as an interface between the user and the AI platform.

실제 사용자의 요구를 처리하는 것은 클라우드 컴퓨팅 기반의 플랫폼에서 이뤄지며, 이 플랫폼을 구성하는 주요 기술이 ‘음성인식’, ‘시각 인식’, ‘자연어 처리’, ‘추천’ 등에서 성능향상을 가지고 온 소위 ‘인공지능’ 기술이다. 때문에 이러한 형태를 통칭해 보통 ‘인공지능 플랫폼’이라고 부른다. The actual user's needs are handled on a platform based on cloud computing, and the main technologies that make up the platform have been improved in performance such as 'speech recognition', 'visual recognition', 'natural language processing' and 'recommendation'. AI 'technology. For this reason, these forms are commonly referred to as "artificial intelligence platforms."

예를 들면, 사용자는 마이크(130)를 통해 ‘알렉사’라는 호출명으로 비서를 부른다. 들을 준비가 된 알렉사는 사용자의 ‘오늘 날씨 알려줘’라는 음성을 마이크(130)를 통해 듣고 디바이스 제어부(120)는 통신인터페이스부(110)를 통하여 요청을 클라우드서버(300)에 전송한다. For example, the user calls the secretary through the microphone 130 with the call name 'Alexa'. Alexa is ready to listen to the 'tell me the weather today' voice of the user through the microphone 130, the device controller 120 transmits the request to the cloud server 300 through the communication interface 110.

즉, 인공지능 플랫폼으로 동작하는 클라우드서버(300)는 언처처리부(330)에서 사용자의 명령을 이해하고 이해한 바에 따라 적합한 결과물을 DB부(350) 또는 실시간 검색하여 오늘 날씨를 송신부(340)를 통하여 인공지능 스피커인 인공지능 디바이스(100)로 전송하면, 사용자는 스피커(140)로 알렉사의 목소리를 통해 오늘 날씨를 듣는다.That is, the cloud server 300 operating as an artificial intelligence platform, the DB processor 350 or real-time search for a suitable result according to the understanding and understanding of the user's command in the gesture processor 330, and transmits the weather today to the transmitter 340. When transmitted to the AI device 100 which is an AI speaker, the user hears the weather today through the voice of Alexa to the speaker 140.

이처럼 인공지능 플랫폼이란 기기나 모바일 응용프로그램(앱) 등 다양한 사용자와의 접점에서 들어오는 요청을 더 이해하고 적합한 값을 보내주는 역할의 중추다. As such, the AI platform is the backbone of providing a better understanding of the requests coming from the point of contact with various users such as devices and mobile applications (apps).

인공지능 플랫폼의 형식적인 특징은 ‘음성 기반의 사용자 인터페이스’다. 지금까지 사용자는 보통 디스플레이를 기반으로 마우스나 키보드 같은 입력 기기를 이용해 기계와 대화했다. 조금 더 지난 후에는 손가락으로 터치해서 기계와 대화를 나눴다. 인간과 기계의 대화는 기계의 수준이 높아짐에 따라 인간이 편리해지는 방향으로 진화하고 있다. 기계의 수준은 비약적으로 향상되고 있으며 기계를 이해시키기 위한 인간의 노력은 줄어들고 있다. The formal feature of the AI platform is a "voice-based user interface." Until now, users have usually interacted with machines using input devices such as mice or keyboards based on displays. After some more time, I talked with the machine by touching it with my fingers. The dialogue between humans and machines is evolving towards the convenience of humans as the level of machines increases. The level of machines is improving dramatically and human efforts to understand them are diminishing.

이러한 인공지능 플랫폼을 상징하는 기기는 아마존 에코, 구글 홈과 같은 가정용 인공지능 스피커다. 인공지능 플랫폼을 활용할 수 있는 기기나 장소가 스피커나 가정에만 한정되는 것도 아니다. 인공지능 플랫폼의 인터페이스인 인공지능 비서가 스마트폰으로 들어오고 있으며, 자동차로도 확대되고 있다. The devices that symbolize the AI platform are home AI speakers such as Amazon Echo and Google Home. The devices and places where the AI platform can be used aren't limited to speakers or homes. The AI assistant, the interface to the AI platform, is coming into smartphones and is expanding into cars.

본 발명의 인공지능 플랫폼의 기능 중 첫 번째는 음악 관리이다.The first of the functions of the AI platform of the present invention is music management.

인공지능 스피커의 가장 큰 장점인 핸즈프리(Hands - Free). 목소리를 인식해 곧바로 음악 재생이 가능하다.Hands-free, the biggest advantage of AI speakers. Recognize your voice and play music right away.

두 번째, 인공지능 스피커로 쇼핑뿐만 아니라 배달 주문도 가능해 O2O(Online To Offline)는 더욱 확대될 것이고, 더 편리한 삶을 누릴 수 있을 것으로 기대된다.Second, with AI speakers, not only shopping but also delivery orders, O2O (Online To Offline) will expand even further, and it is expected to enjoy a more convenient life.

세 번째, 특정 앱 및 서비스 실행이다.Third, running specific apps and services.

SNS는 물론 메신저까지. 앱과 서비스의 모든 기능을 음성으로 조작할 수 있는 능력이 갖춰짐에 따라, 편리함은 더욱 커질 것이다.SNS as well as messenger. With the ability to manipulate all the features of apps and services by voice, convenience will be even greater.

네 번째, 날씨 정보 제공이다. 날씨를 즉각적으로 알 수 있다. 날씨뿐만 아니라, 실내의 온도 및 미세먼지 농도까지 알 수 있는 기능이 추가되고 있다.Fourth, weather information is provided. Know the weather instantly. In addition to the weather, the ability to see the temperature and dust concentration in the room has been added.

다섯 번째, 궁금한 것 알려주기&잡담 기능이다.Fifth, it is a feature to tell questions & chat.

인공지능 스피커는 계속 대화할 수 있다는 점과 함께 궁금한 점을 물어보면 즉각 답을 해준다.AI speakers can continue to talk, and if you have any questions, they will answer you immediately.

여섯 번째, 사물 인터넷 제어이다.Sixth, Internet of Things control.

가전제품과의 연결로 말 한마디로 IOT 기기를 켜고 끌 수 있는 편리함이 있다.In other words, it is convenient to turn on / off IOT device by connecting with home appliances.

일곱 번째, 시각적 청각적 표시를 이용한 스마트토이 제어이다.Seventh, smart toy control using visual auditory display.

스마트토이와 연결되어 디스플레이부를 이용하여 문자나 이모티콘을 표시하고 이에 상응되는 동작이 동작실행부를 통하여 이루어진다.Connected to the smart toy to display a character or emoticon using the display unit and the corresponding operation is performed through the operation execution unit.

본 발명에서는 인공지능 플랫폼이 이러한 특징들을 수행하기 위하여 서버(300)와 인공지능 디바이스(100)는 음성 대화형 인터랙션을 수행하도록 동작한다.In the present invention, in order for the AI platform to perform these features, the server 300 and the AI device 100 operate to perform a voice interactive interaction.

음성 대화형 인터랙션은 음성인식 기술을 기반으로 기계가 인간의 음성에서 의미를 추출하여 인간과 시스템 간인터랙션을 가능하게 하는 음성 인터페이스(Voice User Interface, VUI)방식을 따른다.Voice interactive interaction follows the Voice User Interface (VUI) method, which enables a machine to extract meaning from human voice and enable interaction between human and system based on voice recognition technology.

도 3의 AI음성 대화형 인터랙션의 구조도를 참고하면, 음성 대화형 인터랙션은 자연어 기반 인터랙션을 실시간으로 처리하여 답변하는 방식이다.Referring to the structure diagram of the AI voice interactive interaction of FIG. 3, the voice interactive interaction is a method of processing and responding to a natural language based interaction in real time.

일례로 도 3은 음성 대화형 인터랙션 구조는 전통적인 HCI(Human Computer Interaction)구조를 바탕으로 음성 인터랙션 시 사용자와 시스템 간의 상태변화를 정리한 구조이다. 1:1 인터랙션 (사용자: 시스템)구조를 가정하며 크게 ‘Wake-up’, ‘Command’, ‘Result’ 3가지단계로 구성된다. ‘Wake-up’ 단계는 사용자가 Wake-up Word(WUW)를 통해 시스템을 호출하는 단계이며 두 번째 ‘Command’ 단계는 사용자의 태스크를 음성명령으로 전달하고 마지막으로 ‘Result 단계’에서는 사용자 명령에 대한 시스템 응답이 제공된다. ‘Wake-up’ 단계에서 시스템이 전원에 연결된 상태를 대기상태(Stand-by)라고 본다면 사용자는 WUW를 통해 에이전트를 호출한다(Call WUW단계).For example, FIG. 3 illustrates a structure of a voice interactive interaction structure in which state changes between a user and a system are used during voice interaction based on a traditional Human Computer Interaction (HCI) structure. Assuming 1: 1 interaction (user: system) structure, it is composed of three stages, 'Wake-up', 'Command', and 'Result'. The 'Wake-up' phase is where the user calls the system through Wake-up Word (WUW). The second 'Command' phase delivers the user's task as a voice command. Finally, the 'Result phase' System response is provided. In the ‘Wake-up’ phase, if the system is connected to power as a stand-by, the user calls the agent through WUW (Call WUW phase).

이때 WUW는 대화형 에이전트의 이름이자 사용자가 느끼는 대화형 에이전트의 페르소나를 의미한다.The WUW is the name of the interactive agent and the persona of the interactive agent that the user feels.

예를 들어, Amazon Echo 사용 시에는 ‘Alexa’, SK텔레콤의 NUGU 사용 시에는 ‘아리아’ 라는 WUW를 통해 시스템을 호출한다. 사용자는 WUW를 발화한 후에 태스크에 대한 음성명령을 시도할 수 있다. ‘Wake-up’ 단계는 Command를 하기 위한 필수조건으로 다른 인터랙션 방식에는 없는 특수한 단계이다. 시스템에서 대화엔진은 사용자의 음성명령과 동시에 발화내용을 실시간으로 인식한다. 시스템은 이 단계에서 발화가 잘 처리되고 있다는 피드백을 전달할 수 도 있다. 시스템은 인식 및 처리결과에 따라 다양한 답변을 전달하게 되는데, 먼저 사용자의 발화를 한 번에 파악하여 태스크를 처리하여 줄 수 있는 완료 답변을 전달할 수 있다. 완료 답변이 사용자의 의도에 부합한 경우, 사용자는 대화를 종료하거나 다른 주제로 다시 처음부터 대화를 시도할 수 있다. 그러나, 시스템에서 사용자의 의도를 잘못 파악하여 완료 피드백을 제공할 경우, 사용자는 ‘Call WUW’단계로 돌아가 재발화를 시도할 수 있으며, 사용자의 발화에 대해 사용자가 의도한 태스크를 수행하기 위해 추가로 질문할 요소가 있다면, 시스템은 추가 피드백을 통해 태스크 처리에 필요한 요소를 파악할 수 있다. 이러한 피드백 이후에 사용자는 음성명령(Voice Command)단계로 돌아가서 질문에 대한 발화를 수행할 수 있다.For example, when using Amazon Echo, the system is called through WUW called `` Alexa '' when using Amazon Echo and `` Aria '' when using SK Telecom's NUGU. The user may attempt a voice command for the task after igniting the WUW. The ‘Wake-up’ step is a prerequisite for commanding and is a special step that is not present in other interaction methods. In the system, the dialogue engine recognizes the utterances in real time simultaneously with the user's voice command. The system may also provide feedback that speech is being handled at this stage. The system delivers a variety of answers according to the recognition and processing results. First, the system can deliver a complete answer that can process a task by identifying a user's speech at once. If the complete answer is consistent with the user's intention, the user can end the conversation or try the conversation from the beginning again on another topic. However, if the system misidentifies the user's intentions and provides completion feedback, the user can return to the 'Call WUW' step and attempt to re-ignite, adding to the user's utterance to perform the user's intended task. If there is an element to ask the question, the system can provide additional feedback to identify the elements necessary for task processing. After this feedback, the user can return to the Voice Command step and perform a speech on the question.

이러한 음성 대화형 인터랙션은 인간에게 친숙한 정보 입출력 방법이며 대부분의 인공지능 대화형 서비스는 자연어 기반의 인터랙션을 제공하기 때문에 별다른 지식이나 학습이 없이도 손쉽게 사용할 수 있다는 특징이 있으나, 자연어 처리에 대한 인식률이 떨어지는 것은 사실이다.Such voice interactive interaction is a human-friendly information input / output method, and most AI interactive services provide natural language-based interactions, so they can be easily used without any knowledge or learning, but the recognition rate for natural language processing is low. It is true.

따라서 본 발명에서는 스마트 토이를 이용하여 이러한 자연어 처리의 인식률을 보완할 수 있도록 하기 위하여 인공지능 스피커에 시각적, 물리적 효과를 더해주는 악세서리 디바이스를 인공지능 스피커 바디에 결합시킴으로써 단편적인 인공지능 스피커의 커뮤니케이션의 방식과 표현의 방식을 확장시키고자 하는 것이다.Therefore, in the present invention, in order to complement the recognition rate of the natural language processing by using smart toys, an accessory device that adds visual and physical effects to the artificial intelligence speaker is combined with the artificial speaker body by a fragmentary method of communication of the artificial speaker It is to expand the way of expression.

이를 위하여 서버(300)는 인공지능 디바이스(100)와 통신하는 통신부(310)와, 통신부(310)를 통하여 인공지능디바이스의 요청 사항을 수신하는 수신부(320)와 수신된 음성을 다양하게 분석해서 감정을 처리하여 스마트토이(200)가 표현할 수 있도록 처리하는 언어처리부(330)와 언어처리부(330)에서 처리된 음성을 스마트토이(200)로 전송하는 송신부(340) 그리고 처리된 음성들을 저장하는 DB부(350)를 포함할 수 있다.To this end, the server 300 analyzes the communication unit 310 for communicating with the artificial intelligence device 100 and the receiver 320 for receiving the request of the artificial intelligence device through the communication unit 310 and the received voice in various ways. A language processing unit 330 for processing the emotions so that the smart toy 200 can express them, a transmitter 340 for transmitting the voice processed by the language processing unit 330 to the smart toy 200 and storing the processed voices DB unit 350 may be included.

이러한 감성 기능의 스마트토이(200)는 기본적인 성격(Personality)을 갖게 구성하는 것이 바람직하다. 이 속성은 변하지 않으며 성격에 따라 받아들이는 입력의 강도가 결정된다. 또한 출력에 반영되어 스마트토이(200)의 행동 양식에서도 표현된다. 마이크(130)를 통한 입력은 감정(Emotion)으로 치환되어 성격의 간섭으로 인해 굴절되고 스마트토이의 기분(Mood)에 영향을 준다. 입력에 의해 기분(Mood)이 변화된 스마트토이(200)는 결정된 기분(Mood)에 따라 음성 및 동작을 출력하도록 하는 것이다.The smart toy 200 of the emotional function is preferably configured to have a basic personality (Personality). This property does not change, and the nature of the input accepted is determined by the nature. It is also reflected in the output is expressed in the behavior of the smart toy 200. Input through the microphone 130 is replaced by the emotion (Emotion) is refracted by the interference of the personality and affects the mood (Mood) of the smart toy. The smart toy 200 in which a mood is changed by an input is to output a voice and an action according to the determined mood.

여기서 성격(Personality)은 FFM(Five Factor Model)을 적용한다. FFM은 인간의 성격을 5가지의 상호 독립적인 요인들로 설명하는 성격심리학적 모형으로 개방성, 성실성, 외향성, 친화성, 신경성으로 구성되어 있다.Personality applies the FFM (Five Factor Model). FFM is a personal psychology model that describes human personality with five mutually independent factors. It is composed of openness, sincerity, extroversion, affinity, and nervousness.

상기 5가지 요소를 최저 1부터 최고 5까지의 수치를 매겨 스마트 토이의 성격을 규정한다. 다소 일관되지 않은 태도로 자유분방한 성격을 보이며 특히 흥분 했을 경우 예상치 못한 즉흥적 언행을 통해 사용자에게 재미를 제공할 수 있다. The above five factors are numbered from 1 to 5 to define the characteristics of smart toys. In a somewhat inconsistent attitude, they are free-spirited and can provide fun to users through unexpected improvisations, especially when they are excited.

한 개방적이고 외향적인 성격으로 인해 사람을 가리지 않고 친해질 수 있으며 사용자의 말에 재치 있고 참신한 행동으로 반응한다. 반면 정서가 다소 불안하여 성격의 양 극단을 자주 오가는 모습으로 다양한 반응 역시 기대할 수 있다.An open and outgoing personality allows people to become friendly with people and responds with tactful and fresh actions to the user's words. On the other hand, the emotions are somewhat unstable, so you can expect various reactions as you frequently travel between the two extremes of personality.

또한, 기분(Mood)은 러셀의 ‘감정 원형 모형’을 차용해 새롭게 구축한 무드타입 그래프를 이용한다. X축은 감정의 긍정 또는 부정을 나타낸다. +방향으로 갈수록 유쾌한 감정이고 -방향으로 갈수록 불쾌한 감정이다. Y축은 긴장과 이완을 나타낸다. 위로 올라갈수록 긴장 또는 각성을 나타내고 아래로 갈수록 감정이 이완되는 형태를 보인다. (-4,-4)부터 (+4,+4)까지를 표시하는 그래프이며 스마트토이의 감정의 범위를 좌표로 나타낸 것이다. 스마트토이는 입력되는 감정(Emotion)에 따라 좌표가 변경되며 그 좌표의 위치에 따라 기분(Mood)이 결정된다. 기분(Mood)은 ‘흥분’, ‘명랑’, ‘행복’, ‘만족’, ‘무기력’, ‘우울’, ‘비참’, ‘불만’, 그리고 가장 평범한 안정 상태인 ‘보통’까지 포함하여 총 9개이다.Mood also uses a new mood-type graph that borrows from Russell's “emotional prototype”. The x-axis represents the positive or negative of the emotion. It is a pleasant feeling toward the + direction and an unpleasant feeling toward the-direction. The Y axis represents tension and relaxation. As you go up, you feel nervous or awake, and as you go down, you feel relaxed. It is a graph displaying (-4, -4) to (+ 4, + 4) and shows the range of emotion of smart toy in coordinates. Smart toy coordinates change according to the input emotion (Emotion) and the mood (Mood) is determined according to the position of the coordinates. Mood is a combination of 'excitement', 'brightness', 'happiness', 'satisfaction', 'independence', 'depression', 'misery', 'complaint', and 'moderate', the most common stable state. Nine.

기분(Mood) 중 ‘보통’을 제외한 8가지를 스마트토이가 받아들이는 감정으로 설정하여 어떠한 입력이 들어오더라도 이 8가지 감정 중 하나로 분류되어 스마트토이는 그것을 입력 값으로 받게 된다. 그 값에 따라 좌표가 이동함으로써 스마트토이의 무드타입이 변하게 된다. 각 감정들은 고유한 이동방향을 갖고 서로 다른 음성과 동작 입력값이 같은 감정(Emotion) 범주에 놓일지라도 각각 다른 강도의 값을 가질 수 있다. 입력 값이 동일하더라도 스마트토이의 현재 상태에 따라 받아들이는 감정(Emotion)값은 다를 수 있다.Eight emotions, except ‘normal’, are set as emotions that smart toy accepts, and regardless of any input, smart toy receives it as an input value. By moving the coordinates according to the value, the mood type of the smart toy changes. Each emotion has a unique direction of movement and may have different intensity values, even if different voice and motion inputs are in the same emotion category. Even if the input value is the same, the accepted emotion value may vary according to the current state of the smart toy.

제어 명령어에 대응한 음파 데이터 생성 후 그 대상을 지정해 음파를 출력하여 해당 스마트토이만 대응하도록 지정할 수도 있다.After generating sound wave data corresponding to the control command, the target may be designated to output sound waves so that only the corresponding smart toys may be designated.

본 발명에서는 기존의 서버와 인공지능 디바이스를 이용하되, 인공지능 디바이스와 결합된 스마트토이가 시각적 또는 청각적으로 의사 표현을 지원하여 표시할 수 있도록 하는 것이다.In the present invention, the existing server and the artificial intelligence device are used, but the smart toy combined with the artificial intelligence device is capable of displaying a visual or audio expression by supporting the expression.

이를 위하여 인공지능 디바이스의 컨텐츠저장부(160)에는 명령코드와 텍스트 데이터를 아래와 같이 표 1에 단어별로 구분하여 코드화하고, 학습에 의하여 정정하거나 신규로 추가할 수 있도록 구성한다.To this end, the content storage unit 160 of the artificial intelligence device is configured to code the command code and text data by word in Table 1 as shown below, and to correct or add a new by learning.

명령코드Command code 텍스트 데이터Text data 명령코드Command code 텍스트 데이터Text data 명령코드Command code 텍스트데이터Text data 1 One 너무짜증나 Too much 2626 너무즐거워 So much fun 5151 너무피곤해I'm so tired 22 나화났어I'm mad 2727 상쾌하다Refreshing 5252 나너무졸려Too sleepy 33 혼나볼래Honna 2828 시원하다Cool 5353 재미없어Not funny 44 무시할거야Ignore it 2929 너무재밌어So funny 5454 휴걱정이야I'm worried 55 못된아이야I'm a bad boy. 3030 너무신난다I'm so excited 5555 다싫어졌어I hate it all 66 야이바보야Yaibaboya 3131 좋아좋아Good good 5656 나배고파I'm hungry 77 이멍청아you idiot 3232 너무기쁘다I am so happy 5757 너무속상해So upset 88 까불지마Don't blame 3333 아껴줄께I will save you 5858 밥먹기싫어I don't want to eat 99 난니가미워I hate you 3434 기분좋아Good mood 5959 나너무아파Too bad 1010 신기하다Miraculous 3535 너무행복해So happy 6060 나우울해It's bad. 1111 이것좀봐Look at this 3636 이제괜찮아It's okay now 6161 울고싶어Want to cry 1212 궁금하지I wonder 3737 널이해해I understand you 6262 나너무슬퍼Too sad 1313 열심히하자let's work hard 3838 미음이편해It's easy 6363 필요없어I do not need 1414 진짜짱이다Really good 3939 니가필요해I need you 6464 이제질렷어Now it's clear 1515 너무설레어Too excited 4040 잘될거야It'll turn out okay 6565 그만좀해Stop it 1616 너무 무서워So scary 4141 아주잘했어Very good 6666 조용히해Quiet 1717 긴장된다nervous 4242 문제없어No problem 6767 너랑안놀아I'm not playing with you 1818 화이팅 힘내Fighting cheers 4343 너무고마워Thank you so much 6868 흥미워미워Hate it 1919 정신차려Wake 4444 나는널믿어I trust you 6969 아시끄러워So noisy 2020 흥분된다exciting 4545 잠깐만쉬자Let's take a minute 7070 저리가버려Go away 2121 뭐하고놀까What to do 4646 진정하자Let's calm down 2222 시작해볼까shall we start 4747 흥분하지마Don't get excited 2323 출발출발Departure 4848 화내지마do not be angry 2424 완전웃겨Funny 4949 하기싫어do not want to do it 2525 대박이야Awesome 5050 용서해줘Please forgive

이러한 명령코드와 텍스트 데이터는 스마트토이(200)로 전송되어 디스플레이부(230)에는 문자 또는 기호, 아이콘 등으로 표시되고, 동작실행부(240)에서는 해당 코드에 대한 동작을 연속적으로 실행하면 된다.The command code and the text data are transmitted to the smart toy 200 and displayed on the display 230 as a character, a symbol, an icon, and the like, and the operation execution unit 240 may continuously execute the operation on the corresponding code.

예를 들어 디스플레이부(230)에는 해당 명령어를 표시함과 동시에 아래 그림1과 같은 감정 아이콘 중 어느 하나를 전송하여 표시할 수 있도록 한다.For example, the display 230 displays a corresponding command and transmits and displays any one of the emotion icons as shown in FIG. 1 below.

[그림 1] [Figure 1]

또한, 표 2와 같이 스마트토이의 동작실행부가 신체 부위 중 손으로 구성하였다면 다음과 같은 감정 표현을 실행하도록 할 수 있으며 연속동작으로 구현할 수도 있다.In addition, as shown in Table 2, if the motion execution unit of the smart toy is made up of the hands of the body part, the following emotional expressions may be executed and may be implemented in a continuous operation.

명령어command 손동작Gesture 명령어command 손동작Gesture 분노anger 좌절Frustration 열정Passion 우울depressed 화남aggro 경쾌Cheerfulness 평온tranquility 신남Excitement 호감Crush 행복Happiness

스마트토이(200)는 시청각적으로 인공지능 디바이스의 표현력을 보완할 수 있도록 하기 위하여 텍스트 데이터와 명령코드를 수신하는 명령코드수신부(220)와, 명령코드수신부(220)로 수신된 텍스트 데이터에 따라 이모티콘, 기호, 그리고 문자 중 어느 하나 이상으로 표시하는 디스플레이부(230), 그리고 수신된 명령코드에 따라 구동되는 동작실행부(240), 본 발명과 관련된 어플리케이션을 저장하고 있는 사용자 앱부(250), 그리고 저장부(260)를 포함하여 구성한다.The smart toy 200 according to the command code receiver 220 for receiving text data and command codes and the text data received by the command code receiver 220 in order to supplement the power of the artificial intelligence device visually and visually A display unit 230 for displaying at least one of an emoticon, a symbol, and a character; an operation execution unit 240 driven according to a received command code; a user app unit 250 storing an application related to the present invention; And it comprises a storage unit 260.

동작실행부(240)는 신체 부위 중 어느 하나의 파트를 형상화한 캐릭터로 구성한다.The motion execution unit 240 is composed of a character shaped any part of the body part.

예를 들면, 손이나 머리, 다리, 또는 몸을 형상화한 캐릭터로 구성할 수 있으며, 손의 경우 그림 2와 같이 손모양과 속도를 변경시키면 의사 표현과 함께 다양한 감정 표현도 가능할 것이다.For example, it can be composed of a character that embodies hands, head, legs, or body. In the case of hands, changing the shape and speed of the hand as shown in Fig. 2 will allow expression of various emotions along with the expression of a doctor.

스마트토이(200)는 인공지능 디바이스(100)와 전기적으로 접속되어 텍스트 데이터와 명령코드를 수신할 수도 있고, 이격되어 수신할 수도 있다.The smart toy 200 may be electrically connected to the artificial intelligence device 100 to receive text data and a command code, or may be spaced apart from each other.

전기적으로 접속된다는 것은 USB커넥터 등으로 직접 두 기기가 접속되는 것을 의미하는 것으로, 유선만을 한정하는 것은 아니며, 본 발명에서는 유선으로 직접 접속되어 있는 구성을 기준으로 설명한다.Electrically connected means that two devices are directly connected to each other through a USB connector, and the like is not limited to wires.

또한, 스마트토이(200)는 인공지능 디바이스에 결합되어 일체로 동작되도록 하기 위하여 밴드와 같은 형상으로 인공지능 디바이스를 결속하여 구성하거나 또는 인공지능 디바이스의 일측에 캐릭터 형상으로 구비되게 할 수도 있다.In addition, the smart toy 200 may be configured to bind the artificial intelligence device in a band-like shape or be provided in a character shape on one side of the artificial intelligence device in order to be coupled to the artificial intelligence device to operate integrally.

결국 스마트토이(200)는 인공지능 스피커와 같은 인공지능 디바이스에서 전송되는 텍스트 데이터와 명령코드에 따라 디스플레이부(230)에 이모티콘, 기호, 그리고 문자 중 어느 하나 이상으로 표시하고, 동작실행부(240)를 통하여 동작을 실행하도록 하여 인공지능 디바이스의 스피커출력과 함께 정보를 전달하거나 인공지능 스피커와의 상호작용을 강화 및 확장하여 감정도 대신하여 표현할 수 있는 것이다.Eventually, the smart toy 200 displays one or more of emoticons, symbols, and characters on the display 230 according to text data and command codes transmitted from an artificial intelligence device such as an artificial intelligence speaker, and an operation execution unit 240. By transmitting the information through the loudspeaker output of the AI device, or by enhancing and extending the interaction with the AI speaker, the emotion can be expressed instead.

이를 위하여 디스플레이부(230)는 LED로 구성하고, LED의 칼라나 표시되는 텍스트 등으로 수신된 정보를 표시하고, 동작실행부는 신체 부위 중 어느 하나의 파트 형상인 캐릭터로 구성하여, 해당 신체 부위의 동작의 움직임, 위치변화, 제스처, 또는 속도의 조절로 표현하고자 하는 정보를 표시하여 내용에 포함된 다양한 감정까지 표현이 가능하다.To this end, the display unit 230 is composed of LED, and displays the information received by the color of the LED or the displayed text, and the operation execution unit is composed of any one of the body parts of the character of the body part, It is possible to express various emotions included in the contents by displaying information to be expressed by movement, position change, gesture, or speed control.

예를 들면 기쁨을 나타내는 것으로 "^^, ㅋㅋ, ㅎㅎ, ㅍㅍ, 하하, 히히, 호호 " 를 표시할 수 있으며, 슬픔으로는 "ㅜㅜ, 흑흑, 엉엉, 힝" 등으로 표시할 수 있을 것이다.For example, "^^, ㅋㅋ, ㅎㅎ, ㅍ, haha, hihi, hoho" can be displayed as a joy, and "tsu, black, whit, hing" can be expressed as sadness.

따라서, 제어부(210)는 자체 저장부(260)에 인공지능 디바이스로부터 명령코드가 수신되면, 해당 명령코드를 연속적으로 움직이기 위한 연속코드로 구성된 동작코드를 저장해 두고, 명령코드가 수신되면 해당 명령코드에 대응되는 동작코드를 저장부(260)에서 판독하여 동작실행부(240)를 구동하도록 하면, 동작실행부는 연속된 동작을 수행할 수 있는 것이다.Therefore, when the command code is received from the artificial intelligence device in the storage unit 260, the control unit 210 stores an operation code consisting of a continuous code for continuously moving the command code, and if the command code is received, the command When the operation code corresponding to the code is read from the storage unit 260 to drive the operation execution unit 240, the operation execution unit may perform a continuous operation.

더하여 저장부(260)에는 캐릭터화한 신체 부위의 길이와 3축으로 변형될 수 있는 각도가 고려된 동작코드를 연속적으로 결정하여 저장할 수 있다. In addition, the storage unit 260 may continuously determine and store an operation code considering the length of the characterized body part and an angle that may be deformed in three axes.

또한, 동작실행부(240)가 팔을 구동하는 경우라면 소형 모터와 관절, 힘줄 등으로 구성하여 실제 팔의 동작과 같이 구동될 수 있도록 구성할 수 있다.In addition, if the operation execution unit 240 to drive the arm can be configured to be driven as the actual motion of the arm by configuring a small motor and joints, tendons and the like.

또한, 본 발명의 인공지능 기반의 캐릭터 표시 장치를 구동하기 위한 어플리케이션을 저장하는 사용자 앱부(250)를 구성하면 단말기(400)를 통하여 코드를 정정하게 할 수 있다.In addition, by configuring the user app unit 250 for storing the application for driving the artificial intelligence-based character display device of the present invention can be corrected through the terminal 400.

어플리케이션은 앱스토어 등을 통하여 관련 앱을 다운받아 저장하거나 또는 이동통신망을 통해 웹서버(300)에 접속하여 어플리케이션을 다운받아 설치되도록 구성된다.The application is configured to download and store the related app through an app store or the like or to download and install the application by accessing the web server 300 through a mobile communication network.

바람직하게는 앱(App)의 설치과정에서 서버의 인증과정을 거쳐 어플리케이션을 설치하도록 할 수 있다.Preferably, the application may be installed through the authentication process of the server in the installation process of the app.

즉, 본 발명은 웹사이트로 동작되는 서버(300)에 접속해서 앱을 다운받아 설치할 수도 있으나, IOS 계열이건 안드로이드 계열이건 관계없이 각 OS에 맞는 앱을 앱 스토어에 올려서 배포하는 방식을 사용할 수도 있다.That is, the present invention may download and install an app by accessing the server 300 operated as a website, but may use a method of distributing an app suitable for each OS on an app store regardless of whether it is an IOS system or an Android system. .

이러한 앱(App)의 다운 및 설치과정 그리고 인증단계 등은 일반적인 것이므로 그 상세한 설명은 생략한다.Since the download and installation process and authentication step of the app (App) is a general thing, a detailed description thereof will be omitted.

본 발명에서 스마트토이(200)에 탑재된 어플리케이션은 향후 휴대용 단말기(400)의 사용자 앱부(420)에 저장되어 있는 본 발명과 관련된 인공지능 기반의 캐릭터 표시 장치를 구동하기 위한 어플리케이션을 표시부(410)에 표시하고, 텍스트 데이터와 동작코드에 대한 정보를 추가하거나 변경하여 컨텐츠들을 지속적으로 업그레이드할 수 있도록 구성할 수 있다.In the present invention, the application mounted on the smart toy 200 is a display unit 410 for displaying an application for driving an artificial intelligence-based character display device related to the present invention stored in the user app unit 420 of the portable terminal 400 in the future. It can be configured to upgrade content by adding or changing information about text data and operation code.

예를 들면, 신체 부위 중 어느 하나로 표현된 캐릭터에 따라 스케일, 방향 등을 조정하여 해당 신체 부위의 길이와 3축으로 변형될 수 있는 각도가 고려된 동작코드를 연속적으로 결정하여 저장하도록 하는 것이다. For example, by adjusting the scale, the direction, etc. according to the character represented by any one of the body parts to continuously determine and store the operation code considering the length of the body part and the angle that can be transformed into three axes.

이상에서는 인공지능 디바이스가 스피커로 출력할 컨텐츠에 대응되는 표시나 동작을 스마트 토이가 수행하는 것을 중심으로 설명하였으나, 본 발명은 이에 한하지 않고 인공지능 디바이스의 마이크를 통하여 수신되는 음성 데이터에 대하여도 동일한 구성과 기능으로 표현할 수 있음은 물론이다.In the above description, the smart toy performs the display or operation corresponding to the content to be output to the speaker by the artificial intelligence device, but the present invention is not limited thereto, and the voice data received through the microphone of the artificial intelligence device is not limited thereto. Of course, the same configuration and function can be expressed.

즉, 인공지능 디바이스의 마이크(130)로 외부 사용자에 의한 음성이 수신되면디바이스 제어부(120)는 표 1로 저장되어 있는 컨텐츠저장부(160)에서 해당 음성과 관련된 텍스트 데이터와 명령코드를 선택하여 스마트 토이(200)로 전송하여 디스플레이부(230)와 동작실행부(240)가 동작되게 하는 것이다.That is, when a voice by an external user is received through the microphone 130 of the artificial intelligence device, the device controller 120 selects text data and command codes related to the voice from the content storage unit 160 stored in Table 1 The display unit 230 and the operation execution unit 240 are operated by transmitting to the smart toy 200.

물론 디스플레이부(230)는 사용자의 선택에 따라 서버(300)에서 전송되어 지는 텍스트데이터를 스트림으로 표시할 수 있을 뿐만 아니라, 사용자의 음성도 스트림으로 표시할 수 있음은 물론이다.Of course, the display 230 may not only display the text data transmitted from the server 300 according to the user's selection, but also display the user's voice as a stream.

상술한 구성을 이용하여 본 발명의 스마트토이 구동방법에 대하여 설명한다.The smart toy driving method of the present invention will be described using the above configuration.

도 4는 본 발명의 스마트토이의 동작 방법을 설명하기 위한 흐름도로서, 도시된 바와 같이, 인공지능 스피커로 동작하는 인공지능디바이스(100)에 이벤트 발생 시 해당 데이터를 스마트토이(200)로 전송하여 시각적, 청각적으로 표현할 수 있도록 한다.4 is a flowchart illustrating a method for operating a smart toy of the present invention, as shown, by transmitting the data to the smart toy 200 when an event occurs in the artificial intelligence device 100 that operates as an artificial speaker Be able to express visually and aurally.

아울러 인공지능디바이스(100)와 서버(300) 간의 일반적인 인공지능 스피커로 동작시키기 위한 데이터 송수신에 대해서는 구체적 설명을 생략하기로 한다.In addition, a detailed description of data transmission and reception for operating as a general artificial intelligence speaker between the artificial intelligence device 100 and the server 300 will be omitted.

먼저, 인공지능디바이스(100)는 학습과 조사를 통하여 컨텐츠저장부(160)에 단어별로 명령코드와 텍스트 데이터를 단어별로 구분하여 코드화하고, 학습에 의하여 정정하거나 신규로 추가할 수 있도록 구성한다(S110).First, the artificial intelligence device 100 is configured to code the command code and text data for each word in the content storage unit 160 by word through learning and investigation, and to correct or add new words by learning ( S110).

단계 S110에서 컨텐츠저장부(160)에 텍스트 데이터와 명령코드가 저장되고 나면, 디바이스 제어부(120)는 마이크(130)와 스피커(140)를 통하여 이벤트가 발생하였는 지를 판단한다((S120).After the text data and the command code are stored in the content storage unit 160 in step S110, the device controller 120 determines whether an event has occurred through the microphone 130 and the speaker 140 (S120).

여기서 이벤트란 마이크(130)와 스피커(140)를 통하여 음성이 입력되거나 출력되는 것으로 판단되는 것을 의미하고, 더하여 서버(300)에서 안내되는 메세지를 포함할 수도 있다.Here, the event means that the voice is input or output through the microphone 130 and the speaker 140, and may include a message guided by the server 300.

단계 S120에서 이벤트가 발생한 것으로 판단되면, 디바이스 제어부(120)는 해당 음성에 포함되어 있는 단어와 연관된 텍스트 데이터와 명령코드가 있는 지 컨텐츠저장부(160)에서 검색한다(S130).If it is determined in step S120 that the event has occurred, the device controller 120 searches in the content storage unit 160 for text data and command codes associated with words included in the corresponding voice (S130).

검색을 하는 동안, 이벤트 감지 시, 또는 스마트토이(200)로 명령코드를 보내기 전과 후 또는 동시에 발생한 이벤트를 스피커(140)로 출력하고(S140), 검색된 덱스트 데이터와 명령코드는 스마트토이(200)로 연결부(170)를 통하여 송출한다(S150)..During the search, the event is detected, or before and after sending the command code to the smart toy 200 or at the same time the event occurred to the speaker 140 (S140), the searched dex data and command code is a smart toy (200) To be sent through the connection unit 170 (S150).

단계 S150에서 인공지능디바이스(100)로부터 텍스트 데이터와 명령코드를 접수하면 스마트토이(200)는 텍스트 데이터와 명령코드를 이용하여 디스플레이부(230)와 동작실행부(240)를 제어하여 문자를 표시하거나 움직이는 동작을 수행하도록 하는 것이다(S210).In operation S150, when the text data and the command code are received from the AI device 100, the smart toy 200 controls the display unit 230 and the operation execution unit 240 to display characters using the text data and the command code. Or to perform a moving operation (S210).

구체적으로, 단계 S210에서는 수신된 텍스트 데이터를 이용하여 디스플레이부(230)에 이모티콘, 기호, 그리고 문자 중 어느 하나 이상으로 표시하도록 한다.Specifically, in step S210 to display any one or more of emoticons, symbols, and characters on the display 230 using the received text data.

또한, 제어부(210)는 수신된 명령코드를 이용하여 캐릭터가 연속적으로 동작할 수 있도록 저장부(260)에 저장되어 있는 연관된 연속코드로 구성된 동작코드를 추출하여 동작실행부(240)가 연속적으로 움직이게 하는 것이다.In addition, the control unit 210 extracts an operation code consisting of the associated continuous code stored in the storage unit 260 so that the character can continuously operate using the received command code, the operation execution unit 240 continuously It's moving.

상술한 바와 같이 본 발명의 인공지능 기반의 캐릭터 표시 장치 및 그 표시 방법은 인공지능 스피커, 스마트폰 앱세서리, 청각장애인용 도우미, 모든 소리가 나오는 디바이스에 연결하여 서비스를 확장할 수 있어, 인공지능이 포함된 다양한 디바이스(청소기, 에어컨 등)에 적용할 수 있다.As described above, the artificial intelligence-based character display device and its display method of the present invention can extend the service by connecting to an artificial speaker, a smart phone accessory, a helper for the hearing impaired, and a device that generates all sounds. This can be applied to a variety of devices (cleaners, air conditioners, etc.) included.

이상에서 본 발명은 기재된 구체예에 대하여 상세히 설명되었지만 본 발명의 기술사상 범위 내에서 다양한 변형 및 수정이 가능함은 당업자에게 있어서 명백한 것이며, 이러한 변형 및 수정이 첨부된 특허 청구범위에 속함은 당연한 것이다.While the invention has been described in detail with respect to the described embodiments, it will be apparent to those skilled in the art that various modifications and variations are possible within the spirit of the invention, and such modifications and variations belong to the appended claims.

100 : 인공지능 디바이스 110 : 통신인터페이스부
120 : 디바이스제어부 130 : 마이크
140 : 스피커 150 : 출력부
160 : 컨텐츠저장부 170 : 연결부
200 : 스마트 토이 210 : 제어부
220 : 명령코드 수신부 230 : 디스플레이부
240 : 동작실행부 300 : 서버
400 : 단말기
100: artificial intelligence device 110: communication interface unit
120: device control unit 130: microphone
140: speaker 150: output unit
160: content storage unit 170: connection unit
200: smart toy 210: control unit
220: command code receiving unit 230: display unit
240: operation execution unit 300: server
400: terminal

Claims (7)

인공지능 디바이스에서 출력되는 사운드 또는 코드에 대응하여 표시장치에 표시하거나 또는 동작으로 표현 가능한 스마트 토이를 구비한 인공지능 기반의 캐릭터 표시 장치에 있어서,
상기 인공지능 디바이스는 스피커로 출력되는 사운드에 대응되는 텍스트 데이터와 명령코드를 생성하여 상기 스마트토이로 전송하고,
상기 스마트 토이는
수신된 텍스트데이터를 디스플레이부에 이모티콘, 기호, 그리고 문자 중 어느 하나 이상으로 표시함과 동시에 수신된 명령코드에 대응되는 연속적 동작코드로 신체 부위 중 어느 하나를 캐릭터로 표현한 동작실행부가 동작을 수행하도록 제어하는 인공지능 기반의 캐릭터 표시 장치.
An artificial intelligence-based character display device having a smart toy that can be displayed on a display device or represented by an action in response to a sound or a code output from an artificial intelligence device,
The artificial intelligence device generates text data and command codes corresponding to the sound output from the speaker and transmits the same to the smart toy.
The smart toy
Display the received text data on the display as one or more of emoticons, symbols, and characters, and at the same time, the action executing unit expressing any one of the body parts as a character with a continuous action code corresponding to the received command code. AI based character display device to control.
제 1항에 있어서,
상기 인공지능 디바이스는
서버와 통신하는 통신인터페이스부;
상기 동작실행부를 실행할 명령 코드와 상기 디스플레이부에 표시할 텍스트 데이터를 저장하는 컨텐츠저장부;
상기 명령코드와 텍스트데이터를 상기 스마트토이로 전송하는 연결부;
상기 통신인터페이스부를 통하여 서버로 전송 또는 수신하는 음성데이터에 대응하는 명령코드와 텍스트데이터를 상기 컨텐츠저장부에서 판독하여 상기 연결부를 통하여 상기 스마트토이로 전송하는 디바이스 제어부;
를 더 포함하는 인공지능 기반의 캐릭터 표시 장치.
The method of claim 1,
The artificial intelligence device
Communication interface unit for communicating with the server;
A content storage unit for storing command code to execute the operation execution unit and text data to be displayed on the display unit;
A connection unit for transmitting the command code and text data to the smart toy;
A device control unit for reading command codes and text data corresponding to voice data transmitted or received to a server through the communication interface unit from the content storage unit and transmitting the command code and text data to the smart toy through the connection unit;
AI-based character display device further comprising.
제 2항에 있어서,
상기 디스플레이부는 LED로 구성되고, LED 칼라로 표시되는 텍스트를 통해 수신된 텍스트 데이터를 표시하고, 신체 부위 중 어느 하나를 캐릭터로 표현한 동작실행부는 해당 신체 부위 동작의 움직임, 제스처, 또는 속도 중 어느 하나 이상으로 증강된 내용을 표시하는 인공지능 기반의 캐릭터 정보 표시 장치.
The method of claim 2,
The display unit is composed of LEDs, and displays the text data received through the text displayed by the LED color, the motion execution unit representing any one of the body parts as a character any one of the movement, gesture, or speed of the body part motion Artificial intelligence-based character information display device for displaying the above augmented content.
제 2항에 있어서,
상기 인공지능 디바이스는
신체 부위 중 어느 하나를 캐릭터로 표현한 동작 실행부가 해당 신체 부위의 길이와 3축으로 변형될 수 있는 각도가 고려된 명령코드를 결정하여 상기 컨텐츠 저장부에 저장하는 인공지능 기반의 캐릭터 정보 표시 장치.
The method of claim 2,
The artificial intelligence device
An artificial intelligence-based character information display device for determining a command code considering a length of the body part and an angle that can be deformed into three axes and storing the command code in the content storage unit.
제 1항에 있어서,
상기 스마트토이는
상기 인공지능 디바이스로부터 명령코드를 수신하면, 해당 동작 종류에 따라 연속적인 동작을 나타내는 코드를 저장부에서 연속적으로 추출하고, 추출된 연속코드로 동작코드를 구성하여 상기 동작실행부가 동작하도록 제어하는 인공지능 기반의 캐릭터 표시 장치.
The method of claim 1,
The smart toy
When receiving the command code from the artificial intelligence device, according to the operation type to extract a code indicating a continuous operation in the storage unit continuously, the artificial code to control the operation execution unit by configuring the operation code from the extracted continuous code Intelligence based character display device.
(a)인공지능스피커로부터 검출된 음성에 따라 시각적으로 표시하고자 하는 텍스트 데이터와 움직임을 제어하는 명령코드를 선택하는 단계;
(b)상기 (a)단계에서 선택된 텍스트데이터로 이모티콘, 기호, 그리고 문자 중 어느 하나 이상으로 디스플레이부에 표시하는 단계;및
(c)상기 (a)단계에서 선택된 명령코드로 신체 부위 중 어느 하나를 캐릭터로 표현한 동작 실행부가 동작을 수행하도록 제어하는 단계;
를 포함하는 인공지능 스피커를 이용한 동작 표시 방법.
(a) selecting command data for controlling text data and movement to be visually displayed according to the voice detected from the artificial intelligence speaker;
(b) displaying at least one of an emoticon, a symbol, and a character on the display unit with the text data selected in step (a); and
(c) controlling the operation execution unit which expresses any one of the body parts as a character to perform the operation using the command code selected in the step (a);
Motion display method using an artificial intelligence speaker comprising a.
제 6항에 있어서,
상기 (c)단계는
동작 종류에 따라 명령코드를 결정하기 이전에
해당 동작 종류에 따라 연속적인 동작을 나타내는 코드를 연속적으로 추출하고, 추출된 연속코드로 동작코드를 구성하여 상기 동작 실행부가 동작을 수행하도록 제어하는 인공지능 기반의 캐릭터 표시 방법.
















The method of claim 6,
Step (c) is
Before deciding the command code according to the operation type
An artificial intelligence-based character display method of continuously extracting a code representing a continuous motion according to a corresponding motion type, and configuring the motion code using the extracted continuous code to control the motion execution unit to perform the motion.
















KR1020180030945A 2018-03-16 2018-03-16 Character display device based the artificial intelligent and the display method thereof KR102063389B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180030945A KR102063389B1 (en) 2018-03-16 2018-03-16 Character display device based the artificial intelligent and the display method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180030945A KR102063389B1 (en) 2018-03-16 2018-03-16 Character display device based the artificial intelligent and the display method thereof

Publications (2)

Publication Number Publication Date
KR20190115517A true KR20190115517A (en) 2019-10-14
KR102063389B1 KR102063389B1 (en) 2020-02-11

Family

ID=68171616

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180030945A KR102063389B1 (en) 2018-03-16 2018-03-16 Character display device based the artificial intelligent and the display method thereof

Country Status (1)

Country Link
KR (1) KR102063389B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220030448A (en) * 2020-09-01 2022-03-11 고려대학교 산학협력단 Apparatus and method for outputting image corresponding to language
KR20220081075A (en) * 2020-12-08 2022-06-15 홍익대학교 산학협력단 Vr and ar contents providing system, method and computer program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000062975A (en) 1999-03-23 2000-10-25 주르겐 헤르만 Device and method for controlling an automatic transmission
JP2002307354A (en) * 2000-11-07 2002-10-23 Sega Toys:Kk Electronic toy
KR20080087300A (en) * 2007-03-26 2008-10-01 임선준 Reaction toy and control method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000062975A (en) 1999-03-23 2000-10-25 주르겐 헤르만 Device and method for controlling an automatic transmission
JP2002307354A (en) * 2000-11-07 2002-10-23 Sega Toys:Kk Electronic toy
KR20080087300A (en) * 2007-03-26 2008-10-01 임선준 Reaction toy and control method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220030448A (en) * 2020-09-01 2022-03-11 고려대학교 산학협력단 Apparatus and method for outputting image corresponding to language
KR20220081075A (en) * 2020-12-08 2022-06-15 홍익대학교 산학협력단 Vr and ar contents providing system, method and computer program

Also Published As

Publication number Publication date
KR102063389B1 (en) 2020-02-11

Similar Documents

Publication Publication Date Title
US11222632B2 (en) System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs
US11102624B2 (en) Automated messaging
US20220284896A1 (en) Electronic personal interactive device
CN107340865B (en) Multi-modal virtual robot interaction method and system
US11468894B2 (en) System and method for personalizing dialogue based on user's appearances
CN106874265B (en) Content output method matched with user emotion, electronic equipment and server
CN105320726B (en) Reduce the demand to manual beginning/end point and triggering phrase
JP5899116B2 (en) System and method for tactile enhancement of speech-to-text conversion
CN110609620B (en) Human-computer interaction method and device based on virtual image and electronic equipment
CN111124123A (en) Voice interaction method and device based on virtual robot image and intelligent control system of vehicle-mounted equipment
CN107632706B (en) Application data processing method and system of multi-modal virtual human
CN107329990A (en) A kind of mood output intent and dialogue interactive system for virtual robot
US11183187B2 (en) Dialog method, dialog system, dialog apparatus and program that gives impression that dialog system understands content of dialog
CN107294837A (en) Engaged in the dialogue interactive method and system using virtual robot
US11267121B2 (en) Conversation output system, conversation output method, and non-transitory recording medium
JP2018008316A (en) Learning type robot, learning type robot system, and program for learning type robot
KR102628211B1 (en) Electronic apparatus and thereof control method
CN111919248A (en) System for processing user utterances and control method thereof
JP7130201B2 (en) Equipment and programs, etc.
KR102063389B1 (en) Character display device based the artificial intelligent and the display method thereof
WO2017200077A1 (en) Dialog method, dialog system, dialog device, and program
Eriksson Onboarding Users to a Voice User Interface: Comparing Different Teaching Methods for Onboarding New Users to Intelligent Personal Assistants
JP7331349B2 (en) Conversation output system, server, conversation output method and program
Campbell et al. Expressivity in interactive speech synthesis; some paralinguistic and nonlinguistic issues of speech prosody for conversational dialogue systems
KR20200077936A (en) Electronic device for providing reaction response based on user status and operating method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant