KR20240108146A - Customized artificial intelligence output system - Google Patents

Customized artificial intelligence output system Download PDF

Info

Publication number
KR20240108146A
KR20240108146A KR1020220191416A KR20220191416A KR20240108146A KR 20240108146 A KR20240108146 A KR 20240108146A KR 1020220191416 A KR1020220191416 A KR 1020220191416A KR 20220191416 A KR20220191416 A KR 20220191416A KR 20240108146 A KR20240108146 A KR 20240108146A
Authority
KR
South Korea
Prior art keywords
artificial intelligence
conversation partner
output
output system
conversation
Prior art date
Application number
KR1020220191416A
Other languages
Korean (ko)
Inventor
김태우
Original Assignee
김태우
Filing date
Publication date
Application filed by 김태우 filed Critical 김태우
Publication of KR20240108146A publication Critical patent/KR20240108146A/en

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/028Casings; Cabinets ; Supports therefor; Mountings therein associated with devices performing functions other than acoustics, e.g. electric candles

Abstract

본 발명은 인공지능출력시스템, 서버시스템으로 구성되어 대화상대가 누구인지 판단하여 대화상대에 맞는 캐랙터를 영상출력부로 출력하고 해당 캐릭터가 대화상대의 감정을 판단하여 대화상대의 현재 감정이나 상태에 맞는 음악이나, 글, 문장, 영상등을 출력할 수 있으며, 대화상대가 거주하는 공간에 구비되는 다양한 주변 디지털 기기의 영상 및 음성 출력부에 연결되어 대화상대가 되는 캐릭터가 음성 및 영상으로 출력가능하게 할 수 있는 것이다.The present invention consists of an artificial intelligence output system and a server system, and determines who the conversation partner is, outputs a character suitable for the conversation partner to the video output unit, and determines the character's emotions to match the conversation partner's current emotion or state. It can output music, text, sentences, videos, etc., and is connected to the video and audio output of various peripheral digital devices provided in the space where the conversation partner lives, so that the character with whom the conversation partner lives can output voice and video. It can be done.

Description

맞춤형 인공지능 출력 시스템{Customized artificial intelligence output system} Customized artificial intelligence output system}

본 발명은 맞춤형 인공지능 출력 시스템에 관한 것으로, 더욱 상세하게는, 대화 상대에 따라서 인공지능분석에 의해 맞춤형으로 대화상대에 맞게 음성 및 영상을 출력하는 시스템에 관한 것이다. The present invention relates to a customized artificial intelligence output system, and more specifically, to a system that outputs audio and video tailored to the conversation partner according to the conversation partner through artificial intelligence analysis.

일반적으로 가정에 구비된 인공지능 스피커의 경우 단순히 대화상대의 말을 인식하고 대화상대가 요구하는 것을 일방적으로 출력하는 수단에 불과하며 대화상대가 어린이, 청소년, 남자, 여자에 따라 상대를 구별하지 않으며, 대화상대의 감정을 이해하는 인공지능 스피커가 아니어서 대화상대에게 기계적인 느낌을 주며 서로 교감하는 인공지능 출력 시스템이 필요해지고 있다. In general, artificial intelligence speakers installed in homes are simply a means of recognizing the words of the conversation partner and unilaterally outputting what the conversation partner is requesting. They do not distinguish between children, teenagers, men, and women. , Since artificial intelligence speakers are not capable of understanding the emotions of conversation partners, there is a need for artificial intelligence output systems that communicate with conversation partners by giving them a mechanical feeling.

따라서, 본 발명은 대화상대에 맞춤형으로 음성 및 영상을 출력하는 맞춤형 인공지능 출력시스템을 제공하여 대화상대와 감정적으로 교감하고 친숙하게 대화가 가능한 인공지능 출력 시스템 제공하는 것에 있다. Therefore, the purpose of the present invention is to provide a customized artificial intelligence output system that outputs audio and video tailored to the conversation partner, and to provide an artificial intelligence output system that allows emotional communication and friendly conversation with the conversation partner.

이와 같은 목적을 달성하기 위해서 본 발명에서는 인공지능출력시스템, 서버시스템으로 구성되어 대화상대가 누구인지 판단하여 대화상대에 맞는 캐랙터를 영상출력부로 출력하고 해당 캐릭터가 대화상대의 감정을 판단하여 대화상대의 현재 감정이나 상태에 맞는 음악이나, 글, 문장, 영상등을 출력할 수 있으며, 대화상대가 거주하는 공간에 구비되는 다양한 주변 디지털 기기의 영상 및 음성 출력부에 연결되어 대화상대가 되는 캐릭터가 음성 및 영상으로 출력가능하게 할 수 있다. In order to achieve this purpose, the present invention consists of an artificial intelligence output system and a server system, which determines who the conversation partner is and outputs a character matching the conversation partner to the video output unit. The character determines the conversation partner's emotions and displays the conversation partner's emotions. It is possible to output music, text, sentences, videos, etc. that match the person's current emotion or state, and is connected to the video and audio output of various peripheral digital devices provided in the space where the conversation partner lives, so that the character who becomes the conversation partner is It can be output as audio and video.

본 맞춤형 인공지능 출력시스템은 대화상대에 맞춤형으로 음성 및 영상을 출력하는 맞춤형 인공지능 출력시스템을 제공하여 대화상대와 감정적으로 교감하고 친숙하게 대화가 가능한 효과가 있다.This customized artificial intelligence output system provides a customized artificial intelligence output system that outputs audio and video tailored to the conversation partner, enabling emotional communication and friendly conversation with the conversation partner.

도1은 본 발명의 맞춤형 인공지능 출력시스템에 관한 것이다
도2는 인공지능 출력시템의 예시도 및 영상 출력부 예시도 이다.
도3은 인공지능 출력시스템과 주변 디지털기기 연동 예시도 이다.
Figure 1 relates to a customized artificial intelligence output system of the present invention.
Figure 2 is an example of an artificial intelligence output system and an example of an image output unit.
Figure 3 is an example of linking an artificial intelligence output system and surrounding digital devices.

이하, 첨부한 도면들을 참조하여 본 발명의 바람직한 실시 예를 자세히 서술하도록 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.

본 발명은 크게 맞춤형 인공지능 출력시스템, 서버시스템으로 구성되며, 인공지능 출력시스템에는 대화상대의 음성감지부, 대화상대의 얼굴을 감지하는 카메라를 구비한 얼굴감지부를 포함하는 대화상대 인식부와 음성출력부, 영상출력부를 구비하며 해당 대화상대감지부에 따라 음성 및 영상을 출력하는 제어부를 포함하여 구성될 수 있다. 서버시스템은 음성감지부 및 얼굴감지부 등의 데이터를 분석하는 빅데이타 분석부 및 데이터 분석에 의해 대화상대에 따라 맞춤형으로 대화를 진행하도록 데이터 분석을 통해 맞춤형으로 제공하는 인공지능 분석부를 포함할 수 있다.The present invention largely consists of a customized artificial intelligence output system and a server system, and the artificial intelligence output system includes a conversation partner recognition unit including a voice detection unit of the conversation partner, a face detection unit equipped with a camera to detect the conversation partner's face, and a voice detection unit. It is provided with an output unit and a video output unit, and may be configured to include a control unit that outputs audio and video according to the corresponding conversation partner detection unit. The server system may include a big data analysis unit that analyzes data such as the voice detection unit and face detection unit, and an artificial intelligence analysis unit that provides customized conversation through data analysis to conduct a customized conversation according to the conversation partner. there is.

영상출력부와 음성출력부를 구비한 인공지능 출력시스템은 고정식도 가능하며 이동수단에 의해 대화상대를 따라 이동하는 이동로봇 형태도 가능하며, 대화상대를 따라 비행 이동하는 비행형 형태도 가능하다.The artificial intelligence output system equipped with a video output unit and a voice output unit can be fixed, can be in the form of a mobile robot that moves along the conversation partner by means of movement, and can also be in the form of a flying robot that flies and moves along the conversation partner.

맞춤형 인공지능 출력시스템은 해당 시스템에 대화를 거는 대화상대의 음성 및 카메라를 포함한 얼굴 감지부를 통해 대화상대를 파악하고 인공지능 출력시스템과 연결되는 서버시스템에서 해당 대화를 진행하고 있는 대상이 어린이인지, 청소년인지, 성년인지, 남자인지, 여자인지를 판단하여 해당 대화상대에 어울리는 음성과 대화상대 캐릭터를 선정하여 인공지능 출력시스템의 음성 출력부 및 영상출력부를 통해 대화를 진행할 수 있다. 여기서 캐릭터는 가정에 거주하는 대화상대가 미리 좋아하는 캐릭터 및 목소리를 선정할 수 있으며, 그렇지 않은 경우에는 자동으로 어울리는 캐릭터 및 목소리를 선장할 수 있다. 예를들어 성인 남성의 경우 대화상대 캐릭터는 여성으로 우아한 평소 이상형의 캐릭터가 선정될 수 있다. 또한 어린이와 대화하는 경우 음성출력부로 같은 또래의 쾌활한 목소리의 어린이 목소리가 출력되어질 수 있다.The customized artificial intelligence output system identifies the conversation partner through the face detection unit including the voice and camera of the conversation partner, and determines whether the person conducting the conversation is a child in the server system connected to the artificial intelligence output system. By determining whether the person is a teenager, an adult, a man, or a woman, a voice and conversation partner character suitable for the conversation partner can be selected and the conversation can be conducted through the voice output unit and video output unit of the artificial intelligence output system. Here, the character and voice that the conversation partner living at home likes can be selected in advance, and if not, a suitable character and voice can be selected automatically. For example, in the case of an adult male, the conversation partner may be a female character with an elegant and ideal type. Additionally, when talking to a child, a cheerful voice of a child of the same age can be output through the voice output unit.

맞춤형 인공지능 출력시스템은 대화상대가 대화대상 캐릭터를 선정할 때 캐릭터의 이름을 설정하여 인공지능 출력시스템을 부를 때 캐릭터 대화상대 이름을 “스카이”로 정한 경우 “안녕 스카이”,“하이 스카이”로 부르면 해당하는 캐릭터와 목소리가 반응하면서 대화가 가능할 수 있다.The customized artificial intelligence output system sets the name of the character when the conversation partner selects the character to talk to, and when calling the artificial intelligence output system, if the character conversation partner name is “Sky”, “Hello Sky” or “Hi Sky” When called, the corresponding character and voice may respond and allow conversation.

인공지능 출력시스템은 대화상대가 화가 나있는 경우 목소리의 톤의 변화가 목소리 톤의 높이, 대화상대가 욕등의 거친표현을 사용하는 경우 이를 인식하여 해당 대화상대의 감정을 파악하여 인공지능 캐릭터가 영상출력부로 표시되어 대화상대와 부드럽게 대화를 시도하면서 화났을 때 들어면 좋은 음악이나 좋은 글귀 및 영상등을 음성 및 영상출력부를 통해 출력할 수 있다. 예를 들어 “~님 지금 많이 속상하시군요 이럴 때 위로가 되는 좋은 글귀 및 음악을 들려드릴께요 화푸세요~”등의 대화를 진행할 수 있다. 이때 영상출력부에 출력되는 캐릭터는 진짜 사람의 얼굴을 한 전체 모습의 캐릭터일 수 있으며, 얼굴만 보이는 캐릭터 일 수도 있다. 해당 캐릭터는 직접 대화하는 인공지능 캐릭터로 얼굴에 감정과 표정이 다양하게 표현될 수 있으며, 대화상대의 기분에 따라 애교를 부리는 형태도 가능하며 이는 서버시스템을 통해서 지속적으로 업데이트 가능하다.The artificial intelligence output system recognizes the change in tone of voice when the conversation partner is angry, the height of the voice, or when the conversation partner uses harsh expressions such as swearing, and determines the emotions of the conversation partner. It is displayed as an output unit, and while trying to have a smooth conversation with your conversation partner, you can output good music, good phrases, and videos to listen to when you are angry through the audio and video output unit. For example, you can conduct a conversation such as, “You are very upset right now. I will tell you some good words and music that will comfort you during these times. Please relieve your anger.” At this time, the character output to the video output unit may be a full-face character with a real human face, or may be a character with only the face visible. The character is an artificial intelligence character that communicates directly, and can express various emotions and expressions on its face. It can also show cuteness depending on the mood of the conversation partner, and this can be continuously updated through the server system.

또한 해당 인공지능 출력시스템에서 대화상대1인 아빠가 특정 음악을 볼륨5로 듣고 있는 경우 대화상대2는 “아빠 무슨 음악을 이렇게 크게 틀어요?”라는 말을 인식하는 경우에는 인공지능 출력시스템은 대화상대1인 아빠가 음악듣기를 거실에서 명령한 경우 대화상대1이 거실에서 멀어지고 볼륨이 크다고 얘기했던 대화상대2가 거실에 나오는 경우 해당 출력시스템은 대화상대 인식부에서 현재 거실에 있는 사람이 누구인지 판단하여 대화상대2가 거실에 나오는 경우 자동으로 볼륨을 기존에 설정했던 볼륨보다 낮추어서 음악을 재생하고 다시 대화상대1이 거실에 나오는 경우 이를 감지하여 다시 볼륨을 높여서 대화상대에 맞춤형으로 볼륨을 조절할 수도 있다.In addition, in the artificial intelligence output system, if conversation partner 1, father, is listening to a specific music at volume 5 and conversation partner 2 recognizes the words, “Dad, what music are you playing so loud?”, the artificial intelligence output system will respond to the conversation. When partner 1, father, orders to listen to music in the living room, partner 1 moves away from the living room, and conversation partner 2, who said the volume is loud, comes into the living room, the output system determines who is currently in the living room in the conversation partner recognition unit. When conversation partner 2 comes into the living room, the volume is automatically lowered from the previously set volume to play music. When conversation partner 1 comes into the living room again, it is detected and the volume is raised again to adjust the volume to suit the conversation partner. It may be possible.

또한 맞춤형 인공지능 출력시스템은 거주공간에 구비되는 다양한 디지털 기기 예를 들어 거실 월패드, 거실 및 방 텔레비전, 디스플레이 액자, 컴퓨터 모니터, 싱크대 월패드, 냉장고 디스플레이 장치, 개인별 스마트폰의 영상 및 음성 출력부와 통신가능하게 연결될 수 있다. In addition, the customized artificial intelligence output system is used in various digital devices installed in residential spaces, such as living room wall pads, living room and room televisions, display frames, computer monitors, sink wall pads, refrigerator display devices, and video and audio output units of individual smartphones. can be communicatively connected to.

따라서 대화상대1 예를 들어 아빠가 부엌에 가서“하이 스카이”를 부르는 경우 대화상대1과 가장가까운 디지털 기기 예를 들어 스마트 냉장고의 디스플레이 장치에서 대화상대1이 좋아하는 캐릭터가 해당 기기의 디스플레이 장치로부터 영상 및 음성이 출력될 수 있다. 해당 주변디지털 기기는 전원이 연결되어 있는 상태이면 언제나 반응할 수 있다. 인공지능 출력시스템과 가정에 구비된 다양한 주변디지털 기기들이 인터넷으로 모두 연결된 상태에서는 이러한 작동이 가능하다.Therefore, if conversation partner 1, for example, dad goes to the kitchen and sings “High Sky,” conversation partner 1’s favorite character is displayed on the display device of the digital device closest to conversation partner 1, for example, a smart refrigerator. Video and audio can be output. The peripheral digital device can respond any time it is connected to power. This operation is possible when the artificial intelligence output system and various peripheral digital devices installed at home are all connected to the Internet.

인공지능 출력시스템에는 음성 출력부 및 영상출력부가 구비되며 이를 제어하는 제어부가 포함되며 제어부는 서버시스템과 통신가능하며 서버시스템의 판단에 따라 음성 및 영상출력부로 해당 맞춤형 캐릭터가 음성을 출력하며 해당 연장촬영장치로 캐릭터 얼굴, 표정, 모습 및 대화상대가 요구하는 음악의 가사 및 좋은 글귀등이 출력가능하다.The artificial intelligence output system is equipped with a voice output unit and a video output unit, and includes a control unit to control them. The control unit can communicate with the server system, and according to the judgment of the server system, the customized character outputs a voice through the audio and video output unit, and the corresponding extension The recording device can output the character's face, expression, appearance, and music lyrics and good phrases requested by the conversation partner.

이상에서는 본 발명의 특정한 바람직한 실시예를 참고하여 설명하였으나, 본 발명은 상기한 실시예에 한정되지 아니하며 본 발명의 요지를 벗어나지 않는 범위에서 통상의 지식을 가진 자에 의해 다양한 변경과 수정이이루어질 수 있는 것임을 밝혀둔다.In the above, the present invention has been described with reference to specific preferred embodiments, but the present invention is not limited to the above-described embodiments, and various changes and modifications may be made by those skilled in the art without departing from the gist of the present invention. Let me make it clear that it exists.

100: 인공지능 출력시스템
110: 대화상대 인식부
120: 음성 출력부
130: 영상 출력부
140: 제어부
111: 음성감지부
112: 얼굴감지부
200: 서버시스템
210: 빅데이타 분석부
220: 인공지능 분석부
300: 주변 디지털 기기
400: 대화상대
100: Artificial intelligence output system
110: Chat partner recognition unit
120: Voice output unit
130: Video output unit
140: control unit
111: Voice detection unit
112: Face detection unit
200: Server system
210: Big data analysis department
220: Artificial Intelligence Analysis Department
300: Peripheral digital devices
400: Chat partner

Claims (3)

맞춤형 인공지능 출력시스템에 있어서,
대화상대와 대화가 가능한 것으로 음성감지부, 얼굴감지부, 대화상대 인식부, 제어부, 음성출력부, 영상출력부를 구비한 인공지능 출력시스템,
상기 맞춤형 인공지능 출력시스템과 통신가능하게 연결되어 대화상대를 판단하여 맞춤형 캐릭터 및 음성을 영상출력부 및 음성출력부를 통해 출력하도록 제어하는 서버시스템을 포함하는 맞춤형 인공지능 출력시스템
In a customized artificial intelligence output system,
An artificial intelligence output system equipped with a voice detection unit, a face detection unit, a conversation partner recognition unit, a control unit, a voice output unit, and a video output unit to enable conversation with a conversation partner;
A customized artificial intelligence output system including a server system that is communicatively connected to the customized artificial intelligence output system and controls to determine the conversation partner and output customized characters and voices through the video output unit and the audio output unit.
제 1항에 있어서, 상기 인공지능 출력시스템은 주변 디지털 기기와 연결가능하게 구성되는 것을 특징으로 하는 맞춤형 인공지능 출력시스템The customized artificial intelligence output system according to claim 1, wherein the artificial intelligence output system is configured to be connectable to surrounding digital devices. 제 1에 있어서, 영상출력부는 대화상대에 어울리는 캐릭터를 생성하며, 음성출력부는 대화상대에 어울리는 목소리를 출력하는 것을 특징으로 하는 맞춤형 인공지능 출력시스템
In the first, a customized artificial intelligence output system characterized in that the video output unit generates a character suitable for the conversation partner, and the audio output unit outputs a voice suitable for the conversation partner.
KR1020220191416A 2022-12-31 Customized artificial intelligence output system KR20240108146A (en)

Publications (1)

Publication Number Publication Date
KR20240108146A true KR20240108146A (en) 2024-07-09

Family

ID=

Similar Documents

Publication Publication Date Title
US11792577B2 (en) Differential amplification relative to voice of speakerphone user
US10958457B1 (en) Device control based on parsed meeting information
JP6760267B2 (en) Information processing equipment, control methods, and programs
JP6798502B2 (en) Information processing equipment, information processing methods, and programs
TWI681315B (en) Data transmission system and method thereof
US20230045237A1 (en) Wearable apparatus for active substitution
US20160234606A1 (en) Method for augmenting hearing
US11335322B2 (en) Learning device, learning method, voice synthesis device, and voice synthesis method
US10586131B2 (en) Multimedia conferencing system for determining participant engagement
CN106067996B (en) Voice reproduction method, voice dialogue device
US11367443B2 (en) Electronic device and method for controlling electronic device
US11544968B2 (en) Information processing system, information processingmethod, and recording medium
JP5965835B2 (en) Ambient communication system, operating device for the system, method of operation, and computer readable medium
US11412178B2 (en) Information processing device, information processing method, and program
KR101609585B1 (en) Mobile terminal for hearing impaired person
KR20240108146A (en) Customized artificial intelligence output system
JP6678315B2 (en) Voice reproduction method, voice interaction device, and voice interaction program
KR20190004486A (en) Method for training conversation using dubbing/AR
WO2023109862A1 (en) Method for cooperatively playing back audio in video playback and communication system
JP4772315B2 (en) Information conversion apparatus, information conversion method, communication apparatus, and communication method
US20240171418A1 (en) Information processing device and information processing method
JPWO2019058673A1 (en) Information processing equipment, information processing terminals, information processing methods, and programs
JP5616429B2 (en) Ambient communication system, method of operating the system, and computer readable medium
KR20190115517A (en) Character display device based the artificial intelligent and the display method thereof
WO2020066154A1 (en) Information processing device, information processing method, computer program, and dialogue system