WO2019156332A1 - 증강현실용 인공지능 캐릭터의 제작 장치 및 이를 이용한 서비스 시스템 - Google Patents

증강현실용 인공지능 캐릭터의 제작 장치 및 이를 이용한 서비스 시스템 Download PDF

Info

Publication number
WO2019156332A1
WO2019156332A1 PCT/KR2018/015964 KR2018015964W WO2019156332A1 WO 2019156332 A1 WO2019156332 A1 WO 2019156332A1 KR 2018015964 W KR2018015964 W KR 2018015964W WO 2019156332 A1 WO2019156332 A1 WO 2019156332A1
Authority
WO
WIPO (PCT)
Prior art keywords
character
artificial intelligence
unit
user
voice
Prior art date
Application number
PCT/KR2018/015964
Other languages
English (en)
French (fr)
Inventor
유승재
Original Assignee
(주)페르소나시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)페르소나시스템 filed Critical (주)페르소나시스템
Publication of WO2019156332A1 publication Critical patent/WO2019156332A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Definitions

  • Augmented Reality is a technology that displays a 3D virtual image over a real image or background as a single image.
  • a typical application of such augmented reality is a road guidance function.
  • the road guidance function using the augmented reality is implemented by displaying a virtual arrow on the actual background when the street is photographed through the augmented reality application to the destination.
  • FIG. 2 is a block diagram illustrating a configuration of a character generator 172 according to an exemplary embodiment of the present invention.
  • FIG. 5 is a view showing the utilization of the artificial intelligence character according to an embodiment of the present invention.
  • FIG. 7 is a diagram illustrating an operation of producing an artificial intelligence character using voice according to an embodiment of the present invention.
  • FIG 8 is a view illustrating an operation of manufacturing an artificial intelligence character for each field in the artificial intelligence character production apparatus according to an embodiment of the present invention.
  • FIG. 1 is a block diagram showing the configuration of an apparatus for producing an augmented reality artificial intelligence character according to an embodiment of the present invention.
  • the production apparatus 100 may mean an AI character producer terminal.
  • the production apparatus 100 may include a function of an operation server supporting an AI character related application executed on a user terminal side.
  • the storage unit 120 may include conversation data 121, rule data 122, matching program language 123, character production data 124, specification information 125, and user identification information 126.
  • the storage unit 120 may include, for example, an internal memory or an external memory.
  • the internal memory may be, for example, volatile memory (for example, dynamic RAM (DRAM), static RAM (SRAM), or synchronous dynamic RAM (SDRAM), etc.), non-volatile memory (for example, OTPROM (one). time programmable ROM (PROM), programmable ROM (PROM), erasable and programmable ROM (EPROM), electrically erasable and programmable ROM (EEPROM), mask ROM, flash ROM, flash memory (such as NAND flash or NOR flash), hard drives, Or it may include at least one of a solid state drive (SSD).
  • volatile memory for example, dynamic RAM (DRAM), static RAM (SRAM), or synchronous dynamic RAM (SDRAM), etc.
  • non-volatile memory for example, OTPROM (one).
  • the user identification information 126 may mean user ID information of an application for executing a user terminal identification number or an artificial intelligence character.
  • the camera unit 160 may be provided in the production apparatus 100, wherein the camera unit 160 is required to implement 'augmented reality' displayed on the screen by combining an artificial intelligence character with a real image. Image information can be taken.
  • the character generator 172 may include a command extractor 1721, a language converter 1722, and a command applier 1723.
  • the command extractor 1721 may extract a command related to character generation from the translated contents.
  • the controller 170 may include an augmented reality image generator 173.
  • the augmented reality image generator 173 may be configured as shown in FIG. 3. Referring to FIG. 3, the augmented reality image generator 173 may include a designated information generator 1731, an environment information recognizer 1732, and an augmented reality applier 1733.
  • the preference information determiner 177 may collect user SNS account information, picture information, and character generation history information received from the user terminal, and may extract user preference information based on the collected information.
  • the preference information determiner 177 may designate a basic setting value of a character for each user based on the extracted user preference information and provide the same to a user terminal.
  • the basic setting value of the character for each user may include tone, voice, motion, costume, face, and body type as the items.
  • the default setting value of each character of the user is information about a character appearance to be automatically generated when the user requests the generation of an artificial intelligence character from the user terminal. When the character generation is requested without a special request from the user, an artificial intelligence character may be produced based on the user preference information calculated by the preference information determination unit.
  • the default setting value of the character based on user preference information may be one or more, and may be set for each item such as an animation character, a celebrity, or an animal.
  • the user terminal 200 may include a communication unit 210, a storage unit 220, an input unit 230, a display unit 240, an audio processor, a camera unit 260, and a controller 270.
  • the storage unit 220 may store user information 221, character history information 222, and a basic character setting value 223.
  • the controller 270 may include a voice recognition processor 271 and an augmented reality image execution unit 272.
  • the input unit 230 may receive a user input for producing or changing an artificial intelligence character and a user input for executing the artificial intelligence character in augmented reality.
  • FIG. 5 is a view showing the utilization of the artificial intelligence character according to an embodiment of the present invention.
  • FIG. 7 is a diagram illustrating an operation of producing an artificial intelligence character using voice according to an embodiment of the present invention.
  • the controller 170 of the artificial intelligence character production apparatus 100 may give a setting value corresponding to a voice of a producer when a character is generated and produce the same. For example, as illustrated in FIG. 7, when a producer inputs a voice saying, “30s, a man, a skinny figure, a bank teller character.”, The controller 170 generates character production data held in the artificial intelligence character production apparatus 100. Based on the character, the character may be set to a set value corresponding to the user's voice.
  • FIG 8 is a view illustrating an operation of manufacturing an artificial intelligence character for each field in the artificial intelligence character production apparatus according to an embodiment of the present invention.
  • an answer is calculated for a question put into character 1.
  • 11a shows that a 'is calculated for the question a input to the character 1, and b' is calculated for the question b.
  • the difference between a, b, and c may mean the sentence content of each question or may mean the field of the question.
  • a, b, and c questions may be input to character 1 to calculate a ', b', and c 'corresponding to each question, and d, e, and f questions may be input to character 2.
  • d ', e', and f 'corresponding to each question can be calculated.
  • the response-based generator 1741 may count each question or a response content corresponding to each question by the number of times.
  • the content may be the basis for generating a new artificial intelligence character only if the response number is a predetermined reference value or more. For example, the output frequency of a 'is 1, the output frequency of b' is 3 times, the output frequency of c 'is 7 times, the output frequency of d' is 8 times, the output frequency of e 'is 2 times, If it is assumed that the output frequency is one time and the preset reference value is six times, the response-based generator 1741 may generate new artificial intelligence using c 'and d' exceeding the preset reference value.
  • the response-based generation unit 1741 determines the common theme of the keywords included in the c 'and d', or the c 'and d' includes Extracting a question (eg, c, d, which is a previously input question) that can derive a keyword, or extracting a question and answer searched on the web with keywords included in c 'and d'. Can be done.
  • a question eg, c, d, which is a previously input question

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 증강현실용 인공지능 캐릭터의 제작 장치 및 이를 이용한 서비스 시스템에 관한 것이다.

Description

증강현실용 인공지능 캐릭터의 제작 장치 및 이를 이용한 서비스 시스템
본 발명은 증강현실용 인공지능 캐릭터의 제작 장치 및 이를 이용한 서비스 시스템에 관한 것이다.
현실의 이미지나 배경에 3차원의 가상 이미지를 겹쳐 하나의 영상으로 보여주는 기술을 증강현실(Augmented Reality; AR)이라고 한다. 이러한 증강현실의 대표적인 활용 예로는 길 안내 기능이 있다. 이러한 증강현실을 이용한 길 안내 기능은 증강현실 어플리케이션을 통해 길거리를 촬영하면, 목적지까지 가능 방향을 실제 배경 위에 가상의 화살표로 표시하는 방식으로 구현되고 있다.
증강현실은 활용도가 매우 다양하며 디지털 기기의 발달과 함께 그 활용가치가 더욱 증대될 것으로 예상되는 바이다. 그러나 현재 증강현실 기술의 이용은 매우 제한적인 실정이다. 증강현실 책(스마트 기기로 실물 책자를 비추면 증강현실 애니메이션이 구현되는 기능을 제공함)과 같이 동적인 영상을 증강현실과 함께 제공하려는 시도가 계속해서 이루어지고는 있으나, 이는 정해진 동작에 한하여 액션을 취하고 사라지는 매우 단순한 방식의 기술로서 교육용으로만 사용되고 있다.
한편, 증강현실용 캐릭터와 관련된 선행기술로는 공개특허공보 10-2015-0057424(증강현실 아바타 상호작용 방법 및 시스템)이 있다.
본 발명은 증강현실(AR) 상에서 구현되는 소통 가능한 인공지능 캐릭터를 제공하고, 이를 이용하여 사용자의 니즈를 보다 정확히 파악하며, 증강현실상의 캐릭터를 통해 보다 명확하고 생동감 넘치는 서비스를 제공하기 위해 고안되었다.
본 발명의 실시 예에 따른 증강현실용 인공지능 캐릭터를 제작하기 위한 전자장치는 사용자 단말기 및 웹으로부터 인공지능 캐릭터 생성에 요구되는 정보를 수신하고, 사용자 단말기에 완성된 인공지능 캐릭터를 이용한 서비스 콘텐츠를 전송하는 통신부, 인공지능 캐릭터 생성에 요구되는 캐릭터 제작 데이터를 저장하는 저장부, 음성 인식을 위해 제작자의 음성을 입력받고, 인공지능 캐릭터의 답변 내용을 음성으로 출력하는 오디오 처리부 및 음성으로 입력된 제작자의 명령을 인식하고 상기 명령에 기반하여 인공지능 캐릭터를 생성하는 제어부를 포함하고, 상기 제어부는 입력된 음성을 분석하고, 해당 음성의 의미를 판단하는 음성 인식 처리부 및 상기 음성 인식부에 의해 인식된 제작자의 음성 내용 중 캐릭터 생성과 관련된 명령을 추출하고, 추출된 명령과 매칭되는 프로그램 언어를 이용하여 캐릭터 생성을 수행하는 캐릭터 생성부를 포함할 수 있다.
본 발명은 증강현실상에서 인공지능 캐릭터를 이용해 사용자 요청에 대한 답변 서비스를 제공하므로 실제 소통하는 것과 같은 효과를 제공할 수 있다.
또한 본 발명은 인공지능 캐릭터를 음성으로 그 외형을 제작하거나 변경할 수 있도록 하므로 보다 수월한 방식으로 다양한 모습의 인공지능 캐릭터를 생성할 수 있다.
또한 본 발명은 제작자 설정에 따라 인공지능 캐릭터를 기 설정된 시간 간격에 따라 다양하게 생성할 수 있다.
또한 본 발명은 사용자 선호도에 대응하는 인공지능 캐릭터의 설정값을 도출하고 이를 이용하여 인공지능 캐릭터를 생성하여 제공할 수 있다.
도 1은 본 발명의 실시 예에 따른 증강현실용 인공지능 캐릭터의 제작 장치의 구성을 도시한 블록도이다.
도 2는 본 발명의 실시 예에 따른 캐릭터 생성부 172의 구성을 도시한 블록도이다.
도 3은 본 발명의 실시 예에 따른 증강현실 영상 생성부 173의 구성을 도시한 블록도이다.
도 4는 본 발명의 실시 예에 따른 사용자 단말기의 구성을 도시한 블록도이다.
도 5는 본 발명의 실시 예에 따른 인공지능 캐릭터의 활용 모습을 도시한 도면이다.
도 6은 본 발명의 실시 예에 따른 인공지능 캐릭터와 대화하기 위한 동작을 도시하는 도면이다.
도 7은 본 발명의 실시 예에 따른 음성으로 인공지능 캐릭터를 제작하는 동작에 관하여 도시하는 도면이다.
도 8은 본 발명의 실시 예에 따른 인공지능 캐릭터 제작 장치에서 분야별 인공지능 캐릭터를 제작하는 동작을 도시한 도면이다.
도 9는 본 발명의 실시 예에 따른 음성으로 인공지능 캐릭터를 제작하는 과정에 대하여 도시한 순서도이다.
도 10은 본 발명의 실시 예에 따른 자동생성부의 구성을 도시한 블록도이다.
도 11a 및 도 11b는 본 발명의 실시 예에 따른 인공지능에 의해 추가의 인공지능 캐릭터가 생성되는 동작에 관하여 도시한 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
또한, 본 명세서에서, 디바이스는 게이트웨이(gateway)에 연결되어 IoT(Internet of Things)에 적용되는 일반적인 장치(또는 사물)일 수 있다. 예를 들어, 디바이스는, 무선 호출기, 스마트폰, 태블릿 PC, 컴퓨터, 온도 센서, 습도 센서, 음향 센서, 모션 센서, 근접 센서, 가스 감지 센서, 열 감지 센서, 냉장고, CCTV, TV, 세탁기, 제습기, 전등, 화재 경보기 등을 포함할 수 있다. 그러나, 이에 제한되지 않는다.
또한, 본 명세서에서 디바이스(device)는 “기기” 또는 “장치”와 혼용될 수 있으며, “디바이스”, “기기” 및 “장치”는 동일한 표현으로 기재되어 있을 수 있다.
또한, 본 명세서에서, 서비스(service)는 디바이스에서 수행할 수 있는 다양한 서비스를 포함할 수 있다. 서비스는 서버 또는 타 디바이스와의 통신에 기초한 서비스, 디바이스 내에서 동작 가능한 서비스를 포함할 수 있다. 본 개시에 적용되는 서비스는 본 개시에 예로서 기재된 서비스 이외에도 디바이스에서 수행할 수 있는 다양한 서비스들을 포함하는 넓은 개념으로 이해함이 바람직하다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
이하에서는 도 1 내지 도 3을 참조하여 증강현실용 인공지능 캐릭터의 제작을 수행하는 장치에 대하여 설명하기로 한다.
도 1은 본 발명의 실시 예에 따른 증강현실용 인공지능 캐릭터의 제작 장치의 구성을 도시한 블록도이다.
도 2는 본 발명의 실시 예에 따른 캐릭터 생성부 172의 구성을 도시한 블록도이다.
도 3은 본 발명의 실시 예에 따른 증강현실 영상 생성부 173의 구성을 도시한 블록도이다.
본 발명의 실시 예에 따른 상기 제작 장치 100는 인공지능 캐릭터 제작자용 단말기를 의미할 수 있다. 또한 다양한 실시 예에 따라 상기 제작 장치 100는 사용자 단말기 측에서 실행되는 인공지능 캐릭터 관련 어플리케이션을 지원하는 운영서버의 기능을 포함할 수 있다.
상기 제작 장치 100는 제작용 단말기과 운용 서버가 분리된 형태로 구현될 수도 있다. 그러나 본 명세서에서는 상기 제작 장치 100는 제작 단말기 및 운용 서버의 역할을 동시에 수행할 수 있는 형태로 구현됨을 가정하기로 한다.
도 1을 참조하면 본 발명의 실시 예에 따른 제작 장치는 통신부 110, 저장부 120, 입력부 130, 표시부 140, 오디오처리부 150, 카메라부 160, 제어부 170를 포함하여 구성될 수 있다.
상기 저장부 120는 대화 데이터 121, 룰 데이터 122, 매칭프로그램 언어 123, 캐릭터 제작 데이터 124, 지정 정보 125 및 사용자 식별 정보 126을 포함하여 저장될 수 있다.
그리고 상기 제어부 170는 음성인식 처리부 171, 캐릭터 생성부 172, 증강현실 영상 생성부173, 자동 생성부 174, 인공지능 관리부 175, 인공지능 캐릭터 운영부 176, 선호정보 판단부 177를 포함하여 구성될 수 있다.
상기 통신부 110는 사용자 단말기와 서버 간의 데이터 송수신을 위해 네트워크를 이용할 수 있으며 상기 네트워크의 종류는 특별히 제한되지 않는다. 상기 네트워크는 예를 들어, 인터넷 프로토콜(IP)을 통하여 대용량 데이터의 송수신 서비스를 제공하는 아이피(IP: Internet Protocol)망 또는 서로 다른 IP 망을 통합한 올 아이피(All IP) 망 일 수 있다. 또한, 상기 네트워크는 유선망, Wibro(Wireless Broadband)망, WCDMA를 포함하는 이동통신망, HSDPA(High Speed Downlink Packet Access)망 및 LTE(Long Term Evolution) 망을 포함하는 이동통신망, LTE advanced(LTE-A), 5G(Five Generation)를 포함하는 이동통신망, 위성 통신망 및 와이파이(Wi-Fi)망 중 하나 이거나 또는 이들 중 적어도 하나 이상을 결합하여 이루어질 수 있다.
본 발명의 실시 예에 따른 상기 통신부 110는 인공지능 캐릭터의 답변 항목에 대한 정보를 웹 서버로부터 수신하는 동작을 수행할 수 있다. 또한 상기 통신부 110는 생성된 인공지능 캐릭터가 증강현실용으로 구현되기 위해 요구되는 위치 등의 트리거 정보를 웹 서버로부터 수신할 수 있다. 또한 상기 통신부 110는 생성된 인공지능 캐릭터의 영상 정보를 사용자 단말기측에 전송하고, 사용자 단말기에서 전달되는 질문 정보를 수신할 수 있다. 이 외에도 상기 통신부 110는 사용자 단말기측에서 전송되는 사용자 정보 및 인공지능 캐릭터의 외형 변경 요청 등에 대한 설정 정보를 수신할 수 있다.
상기 저장부 120는 예를 들면, 내장 메모리 또는 외장 메모리를 포함할 수 있다. 내장메모리는, 예를 들면, 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나를 포함할 수 있다.
외장 메모리는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱(memory stick) 등을 더 포함할 수 있다. 외장 메모리는 다양한 인터페이스를 통하여 전자 장치와 기능적으로 및/또는 물리적으로 연결될 수 있다.
본 발명의 실시 예에 따른 상기 저장부 120는 대화 데이터 121, 룰 데이터 122, 매칭 프로그램 언어 123, 캐릭터 제작 데이터 124, 지정 정보 125, 사용자 식별 정보 126을 포함하여 저장할 수 있다.
상기 대화 데이터 121는 인공지능 캐릭터가 사용자의 질문에 응답할 답변에 관한 정보를 포함할 수 있다. 상기 대화 데이터 121는 예컨대, '질문-답변'의 목록 형태로 저장되어 있을 수 있다. 이에 따라 상기 제어부 170는 사용자로부터 요청된 질문에 대응하는 답변 항목을 추출하여 해당하는 답변을 출력할 수 있게 된다. 또한 상기 대화 데이터 121는 미답변 내역에 관한 정보를 포함할 수 있다. 사용자로부터 수신된 질문 내용중 기존에 적당한 대응 답변이 존재하지 않았던 항목들을 별도로 분류하여 저장할 수 있다. 또한 상기 대화 데이터 121는 사용자와 인공지능 캐릭터가 수행한 대화 이력, 대화 내역등에 대한 정보를 포함할 수 있다. 대화 이력 및 대화 내역 등의 기록을 통해 제어부 170는 사용자가 어떤 분야에 대한 관심이 있는지에 대한 정보를 획득할 수 있다.
룰 데이터 122는 인공지능 캐릭터가 사용자의 질문에 올바르게 응답하기 위해 요구되는 데이터이다. 상기 룰 데이터 122는 인공지능 캐릭터가 사용자의 질문을 보다 정확하게 인식하기 위한 룰을 포함할 수 있다. 예컨대, 상기 룰 데이터 122는 사용자로부터 입력된 질문 내용을 형태소 단위로 분석에 의해 자연어 처리를 수행하는 것과 관련된 룰을 포함할 수 있다. 또한 상기 룰 데이터 122는 인공지능을 이용하여 사용자 질문 내용을 분석하기 위해 요구되는 룰을 포함할 수 있다. 인공 지능을 이용한 질문 내용 분석을 위해서는 상기 룰 데이터 122 외에 웹으로부터 다양한 동의어, 유사어를 포함하는 사전적 어휘 및 유사표현 정보를 수집하는 동작이 더 요구될 수 있다.
매칭 프로그램 언어 123는 제작자 또는 사용자 단말기의 사용자로부터 입력되는 음성 명령(인공지능 캐릭터 제작에 관련된 명령)에 대응하는 프로그램 언어를 의미할 수 있다. 예컨대, 상기 매칭 프로그램 언어 123는 인공지능 캐릭터의 헤어스타일, 목소리 주파수 등의 설정값을 변경하는 것과 관련된 프로그램 언어를 사용자 음성명령어별로 지정하여 저장할 수 있다. 이에 따라 제작자 또는 사용자는 자신의 음성 입력을 이용해 인공지능 캐릭터의 외형을 변경하는 동작을 수행할 수 있다.
캐릭터 제작 데이터 124는 인공지능 캐릭터 설정과 관련된 이미지 정보 및 영상 정보를 포함할 수 있다. 또한 상기 캐릭터 제작 데이터 124는 본 발명의 실시 예에 따른 캐릭터가 출력하는 답변과 대응하는 입모양 이미지를 포함할 수 있다. 상기 캐릭터 제작 데이터 124는 또한 사람 캐릭터 뿐 아니라, 애니메이션 등장 캐릭터, 동물 등에 대한 이미지 및 영상 정보를 포함할 수 있다. 또한 캐릭터 제작 데이터 124는 특정 업체 또는 기관용 인공지능 캐릭터를 제작하고자 할 시, 광고 모델이 되는 유명인의 이미지 정보를 포함할 수 있다.
지정 정보 125는 제작자에 의해 생성된 인공지능 캐릭터를 증강현실상에서 구현하기 위해 요구되는 정보이다. 상기 지정정보 125는 제작자가 해당 인공지능 캐릭터를 사용자 단말기상에서 표시되도록 하기 위한 트리거 정보에 해당될 수 있다. 상기 지정정보 125는 예컨대, 특정 위치 정보(위도, 경도, 주소로 지정될 수 있음), QR코드, 이미지, 음성으로 구성될 수 있다. 또는 상기 지정 정보 125는 특정 매장, 기관의 위치 정보를 포함하여 구성될 수 있다. 상기 지정 정보 125에 특정 매장 및 기관의 위치정보가 포함될 경우, 사용자가 해당 위치 근방에 접근한 상태에서 어플리케이션을 동작시킴에 따라 사용자 단말기 상에서 증강현실용 인공지능 캐릭터가 실행될 수 있다.
사용자 식별 정보 126는 사용자 단말기 식별번호 또는 인공지능 캐릭터를 실행하기 위한 어플리케이션의 사용자 ID 정보를 의미할 수 있다.
본 발명의 실시 예에 따른 상기 입력부 130는 제작자가 직접 인공지능 캐릭터 제작에 요구되는 명령을 입력하는 경우, 해당 명령어를 키 입력을 통해 수신할 수 있다. 또한 상기 입력부 130는 그 밖에도 인공지능 캐릭터의 외형 제작(이미지 제작 또는 영상 제작)에 관련된 입력을 수신할 수 있다. 상기 입력부 130는 예컨대, 마우스, 키보드, 터치 패널, 타블렛 및 전자 펜 등을 포함할 수 있다.
상기 표시부 140는 패널, 홀로그램 장치, 또는 프로젝터를 포함할 수 있다. 패널은, 예를 들면, 유연하게(flexible), 투명하게(transparent), 또는 착용할 수 있게(wearable) 구현될 수 있다. 패널은 터치 패널과 하나의 모듈로 구성될 수도 있다. 홀로그램 장치는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치의 내부 또는 외부에 위치할 수 있다. 한 실시예에 따르면, 디스플레이는 패널, 홀로그램 장치, 또는 프로젝터를 제어하기 위한 제어 회로를 더 포함할 수 있다.
본 발명의 실시 예에 따른 상기 표시부 140는 인공지능 캐릭터의 제작 과정 및 증강현실에 적용된 인공지능 캐릭터의 구동 등을 표시할 수 있다.
상기 오디오 처리부 150는 예를 들면, 소리(sound)와 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 처리부 150의 적어도 일부 구성요소는 입출력 인터페이스에 포함될 수 있다. 오디오 모듈은, 예를 들면, 스피커, 리시버, 이어폰, 또는 마이크 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
본 발명의 실시 예에 따른 상기 오디오 처리부 150는 사용자의 음성을 수신하고 이를 디지털신호로 변환하여 제어부 170측에 전달할 수 있다. 또한 상기 오디오 처리부 150는 인공지능 캐릭터가 응답할 답변에 대응하는 사운드를 출력할 수 있다.
본 발명의 다양한 실시예 에 따라, 상기 카메라부 160는 제작 장치 100에 구비될 수 있는데, 상기 카메라부 160는 현실 영상에 인공지능 캐릭터가 결합되어 화면에 표시되는 '증강현실'을 구현하는데 요구되는 영상 정보를 촬영할 수 있다.
상기 제어부 170는 프로세서(Processor), 컨트롤러(controller), 마이크로 컨트롤러(microcontroller), 마이크로 프로세서(microprocessor), 마이크로 컴퓨터(microcomputer) 등으로도 호칭될 수 있다. 한편, 제어부는 하드웨어(hardware) 또는 펌웨어(firmware), 소프트웨어, 또는 이들의 결합에 의해 구현될 수 있다.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리에 저장되어 제어부에 의해 구동될 수 있다. 메모리는 상기 사용자 단말 및 서버 내부 또는 외부에 위치할 수 있으며, 이미 공지된 다양한 수단에 의해 상기 제어부와 데이터를 주고 받을 수 있다.
본 발명의 실시 예에 따른 상기 제어부 170는 음성인식 처리부 171, 캐릭터 생성부 172, 증강현실 영상 생성부 173, 자동 생성부 174, 인공지능 관리부 175, 인공지능 캐릭터 운영부 176, 선호정보 판단부 177를 포함하여 구성될 수 있다.
상기 음성 인식 처리부 171는 입력된 제작자의 음성을 기반으로 해당 음성이 의미하는 바를 판단하는 기능을 수행할 수 있다. 상기 음성 인식 처리부 171에서 수행하는 음성인식 기능은 종래의 음성인식 방식과 유사하게 수행될 수 있다.
상기 캐릭터 생성부 172는 도 2에서 도시되는 바와 같이 명령 추출부 1721, 언어 변환부 1722, 명령 적용부 1723을 포함하여 구성될 수 있다. 상기 명령 추출부 1721는 상기 음성 인식 처리부 171에서 입력 음성의 의미가 번역되면, 번역된 내용들 중 캐릭터 생성과 관련된 명령을 추출할 수 있다.
언어 변환부 1722는 상기 추출된 명령에 대응하는 프로그램 언어를 매칭 프로그램 언어 123로부터 검색하고 변환하는 동작을 수행할 수 있다. 상기 언어 변환부 1722에 의해 제작자 명령에 대응하는 프로그램언어가 지정되면, 이후 명령 적용부 1723에 의해 제작자 명령이 적용된 캐릭터가 생성될 수 있다. 상기 명령 적용부 1723는 캐릭터 생성을 위한 제작 공간에, 언어 변환부 1722에서 변환된 프로그램 언어를 추가 입력하도록 제어할 수 있다. 이에 따라 상기 캐릭터 생성부 172는 예컨대, 제작자가 '캐릭터의 티셔츠를 파란색으로 바꿔'라고 음성을 입력하면, 캐릭터 제작과 관련된 명령어에 대응하여 해당 캐릭터의 티셔츠 색상을 변경할 수 있게 된다.
또한 제어부 170는 증강현실 영상 생성부 173를 포함할 수 있는데, 상기 증강현실 영상 생성부 173는 도 3에서 도시되는 바와 같이 구성될 수 있다. 도 3을 살펴보면, 증강현실 영상 생성부 173는 지정 정보 생성부 1731, 환경 정보 인식부 1732, 증강현실 적용부 1733을 포함하여 구성될 수 있다.
먼저 지정 정보 생성부 1731은 인공지능 캐릭터가 증강현실상에서 표시되도록 하기 위해 설정 가능한 종류의 이벤트를 제작자에게 제공할 수 있다. 예컨대, 상기 지정 정보 생성부 1731는 증강현실용 인공지능 캐릭터를 제작하는 제작자에게 해당 캐릭터가 사용자 단말기에 표시되기 위한 조건의 종류로, 위치, 음성, 이미지, QR코드 등을 제시할 수 있다. 이 중 제작자가 위치 조건에 대응하여 해당 인공지능 캐릭터가 증강현실상에서 표시되도록 하기 원하는 경우, 상기 지정 정보 생성부 1731는 제작자에게 위치에 대한 값을 요청할 수 있다. 상기 위치에 대한 값을 지정하는 동작은 위도, 경도 또는 행정구역상의 주소를 입력하는 동작일 수 있다. 또는 위치에 대한 값을 지정하는 동작은 웹 서버에서 제공되는 지도상에 특정 지점을 마킹하는 동작일 수 있다.
유사하게, 상기 지정 정보 생성부 1731은 인공지능 캐릭터가 증강현실용으로 실행되도록 하기위한 조건을 음성으로 지정할 수 있다. 이 경우, 제작자는 인공지능 캐릭터가 증강현실용으로 실행되도록 하기 위한 트리거 정보를 텍스트 또는 실제 음성의 입력하는 방식으로 지정할 수 있다. 마찬가지로, 상기 지정 정보 생성부 1731는 제작자가 입력하거나 촬영한 특정 이미지를 트리거 정보로 지정할 수 있다. 이 경우, 사용자 단말기에 촬영중인 특정 이미지가 상기 지정 정보 생성부 1731에 의해 지정된 이미지와 일치할 경우, 상기 촬영중인 화면상에 인공지능 캐릭터가 오버레이되어 함께 표시될 수 있다.
예를 들어 우체국 마크가 지정 정보 생성부 1731에 의해 트리거 정보로 지정되었다고 가정하면, 사용자 단말기에서 촬영되는 영상 중 우체국 마크가 포함되고 해당 화면이 기 설정된 시간 이상(예, 3초) 유지되는 경우, 우체국 안내 관련 인공지능 캐릭터가 해당 화면상에 자동으로 오버레이되어 표시될 수 있다.
환경 정보 인식부 1732는 인공지능 캐릭터를 증강현실로 표시하기 위한 조건의 성립 유무를 인식할 수 있다. 상기 환경 정보 인식부 1732는 사용자 단말기로부터 제공되는 위치 정보, 촬영 정보, 음성 입력 정보를 수집하고 이를 기반으로 사용자 단말기의 조건이 기 지정된 트리거 정보와 일치하는지 여부를 판단할 수 있다.
증강현실 적용부 1733는 사용자 단말기의 상태에 관한 정보를 수집한 결과, 사용자 단말기의 상태가 기 지정된 트리거 정보와 일치할 경우, 사용자 단말기의 카메라 촬영 화면상에 기 제작된 인공지능 캐릭터가 오버레이 표시되도록 해당 데이터를 사용자 단말기 측에 제공할 수 있다.
이와 같은 방식에 의해 상기 증강현실 영상 생성부 173는 기 생성된 인공지능 캐릭터를 사용자 단말기측에 표시할 시점을 판단하고, 사용자 단말기측에 관련 영상 데이터를 제공할 수 있다.
상기 제어부 170에 속한 자동 생성부 174는 제작자의 설정에 기반하여 자동으로 인공지능 캐릭터를 자동으로 생성하는 기능을 수행할 수 있다. 예를 들면 상기 자동 생성부 174는 캐릭터가 생성되는 주기, 특정 외형 설정값의 변화 정도 및 목소리 주파수의 변화정도를 제작자로부터 입력받고 이를 캐릭터 자동 생성에 관한 설정으로 지정할 수 있다. 그리고 이에 따라 상기 자동 생성부 174는 이에 기반하여 인공지능 캐릭터를 자동으로 생성할 수 있다. 예를 들어, 제작자가 1달에 한번씩, 인공지능 캐릭터의 머리카락 길이가 0.1퍼센트 증가하는 캐릭터를 10번 생성하도록 설정하면, 상기 자동 생성부 174는 머리카락 길이가 점점 길어지는 인공지능 캐릭터를 1달마다 생성할 수 있다.
이를 응용하면 제작자는 상기 자동 생성부 174를 이용하여 인공지능 캐릭터의 외형이 어린이의 모습에서 성인이 되는 모습으로 변화되는 형태로 자동 제작할 수 있다. 또는 상기 자동 생성부 174는 기 설정된 기간 동안 정기적으로 인공지능 캐릭터를 생성하여 최종 인공지능 캐릭터의 수를 증가시킬 수 있다. 이에 따라 사용자의 단말기에 표시 가능한 인공지능 캐릭터가 시간이 지남에 따라 늘어나고 사용자의 선택권이 넓어질 수 있다. 다양한 실시 예에 따라 사용자의 인공지능 캐릭터 사용 이력에 대응하여 호출가능한 인공지능 캐릭터의 종류를 증가시킬 수 있으며, 이를 위해 상기 자동 생성부 174가 제작자의 설정에 대응하여 자동으로 캐릭터를 시기별, 조건별로 생성할 수 있다.
인공지능 관리부 175는 인공지능 캐릭터가 수행하는 전반적인 사용자 질문에 대한 답변 산출과 관련된 동작을 수행할 수 있다. 상기 인공지능 관리부 175는 저장부의 대화데이터 121 및 룰 데이터 122에 기반하여 사용자로부터 입력된 질문을 분석할 수 있으며, 가장 매칭되는 답변을 추출하여 인공지능 캐릭터가 답변할 수 있도록 제어할 수 있다. 또한 상기 인공지능 관리부 175는 인공지능 캐릭터의 답변 정확도를 향상시키기 위한 머신러닝을 수행할 수 있다.
인공지능 캐릭터 운영부 176는 인공지능 캐릭터가 말하는 영상이 제공될 시, 말하는 내용에 대응하는 입 모양 이미지를 적용하여 해당 영상을 출력하도록 제어할 수 있다. 이를 위해, 예컨대, 인공지능 캐릭터의 입모양의 발음별 샘플이 캐릭터 제작 데이터 124에 구비될 수 있다. 발음별 샘플은 (1)입을 다무는 이미지, (2)입을 크게 벌리는 이미지, (3)입을 오므리는 이미지, (4)입을 살짝 벌리는 이미지 등으로 구분될 수 있다. 인공지능 캐릭터가 출력해야 할 답변이 '음, 아니야'라고 가정하고, 상기 답변의 각 음절에 대응하는 이미지가 (1)(2)(4)(2)로 설정되어 있다고 하면, 인공지능 캐릭터 운영부 176은 해당 답변을 음성으로 출력함과 동시에 인공지능 캐릭터의 입모양이 (1)(2)(4)(2)순서로 실행되도록 제어할 수 있다.
이 외에도 상기 인공지능 캐릭터 운영부 176는 인공지능 캐릭터의 손동작, 몸동작 등을 답변 내용에 맞게 기 설정된 동작으로 적용하여 출력하도록 제어할 수 있다.
선호 정보 판단부 177는 사용자 단말기로부터 수신된 사용자의 SNS 계정 정보, 사진 정보, 캐릭터 생성 이력 정보를 수집할 수 있고, 수집된 상기 정보들을 기반으로 사용자 선호 정보를 추출할 수 있다. 상기 선호 정보 판단부 177는 추출된 사용자 선호 정보를 기반으로 사용자별 캐릭터의 기본 설정값을 지정하여 사용자 단말기에 제공할 수 있다. 이 때 사용자별 캐릭터의 기본 설정값은 어조, 목소리, 동작, 의상, 얼굴 및 체형을 그 항목으로 포함할 수 있다. 사용자별 캐릭터의 기본 설정값은 사용자가 사용자 단말기에서 인공지능 캐릭터 생성을 요청할 경우, 자동 생성될 캐릭터 외형에 대한 정보이다. 사용자의 특별한 요청 없이 캐릭터 생성을 요청한 경우, 선호 정보 판단부에 의해 산출된 사용자 선호 정보에 기반하여 인공지능 캐릭터가 제작될 수 있다. 사용자 선호 정보에 의한 캐릭터의 기본 설정값은 1개 이상일 수 있으며, 애니메이션 캐릭터, 연예인, 동물 등의 항목별로 설정될 수 있다.
또한 상기 선호 정보 판단부는 사용자 단말기로부터 수집되는 정보를 토대로 사용자의 취미, 관심사 등을 판단할 수 있다. 상기 선호 정보 판단부는 사용자의 관심사 및 취미에 대응하는 캐릭터 이미지를 추천할 수 있다. 이 때의 캐릭터는 애니메이션 또는 영화의 등장 캐릭터나 실제 광고 모델, 역사 인물 캐릭터 등을 포함할 수 있다.
앞서 증강현실용 인공지능 캐릭터를 제작하고 인공지능 캐릭터를 운영하는 장치에 대하여 설명하였다. 이후에는 생성된 인공지능 캐릭터를 구현할 사용자 단말기에 대하여 설명하기로 한다.
도 4는 본 발명의 실시 예에 따른 사용자 단말기의 구성을 도시한 블록도이다.
사용자 단말기 200는 통신부 210, 저장부 220, 입력부 230, 표시부 240, 오디오 처리부, 카메라부 260 및 제어부 270를 포함하여 구성될 수 있다. 그리고 상기 저장부 220는 사용자 정보 221, 캐릭터 이력 정보 222, 캐릭터 기본 설정값 223을 저장할 수 있다. 그리고 상기 제어부 270는 음성인식 처리부 271, 증강현실 영상 실행부 272를 포함하여 구성될 수 있다.
본 발명의 실시 예에 따른 상기 통신부 210는 서버 100(100은 제작 장치임과 동시에 서버 역할을 할 수 있으므로 이하에서 서버 100로 겸하여 칭하기로 한다)와의 통신을 수행할 수 있다. 본 발명의 실시 예에 따라 상기 통신부 210는 인터넷 통신 기능을 기반으로 다양한 웹 서버로부터 인공지능 캐릭터 실행에 관련된 정보(예, 트리거 정보)를 수신할 수 있다.
본 발명의 실시 예에 따른 상기 저장부 220는 사용자 정보 221, 캐릭터 이력 정보 222, 캐릭터 기본 설정값 223을 포함하여 저장할 수 있으며 이 외에도 다양한 인공지능 캐릭터 실행과 관련된 프로그램 및 데이터를 저장할 수 있다.
상기 사용자 정보 221는 사용자 단말기로 촬영한 사진, 사용자의 검색어, 자주 사용하는 어플리케이션 정보, 사용자의 SNS 계정 및 업로드 정보를 포함할 수 있다. 상기 사용자 정보 221는 사용자의 동의하에 서버 100측에 제공될 수 있다. 제공되는 사용자 정보 221는 서버 100측에서 가공하고 그 결과에 따라 추후 캐릭터 기본 설정값 223이 변경될 수 있다.
캐릭터 이력 정보 222는 사용자가 인공지능 캐릭터를 실행한 이력 및 인공지능 캐릭터의 제작 이력 등을 포함할 수 있다. 다양한 실시예에 따라 인공지능 캐릭터는 분야별로 다양한 종류로 제공될 수 있다. 예를 들면 인공지능 캐릭터는 길을 알려주는 길 안내 캐릭터, 공공기관이나 업체별 서비스를 제공하는 캐릭터, 상담을 수행하는 캐릭터 등의 형태로 제공될 수 있다. 이에 따라 사용자는 특정 하나의 인공지능 캐릭터만을 사용하는 것이 아니라, 용도별, 분야별로 다양하게 인공지능 캐릭터를 선택할 수 있다. 이에 따라 상기 캐릭터 이력 정보 222는 사용자가 자주 실행하는 종류의 캐릭터에 대한 정보를 포함할 수 있다. 또는 같은 분야의 인공지능 캐릭터라고 할지라도 다양한 캐릭터가 존재할 수 있으므로 개별 캐릭터 별 실행 정보가 상기 캐릭터 이력 정보 222에 포함될 수 있다.
캐릭터 기본 설정값 223은 사용자가 본인의 명령으로 기 존재하는 인공지능 캐릭터의 외형을 제작할 시, 초기 생성될 캐릭터 설정값을 의미할 수 있다. 상기 캐릭터 기본 설정값 223은 사용자의 선호도 정보에 기반하여 업데이트 될 수 있다.
또는 상기 캐릭터 기본 설정값 223은 사용자의 선호도 정보 외에도 사용자의 나이, 연령, 성별, 국가 등의 정보에 기반하여 설정될 수도 있다. 예컨대, 사용자의 연령이 60대 이상인 것으로 판단되면, 캐릭터의 음성 출력 속도는 표준값보다 10% 느리게 설정될 수 있다.
본 발명의 실시 예에 따른 상기 입력부 230는 인공지능 캐릭터를 제작 또는 변경하기 위한 사용자 입력 및 증강현실에서 인공지능 캐릭터를 실행하기 위한 사용자 입력을 수신할 수 있다.
본 발명의 실시 예에 따른 표시부 240는 카메라 촬영 화면을 표시하고, 카메라 촬영 화면상에 오버레이되는 인공지능 캐릭터를 표시할 수 있다. 또한 상기 표시부 240는 사용자 요청에 따라 인공지능 캐릭터의 외형이 변경되는 모습을 표시할 수 있다.
본 발명의 실시 예에 따른 상기 오디오 처리부 250는 사용자 단말기에서 출력되는 인공지능 캐릭터의 답변 음성을 출력할 수 있다. 또한 상기 오디오 처리부 250는 사용자가 입력하는 음성(예, 인공지능 설정 변경을 요청하는 명령, 인공지능의 답변을 요청하는 질문 등)을 수신할 수 있다.
본 발명의 실시 예에 따른 상기 카메라부 260는 증강현실을 실행하기 위해 요구되는 카메라 영상을 촬영할 수 있다.
제어부 270는 음성 인식 처리부 271 및 증강현실 영상 실행부 272를 포함하여 구성될 수 있다. 상기 음성 인식 처리부 271는 사용자의 음성을 패턴 분석하여 그 의미를 판단할 수 있다.
증강현실 영상 실행부 272는 증강현실용 인공지능 캐릭터를 실행하기 위한 어플리케이션을 실행할 수 있다. 상기 증강현실 영상 실행부 272는 어플리케이션이 실행되면 이에 대응하여 카메라 기능을 활성화시키도록 제어할 수 있다. 상기 증강현실 영상 실행부 272는 카메라 기능이 활성화되어 카메라를 통해 촬영되는 영상이 화면에 표시되는 동안, 서버 100로부터 특정 인공지능 캐릭터에 대한 정보가 제공되면 해당 인공지능 캐릭터의 영상 정보를 카메라 촬영 영상에 오버레이하여 표시할 수 있다. 이 때 상기 서버 100에서 제공하는 특정 인공지능 캐릭터는 사용자 단말기 200에서 특정 조건을 만족(예컨대, 지정 이미지 촬영)한 경우에 제공될 수 있으며, 인공지능 캐릭터 종류에 따라 트리거 정보도 달라질 수 있다. 예컨대, 어플리케이션에서 제공하는 인공지능 캐릭터 종류가 5가지라고 가정하면, 이를 증강현실상에서 표시하기 위한 조건도 5가지일 수 있다. 예컨대, 상기 5가지 캐릭터의 이름 및 표시하기 위한 지정 이미지가 모두 다르게 설정될 수 있다. 그리고 상기 지정 이미지는 텍스트 이미지를 포함할 수 있다.
도 5는 본 발명의 실시 예에 따른 인공지능 캐릭터의 활용 모습을 도시한 도면이다.
도 5에 따르면, 사용자는 인공지능 캐릭터가 실행된 상태에서 음성을 입력하면, 인공지능 캐릭터가 입력된 사용자의 음성에 대응하는 답변을 음성으로 출력할 수 있다. 또한 인공지능 캐릭터는 외관 모습 뿐 아니라, 어투, 목소리 등의 요소도 캐릭터 별로 지정될 수 있다. 도 5에서 도시되는 바와 같이 특정 업체에서 제공되는 인공지능 캐릭터는 특정 업체의 마스코트 캐릭터로 그 모습이 구현될 수 있다.
도 6은 본 발명의 실시 예에 따른 인공지능 캐릭터와 대화하기 위한 동작을 도시하는 도면이다.
도 6의 601은 사용자 요청에 따라 인공지능 캐릭터가 화면에 표시되는 모습을 도시하고 있다. 상기 인공지능 캐릭터는 초기 표시될 시, 별도의 움직임이 없이 정지된 상태로 표시될 수 있다. 그리고 인공지능 캐릭터가 표시되는 화면의 일측에는 마이크 아이콘 602가 함께 표시될 수 있다. 사용자는 상기 마이크 아이콘 602을 선택하고 사용자 음성을 입력할 수 있다. 마이크 아이콘 602을 선택하여 사용자 음성을 입력하는 방식은 예컨대, 상기 마이크 아이콘 602을 길게 누르는 동안 사용자는 음성을 입력하고 음성 입력이 완료되면 상기 마이크 아이콘 602에 대한 터치를 해제하는 방식일 수 있다. 또는 상기 마이크 아이콘 602를 1차 터치 선택함에 따라 해당 마이크 아이콘이 603에서 도시되는 바와 같이 음성 입력중임을 표시하는 아이콘으로 변경되고, 입력중 아이콘 603이 표시되는 동안 음성 입력을 수행한 후 상기 입력중 아이콘 603을 다시 선택하여 해당 음성 입력을 완료하는 방식일 수 있다.
도 7은 본 발명의 실시 예에 따른 음성으로 인공지능 캐릭터를 제작하는 동작에 관하여 도시하는 도면이다.
본 발명의 실시 예에 따른 인공지능 캐릭터 제작 장치 100의 제어부 170는 캐릭터를 생성할 시 제작자의 음성에 대응하는 설정값을 부여하여 제작할 수 있다. 예컨대, 도 7에서 도시되는 바와 같이, 제작자는 "30대, 남자, 마른 체형, 은행원 캐릭터 만들어줘."라고 음성을 입력할 경우, 상기 제어부 170는 인공지능 캐릭터 제작 장치 100 내에서 보유한 캐릭터 제작 데이터에 기반하여, 사용자 음성에 대응하는 설정값으로 캐릭터를 설정할 수 있다. 인공 지능 캐릭터 제작에 요구되는 설정값 종류는 (1)성별(남자/여자), (2)체형(마른/보통/통통 등), (3)직업별 의상(은행원/경찰관/소방관/의사 등)(4)연령별 정보(어린이/ 청소년/ 20대/30대 등) 등이 있을 수 있으며 각 설정값에 대응하는 이미지 및 영상정보가 구비되어 있을 수 있다. 또는 각 설정값에 대응하는 수치 정보(예, 마른 체형은 0.3, 보통 체형은 0.5 등으로 설정될 수 있다)가 기 저장되어 있을 수 있다. 이에 따라 사용자의 음성이 인식되면 상기 제어부 170는 기 저장된 설정값에 대응하는 이미지 또는 수치 정보를 적용하여 인공지능 캐릭터의 외형을 제작하거나 변경할 수 있다.
도 8은 본 발명의 실시 예에 따른 인공지능 캐릭터 제작 장치에서 분야별 인공지능 캐릭터를 제작하는 동작을 도시한 도면이다.
도 8을 참조하면, 본 발명의 다양한 실시 예에 따라 인공지능 캐릭터 제작 장치 100는 애니메이션 캐릭터 또는 영화 캐릭터의 다양한 이미지 정보 및 영상정보를 보유할 수 있고 이를 어플리케이션 운영에 지원할 수 있다. 사용자 단말기 200에서 레시피 및 요리 분야의 인공지능 캐릭터를 추천받으면 예컨대, 810에서 도시되는 화면과 같이 표시될 수 있다. 인공지능 캐릭터 제작 장치 100는 관심사 분야별 관련 캐릭터를 웹 등으로부터 수집하여 표시할 수 있다. 그리고 수집된 관련 캐릭터 정보는 해당 캐릭터와 관심사 항목의 연관성, 수집된 관련 캐릭터의 인기도 등을 평가하여 추천 캐릭터로 제안할 수 있다.
다양한 관심사 항목중 '요리'항목이 존재할 수 있는데, 인공지능 캐릭터 제작 장치 100는 '요리' 분야와 관련성이 있다고 판단되는 정보를 수집하고 분류하여 순위를 설정할 수 있다. 예를 들면, 애니메이션에서 요리사로 등장하는 캐릭터 '상디'와 음식을 잘 먹는 캐릭터인 '저팔계' 등이 연관 캐릭터로 수집되고 사용자 단말기의 화면상에 810에서와 같이 추천 목록으로 표시될 수 있다. 사용자가 추천 목록에 표시된 캐릭터들 중 저팔계를 선택했다고 가정하면, 사용자 단말기의 화면에는 저팔계 모습의 인공지능 캐릭터 821가 820에서와 같이 표시될 수 있다. 그리고 상기 선택된 저팔계 모습의 인공지능 캐릭터 821는 사용자의 질문에 애니메이션 상에서 보여지던 해당 캐릭터 특유의 어투로 응답할 수 있다. 예컨대, 팥칼국수 만드는 법을 알려달라는 사용자의 질문에 상기 저팔계 모습의 인공지능 캐릭터 821는 저팔계라는 캐릭터의 특유 어투 822를 적용하여 답변을 출력할 수 있다.
도 9는 본 발명의 실시 예에 따른 음성으로 인공지능 캐릭터를 제작하는 과정에 대하여 도시한 순서도이다.
본 발명의 실시 예에 따른 인공지능 캐릭터 제작 장치 100는 도 9에서 도시되는 바와 같은 순서로 음성 명령에 의한 인공지능 캐릭터 제작 과정을 구현할 수 있다.
도 9를 참조하면, 먼저 인공지능 캐릭터의 제작 장치 100의 제어부 170는 제작자의 음성 명령에 의해 캐릭터 외형을 제작하기 위해, 인공지능 캐릭터의 외형 설정 모드를 실행하는 910동작을 수행할 수 있다. 상기 캐릭터의 외형 설정 모드는 예컨대, 인공지능 캐릭터가 제작 장치 100의 화면상에 표시되는 모든 상황을 의미할 수 있다.
이후 상기 제어부 170는 제작자의 음성이 입력됨을 확인하는 915동작을 수행할 수 있다. 이에 따라 상기 제어부 170는 입력된 음성 내용 중 캐릭터 생성(또는 수정)에 관한 명령이 존재하는지 여부를 판단하는 920동작을 수행할 수 있다. 이 때 캐릭터 생성(또는 수정)에 관한 명령은 기 설정된 항목에 한하여 인식될 수 있다.
상기 제어부 170는 입력된 음성 내용 중 캐릭터 생성에 관한 명령이 존재한다고 판단한 경우, 명령을 추출하는 925동작을 수행할 수 있다. 상기 동작은 입력된 음성 내용들 중 명령과 관계없는 문구를 제거하는 동작일 수 있다. 이후 상기 제어부 170는 추출된 명령을 이에 매칭하는 프로그램 언어로 변환하고 이를 적용하는 930동작을 수행할 수 있다. 이 때 상기 프로그램 언어는 음성 명령에 대응하는 수치 정보 또는 이미지 정보에 대응하는 명령어로 구성될 수 있다. 이에 따라 제작자는 (1)짧은, (2)보통, (3)긴 머리카락 길이를 음성으로 주문할 수 있고, 제어부 170는 해당 음성 명령에 대응하는 프로그램 언어로 변환할 수 있으며, 각 음성 명령에 대응하는 프로그램언어는 예컨대 (1)은 0.1, (2)는 0.5 (3)은 1과 같이 해당 설정값(머리카락 길이)의 수치를 변경하도록 하는 명령어로 구현될 수 있다.
이후 제어부 170는 명령이 적용된 캐릭터의 외형 변화를 표시하는 935동작을 수행할 수 있다.
이에 따라 인공지능 캐릭터 제작자는 캐릭터의 외형을 음성입력만으로 간단하게 생성하거나 변경하는 동작을 수행할 수 있다.
다양한 실시 예에 따라 사용자 단말기 측에서도 음성 입력을 이용한 캐릭터 외형 변경을 수행하거나 자신이 원하는 외형의 캐릭터를 새로 생성할 수 있다. 예컨대, 사용자 단말기 200는 입력되는 사용자 음성을 서버 기능을 함께 수행하는 제작장치 100측에 전송하고, 상기 제작장치 100측에서 도 9의 과정을 거쳐 수행된 캐릭터 외형 변화 결과를 다시 사용자 단말기 200측에 제공하는 방식으로 사용자 단말기 200에서 음성 명령을 이용하여 캐릭터의 외형을 변경하거나 생성할 수 있다.
본 발명의 다양한 실시 예에 따라 상기 서버 100는 자동으로 인공지능 캐릭터를 생성하되, 기존의 응답 내용 및 캐릭터의 생성 이력을 기반으로 생성할 수 있다. 이에 대하여 도 10, 도 11a 및 도 11b를 참조하여 설명하기로 한다.
도 10은 본 발명의 실시 예에 따른 자동생성부의 구성을 도시한 블록도이다.
도 11a 및 도 11b는 본 발명의 실시 예에 따른 인공지능에 의해 추가의 인공지능 캐릭터가 생성되는 동작에 관하여 도시한 도면이다.
상기 자동 생성부 174는 응답 기반 생성부 1741, 외형 기반 생성부 1742를 포함하여 구성될 수 있다.
상기 응답 기반 생성부 1741가 수행하는 응답 기반으로 인공지능 캐릭터를 생성하는 동작은 도 11a를 참조하여 설명될 수 있다. 상기 도 11a는 기 생성된 캐릭터 1과 기 생성된 캐릭터 2에 대해서 도시하고 있다. 상기 캐릭터 1과 캐릭터 2는 서로 다른 분야의 인공지능 캐릭터임을 가정할 수 있다. 또는 상기 캐릭터 1과 캐릭터 2는 서로 다른 사용자가 생성한 인공지능 캐릭터임을 가정할 수 있다.
도 11a를 참조하면, 캐릭터 1에 투입된 질문에 대하여 답변이 산출되는 것에 대하여 도시되고 있다. 그리고 상기 11a는 캐릭터 1에 투입된 질문 a에 대하여는 a'가 산출되고, 질문 b에 대하여는 b'가 산출됨을 도시하고 있다. 이 때 상기 a, b, c의 차이는 각 질문의 문장 내용을 의미할 수도 있고, 질문의 분야를 의미할 수도 있다. 도 11a에 따르면, 캐릭터 1에 a, b, c 의 질문이 투입되어 각각의 질문에 대응하는 a', b', c'가 산출될 수 있고, 캐릭터 2에 d, e, f의 질문이 투입되어, 각각의 질문에 대응하는 d', e', f'가 산출될 수 있다.
응답 기반 생성부 1741는 각 질문 또는 각 질문에 대응하는 응답 내용은 그 종류별로 횟수가 카운팅할 수 있다. 그리고 응답 횟수가 기 설정된 기준값 이상인 내용에 한하여 해당 내용은 새로운 인공지능 캐릭터를 생성하기 위한 기반 내용이 될 수 있다. 예컨대, a'의 출력횟수가 1회, b'의 출력횟수가 3회, c'의 출력횟수가 7회, d'의 출력횟수가 8회, e'의 출력횟수가 2회, f'의 출력횟수가 1회라고 가정하고, 기 설정된 기준값이 6회라고 가정하면, 상기 응답 기반 생성부 1741는 기 설정된 기준값을 초과한 c'와 d'를 이용해 새로운 인공지능을 생성할 수 있다.
상기 c'와 d'가 특정 키워드를 포함하는 내용이면, 상기 응답 기반 생성부 1741는 상기 c'와 d'가 포함하는 키워드의 공통 주제를 판단하는 동작, 또는 상기 c'와 d'가 포함하는 키워드를 도출할 수 있는 질문(예. 기 입력된 질문인 c, d)을 추출하는 동작, 또는 상기 c'와 d'가 포함하는 키워드로 웹상에서 검색되는 질문 및 답변을 추출하는 동작을 포함하여 수행할 수 있다.
만약 상기 c'와 d'가 키워드가 아닌 일 문장을 의미하는 경우, 상기 응답 기반 생성부 1741는 해당 문장을 도출하는, 기 입력된 질문 내용 및 기 입력된 이후 상기 응답 기반 생성부 1741는 기 설정된 기준값을 초과한 응답 항목(예, c', d' )과 관련하여 업데이트를 수행한 캐릭터 3을 제작할 수 있다. 예컨대, 상기 응답 기반 생성부 1741가 기준값을 초과한 응답 항목의 공통 주제(또는 분야)를 판단한 결과, '전자장치'로 판단되는 경우, 이후 상기 응답 기반 생성부 1741는 소정의 기간동안 '전자장치'와 관련된 웹상의 데이터를 수집하고 이를 학습하는 동작을 수행할 수 있다. 이 때 상기 '전자장치'와 관련하여 수집되는 데이터는 예컨대, '전자장치의 판매가격, 전자장치별 사양, 전자장치별 동작 원리' 등에 관한 정보일 수 있다.
상기 과정을 통해 상기 응답 기반 생성부 1741는 사용자의 요청에 의해 생성된 인공지능 캐릭터 외에 사용자가 인공지능 캐릭터를 이용한 이력(질문 내역, 응답 내역, 응답 내역을 통해 추출된 주요 대화 주제, 응답 내역을 통해 추출된 키워드로 검색되는 내용 등)을 이용한 새로운 인공지능 캐릭터를 생성할 수 있다.
캐릭터 1 및 캐릭터 2는 제작자가 학습시킨 범위에서 사용자의 질문에 대한 답변을 제공할 수 있을 것이다. 그러나 새롭게 생성된 캐릭터 3은 사용자의 기존의 인공지능 캐릭터 활용 이력을 기반으로 추가의 학습을 수행할 수 있으며, 그에 따라 캐릭터 3은 사용자가 갖는 특정 관심 분야에 있어서 답변 능력이 향상될 수 있다.
다양한 실시 예에 따라 상기 응답 기반 생성부 1741는 응답 항목의 기준값 초과 여부와 관계없이, 전체 응답 내용 중 가장 많이 산출된 응답 항목을 순위에 따라 추출하고 추출된 응답 항목과 관련된 데이터를 학습시킨 새로운 인공지능 캐릭터를 생성할 수도 있다.
또한 상기 자동 생성부 174는 외형 기반 생성부 1742를 포함할 수 있는데, 상기 외형 기반 생성부 1742가 신규 인공지능 캐릭터를 생성하는 동작에 대하여 설명하는 도면은 11b와 같다. 도 11b를 참조하면, 외형 기반 생성부 1742는 사용자별 생성 캐릭터 외형 정보를 분류할 수 있다. 그리고 다양한 실시 예에 따라 상기 외형 기반 생성부 1742는 각 사용자를 사용자 1, 사용자 2 등으로 분류할 수 있다. 이 때 사용자 1 및 사용자 2 등을 분류하는 기준은 다양할 수 있으며, 예컨대 인공지능 캐릭터 활용 빈도가 될 수 있다. 예컨대, 상기 외형 기반 생성부 1742는 인공지능 캐릭터 활용 빈도가 가장 높은 1군 사용자 그룹을 사용자 1 로 지정하고, 그 다음으로 활용도가 높은 2군 사용자 그룹을 사용자 2로, 그 이하를 각각 사용자 3, 사용자 4로 설정하여 분류할 수 있다.
도 11b를 참조하면, 사용자 1 에 속하는 캐릭터가 캐릭터 1, 캐릭터 5, 캐릭터 7이고, 사용자 2에 속하는 캐릭터가 캐릭터 2, 캐릭터 6, 사용자 3에 속하는 캐릭터가 캐릭터 3, 마지막으로 사용자 4에 속하는 캐릭터가 캐릭터 4인 것으로 도시되고 있다. 이 때 각 캐릭터가 나타내는 도형은 캐릭터의 외형별 특징을 의미하는 것으로 가정하기로 한다. 예컨대, 상기 도형이 캐릭터의 얼굴형을 의미한다고 가정할 경우, 캐릭터 1, 캐릭터 2, 캐릭터 3은 사각 얼굴형을, 캐릭터 5 및 캐릭터 6은 둥근 얼굴형을, 캐릭터 7은 삼각, 캐릭터 4는 역삼각형의 얼굴형을 의미하는 것일 수 있다. 상기 도 11b와 같은 분류 체계는 특정한 1가지의 외형 특징에 한정되지 않고, 다수개의 외형 특징(예, 긴머리, 여성, 역삼각 얼굴형 캐릭터와 파마머리, 남성, 둥근 얼굴형 캐릭터 등으로 분류)에 따라 설정될 수 있다.
외형 기반 생성부 1742는 각 사용자 그룹별 주요 사용 캐릭터가 도 11b에서와 같이 분류되고 있고, 캐릭터 분류 기준이 캐릭터의 얼굴형을 의미하는 것이라고 가정할 때, 상기 외형 기반 생성부 1742는 신규 캐릭터인 캐릭터 8을 생성 시, 다양한 사용자들에 의해 보편적으로 선호되는 캐릭터 외형 특징을 선택하는 방법(전체 사용자들의 공통 캐릭터 특징 추출), 인공지능 캐릭터 활용 빈도가 높은 사용자들이 선호하는 캐릭터 외형 특징을 선택하는 방법(사용자 그룹별 외형 선호 특징에 가중치 부여, 단, 사용자 1 그룹에서 사용자 4그룹으로 갈수록 가중치 차감) 등에 의해 선택된 외형 특징으로 캐릭터를 생성할 수 있다.
다양한 실시 예에 따라 상기 외형 기반 생성부 1742가 생성하는 캐릭터의 외형은 상기 응답 기반 생성부 1741이 생성하는 인공지능 캐릭터의 외형이 될 수 있다. 즉, 다양한 실시 예에 따라 상기 응답 기반 생성부 1741가 생성하는 인공지능 캐릭터와 외형 기반 생성부 1742가 생성하는 인공지능 캐릭터는 동일한 캐릭터일 수도 있고, 별도의 상이한 캐릭터일 수도 있다.
상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다. 요컨대 본 발명이 의도하는 효과를 달성하기 위해 도면에 도시된 모든 기능 블록을 별도로 포함하거나 도면에 도시된 모든 순서를 도시된 순서 그대로 따라야만 하는 것은 아니며, 그렇지 않더라도 얼마든지 청구항에 기재된 본 발명의 기술적 범위에 속할 수 있음에 주의한다.

Claims (10)

  1. 증강현실용 인공지능 캐릭터를 제작하기 위한 전자장치에 있어서,
    사용자 단말기 및 웹으로부터 인공지능 캐릭터 생성에 요구되는 정보를 수신하고, 사용자 단말기에 완성된 인공지능 캐릭터를 이용한 서비스 콘텐츠를 전송하는 통신부;
    인공지능 캐릭터 생성에 요구되는 캐릭터 제작 데이터를 저장하는 저장부;
    음성 인식을 위해 제작자의 음성을 입력받고, 인공지능 캐릭터의 답변 내용을 음성으로 출력하는 오디오 처리부; 및
    음성으로 입력된 제작자의 명령을 인식하고 상기 명령에 기반하여 인공지능 캐릭터를 생성하는 제어부를 포함하고,
    상기 제어부는
    입력된 음성을 분석하고, 해당 음성의 의미를 판단하는 음성 인식 처리부; 및
    상기 음성 인식부에 의해 인식된 제작자의 음성 내용 중 캐릭터 생성과 관련된 명령을 추출하고, 추출된 명령과 매칭되는 프로그램 언어를 이용하여 캐릭터 생성을 수행하는 캐릭터 생성부를 포함하는 것을 특징으로 하는 증강현실용 인공지능 캐릭터의 제작 장치.
  2. 제 1항에 있어서,
    상기 저장부는
    사용자가 입력하는 질문에 대한 인공지능 캐릭터의 답변 항목을 포함하는 대화 데이터 및 사용자가 입력하는 질문의 룰 데이터를 저장하고,
    상기 제어부는
    상기 대화 데이터 및 룰 데이터에 기반하여 사용자가 입력하는 질문에 대응하는 답변을 산출하는 인공지능 관리부; 를 포함하는 것을 특징으로 하는 증강현실용 인공지능 캐릭터의 제작 장치.
  3. 제 1항에 있어서,
    상기 제어부는
    사용자 입력에 대응하여 인공지능 캐릭터의 외형을 제작하는 캐릭터 생성부를 포함하고,
    상기 캐릭터 생성부는
    음성 인식부에서 인식한 사용자의 음성내용 중 캐릭터 생성에 관련된 명령을 추출하는 명령 추출부;
    상기 명령 추출부에서 추출된 명령에 매칭되는 프로그램 언어의 존재 여부를 판단하고, 매칭되는 프로그램 언어가 확인되면, 상기 추출된 명령을 매칭되는 프로그램 언어로 변환하는 언어 변환부; 및
    상기 프로그램 언어를 입력하여 인공지능 캐릭터의 외형을 생성하는 동작을 수행하는 명령 적용부;를 포함하는 것을 특징으로 하는 증강현실용 인공지능 캐릭터 제작 장치.
  4. 제 1항에 있어서,
    상기 제어부는
    증강현실 영상 생성부를 포함하고,
    상기 증강현실 영상 생성부는
    증강현실 동작 상황에서 인공지능 캐릭터가 표시되는 조건을 지정하되, 사용자 단말기의 위치, 사용자 단말기가 촬영하는 이미지, 사용자 단말기에 입력되는 음성 내용 중 적어도 하나를 포함하여 인공지능 캐릭터의 표시 조건을 설정하는 지정 정보 생성부;
    인공지능 캐릭터를 증강현실로 표시하기 위한 조건을 인식하는 환경 정보 인식부;
    상기 환경 정보 인식부에 의해 기 설정된 조건에 일치하는 이벤트가 인식된 경우, 기 제작된 인공지능 캐릭터를 사용자 단말기의 카메라 촬영 화면에 겹쳐 표시하도록 제어하는 증강현실 적용부;를 포함하는 것을 특징으로 하는 증강현실용 인공지능 캐릭터 제작 장치.
  5. 제 1항에 있어서,
    상기 제어부는
    선호 정보 판단부를 포함하고;
    상기 선호 정보 판단부는 사용자 단말기로부터 수신된 사용자의 SNS 계정 정보, 사진 정보, 캐릭터 생성 이력 정보 중 적어도 하나를 포함하여 사용자 선호 정보를 추출하는 것을 특징으로 하는 증강현실용 인공지능 캐릭터의 제작 장지.
  6. 제 5항에 있어서,
    상기 선호 정보 판단부는
    상기 추출한 사용자 선호 정보를 기반으로 사용자별 캐릭터의 기본 설정값 지정하여 사용자 단말기에 제공하고, 상기 캐릭터의 기본 설정값은 어조, 목소리, 동작, 의상, 얼굴 및 체형을 그 항목으로 포함하는 것을 특징으로 하는 증강현실용 인공지능 캐릭터의 제작 장치.
  7. 제 1항에 있어서,
    상기 제어부는
    인공지능 캐릭터가 말하는 영상을 제공할 시, 말하는 내용에 대응하는 입모양 이미지를 적용하여 해당 영상을 출력하는 인공지능 캐릭터 운영부를 포함하는 것을 특징으로 하는 증강현실용 인공지능 캐릭터의 제작 장치.
  8. 제 1항에 있어서,
    상기 제어부는
    제작자가 입력하는 입력 조건에 대응하여 인공지능 캐릭터를 자동 생성 및 업데이트를 수행하는 자동생성부를 포함하고,
    상기 자동생성부가 인공지능 캐릭터를 자동 생성하기 위해 요구되는 입력 조건은 생성 주기, 특정 외형 설정값의 변화 정도 및 목소리 주파수의 변화 정도를 포함하는 것을 특징으로 하는 증강현실용 인공지능 캐릭터의 제작 장치.
  9. 사용자 단말기 및 웹으로부터 인공지능 캐릭터 생성에 요구되는 정보를 수신하고, 사용자 단말기에 완성된 인공지능 캐릭터를 이용한 서비스 콘텐츠를 전송하는 통신부;
    인공지능 캐릭터 생성에 요구되는 캐릭터 제작 데이터를 저장하는 저장부;
    음성 인식을 위해 제작자의 음성을 입력받고, 인공지능 캐릭터의 답변 내용을 음성으로 출력하는 오디오 처리부; 및
    음성으로 입력된 제작자의 명령을 인식하고 상기 명령에 기반하여 인공지능 캐릭터를 생성하는 제어부;를 포함하는 증강현실용 인공지능 캐릭터의 제작 장치; 및
    상기 인공지능 캐릭터의 제작 장치에서 제작된 인공지능 캐릭터에 대한 데이터를 수신하고, 증강현실에서 인공지능 캐릭터를 표시할지 여부를 판단하기 위한 조건이 되는 사용자 단말기의 상태 정보를 상기 인공지능 캐릭터의 제작 장치로 전송하는 통신부;
    증강현실 실행에 요구되는 배경화면을 촬영하는 카메라부;
    상기 카메라부가 촬영하는 배경화면 상에 상기 인공지능 캐릭터를 오버레이한 영상을 표시하는 표시부;
    상기 인공지능 캐릭터로 전달할 음성 형태의 사용자 질문을 입력받고, 상기 인공지능 캐릭터의 상기 사용자 질문에 대한 답변을 음성으로 출력하는 오디오 처리부;
    상기 카메라부가 촬영한 배경화면을 출력하되, 상기 인공지능 캐릭터의 제작 장치로부터 수신되는 신호에 따라 인공지능 캐릭터를 오버레이하여 표시하도록 제어하고, 인공지능 캐릭터에 입력되는 음성 형태의 사용자 질문을 인식 및 처리하여 상기 인공지능 캐릭터의 제작 장치로 전송하도록 제어하는 제어부;를 포함하는 사용자 단말기;로 구성되는 서비스 시스템.
  10. 증강현실용 인공지능 캐릭터를 실행하는 단말기에 있어서,
    인공지능 캐릭터의 제작 장치에서 제작된 인공지능 캐릭터에 대한 데이터를 수신하고, 증강현실에서 인공지능 캐릭터를 표시할지 여부를 판단하기 위한 조건이 되는 사용자 단말기의 상태 정보를 상기 인공지능 캐릭터의 제작 장치로 전송하는 통신부;
    증강현실 실행에 요구되는 배경화면을 촬영하는 카메라부;
    상기 카메라부가 촬영하는 배경화면 상에 상기 인공지능 캐릭터를 오버레이한 영상을 표시하는 표시부;
    상기 인공지능 캐릭터로 전달할 음성 형태의 사용자 질문을 입력받고, 상기 인공지능 캐릭터의 상기 사용자 질문에 대한 답변을 음성으로 출력하는 오디오 처리부;
    상기 카메라부가 촬영한 배경화면을 출력하되, 상기 인공지능 캐릭터의 제작 장치로부터 수신되는 신호에 따라 인공지능 캐릭터를 오버레이하여 표시하도록 제어하고, 인공지능 캐릭터에 입력되는 음성 형태의 사용자 질문을 인식 및 처리하여 상기 인공지능 캐릭터의 제작 장치로 전송하도록 제어하는 제어부;를 포함하는 것을 특징으로 하는 사용자 단말기.
PCT/KR2018/015964 2018-02-06 2018-12-14 증강현실용 인공지능 캐릭터의 제작 장치 및 이를 이용한 서비스 시스템 WO2019156332A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0014492 2018-02-06
KR1020180014492A KR101992424B1 (ko) 2018-02-06 2018-02-06 증강현실용 인공지능 캐릭터의 제작 장치 및 이를 이용한 서비스 시스템

Publications (1)

Publication Number Publication Date
WO2019156332A1 true WO2019156332A1 (ko) 2019-08-15

Family

ID=67056058

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/015964 WO2019156332A1 (ko) 2018-02-06 2018-12-14 증강현실용 인공지능 캐릭터의 제작 장치 및 이를 이용한 서비스 시스템

Country Status (2)

Country Link
KR (1) KR101992424B1 (ko)
WO (1) WO2019156332A1 (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102298070B1 (ko) * 2019-10-02 2021-09-07 최대철 모바일 디바이스 기반 능동형 인공지능 영상 캐릭터 시스템
KR102388465B1 (ko) * 2020-02-26 2022-04-21 최갑천 가상 콘텐츠 생성 방법
KR102516702B1 (ko) * 2020-11-09 2023-03-30 김종훈 인공지능을 이용한 실험 정보 제공 방법 및 이를 이용하는 장치
KR20220123170A (ko) * 2021-02-28 2022-09-06 조지수 인공지능 아바타 튜터를 활용한 회화 학습 시스템 및 그 방법
KR20230016366A (ko) * 2021-07-26 2023-02-02 마인드로직 주식회사 인공지능 캐릭터의 대화 엔진 자가 학습 방법 및 그 시스템
KR20230111480A (ko) * 2022-01-18 2023-07-25 삼성전자주식회사 대화형 아바타 서비스를 제공하는 방법 및 장치
KR102657180B1 (ko) * 2022-02-16 2024-04-12 이화여자대학교 산학협력단 샐러브리티 npc가 구비된 스트레처블 디스플레이 인공지능 스피커 장치 및 이를 이용한 알림 제공 방법
WO2023172063A1 (ko) * 2022-03-11 2023-09-14 주식회사 쓰리디팩토리 오픈 아바타 제공 서버 및 오픈 아바타 제공 프로그램
KR102474122B1 (ko) * 2022-05-12 2022-12-06 주식회사 윗유 사용자의 유형 및 사용자와 관련된 정보를 기초로 증강현실을 이용하여 상품을 추천하는 방법 및 장치
KR102610299B1 (ko) * 2022-05-27 2023-12-06 주식회사 피치솔루션 가상 현실 공간에서 사용자 가상 아바타의 신뢰도를 제공할 수 있는 가상 현실 서비스 제공 방법 및 장치
KR102544262B1 (ko) * 2022-08-19 2023-06-16 (주)페르소나에이아이 사용자와 메타휴먼의 쌍방향 대화 응대 서비스를 스트리밍 기반으로 제공하는 전자 장치
KR20240070209A (ko) * 2022-11-14 2024-05-21 주식회사 딥파인 증강콘텐츠 변환을 위한 영상처리 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050033918A (ko) * 2003-10-07 2005-04-14 황후 인공지능 아바타를 이용한 전자쇼핑몰 시스템 및 방법
KR20090001716A (ko) * 2007-05-14 2009-01-09 이병수 성장 지능형 가상 비서 운영시스템 및 그 방법
KR20150057424A (ko) * 2013-11-19 2015-05-28 한국전자통신연구원 증강현실 아바타 상호작용 방법 및 시스템
KR20160118859A (ko) * 2015-04-03 2016-10-12 한국과학기술원 증강현실 기반 인터렉티브 저작 서비스 제공 시스템
KR20170112406A (ko) * 2016-03-31 2017-10-12 한국전자통신연구원 증강 현실 아바타 사진 촬영 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050033918A (ko) * 2003-10-07 2005-04-14 황후 인공지능 아바타를 이용한 전자쇼핑몰 시스템 및 방법
KR20090001716A (ko) * 2007-05-14 2009-01-09 이병수 성장 지능형 가상 비서 운영시스템 및 그 방법
KR20150057424A (ko) * 2013-11-19 2015-05-28 한국전자통신연구원 증강현실 아바타 상호작용 방법 및 시스템
KR20160118859A (ko) * 2015-04-03 2016-10-12 한국과학기술원 증강현실 기반 인터렉티브 저작 서비스 제공 시스템
KR20170112406A (ko) * 2016-03-31 2017-10-12 한국전자통신연구원 증강 현실 아바타 사진 촬영 장치 및 방법

Also Published As

Publication number Publication date
KR101992424B1 (ko) 2019-06-24

Similar Documents

Publication Publication Date Title
WO2019156332A1 (ko) 증강현실용 인공지능 캐릭터의 제작 장치 및 이를 이용한 서비스 시스템
CN110968736B (zh) 视频生成方法、装置、电子设备及存储介质
CN110446063B (zh) 视频封面的生成方法、装置及电子设备
CN106255866B (zh) 通信系统、控制方法以及存储介质
CN109176535B (zh) 基于智能机器人的交互方法及系统
CN110519636B (zh) 语音信息播放方法、装置、计算机设备及存储介质
WO2018038277A1 (ko) 대화방을 통해 각 사용자의 상태를 반영한 화상 데이터를 공유하는 메시지 공유 방법메시지 공유 방법 및 상기 방법을 실행시키기 위한 컴퓨터 프로그램
WO2018082626A1 (zh) 虚拟现实系统的实现方法及虚拟现实装置
CN107240319B (zh) 一种用于k12阶段的互动情景教学系统
CN109271533A (zh) 一种多媒体文件检索方法
CN107992195A (zh) 一种教学内容的处理方法、装置、服务器及存储介质
WO2020060223A1 (ko) 애플리케이션의 번역 정보를 제공하는 디바이스 및 방법
WO2019033663A1 (zh) 视频教学互动方法、装置、设备及存储介质
WO2018182201A1 (ko) 사용자의 음성 입력에 대한 답변을 제공하는 방법 및 장치
WO2022196921A1 (ko) 인공지능 아바타에 기초한 인터랙션 서비스 방법 및 장치
WO2019093599A1 (ko) 사용자 관심 정보 생성 장치 및 그 방법
WO2020153785A1 (ko) 전자 장치 및 이를 이용한 감정 정보에 대응하는 그래픽 오브젝트를 제공하는 방법
KR102263154B1 (ko) 스마트 미러 기반 얼굴 감성 표현 시스템 및 그 운용방법
CN109871843A (zh) 字符识别方法和装置、用于字符识别的装置
WO2019229789A1 (ja) 学習済モデル提案システム、学習済モデル提案方法、およびプログラム
WO2014003520A1 (ko) 옥외 광고 led 전광판 및 상호 작용 방법
CN108647354A (zh) 一种辅导学习的方法及照明设备
CN112232066A (zh) 一种教学纲要生成方法、装置、存储介质及电子设备
WO2022196880A1 (ko) 아바타에 기초한 인터랙션 서비스 방법 및 장치
CN106326260A (zh) 网页访问方法及装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18904990

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18904990

Country of ref document: EP

Kind code of ref document: A1

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205 DATED 08/02/2021)

122 Ep: pct application non-entry in european phase

Ref document number: 18904990

Country of ref document: EP

Kind code of ref document: A1