KR102120936B1 - System for providing customized character doll including smart phone - Google Patents

System for providing customized character doll including smart phone Download PDF

Info

Publication number
KR102120936B1
KR102120936B1 KR1020190059252A KR20190059252A KR102120936B1 KR 102120936 B1 KR102120936 B1 KR 102120936B1 KR 1020190059252 A KR1020190059252 A KR 1020190059252A KR 20190059252 A KR20190059252 A KR 20190059252A KR 102120936 B1 KR102120936 B1 KR 102120936B1
Authority
KR
South Korea
Prior art keywords
terminal
character
user
character doll
doll
Prior art date
Application number
KR1020190059252A
Other languages
Korean (ko)
Inventor
강석봉
Original Assignee
강석봉
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 강석봉 filed Critical 강석봉
Priority to KR1020190059252A priority Critical patent/KR102120936B1/en
Application granted granted Critical
Publication of KR102120936B1 publication Critical patent/KR102120936B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/28Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/087Inventory or stock management, e.g. order filling, procurement or balancing against orders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0621Item configuration or customization
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • H04M1/7253
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Economics (AREA)
  • Theoretical Computer Science (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Tourism & Hospitality (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Manufacturing & Machinery (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Toys (AREA)

Abstract

The present invention provides a system for providing a customized character doll including a smart phone. The system includes: a user terminal that registers a user using user information and uploads a picture that can identify the user; and a character doll production service providing server including: a registering unit that registers the user by storing user information from the user terminal; an upload unit to upload the picture from the user terminal; a selection unit that selects a 3D character that matches the user from pre-stored 3D character data by inputting the user information and image as a query; and an ordering unit that designates the selected 3D character as a user character and sends an order to create the 3D character doll to a production terminal.

Description

스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 제공 시스템{SYSTEM FOR PROVIDING CUSTOMIZED CHARACTER DOLL INCLUDING SMART PHONE}Character doll production service providing system equipped with the function of a smart terminal {SYSTEM FOR PROVIDING CUSTOMIZED CHARACTER DOLL INCLUDING SMART PHONE}

본 발명은 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 제공 시스템에 관한 것으로, 사용자의 이미지를 이용하여 스마트 단말을 포함하는 캐릭터 인형을 제작하는 플랫폼을 제공한다.The present invention relates to a system for providing a character doll production service equipped with a function of a smart terminal, and provides a platform for producing a character doll including a smart terminal using a user's image.

최근 시뮬레이션 게임에서 사용자는 본인과 동일한 캐릭터를 사용하는 것이 애니메이션 캐릭터를 사용하는 것보다 더 높은 수준의 공간적 실재감, 사회적 실재감, 몰입과 감정이입을 경험한다는 연구결과가 발표되었다. 즉, 게임에서 사용자 본인의 모습 그대로 나오는 실사 캐릭터 게임과 애니메이션 캐릭터를 사용한 게임에서 더 높은 실재감을 느낄 수 있는데, 공간적 실재감은 매체의 기술적 특징에 의존하는 경향이 강하고 이러한 매체의 기술적 구현으로 현실과 동일한 자신의 모습이 나타날 때, 사용자들이 느끼는 실재감은 극대화 될 수 있다. 또한, 설정된 실재감의 다른 하위 차원인 사회적 실재감 역시 본인의 모습이 적용된 실사 캐릭터에서 높은 수준을 나타내었으며, 이는 특정의 네트워킹 도구가 주어진 가상공간에서의 실험을 통해 매체별로 차이가 검증된 기존의 연구와 유사한 결과로 상호작용성을 강조하는 사회적 실재감 또한 유의미한 결과를 가진다.Recently, in a simulation game, research results have been reported that users using the same character as themselves experience a higher level of spatial reality, social reality, immersion and empathy than using animation characters. In other words, you can feel a higher sense of realism in the game using real-life character games and animation characters that appear as the user himself in the game. Spatial realism tends to depend on the technical characteristics of the medium, and the technical realization of these media makes it the same as reality. When one's figure appears, the real feelings of users can be maximized. In addition, social realism, which is another sub-dimensionality of the established realism, also showed a high level in the live-action character to which one's figure was applied. Similar results also have a significant social presence that emphasizes interactivity.

이때, 캐릭터 인형과 스마트 단말을 IoT 기반하여 결합시킨 기술이 연구 및 공개되었는데, 이와 관련하여, 선행기술인 한국등록특허 제10-1791942호(2017년11월01일 공고)에는, 단말기와 구동부를 결합하여, 단말기의 다양한 디스플레이, 사운드 출력 기능을 이용하여 스마트 인형의 제어의 응용성을 높이고 인형의 외관 형상을 다변화할 수 있는 이동형 스마트 인형 및 이동형 스마트 인형의 구동 시스템이 제공되고, 상세하게는 이동 명령 신호에 대응하여 이동 가능한 구동부, 구동부의 외관을 형성하는 캐릭터부, 구동부에 장착되어 구동부로 이동 명령 신호를 전달하는 장착단말기, 및 장착단말기와 통신하여 장착단말기로 미리 정해진 명령 신호를 전달하는 제어단말기를 포함한다.At this time, the technology of combining the character doll and the smart terminal based on the IoT was researched and published. In this regard, in the prior art, Korean Patent Registration No. 10-1791942 (announced on November 1, 2017), the terminal and the driving unit are combined. Therefore, a mobile smart doll and a mobile smart doll driving system are provided to increase the applicability of control of a smart doll and diversify the appearance of the doll by using various display and sound output functions of the terminal. A drive unit that can move in response to a signal, a character unit that forms the exterior of the driving unit, a mounting terminal that is mounted on the driving unit and transmits a movement command signal to the driving unit, and a control terminal that communicates with the mounting terminal to transmit a predetermined command signal to the mounting terminal. It includes.

다만, 상술한 캐릭터는 제작사에서 기 설정된 캐릭터일 뿐, 사용자의 캐릭터가 반영된 캐릭터 인형이 아니다. 상술한 연구 결과에서 볼 수 있듯이, 사용자 본인의 캐릭터가 가상현실 또는 실제에 적용되었을 경우, 실재감 뿐만 아니라 몰입도를 더 증가시킬 수 있고, 일상적인 기능을 제공하면서도 매체를 사용하는 동안에는 끊임없이 자신이 원하는 방식으로 능동적인 선택행위를 함으로써 몰입을 유도할 수 있으며, 자신의 행동과 매체의 반응이 합쳐져 강한 사용자의 관심과 집중을 불러 일으킬 수 있는 단말의 제작 플랫폼이 요구되고 있다.However, the above-described character is only a character preset by the manufacturer, and is not a character doll reflecting the user's character. As can be seen from the above-mentioned research results, when the user's own character is applied to virtual reality or reality, it is possible to further increase immersion as well as realism, while providing everyday functions, while constantly using the medium There is a need for a terminal production platform capable of inducing immersion through active selection acts in a manner, and inducing strong user interest and concentration by combining their actions and media reactions.

본 발명의 일 실시예는, 사용자의 정보 및 사진을 이용하여 실사와 같이 3D 캐릭터 인형을 생성하거나, 정보 및 사진을 캐릭터화한 캐릭터 인형을 생성하거나, 정보 및 사진과 가장 큰 유사도를 보이는 기 저장된 캐릭터를 선정하여 캐릭터 인형 단말을 제작의뢰할 수 있는 플랫폼을 제공하고, 캐릭터 인형 단말이 스마트 단말의 기본적인 기능을 포함하는 것에 더하여, 캐릭터 인형 본연의 펫(Pet) 기능을 수행할 수 있도록 구성함으로써, 사용자의 사용 실재감 및 몰입도를 극대화시킬 수 있는, 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 제공 시스템을 제공할 수 있다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.According to an embodiment of the present invention, a 3D character doll is generated as in real life using a user's information and a photo, a character doll that characterizes the information and a photo is generated, or a group that has the greatest similarity to the information and photo is stored. By providing a platform for selecting a character and making a request for a character doll terminal, and configuring the character doll terminal to perform the pet function of the character doll in addition to including the basic functions of the smart terminal, It is possible to provide a character doll production service providing system equipped with a function of a smart terminal capable of maximizing the user's presence and immersion. However, the technical problem to be achieved by the present embodiment is not limited to the technical problem as described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는, 사용자 정보를 이용하여 사용자를 등록하고, 사용자를 식별가능한 사진을 업로드하는 사용자 단말, 및 사용자 단말로부터 사용자 정보를 저장하여 사용자를 등록하는 등록부, 사용자 단말로부터 사진을 업로드받는 업로드부, 사용자 정보 및 사진을 질의(Query)로 입력하여 기 저장된 3D 캐릭터 데이터 중 사용자와 매칭되는 3D 캐릭터를 선정하는 선정부, 선정된 3D 캐릭터를 사용자 캐릭터로 지정하고 제작 단말로 3D 캐릭터 인형 제작 발주를 전송하는 발주부를 포함하는 캐릭터 인형 제작 서비스 제공 서버를 포함한다.As a technical means for achieving the above-described technical problem, an embodiment of the present invention registers a user using user information, uploads a user identifiable picture, and stores user information from the user terminal. Registration section to register users, upload section to upload photos from user terminals, selection section to select 3D characters that match users from pre-stored 3D character data by entering user information and photos as queries, selected 3D characters And a character doll production service providing server including an ordering unit that designates a user character and transmits a 3D character doll production order to a production terminal.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 사용자의 정보 및 사진을 이용하여 실사와 같이 3D 캐릭터 인형을 생성하거나, 정보 및 사진을 캐릭터화한 캐릭터 인형을 생성하거나, 정보 및 사진과 가장 큰 유사도를 보이는 기 저장된 캐릭터를 선정하여 캐릭터 인형 단말을 제작의뢰할 수 있는 플랫폼을 제공하고, 캐릭터 인형 단말이 스마트 단말의 기본적인 기능을 포함하는 것에 더하여, 캐릭터 인형 본연의 펫(Pet) 기능을 수행할 수 있도록 구성함으로써, 사용자의 사용 실재감 및 몰입도를 극대화시킬 수 있고, 고객의 감성 품질을 높일 수 있다.According to any one of the above-described problem solving means of the present invention, the user's information and photos are used to create a 3D character doll as in real life, or a character doll is created by characterizing information and photos, and the information and photos are simulated. It provides a platform for making and requesting character puppet terminals by selecting pre-stored characters that show great similarity, and in addition to the basic features of the smart puppet terminal, the character puppet terminal performs the original pet function. By configuring it to be possible, it is possible to maximize the user's realism and immersion, and to increase the customer's emotional quality.

도 1은 본 발명의 일 실시예에 따른 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 제공 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 시스템에 포함된 캐릭터 인형 제작 서비스 제공 서버를 설명하기 위한 블록 구성도이다.
도 3은 본 발명의 일 실시예에 따른 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 4는 본 발명의 다른 실시예에 따른 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 제공 방법을 설명하기 위한 동작 흐름도이다.
1 is a view for explaining a character doll production service providing system equipped with a function of a smart terminal according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a character doll production service providing server included in the system of FIG. 1.
3 is a view for explaining an embodiment in which a character doll production service equipped with a function of a smart terminal according to an embodiment of the present invention is implemented.
4 is a view for explaining an embodiment in which a character doll production service equipped with a function of a smart terminal according to another embodiment of the present invention is implemented.
5 is an operation flowchart for explaining a method for providing a character doll production service equipped with a function of a smart terminal according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art to which the present invention pertains may easily practice. However, the present invention can be implemented in many different forms and is not limited to the embodiments described herein. In addition, in order to clearly describe the present invention in the drawings, parts irrelevant to the description are omitted, and like reference numerals are assigned to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is "connected" to another part, this includes not only "directly connected" but also "electrically connected" with another element in between. . Also, when a part is said to "include" a certain component, it means that the component may further include other components, not exclude other components, unless specifically stated otherwise. However, it should be understood that the existence or addition possibilities of numbers, steps, actions, components, parts or combinations thereof are not excluded in advance.

명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다. The terms "about", "substantially", and the like used throughout the specification are used in or at a value close to the value when manufacturing and substance tolerances unique to the stated meaning are given, and the understanding of the present invention. To aid, accurate or absolute figures are used to prevent unscrupulous use of the disclosed disclosure by unscrupulous infringers. The term "~(step)" or "step of" as used in the entire specification of the present invention does not mean "step for".

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1개의 유닛이 2개 이상의 하드웨어를 이용하여 실현되어도 되고, 2개 이상의 유닛이 1개의 하드웨어에 의해 실현되어도 된다. In the present specification, the term “unit” includes a unit realized by hardware, a unit realized by software, and a unit realized by using both. Further, one unit may be realized using two or more hardware, and two or more units may be realized by one hardware.

본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다. In the present specification, some of the operations or functions described as performed by the terminal, the device, or the device may be performed instead on a server connected to the corresponding terminal, device, or device. Similarly, some of the operations or functions described as being performed by the server may be performed in a terminal, apparatus, or device connected to the corresponding server.

본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.In this specification, some of the operations or functions described as mapping or matching with the terminal means that the unique number of the terminal or identification information of the individual, which is identification data of the terminal, is mapped or matched. Can be interpreted as

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 제공 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 제공 시스템(1)은, 적어도 하나의 사용자 단말(100), 캐릭터 인형 제작 서비스 제공 서버(300), 적어도 하나의 제작 단말(400), 및 적어도 하나의 캐릭터 인형 단말(500)을 포함할 수 있다. 다만, 이러한 도 1의 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 제공 시스템(1)은, 본 발명의 일 실시예에 불과하므로, 도 1을 통하여 본 발명이 한정 해석되는 것은 아니다.1 is a view for explaining a character doll production service providing system equipped with a function of a smart terminal according to an embodiment of the present invention. Referring to FIG. 1, a character doll production service providing system 1 equipped with a function of a smart terminal includes at least one user terminal 100, a character doll production service providing server 300, and at least one production terminal 400. ), and at least one character doll terminal 500. However, since the character doll production service providing system 1 equipped with the function of the smart terminal of FIG. 1 is only an embodiment of the present invention, the present invention is not limitedly interpreted through FIG. 1.

이때, 도 1의 각 구성요소들은 일반적으로 네트워크(network, 200)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 적어도 하나의 사용자 단말(100)은 네트워크(200)를 통하여 캐릭터 인형 제작 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 캐릭터 인형 제작 서비스 제공 서버(300)는, 네트워크(200)를 통하여 적어도 하나의 사용자 단말(100), 적어도 하나의 제작 단말(400), 적어도 하나의 캐릭터 인형 단말(500)과 연결될 수 있다. 또한, 적어도 하나의 제작 단말(400)은, 네트워크(200)를 통하여 캐릭터 인형 제작 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 적어도 하나의 캐릭터 인형 단말(500)은, 네트워크(200)를 통하여 적어도 하나의 사용자 단말(100), 캐릭터 인형 제작 서비스 제공 서버(300)와 연결될 수 있다. At this time, each component of FIG. 1 is generally connected through a network (network, 200). For example, as illustrated in FIG. 1, at least one user terminal 100 may be connected to the character doll production service providing server 300 through the network 200. In addition, the character doll production service providing server 300 may be connected to at least one user terminal 100, at least one production terminal 400, and at least one character doll terminal 500 through the network 200. . Also, the at least one production terminal 400 may be connected to the character doll production service providing server 300 through the network 200. Also, the at least one character doll terminal 500 may be connected to at least one user terminal 100 and the character doll production service providing server 300 through the network 200.

여기서, 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 RF, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5GPP(5th Generation Partnership Project) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, NFC 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.Here, the network means a connection structure capable of exchanging information between each node such as a plurality of terminals and servers, and examples of such a network include RF, 3GPP (3rd Generation Partnership Project) network, and LTE (Long Term) Evolution (Evolution) network, 5GPP (5th Generation Partnership Project) network, WIMAX (World Interoperability for Microwave Access) network, Internet (Internet), Local Area Network (LAN), Wireless Local Area Network (LAN), Wide Area Network (WAN) , PAN (Personal Area Network), Bluetooth (Bluetooth) network, NFC network, satellite broadcasting network, analog broadcasting network, DMB (Digital Multimedia Broadcasting) network, and the like.

하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다 할 것이다.In the following, the term at least one is defined as a term including singular and plural, and even if the term at least one does not exist, each component may exist in singular or plural, and may mean singular or plural. It will be self-evident. In addition, it may be said that each component is provided in a singular or plural form, depending on the embodiment.

적어도 하나의 사용자 단말(100)은, 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 캐릭터 인형 단말(500)을 제작하기 위하여 사용자 정보 및 사용자 사진을 등록하여 사용자를 등록하고 제작을 요청하는 단말일 수 있다. 이때, 적어도 하나의 사용자 단말(100)은, 캐릭터 인형 제작 서비스 제공 서버(300)에서 사용자와 캐릭터의 매칭 결과를 수신하고, 수신 결과에 대한 컨펌을 수행하는 단말일 수 있다. 그리고, 적어도 하나의 사용자 단말(100)은, 캐릭터 인형 단말(500)이 제작 완료되고, 캐릭터 인형 단말(500)을 사용자 단말(100)과 연동하기 위하여 동기화를 수행하거나, 캐릭터 인형 단말(500)을 사용자 단말(100) 대용으로 사용하기 위하여 사용자 단말(100)의 데이터를 모두 캐릭터 인형 단말(500)로 이동시키는 단말일 수 있다.The at least one user terminal 100 uses user information and user pictures to produce the character doll terminal 500 using a web page, app page, program, or application related to a character doll production service equipped with a function of a smart terminal. It may be a terminal that registers a user by registering and requests production. In this case, the at least one user terminal 100 may be a terminal that receives a matching result of a user and a character from the character doll production service providing server 300 and confirms the received result. And, the at least one user terminal 100, the character doll terminal 500 is completed, and the character doll terminal 500 to perform synchronization with the user terminal 100, or the character doll terminal 500 In order to use the user terminal 100 as a substitute, it may be a terminal that moves all data of the user terminal 100 to the character doll terminal 500.

여기서, 적어도 하나의 사용자 단말(100)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 사용자 단말(100)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 사용자 단말(100)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트 패드(smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, the at least one user terminal 100 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, navigation, a laptop equipped with a web browser (WEB Browser), a desktop, a laptop, and the like. At this time, the at least one user terminal 100 may be implemented as a terminal capable of accessing a remote server or terminal through a network. The at least one user terminal 100 is, for example, a wireless communication device in which portability and mobility are guaranteed, navigation, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), Personal Handyphone System (PHS), Personal Digital Assistant (PDA), International Mobile Telecommunication (IMT)-2000, Code Division Multiple Access (CDMA)-2000, W-Code Division Multiple Access (W-CDMA), Wireless Broadband Internet ) It may include all kinds of handheld-based wireless communication devices such as a terminal, a smartphone, a smartpad, and a tablet PC.

캐릭터 인형 제작 서비스 제공 서버(300)는, 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 제공하는 서버일 수 있다. 그리고, 캐릭터 인형 제작 서비스 제공 서버(300)는, 적어도 하나의 캐릭터의 이미지, 특성 데이터 등을 데이터베이스로 구축한 서버일 수 있다. 또한, 캐릭터 인형 제작 서비스 제공 서버(300)는, 사용자 단말(100)로부터 사용자 정보 및 사용자의 사진이 등록되고, 캐릭터 인형 단말(500)의 제작 의뢰가 수신되는 경우, 기 구축된 데이터베이스에서 사용자 정보 및 사진과 가장 유사도가 높아 매칭되는 리스트를 리스트업하여 사용자 단말(100)로 전송하고, 사용자 단말(100)에서 선택하도록 하거나, 가장 유사도가 높은 캐릭터를 선택하여 사용자 단말(100)로 컨펌요청을 전송하는 서버일 수 있다. 그리고, 캐릭터 인형 제작 서비스 제공 서버(300)는, 캐릭터가 결정되는 경우, 적어도 하나의 제작 단말(400)로 제작발주를 전송하고, 제작 단말(400)에서 수신되는 제작상황을 사용자 단말(100)과 공유하는 서버일 수 있다. 또한, 캐릭터 인형 제작 서비스 제공 서버(300)는, 캐릭터 인형 단말(500)과 사용자 단말(100) 간의 페이링 또는 동기화 인터페이스를 제공하고, 캐릭터 인형 자체의 구동이나 캐릭터 인형 단말(500)의 구동 등의 업데이트나 패치가 존재하는 경우 이를 퍼블리싱하는 서버일 수 있다.The character doll production service providing server 300 may be a server that provides a character doll production service web page, app page, program, or application equipped with a function of a smart terminal. In addition, the character doll production service providing server 300 may be a server in which images, characteristic data, and the like of at least one character are built into a database. In addition, the character doll production service providing server 300, when user information and a user's photo are registered from the user terminal 100, and a production request of the character doll terminal 500 is received, user information in a pre-built database And a list with the highest similarity to the picture is transmitted to the user terminal 100 by listing up the matching list, or selected by the user terminal 100, or by selecting a character with the highest similarity to the user terminal 100 for a confirmation request. It can be a sending server. In addition, the character doll production service providing server 300 transmits a production order to at least one production terminal 400 when a character is determined, and transmits a production situation received from the production terminal 400 to the user terminal 100 It can be a server sharing with. In addition, the character doll production service providing server 300 provides a paying or synchronization interface between the character doll terminal 500 and the user terminal 100, driving the character doll itself, driving the character doll terminal 500, and the like. If an update or patch exists, it may be a server that publishes it.

여기서, 캐릭터 인형 제작 서비스 제공 서버(300)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다.Here, the character doll production service providing server 300 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, navigation, a laptop equipped with a web browser (WEB Browser), a desktop, a laptop, and the like.

적어도 하나의 제작 단말(400)은, 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 캐릭터 인형 제작 서비스 제공 서버(300)로부터 제작의뢰 또는 발주서를 수신하는 단말일 수 있다. 여기서, 적어도 하나의 제작 단말(400)은, 캐릭터 인형 단말(500)을 위한 캐릭터 인형 제작의 3D 도면 또는 2D 도면을 캐릭터 인형 제작 서비스 제공 서버(300)를 통하여 사용자 단말(100)로 전송하여 최종 컨펌을 요청하거나 수정사항이 존재하는 경우, 캐릭터 인형 제작 서비스 제공 서버(300)를 통하여 사용자 단말(100)로부터 수신하는 단말일 수 있다. 그리고, 적어도 하나의 제작 단말(400)은, 발송이 되는 경우 트래킹 번호를 캐릭터 인형 제작 서비스 제공 서버(300)를 통하여 사용자 단말(100)에게 공유하는 단말일 수 있다.At least one production terminal 400 receives a production request or an order form from the character doll production service providing server 300 using a web page, an app page, a program or an application related to a character doll production service equipped with a function of a smart terminal. It may be a terminal. Here, the at least one production terminal 400 transmits the 3D drawing or 2D drawing of the character doll production for the character doll terminal 500 to the user terminal 100 through the character doll production service providing server 300 and finally If a request for confirmation or a modification exists, it may be a terminal received from the user terminal 100 through the character doll production service providing server 300. Also, at least one production terminal 400 may be a terminal that shares the tracking number to the user terminal 100 through the character doll production service providing server 300 when it is sent.

여기서, 적어도 하나의 제작 단말(400)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 제작 단말(400)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 제작 단말(400)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트 패드(smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, the at least one production terminal 400 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, navigation, a laptop equipped with a web browser (WEB Browser), a desktop, a laptop, and the like. At this time, the at least one production terminal 400 may be implemented as a terminal capable of accessing a remote server or terminal through a network. The at least one production terminal 400 is, for example, a wireless communication device in which portability and mobility are guaranteed, navigation, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), Personal Handyphone System (PHS), Personal Digital Assistant (PDA), International Mobile Telecommunication (IMT)-2000, Code Division Multiple Access (CDMA)-2000, W-Code Division Multiple Access (W-CDMA), Wireless Broadband Internet ) It may include all kinds of handheld-based wireless communication devices such as a terminal, a smartphone, a smartpad, and a tablet PC.

적어도 하나의 캐릭터 인형 단말(500)은, 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용한 스마트 단말일 수 있다. 이때, 적어도 하나의 캐릭터 인형 단말(500)은 캐릭터 인형의 적어도 하나의 부위를 움직이도록 하는 제어장치를 더 포함하는 단말일 수 있다. 그리고, 적어도 하나의 캐릭터 인형 단말(500)은 스마트 단말이므로 스마트 단말의 기본적인 구성을 포함하는 단말일 수 있다.The at least one character doll terminal 500 may be a smart terminal using a web page, an app page, a program or an application related to a character doll production service equipped with a function of a smart terminal. At this time, the at least one character doll terminal 500 may be a terminal further comprising a control device for moving at least one part of the character doll. Further, since at least one character doll terminal 500 is a smart terminal, it may be a terminal including the basic configuration of the smart terminal.

여기서, 적어도 하나의 캐릭터 인형 단말(500)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 캐릭터 인형 단말(500)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 캐릭터 인형 단말(500)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트 패드(smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, the at least one character doll terminal 500 may be implemented as a computer that can access a remote server or terminal through a network. Here, the computer may include, for example, navigation, a laptop equipped with a web browser (WEB Browser), a desktop, a laptop, and the like. At this time, the at least one character doll terminal 500 may be implemented as a terminal capable of accessing a remote server or terminal through a network. The at least one character puppet terminal 500 is, for example, a wireless communication device in which portability and mobility are guaranteed. Navigation, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular) , PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) terminal, a smart phone (smartphone), a smart pad (smartpad), a tablet PC (Tablet PC) and the like may include all kinds of handheld (Handheld)-based wireless communication device.

도 2는 도 1의 시스템에 포함된 캐릭터 인형 제작 서비스 제공 서버를 설명하기 위한 블록 구성도이고, 도 3은 본 발명의 일 실시예에 따른 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스가 구현된 일 실시예를 설명하기 위한 도면이고, 도 4는 본 발명의 다른 실시예에 따른 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.FIG. 2 is a block diagram for describing a character doll production service providing server included in the system of FIG. 1, and FIG. 3 is a character doll production service equipped with a function of a smart terminal according to an embodiment of the present invention. FIG. 4 is a view for explaining an embodiment, and FIG. 4 is a view for explaining an embodiment in which a character doll production service equipped with a function of a smart terminal according to another embodiment of the present invention is implemented.

도 2를 참조하면, 캐릭터 인형 제작 서비스 제공 서버(300)는, 업로드부(310), 선정부(320), 발주부(330)를 포함할 수 있다.Referring to FIG. 2, the character doll production service providing server 300 may include an upload unit 310, a selection unit 320, and an ordering unit 330.

본 발명의 일 실시예에 따른 캐릭터 인형 제작 서비스 제공 서버(300)나 연동되어 동작하는 다른 서버(미도시)가 적어도 하나의 사용자 단말(100), 적어도 하나의 제작 단말(400), 및 적어도 하나의 캐릭터 인형 단말(500)로 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 전송하는 경우, 적어도 하나의 사용자 단말(100), 적어도 하나의 제작 단말(400), 및 적어도 하나의 캐릭터 인형 단말(500)은, 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 설치하거나 열 수 있다. 또한, 웹 브라우저에서 실행되는 스크립트를 이용하여 서비스 프로그램이 적어도 하나의 사용자 단말(100), 적어도 하나의 제작 단말(400), 및 적어도 하나의 캐릭터 인형 단말(500)에서 구동될 수도 있다. 여기서, 웹 브라우저는 웹(WWW: world wide web) 서비스를 이용할 수 있게 하는 프로그램으로 HTML(hyper text mark-up language)로 서술된 하이퍼 텍스트를 받아서 보여주는 프로그램을 의미하며, 예를 들어 넷스케이프(Netscape), 익스플로러(Explorer), 크롬(chrome) 등을 포함한다. 또한, 애플리케이션은 단말 상의 응용 프로그램(application)을 의미하며, 예를 들어, 모바일 단말(스마트폰)에서 실행되는 앱(app)을 포함한다.Character doll production service providing server 300 according to an embodiment of the present invention or another server (not shown) operating in conjunction with at least one user terminal 100, at least one production terminal 400, and at least one When transmitting a character doll production service application, program, app page, web page, etc. equipped with the function of a smart terminal to the character doll terminal 500 of at least one user terminal 100, at least one production terminal 400 ), and the at least one character doll terminal 500 may install or open a character doll production service application, a program, an app page, a web page, etc. equipped with a function of a smart terminal. In addition, the service program may be driven in at least one user terminal 100, at least one production terminal 400, and at least one character doll terminal 500 using a script executed in a web browser. Here, the web browser is a program that enables the use of the world wide web (WWW) service, and refers to a program that receives and displays hypertext described in a hypertext mark-up language (HTML), for example, Netscape. , Explorer, Chrome, and the like. Further, the application means an application on the terminal, and includes, for example, an app that is executed on a mobile terminal (smartphone).

도 2를 참조하면, Referring to Figure 2,

등록부(310)는 사용자 단말(100)로부터 사용자 정보를 저장하여 사용자를 등록할 수 있다.The registration unit 310 may register a user by storing user information from the user terminal 100.

업로드부(320)는, 사용자 단말(100)로부터 사진을 업로드받을 수 있다. 이를 위해, 사용자 단말(100)은, 사용자 정보를 이용하여 사용자를 등록하고, 사용자를 식별가능한 사진을 업로드할 수 있다. 이때, 본 발명의 일 실시예에 따른 캐릭터 인형은, 두 가지의 의미로 해석될 수 있다. 첫 번째는, 사용자 사진을 캐릭터화한 인형이라는 의미이고, 두 번째는 사용자 정보 및 사진에 최대한 매칭하는 기 존재하는 캐릭터 인형이라는 의미일 수 있다. 전자의 경우에는 사용자의 사진에 따라 실사로 3D 캐릭터 인형을 만들거나, 사용자 사진을 캐릭터화해서 인형을 만드는 두 가지 방법으로 다시 나뉘어진다. 후자의 경우에는, 이하에서 후술된다.The upload unit 320 may upload a photo from the user terminal 100. To this end, the user terminal 100 may register a user using the user information and upload a picture that identifies the user. At this time, the character doll according to an embodiment of the present invention may be interpreted in two meanings. The first may mean a doll that characterizes a user picture, and the second may mean a character doll that already exists to match user information and a picture as much as possible. In the former case, it is divided into two methods: making a 3D character doll in real life according to the user's photo, or making a doll by characterizing the user's photo. In the latter case, it will be described later.

전자의 경우를 설명한다. 우선, 사용자가 업로드한 사진의 2차원 얼굴로부터 3차원 모델링 방법을 수행해야 3D 캐릭터가 생성될 수 있다. 일반적으로 가장 정확 한 얼굴을 생성하는 방법은 3차원 데이터를 얻을 수 있는 장비인 레이저 스캐너를 이용하는 방법이지만, 이는 처리해야 하는 데이터의 수가 많고 고가의 장비를 요구한다. 이에 따라, 본 발명의 일 실시예에서는 파라미터를 이용하는 방법을 이용할 수도 있는데, 이는 적은 수의 제어점을 이용하여 얼굴 모델을 생성할 수 있으며, 파라미터의 수를 증가시키면 다양한 얼굴을 합성하는 방법을 이용할 수도 있다. 또는, 본 발명의 일 실시예에서는, 사용자의 사진을 입력받아 3차원 얼굴을 생성하는 파라미터를 구하고, 결과적으로 얻어진 3차원 얼굴로 캐릭터 인형의 얼굴을 대체하는 방법을 이용할 수 있다.The former case will be described. First, a 3D character can be generated only by performing a 3D modeling method from a 2D face of a picture uploaded by a user. In general, the most accurate method of generating a face is a method using a laser scanner, which is a device capable of obtaining 3D data, but this requires a large amount of data to be processed and expensive equipment. Accordingly, in one embodiment of the present invention, a method using a parameter may be used, which can generate a face model using a small number of control points, and if a number of parameters is increased, a method of synthesizing various faces may be used. have. Alternatively, in an embodiment of the present invention, a method of obtaining a parameter for generating a 3D face by receiving a user's picture and obtaining a parameter, and replacing the face of the character doll with the resulting 3D face may be used.

이를 위해서는, 2차원의 정면 얼굴 영상에서 AAM(Active Appearance Models)을 이용하여 얼굴 특징점을 제어점으로 선택하고, 파라메터 업데이트 함수를 통하여 3D 평균얼굴의 제어점을 변형시켜 입력 영상의 3D 얼굴을 완성할 수 있다. 얼굴 모델링을 위한 제어점은 MPEG-4(MPEG-4 Facial Animation)에서 정의하고 있는 특징점들을 기준으로 좀 더 세밀한 표현을 위한 특징점을 추가하여 눈썹, 눈, 코, 입, 턱선 등을 표현할 수 있다. 이때, 3차원 얼굴을 제어하기 위하여 X, Y, Z축 방향의 제어점의 계산이 필요한데 본 발명의 일 실시예서는 계산량을 줄이기위하여 PCA(Principal Component Analysis)를 이용할 수 있고, 입력 영상(업로드된 사진)에 맞게 제어점을 변형하기 위해 학습을 통하여 파라미터 업데이트 함수를 생성할 수 있다. 파라미터 업데이트 함수는 2차원으로 투영된 3차원 평균얼굴과 2차원 영상의 제어점 간의 에러값과 3차원 영상의 PCA 계수값 사이의 관계를 정의한다. 즉, 2차원의 입력 영상이 들어오면 이 함수와 3차원 평균얼굴에 의해서 3차원 제어 파라미터를 계산 할 수 있고, 이를 이용하여 3차원 얼굴이 생성가능하다. 이때, 학습 데이터 및 평가 데이터를 위해서 별도로 복수의 사용자의 얼굴 사진이 입력 영상으로 이용될 수 있다.To this end, a facial feature point is selected as a control point using AAM (Active Appearance Models) in a two-dimensional front face image, and a 3D average face can be transformed through a parameter update function to complete the 3D face of the input image. . Control points for face modeling can express eyebrows, eyes, noses, mouths, and jawlines by adding feature points for more detailed expression based on feature points defined in MPEG-4 (MPEG-4 Facial Animation). At this time, in order to control the 3D face, it is necessary to calculate the control points in the X, Y, and Z axis directions. In an embodiment of the present invention, PCA (Principal Component Analysis) may be used to reduce the amount of calculation, and input images (uploaded pictures) ), you can create a parameter update function through learning to modify the control point. The parameter update function defines a relationship between an error value between a 3D average face projected in 2D and a control point of a 2D image and a PCA coefficient value in a 3D image. That is, when a 2D input image is received, a 3D control parameter can be calculated using this function and a 3D average face, and a 3D face can be generated using the 3D control parameter. At this time, for learning data and evaluation data, face pictures of a plurality of users may be separately used as input images.

사용자 사진을 캐릭터화해서 인형을 만드는 실시예는, 사용자의 사진을 캐릭터화 또는 애니메이션화하는 방법을 이용할 수 있다. 우선, 사용자의 사진에서 얼굴을 인식해야 하는데, 얼굴 인식 알고리즘들 중 PCA 방식을 이용할 수 있다. 외형기반 방법 중의 하나인 PCA는 얼굴에서 구성요소를 일일이 분리하지 않고 하나의 주성분으로 생각하여 처리하는 방식으로 주로 다루기 힘든 고차원의 신호를 저차원으로 줄여 다루기 쉽게 해주는 통계적 방법이다. PCA 알고리즘을 적용하여 유사도를 비교하는 것은 얼굴을 전체적으로 인식할 경우에는 효율적이다. 이때, 본 발명의 일 실시예에서 생성하려는 캐릭터는 전체적으로 유사도를 비교하는 것보다 부분적으로 비교하는 것이 계산상 더 효율적이다. 여기서, 이용될 수 있는 유사도 비교 알고리즘은, PCA보다 조금 더 보완된 PCA에 SIFT 알고리즘을 적용한 PCA-SIFT 알고리즘이 적용될 수 있는데, PCA-SIFT는 SIFT의 특징점 추출 시 더 많은 차원으로 분할하여 낮은 차원으로 줄이는 방법으로 빠른 연산속도와 높은 정확성을 가지는 장점이 있다. 더 나아가, 캐릭터 생성을 위한 단순 인식률을 높이기 위해 Haar-like 특징을 통해 얼굴을 검출하고 유사도 비교의 가장 기초적인 L2-Norm 이론을 기반으로 하여 1:1로 화소를 비교하는 방식(Pixels Matching, 1:1 PM)을 이용할 수 있으나 이에 한정되는 것은 아니다.In the embodiment of making a doll by characterizing a user picture, a method of characterizing or animating the user's picture may be used. First, the face must be recognized in the user's picture, and a PCA method may be used among the face recognition algorithms. PCA, which is one of the appearance-based methods, is a statistical method that makes it easy to handle by reducing a high-level signal that is difficult to handle to a low level by treating the component as a main component rather than individually separating it from the face. Comparing similarities by applying the PCA algorithm is effective when the face is recognized as a whole. At this time, in one embodiment of the present invention, it is more computationally efficient to compare the characters to be partially compared to the overall similarity. Here, the similarity comparison algorithm that can be used can be applied to the PCA-SIFT algorithm with the SIFT algorithm applied to the PCA, which is a little more complementary than the PCA. As a reduction method, it has the advantage of having a high computational speed and high accuracy. Furthermore, in order to increase the simple recognition rate for character creation, a face is detected through a Haar-like feature and a pixel is compared 1:1 based on the most basic L2-Norm theory of similarity comparison (Pixels Matching, 1 :1 PM), but is not limited thereto.

1:1 PM는 데이터베이스의 이미지 화소값과 비교하고자 하는 얼굴 이미지 데이터의 같은 위치의 화소 값 차이들의 합을 구하여 그 값이 가장 작은 것을 찾아내는 과정을 말한다. 이때, 원본 이미지에서 추출된 눈 또는 입 등의 이미지를 최대한 깨끗한 이진화 이미지로 추출하기 위해 열림 연산을 사용할 수 있는데, 데이터베이스의 이미지 또한 비교를 위해 흑백 이미지여야 한다. Haar를 통해 눈을 검출하게 되면 눈이 그려지는 시작 위치가 모두 다르고, 검출된 이미지의 전체 크기가 제각각일 수 있기 때문에, 이를 해결하기 위하여 상대적인 크기를 절대적인 크기로 바꾸는 작업을 수행할 수 있다. 특징점 검출로 눈의 시작 위치를 알아내고 그 점을 기준으로 관심영역의 비율을 4:3으로 잘라서 일관된 비율을 설정할 수 있으나 비율은 상술한 것으로 한정되는 것은 아니다. 그리고, 특징점 검출로 실제 눈의 위치가 가운데에 올 수 있도록 관심영역의 위치를 바꾸는 작업도 수행될 수 있고, 1:1 PM에 가장 중요한 리사이징(Resize) 작업을 진행할 수 있다. 이전에 진행하였던 특징점 검출로 알아낸 눈의 시작 위치와 끝 위치의 거리의 차를 계산하면 데이터베이스에 있는 이미지 눈의 길이와 비교할 수 있으므로 그 차이를 알 수 있다. 이때 데이터베이스의 이미지 크기를 기준으로 검출된 눈 이미지는 작을 수도 있고 클 수도 있다. 두 개 의 결과에 따라 다른 작업이 진행되도록 이미지 크기의 차이를 스케일 상수로 설정할 수 있다. 이때, 리사이징된 이미지가 데이터베이스의 이미지보다 작을 경우에는 블랜딩(서로 다른 크기의 이미지 합성)을 하여 데이터베이스 이미지의 크기와 맞춰준다. 반대의 경우에는 이미지를 눈이 검출된 위치에 맞춰 데이터베이스 이미지의 크기와 똑같이 크롭(Crop)시킨다. 완성된 이미지를 원본 이미지와 비교하는 작업을 위해서 화소 값을 행렬로 불러와 sqrt연산을 시킨 뒤 나온 값들을 다 더하는데, 데이터베이스 안의 캐릭터 눈 이미지 중 그 결과 값이 가장 작은 이미지가 유사도가 가장 높은 이미지이다. 즉, 검출된 눈의 이미지를 이진화해서 나온 화소 값을 데이터베이스의 눈의 화소값과 비교하여 매칭되는 위치의 화소값 차이를 모두 추출한 값들을 다 더한 뒤, 가장 작은 값을 가진 이미지가 유사도가 가장 높다고 판단한다. 그리고, 유사도가 가장 높은 해당 데이터베이스를 선택하고 기존 캐릭터에 해당 캐릭터의 이미지를 합성할 수 있다. 또한, 성격의 유사도 분석 및 매칭도 더 부가될 수 있다. 물론, 상술한 방법 이외에도 다양한 방법이 이용될 수 있음은 자명하다 할 것이다. 1:1 PM refers to the process of finding the sum of the pixel value differences at the same location of the face image data to be compared with the image pixel values in the database and finding the smallest value. At this time, an open operation may be used to extract an image such as an eye or mouth extracted from the original image as a clean binary image, and the image in the database should also be a black and white image for comparison. When the eye is detected through Haar, since the starting positions of the eyes are all different, and the total size of the detected images may be different, it is possible to perform a task of changing the relative size to an absolute size to solve this. It is possible to determine the starting position of the eye by detecting the feature point and cut the ratio of the region of interest based on the point to 4:3 to set a consistent ratio, but the ratio is not limited to the above. And, by detecting the feature point, the operation of changing the position of the region of interest can be performed so that the actual eye position is in the middle, and the most important resizing operation can be performed at 1:1 PM. Calculating the difference between the distance between the start and end positions of the eye, found by the detection of the feature points that were previously performed, can be compared to the length of the image eyes in the database, so the difference can be seen. At this time, the eye image detected based on the image size of the database may be small or large. The difference in image size can be set as a scale constant so that different operations are performed according to the two results. At this time, if the resized image is smaller than the image in the database, blending (compositing images of different sizes) is performed to match the size of the database image. In the opposite case, the image is cropped to match the size of the database image according to the position where the eye was detected. In order to compare the completed image with the original image, the pixel values are loaded into a matrix, and the values obtained after the sqrt operation are added. The image with the lowest similarity among the character eye images in the database has the highest similarity. to be. That is, after comparing the pixel values obtained by binarizing the detected eye image with the pixel values of the eye in the database, and adding all the extracted values of the pixel values at the matching positions, the image having the smallest value has the highest similarity. Judge. Then, the database having the highest similarity can be selected and the image of the character can be synthesized to the existing character. Also, similarity analysis and matching of personality may be further added. Of course, it will be apparent that various methods can be used in addition to the above-described method.

후자의 경우를 설명한다. 선정부(320)는, 사용자 정보 및 사진을 질의(Query)로 입력하여 기 저장된 3D 캐릭터 데이터 중 사용자와 매칭되는 3D 캐릭터를 선정할 수 있다. 우선, 선정부(320)는 웹 크롤러의 일종인 iCralwer 를 이용하여 학습과 분류 및 검색에 필요한 캐릭터 이미지 데이터를 모을 수 있다. 예를 들어, 구글을 이용하여 검색 키워드를 넣어 이미지들을 가져오는 iCralwer 특성상 쓸모 없는 이미지들이 굉장히 많아 단순히 이미지만을 모아 비지도학습인 클러스터링을 수행하면 효율적이지 못한 클러스터링을 수행할 가능성이 높다. 이보다는 웹 상의 이미지 캐릭터 별로 크롤링하여 모은 이미지 파일을 각 캐릭터의 이름으로 된 폴더에 저장하는 방법을 택하고, 이 과정에서 자연스럽게 레이블링 된 데이터를 수집함과 동시에 이 점을 이용하여 더욱 수월한 학습이 가능할 수 있도록 한다. The latter case will be explained. The selection unit 320 may input a user information and a picture as a query to select a 3D character matching the user from the 3D character data previously stored. First, the selection unit 320 may collect character image data necessary for learning, classification, and search by using iCralwer, a kind of web crawler. For example, there are a lot of useless images due to the iCralwer feature, which uses Google to retrieve images by entering search keywords. If you simply collect images and perform non-supervised clustering, there is a high possibility of performing inefficient clustering. Rather, the method of storing image files collected by crawling for each image character on the web in a folder with the name of each character is collected, and naturally labeled data is collected during this process, and at the same time, it is possible to learn more easily by using this point. Make it possible.

그 다음은, 캐릭터 검색 및 분류작업을 딥 러닝을 이용하여 진행하는데, 이에 가장 적합한 신경망을 찾기 위해, 적합한 신경망모델을 선정할 필요가 있다. 예를 들어, Deep Residual Learning(ResNet) 4을 이용할 수 있다. 여기서, ResNet 의 성능은 단순히 다른 모델들보다 뛰어난 것 뿐만 아니라 사람의 인지능력의 오차를 뛰어넘는 수치를 보여주기에 사람의 인지와 지각이 드러나고 표현되는 요소에 적절할 수 있다. 또한 캐릭터의 경우 여러 특징이 이미지에서 잘 부각되기 때문에 구조적으로 Residual Module을 사용해 깊은 레이어를 구현한 ResNet이 이러한 특징 추출에 더 유리하다. 그리고 나서, 데이터 전처리를 수행하고, ResNet 기반으로 사용자의 사진을 이용하여 캐릭터를 검색할 수 있는데, ResNet을 이용하여 입력 이미지(사용자 사진)에 대해 캐릭터 검색을 위한 분류를 진행해야 한다. 다른 CNN 모델들과 다르게 ResNet은 굉장히 많은 레이어(layer) 수를 통해 보다 높은 성능을 내는 것이 특징이다. 다만, 본래 많은 레이어를 쌓으면 성능이 개선되는 경향과 달리 오히려 일정 수준 이상의 너무 많은 레이어는 오히려 성능을 낮추게 된다. 심지어 테스트 데이터, 뿐만 아니라 트레이닝 데이터에 대해서도 성능 악화를 보일 수 있기 때문에 Residual 연결을 수행할 수 있다. 물론, 상술한 방법 이외에도 다양한 방법으로 분류를 하고 캐릭터를 찾아내는 방법이 존재할 수 있으므로 상술한 것들로 본 발명의 일 실시예가 한정되는 것은 아님은 자명하다 할 것이다.Next, character search and classification work is performed using deep learning. In order to find the most suitable neural network, it is necessary to select a suitable neural network model. For example, Deep Residual Learning (ResNet) 4 may be used. Here, the performance of ResNet is not only superior to other models, but also shows a figure that exceeds the error of human cognitive ability, so it may be appropriate for the factors in which human cognition and perception are revealed and expressed. In addition, for characters, ResNet, which has a deep layer using the Residual Module structurally, is more advantageous for extracting these features because several features are well-recognized in the image. Then, data pre-processing is performed, and a character can be searched using a user's picture based on ResNet, and classification for character search must be performed on an input image (user picture) using ResNet. Unlike other CNN models, ResNet is characterized by higher performance through a large number of layers. However, contrary to the tendency of performance improvement when many layers are stacked, too many layers of a certain level or more will lower performance. Residual connections can be made because even the test data, as well as the training data, may deteriorate. Of course, in addition to the above-described method, since there may be a method of classifying and finding a character in various ways, it will be apparent that one embodiment of the present invention is not limited to those described above.

발주부(330)는, 선정된 3D 캐릭터를 사용자 캐릭터로 지정하고 제작 단말(400)로 3D 캐릭터 인형 제작 발주를 전송할 수 있다. 이때, 제작 단말(400)은, 상술한 전자 또는 후자의 방법으로 모델링되거나 선택된 캐릭터에 대응하도록 캐릭터 인형을 제작한 결과를 사용자 단말(100)과 공유할 수 있고, 사용자 단말(100)의 수정지시 또는 컨펌을 받을 수 있다.The ordering unit 330 may designate the selected 3D character as a user character and transmit a 3D character doll production order to the production terminal 400. At this time, the production terminal 400 may share the result of creating a character doll to correspond to the modeled or selected character in the former or latter method described above with the user terminal 100, and a modification instruction of the user terminal 100 Or you can get a confirmation.

한편, 제작 단말(400)의 제작자가 제작한 캐릭터 인형 단말(500)은, 사용자 단말(100)과 페어링되어 사용자 단말(100)의 데이터를 저장하고, CS(Circuit Switched)망, PS(Packet Switched)망 및 LTE 네트워크와 연결되어 데이터를 송수신할 수 있다. 즉, 스마트 단말의 기본적인 기능을 모두 포함하도록 구성된다. 이때, 사용자가 사용자 단말(100)과 함께 캐릭터 인형 단말(500)을 사용할 것인지, 사용자 단말(100) 대용으로 캐릭터 인형 단말(500)을 사용할 것인지에 따라 연동이나 페어링 등의 기능이 서로 달라지게 된다. 즉, 전자의 경우에는 사용자 단말(100)도 사용하면서 캐릭터 인형 단말(500)은 집에서 전화를 받을 때만 사용한다던지 또는 복수의 이동 단말과 같이 이용되어, 호가 수신되는 경우에는 사용자 단말(100) 뿐만 아니라 캐릭터 인형 단말(500)도 페어링되었으므로 사용자 단말(100)과 같이 함께 전화가 울리는 등의 역할을 수행할 수 있다. 하나의 전화번호인데 두 개의 단말이 연결된 것과 동일하다. 후자의 경우에는, 사용자 단말(100)은 사용되지 않을 것이므로, 사용자 단말(100)의 아이덴티티가 모두 캐릭터 인형 단말(500)로 이전되는 경우를 말한다. 이때에는, 사용자의 전화번호로 전화를 걸거나 메세지를 전송하는 경우, 캐릭터 인형 단말(500)만이 동작하게 된다. 이때, 사용자 단말(100)의 데이터를 트랜스퍼하는 동작 또는 기능은 공지기술이므로 상세한 설명은 생략하기로 한다.On the other hand, the character doll terminal 500 produced by the producer of the production terminal 400 is paired with the user terminal 100 to store data of the user terminal 100, CS (Circuit Switched) network, PS (Packet Switched) ) It is connected to network and LTE network to transmit and receive data. That is, it is configured to include all the basic functions of the smart terminal. At this time, depending on whether the user uses the character doll terminal 500 with the user terminal 100 or the character doll terminal 500 as a substitute for the user terminal 100, functions such as interlocking or pairing are different. That is, in the former case, while using the user terminal 100, the character doll terminal 500 is used only when receiving a call at home or used as a plurality of mobile terminals, and when a call is received, the user terminal 100 In addition, since the character doll terminal 500 is also paired, the user terminal 100 may perform a role such as ringing a telephone. It is one phone number, but it is the same as two terminals connected. In the latter case, since the user terminal 100 will not be used, it refers to a case in which the identities of the user terminal 100 are all transferred to the character doll terminal 500. At this time, when making a call or sending a message to the user's phone number, only the character doll terminal 500 operates. At this time, since the operation or function of transferring data of the user terminal 100 is a known technique, detailed description will be omitted.

덧붙여서, 캐릭터 인형 단말(500)은, 호(Call) 수신 이벤트가 발생하여 발신 단말과 통화연결이 되는 경우, 발신 단말의 발신자 음성을 캐릭터 인형 단말(500)에 기 저장된 음성으로 변환하여 출력할 수 있다. 캐릭터 인형 자체의 음성이 존재하는 경우, 발신자의 음성을 캐릭터의 음성으로 변환할 수 있다. 이를 위하여, 데이터 기반(data-driven)의 음성 합성 방법을 이용할 수 있는데, 첫 번째는 편집 합성(concatenative speech synthesis)으로 알려진 비매개변수적(non-parametric), 예제 기반 (example-based)의 방식이고, 두 번째는 통계적 매개변수 기반 음성합성(statistical parametric speech synthesis)으로 알려진 매개변수적이고 모델에 기반을 둔 방식이다. 편집 합성은 미리 녹음된 방대한 양의 음성 데이터베이스로부터 원하는 음성 유닛을 불러 모아 음성을 합성하는 방식으로 어떠한 파라미터화 과정 없이 음성 파형 단계에서 이뤄지기 때문에 음질이 우수하다. 통계적 매개변수 기반 합성 방식은 통계적 방식으로 미리 훈련된 생성모델(generative model)로부터 보코더 파라미터를 출력해서 음성을 합성한다. 텍스트 분석으로부터 출력되어진 언어학적 특징(linguistic feature)을 음향학적 특징(acoustic feature)으로 바꿔주는 과정에서 음향 모델(acoustic model)이 사용되어 음성 특징 예측을 수행하게 된다. 이때 음향 모델은 다량의 음성 데이터베이스로부터 확률 모델에 기반을 둔 통계적 기법으로 훈련되는데, 그 훈련 프레임웍은 은닉 마르코프 모델(Hidden Markov Model) 또는 깊은 신경망(Deep Neural Network)이 이용될 수 있다. 은닉 마르코프 모델은, HTK(Hidden Markov Model Toolkit)를 사용하기 때문에 합성(Synthesis)의 의미를 담아 HTS라는 이름으로 알려져 있는데, 기본적으로 보코더를 사용한 음성 파라미터로 음향 모델을 훈련시키는데 음성을 몇 가지의 파라미터로 나타내고 청각, 인지적으로 의미 있는 수정을 통해 새로운 음성을 출력할 수 있다. 기존에 훈련되어있는 음향 모델들 간의 보간 기법으로 목소리를 섞을 수 있으며, 적응 데이터가 주어졌을 때 적응기법을 통해 목소리를 흉내 내는 시도도 할 수 있다. 이때, 통계적 매개변수 기반의 방법은 비록 음질 측면에서 비매개변수적 방식에 비해 열세이지만, 음향 모델 또는 음성 파라미터의 자유로운 변형을 통해 다양한 음색, 다양한 감정, 표현력 있는 음성 등을 만들어 낼 수 있고, 이는 후술될 대화 에이전트에서도 사용될 수 있다.In addition, the character puppet terminal 500 may convert the caller voice of the calling terminal to a voice previously stored in the character puppet terminal 500 when the call reception event occurs to establish a call connection with the call terminal. have. When the voice of the character doll itself exists, the voice of the caller can be converted into the voice of the character. To this end, a data-driven speech synthesis method can be used. The first is a non-parametric, example-based method known as concatenative speech synthesis. And the second is a parametric, model-based approach known as statistical parametric speech synthesis. The editing synthesis is performed in a voice waveform step without any parameterization process by collecting desired voice units from a large number of pre-recorded voice databases and synthesizing the voices, so the sound quality is excellent. The statistical parameter-based synthesis method synthesizes speech by outputting vocoder parameters from a pre-trained generative model in a statistical manner. In the process of converting the linguistic feature output from the text analysis to an acoustic feature, an acoustic model is used to perform speech feature prediction. At this time, the acoustic model is trained by a statistical technique based on a probability model from a large number of speech databases, and the training framework may be a hidden markov model or a deep neural network. Since the Hidden Markov Model uses HTK (Hidden Markov Model Toolkit), it is known as HTS with the meaning of Synthesis. Basically, it is a voice parameter using vocoder. And a new voice can be output through audible and cognitively meaningful correction. Voices can be mixed by interpolation between previously trained acoustic models, and attempts can be made to mimic the voice through adaptive techniques when adaptation data is given. At this time, although the statistical parameter-based method is inferior to the non-parametric method in terms of sound quality, it is possible to create various voices, various emotions, expressive voices, etc. through free transformation of sound models or voice parameters. It can also be used in a conversation agent to be described later.

캐릭터 인형 단말(500)은, 호(Call) 수신 이벤트가 발생하여 발신 단말과 통화연결이 되는 경우, 발신 단말의 발신자 음성에 대응하도록 캐릭터 인형 단말(500)의 적어도 하나의 부위를 동작시킬 수 있다. 이때, 캐릭터 인형 단말(500)에서 캐릭터 인형의 적어도 하나의 부위를 동작시킬 때에는 우선 발신자의 발화를 이해해야 한다. 그 뜻을 알지 못하고 아무 부위나 동작시키는 것은 상황이나 문맥(Context)에 맞지 않는 행동으로 괴리감을 줄 수 있다. 이를 위하여, 텍스트 음성 변환(text-to-speech, TTS)이 요구되는데, 이는 입력으로 들어오는 음성, 텍스트 또는 일련의 문자열을 자연스러운 음성을 내는 음성 신호로 바꿔주는 기술을 말한다. 여기서, TTS는 앞단의 텍스트 분석부와 뒷단의 음성 합성부로 구성되는데, 텍스트 분석부에는 일반적으로 문장 분할(sentence segmentation), 단어 세분화(word segmentation), 텍스트 정규화(text normalization), 품사 태깅(part-of-speech tagging), 서기소음소 변환(grapheme-to-phoneme conversion)과 같은 다수의 자연어 처리 기법(natural language processing, NLP)이 이용될 수 있다. 즉 텍스트 분석 부분은 일련의 단어열을 입력받아 다양한 언어 문맥(linguistic context)을 갖는 음소열을 출력하는 역할을 한다. 다음으로 이어지는 음성 합성부는 앞서 출력된 언어 문맥 정보를 담은 음소열을 입력으로 받아 합성 음성 파형을 출력하는데, 이 부분은 일반적으로 운율 예측 및 음성 파형 생성을 포함하고 있고, 상술한 일련의 과정을 통하여 발화자의 의도, 상황, 문맥 등을 파악할 수 있고, 이에 대응하여 캐릭터 인형 단말(500)은 어느 한 부위를 움직이거나 표정을 변화시키는 등의 동작을 수행할 수 있다.The character doll terminal 500 may operate at least one part of the character doll terminal 500 to correspond to the caller voice of the calling terminal when a call reception event occurs and a call connection is made with the calling terminal. . At this time, when operating at least one part of the character doll in the character doll terminal 500, it is necessary to first understand the utterance of the caller. Operating any part without knowing its meaning can cause discomfort due to actions that do not fit the situation or context. To this end, text-to-speech (TTS) is required, which refers to a technology that converts incoming speech, text, or a string of text into a speech signal that produces a natural speech. Here, the TTS is composed of a text analysis unit at the front end and a speech synthesis unit at the rear end, and the text analysis unit generally includes sentence segmentation, word segmentation, text normalization, and part-of-speech tagging. A number of natural language processing (NLP) techniques such as of-speech tagging and grapheme-to-phoneme conversion can be used. That is, the text analysis part receives a series of word strings and outputs phoneme strings having various language contexts. Next, the speech synthesis unit receives a phoneme string containing language context information output as an input and outputs a synthesized speech waveform, which generally includes rhyme prediction and speech waveform generation, and through the series of processes described above. The speaker's intention, situation, context, etc. can be grasped, and in response, the character doll terminal 500 may perform an operation such as moving any one part or changing an expression.

따라서, 캐릭터 인형 단말(500)은, 적어도 하나의 이벤트가 발생하는 경우, 캐릭터 인형 단말(500)의 적어도 하나의 부위를 동작시킬 수 있다. 이때, 적어도 하나의 이벤트와 각 부위의 동작이 미리 매핑되어 저장될 수 있다. 여기서, 각 이벤트는 스마트 단말에서 발생되기에 미리 프로그램되고 예측가능하기 때문에 상술한 과정의 구현은 어렵지 않다. 문제는, 하나의 이벤트에 포함된 내용, 문맥, 상황이 서로 다른 경우이다. 예를 들어, 문자라는 이벤트는 동일하지만, 문자 내에 포함된 내용이 첫 번째 문자에는 "나 승진했어"와, 두 번째 문자에는 "장모님이 돌아가셨어"와 서로 다른 경우에 캐릭터 인형이 동일한 표정을 짓거나 동일한 움직임을 수행한다면 사용자는 감성품질을 충족받지 못한다. 이에 따라, 캐릭터 인형 단말(500)은, 자연어 처리를 수행할 수 있고, 워드 임베딩(Word Embedding), LSTM(Long Short Term Memory), SeqtoSeq(Sequence-to-Sequence), 어텐션 메카니즘(Attention Mechanism) 등을 더 수행할 수 있으며, 감성 분석(Opinion Mining)이 더 수행될 수도 있다. 사람이 작성하는 텍스트 안에는 그 글의 주요 대상이 되는 주제(Topic)가 있을 것이고, 그 주제에 대한 글쓴이의 의견(Opinion)이 있다. 글의 대상이 되는 주제를 찾아내는 작업을 토픽 모델링(Topic Modeling)이라고 하며, 이 기술은 자동적으로 텍스트가 다루는 주제가 무엇인지 계산해내는 방법을 제공한다. 마찬가지로 그 주제에 대한 글쓴이의 의견을 파악하는 것을 감성분석(Opinion Mining) 또는 감성분류(Sentiment Classification)이라고 한다. 이를 이용하면 어떤 글에 저자의 주관적인 의견이 반영되었는지, 아니면 객관적인 글인지, 만약 주관적이라면 긍정적인지 부정적인지를 판단해 낼 수 있다. Accordingly, the character doll terminal 500 may operate at least one part of the character doll terminal 500 when at least one event occurs. At this time, at least one event and the operation of each part may be pre-mapped and stored. Here, since each event is pre-programmed and predictable since it is generated in the smart terminal, implementation of the above-described process is not difficult. The problem is when content, context, and situation included in one event are different. For example, the character event is the same, but the character dolls have the same expression when the content contained within the character is different from "I'm promoted" in the first character and "My mother-in-law is dead" in the second character. If you build or perform the same movement, the user is not satisfied with the emotional quality. Accordingly, the character puppet terminal 500 may perform natural language processing, such as word embedding, LSTM (Long Short Term Memory), seqtoSeq (Sequence-to-Sequence), and attention mechanism (Attention Mechanism). It may be further performed, and emotional analysis (Opinion Mining) may be further performed. In the text that humans write, there will be a topic that is the main subject of the article, and there is an author's opinion on the topic. The task of finding the subject that is the subject of an article is called topic modeling, and this technique provides a way to automatically calculate what subject the text is dealing with. Likewise, grasping the writer's opinion on the subject is called Opinion Mining or Sentiment Classification. By using this, it is possible to determine which article reflects the subjective opinion of the author, whether it is an objective article, or if it is subjective, positive or negative.

덧붙여서, 캐릭터 인형 단말(500)은, 기 설정된 주기 또는 실시간으로 급식 투여 알람을 출력하고, 급식 투여 알람에 대응하도록 급식 투여 이벤트가 입력될 때 급식 투여 이벤트를 누적시키고, 누적된 급식 투여 이벤트에 대응하여 성장치 레벨이 증가될 수 있다. 예를 들어, 캐릭터 인형 단말(500)은 스마트 단말의 기능을 기본적으로 가지고 있지만, 캐릭터 인형 자체의 특성도 가질 수 있다. 즉, 펫(Pet)의 기능을 적용하여 펫을 관리하듯이 제 시간에 밥을 주고, 목욕을 씻기고, 산책을 시키는 등 관리를 하는 동작을 수행하지 않는 경우 이를 위한 알람을 주거나, 무관심이 지속되어 관리 동작이 입력되지 않는 경우 펫이 죽도록 설정하고, 스마트 단말이 가지고 있는 기본적인 기능을 수행하지 못하는 정도의 패널티를 줄 수도 있다.In addition, the character doll terminal 500 outputs a feeding dose alarm in a predetermined cycle or in real time, accumulates a feeding dose event when a feeding dose event is input to correspond to the feeding dose alarm, and responds to the accumulated feeding dose event. Thus, the growth level can be increased. For example, the character doll terminal 500 basically has a function of a smart terminal, but may have characteristics of the character doll itself. In other words, if you do not perform a management action such as feeding on time, washing a bath, walking, etc., as if you are managing a pet by applying the function of a pet, give an alarm for this or keep indifferent If the management operation is not input, the pet can be set to die, and a penalty of failing to perform the basic functions of the smart terminal may be given.

캐릭터 인형 단말(500)은, 인공지능 대화 에이전트를 포함하고, 인공지능 대화 에이전트는, 사용자의 발화를 인식하여 자연어처리를 통하여 기계어로 변환하고, 변환된 기계어에 대한 답변을 생성한 후 캐릭터 인형 단말(500)에 기 저장된 캐릭터 음성으로 답변을 발화하도록 제어되고, 캐릭터 인형 단말(500)은, 답변의 콘텐츠에 대응하도록 캐릭터 인형 단말(500)의 적어도 하나의 부위를 제어할 수 있다. 이때, 대화 에이전트(Chatting Agent, 또는 챗봇)는 음성 또는 문자를 통하여 인간과 기계가 정보를 주고받는 플랫폼으로, 인간과 기계사이의 의사소통 피상성을 보여주기 위해 만들어졌으며 패턴 매칭과 대체방법론을 사용하여 대화를 구성할 수도 있고, 인간의 대화를 기반으로 인간의 발화 내용을 문자로 전환하는 자동 음성 인식 기술, 인간과의 인터랙션을 조종하기 위한 대화 컨트롤러, 인간에게 정보 전달 방법 등을 위한 플랫폼을 제공할 수 있다. 이때, 대화 에이전트는, 물리적으로 인형 제작 서비스 제공 서버(300)에서 인공지능을 알고리즘을 이용하여 사용자의 질의를 분석하고 사용자는 앱 또는 웹으로 정보를 제공받는 구조로 이루어질 수 있다. 인공지능 대화 서비스 제공 서버(300)에서는 사용자의 질의에 적절한 답변을 제공하기 위해 자연어처리(NLP), 상황인식, 빅데이터 분석 등의 기술이 이용될 수 있다. 그리고, 인형 제작 서비스 제공 서버(300)와 사용자 사이에는 대규모 메세지 트래픽을 처리하는 하둡(hadoop)과 같은 분산 컴퓨팅 기술을 더 이용할 수도 있다. 그리고, 대화 에이전트는, 단순 규칙(pattern match, rule-based)기반이 아닌 온톨로지(Ontology)기반 지식베이스를 적용한 플랫폼을 이용할 수 있으며, 자연어 처리(NLP, Natural Language Processing)와 온톨로지(Ontology) 기반 검색 기술을 활용하여 명령을 처리하는 방식을 이용할 수 있다. The character doll terminal 500 includes an artificial intelligence conversation agent, and the artificial intelligence conversation agent recognizes the user's speech and converts it into machine language through natural language processing, generates an answer to the converted machine language, and then creates a character doll terminal It is controlled to utter an answer using a character voice previously stored in the 500, and the character doll terminal 500 may control at least one part of the character doll terminal 500 to correspond to the content of the answer. At this time, the chat agent (Chatting Agent, or chatbot) is a platform that exchanges information between humans and machines through voice or text, and was created to show the communication superficiality between humans and machines, and uses pattern matching and alternative methodology. Conversation can be made, and automatic speech recognition technology that converts human speech into text based on human conversation, a dialogue controller for manipulating interaction with humans, and a platform for providing information to humans Can be. In this case, the conversation agent may be configured to physically analyze the user's query using the artificial intelligence algorithm in the doll production service providing server 300 and the user may be provided with information through an app or the web. In the artificial intelligence conversation service providing server 300, technologies such as natural language processing (NLP), situational awareness, and big data analysis may be used to provide an appropriate answer to a user's query. Further, a distributed computing technology such as hadoop, which processes large-scale message traffic, may be further used between the doll production service providing server 300 and the user. In addition, the conversation agent can use a platform to which an ontology-based knowledge base is applied, not a simple match (pattern match, rule-based)-based, natural language processing (NLP) and ontology-based search You can use techniques to process commands.

덧붙여서, 인공지능 캐릭터는, 사전에 정의된 방대한 양의 의사결정트리와 사용자의 선택에 따라 행동하게 된다. 여기서, 맥락은 상황을 특정 짓기 위해 사용된 모든 정보이며, 맥락 인지는 근처의 사람과 사물들, 사용되는 장소 뿐만 아니라 시간에 따른 대상들의 변화에 따라 채택되어진다. 또한 인지심리학의 행동모델에 따르면 세상을 이해하고 지각하는 것은 주관적인 인식을 통해서만 가능하다. 다시 말해 행동모델에 따른 맥락 인지는 사람, 사물, 장소뿐만 아니라 시간에 따른 대상들의 변화마저도 주관적인 관점에 따른 선택을 통해 진행된다는 것이다. 따라서, 본 발명의 일 실시예에 따른 캐릭터 기반 대화형 인공지능이란 연속대화 수행을 통해 대화의 상황을 이해하고 이를 바탕으로 주관적인 의견과 감정을 표현할 수 있는 대화형 인공지능으로 정의한다.In addition, the AI character will act according to the user's choice and the vast amount of pre-defined decision trees. Here, context is all information used to specify a situation, and context awareness is adopted according to changes in objects and objects over time as well as nearby people and objects and places used. Also, according to the behavioral model of cognitive psychology, understanding and perceiving the world is possible only through subjective perception. In other words, context recognition according to the behavioral model proceeds not only through people, objects, and places, but also changes in objects over time through selection based on a subjective viewpoint. Therefore, the character-based interactive AI according to an embodiment of the present invention is defined as an interactive AI capable of understanding the context of a conversation through performing continuous conversation and expressing subjective opinions and emotions based on this.

이때, 기계학습을 이용한 대화형 인공지능과 같이 입력문장에 대한 답변문장을 학습시키거나, Generative Hierachical Neural Network Models을 통해 위의 방식에 대화 직전 한 문장까지 학습 데이터로 추가시킴으로써 연속대화가 가능하도록 할 수도 있다. 또한, 캐릭터 기반 대화형 인공지능을 위해 다중 에이전트를 도입할 수도 있다. 예를 들어, 인식, 의사결정, 계획/행동 등으로 나누고, 각 에이전트는 다시 지식 베이스와 추론 엔진으로 세분화된다. 따라서 복수의 에이전트로 구성된 플랫폼에서는, 상대방의 대화를 읽어내고, 파악하며, 자신의 감정 상태를 고려한 전반적인 대화 상황을 인지하고, 대응 전략을 구상하고, 실행 계획을 수립하여 실행하는 순서로 진행될 수 있다.At this time, continuous conversation can be made by learning the response sentence for the input sentence, such as interactive artificial intelligence using machine learning, or by adding up to one sentence immediately before the conversation to the above method through the Generative Hierachical Neural Network Models. It might be. It is also possible to introduce multiple agents for character-based interactive AI. For example, it is divided into recognition, decision making, planning/behavior, etc., and each agent is further subdivided into a knowledge base and an inference engine. Therefore, in a platform composed of a plurality of agents, the conversation of the other party can be read, grasped, and the overall conversation situation in consideration of one's emotional state is recognized, a response strategy is devised, and an execution plan is established and executed. .

이때, 대상 언어 분석 에이전트는 상대방으로부터 전달받은 문장을 통해 대상이 전하고자하는 의미와 대상의 감정을 분석하는 에이전트이다. 이 에이전트에서는 의사 결정 에이전트의 피드백과 상대방의 발언으로부터 단편 분석과 심층 분석을 통하여 상대방이 전하고자하는 의미와 감정을 파악하여 이를 대화 상황 판단 에이전트에 전달한다. 단편 분석은 현재 상대방으로부터 전달받은 문장을 통해 의미적·감정적인 분석을 의미한다. 심층 분석은 상황인지 에이전트로부터 받은 피드백을 통해 업데이트 받은 상대의 의도와 감정을 누적시킴으로써 상대의 실제 의도와 감정을 유추하기 위한 분석 모듈이다. 심층 분석은 대화의 초기에는 단편 분석의 값만으로 구성되기 때문에 대상에 대한 선입견이 반영되며 이는 대화가 진행됨에 따라 실제 대상의 의도와 감정에 맞게 업데이트된다.At this time, the target language analysis agent is an agent that analyzes the meaning of the target and the emotion of the target through sentences received from the other party. The agent grasps the meaning and emotions of the other party through fragment analysis and in-depth analysis from the feedback of the decision-making agent and the other party's remarks, and delivers it to the conversation situation determination agent. Fragment analysis refers to semantic and emotional analysis through sentences currently received from the other party. In-depth analysis is an analysis module for inferring an opponent's actual intention and emotion by accumulating the opponent's intention and emotion updated through feedback received from the situational awareness agent. In-depth analysis is composed of only the value of fragment analysis at the beginning of the dialogue, so it reflects the preconceptions about the object, and is updated according to the intention and emotion of the actual object as the conversation progresses.

자기감정 파악 에이전트는 상대방으로부터 전달받은 문장을 통해 인공지능 스스로의 감정의 변화를 모델링하기 위한 에이전트이다. 이 에이전트 또한 대상 언어 분석 에이전트와 마찬가지로 단편 분석과 심층 분석을 통해 상대방의 발언으로 부터 인공지능 스스로의 감정을 파악하여 이를 대화 상황 판단 에이전트에 전달한다. 단편적 반응을 통한 모델링은 상대방의 일정 수준이상의 강한 반응을 통해 일어나는 순간적인 감정적 변화이다. 이는 강한 자극으로 인한 갑작스런 감정의 변화 혹은 순간적인 감정의 표출에 영향을 미친다. 심층적 반응을 통한 모델링은 상대방과의 대화가 진행되어가는 상황으로부터 발생하여 누적되는 감정적 변화를 모델링한다.The self-emotion grasping agent is an agent for modeling the change in emotions of artificial intelligence itself through sentences received from the other party. Like the target language analysis agent, this agent also grasps the emotion of the artificial intelligence from the other person's remarks through fragment analysis and in-depth analysis, and delivers it to the conversation situation judgment agent. Modeling through a fragmented reaction is an instantaneous emotional change that occurs through a strong reaction of a certain level or more. This affects the sudden change of emotion caused by strong stimulation or the expression of instant emotion. Modeling through an in-depth response models emotional changes that occur and accumulate from a situation in which a conversation with the other party is in progress.

대화 상황 판단 에이전트는 대상 언어 분석 에이전트와 자기감정 파악 에이전트로부터 전달받은 의미와 감정 상태, 의사결정 에이전트의 피드백 통해 대화의 상황을 파악하며 이를 의사결정 에이전트에 전달한다. 또한 대상 언어 분석 에이전트와 자기감정 파악 에이전트에 파악된 상황에 대하여 피드백을 해주어 각각의 심층 분석 모듈의 업데이트를 위해 제공한다.The dialogue situation determination agent grasps the context of the conversation through the meaning and emotion state received from the target language analysis agent and the self-emotion identification agent, and the feedback from the decision agent, and delivers it to the decision agent. In addition, it provides feedback for the situation identified in the target language analysis agent and the self-sensibility identification agent for updating of each deep analysis module.

의사 결정 에이전트는 대화 상황 판단 에이전트를 통해 파악한 상황에 인공지능의 발화 목적을 포함하여 다음 발언의 의도를 결정하는 에이전트이다. 의사 결정 에이전트는 대상 언어 분석 에이전트 및 대화 상황 판단 에이전트의 추론 엔진에 피드백을 주어 주어진 상황에 대해 주관적인 해석을 이루도록 한다. 인공지능 스스로의 목적을 이루기 위해서는 대상 언어 분석 에이전트와 자기감정 파악 에이전트를 통해 만들어진 감정 모델을 통한 시뮬레이션을 통해 의사를 결정한다.The decision-making agent is an agent that decides the intention of the next remark, including the purpose of the utterance of artificial intelligence, in the situation identified through the dialogue situation judgment agent. The decision-making agent provides feedback to the inference engine of the target language analysis agent and the dialogue situation determination agent to achieve a subjective interpretation of the given situation. In order to achieve the purpose of artificial intelligence, the decision is made through simulation through the emotion model created by the target language analysis agent and the self-emotion identification agent.

응답 생성 에이전트는 의사 결정 에이전트를 통해 결정된 다음 발언의 의도를 문장의 수준으로 생성해주는 에이전트이다. 문장 표현 에이전트는 응답 생성 에이전트의 결과 문장을 문법과 특정 어투(사투리 등)에 맞도록 변형해주는 에이전트이다. 따라서, 인터렉션이 가능하도록 캐릭터, 성격 및 관계별 성격까지 모두 정의하고 에이전트를 정의하는 경우, 사용자와의 관계를 맺던 객체의 성격을 그대로 모사한 대화 에이전트가 생성될 수 있고, 이에 따라 사용자는 캐릭터 인형 단말(500)의 대화 에이전트와 대화를 나눌 수 있게 된다.The response generation agent is an agent that generates the intention of the next speech at the level of the sentence determined through the decision-making agent. The sentence expression agent is an agent that transforms the result sentence of the response generation agent to match the grammar and a specific tone (spoken dialect, etc.). Accordingly, when all characters, personalities, and personalities for each relationship are defined and agents are defined so that interaction is possible, a conversation agent can be created that simulates the personality of an object that has a relationship with the user, and accordingly, the user is a character doll. It is possible to chat with a conversation agent of the terminal 500.

이하, 상술한 도 2의 캐릭터 인형 제작 서비스 제공 서버의 구성에 따른 동작 과정을 도 3 및 도 4를 예로 들어 상세히 설명하기로 한다. 다만, 실시예는 본 발명의 다양한 실시예 중 어느 하나일 뿐, 이에 한정되지 않음은 자명하다 할 것이다.Hereinafter, the operation process according to the configuration of the character doll production service providing server of FIG. 2 will be described in detail with reference to FIGS. 3 and 4 as an example. However, the embodiment is only one of various embodiments of the present invention, it will be apparent that it is not limited thereto.

도 3을 참조하면, (a) 캐릭터 인형 제작 서비스 제공 서버(300)는 사용자 단말(100)로부터 사용자 정보와 사진을 업로드받고, (b) 사진으로부터 3D 모델링을 수행하여 제작의뢰를 하거나 사진으로 추출된 얼굴 이미지 및 사용자 정보의 성격과 가장 유사한 캐릭터를 매칭하여 최종 캐릭터를 선정함으로써 제작의뢰를 할 수 있다. 이 과정에서, (c) 캐릭터 인형 제작 서비스 제공 서버(300)는 사용자 단말(100)로 컨펌을 요청할 수 있고, (d) 적어도 하나의 제작 단말(400)로 발주의뢰를 전송할 수 있다.Referring to FIG. 3, (a) character doll production service providing server 300 uploads user information and photos from user terminal 100, and (b) performs 3D modeling from photos to make production requests or extract them as photos A match request can be made by selecting the final character by matching the character that most closely matches the personality of the face image and user information. In this process, (c) the character doll production service providing server 300 may request confirmation to the user terminal 100, and (d) send an order request to at least one production terminal 400.

도 4를 참조하면, (a) 캐릭터 인형 단말(500)은 사용자 단말(100)과 페어링되거나 사용자 단말(100)의 데이터를 트랜스퍼받을 수 있고, (b) 발신 단말로부터 호 수신이 되는 경우, 발신자의 발화를 음성 변환하여 출력할 수도 있으며, (c) 펫 기능이 더 포함되는 경우 주기적으로 또는 실시간으로 관리 요청을 알람으로 출력할 수 있고, (d) 감정을 분석하여 이를 출력하도록 캐릭터 인형의 각 부위가 제어될 수도 있다.Referring to FIG. 4, (a) the character doll terminal 500 may be paired with the user terminal 100 or transfer data of the user terminal 100, and (b) when a call is received from the calling terminal, the caller It is also possible to output the speech by converting it to speech, and (c) if a pet function is further included, the management request can be output as an alarm periodically or in real time, and (d) each character doll is analyzed and output. The site may be controlled.

이와 같은 도 2 내지 도 4의 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1을 통해 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.The method for providing a character doll production service equipped with the functions of the smart terminals of FIGS. 2 to 4 is not described above. Since the contents can be easily inferred from the same or described contents, the following description will be omitted.

도 5는 본 발명의 일 실시예에 따른 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 제공 방법을 설명하기 위한 동작 흐름도이다. 도 5를 참조하면, 캐릭터 인형 제작 서비스 제공 서버는, 사용자 단말로부터 사용자 정보를 저장하여 사용자를 등록하고(S5100), 사용자 단말로부터 사진을 업로드받고(S5200), 사용자 정보 및 사진을 질의(Query)로 입력하여 기 저장된 3D 캐릭터 데이터 중 사용자와 매칭되는 3D 캐릭터를 선정하고(S5300), 선정된 3D 캐릭터를 사용자 캐릭터로 지정하고 제작 단말로 3D 캐릭터 인형 제작 발주를 전송한다(S5400).5 is a flowchart illustrating a method for providing a character doll production service equipped with a function of a smart terminal according to an embodiment of the present invention. 5, the character doll production service providing server stores user information from a user terminal to register a user (S5100), uploads a photo from the user terminal (S5200), and queries user information and pictures (Query) 3D character matching with the user is selected from the previously stored 3D character data by inputting (S5300), the selected 3D character is designated as a user character, and a 3D character doll production order is transmitted to the production terminal (S5400).

상술한 단계들(S5100~S5400)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S5100~S5400)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행되거나 삭제될 수도 있다.The order between the above-described steps (S5100 to S5400) is only an example, and is not limited thereto. That is, the order between the above-described steps (S5100 ~ S5400) may be mutually variable, some of which may be executed or deleted simultaneously.

이와 같은 도 5의 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 4를 통해 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.Such a method for providing a character doll production service equipped with the function of the smart terminal of FIG. 5 is not described above. A method of providing a character doll production service equipped with the function of the smart terminal through FIGS. 1 to 4 has been described above. Since the contents can be easily inferred from the same or described contents, the following description will be omitted.

도 5를 통해 설명된 일 실시예에 따른 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 제공 방법은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. A method for providing a character doll production service equipped with a function of a smart terminal according to an embodiment described with reference to FIG. 5 is a form of a recording medium including instructions executable by a computer, such as an application or program module executed by a computer Can also be implemented as Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, the computer-readable medium may include any computer storage medium. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

전술한 본 발명의 일 실시예에 따른 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 제공 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 일 실시예에 따른 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 제공 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.The method for providing a character doll production service equipped with a function of a smart terminal according to an embodiment of the present invention described above may include an application installed in the terminal (this may include a program included in a platform or an operating system basically installed in the terminal). It may be executed by an application (i.e., a program) installed directly on the master terminal through an application providing server such as an application store server, an application, or a web server related to a corresponding service. In this sense, the method for providing a character doll production service equipped with a function of a smart terminal according to an embodiment of the present invention described above is implemented as an application (that is, a program) basically installed in a terminal or directly installed by a user, and is provided in the terminal. It may be recorded on a computer readable recording medium.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is for illustration only, and a person having ordinary knowledge in the technical field to which the present invention pertains can understand that it can be easily modified to other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the above detailed description, and it should be interpreted that all changes or modifications derived from the meaning and scope of the claims and equivalent concepts thereof are included in the scope of the present invention. do.

Claims (7)

사용자 정보를 이용하여 사용자를 등록하고, 상기 사용자를 식별가능한 사진을 업로드하는 사용자 단말;
상기 사용자 단말로부터 상기 사용자 정보를 저장하여 사용자를 등록하는 등록부, 상기 사용자 단말로부터 상기 사진을 업로드받는 업로드부, 상기 사용자 정보 및 사진을 질의(Query)로 입력하여 기 저장된 3D 캐릭터 데이터 중 상기 사용자와 매칭되는 3D 캐릭터를 선정하는 선정부, 상기 선정된 3D 캐릭터를 사용자 캐릭터로 지정하고 제작 단말로 3D 캐릭터 인형 제작 발주를 전송하는 발주부를 포함하는 캐릭터 인형 제작 서비스 제공 서버; 및
상기 사용자 단말과 페어링되어 상기 사용자 단말의 데이터를 저장하고, CS(Circuit Switched)망, PS(Packet Switched)망 및 LTE 네트워크와 연결되어 데이터를 송수신하는 캐릭터 인형 단말;을 포함하고,
상기 캐릭터 인형 단말은, 호(Call) 수신 이벤트가 발생하여 발신 단말과 통화연결이 되는 경우, 상기 발신 단말의 발신자 음성을 상기 캐릭터 인형 단말에 기 저장된 음성으로 변환하여 출력하며,
상기 캐릭터 인형 단말은, 상기 호(Call) 수신 이벤트가 발생하여 발신 단말과 통화연결이 되는 경우, 상기 발신 단말의 발신자 음성에 대응하도록 상기 캐릭터 인형 단말의 적어도 하나의 부위를 동작시키는 것을 특징으로 하는 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 제공 시스템.
A user terminal that registers a user using user information and uploads a picture that identifies the user;
The registration unit that registers a user by storing the user information from the user terminal, an upload unit that uploads the photo from the user terminal, and inputs the user information and a picture as a query to query the user from among 3D character data previously stored. A character doll production service providing server including a selecting unit for selecting a matching 3D character, and an ordering unit for designating the selected 3D character as a user character and transmitting a 3D character doll production order to a production terminal; And
Includes a character doll terminal that is paired with the user terminal to store data of the user terminal, and is connected to a CS (Circuit Switched) network, a PS (Packet Switched) network, and an LTE network to transmit and receive data.
The character doll terminal converts the caller voice of the calling terminal into a voice previously stored in the character doll terminal and outputs it when a call reception event occurs and a call connection is made with the calling terminal,
The character doll terminal, when the call (Call) receiving event occurs and the call connection with the calling terminal, characterized in that to operate at least one part of the character doll terminal to correspond to the caller voice of the calling terminal Character doll production service providing system equipped with the function of a smart terminal.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제 1 항에 있어서,
상기 캐릭터 인형 단말은, 기 설정된 주기 또는 실시간으로 급식 투여 알람을 출력하고, 상기 급식 투여 알람에 대응하도록 급식 투여 이벤트가 입력될 때 상기 급식 투여 이벤트를 누적시키고, 상기 누적된 급식 투여 이벤트에 대응하여 성장치 레벨이 증가되며,
상기 캐릭터 인형 단말은, 인공지능 대화 에이전트를 포함하고,
상기 인공지능 대화 에이전트는, 상기 사용자의 발화를 인식하여 자연어처리를 통하여 기계어로 변환하고, 상기 변환된 기계어에 대한 답변을 생성한 후 상기 캐릭터 인형 단말에 기 저장된 캐릭터 음성으로 상기 답변을 발화하도록 제어되고,
상기 캐릭터 인형 단말은, 상기 답변의 콘텐츠에 대응하도록 상기 캐릭터 인형 단말의 적어도 하나의 부위를 제어하는 것을 특징으로 하는 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 제공 시스템.
According to claim 1,
The character doll terminal outputs a feeding administration alarm in a predetermined cycle or in real time, accumulates the feeding administration event when a feeding administration event is input to correspond to the feeding administration alarm, and responds to the accumulated feeding administration event. Growth level is increased,
The character doll terminal includes an artificial intelligence conversation agent,
The AI conversation agent recognizes the user's speech, converts it into machine language through natural language processing, generates an answer to the converted machine language, and controls to utter the answer using a character voice previously stored in the character doll terminal. Become,
The character doll terminal is a character doll production service providing system equipped with a function of a smart terminal characterized in that it controls at least one part of the character doll terminal to correspond to the content of the answer.
KR1020190059252A 2019-05-21 2019-05-21 System for providing customized character doll including smart phone KR102120936B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190059252A KR102120936B1 (en) 2019-05-21 2019-05-21 System for providing customized character doll including smart phone

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190059252A KR102120936B1 (en) 2019-05-21 2019-05-21 System for providing customized character doll including smart phone

Publications (1)

Publication Number Publication Date
KR102120936B1 true KR102120936B1 (en) 2020-06-09

Family

ID=71082003

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190059252A KR102120936B1 (en) 2019-05-21 2019-05-21 System for providing customized character doll including smart phone

Country Status (1)

Country Link
KR (1) KR102120936B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220043669A (en) * 2020-09-29 2022-04-05 토이파파 (주) Method of manufacturing of a robot for toys using waste

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070103227A (en) * 2006-04-18 2007-10-23 주식회사 라이벌코리아 Intelligent toy and control method there of
KR20070117929A (en) * 2006-06-09 2007-12-13 주식회사지앤지커머스 System for making avatar and figure using 2.9d image conversion function, and method therefor
KR20100007386A (en) * 2008-07-14 2010-01-22 삼성전자주식회사 A method for event executing of a robot synchronized with a mobile station and a system thereof
KR20140122100A (en) * 2013-04-09 2014-10-17 얄리주식회사 Question answering method using speech recognition by radio wire communication and portable apparatus thereof
KR20160131505A (en) * 2015-05-07 2016-11-16 주식회사 셀바스에이아이 Method and server for conveting voice
KR20190000980A (en) * 2017-06-26 2019-01-04 이동원 A personal Healthcare System

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070103227A (en) * 2006-04-18 2007-10-23 주식회사 라이벌코리아 Intelligent toy and control method there of
KR20070117929A (en) * 2006-06-09 2007-12-13 주식회사지앤지커머스 System for making avatar and figure using 2.9d image conversion function, and method therefor
KR20100007386A (en) * 2008-07-14 2010-01-22 삼성전자주식회사 A method for event executing of a robot synchronized with a mobile station and a system thereof
KR20140122100A (en) * 2013-04-09 2014-10-17 얄리주식회사 Question answering method using speech recognition by radio wire communication and portable apparatus thereof
KR20160131505A (en) * 2015-05-07 2016-11-16 주식회사 셀바스에이아이 Method and server for conveting voice
KR20190000980A (en) * 2017-06-26 2019-01-04 이동원 A personal Healthcare System

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220043669A (en) * 2020-09-29 2022-04-05 토이파파 (주) Method of manufacturing of a robot for toys using waste
KR102462415B1 (en) * 2020-09-29 2022-11-02 토이파파 (주) Method of manufacturing of a robot for toys using waste

Similar Documents

Publication Publication Date Title
KR101925440B1 (en) Method for providing vr based live video chat service using conversational ai
CN110688911B (en) Video processing method, device, system, terminal equipment and storage medium
CN111368609B (en) Speech interaction method based on emotion engine technology, intelligent terminal and storage medium
CN112162628A (en) Multi-mode interaction method, device and system based on virtual role, storage medium and terminal
CN110400251A (en) Method for processing video frequency, device, terminal device and storage medium
US11776269B2 (en) Action classification in video clips using attention-based neural networks
CN111831798A (en) Information processing method, information processing device, electronic equipment and computer readable storage medium
WO2023284435A1 (en) Method and apparatus for generating animation
KR20190089451A (en) Electronic device for providing image related with text and operation method thereof
CN115953521B (en) Remote digital person rendering method, device and system
KR102120936B1 (en) System for providing customized character doll including smart phone
CN117292022A (en) Video generation method and device based on virtual object and electronic equipment
KR102552915B1 (en) Method and system for providing advertisement service using virtual model
KR102576788B1 (en) Apparatus and method for generating robot interaction behavior
US11954794B2 (en) Retrieval of augmented parameters for artificial intelligence-based characters
CN117523046A (en) Method and device for generating mouth-shaped animation, electronic equipment and storage medium
US12002470B1 (en) Multi-source based knowledge data for artificial intelligence characters
US11954570B2 (en) User interface for construction of artificial intelligence based characters
US20240221268A1 (en) Text-description based generation of avatars for artificial intelligence characters
US11995755B1 (en) Emotional state models and continuous update of emotional states of artificial intelligence characters
US12020361B1 (en) Real-time animation of artificial intelligence characters
US12033258B1 (en) Automated conversation content items from natural language
WO2024066549A1 (en) Data processing method and related device
US20230351661A1 (en) Artificial intelligence character models with goal-oriented behavior
US20230259693A1 (en) Automated Generation Of Commentator-Specific Scripts

Legal Events

Date Code Title Description
GRNT Written decision to grant