WO2013191329A1 - 캐릭터 생성 시스템, 장치, 단말기 및 방법 - Google Patents

캐릭터 생성 시스템, 장치, 단말기 및 방법 Download PDF

Info

Publication number
WO2013191329A1
WO2013191329A1 PCT/KR2012/008559 KR2012008559W WO2013191329A1 WO 2013191329 A1 WO2013191329 A1 WO 2013191329A1 KR 2012008559 W KR2012008559 W KR 2012008559W WO 2013191329 A1 WO2013191329 A1 WO 2013191329A1
Authority
WO
WIPO (PCT)
Prior art keywords
avatar
caricature
terminal
user
face
Prior art date
Application number
PCT/KR2012/008559
Other languages
English (en)
French (fr)
Inventor
최경임
Original Assignee
에스케이플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020120065430A external-priority patent/KR20130142315A/ko
Priority claimed from KR1020120069676A external-priority patent/KR20140002131A/ko
Application filed by 에스케이플래닛 주식회사 filed Critical 에스케이플래닛 주식회사
Publication of WO2013191329A1 publication Critical patent/WO2013191329A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/18143Extracting features based on salient regional features, e.g. scale invariant feature transform [SIFT] keypoints
    • G06V30/18152Extracting features based on a plurality of salient regional features, e.g. "bag of words"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Definitions

  • the present invention relates to a character generation technology, and in particular, a character generation system that can automatically and easily create a character usable character can easily and adaptively create a character that is highly relevant to the user while matching the user preferences , Apparatus, terminal and method.
  • communication terminals are manufactured in a portable form, they are used in a wide range of fields due to their convenience and ease of use. These communication terminals have recently been developed in the form of smart phones equipped with various user functions, providing convenience and entertainment.
  • users are using various user functions, and in particular, are using various communication services based on smart phones.
  • users use a smartphone to use a chat service, a specific web service, or use an e-mail service with another user.
  • the user is using a name and a phone number to inform who he is, and additionally uses his face picture.
  • a user performs various communication services using a character associated with a face picture. To do this, the user must perform the character generation process.
  • the conventional character generation process requires a user to directly select and adjust various facial features (eg, head, eyebrows, eyes, nose, mouth, face contour, etc.). have. That is, the conventional character generation method has a disadvantage in that there are too many options for character generation so that it is referred to as a character selection method rather than actually generating a character. Because of these drawbacks, users do not make any effort to create a separate character, and as a result, character-based service use is not activated.
  • the conventional character generation method has a disadvantage in that it is difficult to have an attachment, and consequently poor usability, because the user arbitrarily configures the character form.
  • a technology of generating the same character as the user's face has been proposed, but a character having the same shape as the user does not reflect various symbols of the user.
  • the present invention is to solve the problems of the prior art as described above, an object of the present invention is to automate character generation to minimize the user's input while improving the usability character generation system that can induce a user-specific character operation To provide a device, a terminal and a method.
  • Another object of the present invention is to create a character attachment system that can be arbitrarily adjusted to suit the user's preferences, but also to have a relationship with the user to contribute to the formation of character attachment and eventually support the use of a variety of character-based services To provide a device, a terminal and a method.
  • a terminal that collects an image including a user's face, transmits the collected image to the character generating device and receives one or more caricature samples generated from the image from the character generating device; And extracting facial feature points from the image received from the terminal, searching for similar face images among a plurality of basic face images based on the extracted facial feature points, changing feature points of the retrieved face image, or changing the feature points to at least one of the facial images. It provides a character generation system comprising a character generating device to generate a plurality of caricature samples by applying an image effect, and to provide the generated caricature samples to the terminal.
  • an apparatus communication unit for transmitting and receiving data by forming a communication channel with the terminal;
  • a device storage unit including a face database storing a plurality of face images; And receiving an image including the face of the user through the device communication unit, extracting facial feature points from the received image, searching for a face image similar to the extracted facial feature point from the face database, and extracting feature points of the retrieved face image.
  • a device controller configured to generate a plurality of caricature samples by applying at least one image effect to a face image that has been changed or have a feature point changed, and to provide the plurality of caricature samples to the terminal.
  • facial feature points are extracted from an image including a face, a face image similar to the extracted facial feature points is searched for in a face database storing a plurality of face images, and the feature points of the retrieved face image are retrieved.
  • a control unit configured to generate a plurality of caricature samples by applying at least one image effect to an image which has been changed or has changed feature points, and designates one of the plurality of caricature samples as a basic caricature of a user according to an input signal;
  • a display unit configured to display at least one of the face database, the plurality of caricature samples, and a basic caricature of the user;
  • An input unit configured to generate an input signal for selecting at least one of the plurality of caricature samples according to a user's manipulation;
  • a storage unit for storing at least one of the plurality of caricature samples and the basic caricature of the user.
  • the method includes: obtaining an image including a face; Extracting facial feature points of the image; Retrieving a face image similar to the extracted facial feature point from a face database storing a plurality of face images; Generating a plurality of caricature samples by changing a feature point of the retrieved face image or applying at least one image effect to the changed face image; And providing the generated caricature sample to a user.
  • a terminal for providing user avatar, specific person avatar information or selection information on a specific person avatar, and sync rate information between the user avatar and the person avatar; And a character generation device configured to synthesize a user avatar provided by the terminal and the specific person avatar based on the sync rate information, to generate a synthesized avatar, and to provide the generated synthesized avatar to the terminal.
  • a generation system configured to synthesize a user avatar provided by the terminal and the specific person avatar based on the sync rate information, to generate a synthesized avatar, and to provide the generated synthesized avatar to the terminal.
  • a device communication unit for establishing a communication channel with the terminal and receives user avatar, specific person avatar information or specific person avatar selection information from the terminal;
  • a device storage unit for storing at least one person avatar and an algorithm for avatar synthesis;
  • a device controller configured to synthesize the user avatar and the at least one person avatar to generate at least one synthesized avatar, and to provide the generated synthesized avatar to the terminal.
  • the storage unit for storing at least one person avatar, user avatar, avatar synthesis program;
  • An input unit configured to generate an input signal for designating at least one person avatar to be synthesized with the user avatar;
  • a controller configured to synthesize the user avatar and at least one selected person avatar to generate at least one synthesized avatar; It provides a terminal comprising a display unit for outputting the generated at least one synthetic avatar.
  • a character generating apparatus receives a user avatar and at least one person avatar or at least one person avatar selection information from a terminal; Generating, by the character generating device, at least one synthesized avatar by synthesizing the received user data and the at least one person avatar; It provides a character generating method comprising the step of providing the generated at least one synthetic avatar to the terminal.
  • the method further includes: transmitting, by the terminal, the user avatar and the at least one person avatar or at least one person avatar selection information to the character generating device; Receiving, by the terminal, at least one synthetic avatar generated by synthesizing a user avatar and the at least one person avatar from the character generating device; And outputting the received at least one synthetic avatar.
  • various types of caricatures are generated based on a user's face, and a user can select a desired caricature to facilitate character generation while supporting character generation in which user preferences are reflected.
  • the present invention can induce the character-based user service activation by allowing the terminal to operate a variety of services that can be supported based on the selected caricature.
  • the present invention synthesizes an avatar generated based on a user's face and a specific person avatar that the user prefers to generate a character suitable for the user's preference, thereby having a character that is highly related to the user and that the user may have a good feeling. To help.
  • the present invention provides the elements of fun by synthesizing the avatars of the subjects and the avatars of the people to be admired, can give the user various forms of comfort, increase their self-esteem and psychological satisfaction have.
  • the present invention can activate various service operations using the generated character, thereby contributing to the activation and development of various user functions.
  • FIG. 1 is a schematic diagram of a character generation system according to a first embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating a configuration of a terminal supporting a character generation service according to a first embodiment of the present invention.
  • FIG. 3 is a block diagram illustrating in detail the controller configuration of the terminal illustrated in FIG. 2.
  • FIG. 4 is a block diagram illustrating a configuration of a character generator according to a first embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating a character generation method according to a first embodiment of the present invention.
  • FIG. 6 is an exemplary view illustrating a screen interface of a terminal supporting a character generation service according to a first embodiment of the present invention.
  • FIG. 7 is a signal flowchart illustrating a modification of the character generation method according to the first embodiment of the present invention.
  • FIG. 8 is a schematic diagram of a character generation system according to a second embodiment of the present invention.
  • FIG. 9 is a block diagram illustrating a configuration of a character generator according to a second embodiment of the present invention.
  • FIG. 10 is a block diagram showing a configuration of a terminal supporting a character generation service according to a second embodiment of the present invention.
  • FIG. 11 is a signal flow diagram illustrating a character generation method according to a second embodiment of the present invention.
  • FIG. 12 is an exemplary diagram illustrating a screen interface of a terminal supporting a character generation service according to a second embodiment of the present invention.
  • an image generated by the terminal or the character generating device corresponding to the face of a specific image is called a caricature.
  • the caricature may be a character having a more aesthetic composition or providing an arbitrary image effect among the characters so that the feature points are highlighted.
  • characters having various image effects including caricatures may be provided as images corresponding to specific images according to a user's request or a system designer's request. Therefore, hereinafter, the term "character” is used as a general meaning, and as mentioned above, the term “caricature” will be used for a specific form of image providing.
  • the character service according to the present invention may be performed through a stand-alone operation of the terminal or an interlocking operation of the terminal and the server, and the following embodiments consider all of these points.
  • FIG. 1 is a schematic diagram of a character generation system according to a first embodiment of the present invention.
  • the character generation system 10 may include a terminal 100 and a character generation device 200.
  • the character generation system 10 collects an image including a user's face to produce a caricature that the terminal 100 generates through the character generation device 200, and transmits the collected image to the character generation device 200. do. Then, the character generation device 200 included in the character generation system 10 may generate a caricature corresponding to the corresponding image and provide the same to the terminal 100. Accordingly, the character generation system 10 of the present invention generates a character through the character generation device 200 even if the terminal 100 does not have a separate character generation program, face DB, color DB, and various programs or data necessary for character generation. You can create it and use it.
  • the terminal 100 may acquire an image to be used to generate a caricature by photographing a user's face by operating a camera, or collect an image for generating a caricature by searching for and selecting a specific stored photo.
  • the collected image may be transmitted to the character generation device 200 according to a user request.
  • the terminal 100 may form a communication channel for image transmission in the character generator 200, and the communication unit supporting the communication channel may be formed in various forms such as a mobile communication module, a wireless communication module, and a wired communication module. Can be implemented.
  • the terminal 100 may receive a plurality of caricature samples generated corresponding to an image including the face of the user from the character generation device 200 through the communication channel of the communication unit. Then, the terminal 100 outputs a caricature sample screen composed of caricature samples, and the user may select at least one caricature suitable for his or her preference. When such a selection operation is made, the terminal 100 may transmit the caricature selection information to the character generating apparatus 200. The terminal 100 may also store the selected caricature and transmit the selected caricature when the specific user function is used as the default character or basic person. Can be used as a photo
  • the character generation device 200 is a component that supports the character generation service of the terminal 100.
  • the character generation device 200 may be implemented as a separate server device, and may be connected to the terminal 100 by wire or wirelessly.
  • the character generation device 200 may receive an image including a face from the terminal 100, generate caricature samples based on the received image, and provide the image to the terminal 100. Thereafter, the character generating device 200 maps and stores the caricature selected by the terminal 100 to a specific user (for example, the user of the terminal 100), and provides a corresponding caricature when operating a specific user function of the terminal 100. can do. For example, when operating the instant messenger function, the caricature may be displayed as the avatar of the user.
  • the character generation device 200 may be designed to perform only the function of providing the caricature samples.
  • the character generator 200 may include a configuration as shown in FIG. 4, which will be described later in more detail.
  • FIG. 2 is a block diagram illustrating a configuration of a terminal supporting a character generation service according to a first embodiment of the present invention.
  • the terminal 100 includes a communication unit 110, an input unit 120, an audio processor 130, a display unit 140, a storage unit 150, and a controller 160. ) And a camera 170.
  • the terminal 100 having such a configuration photographs a user's face using the camera 170, extracts a feature point of the face from the photographed picture, and then selects a specific caricature based on this. It can be created.
  • the terminal 100 when generating the caricature based on the extracted feature points of the face, the terminal 100 performs a caricature that is more likely to be favored by the user by performing a warping process and at least one predefined image effect.
  • a number of caricatures created through this process are provided as samples to support the user to select a desired character.
  • the terminal 100 may generate and provide not only a caricature for a face but also a 3D caricature manufactured based on a 1D caricature and a 1D caricature with which a body part is coupled.
  • Can support not only a caricature for a face but also a 3D caricature manufactured based on a 1D caricature and a 1D caricature with which a body part is coupled.
  • the terminal 100 may include a camera 170 for capturing an image including the face of the user.
  • the camera 170 may collect a subject image including the face of the user according to a user control and provide the collected image to the controller 160.
  • the subject image photographed by the camera 170 is preferably photographed in such a manner that the feature point of the face can be extracted.
  • the controller 160 may control to induce this when capturing a subject image so as to extract a feature point of a face required for generating a caricature.
  • the controller 160 may extract a feature point of a face in real time or at a predetermined cycle from the preview image of the subject image, and guide the information through a guide sound or a lamp blinking so as to extract an appropriate face feature point.
  • the camera 170 may automatically photograph the subject image under the control of the controller 160.
  • the process of taking a face picture may be proceeded to a self-camera picture taken by yourself in addition to the situation where a picture is taken by another person. Accordingly, the camera 170 and the control unit 160 controlling the same guide the camera 170 to properly capture the image captured by the camera 170 so as to be used for character generation. Support removal.
  • the camera 170 when a face picture used for character generation is received from the outside through the communication unit 110 without being collected through the camera 170 described above or provided in a form stored in the storage unit 150 in advance, the camera 170 The configuration of may be omitted from the configuration of the terminal 100.
  • the communication unit 110 is a configuration that supports a communication function of the terminal 100.
  • the communication unit 110 may form a communication channel with another terminal or a specific service device to receive a face picture from the outside, and receive the face picture through the corresponding communication channel.
  • the face picture received by the communication unit 110 may be stored in the storage unit 150 or used in real time for character generation under the control of the controller 160.
  • the communication unit 110 for collecting a face photo may be configured as a corresponding communication module to support at least one of wired and wireless methods.
  • the communication unit 110 may support various communication services used based on the generated caricature. For example, when the caricature is selected, the communicator 110 may provide data on the caricature to the chat service supporting apparatus to output the selected caricature to the photo area when using the chat service. To this end, the communication unit 110 may establish a communication channel with the chat service support apparatus and transmit selected caricature data in addition to a text message transmitted and received through the formed communication channel.
  • the chat service support apparatus may store caricature data provided by a specific terminal 100 and later apply the same to a photo area when supporting a chat service of the corresponding terminal 100.
  • the communication unit 110 may support the formation of a communication channel supporting various communication services that can be operated based on the selected caricature, for example, an email service, a message providing service, a web access service, and a caricature-based game service.
  • the communication unit 110 may be configured as a communication module for supporting wired communication as well as wireless communication. Accordingly, the network system may also be configured as communication network devices for supporting the communication method. In the case of supporting the mobile communication or wireless communication function, the communication unit 110 is not only a communication module supporting a communication method such as CDMA, GSM, but also a communication module supporting various communication methods such as 2G, 3G, 4G, such as WCDMA, OFDMA, etc. It may be composed of at least one.
  • the character generation system may support the formation of a communication channel that can transmit a picture taken by the camera 170 to the character generation device to provide the character generation in the service device. This will be described in more detail with reference to the drawings to be described later.
  • the input unit 120 may be formed of a key button or the like. When the terminal 100 is manufactured as a full touch screen, the input unit 120 may be configured as a side key or a separate hot key, and may be displayed on the touch screen of the terminal 100. It may include a key map. The input unit 120 may include a plurality of input keys and function keys for receiving numeric or text information and setting various functions.
  • the input unit 120 may include an input signal for program activation for character generation, an input signal for image collection including a face, and an input signal for selecting a specific caricature among caricature samples generated based on the collected image.
  • An input signal for controlling various service operations based on the caricature may be generated according to a user's operation.
  • the input signal for collecting an image including a face is input signals necessary for capturing an image including a face through the camera 170 and an input necessary for selecting an image including a user's face from among a plurality of stored images.
  • Signals may include at least one of input signals required to receive an image including a face from the outside through the communication unit 110.
  • the audio processor 130 may include a speaker SPK for outputting various audio data generated during the operation of the terminal 100 and a microphone MIC for collecting audio data.
  • the audio processor 130 supports the output of various audio data generated during the character generation service support process under the control of the controller 160. For example, as described above, when shooting a face picture to be used to generate a character by operating the camera 170, a guide sound may be output to guide an image including a face capable of extracting a feature point of a face.
  • the audio processor 130 may request a zoom-in / out or a guide sound for requesting the movement of the subject to guide the image to be taken so that the image is captured to a size enough to extract a feature point of the face, or a guide sound for guiding the subject to have proper focusing. And so on.
  • the audio processor 130 may provide a guide sound for each process performed up to a process of generating specific caricature samples based on an image including the provided face.
  • the aforementioned guide sound output of the audio processor 130 may be omitted or may not be provided according to a designer's intention.
  • the display unit 140 displays information input by the user or information provided to the user, including various menus of the terminal 100. That is, the display unit 140 may provide various screens according to the use of the terminal 100, for example, a standby screen, a menu screen, a message writing screen, a call screen, a terminal end screen, a terminal boot screen, and the like.
  • the display unit 140 may be formed in the form of a flat panel display panel such as a liquid crystal display (LCD), an organic light emitting diode (OLED), or the like.
  • the display unit 140 may be manufactured in a structure including a display panel and a touch panel according to a manufacturing form.
  • the display unit 140 may provide various screen interfaces for supporting character generation.
  • the display unit 140 may provide a screen interface for capturing an image including a face to be used for character generation, and a screen interface for providing various caricature samples generated based on the photographed or stored image. have.
  • the display unit 140 may output a specific communication service support screen operated based on the selected caricature.
  • the storage unit 150 stores the screen image to be output on the display unit 140 as well as an application program required for operating a function according to an exemplary embodiment of the present invention.
  • the storage unit 150 may store a key map or a menu map for operating the touch screen.
  • the key map and the menu map may be in various forms. That is, the key map may be a keyboard map, a 3 * 4 key map, a qwerty key map, or the like, or may be a control key map for operation control of an currently activated application program.
  • the menu map may be a menu map for controlling the currently running application program.
  • the storage unit 150 is an operating system (OS) for booting the terminal 100 and operating the above-described components, various user functions, for example, a user function for supporting a call function of the terminal 100, An MP3 user function for playing other sound sources, an image output function for playing pictures, and an application program for supporting a video play function may be stored.
  • OS operating system
  • MP3 user function for playing other sound sources
  • image output function for playing pictures
  • application program for supporting a video play function
  • the storage unit 150 may store a character generation program 151 for supporting character generation, a face DB 153, a color DB 155, and the like used in the character generation process.
  • the storage unit 150 may further include a 3D rendering program for implementing the selected caricature in 3D.
  • the storage unit 150 may store various application programs for supporting a communication service based on the selected caricature, for example, a chat service operation program, a game program, a message operation program, a memo operation program, etc., which are operated based on the caricature. have.
  • the character generation program 151 is configured to include various routines for supporting the character generation service according to the first embodiment of the present invention.
  • the character generation program 151 may be a routine for extracting feature points of a face from an image collected through the camera 170 or an image received through the communication unit 110, and a face image having information most similar to the extracted feature points. It may include a routine for searching in the face DB (153).
  • the character generator 151 may include a routine for applying warping to the face image retrieved from the face DB 153, a routine for correcting the warped face image at a predetermined predetermined ratio, and a plurality of caricatures based on the ratio-corrected face image.
  • a routine for generating a sample and a routine for applying a specific caricature sample selected from the generated caricature samples to the basic caricature of the terminal 100 may be included.
  • the face DB 153 is a database that stores a plurality of face images composed of various feature points.
  • the face DB 153 may be compared with feature points extracted from the collected image. More specifically, the face DB 153 may include various face images including various feature points such as eyebrows, eyes, nose, and mouth.
  • the color DB 155 is a component for providing a color deformation suitable for the skin color of the face.
  • the color DB 155 may include various colors as items to provide the same color as the colors corresponding to the face picture. In particular, the color DB 155 may provide the colors necessary for the generation of the caricature.
  • the storage unit 150 may store a warping program.
  • the warping program is a program for distorting a specific part of an image, such as a facial feature point, and may support a caricature generation that a user may prefer by distorting a predetermined part of a variety of facial feature points in a predetermined form.
  • the warping program may enlarge the size of the eye to a predetermined predetermined size or distort the jaw to have a certain degree of curvature. That is, the warping program applied to the first embodiment of the present invention may distort the image, but distort the feature points so that they may have a predefined shape.
  • the handsome or beautiful doll distortion is determined based on various experiments and statistics, and various feature points constituting the face such as eyes, eyes, mouth shape, mouth tail arrangement, jaw shape, cheekbone and cheek shape are deformed in a predetermined ratio.
  • the deformed image may be distorted into a more favorable form.
  • the feature points of the above-described face may be supported to be transformed into a specific shape of the crushable form.
  • wrinkles formed on the mouth, eyes, forehead, etc. may be extracted and intentionally removed to provide a younger image, thereby supporting the creation of a caricature in a form that the user may prefer.
  • the controller 160 performs signal flow control to support the character generation service of the present invention, data processing, and display control of the caricature samples. If a specific caricature is selected, the controller 160 may control various user function support based on the selected caricature. To this end, the controller 160 may include a configuration as shown in FIG. 3.
  • FIG. 3 is a block diagram illustrating in detail the controller configuration of the terminal illustrated in FIG. 2.
  • the controller 160 includes an image collector 161, a face feature extractor 162, a face feature enlarger 163, and a face caricature generator 164.
  • the body generating unit 165, the one-dimensional caricature generating unit 166, the three-dimensional motion manufacturing unit 167, the three-dimensional caricature generating unit 168, and the caricature operating unit 169 may be configured.
  • the image collector 161 is configured to control various signal processing and data collection for collecting images. For example, when an input signal for activating the character generation service is generated, the image collector 161 may control to automatically activate the camera 170.
  • the image collector 161 may support capturing an image including a face from which feature points can be extracted through the camera 170.
  • the image collecting unit 161 checks the preview image with the activation of the camera 170 and checks whether there is a face having predetermined feature points. In this case, when the face is not detected in the preview image, the image collecting unit 161 may control the output of the guide sound to enter the face within the photographing angle. In addition, the image collecting unit 161 adjusts the automatic zoom-in or zoom-out of the camera 170 so that the user's face enters the shooting angle, but the feature point extraction is possible when the feature point extraction is impossible through image recognition.
  • the camera 170 may be controlled to guide a specific operation related to the camera 170 or to guide the movement of the subject.
  • the image collecting unit 161 may support to output a screen for searching for images including a face among the images stored in the storage 150.
  • the image collector 161 may deliver the selected image to the face feature extractor 162 for the character generation service.
  • the face feature extractor 162 When the face feature extractor 162 receives an image including a face from the image collector 161, the face feature extractor 162 extracts feature points of the face from the image. To this end, the facial feature extractor 162 may detect points that may be a feature from an image through a method such as image filtering, and may determine feature points of the corresponding points using a feature point extraction algorithm. When the feature point extraction is completed, the face feature extractor 162 may display the corresponding feature points on the image to control which parts are extracted as the feature points. In this case, the feature point display function of the face feature extractor 162 may be omitted when the feature point display is not designed to provide a separate display function.
  • the face feature extractor 162 may search for a face image including a combination of face items most similar to feature points extracted from the face DB 153.
  • the face feature extractor 162 may transfer the face image retrieved from the face DB 152 to the face feature enlarger 163.
  • the face feature enlarger 163 enlarges or reduces a predetermined area including each feature point and feature points of the face image received from the face feature extractor 162 at a predetermined ratio.
  • the face feature enlarger 163 may enlarge or reduce feature points of the face at predetermined ratios based on a warping program stored in the storage 150.
  • the facial feature enlarger 163 may support to enlarge or reduce the size of the face itself at a predetermined ratio.
  • the face caricature generation unit 164 enlarges or reduces the feature points of the face in a program or a predetermined ratio stored in the storage unit 150 to provide a corrected face image. It supports generating multiple caricature samples based on images. In this case, the face caricature generation unit 164 may generate a plurality of caricature samples having high affinity by applying various image effects to the corrected face image. For example, in generating the caricature, the face caricature generation unit 164 intentionally removes wrinkles formed in the mouth, eyes, forehead, etc. and processes them to appear as a younger image, or when the length of the face is wider than the average. By reducing the face by a predetermined ratio (for example, 10%) while emphasizing the features of the eye, a more attractive caricature can be generated. This will be described in more detail with reference to the drawings to be described later.
  • a predetermined ratio for example, 10%
  • Torso generation unit 165 is a configuration for generating a torso of the caricature configuration of the user. To this end, the body generating unit 165 checks whether the body part is provided in the initial image, and when the body part is included in the corresponding image, the body generating part 165 may be processed to be used as the body part of the caricature. At this time, the body generating unit 165 may process the body portion to match the generated caricature sample. That is, the torso generator 165 may process the torso part according to a predefined form to match the color or face ratio of the caricature samples.
  • the torso generator 165 may select a particular torso from the pre-stored torso as a body to be applied to the caricature.
  • the body generating unit 165 may check the face ratio of the caricature, control to select a body corresponding to the face ratio, and check the color of the caricature to support the generation of a body having a color corresponding thereto.
  • the body generator 165 may generate at least one body for each of the plurality of caricature samples and provide the body to the one-dimensional caricature generator 166.
  • the one-dimensional caricature generator 166 generates a one-dimensional caricature by combining the caricature samples generated by the face caricature generator 164 and the bodies provided by the body generator 165. At this time, the one-dimensional caricature generation unit 166 may generate a one-dimensional caricature by connecting a body that matches the face color or face ratio of the caricature samples.
  • the three-dimensional motion manufacturing unit 167 When the one-dimensional caricature is generated, the three-dimensional motion manufacturing unit 167 generates the three-dimensional motion by rotating the one-dimensional caricature. In particular, the three-dimensional motion manufacturing unit 167 can be produced so that the three-dimensional motion is made through the processing, such as rotation or volume application for each part of the one-dimensional caricature.
  • the 3D caricature generator 168 generates a 3D caricature based on the 3D motion of the 1D caricature generated by the 3D motion manufacturing unit 167.
  • the 3D caricature generator 168 may support generating a 3D caricature by applying a preset image effect to the stereoscopic motion.
  • the caricature operator 169 may receive a caricature from at least one of the face caricature generator 164, the one-dimensional caricature generator 166, and the three-dimensional caricature generator 168, and output the caricature to the display unit 140. .
  • the caricature operator 169 may designate a specific caricature selected from various caricatures as the basic caricature of the terminal 100.
  • the basic caricature may be operated according to a user selection when activating a communication function requiring picture or avatar setting while the communication function of the terminal is operated. For example, it may be provided as a user picture such as a chat service.
  • FIG. 4 is a block diagram illustrating a configuration of a character generator according to a first embodiment of the present invention.
  • the character generation device 200 may include a device communication unit 210, a device storage unit 250, and a device controller 260.
  • the device communication unit 210 forms a communication channel with the terminal 100 requesting access to the character generation service device 200 and transmits and receives various signals necessary for supporting the character generation service through the corresponding communication channel. For example, the device communication unit 210 may transmit a message requesting the terminal 100 to request a character generation service to transmit an image to be used for character generation. The device communication unit 210 may receive an image corresponding to the corresponding message and provide the received image to the device controller 260. Meanwhile, when caricature samples are generated, the device communication unit 210 may provide data about the caricature samples to the terminal 100. In addition, the device communication unit 210 may receive the caricature information selected by the terminal 100 and provide it to the device control unit 260.
  • the device communication unit 210 described above may be a communication module supporting at least one communication method capable of transmitting and receiving data necessary to support the generation of the caricature of the terminal 100, and accordingly, according to the first embodiment of the present invention
  • the device communication unit 210 is not limited to a specific communication method or a specific communication module.
  • the device storage unit 250 may include a face DB 251, a color DB 253, and a caricature DB 255 to support the character generation service.
  • the device storage unit 250 may store a caricature generation program for generating caricature samples using the received image with the face DB 251 and the color DB 253.
  • the caricature generation program may be embedded in the device controller 260 of the character generation device 200 to support a character generation service.
  • the face DB 251 stores various face images having various feature points.
  • the face DB 251 may be used to search for a face image most similar to the feature points of the extracted face.
  • the face image retrieved from the face DB 251 may be provided to the device controller 260 to generate caricature samples.
  • the color DB 253 is configured to include various color information related to the face color of the received image.
  • the color DB 253 provides color information necessary for generating each of the caricatures in the process of generating the caricature samples through the received image. That is, the color DB 253 provides color information applied when correcting face images. In this case, the color DB 253 may preferentially provide color information similar to the color of the face in the received image at the request of the device controller 260.
  • the caricature DB 255 stores the caricature samples generated by the character generator 200.
  • the caricature DB 255 may map and store at least one caricature selected through the terminal 100 with a specific user.
  • the stored caricature may be used for the caricature-based user function operation of the terminal 100.
  • the device controller 260 is a component for controlling various signal flows required to support character generation in response to a connection process of the terminal 100 and a request of the terminal 100.
  • the device controller 260 may perform verification of pre-registered authentication information for access of the terminal 100. When the authentication of the authentication information is completed, when the character generation service request is generated from the terminal 100, the corresponding character generation is performed. Support.
  • the device controller 260 may generate a message requesting the terminal 100 to transmit an image to be used for character generation and control the terminal 100 to transmit the message to the terminal 100 through the device communication unit 210. have.
  • the device controller 260 may extract feature points of a face from the received image. In order to extract the feature points, the device controller 260 may perform filtering of an image, a data region search, and the like, and may collect information on the feature points through the arrangement relationship of specific data distribution areas and the distribution form of specific data. .
  • the device controller 260 may search the face DB 251 for the face image most similar to the feature points, and use the retrieved face image to generate a caricature sample.
  • the face images included in the face DB 251 may be a standardized base image that may be used to construct a basic skeleton of a specific type of caricature.
  • the device controller 260 can perform the feature point change and the various image effects more quickly and accurately, and reduce the computational load when generating the actual caricature.
  • the device controller 260 may generate a caricature based on the standardized face image, and apply the characteristics of the feature points extracted from the face photo to support the caricature unique to the specific terminal 100. For example, the device controller 260 applies the relationship information between the feature points extracted from the image to the ratio adjustment applied in the image correction process to generate the image in the form of the user's face even if the caricature is generated based on the standardized face image. Can be performed.
  • the device controller 260 applies a warping function to a predetermined feature point or predetermined areas based on the detected face image, adjusts the ratio of the image, generates a corrected image, and at least one predefined image.
  • An image effect can be added to generate various caricature samples.
  • the device controller 260 may use the color DB 253 but use a color related to the color extracted from the face picture.
  • the device controller 260 may provide them to the terminal 100.
  • the device controller 260 may give a certain charge associated with the character generation according to the service policy.
  • the device controller 260 may provide basic caricature samples free of charge according to a service policy. If a request for additional caricature samples required by specific terminals 100 occurs, the device controller 260 may provide a predetermined charge according to the occurrence of the corresponding event. have. Alternatively, the device controller 260 may assign a charge according to a policy that a predetermined charge per caricature sample is granted.
  • FIG. 5 is a flowchart illustrating a character generation method according to a first embodiment of the present invention.
  • the terminal 100 may provide an icon, a widget, or a menu item for creating a caricature. The user can then select the icon, widget or menu item to enable the caricature generation feature.
  • the controller 160 of the terminal 100 may branch to step 303 to control the performance of the function according to the input signal.
  • the controller 160 may activate and control various user functions such as a file search function, a file play function, a file transfer function, a call function, a broadcast reception function, a game function, and a chat function according to an input signal type. have.
  • step 301 if the input signal generated in step 301 is an input signal for caricature generation, the controller 160 branches to step 305 and collects the user's image for caricature generation. Substantially, this step may be performed by photographing a subject image including a face region of the user by operating the camera 170, or by displaying an image having a face region from which images of feature points can be extracted from images stored in the storage unit 150 to the user's instruction. Can be selected.
  • the controller 160 performs feature point analysis on the image collected in step 307.
  • the controller 160 may search for the face image most similar to the analyzed feature point with reference to the face DB 153 stored in the storage 150 as in step 309.
  • the controller 160 supports warping for a face image most similar to the feature points extracted in step 311.
  • the controller 160 may perform distortion on the feature points of the face according to a predefined rule.
  • the controller 160 may perform a distortion process such as adjusting the size of the feature points, adjusting the ratio of the feature points, or replacing the shape of the feature points with another image.
  • the controller 160 may perform image correction by applying a predefined ratio in step 313.
  • This step can be a step of applying a common element to the facial image, which feels average and aesthetically beautiful. For example, correction may be performed such as making the eyes larger, making the shape of the face more rounded, or smoothing the mouth-tail treatment.
  • the image correction may include a process of changing a color for a face or a body and a face, a process of simplifying feature points, a process of replacing at least some of the feature points with a certain type of image, and a specific color process for at least some of the feature points.
  • the method may be performed by applying an image effect including at least one of the processes of three-dimensionalizing at least some of the feature points.
  • the controller 160 supports the generation and output of the caricature sample in step 315.
  • the controller 160 generates a plurality of caricature samples based on the corrected image.
  • the controller 160 may generate a caricature sample according to various predefined caricature generation methods. For example, the controller 160 generates a caricature applied mechanically to the outline of the collected image, a caricature applied to the engraving format, a caricature applied to the cartoon format, a caricature applied to the 3D graphic format, and outputs the same to the display unit 140. Can be supported. This will be described in more detail together with the screen interface description of FIG. 6.
  • the controller 160 may include at least one face caricature generated by changing the facial feature points of the image or applying at least one image effect to the changed facial feature points, and applying the body to the face caricature. At least one of the dimensional caricature and the three-dimensional caricature of the three-dimensional caricature of the one-dimensional caricature is produced and configured.
  • step 317 the controller 160 determines whether a user input signal is generated to select a specific caricature. If a specific caricature is selected in this step, the control unit 160 branches to step 319 to apply the selected caricature to the terminal 100 to control to operate based on the caricature-based various user functions supported by the terminal 100. Can be.
  • the controller 160 may omit step 319.
  • the controller 160 branches to step 321 to check whether the function of the terminal 100 is terminated.
  • the controller 160 branches to step 301 to control to perform the following process again.
  • 6 is an exemplary view illustrating a screen interface of a terminal supporting a character generation service according to a first embodiment of the present invention. 6 shows an example of a caricature sample output.
  • the terminal 100 may collect an image to be used to generate the caricature as shown in the screen 401. To this end, the terminal 100 may activate the camera 170 and output the image collection screen 141 according to image capturing using the camera to the display unit 140. Alternatively, the terminal 100 may output the image collection screen 141 calling the image previously stored in the storage unit 150 to the display unit 140.
  • the controller 160 may generate, for example, four caricature samples. That is, the controller 160 may include a first caricature 41 that mechanically applies an outline of the face picture, a second caricature 42 that adjusts the face picture according to the print type, and a third adjust the face picture according to the comic type. The caricature 43 and the fourth caricature 44 in which the face photograph is adjusted according to the 3D graphic format may be generated.
  • the controller 160 may support the caricatures 41, 42, 43, and 44 described above to be displayed on the display unit 140 as the caricature sample screen 40.
  • the user may complete the caricature generation task only by selecting a caricature suitable for his or her preference among the caricatures 41, 42, 43, and 44 output to the display unit 140.
  • the displayed caricatures 41, 42, 43, and 44 apply a feature point change and at least one image effect to a face image most similar to a user's face feature.
  • the user selects a photo including a face region or performs only a photographing operation using the camera 170 to generate a caricature, and then the various caricatures 41, 42, 43, 44 provided by the terminal 100.
  • the caricature work is completed by selecting a caricature according to one's preference. This allows the user to create a caricature according to an automated method of work, but also select a caricature that has a more favorable reprocessed shape in a form that best fits his face.
  • the terminal 100 supporting the character generation service of the present invention can generate and support an appropriate caricature suitable for a user's preference while minimizing a user's input, and thus can support to activate a specific caricature-based user function operation more. Can be.
  • the first to fourth caricatures 41, 42, 43, and 44 are caricatures generated by mechanically extracting outlines, caricatures applied to engraving, caricatures applied to cartoons, and 3D graphic formats.
  • the description includes a caricature, the present invention is not limited thereto. That is, the terminal 100 of the present invention may provide a greater number of caricatures by applying various image effects, and may also provide a smaller number of caricatures according to circumstances.
  • the terminal 100 supports additional caricature generation depending on whether the image effects are updated. Therefore, the terminal 100 according to the first embodiment of the present invention is not limited to the number of the caricatures 41, 42, 43, and 44 described above, and the user does not arbitrarily select a feature point. It can be understood as a technology that supports the creation of caricatures more conveniently without using.
  • the character generation method may be performed not only by the stand-alone operation of the terminal 100, but also through interworking between the character generation device 200 and the terminal 100.
  • FIG. 7 is a signal flowchart illustrating a modification of the character generation method according to the first embodiment of the present invention.
  • step 701 the terminal 100 collects an image.
  • This step may be a step of photographing an image including a face using the camera 170 mounted on the terminal 100 or selecting an image including a face previously stored in the storage unit 150.
  • the terminal 100 basically describes that the image corresponding to the face of the user of the terminal 100 is collected, but an arbitrary image may be collected instead of the face image of the user according to the user's selection.
  • the user may request to use a character generation service for a photo including a specific face stored in the storage 150.
  • the terminal 100 transmits the collected image to the character generator 200 in step 703.
  • the terminal 100 supports the communication unit 110 to form a communication channel with the character generator 200.
  • the communication unit 110 may form a communication channel in which at least a partial communication channel is formed as a mobile communication channel, with the character generator 200.
  • the terminal 100 may transmit and receive a pre-registered ID and password to perform an authentication process.
  • the character generating apparatus 200 generates a caricature sample according to the received image.
  • the character generation device 200 may selectively perform steps 307 to 315 of FIG. 5. That is, the character generating apparatus 200 extracts feature points of a face from the received image, retrieves a face image most similar to the extracted feature point from the face DB 251, performs warping on the detected face image, or features points.
  • At least one caricature sample may be generated by adjusting the relationship between the two ratios at a predetermined ratio or by applying at least one predefined image effect.
  • the character generating apparatus 200 may generate only a face caricature, and generate a one-dimensional caricature by generating a body suitable for the face caricature and combining the face caricature.
  • the character generator 200 may support the generation of a three-dimensional caricature by producing a three-dimensional motion for the one-dimensional caricature.
  • the caricature samples generated by the character generator 200 may include at least one face caricature, at least one one-dimensional caricature including a body, and at least one three-dimensional caricature made in 3D.
  • warping may be a process of enlarging or reducing at least some of the feature points of the face, or adjusting a predetermined ratio.
  • the above-described enlargement or reduction of the feature points and adjustment of a certain ratio are made in a direction in which the corresponding face is changed into a form of having a favorable feeling, and corresponds to a data change recognized as a handsome or handsome figure generally defined according to various experiments and statistics. It can be a processing method.
  • the image effect may include a process of changing a color for a face or a body and a face, a process of simplifying feature points, a process of replacing at least some of the feature points with a certain type of image, and a specific color process for at least some of the feature points It may be a process of generating a specific type of caricature sample through at least one processing method such as performing, performing at least some of the feature points three-dimensionally.
  • the caricature samples can be generated by a variety of different caricature generation method, for example, the caricature generation method according to the basic outline processing, the caricature generation method to apply the engraving format, the caricature generation method to apply the cartoon format, 3D graphics format It may be generated by the applied caricature generation method.
  • the character generation device 200 transmits the caricature samples to the terminal 100 in step 707.
  • the terminal 100 may output at least one caricature sample to the display unit 140 and support the user to select at least one caricature of a preferred type.
  • the terminal 100 transmits a specific caricature selection signal to the character generation device 200 in step 709 according to the user's selection. Meanwhile, when a specific caricature selection signal is generated, the terminal 100 may store the selected caricature in the storage 150. In addition, the terminal 100 may support to operate the stored caricature when the user function activation request using the selected caricature.
  • the character generating apparatus 200 When the specific caricature selection information of the user is transmitted through step 709, the character generating apparatus 200 additionally maps the specific caricature and the user of the terminal 100 to the default caricature of the user of the specific caricature in step 711. Caricature operation of the terminal 100 may be supported.
  • the character generating device 200 may be configured to support various services related to the character as well as a function of supporting the character generation. In this case, when the character generating apparatus 200 merely provides a function of generating a character, step 711 performed by the character generating apparatus 200 may be omitted.
  • the character generation device 200 stores the character selected by the terminal 100.
  • the terminal 100 may receive a caricature applied to a service operation process, and may support a user to check which caricature is used to operate a specific user function.
  • the present invention supports a user to easily generate a specific character with a favorable feeling only through a simpler image collection and input operation.
  • the present invention can provide a plurality of caricature samples by supporting a warping function and providing image effects, thereby widening a user's selection and making it easier to select a user's preferred character.
  • an image specialized for a user is named as an avatar as a form of a character.
  • FIG. 8 is a schematic diagram of a character generation system according to a second embodiment of the present invention.
  • the character generation system 20 may include a terminal 800 and a character generation device 900.
  • the character generation system 20 having such a configuration allows the user to access the character generation device 900 using the terminal 800 and generate a specific character in accordance with the support of the character generation device 900. .
  • the character generation system 20 synthesizes a user avatar provided by the terminal 800 and a person avatar selected by the terminal 800 or provided by default by the character generation device 900 to meet the user's preferences. Highly relevant synthetic avatars can be provided. Accordingly, the character generation system 20 of the present invention can satisfy the user's needs and support the activation of the character-based service through the support of the synthetic avatar that the user can operate with attachment.
  • the terminal 800 is configured to access the character generation device 900 through a network device constructed between the character generation devices 900 and to generate and receive a synthesized avatar under user control.
  • the terminal 800 is configured to support various communication services based on the generated synthetic avatar, for example, a chat service, an email service, a game service, and a message service.
  • the terminal 800 may provide the character generation device 900 with user information for generating a user avatar or a user avatar for operation of the character generation service.
  • the terminal 800 may provide the character generation device 900 with specific person avatar designation information that the user prefers under user control.
  • the terminal 800 may provide the character generation device 900 with sync rate adjustment information of the user avatar and the person avatar when generating the synthesized avatar under user control.
  • the person avatar may include all avatars such as celebrities in each field including celebrities, athletes, politicians, professors, historical characters who existed in the past, and virtual characters that do not exist.
  • the terminal 800 includes a communication unit for accessing the character generator 900, a display unit for input or input means for user control, a display unit for supporting various screen outputs related to the character generator 900 and character generation, and a user.
  • the storage unit may store an avatar, a synthetic avatar, and the like.
  • the terminal 800 may access the character generator 900 based on the above-described configuration, and may output a character generation screen provided by the character generator 900 to the display unit.
  • the character generation screen may include a list of person avatars from which at least one person avatar can be selected.
  • the character generation screen may include a sync rate adjustment bar for adjusting the ratio of the composition of the user avatar and the character avatar. Accordingly, the user may determine which character avatar the user avatar is to be synthesized through the character generation screen, and may adjust the weight of the user avatar in the synthesis process. Accordingly, the terminal 800 according to the second embodiment of the present invention may support to generate a synthetic avatar that is suitable for each user and is highly related to the user.
  • the character generation device 900 forms a communication channel with the terminal 800 through a network device established between the terminals 800, and provides the character support service of the present invention according to the connection of the terminal 800.
  • the character generation device 900 may provide data corresponding to the character generation screen to the terminal 800 according to the connection of the terminal 800.
  • the character generator 900 may generate a synthetic avatar based on the user avatar, the person avatar designation information, and the sync rate information received from the terminal 800, and provide the synthesized avatar to the terminal 800.
  • the character generating device 900 may be provided as a part of the service supporting apparatus based on the character. Accordingly, the character generation device 900 matches and stores the synthesized avatar generated according to the request of the terminal 800 with the corresponding terminal 800 information, and when the character service request of the corresponding terminal 800, the stored synthetic avatar corresponding to Can be applied to services. On the other hand, the character generation device 900 may impose a certain charge on the character generation to the terminal 800 according to the system design policy. The configuration of the character generator 900 will be described in more detail with reference to FIG. 9.
  • FIG. 9 is a block diagram illustrating a configuration of a character generator according to a second embodiment of the present invention.
  • the character generating device 900 may include a configuration of the device communication unit 910, the device storage unit 920, and the device control unit 930.
  • the character generating device 900 of the present invention may further include a configuration of an input unit and a display unit for the operation and update of the device.
  • the manager may perform management such as instructing various service operation management and updating of the character generator 900 through the input unit and the display unit.
  • the device communication unit 910 is a component that supports a communication function of the character generating device 900.
  • the device communication unit 910 may be configured in various forms according to the type or configuration of the network device connected to the character generation device 900.
  • the device communication unit 910 may be an internet network support module.
  • the device communication unit 910 may be configured as a mobile communication network support module.
  • the device communication unit 910 is not limited to a wired or wireless method, a specific communication method, or the like, and may be configured in at least one of specific types capable of transmitting and receiving data for character generation according to the present invention.
  • the device communication unit 910 may support to establish a communication channel with the corresponding terminal 800.
  • the device communication unit 910 may transmit data corresponding to the character generation screen to the terminal 800 under the control of the device controller 930.
  • the character generation screen may be a screen previously constructed by the character generation device 900 for the character generation service of the present invention.
  • the device communication unit 910 receives data for using the character generation service from the terminal 800 provided with the character generation screen, that is, user avatar for each terminal, character avatar designation information, and sync rate information, and transmits the same to the device controller 930. Can be.
  • the device communication unit 910 may provide the generated synthetic avatar to the terminal 800.
  • the device storage unit 920 is a component that stores various application programs necessary for the operation of the character generator 900.
  • the device storage unit 920 may store a program and data for operating the character generation service of the present invention.
  • the device storage unit 920 may store at least one person avatar 51 and an avatar synthesis program 53.
  • the at least one person avatar 51 is information generated based on appearance information of at least one person who has been previously negotiated.
  • an operator or system designer who operates the character generator 900 may collect at least one of photo information and appearance information of each person to be used as the person avatar 51 according to the negotiated matters.
  • the character generator 900 may generate and store the person avatar 51 based on the provided picture information and appearance information of the person.
  • the character generation device 900 may receive specific person avatar 51 information from the outside through the device communication unit 910 and store the received person avatar 51 in the device storage unit 920.
  • the person avatar 51 stored in the device storage unit 920 may be provided as a list on the character generation screen.
  • the avatar synthesis program 53 is a program for synthesizing a user avatar received from the terminal 800 and a specific person avatar 51 to generate a synthesized avatar.
  • the avatar synthesis program 53 may include a routine for collecting a user avatar, a routine for collecting a specific person avatar 51 according to a user specification, and a synthesis routine for synthesizing the collected user avatar and the person avatar 51.
  • the synthesis routine may include a routine for checking a sync rate corresponding to the weights of avatars to be synthesized and a routine for operating a predefined synthesis algorithm based on the sync rate.
  • the synthesis algorithm may include data for determining the ratio of the feature points of the face in the process of synthesizing the user avatar and the person avatar 51.
  • the feature points may be various points on the face or body such as eyes, nose, mouth, ears, forehead, facial contours, arms, legs, and shoulders. Accordingly, when the synthesis algorithm synthesizes the faces of the user avatar and the human avatar 51, the synthesis algorithm synthesizes a contour of the face, a synthesis processor for synthesizing the eye area, a synthesis processor for synthesizing the nose area, and synthesizes the mouth area. It may include a synthesis processor and the like, it may include a control processor for adjusting the placement relationship of the synthesis elements synthesized by each synthesis processor.
  • each synthesis processor may be designed to select an average value of each feature point of the person avatar and each feature point of the user avatar.
  • the eye region synthesis processor may support arranging an average value of two eye outlines after arranging the eye outline region of the person avatar and the eye outline region of the user avatar with respect to the center point.
  • the eye region synthesis processor may perform data determination to maintain the eye shape of the human avatar or close to the eye shape of the user avatar according to the collected sync rate information.
  • the synthesis algorithm may include a synthesis processor for various features such as the forehead, the chin, the neck, and the shoulder, in addition to the feature points of the face described above.
  • the device storage unit 920 may temporarily or semi-permanently store the user avatar provided by the terminal 800 according to a system policy.
  • the device storage unit 920 may store an avatar generating program that generates a user avatar using photo information provided from the terminal 800.
  • the avatar generation program may be the same program as the program for generating the above-described person avatar 51.
  • the character generating device 900 uses the avatar generation program to generate the person avatar 51 based on the person photograph information and appearance information. You can also create user avatars. That is, the character generation device 900 may generate a user avatar based on user related information and photo information provided by the user from the terminal 800.
  • the avatar generating program may include a routine for extracting feature points for generating an avatar from photo information and a routine for generating a virtual face based on the extracted feature points. Substantially, the avatar generating program may generate an avatar having a shape similar to or identical to a face of a person included in the photo information.
  • the device controller 930 is a component that performs signal processing and data processing required for the operation of the character generating device 900.
  • the device controller 930 may control the connection of the terminal 800, the provision of a character generation screen, and the collection of information necessary for character generation, under the control of the device communication unit 910.
  • the device controller 930 may generate a synthesized avatar based on the collected information, and provide the generated synthesized avatar to the terminal 800.
  • the device controller 930 when the terminal 800 requests a connection, the device controller 930 provides a character generation screen by default or performs authentication through a pre-registered authentication process, and then displays the character generation screen on the terminal 800. Can provide.
  • the device controller 930 may request user avatar and person avatar information to be synthesized from the terminal 800.
  • the device controller 930 may provide a list of various person avatars 51 stored in the device storage 920 through the character generation screen.
  • the device controller 930 synthesizes the user avatar and the designated person avatar 51 according to the avatar synthesis algorithm to generate a synthesized avatar.
  • the device controller 930 may check the sync rate information designated by the terminal 800 and determine the specific gravity of the user avatar and the person avatar 51 according to the sync rate information. If there is no separate synch rate information input, the device controller 930 may generate a composite avatar according to a predefined specific ratio, for example, a 50% ratio.
  • the device controller 930 may provide the synthesized avatar to the terminal 800. Thereafter, when the composition controller 930 synthesizes the other person's avatar or adjusts sync rate information, the device controller 930 generates a new composite avatar according to the request, and provides the generated new composite avatar to the terminal 800. can do.
  • the character generator 900 provides the person avatars 51, but the present invention is not limited thereto. That is, the terminal 800 may provide the character generating device 900 with a person avatar to be synthesized with its own avatar together with the user avatar. Then, the character generating device 900 may generate a synthesized avatar by synthesizing the person avatar and the user avatar provided by the terminal 800 according to the sync rate information designated by the terminal 800.
  • the character generation device performs communication between the terminal 800 and the character generation device 900 for operating the character generation service of the present invention, and is based on the user avatar and the person avatar provided by the terminal 800.
  • a configuration for generating and providing a composite avatar has been described by the 900.
  • the terminal 800 itself may be performed without performing the synthesis avatar generation process in the character generator 900.
  • the terminal 800 may include a configuration as shown in FIG. 10.
  • FIG. 10 is a block diagram showing a configuration of a terminal supporting a character generation service according to a second embodiment of the present invention.
  • the terminal 800 includes a communication unit 810, an input unit 820, an audio processing unit 830, a display unit 840, a storage unit 850, and a controller 860. It may include the configuration of).
  • the terminal 800 having such a configuration may output a character generation screen supported by the avatar synthesis program 53 to the display unit 840 according to a user's request.
  • the terminal 800 may generate a synthesized avatar 57 by synthesizing the person avatar 51 and the user avatar 55 designated by the user, and provide the synthesized avatar 57.
  • the composite avatar 57 may be stored in the storage 850 according to a user selection.
  • the communication unit 810 may receive at least one person avatar 51 information from the outside.
  • the communicator 810 may receive the person avatar 51 information from the character generator.
  • the character generating apparatus may provide the character avatar 51 information to support the avatar synthesis in the terminal 800, and in this process, the character avatar 51 may charge a predetermined fee.
  • the character generator may provide a service page for searching for and purchasing the person avatars 51.
  • the communication unit 810 may access the character generation device, receive a service page, and transmit the service page to the controller 860.
  • the user may search for and purchase the person avatar 51 that may be combined with the user avatar 55 through the service page.
  • the communication unit 810 may provide data related to the search and purchase of the person avatar 51 to the character generation device, and may receive the selected person avatar 51 information from the character generation device according to the approval.
  • the input unit 820 is a component for generating various input signals of the terminal 800 required for operating the character support service of the present invention.
  • the input unit 820 may include an input signal for calling the avatar synthesis program 53, an input signal for selecting at least one person avatar 51 to be combined with the user avatar 55, the user avatar 55 and the person avatar.
  • An input signal for adjusting the sync rate applied to the synthesis between the 51 and the input signal for storing the generated synthetic avatar may be generated according to a user control.
  • the input unit 820 may generate an input signal required for receiving the person avatar 51 from the character support apparatus or another terminal according to user control. The generated input signals may be transmitted to the controller 860.
  • the audio processor 830 supports the output of various audio data set in the avatar synthesis process. For example, the audio processor 830 may output a predetermined sound effect in the process of synthesizing the user avatar 55 and the person avatar 51. In addition, the audio processor 830 may support various audio data outputs provided by the corresponding service while operating various user functions, for example, a chat service, a message or mail service, and a game service, based on the generated synthetic avatar 57. Can be. The sound effect output of the audio processor 830 may be omitted under user control or may not be provided according to a designer's intention.
  • the display unit 840 may output various screens related to generation of the synthesized avatar 57.
  • the display unit 840 may include a character generation screen according to a call to the avatar synthesis program 53, a user avatar 55 confirmation screen, a portrait avatar 51 selection screen, a synchro rate information adjustment screen, and a synthesis avatar 57 output screen. At least one screen of the stored composite avatar 57 confirmation screen may be output.
  • the display unit 840 may output a search and purchase screen of the person avatar 51 provided by the character generator when the person avatar 51 is received from the outside, particularly when the person avatar 51 is received from the character generator.
  • a search and purchase screen of the person avatar 51 provided by the character generator when the person avatar 51 is received from the outside, particularly when the person avatar 51 is received from the character generator.
  • the storage unit 850 may include an avatar synthesis program 53, at least one person avatar 51, a user avatar 55, and a synthesized avatar 57 to support avatar synthesis.
  • the avatar synthesizing program 53 is a routine for collecting a person avatar 51 designated by an input signal or by default, a routine for collecting the user avatar 55 stored in the storage unit 850, and a screen output for collecting synchro rate information. And a sync rate information collection routine designated as an input signal or by default.
  • the avatar synthesis program 53 may include an avatar synthesis algorithm for avatar synthesis.
  • the avatar synthesis program 53 may be loaded into the controller 860 according to generation of an input signal for selecting the character support service, and may generate the synthesized avatar 57 through the above-described routines.
  • At least one person avatar 51 may be received and stored from a character generating device or a specific terminal providing the person avatar. Alternatively, the person avatar 51 may be generated by itself through the provided picture information and the avatar generating program.
  • the user avatar 55 is an avatar generated based on user's photo information.
  • the user avatar 55 may be generated by an avatar generating program.
  • the terminal 800 may provide picture information and the like to the character generating device and receive a user avatar accordingly.
  • the synthesized avatar 57 is an avatar synthesized by the avatar synthesis program 53.
  • One or more synthetic avatars 57 may be generated according to the synthesis of the user avatar 55 and the at least one person avatar 51.
  • a plurality of composite avatars 57 may be generated according to synchro rate adjustment.
  • the controller 860 may support various signal processing and data processing required for operating the character generation service of the present invention based on the terminal 800. For example, the controller 860 collects user avatar 55 and person avatar 51 information from the storage unit 850 according to a user input signal, and performs avatar synthesis according to an avatar synthesis algorithm. In this case, the controller 860 may determine the application weight of the user avatar 55 and the person avatar 51 according to the sync rate information, and support generation of the synthesized avatar 57 accordingly.
  • the controller 860 may generate the synthesized avatar 57 of the user avatar 55 and the person avatar 51 according to at least one sync rate information set as a default. For example, the controller 860 generates a composite avatar 57 having a synch rate of 30%, 40%, 50%, 60%, and 70% of the user avatar 55, and generates the synthesized avatar 57.
  • the display unit 840 may be output to the display unit 840.
  • the user may select a composite avatar 57 that matches his or her preference among the plurality of composite avatars 57.
  • the controller 860 may control to store the synthesized avatar 57 selected by the user in the storage 850 and discard the remaining synthesized avatars.
  • the controller 860 may support generation of a composite avatar between the user avatar 55 and the other person avatar 51 according to a user request. In this process, the controller 860 may support generation of various synthetic avatars according to synchro rate information adjustment as described above. In addition, the controller 860 may request to designate a default avatar among the composite avatars 57, and when a specific synthetic avatar 57 is designated as the default avatar by the user, the controller 860 may control to use the default avatar when operating various user functions. have. For example, the controller 860 may control to register a basic avatar in a user picture registration field when operating a chat service, and designate a default avatar as a character in a game when operating a game service.
  • FIG. 11 is a signal flow diagram illustrating a character generation method according to a second embodiment of the present invention.
  • the terminal 800 and the character generating device 900 may perform a connection for operating the character support service of the present invention in step S101.
  • the terminal 800 may collect address information of the character generator 900 and perform a procedure for forming a communication channel based on the corresponding address information.
  • the terminal 800 may transmit and verify authentication information according to the character generating device 900 request.
  • the character generation device 900 may provide the terminal 800 with a character generation screen including a list of person avatars in step S103.
  • the terminal 800 may support the output to the display unit.
  • the list of person avatars may be displayed in a thumbnail manner or each person avatar may be output in full screen form on the entire screen according to a user's request. The user may select a person avatar to be synthesized with his avatar through page switching.
  • the controller 860 of the terminal 800 creates a message including the user avatar and the person avatar selection information, and in step S105, the character generating device 900.
  • the terminal 800 may additionally provide sync rate information corresponding to a composition ratio between the user avatar and the person avatar according to a user input.
  • the terminal 800 may provide the character generating device 900 with photo information for generating the user avatar if there is no user avatar.
  • the character generating device 900 may perform avatar synthesis in step S107. In this case, when there is no sync rate information, the character generator 900 may perform avatar synthesis according to the sync rate information defined by default. Meanwhile, when the synthesized avatar is generated, the character generating device 900 may provide the synthesized avatar to the terminal 800 in step S109.
  • the terminal 800 may output the synthesized avatar to the display unit 840 and store the synthesized avatar in the storage unit in operation S111 according to user control.
  • the user of the terminal 800 may request the character generating apparatus 900 to perform a new avatar synthesis when the synthesized avatar does not match his / her preference.
  • the received synthetic avatar may be discarded.
  • the character generation device 900 may provide the synthetic avatar to the terminal 800 in real time when the user selects the avatars 51.
  • the character generating apparatus 900 may perform the shape change of the synthesized avatar according to the change in the sync rate information to generate the real-time synthesized avatar and provide it to the terminal 800.
  • FIG. 12 is an exemplary diagram illustrating a screen interface of a terminal supporting a character generation service according to a second embodiment of the present invention.
  • the display unit 840 of the terminal 800 may output a character generation screen as in the screen 501.
  • the output character generation screen may be either a screen stored by the terminal 800 or a screen provided by the character generation device 900 according to the service subject of the present invention.
  • the terminal 800 may provide a menu screen including a menu item corresponding to the corresponding item or a menu screen including an icon or a widget corresponding to the corresponding item so that the character support service item may be selected.
  • the display unit 840 may output a screen including the user avatar output area 40 and the person avatar selection area 50.
  • At least one person avatar 51 may be provided in the person avatar selection area 50 according to the provision of the terminal 800 or the character generating device 900.
  • the figure shows that a certain number of person avatars are output to the person avatar selection area 50, the present invention is not limited thereto. That is, the person avatar selection area 50 may output a greater number of person avatars or fewer person avatars depending on whether the terminal 800 or the character generating device 900 supports it.
  • the person avatar selection area 50 may be provided in a form that supports a scroll bar function, a page switching function, and the like, for searching for the non-displayed person avatars.
  • the screen 501 a plurality of person avatars are displayed in the form of thumbnails in the person avatar selection area 50, but the display unit 840 may search for the person avatars in a full screen view form according to a user setting conversion or service provision form. You can also print a screen.
  • the controller 860 of the terminal 800 displays a sync rate adjustment screen 530 for adjusting the sync rate between the selected person avatar 51 and the user avatar 55.
  • the display may be output to the display unit 840 as shown in the screen.
  • the user may adjust the sync rate adjusting bar 531 to adjust the sync rate between the user avatar 55 and the person avatar 51.
  • the composite avatar may be generated according to the sync rate ratio set as a default. In this case, the 503 screen may be omitted.
  • the terminal 800 may output the synthesized avatar 57, which is a combination of the person avatar 51 and the user avatar 55, to the display unit 840, as shown on a screen 505.
  • the output of one composite avatar 57 on the screen 505 is not limited to the present invention. That is, the terminal 800 and the character generating device 900 may generate a plurality of composite avatars 57 through the synthesis between the user avatar 55 and the plurality of person avatars 51.
  • the screen 505 may be configured as a screen on which a plurality of person avatars 51 and a plurality of synthesized avatars 57 are output.
  • the terminal 800 and the character generating device 900 may generate a plurality of synthesized avatars 57 in units of a predetermined sync rate in the process of synthesizing the user avatar 55 and one person avatar 51. Accordingly, a plurality of composite avatars 57 may be output on the screen 505 according to the synchro ratio adjustment of various ratios with respect to one portrait avatar 51.
  • the terminal 800 and the character generating apparatus 900 of the present invention may support generation of a plurality of synthetic avatars 57 according to the plurality of person avatars 51 and the plurality of sync rates. Accordingly, a larger number of sample synthesized avatars may be displayed on the display unit 840 of the terminal 800. At least one of the synthesized avatars may be selected and stored in the storage unit 850 under user control, and a specific avatar among the stored at least one synthesized avatar is designated as a default avatar and applied to the user function operation of the terminal 800. And can be operated.
  • the character generation system and method according to the second exemplary embodiment of the present invention support a composition of a user avatar which is preferred by a user and a user's avatar, and maintains a relationship with the user while maintaining a relationship with the user.
  • the terminal described through the first and second embodiments may further include various additional modules according to the provision form thereof. That is, in the case of a communication terminal, the terminal is a short-range communication module for short-range communication, an interface for data transmission and reception by a wired or wireless communication method, an internet communication module performing an internet function by communicating with an internet network, and receiving and playing digital broadcasting It may further include components not mentioned above, such as a digital broadcasting module for performing a function. These components can not be enumerated because all of them vary according to the convergence trend of digital devices, but the components equivalent to those mentioned above may be further included in the device. have.
  • the terminal of the present invention may be excluded from the above configuration or replaced with another configuration, depending on the form of the present invention. This will be readily understood by those of ordinary skill in the art.
  • a terminal may include any type of device that can use the character service.
  • a terminal may be a portable multimedia player (PMP), a digital broadcasting player, a PDA, including all mobile communication terminals operating according to communication protocols corresponding to various communication systems.
  • PMP portable multimedia player
  • PDA Personal Digital Assistant
  • music player e.g. MP3 player
  • smart phone smart phone
  • notebook notebook
  • handheld PC including all information communication devices and multimedia devices and applications thereof Can be.
  • the character service providing method may be implemented in a software form readable by various computer means and recorded on a computer readable recording medium.
  • the recording medium may include a program command, a data file, a data structure, etc. alone or in combination.
  • Program instructions recorded on the recording medium may be those specially designed and constructed for the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • the recording media may be magnetic media such as hard disks, floppy disks, and magnetic tapes, optical disks such as compact disk read only memory (CD-ROM), digital video disks (DVD), Magnetic-Optical Media, such as floppy disks, and hardware devices specially configured to store and execute program instructions, such as ROM, random access memory (RAM), flash memory, and the like. do.
  • program instructions may include high-level language code that can be executed by a computer using an interpreter as well as machine code such as produced by a compiler.
  • Such hardware devices may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 캐릭터 생성 시스템, 장치, 단말기 및 방법에 관한 것이다. 본 발명의 실시예에 따른 캐릭터 생성 시스템은 단말기 및 캐릭터 생성 장치를 포함한다. 단말기는 사용자의 얼굴을 포함하는 영상을 수집하고, 수집된 영상을 캐릭터 생성 장치에 전달한 후 영상으로부터 생성한 캐리커쳐 샘플을 수신한다. 캐릭터 생성 장치는 단말기로부터 수신된 영상에서 얼굴 특징점들을 추출하고, 추출된 얼굴 특징점을 기반으로 다수의 기본적인 얼굴 이미지 중에서 유사한 얼굴 이미지를 검색하고, 검색된 얼굴 이미지의 특징점들을 변경하거나 특징점들이 변경된 얼굴 이미지에 적어도 하나의 이미지 효과를 적용하여 다수의 캐리커쳐 샘플들을 생성하고, 생성된 캐리커쳐 샘플들을 단말기에 제공한다.

Description

캐릭터 생성 시스템, 장치, 단말기 및 방법
본 발명은 캐릭터 생성 기술에 관한 것으로, 특히 캐릭터 생성을 자동화하되 사용성이 뛰어난 캐릭터를 보다 용이하고 적응적으로 생성할 수 있고 사용자 기호에 맞으면서도 사용자와 관련성이 높은 캐릭터를 생성할 수 있는 캐릭터 생성 시스템, 장치, 단말기 및 방법에 관한 것이다.
통신 단말기는 휴대가 가능한 형태로 제작되면서 그 이용의 편리성과 휴대의 용이성 등으로 인하여 매우 폭넓은 분야에서 이용되고 있다. 이러한 통신 단말기는 최근 들어 다양한 사용자 기능을 탑재한 스마트폰의 형태로 발전하면서 편리성과 오락성을 제공하고 있다.
한편 스마트폰의 보급과 함께 사용자들은 다양한 사용자 기능을 이용하고 있으며, 특히 스마트폰 기반의 다양한 통신 서비스를 이용하고 있다. 예를 들어, 사용자들은 스마트폰을 이용하여 채팅 서비스를 이용하거나, 특정 웹 서비스를 이용하거나, 타 사용자와 이메일을 주고받는 서비스를 이용한다. 이때 사용자는 자신이 누구인지를 알리기 위하여 이름과 전화번호를 이용하고 있으며, 추가적으로 자신의 얼굴 사진을 이용하고 있다.
또한, 사용자는 얼굴 사진과 관련된 캐릭터를 이용하여 다양한 통신 서비스 이용을 수행하고 있다. 이를 위해서 사용자는 캐릭터 생성 과정을 수행해야 한다. 그런데 종래의 캐릭터 생성 과정은 사용자가 다양한 얼굴 특징(예를 들면, 머리, 눈썹, 눈, 코, 입, 얼굴 윤곽 등)을 직접 선택하고 조절해야 하기 때문에 캐릭터 생성에 매우 많은 시간이 소모되는 단점이 있다. 즉, 종래의 캐릭터 생성 방식은 실질적으로 캐릭터를 생성하기 위한 것이라기보다는 캐릭터 선택 방식이라고 할 정도로 캐릭터 생성을 위한 선택 사항이 너무 많은 단점이 있다. 이러한 단점 때문에 사용자들은 별도의 캐릭터 생성을 위한 노력을 기울이지 않고 있으며, 결과적으로 캐릭터 기반의 서비스 이용이 활성화되지 않고 있다.
또한, 종래의 캐릭터 생성 방식은 사용자가 임의적으로 캐릭터 형태를 구성하기 때문에 사용자와 관련성이 낮아 애착을 갖기 어렵고 결과적으로 사용성이 떨어지는 단점이 있다. 이러한 문제 해결을 위하여 사용자의 얼굴과 동일한 캐릭터를 생성해주는 기술이 제안된 바 있으나, 자신과 동일한 형태의 캐릭터는 사용자의 다양한 기호를 반영하지 못하는 단점이 있다.
본 발명은 전술된 바와 같은 종래 기술의 문제점을 해결하기 위한 것으로, 본 발명의 목적은 캐릭터 생성을 자동화하여 사용자의 입력을 최소화하면서도 사용성을 개선하여 사용자별 특화된 캐릭터 운용을 유도할 수 있는 캐릭터 생성 시스템, 장치, 단말기 및 방법을 제공하기 위한 것이다.
본 발명의 다른 목적은 캐릭터 생성을 사용자의 기호에 맞도록 임의적인 조절이 가능하면서도 사용자와의 관련성을 가질 수 있도록 하여 캐릭터 애착 형성에 기여하고 결국 캐릭터 기반의 다양한 서비스 이용을 지원할 수 있는 캐릭터 생성 시스템, 장치, 단말기 및 방법을 제공하기 위한 것이다.
본 발명의 일 실시 예에 따르면, 사용자의 얼굴을 포함하는 영상을 수집하고, 수집된 영상을 캐릭터 생성 장치에 전달한 후 캐릭터 생성 장치로부터 상기 영상으로부터 생성한 하나 이상의 캐리커쳐 샘플을 수신하는 단말기; 및 상기 단말기로부터 수신된 영상에서 얼굴 특징점들을 추출하고, 추출한 얼굴 특징점을 기반으로 다수의 기본적인 얼굴 이미지 중에서 유사한 얼굴 이미지를 검색하고, 검색된 얼굴 이미지의 특징점들을 변경하거나 특징점들이 변경된 얼굴 이미지에 적어도 하나의 이미지 효과를 적용하여 다수의 캐리커쳐 샘플들을 생성하고, 생성된 상기 캐리커쳐 샘플들을 상기 단말기에 제공하는 캐릭터 생성 장치를 포함하는 것을 특징으로 하는 캐릭터 생성 시스템을 제공한다.
본 발명의 일 실시 예에 따르면, 단말기와의 통신 채널을 형성하여 데이터를 송수신하는 장치 통신부; 다수의 얼굴 이미지를 저장하는 얼굴 데이터베이스를 포함하는 장치 저장부; 및 상기 장치 통신부를 통해 사용자의 얼굴을 포함하는 영상을 수신하고, 상기 수신한 영상으로부터 얼굴 특징점들을 추출하고, 추출된 얼굴 특징점과 유사한 얼굴 이미지를 상기 얼굴 데이터베이스로부터 검색하고, 검색된 얼굴 이미지의 특징점을 변경하거나 특징점이 변경된 얼굴 이미지에 대하여 적어도 하나의 이미지 효과를 적용하여 다수의 캐리커쳐 샘플을 생성하고, 상기 다수의 캐리커쳐 샘플을 상기 단말기에 제공하도록 제어하는 장치 제어부를 포함하는 것을 특징으로 하는 캐릭터 생성 장치를 제공한다.
본 발명의 일 실시 예에 따르면, 얼굴을 포함하는 영상에서 얼굴 특징점들을 추출하고, 다수의 얼굴 이미지를 저장하는 얼굴 데이터베이스에서 상기 추출된 얼굴 특징점과 유사한 얼굴 이미지를 검색하고, 검색된 얼굴 이미지의 특징점을 변경하거나 특징점이 변경된 이미지에 적어도 하나의 이미지 효과를 적용하여 다수의 캐리커쳐 샘플을 생성하도록 제어하고, 입력 신호에 따라서 상기 다수의 캐리커쳐 샘플 중에서 하나를 사용자의 기본 캐리커쳐로 지정하는 제어부; 상기 얼굴 데이터베이스, 상기 다수의 캐리커쳐 샘플 및 상기 사용자의 기본 캐리커쳐 중에서 하나 이상을 표시하는 표시부; 사용자의 조작에 따라서 상기 다수의 캐리커쳐 샘플들 중 적어도 하나를 선택하기 위한 입력 신호를 생성하는 입력부; 및 상기 다수의 캐리커쳐 샘플 및 상기 사용자의 기본 캐리커쳐 중에서 적어도 하나를 저장하는 저장부를 포함하는 것을 특징으로 하는 단말기를 제공한다.
본 발명의 일 실시 예에 따르면, 얼굴을 포함하는 영상을 획득하는 단계; 상기 영상의 얼굴 특징점 추출하는 단계; 다수의 얼굴 이미지를 저장한 얼굴 데이터베이스로부터 상기 추출된 얼굴 특징점과 유사한 얼굴 이미지를 검색하는 단계; 상기 검색된 얼굴 이미지의 특징점을 변경하거나 특징점이 변경된 얼굴 이미지에 적어도 하나의 이미지 효과를 적용하여 다수의 캐리커쳐 샘플을 생성하는 단계; 및 상기 생성된 캐리커쳐 샘플을 사용자에 제공하는 단계를 포함하는 것을 특징으로 하는 캐릭터 생성 방법을 제공한다.
본 발명의 다른 실시 예에 따르면, 사용자 아바타, 특정 인물 아바타 정보 또는 특정 인물 아바타에 대한 선택 정보 및 상기 사용자 아바타와 상기 인물 아바타 간의 싱크로율 정보를 제공하는 단말기; 상기 단말기가 제공한 사용자 아바타 및 상기 특정 인물 아바타를 상기 싱크로율 정보를 기반으로 합성하여 합성 아바타를 생성하고, 생성된 상기 합성 아바타를 상기 단말기에 제공하는 캐릭터 생성 장치를 포함하는 것을 특징으로 하는 캐릭터 생성 시스템을 제공한다.
본 발명의 다른 실시 예에 따르면, 단말기와의 통신 채널을 형성하고 상기 단말기로부터 사용자 아바타, 특정 인물 아바타 정보 또는 특정 인물 아바타 선택 정보를 수신하는 장치 통신부; 적어도 하나의 인물 아바타 및 아바타 합성을 위한 알고리즘을 저장하는 장치 저장부; 상기 사용자 아바타와 적어도 하나의 상기 인물 아바타를 합성하여 적어도 하나의 합성 아바타를 생성하고, 생성된 합성 아바타를 상기 단말기에 제공하도록 제어하는 장치 제어부를 포함하는 것을 특징으로 하는 캐릭터 생성 장치를 제공한다.
본 발명의 다른 실시 예에 따르면, 적어도 하나의 인물 아바타, 사용자 아바타, 아바타 합성 프로그램을 저장하는 저장부; 상기 사용자 아바타와 합성할 적어도 하나의 인물 아바타 지정을 위한 입력 신호를 생성하는 입력부; 상기 사용자 아바타 및 선택된 적어도 하나의 인물 아바타를 합성하여 적어도 하나의 합성 아바타를 생성하는 제어부; 상기 생성된 적어도 하나의 합성 아바타를 출력하는 표시부를 포함하는 것을 특징으로 하는 단말기를 제공한다.
본 발명의 다른 실시 예에 따르면, 캐릭터 생성 장치가 단말기로부터 사용자 아바타 및 적어도 하나의 인물 아바타 또는 적어도 하나의 인물 아바타 선택 정보를 수신하는 단계; 상기 캐릭터 생성 장치가 수신된 사용자 데이터 및 상기 적어도 하나의 인물 아바타를 합성하여 적어도 하나의 합성 아바타를 생성하는 생성 단계; 상기 생성된 적어도 하나의 합성 아바타를 상기 단말기에 제공하는 단계를 포함하는 것을 특징으로 하는 캐릭터 생성 방법을 제공한다.
본 발명의 다른 실시 예에 따르면, 단말기가 사용자 아바타 및 적어도 하나의 인물 아바타 또는 적어도 하나의 인물 아바타 선택 정보를 캐릭터 생성 장치로 전송하는 단계; 상기 단말기가 상기 캐릭터 생성 장치로부터 사용자 아바타 및 상기 적어도 하나의 인물 아바타를 합성하여 생성한 적어도 하나의 합성 아바타를 수신하는 단계; 상기 수신한 적어도 하나의 합성 아바타를 출력하는 단계를 포함하는 것을 특징으로 하는 캐릭터 생성 방법을 제공한다.
본 발명은 사용자 얼굴을 기반으로 다양한 형태의 캐리커쳐를 생성하고, 사용자가 선호하는 캐리커쳐를 선택하도록 함으로써 캐릭터 생성을 보다 용이하게 할 수 있도록 하면서도 사용자 선호도가 반영된 캐릭터 생성을 지원할 수 있다.
또한, 본 발명은 선택된 캐리커쳐를 기반으로 단말기가 지원 가능한 다양한 서비스를 운용할 수 있도록 함으로써 캐릭터 기반의 사용자 서비스 활성화를 유도할 수 있다.
또한, 본 발명은 사용자 얼굴을 기반으로 생성된 아바타와 사용자가 선호하는 특정 인물 아바타를 합성하여 사용자 기호에 맞는 캐릭터를 생성하도록 지원함으로써 사용자와 관련성이 높으면서도 사용자가 호감을 가질 수 있는 캐릭터를 가질 수 있도록 지원한다.
또한, 본 발명은 동경의 대상이 되는 인물들의 아바타와 자신의 아바타를 합성함으로써 재미의 요소를 제공함은 물로 사용자들에게 다양한 형태의 위안을 줄 수 있으며, 자신의 자존감을 높이고 심리적인 만족감을 줄 수 있다.
이에 따라, 본 발명은 생성된 캐릭터를 이용한 다양한 서비스 운용을 활성화하고, 그에 따른 다양한 사용자 기능 활성화 및 발전에 기여할 수 있다.
도 1은 본 발명의 제1 실시 예에 따른 캐릭터 생성 시스템의 개략도이다.
도 2는 본 발명의 제1 실시 예에 따른 캐릭터 생성 서비스를 지원하는 단말기의 구성을 나타낸 블럭도이다.
도 3은 도 2에 도시된 단말기의 제어부 구성을 보다 상세히 나타낸 블럭도이다.
도 4는 본 발명의 제1 실시 예에 따른 캐릭터 생성 장치의 구성을 나타낸 블럭도이다.
도 5는 본 발명의 제1 실시 예에 따른 캐릭터 생성 방법을 나타낸 순서도이다.
도 6은 본 발명의 제1 실시 예에 따른 캐릭터 생성 서비스를 지원하는 단말기의 화면 인터페이스를 나타낸 예시도이다.
도 7은 본 발명의 제1 실시 예에 따른 캐릭터 생성 방법의 변형예를 나타낸 신호 흐름도이다.
도 8은 본 발명의 제2 실시 예에 따른 캐릭터 생성 시스템의 개략도이다.
도 9는 본 발명의 제2 실시 예에 따른 캐릭터 생성 장치의 구성을 나타낸 블럭도이다.
도 10은 본 발명의 제2 실시 예에 따른 캐릭터 생성 서비스를 지원하는 단말기의 구성을 나타낸 블럭도이다.
도 11은 본 발명의 제2 실시 예에 따른 캐릭터 생성 방법을 나타낸 신호 흐름도이다.
도 12는 본 발명의 제2 실시 예에 따른 캐릭터 생성 서비스를 지원하는 단말기의 화면 인터페이스를 나타낸 예시도이다.
이하, 본 발명의 실시 예를 첨부된 도면에 의거하여 상세히 설명한다.
실시 예를 설명함에 있어서 본 발명이 속하는 기술분야에 익히 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 또한, 실질적으로 동일한 구성과 기능을 가진 구성 요소들에 대해서는 상세한 설명을 생략하도록 한다.
마찬가지의 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 따라서 본 발명은 첨부한 도면에 그려진 상대적인 크기나 간격에 의해 제한되어지지 않는다.
제1 실시 예
이하, 제1 실시 예에 대한 설명에서는 특정 영상의 얼굴에 대응하여 단말기 또는 캐릭터 생성 장치가 생성한 이미지를 캐리커쳐로 명명한다. 캐리커쳐는 캐릭터 중 보다 희화된 구성을 가지거나 임의의 이미지 효과를 제공하여 심미적으로 특징점들이 부각된 캐릭터가 될 수 있다. 그러나 본 발명이 이에 한정되는 것은 아니며, 본 발명은 사용자의 요구에 따라 또는 시스템 설계자의 요구에 따라 캐리커쳐를 포함한 다양한 이미지 효과를 가지는 캐릭터들이 특정 영상에 대응하는 이미지로 제공할 수 있을 것이다. 따라서 이하에서는 일반적인 의미로서 캐릭터라는 용어를 사용하며, 앞서 언급한 바와 같이 특정 형태의 이미지 제공 형태에 대해서는 캐리커쳐라는 용어를 사용하기로 한다.
아울러, 본 발명에 의한 캐릭터 서비스는 단말기의 스탠드 얼론 동작 또는 단말기와 서버의 연동 동작을 통해서 이루어질 수 있으며, 이하의 실시 예는 이러한 점을 모두 고려한다.
도 1은 본 발명의 제1 실시 예에 따른 캐릭터 생성 시스템의 개략도이다.
도 1을 참조하면, 본 발명의 제1 실시 예에 따른 캐릭터 생성 시스템(10)은 단말기(100) 및 캐릭터 생성 장치(200)를 포함하여 구성될 수 있다.
이러한 캐릭터 생성 시스템(10)은 단말기(100)가 캐릭터 생성 장치(200)를 통하여 생성할 캐리커쳐 제작을 위해 사용자의 얼굴을 포함하는 영상을 수집하고, 수집된 영상을 캐릭터 생성 장치(200)에 전송한다. 그러면 캐릭터 생성 시스템(10)에 포함된 캐릭터 생성 장치(200)는 해당 영상에 대응하는 캐리커쳐를 생성한 후, 이를 단말기(100)에게 제공할 수 있다. 이에 따라 본 발명의 캐릭터 생성 시스템(10)은 단말기(100)에 별도의 캐릭터 생성 프로그램, 얼굴 DB, 색상 DB 및 기타 캐릭터 생성에 필요한 다양한 프로그램이나 데이터가 없더라도 캐릭터 생성 장치(200)를 통하여 캐릭터를 생성하고 이를 이용할 수 있다.
이를 위하여 단말기(100)는 카메라를 운용하여 사용자의 얼굴을 촬영하여 캐리커쳐 생성을 위해 사용할 영상을 획득하거나, 기 저장된 특정 사진을 검색 및 선택함으로써 캐리커쳐 생성을 위한 영상을 수집할 수 있다. 수집된 영상은 사용자 요청에 따라 캐릭터 생성 장치(200)에 전송될 수 있다. 이를 위하여 단말기(100)는 캐릭터 생성 장치(200)에 영상 전송을 위한 통신 채널을 형성할 수 있으며, 이 통신 채널 형성을 지원하는 통신부는 이동통신 모듈, 무선통신 모듈, 유선 통신 모듈 등 다양한 형태로 구현될 수 있다.
한편 단말기(100)는 상술한 통신부의 통신 채널을 통하여 캐릭터 생성 장치(200)로부터 상기 사용자의 얼굴을 포함하는 영상에 대응하여 생성된 다수의 캐리커쳐 샘플을 수신할 수 있다. 그러면 단말기(100)는 캐리커쳐 샘플들로 구성된 캐리커쳐 샘플 화면을 출력하며, 이에 사용자는 자신의 기호에 맞는 캐리커쳐를 적어도 하나 선택할 수 있다. 이러한 선택 작업이 이루어지면 단말기(100)는 캐리커쳐 선택 정보를 캐릭터 생성 장치(200)에 전송할 수 있으며, 단말기(100) 또한, 선택한 캐리커쳐를 저장하고 특정 사용자 기능 운용 시 선택된 캐리커처를 기본 캐릭터 또는 기본 인물 사진으로 이용할 수 있다.
캐릭터 생성 장치(200)는 단말기(100)의 캐릭터 생성 서비스를 지원하는 구성이다. 이러한 캐릭터 생성 장치(200)는 별도의 서버 장치로 구현될 수 있으며, 단말기(100)와 유선 또는 무선으로 연결될 수 있다. 캐릭터 생성 장치(200)는 단말기(100)로부터 얼굴을 포함하는 영상을 수신하고, 수신된 영상을 기반으로 캐리커쳐 샘플들을 생성하여 단말기(100)에 제공할 수 있다. 이후 캐릭터 생성 장치(200)는 단말기(100)가 선택한 캐리커쳐를 특정 사용자(예를 들어, 단말기(100)의 사용자)에 매핑하여 저장하고, 단말기(100)의 특정 사용자 기능 운용 시 해당 캐리커쳐를 제공할 수 있다. 예를 들어, 인스턴트 메신저 기능의 운용 시에, 해당 캐리커쳐를 사용자의 아바타로 표시할 수 있다. 여기서 캐릭터 생성 장치(200)는 캐리커쳐 샘플들을 제공하는 기능까지만 수행하도록 설계될 수도 있다. 이러한 캐릭터 생성 장치(200)는 도 4에 도시된 바와 같은 구성을 포함할 수 있으며, 이에 대해서 후에 더 구체적으로 설명하기로 한다.
도 2는 본 발명의 제1 실시 예에 따른 캐릭터 생성 서비스를 지원하는 단말기의 구성을 나타낸 블럭도이다.
도 2를 참조하면, 본 발명의 제1 실시 예에 따른 단말기(100)는 통신부(110), 입력부(120), 오디오 처리부(130), 표시부(140), 저장부(150), 제어부(160) 및 카메라(170)를 포함할 수 있다.
이와 같은 구성을 가지는 본 발명의 제1 실시 예에 따른 단말기(100)는 카메라(170)를 이용하여 사용자의 얼굴을 촬영하고, 촬영된 사진에서 얼굴의 특징점을 추출한 후, 이를 기반으로 특정 캐리커쳐를 생성할 수 있도록 지원한다. 특히 상기 단말기(100)는 추출된 얼굴의 특징점을 기반으로 캐리커쳐를 생성할 때 와핑(Wapping) 과정 및 기 정의된 적어도 하나의 이미지 효과를 수행함으로써 사용자가 보다 선호할 가능성이 높은 캐리커쳐(Caricature)를 생성하며, 이 과정을 통해 생성된 다수의 캐리커쳐를 샘플로 제공하여 사용자가 원하는 캐릭터를 선택할 수 있도록 지원한다. 추가로 본 발명의 제1 실시 예에 따른 단말기(100)는 단순히 얼굴에 대한 캐리커쳐 뿐만 아니라, 몸통부분이 결합된 1차원 캐리커쳐 및 1차원 캐리커쳐를 기반으로 제작된 3차원 캐리커쳐를 생성하고 이를 제공하도록 지원할 수 있다.
이를 위하여 단말기(100)는 사용자의 얼굴을 포함하는 영상을 촬영하는 카메라(170)를 포함할 수 있다. 카메라(170)는 사용자 제어에 따라 사용자의 얼굴을 포함하는 피사체 영상을 수집하고, 수집된 영상을 제어부(160)에 제공할 수 있다. 이 과정에서 카메라(170)에 의해 촬영된 피사체 영상은 얼굴의 특징점을 추출할 수 있는 형태로 촬영되는 것이 바람직하다. 이에 제어부(160)는 캐리커쳐 생성을 위해 요구되는 얼굴의 특징점 추출이 가능하도록 피사체 영상 촬영 시 이를 유도하도록 제어할 수 있다. 예를 들어 제어부(160)는 피사체 영상에 대한 프리뷰 영상에서 얼굴의 특징점 추출을 실시간으로 또는 일정 주기로 수행하고, 적절한 얼굴 특징점이 추출되도록 안내음이나 램프 점멸 등을 통하여 안내할 수 있다.
카메라(170)는 피사체 영상에 대한 프리뷰 영상이 캐릭터 생성을 위해 요구되는 얼굴의 특징점 추출이 가능한 정도로 검색되면 제어부(160)의 제어에 따라 자동으로 피사체 영상을 촬영할 수 있다. 얼굴 사진을 촬영하는 과정은 타인에 의하여 사진이 촬영되는 상황 이외에 자신이 직접 촬영하는 셀프카메라 촬영으로 진행될 수 있다. 따라서 카메라(170) 및 이를 제어하는 제어부(160)는 상술한 바와 같이 카메라(170)가 촬영한 영상이 캐릭터 생성을 위해 이용될 수 있을 정도로 적절히 촬영되도록 유도함으로써, 추가적인 사진 촬영 등의 불편함을 제거할 수 있도록 지원한다. 한편 캐릭터 생성을 위해 이용되는 얼굴 사진이 상술한 카메라(170)를 통해 수집되지 않고 통신부(110)를 통하여 외부로부터 수신되거나 사전에 저장부(150)에 저장된 형태로 제공되는 경우, 카메라(170)의 구성은 단말기(100)의 구성에서 생략될 수도 있다.
통신부(110)는 단말기(100)의 통신 기능을 지원하는 구성이다. 이러한 통신부(110)는 얼굴 사진을 외부로부터 수신하기 위하여 타 단말기 또는 특정 서비스 장치와 통신 채널을 형성하고, 해당 통신 채널을 통하여 얼굴 사진을 수신할 수 있다. 통신부(110)가 수신한 얼굴 사진은 제어부(160)의 제어에 따라 저장부(150)에 저장되거나 캐릭터 생성을 위하여 실시간으로 이용될 수 있다. 이때 얼굴 사진 수집을 위한 통신부(110)는 유선 및 무선 방식 중 적어도 하나의 방식을 지원하도록 해당 통신 모듈로 구성될 수 있다.
또한 통신부(110)는 생성된 캐리커쳐를 기반으로 이용되는 다양한 통신 서비스를 지원할 수 있다. 예를 들어, 통신부(110)는 캐리커쳐가 선택되면 선택된 캐리커쳐를 채팅 서비스 이용 시 사진 영역에 출력하도록 해당 캐리커쳐에 대한 데이터를 채팅 서비스 지원 장치에 제공할 수 있다. 이를 위하여 통신부(110)는 채팅 서비스 지원 장치와 통신 채널을 형성하고, 형성된 통신 채널을 통하여 송수신되는 텍스트 메시지 등 이외에 선택된 캐리커쳐 데이터를 전송할 수 있다. 채팅 서비스 지원 장치는 특정 단말기(100)가 제공한 캐리커쳐 데이터를 저장하고, 추후 해당 단말기(100)의 채팅 서비스 지원 시 사진 영역에 이를 적용하도록 지원할 수 있다. 또한 통신부(110)는 선택된 캐리커쳐를 기반으로 운용될 수 있는 다양한 통신 서비스 예를 들면, 이메일 서비스, 메시지 제공 서비스, 웹 접속 서비스, 캐리커쳐 기반의 게임 서비스 등을 지원하는 통신 채널 형성을 지원할 수 있다.
상술한 통신부(110)는 무선통신뿐만 아니라 유선 통신 방식을 지원하기 위한 통신 모듈로 구성될 수도 있으며, 이에 따라 네트워크 시스템 또한 해당 통신 방식을 지원하기 위한 통신 네트워크 장치들로 구성될 수 있다. 이동통신 또는 무선통신 기능을 지원하는 경우 통신부(110)는 CDMA, GSM 등의 통신 방식을 지원하는 통신 모듈뿐만 아니라, WCDMA, OFDMA 방식 등 2G, 3G, 4G 등 다양한 통신 방식을 지원하는 통신 모듈 중 적어도 하나로 구성될 수 있다. 한편, 캐릭터 생성 시스템에서는 캐릭터 생성을 서비스 장치에서 제공하도록 카메라(170)가 촬영한 사진을 캐릭터 생성 장치에 전송할 수 있는 통신 채널 형성을 지원할 수 있다. 이에 대한 설명은 후술하는 도면을 참조하여 보다 상세히 설명하기로 한다.
입력부(120)는 키버튼 등으로 형성될 수 있으며, 단말기(100)가 풀 터치스크린으로 제작되는 경우 사이드 키나 별도의 핫 키 등으로 구성될 수 있으며, 또한 단말기(100)의 터치스크린에 표시되는 키 맵을 포함할 수 있다. 이러한 입력부(120)는 숫자 또는 문자 정보를 입력 받고 각종 기능들을 설정하기 위한 다수의 입력키 및 기능키들을 포함할 수 있다.
특히 입력부(120)는 캐릭터 생성을 위한 프로그램 활성화를 위한 입력 신호, 얼굴을 포함하는 영상 수집을 위한 입력 신호, 수집된 영상을 기반으로 생성된 캐리커쳐 샘플들 중에 특정 캐리커쳐를 선택하기 위한 입력 신호, 선택된 캐리커쳐 기반으로 운용되는 다양한 서비스 운용을 제어하기 위한 입력 신호 등을 사용자 조작에 따라 생성할 수 있다. 여기서 얼굴을 포함하는 영상 수집을 위한 입력 신호는 카메라(170)를 통하여 얼굴을 포함하는 영상을 촬영하기 위해 필요한 입력 신호들 및 기 저장된 다수의 영상 중에서 사용자의 얼굴을 포함하는 영상을 선택하는데 필요한 입력 신호들, 통신부(110)를 통하여 외부로부터 얼굴을 포함하는 영상을 수신하기 위해 필요한 입력 신호들 중 적어도 하나를 포함할 수 있다.
오디오 처리부(130)는 단말기(100) 운용 과정에서 발생하는 다양한 오디오 데이터를 출력하기 위한 스피커(SPK)와 오디오 데이터 수집을 위한 마이크(MIC)를 포함할 수 있다. 특히 오디오 처리부(130)는 제어부(160)의 제어에 따라서 캐릭터 생성 서비스 지원 과정에서 발생하는 다양한 오디오 데이터의 출력을 지원한다. 예를 들어 앞서 설명한 바와 같이 카메라(170)를 운용하여 캐릭터를 생성하기 위해 사용될 얼굴 사진 촬영 시, 적절한 얼굴의 특징점 추출이 가능한 얼굴을 포함하는 영상이 촬영되도록 안내하는 안내음 출력할 수 있다.
예를 들어, 오디오 처리부(130)는 얼굴의 특징점 추출이 가능할 정도의 크기로 영상이 촬영되도록 줌인/아웃을 요청하거나 피사체의 이동을 요청하는 안내음 또는 피사체가 적절한 포커싱을 가지도록 안내하는 안내음 등을 출력할 수 있다. 또한 오디오 처리부(130)는 제공된 얼굴을 포함하는 영상을 기반으로 특정 캐리커쳐 샘플들을 생성하는 과정까지 수행되는 각 과정에 관한 안내음 등을 제공할 수 있다. 상술한 오디오 처리부(130)의 안내음 출력은 사용자 제어에 따라 생략되거나, 설계자의 의도에 따라 제공되지 않을 수도 있다.
표시부(140)는 단말기(100)의 각종 메뉴를 비롯하여 사용자가 입력한 정보 또는 사용자에게 제공하는 정보를 표시한다. 즉 표시부(140)는 단말기(100) 이용에 따른 다양한 화면 예를 들면, 대기화면, 메뉴 화면, 메시지 작성 화면, 통화 화면, 단말기 종료 화면, 단말기 부팅 화면 등을 제공할 수 있다. 이러한 표시부(140)는 액정 표시 장치(Liquid Crystal Display), OLED(Organic Light Emitted Diode) 등의 평판 표시 패널의 형태로 형성될 수 있다. 표시부(140)는 제조 형태에 따라 표시 패널과 터치 패널을 포함하는 구조로 제작될 수 있다.
특히 표시부(140)는 캐릭터 생성을 지원하는 다양한 화면 인터페이스를 제공할 수 있다. 예를 들어, 표시부(140)는 캐릭터 생성을 위해 이용될 얼굴을 포함하는 영상을 촬영하기 위한 화면 인터페이스, 촬영된 또는 저장된 영상을 기반으로 생성된 다양한 캐리커쳐 샘플들을 제공하기 위한 화면 인터페이스를 제공할 수 있다. 또한 표시부(140)는 선택된 캐리커쳐를 기반으로 운용되는 특정 통신 서비스 지원 화면을 출력할 수 있다. 상술한 표시부(140)를 통하여 제공되는 화면 인터페이스의 일례에 대하여 후술하는 도면을 참조하여 보다 상세히 설명하기로 한다.
저장부(150)는 본 발명의 실시 예에 따른 기능 동작에 필요한 응용 프로그램을 비롯하여, 표시부(140)에 출력될 화면 이미지 등을 저장한다. 그리고 저장부(150)는 표시부(140)가 터치스크린으로 구성되는 경우 터치스크린 운용을 위한 키 맵이나 메뉴 맵 등을 저장할 수 있다. 여기서 키 맵, 메뉴 맵은 각각 다양한 형태가 될 수 있다. 즉, 키맵은 키보드 맵이나, 3*4 키 맵, 쿼티 키 맵 등이 될 수 있고, 현재 활성화되고 있는 응용 프로그램의 운용 제어를 위한 제어키 맵이 될 수 도 있다. 또한, 메뉴 맵은 현재 활성화되고 있는 응용 프로그램 운용 제어를 위한 메뉴 맵이 될 수 도 있다. 이러한 저장부(150)는 단말기(100)의 부팅 및 상술한 각 구성의 운용을 위한 운영체제(OS, Operating System), 다양한 사용자 기능 예를 들면, 단말기(100)의 통화기능 지원을 위한 사용자 기능, 기타 음원을 재생하기 위한 MP3 사용자 기능, 사진 등을 재생하기 위한 이미지 출력 기능, 동영상 재생 기능 등을 각각 지원하기 위한 응용 프로그램 등을 저장할 수 있다.
특히, 저장부(150)는 캐릭터 생성을 지원하기 위한 캐릭터 생성 프로그램(151), 캐릭터 생성 과정에서 이용되는 얼굴 DB(153), 색상 DB(155) 등을 저장할 수 있다. 추가로 저장부(150)는 선택된 캐리커쳐를 3D로 구현하기 위한 3D 랜더링 프로그램을 더 포함할 수 있다. 또한 저장부(150)는 선택된 캐리커쳐를 기반으로 하는 통신 서비스 지원을 위한 다양한 응용 프로그램, 예를 들면 캐리커쳐를 기반으로 운용되는 채팅 서비스 운용 프로그램, 게임 프로그램, 메시지 운용 프로그램, 메모 운용 프로그램 등을 저장할 수 있다.
캐릭터 생성 프로그램(151)은 본 발명의 제1 실시 예에 의한 캐릭터 생성 서비스 지원을 위한 다양한 루틴을 포함하는 구성이다. 예를 들어, 캐릭터 생성 프로그램(151)은 카메라(170)를 통하여 수집된 영상 또는 통신부(110)를 통하여 수신된 영상에서 얼굴의 특징점을 추출하는 루틴, 추출된 특징점과 가장 유사한 정보를 가진 얼굴 이미지를 얼굴 DB(153)에서 검색하는 루틴을 포함할 수 있다. 또한 캐릭터 생성 프로그램(151)은 얼굴 DB(153)에서 검색된 얼굴 이미지에 와핑을 적용하는 루틴, 와핑 적용된 얼굴 이미지를 사전 정의된 일정 비율로 보정하는 루틴, 비율 보정된 얼굴 이미지를 기반으로 다수개의 캐리커쳐 샘플을 생성하는 루틴, 생성된 캐리커쳐 샘플 중 선택된 특정 캐리커쳐 샘플을 단말기(100)의 기본 캐리커쳐로 적용하는 루틴을 포함할 수 있다.
얼굴 DB(153)는 다양한 특징점들로 구성되는 다수의 얼굴 이미지를 저장하는 데이터베이스이다. 이러한 얼굴 DB(153)는 수집된 영상에서 추출된 특징점들과 비교될 수 있다. 더 구체적으로, 얼굴 DB(153)에는 눈썹, 눈, 코, 입 등 다양한 특징점들로 구성된 다양한 얼굴 이미지들을 포함할 수 있다.
색상 DB(155)는 얼굴의 피부색에 맞는 색상 변형을 제공하기 위한 구성이다. 이러한 색상 DB(155)는 다양한 색상들을 항목들로 포함하여, 얼굴 사진에 부합되는 색상들과 동일한 색상을 제공할 수 있다. 특히 색상 DB(155)는 캐리커쳐 생성 시 필요한 색상들을 제공할 수 있다.
한편 저장부(150)는 와핑 프로그램을 저장할 수 있다. 와핑 프로그램은 얼굴 특징점 등 이미지의 특정 부위를 왜곡시키는 프로그램으로서, 다양한 얼굴 특징점 중에서 사전 정의된 일정 부분들을 일정 형태로 왜곡시킴으로써 사용자가 보다 선호할 수 있는 형태의 캐리커쳐 생성을 지원할 수 있다. 예를 들어 와핑 프로그램은 특징점 중에서 눈의 크기를 사전 정의된 일정 크기로 확대시키거나, 턱을 일정 형태의 굴곡도를 가지도록 왜곡시킬 수 있다. 즉 본 발명의 제1 실시 예에 적용되는 와핑 프로그램은 이미지를 왜곡시키되 특징점들을 사전 정의된 미남형 또는 미인형의 형태가 될 수 있도록 왜곡시킬 수 있다. 여기서 미남형 또는 미인형 왜곡은 다양한 실험과 통계를 토대로 결정되는 것으로서, 눈, 눈동자, 입의 형태, 입꼬리의 배치, 턱의 형태, 광대뼈 및 볼의 형태 등 얼굴을 구성하는 다양한 특징점들이 소정의 비율로서 변형함으로써 변형된 이미지가 보다 호감이 가는 형태로 왜곡할 수 있다. 또는 상술한 얼굴의 특징점들이 호감 가능 형태의 특정 모양으로 변형되도록 지원할 수 있다. 더불어, 얼굴의 특징점들 중에서, 입, 눈, 이마 등에 형성된 주름을 추출하고 이를 의도적으로 제거하여 보다 젊은 이미지를 제공함으로써, 사용자가 더 선호할 수 있는 형태의 캐리커쳐 생성을 지원할 수 있다.
제어부(160)는 본 발명의 캐릭터 생성 서비스를 지원하기 위한 신호 흐름 제어와, 데이터 처리 및 캐리커쳐 샘플들의 표시 제어를 수행한다. 그리고 제어부(160)는 특정 캐리커쳐가 선택되면, 선택된 캐리커쳐를 기반으로 다양한 사용자 기능 지원을 제어할 수 있다. 이를 위하여 제어부(160)는 도 3에 도시된 바와 같은 구성을 포함할 수 있다.
도 3은 도 2에 도시된 단말기의 제어부 구성을 보다 상세히 나타낸 블럭도이다.
도 3을 참조하면, 본 발명의 제1 실시 예에 따른 제어부(160)는 영상 수집부(161), 얼굴 특징 추출부(162), 얼굴 특징 확대부(163), 얼굴 캐리커쳐 생성부(164), 몸통 생성부(165), 1차원 캐리커쳐 생성부(166), 입체모션 제작부(167), 3차원 캐리커쳐 생성부(168), 캐리커쳐 운용부(169)의 구성을 포함할 수 있다.
영상 수집부(161)는 영상을 수집하기 위한 다양한 신호 처리와 데이터 수집을 제어하는 구성이다. 예를 들어 영상 수집부(161)는 캐릭터 생성 서비스를 활성화하는 입력 신호가 발생하면, 카메라(170)를 자동으로 활성화하도록 제어할 수 있다. 그리고 영상 수집부(161)는 카메라(170)를 통하여 특징점 추출이 가능한 얼굴을 포함하는 영상의 촬영을 지원할 수 있다.
이를 보다 상세히 설명하면, 영상 수집부(161)는 카메라(170)의 활성화와 함께 프리뷰 영상을 확인하여 기 설정된 일정 형태의 특징점들을 가지는 얼굴이 있는지 확인한다. 이때, 영상 수집부(161)는 프리뷰 영상에 얼굴이 검출되지 않는 경우 얼굴을 촬영 각도 내로 진입시키도록 안내음 출력을 제어할 수 있다. 그리고 영상 수집부(161)는 사용자의 얼굴이 촬영 각도 내로 진입하였으나, 영상 인식을 통하여 특징점 추출이 불가능한 경우 특징점 추출이 가능한 형태로 촬영되도록 하기 위하여 카메라(170)의 자동 줌인 또는 줌아웃을 조정하거나 또는 카메라(170) 관련 특정 조작을 안내하거나 피사체의 이동을 안내하도록 제어할 수 있다. 또는 영상 수집부(161)는 캐릭터 생성 서비스를 활성화하는 입력 신호가 발생하면, 저장부(150)에 저장된 영상들 중 얼굴을 포함한 영상들을 검색할 수 있는 화면을 출력하도록 지원할 수 있다. 그리고 영상 수집부(161)는 특정 영상이 선택되면, 선택된 영상을 캐릭터 생성 서비스를 위해 얼굴 특징 추출부(162)에 전달할 수 있다.
얼굴 특징 추출부(162)는 영상 수집부(161)로부터 얼굴을 포함하는 영상을 전달받으면, 해당 영상에서 얼굴의 특징점들을 추출한다. 이를 위하여 얼굴 특징 추출부(162)는 영상 필터링 등의 방법을 통하여 영상으로부터 특징이 될 수 있는 포인트들을 검출하고, 특징점 추출 알고리즘을 이용하여 해당 포인트들의 특징점에 대한 판단을 수행할 수 있다. 얼굴 특징 추출부(162)는 특징점 추출이 완료 되면, 해당 특징점들을 영상에 표시하여 어떠한 부분들이 특징점으로 추출되었는지를 표시하도록 제어할 수 있다. 이때 특징점 표시에 대하여 별도의 표시 기능을 제공하지 않도록 설계되는 경우 얼굴 특징 추출부(162)의 특징점 표시 기능은 생략될 수 있다. 특히, 얼굴 특징 추출부(162)는 얼굴 DB(153)으로부터 추출된 특징점과 가장 유사한 얼굴 항목의 조합으로 이루어진 얼굴 이미지를 검색할 수 있다. 그리고, 얼굴 특징 추출부(162)는 상기 얼굴 DB(152)로부터 검색된 얼굴 이미지를 얼굴 특징 확대부(163)에 전달할 수 있다.
얼굴 특징 확대부(163)는 얼굴 특징 추출부(162)로부터 전달받은 얼굴 이미지의 각 특징점들 및 특징점들을 포함하는 일정 영역을 사전 정의된 일정 비율로 확대 또는 축소한다. 이러한 얼굴 특징 확대부(163)는 저장부(150)에 저장된 와핑 프로그램을 기반으로 얼굴의 특징점들을 사전 정의된 호감이 가는 일정 비율들로 확대시키거나 축소시킬 수 있다. 또한 얼굴 특징 확대부(163)는 얼굴의 크기 자체에 대해서도 일정 비율로 확대 또는 축소하도록 지원할 수 있다.
얼굴 캐리커쳐 생성부(164)는 얼굴 특징 확대부(163)가 저장부(150)에 저장된 프로그램 또는 사전 정의된 비율 등으로 얼굴의 특징점들을 확대 또는 축소하여 보정된 얼굴 이미지를 제공하면, 보정된 얼굴 이미지를 기반으로 다수의 캐리커쳐 샘플을 생성하도록 지원한다. 이때 얼굴 캐리커쳐 생성부(164)는 보정된 얼굴 이미지에 대하여 다양한 이미지 효과를 적용함으로써, 호감도가 높은 다수의 캐리커쳐 샘플들을 생성할 수 있다. 예를 들어, 상기 얼굴 캐리커쳐 생성부(164)는 캐리커처를 생성하는데 있어서, 입, 눈, 이마 등에 형성된 주름을 의도적으로 제거하여 보다 젊은 이미지로 보여지도록 처리하거나, 얼굴의 가로 길이가 평균보다 넓은 경우, 눈의 특징을 강조하면서 얼굴을 소정 비율(예를 들어, 10%) 정도 축소함으로써, 보다 호감 가는 캐리커처를 생성할 수 있다. 이에 대하여 후술하는 도면을 참조하여 보다 상세히 설명하기로 한다.
몸통 생성부(165)는 사용자의 캐리커쳐 구성 중 몸통을 생성하는 구성이다. 이를 위하여 몸통 생성부(165)는 최초 영상에서 몸통 부분이 제공되었는지를 확인하고, 해당 영상에서 몸통 부분이 포함된 경우, 몸통 부분을 추출하여 캐리커쳐의 몸통 부위로 이용할 수 있도록 가공할 수 있다. 이때 몸통 생성부(165)는 상기 생성한 캐리커쳐 샘플에 부합하도록 몸통 부위를 가공할 수 있다. 즉 몸통 생성부(165)는 캐리커쳐 샘플들의 색상이나 얼굴 비율 등에 부합하도록 사전 정의된 일정 양식에 따라 몸통 부위를 가공할 수 있다.
한편 몸통 생성부(165)는 최초 영상에서 몸통 부분이 없는 경우, 사전 저장된 몸통 중 특정 몸통을 캐리커쳐에 적용할 몸통으로 선택할 수 있다. 특히 몸통 생성부(165)는 캐리커쳐의 얼굴 비율을 확인하고, 해당 얼굴 비율에 대응하는 몸통을 선택하도록 제어하며, 캐리커쳐의 얼굴 색상을 확인하여 그에 대응하는 색상을 가지는 몸통을 생성하도록 지원할 수 있다. 이에 따라 몸통 생성부(165)는 다수개의 캐리커쳐 샘플들 각각에 대하여 적어도 하나의 몸통을 생성하고 이를 1차원 캐리커쳐 생성부(166)에 제공할 수 있다.
1차원 캐리커쳐 생성부(166)는 얼굴 캐리커쳐 생성부(164)가 생성한 캐리커쳐 샘플들과 몸통 생성부(165)가 제공한 몸통들을 조합하여 1차원 캐리커쳐를 생성하는 구성이다. 이때 1차원 캐리커쳐 생성부(166)는 캐리커쳐 샘플들의 얼굴색상이나 얼굴 비율에 어울리는 몸통을 연결하여 1차원 캐리커쳐를 생성할 수 있다.
입체모션 제작부(167)는 1차원 캐리커쳐가 생성되면, 1차원 캐리커처를 회전시키는 등의 방식으로 입체모션을 생성한다. 특히 입체모션 제작부(167)는 1차원 캐리커쳐의 각 부위별 회전이나 부피 적용 등의 처리를 통하여 입체모션이 이루어지도록 제작할 수 있다.
3차원 캐리커쳐 생성부(168)는 입체모션 제작부(167)가 생성한 1차원 캐리커쳐의 입체 모션을 기반으로 3차원 캐리커쳐를 생성한다. 3차원 캐리커쳐 생성부(168)는 기 설정된 이미지 효과를 입체 모션에 적용하여 3차원 캐리커쳐를 생성하도록 지원할 수 있다.
캐리커쳐 운용부(169)는 얼굴 캐리커쳐 생성부(164), 1차원 캐리커쳐 생성부(166) 및 3차원 캐리커쳐 생성부(168) 중 적어도 하나로부터 캐리커쳐를 전달받고 이를 표시부(140)에 출력할 수 있다. 그리고 캐리커쳐 운용부(169)는 다양한 캐리커쳐 중 선택된 특정 캐리커쳐를 단말기(100)의 기본 캐리커쳐로 지정할 수 있다. 기본 캐리커쳐는 단말기의 통신 기능 운용 중 사진 또는 아바타 설정이 요구되는 통신 기능 활성화 시 사용자 선택에 따라 운용될 수 있다. 예를 들어 채팅 서비스 등의 사용자 사진으로 제공될 수 있다.
도 4는 본 발명의 제1 실시 예에 따른 캐릭터 생성 장치의 구성을 나타낸 블럭도이다.
도 4를 참조하면, 본 발명의 제1 실시 예에 따른 캐릭터 생성 장치(200)는 장치 통신부(210), 장치 저장부(250) 및 장치 제어부(260)의 구성을 포함할 수 있다.
장치 통신부(210)는 캐릭터 생성 서비스 장치(200)에 접속을 요청하는 단말기(100)와 통신 채널을 형성하고, 해당 통신 채널을 통하여 캐릭터 생성 서비스 지원에 필요한 다양한 신호를 송수신하도록 지원하는 구성이다. 예를 들어 장치 통신부(210)는 캐릭터 생성 서비스를 요청하는 단말기(100)에게 캐릭터 생성을 위해 사용할 영상을 전송할 것을 요청하는 메시지를 전송할 수 있다. 그리고 장치 통신부(210)는 해당 메시지에 대응하는 영상을 수신하고, 수신된 영상을 장치 제어부(260)에 제공할 수 있다. 한편 장치 통신부(210)는 캐리커쳐 샘플들이 생성되면, 해당 캐리커쳐 샘플들에 대한 데이터를 단말기(100)에 제공할 수 있다. 추가로 장치 통신부(210)는 단말기(100)가 선택한 캐리커쳐 정보를 수신하고 이를 장치 제어부(260)에 제공할 수 있다. 상술한 장치 통신부(210)는 단말기(100)의 캐리커쳐 생성을 지원하기 위해 필요한 데이터를 송수신할 수 있는 적어도 하나의 통신 방식 지원의 통신 모듈이 될 수 있으며, 따라서 본 발명의 제1 실시 예에 따른 장치 통신부(210)는 특정 통신 방식 또는 특정 통신 모듈로 한정되는 것은 아니다.
장치 저장부(250)는 캐릭터 생성 서비스 지원을 위해 얼굴 DB(251), 색상 DB(253), 캐리커쳐 DB(255)를 포함할 수 있다. 또한 장치 저장부(250)는 얼굴 DB(251) 및 색상 DB(253)와 수신된 영상 이용하여 캐리커쳐 샘플들을 생성하기 위한 캐리커쳐 생성 프로그램을 저장할 수 있다. 여기서 캐리커쳐 생성 프로그램은 캐릭터 생성 장치(200)의 장치 제어부(260)에 임베디드 되어 캐릭터 생성 서비스를 지원하는 형태로 구현될 수도 있다.
얼굴 DB(251)는 다양한 특징점들을 가지는 다양한 얼굴 이미지들을 저장한다. 이러한 얼굴 DB(251)는 단말기(100)가 전송한 영상에서 얼굴의 특징점들이 추출되면, 추출된 얼굴의 특징점들과 가장 유사한 얼굴 이미지를 검색하는데 이용될 수 있다. 얼굴 DB(251)에서 검색된 얼굴 이미지는 캐리커쳐 샘플들을 생성하기 위하여 장치 제어부(260)에 제공될 수 있다.
색상 DB(253)는 수신된 영상의 얼굴 색상과 관련된 다양한 색상 정보를 포함하는 구성이다. 이러한 색상 DB(253)는 수신된 영상을 통하여 캐리커쳐 샘플들을 생성하는 과정에서 각 캐리커쳐들 생성에 필요한 색상 정보를 제공한다. 즉 색상 DB(253)는 얼굴 이미지들의 보정 시에 적용한 색상 정보들을 제공한다. 이때 색상 DB(253)는 장치 제어부(260) 요청에 따라 수신된 영상에서 얼굴의 색상과 유사한 색상 정보들을 우선적으로 제공할 수 있다.
캐리커쳐 DB(255)는 캐릭터 생성 장치(200)가 생성한 캐리커쳐 샘플들을 저장하는 구성이다. 특히 캐리커쳐 DB(255)는 단말기(100)를 통해 선택한 적어도 하나의 캐리커쳐들을 특정 사용자와 서로 매핑하여 저장할 수 있다. 저장된 캐리커쳐는 해당 단말기(100)의 캐리커쳐 기반의 사용자 기능 운용을 위해 이용될 수 있다.
장치 제어부(260)는 단말기(100)의 접속 과정 및 단말기(100) 요청에 따라 캐릭터 생성을 지원하기 위해 필요한 다양한 신호 흐름을 제어하는 구성이다. 이러한 장치 제어부(260)는 단말기(100)의 접속을 위해 사전 등록된 인증 정보 확인을 수행할 수 있으며, 인증 정보 확인이 완료되면 단말기(100)로부터 캐릭터 생성 서비스 요청이 발생하는 경우 해당 캐릭터 생성을 지원한다. 이를 보다 상세히 설명하면, 장치 제어부(260)는 단말기(100)에게 캐릭터 생성을 위해 사용할 영상을 전송할 것을 요청하는 메시지를 작성하고 이를 장치 통신부(210)를 통하여 단말기(100)에 전송하도록 제어할 수 있다. 그리고 장치 제어부(260)는 단말기(100)로부터 영상을 수신하면, 수신된 영상에서 얼굴의 특징점들을 추출할 수 있다. 특징점 추출을 위하여 장치 제어부(260)는 영상의 필터링 및 데이터 영역 검색 등을 수행할 수 있으며, 특정 데이터 분포 지역들의 배치 관계, 특정 데이터의 분포 형태 등을 통하여 특징점들에 대한 정보를 수집할 수 있다.
장치 제어부(260)는 특징점들이 추출되면, 해당 특징점들과 가장 유사한 얼굴 이미지를 얼굴 DB(251)에서 검색하고, 검색된 얼굴 이미지를 캐리커쳐 샘플을 생성하는데 이용할 수 있다. 여기서 얼굴 DB(251)에 포함되는 얼굴 이미지들은 특정 형태의 캐리커쳐의 기본 뼈대를 구성하는데 이용될 수 있는 정형화된 기본 이미지가 될 수 있다. 장치 제어부(260)는 정형화된 얼굴 이미지를 이용함으로써, 특징점 변경과 다양한 이미지 효과의 적용을 보다 신속하고 정확하게 수행할 수 있으며, 실제 캐리커쳐 생성 시 연산 부하를 감소시킬 수 있다.
여기서 장치 제어부(260)는 정형화된 얼굴 이미지를 기반으로 캐리커쳐를 생성하되, 얼굴 사진에서 추출한 특징점들의 특성을 적용하여 특정 단말기(100)만의 고유한 캐리커쳐가 되도록 지원할 수 있다. 예를 들어 장치 제어부(260)는 이미지 보정 과정에서 적용되는 비율 조정에 영상에서 추출한 특징점들 간의 관계 정보를 적용함으로써 정형화된 얼굴 이미지를 기반으로 캐리커쳐를 생성하더라도 사용자 얼굴의 특징이 나타나는 형태로 이미지 보정을 수행할 수 있다.
장치 제어부(260)는 검색된 얼굴 이미지에 사전 정의된 특징점 또는 그를 기준으로 한 일정 영역들에 대한 와핑 기능을 적용하고, 이미지의 비율을 조정하여 보정된 이미지를 생성하고, 이에 사전 정의된 적어도 하나의 이미지 효과를 부여하여 다양한 캐리커쳐 샘플들을 생성할 수 있다. 이미지 효과 부여 시 장치 제어부(260)는 색상 DB(253)를 이용하되 얼굴 사진에서 추출한 색상과 관련된 색상을 이용할 수 있다. 상술한 과정을 통하여 캐리커쳐 샘플들이 생성되면 장치 제어부(260)는 이를 단말기(100)에 제공할 수 있다.
한편, 장치 제어부(260)는 서비스 정책에 따라 캐릭터 생성과 관련한 일정 과금을 부여할 수도 있다. 이때 장치 제어부(260)는 서비스 정책에 따라 기본 캐리커쳐 샘플들을 무료로 제공할 수 있으며, 특정 단말기(100)들이 요구하는 추가적인 캐리커쳐 샘플들의 요청이 발생하는 경우 해당 이벤트 발생에 따라 일정 과금을 부여할 수 있다. 또는 장치 제어부(260)는 캐리커쳐 샘플 당 일정 과금이 부여되는 정책에 따라 과금을 부여할 수도 있다.
다음으로, 상술한 구성을 기반으로 한 캐릭터 생성 서비스 동작을 설명한다.
도 5는 본 발명의 제1 실시 예에 따른 캐릭터 생성 방법을 나타낸 순서도이다.
도 5를 참조하면, 먼저 단말기(100)의 입력부(120) 또는 입력 기능의 표시부(140)로부터 입력 신호가 발생하면, 301 단계에서 해당 입력 신호가 캐리커쳐 생성을 위한 입력 신호인지 여부를 확인한다. 이를 위하여 단말기(100)는 캐리커쳐 생성을 위한 아이콘이나 위젯 또는 메뉴 항목을 제공할 수 있다. 그러면 사용자는 해당 아이콘이나 위젯 또는 메뉴 항목을 선택하여 캐리커쳐 생성 기능을 활성화하도록 지원할 수 있다.
301 단계에서 캐리커쳐 생성을 위한 입력 신호가 아닌 경우 단말기(100)의 제어부(160)는 303 단계로 분기하여 입력 신호에 따른 기능 수행을 제어할 수 있다. 예를 들어 제어부(160)는 입력 신호 종류에 따라 파일 검색 기능, 파일 재생 기능, 파일 전송 기능, 통화 기능, 방송 수신 기능, 게임 기능, 채팅 기능 등 다양한 사용자 기능을 활성화하고 이를 지원하도록 제어할 수 있다.
한편 301 단계에서 발생한 입력 신호가 캐리커쳐 생성을 위한 입력 신호인 경우 제어부(160)는 305 단계로 분기하여 캐리커쳐 생성을 위한 사용자의 영상을 수집한다. 실질적으로 이 단계는 카메라(170)를 운용하여 사용자의 얼굴 영역을 포함하는 피사체 영상을 촬영하는 단계이거나, 저장부(150)에 기 저장된 영상 중 특징점 추출이 가능한 얼굴 영역을 가지는 영상을 사용자 지시에 의하여 선택하는 단계가 될 수 있다.
다음으로 제어부(160)는 307 단계에서 수집된 영상의 특징점 분석을 수행한다. 여기서 제어부(160)는 309 단계에서와 같이 저장부(150)에 저장된 얼굴 DB(153)를 참조하여 분석된 특징점과 가장 유사한 얼굴 이미지를 검색할 수 있다.
그리고 제어부(160)는 311 단계에서 추출된 특징점들과 가장 유사한 얼굴 이미지에 대한 와핑 수행을 지원한다. 이 단계에서 제어부(160)는 사전 정의된 규칙에 따라 얼굴의 특징점들에 대한 왜곡을 수행할 수 있다. 예를 들어 제어부(160)는 특징점들의 크기를 조정하거나, 특징점들의 비율을 조절하거나, 특징점들의 형태를 다른 이미지로 교체하는 등의 왜곡 과정을 수행할 수 있다. 또한 제어부(160)는 313 단계에서 사전 정의된 비율을 적용하여 이미지 보정을 수행할 수 있다. 이 단계는 얼굴 이미지에 평균적으로 그리고 심미적으로 아름답게 느끼는 공통적 요소를 적용하는 단계가 될 수 있다. 예를 들어, 눈을 좀 더 크게 하거나, 얼굴의 형태를 보다 둥글게 하거나, 입꼬리 처리를 부드럽게 하는 등의 보정이 수행될 수 있다. 또한, 사용자 선호도를 만족시킬 수 있도록, 입, 눈, 이마 등의 주름을 의도적으로 제거하거나, 얼굴의 가로 길이가 평균보다 넓은 경우, 이를 보완하기 위하여 눈의 특징을 강조하면서 얼굴의 전체 크기를 소정 비율(예를 들어, 10% 정도) 축소하는 보정을 수행할 수 있다. 여기서, 이미지 보정은, 얼굴 또는 몸통과 얼굴에 대하여 색을 변형시키는 처리, 특징점들을 단순화시키는 처리, 특징점들 중 적어도 일부를 일정 형태의 이미지로 대체하는 처리, 특징점들 중 적어도 일부에 대하여 특정 색 처리를 수행, 특징점들 중 적어도 일부를 입체화 하는 처리 중에서 하나 이상을 포함하는 이미지 효과를 적용하여 이루어질 수 있다.
다음으로 제어부(160)는 315 단계에서 캐리커쳐 샘플 생성 및 출력을 지원한다. 이를 위하여 제어부(160)는 보정된 이미지를 기반으로 다수의 캐리커쳐 샘플을 생성한다. 이때 제어부(160)는 사전 정의된 다양한 캐리커쳐 생성 방식에 따라 캐리커쳐 샘플을 생성할 수 있다. 예를 들어, 제어부(160)는 수집된 이미지의 외곽선을 기계적으로 적용한 캐리커쳐, 판화 형식을 적용한 캐리커쳐, 만화 형식을 적용한 캐리커쳐, 3D 그래픽 형식을 적용한 캐리커쳐 등을 생성하고, 이를 표시부(140)에 출력하도록 지원할 수 있다. 이에 대하여 도 6의 화면 인터페이스 설명과 함께 보다 상세히 설명하기로 한다. 또한, 315 단계에서, 제어부(160)는, 상기 영상의 얼굴 특징점들을 변경하거나 변경된 얼굴 특징점들에 적어도 하나의 이미지 효과를 적용하여 생성된 적어도 하나의 얼굴 캐리커쳐와, 상기 얼굴 캐리커쳐에 몸통을 적용한 1차원 캐리커쳐와, 상기 1차원 캐리커쳐의 입체 모션을 제작하여 구성한 3차원 캐리커쳐 중 적어도 하나를 생성할 수 있다.
다음으로 제어부(160)는 317 단계에서 특정 캐리커쳐를 선택하기 위한 사용자의 입력 신호 발생이 있는지 여부를 확인한다. 이 단계에서 특정 캐리커쳐가 선택되면 제어부(160)는 319 단계로 분기하여 선택된 캐리커쳐를 단말기(100)에 적용하여 단말기(100)가 지원하는 캐리커쳐 기반의 다양한 사용자 기능 운용 시 이를 기반으로 운용되도록 제어할 수 있다.
한편 제어부(160)는 317 단계에서 별다른 캐리커쳐 선택이 없는 경우 319 단계를 생략할 수 있다. 그리고 제어부(160)는 321 단계로 분기하여 단말기(100)의 기능 종료 여부를 확인하고, 기능 종료를 위한 입력 신호가 발생하면, 301 단계 이전으로 분기하여 이하 과정을 재수행하도록 제어할 수 있다.
도 6은 본 발명의 제1 실시 예에 따른 캐릭터 생성 서비스를 지원하는 단말기의 화면 인터페이스를 나타낸 예시도이다. 도 6은 캐리커쳐 샘플 출력의 예를 보여준다.
도 6을 참조하면, 먼저 캐리커쳐 생성 기능이 활성화되면 단말기(100)는 401 화면에서와 같이 캐리커쳐 생성을 위해 사용할 영상을 수집할 수 있다. 이를 위하여 단말기(100)는 카메라(170)를 활성화하고, 카메라를 이용한 영상 촬영에 따른 영상 수집 화면(141)을 표시부(140)에 출력할 수 있다. 또는 단말기(100)는 저장부(150)에 기 저장된 영상을 호출한 영상 수집 화면(141)을 표시부(140)에 출력할 수 있다.
이후 사용자가 해당 영상을 기반으로 캐리커쳐를 생성하도록 지시하는 입력 신호를 생성하는 경우, 다양한 캐리커쳐를 생성하고, 생성된 캐리커쳐를 403 화면에서와 같이 캐리커쳐 샘플 화면(40)으로 출력하도록 제어할 수 있다. 이를 보다 상세히 설명하면, 제어부(160)는 저 예를 들어 4개의 캐리커쳐 샘플들을 생성할 수 있다. 즉 제어부(160)는 얼굴 사진의 외곽선을 기계적으로 적용하는 제1 캐리커쳐(41), 얼굴 사진을 판화 형식에 따라 이미지 조정한 제2 캐리커쳐(42), 얼굴 사진을 만화 형식에 따라 조정한 제3 캐리커쳐(43), 얼굴 사진을 3D 그래픽 형식에 따라 조정한 제4 캐리커쳐(44)를 생성할 수 있다. 그리고 제어부(160)는 상술한 캐리커쳐들(41, 42, 43, 44)을 캐리커쳐 샘플 화면(40)으로 표시부(140)에 출력하도록 지원할 수 있다. 사용자는 표시부(140)에 출력된 캐리커쳐들(41, 42, 43, 44) 중 자신의 기호에 맞는 캐리커쳐를 단순히 선택하는 작업만을 통하여 캐리커쳐 생성 작업을 완료할 수 있다. 이때, 상기 표시되는 캐리커쳐들(41, 42, 43, 44)는 사용자의 얼굴 특징과 가장 유사한 얼굴 이미지에 대하여, 특징점 변경 및 적어도 하나의 이미지 효과를 적용한 것이다.
실질적으로 사용자는 캐리커쳐 생성을 위하여 얼굴 영역을 포함하는 사진을 선택하거나 카메라(170)를 이용하여 촬영하는 작업만을 수행한 후 단말기(100)가 제공하는 다양한 캐리커쳐들(41, 42, 43, 44) 중 자신의 기호에 맞는 캐리커쳐를 선택함으로써 캐리커쳐 작업을 완성하게 된다. 이에 따라 사용자는 자동화된 작업 방식에 따라 캐리커쳐를 생성할 수 있으면서도 자신의 얼굴에 가장 부합된 형태에서 보다 호감도가 높게 재가공된 캐리커쳐를 선택할 수 있다. 이에 따라 본 발명의 캐릭터 생성 서비스를 지원하는 단말기(100)는 사용자의 입력을 최소화하면서도 사용자의 기호에 맞는 적절한 캐리커쳐를 생성 및 지원할 수 있고, 이에 따라 특정 캐리커쳐 기반의 사용자 기능 운용을 보다 활성화하도록 지원할 수 있다.
한편 상술한 설명에서는 제1 내지 제4 캐리커쳐들(41, 42, 43, 44)이 각각 외곽선을 기계적으로 추출하여 생성하는 캐리커쳐, 판화 형식을 적용한 캐리커쳐, 만화 형식을 적용한 캐리커쳐, 3D 그래픽 형식을 적용한 캐리커쳐를 포함하는 것을 설명하였지만 본 발명이 이에 한정되는 것은 아니다. 즉 본 발명의 단말기(100)는 보다 다양한 이미지 효과 적용을 통하여 보다 많은 개수의 캐리커쳐들을 제공할 수 있으며, 상황에 따라 보다 적은 개수의 캐리커쳐들을 제공할 수도 있다.
또한 상술한 이미지 효과는 다양한 경로를 통하여 갱신될 수 있으며, 이에 따라 단말기(100)는 이미지 효과 갱신 여부에 따라 추가적인 캐리커쳐 생성을 지원한다. 따라서 본 발명의 제1 실시 예에 따른 단말기(100)는 상술한 캐리커쳐들(41, 42, 43, 44)의 개수에 한정되는 것이 아니라, 사용자가 임의적으로 특징점들에 대한 선택의 과정을 수행하지 않고서도 보다 편리하게 캐리커쳐를 생성할 수 있도록 지원하는 기술로 이해될 수 있을 것이다.
한편 캐릭터 생성 방법은 단말기(100)의 스탠드 얼론 동작뿐만 아니라, 캐릭터 생성 장치(200)와 단말기(100)의 연동을 통해서 이루어질 수 있다.
도 7은 본 발명의 제1 실시 예에 따른 캐릭터 생성 방법의 변형예를 나타낸 신호 흐름도이다.
도 7을 참조하면, 먼저 701 단계에서 단말기(100)가 영상을 수집한다. 이 단계는 단말기(100)에 장착된 카메라(170)를 이용하여 얼굴을 포함하는 영상을 촬영하거나, 저장부(150)에 기 저장된 얼굴을 포함하는 영상을 선택하는 단계가 될 수 있다. 여기서 단말기(100)는 기본적으로 해당 단말기(100) 사용자의 얼굴에 대응하는 영상을 수집하는 것으로 설명하지만, 사용자 선택에 따라 임의적인 영상을 사용자의 얼굴 영상 대신에 수집될 수도 있다. 예를 들어, 사용자는 저장부(150)에 저장된 특정 얼굴을 포함하는 사진에 대한 캐릭터 생성 서비스를 이용하도록 요청할 수도 있을 것이다.
영상이 수집되면 또는 영상이 선택되면 단말기(100)는 703 단계에서 수집된 영상을 캐릭터 생성 장치(200)에 전달한다. 이를 위하여 단말기(100)는 통신부(110)를 운용하여 캐릭터 생성 장치(200)와 통신 채널을 형성하도록 지원한다. 단말기(100)가 이동통신 단말기인 경우 통신부(110)는 적어도 일부 구간의 통신 채널이 이동통신 채널로 형성되는 통신 채널을 캐릭터 생성 장치(200)와 형성할 수 있다. 여기서 캐릭터 생성 장치(200)는 회원제 등으로 운용되는 경우 단말기(100)는 사전 등록한 아이디 및 패스워드 등을 송수신하여 인증 과정을 수행할 수 있다.
한편, 캐릭터 생성 장치(200)는 705 단계에서 수신 영상에 따른 캐리커쳐 샘플을 생성한다. 이를 위하여 캐릭터 생성 장치(200)는 도 5의 307 단계 내지 315 단계를 선택적으로 수행할 수 있다. 즉, 캐릭터 생성 장치(200)는 수신된 영상에서 얼굴의 특징점들을 추출하고, 추출된 특징점과 가장 유사한 얼굴 이미지를 얼굴 DB(251)에서 검색하고, 검색된 얼굴 이미지에 대하여 와핑을 수행하거나, 특징점들 간의 관계를 사전 정의된 일정 비율로 조정하거나, 사전 정의된 적어도 하나의 이미지 효과들을 적용하여 적어도 하나의 캐리커쳐 샘플을 생성할 수 있다. 이 과정에서 캐릭터 생성 장치(200)는 얼굴 캐리커쳐만을 생성할 수 있으며, 얼굴 캐리커쳐에 맞는 몸통을 생성하여 얼굴 캐리커쳐와 결합함으로써 1차원 캐리커쳐를 생성할 수 있다. 또한 캐릭터 생성 장치(200)는 1차원 캐리커쳐에 대한 입체 모션 제작을 통하여 3차원 캐리커쳐 생성을 지원할 수 있다. 결과적으로 캐릭터 생성 장치(200)가 생성하는 캐리커쳐 샘플들은 적어도 하나의 얼굴 캐리커쳐, 몸통을 포함하는 적어도 하나의 1차원 캐리커쳐, 3D로 제작된 적어도 하나의 3차원 캐리커쳐를 포함할 수 있다.
상술한 설명에서 와핑은 얼굴의 특징점들 중 적어도 일부를 확대 또는 축소하거나, 사전 정의된 일정 비율로 조정하는 등의 과정이 될 수 있다. 여기서 상술한 특징점들의 확대 또는 축소, 일정 비율 조정은 해당 얼굴 등이 호감을 가지는 형태로 변경하는 방향으로 이루어지는 것으로서, 다양한 실험 및 통계에 따라 보편적으로 정의되는 미인형 또는 미남형으로 인식되는 데이터 변경에 해당하는 처리 방식이 될 수 있다.
또한 상기 이미지 효과는 얼굴 또는 몸통과 얼굴에 대하여 색을 변형시키는 처리, 특징점들을 단순화시키는 처리, 특징점들 중 적어도 일부를 일정 형태의 이미지로 대체하는 처리, 특징점들 중 적어도 일부에 대하여 특정 색 처리를 수행, 특징점들 중 적어도 일부를 입체화 하는 처리 등 다양한 방식 중 적어도 하나의 처리 방식을 통하여 특정 타입의 캐리커쳐 샘플을 생성하는 과정이 될 수 있다.
아울러 상기 캐리커쳐 샘플들은 서로 다른 다양한 캐리커쳐 생성 방식으로 생성될 수 있는데, 예를 들면, 기본 외곽선 처리에 따른 캐리커쳐 생성 방식, 판화 형식을 적용한 캐리커쳐 생성 방식, 만화 형식을 적용한 캐리커쳐 생성 방식, 3D 그래픽 형식을 적용한 캐리커쳐 생성 방식 등으로 생성될 수 있다.
캐리커쳐 샘플들이 생성되면, 캐릭터 생성 장치(200)는 707 단계에서 캐리커쳐 샘플을 단말기(100)에 전달한다. 이를 수신한 단말기(100)는 적어도 하나의 캐리커쳐 샘플을 표시부(140)에 출력하고, 사용자가 선호하는 형태의 적어도 하나의 캐리커쳐를 선택할 수 있도록 지원할 수 있다.
이에 따라 단말기(100)는 사용자 선택에 따라 특정 캐리커쳐 선택 신호를 709 단계에서 캐릭터 생성 장치(200)에 전달한다. 한편 단말기(100)는 특정 캐리커쳐 선택 신호가 발생하면, 선택된 캐리커쳐를 저장부(150)에 저장할 수 있다. 그리고 단말기(100)는 선택된 캐리커쳐를 이용한 사용자 기능 활성화 요청 시 저장된 캐리커쳐를 운용하도록 지원할 수 있다.
709 단계를 통해서 사용자의 특정 캐리커쳐 선택 정보가 전달되면, 추가로 캐릭터 생성 장치(200)는 711 단계에서 특정 캐리커쳐와 단말기(100)의 사용자를 매핑하여 상기 특정 캐리커쳐의 사용자의 기본 캐리커쳐로 지정하고, 단말기(100)의 캐리커쳐 운용을 지원할 수 있다. 실질적으로 캐릭터 생성 장치(200)는 캐릭터 생성을 지원하는 기능뿐만 아니라 캐릭터와 관련된 다양한 서비스를 지원하는 구성이 될 수 있다. 여기서 캐릭터 생성 장치(200)가 단순히 캐릭터를 생성하는 기능만을 제공하는 경우 캐릭터 생성 장치(200)가 수행하는 711 단계는 생략될 수 있다.
한편 단말기(100)가 선택한 캐릭터와 관련하여 특정 캐릭터 서비스 예를 들면 캐릭터 기반의 게임 기능, 캐릭터 기반의 채팅 서비스 등을 운용하는 경우 캐릭터 생성 장치(200)는 단말기(100)가 선택한 캐릭터를 장치 저장부(250)에 저장하고, 특정 서비스 운용 시 이를 적용하도록 지원할 수 있다. 이 과정에서 단말기(100)는 서비스 운용 과정에 적용되는 캐리커쳐를 수신할 수 있으며, 사용자가 어떠한 캐리커쳐를 통하여 특정 사용자 기능을 운용하는지 확인할 수 있도록 지원할 수 있다.
이상에서 설명한 바와 같이 본 발명의 실시 예에 따르면 본 발명은 캐릭터 생성을 위한 사용자 입장에서 보다 간단한 영상 수집 및 입력 동작만을 통하여 호감이 가는 특정 캐릭터를 손쉽게 생성할 수 있도록 지원한다. 이 과정에서 본 발명은 와핑 기능 지원 및 이미지 효과 제공 등을 통하여 다수의 캐리커쳐 샘플들을 제공하여 사용자 선택의 폭을 넓혀 사용자가 보다 선호하는 캐릭터 선택을 보다 용이하게 할 수 있도록 지원할 수 있다.
제2 실시 예
이하, 제2 실시 예에 대한 설명에서는 캐릭터의 한 형태로서 사용자에 특화된 이미지를 아바타로 명명한다.
한편, 이하의 제2 실시 예에 대한 설명에서는 전술한 제1 실시 예와 중복되는 구성, 특징, 동작, 기능 등의 설명을 생략하며 상이한 부분을 위주로 설명을 할 것이다.
도 8은 본 발명의 제2 실시 예에 따른 캐릭터 생성 시스템의 개략도이다.
도 8을 참조하면, 본 발명의 제2 실시 예에 따른 캐릭터 생성 시스템(20)은 단말기(800) 및 캐릭터 생성 장치(900)를 포함할 수 있다.
이러한 구성의 캐릭터 생성 시스템(20)은 사용자가 단말기(800)를 이용하여 캐릭터 생성 장치(900)에 접속을 수행하고, 캐릭터 생성 장치(900)의 지원에 따라 특정 캐릭터를 생성할 수 있도록 지원한다. 이 과정에서 캐릭터 생성 시스템(20)은 단말기(800)가 제공하는 사용자 아바타와 단말기(800)가 선택한 또는 캐릭터 생성 장치(900)가 디폴트로 제공하는 인물 아바타를 합성하여 사용자 기호에 맞으면서도 사용자와 관련성이 높은 합성 아바타를 제공할 수 있다. 이에 따라 본 발명의 캐릭터 생성 시스템(20)은 사용자가 애착을 가지며 운용할 수 있는 합성 아바타 지원을 통하여 사용자 요구를 충족하고 나아가 캐릭터 기반 서비스의 활성화를 지원할 수 있다.
단말기(800)는 캐릭터 생성 장치(900) 간에 구축된 네트워크 장치를 통하여 캐릭터 생성 장치(900)에 접속을 수행하고, 사용자 제어에 따라 합성 아바타의 생성 및 수신을 수행하는 구성이다. 또한 단말기(800)는 생성된 합성 아바타를 기반으로 하는 다양한 통신 서비스 예를 들면 채팅 서비스, 이메일 서비스, 게임 서비스, 메시지 서비스 등을 지원하는 구성이다. 이러한 단말기(800)는 캐릭터 생성 서비스 운용을 위하여 사용자 아바타 또는 사용자 아바타를 생성할 수 있는 사용자 정보를 캐릭터 생성 장치(900)에 제공할 수 있다. 또한 단말기(800)는 사용자 제어에 따라 사용자가 선호하는 특정 인물 아바타 지정 정보를 캐릭터 생성 장치(900)에 제공할 수 있다. 또한 단말기(800)는 사용자 제어에 따라 합성 아바타 생성 시 사용자 아바타와 인물 아바타의 싱크로율 조정 정보를 캐릭터 생성 장치(900)에 제공할 수 있다.
여기서, 인물 아바타는 연예인, 운동 선수, 정치인, 교수 등을 포함하는 각 분야의 유명인물, 과거에 실존했던 역사속 인물, 및 실존하지 않는 가상 인물 등의 아바타를 모두 포함할 수 있다.
이러한 단말기(800)는 캐릭터 생성 장치(900)의 접속을 위한 통신부, 사용자 제어를 위한 입력부 또는 입력 수단의 표시부, 캐릭터 생성 장치(900) 접속 및 캐릭터 생성과 관련된 다양한 화면 출력을 지원하는 표시부, 사용자 아바타, 합성 아바타 등을 저장하는 저장부 등을 포함할 수 있다. 단말기(800)는 상술한 구성들을 기반으로 캐릭터 생성 장치(900)에 접속을 수행하고 캐릭터 생성 장치(900)가 제공하는 캐릭터 생성 화면을 표시부에 출력할 수 있다.
여기서 캐릭터 생성 화면은 적어도 하나의 인물 아바타를 선택할 수 있는 인물 아바타 리스트를 포함할 수 있다. 또한 캐릭터 생성 화면은 사용자 아바타와 인물 아바타 합성 비율을 조절할 수 있는 싱크로율 조절바를 포함할 수 있다. 이에 따라 사용자는 캐릭터 생성 화면을 통하여 사용자 아바타를 어떠한 인물 아바타와 합성할지를 결정할 수 있으며, 합성 과정에서 사용자 아바타의 비중을 조절할 수 있다. 이에 따라 본 발명의 제2 실시 예에 따른 단말기(800)는 사용자별로 기호에 맞는 그리고 사용자와 관련성이 높은 합성 아바타 생성을 수행하도록 지원할 수 있다.
캐릭터 생성 장치(900)는 단말기(800) 간에 구축된 네트워크 장치를 통하여 단말기(800)와 통신 채널을 형성하고, 단말기(800)의 접속에 따라 본 발명의 캐릭터 지원 서비스를 제공하는 구성이다. 이러한 캐릭터 생성 장치(900)는 단말기(800)의 접속에 따라 캐릭터 생성 화면에 해당하는 데이터를 단말기(800)에 제공할 수 있다. 그리고 캐릭터 생성 장치(900)는 단말기(800)로부터 수신되는 사용자 아바타, 인물 아바타 지정 정보, 싱크로율 정보를 기반으로 합성 아바타를 생성하고, 이를 단말기(800)에 제공할 수 있다.
추가로 캐릭터 생성 장치(900)는 캐릭터를 기반으로 하는 서비스 지원 장치의 일부 구성으로서 제공될 수 있다. 이에 따라 캐릭터 생성 장치(900)는 단말기(800)의 요청에 따라 생성된 합성 아바타를 해당 단말기(800) 정보와 매칭하여 저장하고, 해당 단말기(800)의 캐릭터 서비스 요청 시, 저장된 합성 아바타를 해당 서비스에 적용하도록 지원할 수 있다. 한편 캐릭터 생성 장치(900)는 시스템 설계 정책에 따라 캐릭터 생성에 대한 일정 과금을 단말기(800)에 부과할 수 있다. 캐릭터 생성 장치(900)의 구성에 대하여 도 9를 참조하여 보다 상세히 설명하기로 한다.
도 9는 본 발명의 제2 실시 예에 따른 캐릭터 생성 장치의 구성을 나타낸 블럭도이다.
도 9를 참조하면, 캐릭터 생성 장치(900)는 장치 통신부(910), 장치 저장부(920) 및 장치 제어부(930)의 구성을 포함할 수 있다. 추가로 본 발명의 캐릭터 생성 장치(900)는 장치의 운용과 갱신 등을 위하여 입력부 및 표시부의 구성을 더 포함할 수 있다. 관리자는 입력부 및 표시부를 통하여 캐릭터 생성 장치(900)의 다양한 서비스 운용 관리 및 업데이트 등을 지시하는 등의 관리를 수행할 수 있다.
장치 통신부(910)는 캐릭터 생성 장치(900)의 통신 기능을 지원하는 구성이다. 이러한 장치 통신부(910)는 캐릭터 생성 장치(900)에 연결된 네트워크 장치의 종류나 구성에 따라 다양한 형태로 구성될 수 있다. 예를 들어, 캐릭터 생성 장치(900)가 인터넷 네트워크에 연결되어 있는 경우 장치 통신부(910)는 인터넷 네트워크 지원 모듈이 될 수 있다. 또한 캐릭터 생성 장치(900)가 이동통신 네트워크에 연결되어 있는 경우 장치 통신부(910)는 이동통신 네트워크 지원 모듈로 구성될 수 있다.
따라서 장치 통신부(910)는 유선 또는 무선 방식, 특정 통신 방식 등에 한정되는 것이 아니라, 본 발명의 캐릭터 생성을 위한 데이터를 송수신할 수 있는 특정 형태 중 적어도 하나의 형태로 구성될 수 있다. 이러한 장치 통신부(910)는 단말기(800)의 접속 요청을 수신하면, 해당 단말기(800)와 통신 채널을 형성하도록 지원할 수 있다. 그리고 장치 통신부(910)는 단말기(800)에게 캐릭터 생성 화면에 해당하는 데이터를 장치 제어부(930) 제어에 따라 전달할 수 있다.
여기서 캐릭터 생성 화면은 캐릭터 생성 장치(900)가 본 발명의 캐릭터 생성 서비스를 위하여 사전에 구축한 화면이 될 수 있다. 한편 장치 통신부(910)는 캐릭터 생성 화면이 제공된 단말기(800)로부터 캐릭터 생성 서비스 이용을 위한 데이터 즉 각 단말기별 사용자 아바타, 인물 아바타 지정 정보, 싱크로율 정보를 수신하고 이를 장치 제어부(930)에 전달할 수 있다. 그리고 장치 통신부(910)는 생성된 합성 아바타를 단말기(800)에 제공할 수 있다.
장치 저장부(920)는 캐릭터 생성 장치(900)의 운용에 필요한 다양한 응용 프로그램을 저장하는 구성이다. 특히 장치 저장부(920)는 본 발명의 캐릭터 생성 서비스 운용을 위한 프로그램 및 데이터를 저장할 수 있다. 예를 들어, 장치 저장부(920)는 적어도 하나의 인물 아바타(51) 및 아바타 합성 프로그램(53)을 저장할 수 있다.
적어도 하나의 인물 아바타(51)는 사전 협의된 적어도 한 명의 인물들의 외모 정보를 기반으로 생성된 정보이다. 이를 위하여 캐릭터 생성 장치(900)를 운용하는 운영자 또는 시스템 설계자는 인물 아바타(51)로 이용할 각각의 인물들의 사진 정보 및 외모 정보 중 적어도 하나를 협의된 사항에 따라 수집할 수 있다. 캐릭터 생성 장치(900)는 제공되는 인물들의 사진 정보 및 외모 정보를 기반으로 인물 아바타(51)를 생성 및 저장할 수 있다. 또는 캐릭터 생성 장치(900)는 장치 통신부(910)를 통하여 외부로부터 특정 인물 아바타(51) 정보를 수신하고, 수신된 인물 아바타(51)를 장치 저장부(920)에 저장할 수 있다. 장치 저장부(920)에 저장된 인물 아바타(51)는 캐릭터 생성 화면에 리스트로 제공될 수 있다.
아바타 합성 프로그램(53)은 단말기(800)로부터 수신된 사용자 아바타 및 특정 인물 아바타(51)를 합성하여 합성 아바타를 생성하는 프로그램이다. 이를 위하여 아바타 합성 프로그램(53)은 사용자 아바타를 수집하는 루틴, 사용자 지정에 따른 특정 인물 아바타(51)를 수집하는 루틴, 수집된 사용자 아바타와 인물 아바타(51)를 합성하는 합성 루틴을 포함할 수 있다. 합성 루틴은 합성될 아바타들의 가중치에 해당하는 싱크로율을 확인하는 루틴, 싱크로율을 기반으로 사전 정의된 합성 알고리즘을 운용하는 루틴을 포함할 수 있다.
합성 알고리즘은 사용자 아바타와 인물 아바타(51)를 합성하는 과정에서 얼굴의 각 특징점들을 어떠한 비율로 합성할지를 결정하는 데이터들을 포함할 수 있다. 여기서 특징점들은 눈, 코, 입, 귀, 이마, 얼굴 윤곽선, 팔, 다리, 어깨 등 얼굴이나 몸의 다양한 지점들이 될 수 있다. 이에 따라 합성 알고리즘은 사용자 아바타와 인물 아바타(51)의 얼굴을 합성하는 경우, 얼굴의 윤곽선을 합성하는 합성 처리기, 눈 부위를 합성하는 합성 처리기, 코 부위를 합성하는 합성 처리기, 입 부위를 합성하는 합성 처리기 등을 포함할 수 있으며, 각각의 합성 처리기에 의하여 합성된 합성 요소들의 배치 관계를 조절하는 조절 처리기를 포함할 수 있다.
일예로서 각 합성 처리기는 인물 아바타의 각 특징점들과 사용자 아바타의 각 특징점들의 평균값을 선택하도록 설계될 수 있다. 눈 부위를 예를 들면, 눈 부위 합성 처리기는 인물 아바타의 눈 외곽선 영역과 사용자 아바타의 눈 외곽선 영역을 각각 중심점을 기준으로 배치한 후 두 눈 외곽선의 평균값을 합성하도록 지원할 수 있다. 이때 눈 부위 합성 처리기는 수집된 싱크로율 정보에 따라 인물 아바타의 눈 형태와 가깝게 유지하거나, 사용자 아바타의 눈 형태에 가깝게 유지하도록 데이터 결정을 수행할 수 있다. 한편 합성 알고리즘은 상술한 얼굴의 특징점들 이외에 추가적인 특징점들 예를 들어 이마, 턱, 목, 어깨 등 다양한 부위에 대한 합성 처리기를 포함할 수 있다.
그리고 장치 저장부(920)는 단말기(800)가 제공하는 사용자 아바타를 일시적으로 또는 시스템 정책에 따라 반영구적으로 저장할 수 있다. 또한 장치 저장부(920)는 단말기(800)로부터 제공된 사진 정보 등을 이용하여 사용자 아바타를 생성하는 아바타 생성 프로그램을 저장할 수 있다. 아바타 생성 프로그램은 앞서 설명한 인물 아바타(51) 생성을 수행하는 프로그램과 동일한 프로그램이 될 수 있다.
인물 아바타(51)를 장치 통신부(910)를 통하여 외부로부터 수신하지 않고 자체적으로 제작하는 경우 캐릭터 생성 장치(900)는 아바타 생성 프로그램을 이용하여 인물 사진 정보와 외모 정보를 토대로 인물 아바타(51)를 생성할 수 있으며, 사용자 아바타도 생성할 수 있다. 즉 캐릭터 생성 장치(900)는 단말기(800)로부터 사용자 관련 정보 및 사용자가 제공한 사진 정보를 토대로 사용자 아바타를 생성할 수 있다. 아바타 생성 프로그램은 사진 정보들에서 아바타를 생성할 특징점들을 추출하는 루틴, 추출된 특징점들을 기반으로 가상의 얼굴을 생성하는 루틴을 포함할 수 있다. 실질적으로 아바타 생성 프로그램은 사진 정보에 포함된 인물의 얼굴과 유사한 또는 동일한 형상의 아바타를 생성할 수 있다.
장치 제어부(930)는 캐릭터 생성 장치(900)의 운용에 필요한 신호 처리와 데이터 처리를 수행하는 구성이다. 이러한 장치 제어부(930)는 장치 통신부(910)의 제어를 통하여 단말기(800)의 접속 및 캐릭터 생성 화면의 제공, 캐릭터 생성에 필요한 정보의 수집을 제어할 수 있다. 그리고 장치 제어부(930)는 수집된 정보를 토대로 합성 아바타를 생성하고, 생성된 합성 아바타를 단말기(800)에 제공할 수 있다.
이를 보다 상세히 설명하면, 장치 제어부(930)는 단말기(800)가 접속을 요청하면 디폴트로 캐릭터 생성 화면을 제공하거나 사전 등록된 인증 과정을 통해 인증을 수행한 후 캐릭터 생성 화면을 단말기(800)에 제공할 수 있다. 그리고 장치 제어부(930)는 단말기(800)로부터 아바타 합성 요청이 발생하면 단말기(800)에게 합성할 사용자 아바타 및 인물 아바타 정보를 요청할 수 있다.
이 과정에서 장치 제어부(930)는 장치 저장부(920)에 저장된 다양한 인물 아바타(51)들의 목록을 캐릭터 생성 화면을 통하여 제공할 수 있다. 또는 단말기(800)로부터 사용자 아바타 및 특정 인물 아바타(51)의 지정 정보를 수신하면 장치 제어부(930)는 아바타 합성 알고리즘에 따라 사용자 아바타와 지정된 인물 아바타(51)를 합성하여 합성 아바타를 생성한다. 이때 장치 제어부(930)는 단말기(800)가 지정한 싱크로율 정보를 확인하고 해당 싱크로율 정보에 따라 사용자 아바타 및 인물 아바타(51)의 비중을 결정할 수 있다. 여기서 장치 제어부(930)는 별도의 싱크로율 정보 입력이 없는 경우 사전 정의된 특정 비율 예를 들면 50% 비율에 따라 합성 아바타 생성을 수행할 수 있다.
장치 제어부(930)는 합성 아바타가 생성되면, 합성 아바타를 단말기(800)에 제공할 수 있다. 이후 장치 제어부(930)는 단말기(800)의 다른 인물 아바타와의 합성 또는 싱크로율 정보 조정 등이 발생하면 해당 요청에 따라 새로운 합성 아바타를 생성하고, 생성된 새 합성 아바타를 단말기(800)에 제공할 수 있다.
한편 상술한 설명에서는 캐릭터 생성 장치(900)가 인물 아바타(51)들을 제공하는 것으로 설명하였지만 본 발명이 이에 한정되는 것은 아니다. 즉 단말기(800)는 사용자 아바타 제공과 함께 자신의 아바타와 합성할 인물 아바타를 캐릭터 생성 장치(900)에 제공할 수도 있다. 그러면 캐릭터 생성 장치(900)는 단말기(800)가 제공한 인물 아바타와 사용자 아바타를 단말기(800)가 지정한 싱크로율 정보에 따라 합성하여 합성 아바타를 생성할 수 있다.
한편 상술한 설명에서는 본 발명의 캐릭터 생성 서비스 운용을 위하여 단말기(800)와 캐릭터 생성 장치(900) 간의 통신을 수행하고, 단말기(800)가 제공한 사용자 아바타와 인물 아바타를 기반으로 캐릭터 생성 장치(900)가 합성 아바타를 생성 및 제공하는 구성에 대하여 설명하였다. 그러나 캐릭터 생성 장치(900)에서의 합성 아바타 생성 과정수행 없이 단말기(800) 자체적으로 수행될 수도 있다. 이를 위하여 단말기(800)는 도 10에 도시된 바와 같은 구성을 포함할 수 있다.
도 10은 본 발명의 제2 실시 예에 따른 캐릭터 생성 서비스를 지원하는 단말기의 구성을 나타낸 블럭도이다.
도 10을 참조하면, 본 발명의 제2 실시 예에 따른 단말기(800)는 통신부(810), 입력부(820), 오디오 처리부(830), 표시부(840), 저장부(850) 및 제어부(860)의 구성을 포함할 수 있다.
이러한 구성의 단말기(800)는 사용자 요청에 따라 아바타 합성 프로그램(53)이 지원하는 캐릭터 생성 화면을 표시부(840)에 출력할 수 있다. 그리고 단말기(800)는 사용자가 지정하는 인물 아바타(51)와 사용자 아바타(55)를 합성하여 합성 아바타(57)를 생성한 뒤 이를 제공할 수 있다. 합성 아바타(57)는 사용자 선택에 따라 저장부(850)에 저장될 수 있다.
이 과정에서 통신부(810)는 적어도 하나의 인물 아바타(51) 정보를 외부로부터 수신할 수 있다. 예를 들어, 통신부(810)는 캐릭터 생성 장치로부터 인물 아바타(51) 정보를 수신할 수 있다. 캐릭터 생성 장치는 단말기(800)에서의 아바타 합성 지원을 위하여 인물 아바타(51) 정보를 제공할 수 있으며, 이 과정에서 인물 아바타(51)별 일정 과금을 부과할 수 있다. 이를 위하여 캐릭터 생성 장치는 인물 아바타(51)들을 검색하고 구매할 수 있는 서비스 페이지를 제공할 수 있다. 통신부(810)는 캐릭터 생성 장치에 접속을 수행하고, 서비스 페이지를 수신하여 제어부(860)에 전달할 수 있다. 사용자는 서비스 페이지를 통하여 사용자 아바타(55)와 합성할 수 있는 인물 아바타(51)를 검색 및 구매할 수 있다. 통신부(810)는 인물 아바타(51) 검색 및 구매와 관련된 데이터를 캐릭터 생성 장치에 제공하고, 승인에 따라 캐릭터 생성 장치로부터 선택한 인물 아바타(51) 정보를 수신할 수 있다.
입력부(820)는 본 발명의 캐릭터 지원 서비스 운용을 위해 필요한 단말기(800)의 다양한 입력 신호를 생성하는 구성이다. 특히 입력부(820)는 아바타 합성 프로그램(53) 호출을 위한 입력 신호, 사용자 아바타(55)와 합성하기 위해 적어도 하나의 인물 아바타(51)를 선택하기 위한 입력 신호, 사용자 아바타(55)와 인물 아바타(51) 간의 합성에 적용되는 싱크로율 조정을 위한 입력 신호, 생성된 합성 아바타를 저장하기 위한 입력 신호 등을 사용자 제어에 따라 생성할 수 있다. 추가로 입력부(820)는 인물 아바타(51)를 캐릭터 지원 장치 또는 타 단말기로부터 수신하는데 필요한 입력 신호를 사용자 제어에 따라 생성할 수 있다. 생성된 입력 신호들을 제어부(860)에 전달될 수 있다.
오디오 처리부(830)는 아바타 합성 과정에 설정된 다양한 오디오 데이터의 출력을 지원한다. 예를 들어, 오디오 처리부(830)는 사용자 아바타(55)와 인물 아바타(51) 합성 과정에서 기 설정된 효과음을 출력할 수 있다. 또한 오디오 처리부(830)는 생성된 합성 아바타(57)를 기반으로 다양한 사용자 기능 예를 들면 채팅 서비스, 메시지나 메일 서비스, 게임 서비스 등을 운용하는 과정에서 해당 서비스에서 제공되는 다양한 오디오 데이터 출력을 지원할 수 있다. 이러한 오디오 처리부(830)의 효과음 출력은 사용자 제어에 따라 생략되거나, 설계자의 의도에 따라 제공되지 않을 수도 있다.
표시부(840)는 합성 아바타(57) 생성과 관련된 다양한 화면을 출력할 수 있다. 예를 들어 표시부(840)는 아바타 합성 프로그램(53) 호출에 따른 캐릭터 생성 화면, 사용자 아바타(55) 확인 화면, 인물 아바타(51) 선택 화면, 싱크로율 정보 조정 화면, 합성 아바타(57) 출력 화면, 저장된 합성 아바타(57) 확인 화면 중 적어도 하나의 화면을 출력할 수 있다.
또한 표시부(840)는 인물 아바타(51)를 외부로부터 수신하는 경우 특히 캐릭터 생성 장치로부터 제공받는 경우 캐릭터 생성 장치가 제공하는 인물 아바타(51) 검색 및 구매 화면을 출력할 수 있다. 상술한 표시부(840)를 통하여 제공되는 화면 인터페이스의 일예에 대하여 후술하는 도면을 참조하여 보다 상세히 설명하기로 한다.
저장부(850)는 아바타 합성을 지원하기 위하여 아바타 합성 프로그램(53), 적어도 하나의 인물 아바타(51), 사용자 아바타(55), 합성 아바타(57)를 포함할 수 있다. 아바타 합성 프로그램(53)은 입력 신호에 의하여 또는 디폴트로 지정된 인물 아바타(51)를 수집하는 루틴, 저장부(850)에 저장된 사용자 아바타(55)를 수집하는 루틴, 싱크로율 정보 수집을 위한 화면 출력 및 입력 신호 또는 디폴트로 지정된 싱크로율 정보 수집 루틴을 포함할 수 있다. 그리고 아바타 합성 프로그램(53)은 아바타 합성을 위한 아바타 합성 알고리즘을 포함할 수 있다. 아바타 합성 프로그램(53)은 캐릭터 지원 서비스 선택을 위한 입력 신호 발생에 따라 제어부(860)에 로드될 수 있으며, 상술한 루틴들의 수행을 통하여 합성 아바타(57) 생성을 수행할 수 있다.
적어도 하나의 인물 아바타(51)는 캐릭터 생성 장치 또는 인물 아바타를 제공하는 특정 단말기로부터 수신하여 저장될 수 있다. 또는 인물 아바타(51)는 제공된 사진 정보 및 아바타 생성 프로그램을 통하여 자체적으로 생성될 수 있다.
사용자 아바타(55)는 사용자의 사진 정보 등을 토대로 생성된 아바타이다. 이러한 사용자 아바타(55)는 아바타 생성 프로그램에 의하여 생성될 수 있다. 아바타 생성 프로그램이 지원되지 않는 경우 단말기(800)는 캐릭터 생성 장치 등에 사진 정보 등을 제공하고, 그에 따른 사용자 아바타를 제공받을 수 있다.
합성 아바타(57)는 아바타 합성 프로그램(53)에 의하여 합성된 아바타이다. 이러한 합성 아바타(57)는 사용자 아바타(55)와 적어도 하나의 인물 아바타(51) 합성에 따라 하나 또는 그 이상이 생성될 수 있다. 또한 사용자 아바타(55)와 하나의 인물 아바타(51)가 합성되는 과정에서 싱크로율 조정에 따라 여러 개의 합성 아바타(57)가 생성될 수 있다.
제어부(860)는 본 발명의 캐릭터 생성 서비스를 단말기(800)를 기반으로 운용하는데 필요한 다양한 신호 처리와 데이터 처리를 지원할 수 있다. 예를 들어, 제어부(860)는 사용자 입력 신호에 따라 사용자 아바타(55)와 인물 아바타(51) 정보를 저장부(850)에서 수집하고, 아바타 합성 알고리즘에 따라 아바타 합성을 수행한다. 이때 제어부(860)는 싱크로율 정보에 따라 사용자 아바타(55) 및 인물 아바타(51)의 적용 비중을 결정하고 그에 따른 합성 아바타(57) 생성을 지원할 수 있다.
또는 제어부(860)는 디폴트로 설정된 적어도 하나의 싱크로율 정보에 따른 사용자 아바타(55) 및 인물 아바타(51)의 합성 아바타(57)를 생성할 수 있다. 예를 들어 제어부(860)는 사용자 아바타(55)의 싱크로율이 각각 30%, 40%, 50%, 60%, 70%인 합성 아바타(57)를 생성하고, 생성된 합성 아바타(57)를 표시부(840)에 출력하도록 지원할 수 있다. 사용자는 다수의 합성 아바타(57)들 중에 자신의 기호에 맞는 합성 아바타(57)를 선택할 수 있다. 제어부(860)는 사용자가 선택한 합성 아바타(57)를 저장부(850)에 저장하도록 제어하고 나머지 합성 아바타들을 폐기하도록 제어할 수 있다.
한편 제어부(860)는 사용자 요청에 따라 사용자 아바타(55)와 다른 인물 아바타(51) 간의 합성 아바타 생성을 지원할 수 있다. 이 과정에서도 제어부(860)는 앞서 설명한 바와 같이 싱크로율 정보 조정에 따른 다양한 합성 아바타 생성을 지원할 수 있다. 그리고 제어부(860)는 합성 아바타(57)들 중 기본 아바타 지정을 요청하고, 사용자에 의하여 특정 합성 아바타(57)가 기본 아바타로 지정되는 경우, 다양한 사용자 기능 운용 시 기본 아바타를 이용하도록 제어할 수 있다. 예를 들어, 제어부(860)는 채팅 서비스 운용 시 사용자 사진 등록 란에 기본 아바타를 등록시키도록 제어할 수 있으며, 게임 서비스 등의 운용 시 기본 아바타를 게임 내 캐릭터로 지정할 수 있다.
도 11은 본 발명의 제2 실시 예에 따른 캐릭터 생성 방법을 나타낸 신호 흐름도이다.
도 11을 참조하면, 먼저 단말기(800)와 캐릭터 생성 장치(900)가 S101 단계에서 본 발명의 캐릭터 지원 서비스 운용을 위한 접속을 수행할 수 있다. 이를 위하여 단말기(800)는 캐릭터 생성 장치(900)의 주소 정보를 수집하고, 해당 주소 정보를 기반으로 통신 채널 형성을 위한 절차를 수행할 수 있다. 그리고 단말기(800)는 캐릭터 생성 장치(900) 요청에 따라 인증 정보의 전송 및 확인 과정을 수행할 수 있다.
단말기(800)와 캐릭터 생성 장치(900) 간의 접속에 따라 통신 채널이 형성되면, 캐릭터 생성 장치(900)는 S103 단계에서 인물 아바타 목록을 포함하는 캐릭터 생성 화면을 단말기(800)에 제공할 수 있다. 단말기(800)는 캐릭터 생성 장치(900)로부터 인물 아바타 목록을 포함하는 캐릭터 생성 화면을 수신하면 이를 표시부에 출력하도록 지원할 수 있다. 여기서 인물 아바타 목록은 썸네일 방식으로 표시되거나 사용자 요청에 따라 각각의 인물 아바타가 화면 전체에 풀스크린 형태로 출력할 수 있다. 사용자는 페이지 전환 등을 통하여 자신의 아바타와 합성하고자 하는 인물 아바타를 선택할 수 있다.
단말기 사용자가 특정 인물 아바타를 선택한 후 아바타 합성을 요청하면, 단말기(800)의 제어부(860)는 사용자 아바타 및 인물 아바타 선택 정보를 포함하는 메시지를 작성하고, 이를 S105 단계에서 캐릭터 생성 장치(900)에 제공할 수 있다. 이 과정에서 단말기(800)는 사용자 아바타와 인물 아바타 간의 합성 비율에 해당하는 싱크로율 정보를 사용자 입력에 따라 추가로 제공할 수 있다. 또한 단말기(800)는 사용자 아바타가 없는 경우 사용자 아바타를 생성할 수 있는 사진 정보 등을 캐릭터 생성 장치(900)에 제공할 수 있다.
사용자 아바타와 인물 아바타 선택 정보를 수신하면, 캐릭터 생성 장치(900)는 S107 단계에서 아바타 합성을 수행할 수 있다. 이때 캐릭터 생성 장치(900)는 싱크로율 정보가 없는 경우 디폴트로 정의된 싱크로율 정보에 따라 아바타 합성을 수행할 수 있다. 한편 캐릭터 생성 장치(900)는 합성 아바타가 생성되면 S109 단계에서 해당 합성 아바타를 단말기(800)에 제공할 수 있다.
단말기(800)는 캐릭터 생성 장치(900)로부터 합성 아바타를 수신하면 이를 표시부(840)에 출력하고, 사용자 제어에 따라 S111 단계에서 해당 합성 아바타를 저장부에 저장할 수 있다. 여기서 단말기(800) 사용자는 수신된 합성 아바타가 자신의 기호에 맞지 않는 경우 새로운 아바타 합성을 수행하도록 캐릭터 생성 장치(900)에 요청할 수 있다. 이 경우 수신된 합성 아바타는 폐기될 수 있다.
사용자가 희망하는 합성 아바타 생성을 보다 신속하고 정확하게 제공하기 위하여 캐릭터 생성 장치(900)는 사용자가 지정하는 인물 아바타(51)들의 선택 시 실시간으로 합성 아바타를 단말기(800)에 제공할 수 있다. 또한 캐릭터 생성 장치(900)는 싱크로율 정보 변화에 따라 합성 아바타의 형태 변화를 수행하여 실시간 합성 아바타 생성을 수행하고 이를 단말기(800)에 제공할 수 있다.
도 12는 본 발명의 제2 실시 예에 따른 캐릭터 생성 서비스를 지원하는 단말기의 화면 인터페이스를 나타낸 예시도이다.
도 12를 참조하면, 사용자가 입력 신호를 생성하면 단말기(800)의 표시부(840)는 501 화면에서와 같이 캐릭터 생성 화면을 출력할 수 있다. 이때 출력된 캐릭터 생성 화면은 본 발명의 서비스 주체에 따라 단말기(800)가 저장한 화면이거나 또는 캐릭터 생성 장치(900)가 제공한 화면 중 어느 하나가 될 수 있다. 한편 단말기(800)는 캐릭터 지원 서비스 항목을 선택할 수 있도록 해당 항목에 대응하는 메뉴 항목을 포함하는 메뉴 화면 또는 해당 항목에 대응하는 아이콘이나 위젯을 포함하는 메뉴 화면 등을 제공할 수 있다.
501 화면에서, 표시부(840)는 사용자 아바타 출력 영역(40) 및 인물 아바타 선택 영역(50)을 포함하는 화면을 출력할 수 있다. 인물 아바타 선택 영역(50)에는 단말기(800) 또는 캐릭터 생성 장치(900)의 제공에 따라 적어도 하나의 인물 아바타(51)들이 제공될 수 있다. 도시된 도면에서는 일정 개수의 인물 아바타들이 인물 아바타 선택 영역(50)에 출력되는 것으로 나타내었지만 본 발명이 이에 한정되는 것은 아니다. 즉 인물 아바타 선택 영역(50)은 단말기(800) 또는 캐릭터 생성 장치(900)의 지원 여부에 따라 보다 많은 개수의 인물 아바타들 또는 보다 적은 개수의 인물 아바타를 출력할 수 있다.
한편 보다 많은 개수의 인물 아바타들이 지원되는 경우 인물 아바타 선택 영역(50)은 표시되지 않은 인물 아바타들을 검색할 수 있는 스크롤바 기능, 페이지 전환 기능 등을 지원하는 형태로 제공될 수 있다. 한편 501 화면에서는 인물 아바타 선택 영역(50)에 다수의 인물 아바타들이 썸네일 형태로 출력되는 것으로 나타내었지만 표시부(840)는 사용자 설정 변환 또는 서비스 제공 형태에 따라 풀스크린 뷰 형태로 인물 아바타들을 검색할 수 있는 화면을 출력할 수도 있다.
501 화면에서 특정 인물 아바타(51)가 선택되면, 단말기(800)의 제어부(860)는 선택된 인물 아바타(51)와 사용자 아바타(55) 간의 싱크로율 조정을 위한 싱크로율 조정 화면(530)을 503 화면에서와 같이 표시부(840)에 출력할 수 있다. 사용자는 싱크로율 조정바(531)를 조정하여 사용자 아바타(55)와 인물 아바타(51) 간의 싱크로율 조정을 수행할 수 있다. 이 단계에서 별도의 싱크로율 조정을 수행하지 않거나, 싱크로율 조정이 지원되지 않는 경우에는 디폴트로 설정된 싱크로율 비율에 따라 합성 아바타 생성이 수행될 수 있다. 이 경우 503 화면 제공은 생략될 수 있다.
아바타 합성을 위한 입력 신호가 발생하는 경우 단말기(800)는 505 화면에서와 같이 인물 아바타(51)와 사용자 아바타(55)를 합성한 합성 아바타(57)를 표시부(840)에 출력할 수 있다. 한편 505 화면에서는 하나의 합성 아바타(57)를 출력하는 것을 설명하였지만 본 발명이 이에 한정되는 것은 아니다. 즉 단말기(800) 및 캐릭터 생성 장치(900)는 사용자 아바타(55)와 복수개의 인물 아바타(51) 간의 합성을 통하여 복수개의 합성 아바타(57)들을 생성할 수 있다. 이에 따라 505 화면은 복수의 인물 아바타(51)와 합성된 복수개의 합성 아바타(57)가 출력되는 화면으로 구성될 수도 있다.
또한 단말기(800) 및 캐릭터 생성 장치(900)는 사용자 아바타(55)와 하나의 인물 아바타(51)를 합성하는 과정에서 일정 싱크로율 단위로 여러 개의 합성 아바타(57)를 생성할 수 있다. 이에 따라, 505 화면은 하나의 인물 아바타(51)에 대하여 여러 비율의 싱크로율 조정에 따른 복수개의 합성 아바타(57)가 출력될 수 있다.
또한 본 발명의 단말기(800) 및 캐릭터 생성 장치(900)는 복수의 인물 아바타(51)와 복수의 싱크로율에 따라 복수개의 합성 아바타(57) 생성을 지원할 수 있다. 이에 따라 단말기(800)의 표시부(840)에는 보다 많은 개수의 샘플 합성 아바타들이 표시될 수 있다. 이 중 적어도 하나의 합성 아바타는 사용자 제어에 따라 선택되어 저장부(850)에 저장될 수 있으며, 저장된 적어도 하나의 합성 아바타 중 특정 아바타는 기본 아바타로 지정되어 단말기(800)의 사용자 기능 운용에 적용 및 운용될 수 있다.
이상 설명한 바와 같이, 본 발명의 제2 실시 예에 따른 캐릭터 생성 시스템 및 방법은 사용자가 선호하며 호감을 가지는 인물 아바타와 자신의 사용자 아바타를 합성하도록 지원함으로써 자신과의 관련성을 유지하면서 호감을 가지는 형태의 합성 아바타 캐릭터를 소유할 수 있다. 이에 따라 사용자들이 캐릭터에 대한 애착을 보다 쉽게 가질 수 있도록 지원하여 캐릭터 기반의 다양한 서비스 운용을 활성화하도록 지원한다.
한편, 제1 실시예와 제2 실시예를 통해 설명한 단말기는 그 제공 형태에 따라 다양한 추가 모듈을 더 포함할 수 있다. 즉, 단말기는 통신 단말기인 경우 근거리 통신을 위한 근거리통신모듈, 유선통신방식 또는 무선통신방식에 의한 데이터 송수신을 위한 인터페이스, 인터넷 네트워크와 통신하여 인터넷 기능을 수행하는 인터넷통신모듈, 디지털 방송 수신과 재생 기능을 수행하는 디지털방송모듈 등과 같이 위에서 언급되지 않은 구성들을 더 포함할 수도 있다. 이러한 구성 요소들은 디지털 기기의 컨버전스(convergence) 추세에 따라 변형이 매우 다양하여 모두 열거할 수는 없으나, 상기 언급된 구성 요소들과 동등한 수준의 구성 요소가 상기 디바이스에 추가로 더 포함되어 구성될 수 있다. 또한 본 발명의 단말기는 그 제공 형태에 따라 상기한 구성에서 특정 구성들이 제외되거나 다른 구성으로 대체될 수도 있음은 물론이다. 이는 본 기술분야의 통상의 지식을 가진 자에겐 쉽게 이해될 수 있을 것이다.
또한 본 발명에 따른 단말기는 캐릭터 서비스를 이용할 수 있는 모든 형태의 디바이스를 포함할 수 있다. 예를 들면, 단말기는 다양한 통신 시스템들에 대응되는 통신 프로토콜들(communication protocols)에 의거하여 동작하는 모든 이동통신 단말기들(mobile communication terminals)을 비롯하여, PMP(Portable Multimedia Player), 디지털방송 플레이어, PDA(Personal Digital Assistant), 음악 재생기(예컨대, MP3 플레이어), 휴대게임단말, 스마트 폰(Smart Phone), 노트북(Notebook) 및 핸드헬드 PC 등 모든 정보통신기기와 멀티미디어기기 및 그에 대한 응용기기를 포함할 수 있다.
더하여, 본 발명의 실시 예에 따른 캐릭터 서비스 제공 방법은 다양한 컴퓨터 수단을 통하여 판독 가능한 소프트웨어 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM, Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
한편, 본 명세서와 도면을 통해 본 발명의 바람직한 실시 예들에 대하여 설명하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것일 뿐, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.

Claims (27)

  1. 사용자의 얼굴을 포함하는 영상을 수집하고, 수집된 영상을 캐릭터 생성 장치에 전달한 후 캐릭터 생성 장치로부터 상기 영상으로부터 생성한 하나 이상의 캐리커쳐 샘플을 수신하는 단말기; 및
    상기 단말기로부터 수신된 영상에서 얼굴 특징점들을 추출하고, 추출한 얼굴 특징점을 기반으로 다수의 기본적인 얼굴 이미지 중에서 유사한 얼굴 이미지를 검색하고, 검색된 얼굴 이미지의 특징점들을 변경하거나 특징점들이 변경된 얼굴 이미지에 적어도 하나의 이미지 효과를 적용하여 다수의 캐리커쳐 샘플들을 생성하고, 생성된 상기 캐리커쳐 샘플들을 상기 단말기에 제공하는 캐릭터 생성 장치;
    를 포함하는 것을 특징으로 하는 캐릭터 생성 시스템.
  2. 단말기와의 통신 채널을 형성하여 데이터를 송수신하는 장치 통신부;
    다수의 얼굴 이미지를 저장하는 얼굴 데이터베이스를 포함하는 장치 저장부; 및
    상기 장치 통신부를 통해 사용자의 얼굴을 포함하는 영상을 수신하고, 상기 수신한 영상으로부터 얼굴 특징점들을 추출하고, 추출된 얼굴 특징점과 유사한 얼굴 이미지를 상기 얼굴 데이터베이스로부터 검색하고, 검색된 얼굴 이미지의 특징점을 변경하거나 특징점이 변경된 얼굴 이미지에 대하여 적어도 하나의 이미지 효과를 적용하여 다수의 캐리커쳐 샘플을 생성하고, 상기 다수의 캐리커쳐 샘플을 상기 단말기에 제공하도록 제어하는 장치 제어부;
    를 포함하는 것을 특징으로 하는 캐릭터 생성 장치.
  3. 제2항에 있어서,
    상기 장치 제어부는
    얼굴 특징점들 중 적어도 일부를 확대 또는 축소하거나, 사전 정의된 일정 비율로 조정하는 것을 특징으로 하는 캐릭터 생성 장치.
  4. 제2항에 있어서,
    상기 장치 제어부는
    상기 이미지 효과 적용 시, 얼굴 이미지에 대하여 색을 변형시키는 처리, 얼굴 이미지의 특징점들을 단순화시키는 처리, 얼굴 이미지의 특징점들 중 적어도 일부를 일정 형태의 이미지로 대체하는 처리, 얼굴 이미지의 특징점들 중 적어도 일부에 대한 특정 색 처리, 얼굴 이미지의 특징점들 중 적어도 일부를 입체화 하는 처리 중 적어도 하나를 수행하도록 제어하는 것을 특징으로 하는 캐릭터 생성 장치.
  5. 제2항에 있어서,
    상기 장치 제어부는, 기본 외곽선 처리에 따른 캐리커쳐 생성 방식, 판화 형식을 적용한 캐리커쳐 생성 방식, 만화 형식을 적용한 캐리커쳐 생성 방식, 3D 그래픽 형식을 적용한 캐리커쳐 생성 방식 중 하나 이상을 이용하여 상기 다수의 캐리커쳐 샘플을 생성하도록 제어하는 것을 특징으로 하는 캐릭터 생성 장치.
  6. 제2항에 있어서,
    상기 장치 제어부는
    상기 다수의 캐리커처 샘플 중 상기 단말기가 선택한 캐리커쳐 샘플을 특정 사용자의 기본 캐리커처로 지정하여 저장하는 것을 특징으로 하는 캐릭터 생성 장치.
  7. 얼굴을 포함하는 영상에서 얼굴 특징점들을 추출하고, 다수의 얼굴 이미지를 저장하는 얼굴 데이터베이스에서 상기 추출된 얼굴 특징점과 유사한 얼굴 이미지를 검색하고, 검색된 얼굴 이미지의 특징점을 변경하거나 특징점이 변경된 이미지에 적어도 하나의 이미지 효과를 적용하여 다수의 캐리커쳐 샘플을 생성하도록 제어하고, 입력 신호에 따라서 상기 다수의 캐리커쳐 샘플 중에서 하나를 사용자의 기본 캐리커쳐로 지정하는 제어부;
    상기 얼굴 데이터베이스, 상기 다수의 캐리커쳐 샘플 및 상기 사용자의 기본 캐리커쳐 중에서 하나 이상을 표시하는 표시부;
    사용자의 조작에 따라서 상기 다수의 캐리커쳐 샘플들 중 적어도 하나를 선택하기 위한 입력 신호를 생성하는 입력부; 및
    상기 다수의 캐리커쳐 샘플 및 상기 사용자의 기본 캐리커쳐 중에서 적어도 하나를 저장하는 저장부;
    를 포함하는 것을 특징으로 하는 단말기.
  8. 제7항에 있어서,
    상기 얼굴을 포함하는 영상을 수집하기 위한 카메라;
    를 더 포함하는 것을 특징으로 하는 단말기.
  9. 제7항에 있어서
    상기 제어부는
    기본 외곽선 처리에 따라 생성된 캐리커쳐, 판화 형식을 적용한 캐리커쳐, 만화 형식을 적용한 캐리커쳐, 3D 그래픽 형식을 적용한 캐리커쳐 샘플 중에서 하나 이상을 생성하도록 제어하는 것을 특징으로 하는 단말기.
  10. 제7항에 있어서
    상기 제어부는
    상기 얼굴 이미지의 특징점들을 변경하거나 특징점이 변경된 얼굴 이미지에 적어도 하나의 이미지 효과를 적용하여 생성된 적어도 하나의 얼굴 캐리커쳐;
    상기 얼굴 캐리커쳐에 몸통을 적용한 1차원 캐리커쳐; 및
    상기 1차원 캐리커쳐의 입체 모션을 제작하여 구성한 3차원 캐리커쳐;
    중 적어도 하나를 생성하도록 제어하는 것을 특징으로 하는 단말기.
  11. 얼굴을 포함하는 영상을 획득하는 단계;
    상기 영상의 얼굴 특징점 추출하는 단계;
    다수의 얼굴 이미지를 저장한 얼굴 데이터베이스로부터 상기 추출된 얼굴 특징점과 유사한 얼굴 이미지를 검색하는 단계;
    상기 검색된 얼굴 이미지의 특징점을 변경하거나 특징점이 변경된 얼굴 이미지에 적어도 하나의 이미지 효과를 적용하여 다수의 캐리커쳐 샘플을 생성하는 단계; 및
    상기 생성된 캐리커쳐 샘플을 사용자에 제공하는 단계;
    를 포함하는 것을 특징으로 하는 캐릭터 생성 방법.
  12. 제11항에 있어서,
    상기 영상을 획득하는 단계는,
    단말기의 카메라를 이용하여 상기 얼굴을 포함하는 영상을 촬영하는 단계 및
    기 저장된 얼굴을 포함하는 영상 중에서 하나를 선택 받는 단계 중 적어도 하나를 포함하는 것을 특징으로 하는 캐릭터 생성 방법.
  13. 제11항에 있어서
    사용자의 선택에 따라서, 상기 다수의 캐리커쳐 샘플들 중 특정 캐리커쳐를 상기 사용자의 기본 캐리커쳐로 지정하는 단계;
    를 더 포함하는 것을 특징으로 하는 캐릭터 생성 방법.
  14. 사용자 아바타, 특정 인물 아바타 정보 또는 특정 인물 아바타에 대한 선택 정보 및 상기 사용자 아바타와 상기 인물 아바타 간의 싱크로율 정보를 제공하는 단말기;
    상기 단말기가 제공한 사용자 아바타 및 상기 특정 인물 아바타를 상기 싱크로율 정보를 기반으로 합성하여 합성 아바타를 생성하고, 생성된 상기 합성 아바타를 상기 단말기에 제공하는 캐릭터 생성 장치;
    를 포함하는 것을 특징으로 하는 캐릭터 생성 시스템.
  15. 단말기와의 통신 채널을 형성하고 상기 단말기로부터 사용자 아바타, 특정 인물 아바타 정보 또는 특정 인물 아바타 선택 정보를 수신하는 장치 통신부;
    적어도 하나의 인물 아바타 및 아바타 합성을 위한 알고리즘을 저장하는 장치 저장부;
    상기 사용자 아바타와 적어도 하나의 상기 인물 아바타를 합성하여 적어도 하나의 합성 아바타를 생성하고, 생성된 합성 아바타를 상기 단말기에 제공하도록 제어하는 장치 제어부;
    를 포함하는 것을 특징으로 하는 캐릭터 생성 장치.
  16. 제15항에 있어서,
    상기 장치 통신부는
    상기 단말기로부터 상기 사용자 아바타와 상기 인물 아바타 간의 합성 비중에 해당하는 적어도 하나의 싱크로율 정보를 수신하고,
    상기 장치 제어부는
    상기 싱크로율 정보에 따라 상기 사용자 아바타와 상기 인물 아바타를 합성하여 합성 아바타를 생성하도록 제어하는 것을 특징으로 하는 캐릭터 생성 장치.
  17. 제15항에 있어서,
    상기 장치 제어부는
    상기 장치 저장부에 저장된 적어도 하나의 인물 아바타들 중 적어도 하나의 인물 아바타를 선택할 수 있는 선택 화면을 상기 단말기에 제공하도록 제어하는 것을 특징으로 하는 캐릭터 생성 장치.
  18. 적어도 하나의 인물 아바타, 사용자 아바타, 아바타 합성 프로그램을 저장하는 저장부;
    상기 사용자 아바타와 합성할 적어도 하나의 인물 아바타 지정을 위한 입력 신호를 생성하는 입력부;
    상기 사용자 아바타 및 선택된 적어도 하나의 인물 아바타를 합성하여 적어도 하나의 합성 아바타를 생성하는 제어부;
    상기 생성된 적어도 하나의 합성 아바타를 출력하는 표시부;
    를 포함하는 것을 특징으로 하는 단말기.
  19. 제18항에 있어서,
    상기 입력부는
    상기 사용자 아바타와 상기 인물 아바타 간의 합성 비중에 해당하는 적어도 하나의 싱크로율 정보를 지정하는 입력 신호를 생성하고,
    상기 제어부는
    상기 싱크로율 정보에 따라 상기 사용자 아바타와 상기 인물 아바타의 합성을 수행하는 것을 특징으로 하는 단말기.
  20. 제18항에 있어서,
    상기 표시부는
    상기 사용자 아바타와 복수개의 인물 아바타 간의 합성에 따른 복수개의 합성 아바타들;
    상기 사용자 아바타와 인물 아바타 간의 합성 시 복수의 싱크로율 정보에 따라 생성된 복수개의 합성 아바타들;
    상기 사용자 아바타와 복수개의 인물 아바타 및 복수의 싱크로율 정보에 따라 생성된 복수개의 합성 아바타들;
    중 어느 하나를 출력하는 것을 특징으로 하는 단말기.
  21. 제20항에 있어서,
    상기 저장부는
    상기 복수개의 합성 아바타들 중 선택된 특정 합성 아바타를 단말기 지원 사용자 기능 운용에 적용할 기본 아바타로 저장하는 것을 특징으로 하는 단말기.
  22. 제18항에 있어서,
    적어도 하나의 인물 아바타 검색 및 구매를 위한 캐릭터 생성 장치 또는 타 단말기와 통신 채널을 형성하는 통신부;
    를 더 포함하는 것을 특징으로 하는 단말기.
  23. 캐릭터 생성 장치가 단말기로부터 사용자 아바타 및 적어도 하나의 인물 아바타 또는 적어도 하나의 인물 아바타 선택 정보를 수신하는 단계;
    상기 캐릭터 생성 장치가 수신된 사용자 데이터 및 상기 적어도 하나의 인물 아바타를 합성하여 적어도 하나의 합성 아바타를 생성하는 생성 단계;
    상기 생성된 적어도 하나의 합성 아바타를 상기 단말기에 제공하는 단계;
    를 포함하는 것을 특징으로 하는 캐릭터 생성 방법.
  24. 제23항에 있어서
    상기 캐릭터 생성 장치가 상기 단말기로부터 상기 사용자 아바타와 상기 인물 아바타 간의 합성 비중을 정의하는 적어도 하나의 싱크로율 정보를 제공받는 단계;를 더 포함하고,
    상기 생성 단계는
    상기 캐릭터 생성 장치가 상기 적어도 하나의 싱크로율 정보에 따라 적어도 하나의 합성 아바타를 생성하는 것을 특징으로 하는 캐릭터 생성 방법.
  25. 제23항에 있어서
    상기 캐릭터 생성 장치가 복수개의 인물 아바타들 중 적어도 하나의 인물 아바타를 선택할 수 있는 선택 화면을 상기 단말기에 제공하는 단계;
    를 더 포함하는 것을 특징으로 하는 캐릭터 생성 방법.
  26. 단말기가 사용자 아바타 및 적어도 하나의 인물 아바타 또는 적어도 하나의 인물 아바타 선택 정보를 캐릭터 생성 장치로 전송하는 단계;
    상기 단말기가 상기 캐릭터 생성 장치로부터 사용자 아바타 및 상기 적어도 하나의 인물 아바타를 합성하여 생성한 적어도 하나의 합성 아바타를 수신하는 단계;
    상기 수신한 적어도 하나의 합성 아바타를 출력하는 단계;
    를 포함하는 것을 특징으로 하는 캐릭터 생성 방법.
  27. 제26항에 있어서,
    상기 적어도 하나의 합성 아바타 중 단말기의 사용자 기능에 적용할 기본 아바타를 선택 및 저장하는 단계;
    를 더 포함하는 것을 특징으로 하는 캐릭터 생성 방법.
PCT/KR2012/008559 2012-06-19 2012-10-18 캐릭터 생성 시스템, 장치, 단말기 및 방법 WO2013191329A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020120065430A KR20130142315A (ko) 2012-06-19 2012-06-19 캐릭터 서비스 시스템 및 그의 캐릭터 서비스 제공 방법
KR10-2012-0065430 2012-06-19
KR10-2012-0069676 2012-06-28
KR1020120069676A KR20140002131A (ko) 2012-06-28 2012-06-28 캐릭터 지원 시스템 및 방법

Publications (1)

Publication Number Publication Date
WO2013191329A1 true WO2013191329A1 (ko) 2013-12-27

Family

ID=49768905

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/008559 WO2013191329A1 (ko) 2012-06-19 2012-10-18 캐릭터 생성 시스템, 장치, 단말기 및 방법

Country Status (1)

Country Link
WO (1) WO2013191329A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030068342A (ko) * 2002-02-15 2003-08-21 (주)버추얼미디어 모바일 기기를 이용한 캐릭터 생성장치 및 방법
KR20050033762A (ko) * 2003-10-07 2005-04-13 골드피처 주식회사 캐리커쳐 자동 생성 장치 및 그 서비스 방법
KR20060067259A (ko) * 2004-12-14 2006-06-19 삼성전자주식회사 이동통신 단말기에서 캐리커쳐 이미지를 제공하기 위한장치 및 방법
KR20060088625A (ko) * 2005-02-02 2006-08-07 엘지전자 주식회사 이동 단말기의 캐리커쳐 제공 방법 및 그 장치
KR100608840B1 (ko) * 2005-03-11 2006-08-08 엘지전자 주식회사 휴대단말기의 3차원 아바타 합성방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030068342A (ko) * 2002-02-15 2003-08-21 (주)버추얼미디어 모바일 기기를 이용한 캐릭터 생성장치 및 방법
KR20050033762A (ko) * 2003-10-07 2005-04-13 골드피처 주식회사 캐리커쳐 자동 생성 장치 및 그 서비스 방법
KR20060067259A (ko) * 2004-12-14 2006-06-19 삼성전자주식회사 이동통신 단말기에서 캐리커쳐 이미지를 제공하기 위한장치 및 방법
KR20060088625A (ko) * 2005-02-02 2006-08-07 엘지전자 주식회사 이동 단말기의 캐리커쳐 제공 방법 및 그 장치
KR100608840B1 (ko) * 2005-03-11 2006-08-08 엘지전자 주식회사 휴대단말기의 3차원 아바타 합성방법

Similar Documents

Publication Publication Date Title
US10922865B2 (en) Information processing apparatus, information processing method, and program
JP5302793B2 (ja) 美粧支援装置、美粧支援方法、美粧支援プログラム、及び携帯端末装置
WO2016171363A1 (ko) 서버, 사용자 단말 장치 및 그 제어 방법
WO2019164374A1 (ko) 전자 장치 및 아바타 기반의 커스텀 객체 운용 방법
JP5898378B2 (ja) 情報処理装置およびアプリケーション実行方法
WO2016175412A1 (en) Mobile terminal and controlling method thereof
US7652679B2 (en) Image display method, program, image display apparatus and image display system
WO2011021907A2 (en) Metadata tagging system, image searching method and device, and method for tagging a gesture thereof
WO2016028042A1 (en) Method of providing visual sound image and electronic device implementing the same
WO2020153785A1 (ko) 전자 장치 및 이를 이용한 감정 정보에 대응하는 그래픽 오브젝트를 제공하는 방법
WO2019143095A1 (ko) 복수의 카메라를 이용하여 영상 데이터를 생성하는 방법 및 서버
CN109743504B (zh) 一种辅助拍照方法、移动终端和存储介质
KR20190013308A (ko) 이동 단말기 및 그 제어 방법
WO2021020814A1 (en) Electronic device for providing avatar and operating method thereof
WO2021242005A1 (ko) 전자 장치 및 사용자 아바타 기반의 이모지 스티커를 생성하는 방법
WO2020171541A1 (ko) 전자 장치 및 이를 이용한 카메라 기능과 연동하여 이모지 편집을 위한 사용자 인터페이스를 제공하는 방법
JP2018182469A (ja) 写真撮影遊戯機、写真撮影遊技機の制御方法、及び、写真撮影遊技機の制御プログラム
KR20140010525A (ko) 이모티콘 서비스 시스템 및 그의 이모티콘 서비스 제공 방법
CN106408536A (zh) 图像合成方法及装置
WO2021056766A1 (zh) 视频截屏方法、终端及计算机可读存储介质
WO2016021907A1 (ko) 웨어러블 디바이스를 이용한 정보처리 시스템 및 방법
WO2022215823A1 (ko) 영상 생성 방법 및 장치
WO2020085718A1 (ko) 보정 이미지 기반 아바타 생성 방법 및 장치
WO2024131821A1 (zh) 拍照方法、装置及电子设备
WO2019190142A1 (en) Method and device for processing image

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12879545

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12879545

Country of ref document: EP

Kind code of ref document: A1