WO2013137609A1 - 캐릭터 화장을 제공하는 온라인 게임 제공 방법 및 그 시스템 - Google Patents

캐릭터 화장을 제공하는 온라인 게임 제공 방법 및 그 시스템 Download PDF

Info

Publication number
WO2013137609A1
WO2013137609A1 PCT/KR2013/001952 KR2013001952W WO2013137609A1 WO 2013137609 A1 WO2013137609 A1 WO 2013137609A1 KR 2013001952 W KR2013001952 W KR 2013001952W WO 2013137609 A1 WO2013137609 A1 WO 2013137609A1
Authority
WO
WIPO (PCT)
Prior art keywords
makeup
character
information
providing
effect
Prior art date
Application number
PCT/KR2013/001952
Other languages
English (en)
French (fr)
Inventor
이정현
Original Assignee
주식회사 네오위즈블레스스튜디오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 네오위즈블레스스튜디오 filed Critical 주식회사 네오위즈블레스스튜디오
Priority to US14/385,177 priority Critical patent/US20150038225A1/en
Priority to EP13761812.0A priority patent/EP2827296A4/en
Priority to CN201380010575.5A priority patent/CN104137140A/zh
Priority to JP2015500358A priority patent/JP2015513924A/ja
Priority to RU2014141047/08A priority patent/RU2586834C2/ru
Publication of WO2013137609A1 publication Critical patent/WO2013137609A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers

Definitions

  • the present application relates to a technology for providing a game, and more specifically, to decorate a character by reflecting the individual's personality by giving a virtual make-up function to a virtual character manipulated by a user in an online game.
  • An online game providing method and system for providing a character makeup that can be provided.
  • MORPGs multiplayer online role playing games
  • a typical feature of such various online games is to use a virtual character on behalf of the user as the game's progress object. Therefore, the virtual character that directly performs the content of the online game has a role of representing the user in the virtual world provided in the game.
  • the present application provides a make-up environment equivalent to the actual make-up for the virtual character provided in the online game, so that the virtual character can be variously decorated and provides a character make-up that enables different and individual embellishment from other characters. We want to provide the technology provided.
  • the present application by setting the effect of the makeup and the process of the makeup tool to the virtual character similar to the actual makeup, the online game providing technology that can perform the process of dressing itself as interesting as a game To provide.
  • the present application may vary the effect of the makeup by interpreting the user's click input differently according to the type of makeup tool to set a fixed or variable application range to which the effect of the makeup is applied and calculate an effect parameter for the corresponding range.
  • the present invention aims to provide an online game providing technology that can be efficiently applied and can provide an input step for exerting the effect of makeup.
  • the online game providing method is performed in an online game providing system that can be connected with at least one game client through a network, and can provide an online game based on a virtual character to the connected game client.
  • the online game providing method includes: (a) providing a makeup input interface for displaying a certain character's appearance to a game client or displaying the character's face and a list of at least one makeup tool to the game client; b) receiving, from the game client, makeup tool information on any one selected from the makeup tool list and pointer input information input for the face of the displayed character; (c) makeup effect using the makeup tool information; Determining an application method of the method, determining an application area to apply the makeup effect using the pointer input information according to the determined application method, and calculating an effect parameter to be applied to the determined application area; and (d) the application area. Apply the effect parameter to the Correcting the face texture of the emitter, and comprising the step of providing a texture to the face of the corrected character through the make-up type interface.
  • the online game providing system may be connected with at least one game client through a network, and may provide an online game based on a virtual character to the connected game client.
  • the online game providing system includes a makeup function control unit, an application area determination unit, and a parameter calculation unit.
  • the makeup function controller provides a makeup input interface that displays a list of makeup tools and the appearance of the character, and provides the corrected appearance of the character by applying effect parameters to the designated application area.
  • the application area determination unit determines an application area to which the makeup effect is to be applied using at least one of pointer input information about the displayed character's appearance and makeup tool information including the makeup tool selected from the tool list.
  • the parameter calculator calculates an effect parameter to be applied to the determined application area by using at least one of the makeup tool information and the pointer input information.
  • the recording medium records a program for executing the online game providing method.
  • the program may be connected to at least one game client through a network, and may be run in an online game providing system capable of providing an online game based on a virtual character to a connected game client, the program comprising: (a) a game; (B) providing a makeup input interface for displaying a certain character's appearance to the client or displaying to the game client a list including the character's face and at least one makeup tool; and (b) the makeup tool list from the game client.
  • FIG. 1 is a reference diagram for explaining an online game providing system and a game client according to the disclosed technology.
  • FIG. 2 is a block diagram illustrating an embodiment of an online game providing system according to the disclosed technology.
  • FIG. 3 is a reference diagram illustrating one embodiment of a treatment procedure for providing a make-up function provided according to the disclosed technology.
  • FIG. 4 is a reference diagram illustrating an example of information about a makeup tool that may be stored in a makeup tool database.
  • 5 through 11 are reference diagrams for explaining various makeup tools and effects thereof that may be provided in the disclosed technology.
  • FIG. 12 is a flowchart illustrating an embodiment of an online game providing method according to the disclosed technology.
  • FIG. 13 is a flowchart illustrating another embodiment of an online game providing method according to the disclosed technology.
  • first and second are intended to distinguish one component from another component, and the scope of rights should not be limited by these terms.
  • first component may be named a second component, and similarly, the second component may also be named a first component.
  • an identification code (e.g., a, b, c, etc.) is used for convenience of description, and the identification code does not describe the order of the steps, and each step clearly indicates a specific order in context. Unless stated otherwise, they may occur out of the order noted. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.
  • the disclosed technology can be embodied as computer readable code on a computer readable recording medium, and the computer readable recording medium includes all kinds of recording devices in which data can be read by a computer system.
  • Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like, and are also implemented in the form of a carrier wave (for example, transmission over the Internet). It also includes.
  • the computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
  • FIG. 1 is a reference diagram for explaining an online game providing system and a game client according to the disclosed technology.
  • the online game providing system 100 may provide an online game to at least one user (game client) at the same time through an online network environment.
  • the online game provided by game providing system 100 may be an online game based on multiple users.
  • the online game provided by the game providing system 100 is not limited to a specific genre. That is, since the online game according to the disclosed technology may provide a character make-up, an online game provided with content based on a character does not limit its genre. For example, it can be applied to games of various genres such as Multiplayer Online Role Playing Game (MORPG), Massive Multiplayer Online Role Playing Game (MMORPG), Sports Online Game, First-Person Shooting (FPS) or Third-Person Shooting (TPF). Can be.
  • MORPG Multiplayer Online Role Playing Game
  • MMORPG Massive Multiplayer Online Role Playing Game
  • FPS First-Person Shooting
  • TPF Third-Person Shooting
  • the game providing system 100 may provide not only game contents between users (Player versus Player, PVP) but also game contents between users and AI (Player versus Environment). It can also provide PVP between multiple users, PVE between multiple users and artificial intelligence, and game content mixed with users and artificial intelligence.
  • the game providing system 100 may perform at least some real-time data exchange with at least one game client 200 in order to provide an online game.
  • the game providing system 100 may provide a makeup providing means for the virtual character provided in the game. Such a game providing system will be described in more detail below with reference to FIG. 2.
  • the game client 200 is a game providing means that can be driven in the user terminal.
  • the user terminal may be a terminal having a central processing unit, a storage unit, and an input / output unit, such as a PC, a tablet PC, a smart phone, and the like.
  • the game client 200 may communicate with the game providing system 100 to provide an online game to the user.
  • the game client 200 may load at least a part of a game engine for driving a game. For example, at least some of the predetermined operations required to provide the online game may be performed in the game client 200 for fast processing.
  • FIG. 2 is a block diagram illustrating an embodiment of an online game providing system according to the disclosed technology.
  • the game providing system 100 includes a communication unit 110, a game engine 120, a game providing control unit 130, a makeup tool database 140, a card table database 140, and a character.
  • the database 150 may include an application area determiner 170, a parameter calculator 180, and a makeup function controller 160.
  • the communication unit 110 may set or maintain a communication environment for providing a game with the game client 200 under the control of the game providing control unit 130.
  • the communication unit 110 may directly communicate with the game client 200 under the control of the makeup function control unit 160 under the control of the game providing control unit 160.
  • the game engine 120 is a component for driving a game and may be linked with the game client 200 to provide an online game to a user.
  • the game engine 120 has been described in a separate configuration from the game providing control unit 130, but according to the embodiment, the game engine 120 may be implemented as a function of the game providing control unit 130.
  • At least a portion of the game engine 120 may be loaded or overlapped with the game client 200.
  • the game providing controller 130 may control other components of the game providing system 100 to provide an online game.
  • the game providing control unit 130 may provide the request or data to the make-up function control unit 160. That is, the predetermined process related to the makeup function may be controlled by the makeup function controller 160. For example, when a user creates a new character or receives a request to modify the appearance of the character according to a predetermined procedure, the game provision controller 130 may modify the appearance of the character as a part of the character generation function.
  • the make-up function may be provided as a part of the function, and for the make-up function, the make-up function controller 160 may hand over at least a part of the control authority to perform the related control.
  • the game providing control unit 130 is displayed as a component separately from the makeup function control unit 160, but this will be merely a functional distinction for convenience of description. Therefore, the disclosed technology is not necessarily limited to configuring the two components as different independent components from each other, the makeup function control unit 160 may be implemented as a function of the game providing control unit 130.
  • the disclosed technique is a user (game client) through the makeup tool database 140, the card table database 140, the character database 150, the application area determination unit 170, the parameter calculator 180, and the makeup function control unit 160. ) May provide a make-up function for the virtual character.
  • FIG. 3 is a reference diagram illustrating one embodiment of a treatment procedure for providing a make-up function provided according to the disclosed technology.
  • the disclosed technique provides a plurality of make-up tools, and the attributes 320 set according to the make-up tools may be different from each other. That is, according to the makeup tool, since the application method for inputting makeup is different, the movement of the pointer can be interpreted from the user's input by using the user's input 310 and the property 320 of the makeup tool together.
  • an area (hereinafter, “application area”) to which an actual makeup effect is applied is determined in consideration of the application range according to the makeup tool, and a parameter to be adjusted according to the makeup effect in the corresponding area (hereinafter, "Effect parameter”) may be calculated and reflected to change the attributes of the texture to provide makeup.
  • the makeup tool database 140 may store information about the makeup tool applied to makeup the virtual character.
  • the makeup tool database 140 may store information about at least one of adjustment parameters for each makeup tool, a user input element, an application method, an application range designation method, an application area, a brush area, and a variable value.
  • FIG. 4 is a reference diagram illustrating an example of information about a makeup tool that may be stored in the makeup tool database 140.
  • the makeup tool database 140 may have attribute information for each makeup tool. A predetermined table having each may be stored or maintained.
  • the attribute information for each makeup tool may include a fixed attribute and a variable attribute.
  • Variable attributes refer to attributes that can be selected or adjusted by the user.
  • the variable attribute may be selected by the user's selection when the user selects a sub menu after selecting the makeup tool in the makeup input interface. For example, if the user selects the foundation as a makeup tool in the makeup input interface, the size of the brush area of the foundation is a variable property, and the size of the brush area may be selected by the user.
  • the fixed property is a property that is predetermined for each makeup tool and is not changed by the user.
  • the disclosed technique may interpret a user's input by using a fixed attribute for each makeup tool.
  • Adjustment parameters refer to the properties of the texture that the makeup tool changes. Reverting among the adjustment parameters means removing the makeup effect. If the adjustment parameter is a color, there may be a method of mixing with the existing color or overwriting the existing color.
  • the user input element indicates which of the user inputs the adjustment parameter can be changed.
  • the effect of gloss can be determined according to the drag length.
  • the application method is an attribute indicating how input by a user is related to attribute change for each makeup tool.
  • the application range designation method means a method of determining an area to which the makeup effect is applied.
  • the application part means at least a part of the appearance of the virtual character to which the effect of the makeup tool is applied.
  • the brush region refers to a brush region
  • the variable value is an attribute specifying the aforementioned variable attribute
  • the character database 150 may store information about the virtual character.
  • the character database 150 may store texture information about the virtual character.
  • the character database 150 may store texture information necessary for displaying a virtual character, and may display texture information of a specific character by providing texture information of the specific character at the request of another component.
  • the makeup function controller 160 may control the makeup tool database 140, the character database 150, the application area determiner 170, or the parameter calculator 180 to provide a makeup function for the virtual character.
  • the makeup function controller 160 may provide a makeup input interface for inputting makeup to the game client 200.
  • the game client 200 may display at least a part of the appearance of the virtual character (eg, the face of the character) through the makeup input interface.
  • the game client 200 may further include a list of makeup tools together with at least some of the appearance of the virtual character through the makeup input interface.
  • the makeup function controller 160 may receive at least one of makeup tool information or pointer input information from the game client 200 that provides the makeup input interface.
  • the makeup tool information may include identification information about the makeup tool for any one selected from a list of at least one makeup tool provided in the makeup input interface.
  • the pointer input information is information input from the user with respect to the pointer.
  • the pointer input information may include at least one of click information, drag length information, and drag direction information.
  • the makeup function control unit 160 may identify the makeup tool from the makeup tool information, and may interpret the pointer movement of the pointer input information by reflecting the attribute of the identified makeup tool.
  • the makeup function control unit 160 may determine the application method of the makeup effect using the makeup tool information. For example, the makeup function controller 160 may search the makeup tool database 140 by using identification information of the makeup tool included in the makeup tool information, and check the adjustment parameter among the properties of the makeup tool.
  • the makeup function controller 160 may classify the application method of the makeup effect based on the application area.
  • the makeup function control unit 160 is a method of applying a makeup effect, including (1) a free drawing method of designating a moving line of a pointer as an application area, (2) a fixed area method in which an application area is fixed, and (3)
  • the application area may include at least one of the deformation area methods that vary according to the pointer input information.
  • the makeup function controller 160 may apply the makeup effect to the character using the application area determining unit 170 or the parameter calculator 180 based on the application method of the makeup effect.
  • the makeup function controller 160 may provide the application area determiner 170 or the parameter calculator 180 with information about a method of applying the divided makeup effect.
  • the makeup function control unit 160 checks the makeup tool information, checks whether the makeup tool corresponds to one of a free drawing method, a fixed area method, and a deformation area method, and applies the identified information to the application area determination unit. Or to the parameter calculator 180.
  • the makeup function control unit 160 may apply the effect parameter calculated by the parameter calculation unit 180 to the application area determined by the application area determination unit 170 to correct the character appearance (that is, change the texture value). have.
  • the makeup function controller 160 may cover the existing makeup with respect to the overlapped area or mix the makeup with the existing makeup.
  • the makeup function controller 160 may determine whether to cover or blend the makeup effects by determining whether the makeup tools have the same category of the sameness and effect parameters.
  • the makeup function control unit 160 may cover the makeup effect if the same makeup tool and the same category of effect parameters, and mix the makeup effect if the makeup tools are different or the effect parameters are different from each other. have.
  • the makeup function controller 160 may overwrite the overlapping part with a recent input if the makeup input by the same eye shadow is the same and the color of the eye shadow is the same (the effect parameter is the same category).
  • the makeup function control unit 160 may output a result of mixing the two colors for the overlapping part when the makeup input by the same eye shadow or the colors of the eye shadows are different from each other.
  • the makeup function control unit 160 may enlarge and display at least a partial area of the character appearance using the makeup tool information and provide the same to the game client 200. For example, if the makeup input tool selected in the state where the full screen shot size is displayed for the character is a ball touch, the face input of the character may be displayed on the makeup input interface and provided to the game client 200. For another example, when the eyebrow knife is selected while the face of the character is being displayed, the eyebrow portion of the character may be overlapped with the current character face or enlarged or displayed around the eyebrow portion.
  • the makeup function controller 160 may provide the corrected character appearance to the game client 200 again to continuously provide the makeup function.
  • the application area determination unit 170 may determine an application area to which the makeup effect is to be applied using at least one of the pointer input information or the makeup tool information according to the application method provided from the makeup function control unit 160.
  • the application area determining unit 170 checks the blushing area for the corresponding makeup tool, interprets the click information included in the pointer input information, and generates one for each click.
  • a blushing area may be designated and determined as an application area by including a plurality of blushing areas in the case of a plurality of clicks. For example, in the case of dot shooting as in the example shown in FIG. 6, the point at which the click occurs for each click can be determined as the application area. For another example, in the case of a foundation such as the example shown in FIG. 8, it can be determined as an application area including a path using a pointer while clicking.
  • the application area determiner 170 may determine the application area using at least one of the makeup tool information and the click information. For example, when the make-up tool is a blusher and a click is made around the cheekbone, it can be determined as an application area by designating a blushing area (size of the blusher, etc.) at the point where the click occurs. However, if the make-up tool is a blusher and a click is made near the lower jaw, the application area may not be determined.
  • the application area determining unit 170 may determine the internal area of the closed curve as the application area. have. For example, in the case of the lip gloss as in the example shown in FIG. 5, when a click is made in the lip region, the entire lip region may be determined as the application region.
  • the application area determiner 170 may determine the application area by using the pointer input information. In more detail, the application area determiner 170 may determine an application area to which the makeup effect is applied according to a user's drag input. For example, in the case of the mascara as shown in the example shown in FIG. 9, the user may determine a region to apply the mascara according to a drag input performed by the user placing the pointer near the eye.
  • the application area determiner 170 presets and maintains a plurality of deformation areas that are differently divided according to horizontal and vertical inputs for each makeup tool in advance for the deformation area method.
  • the application area can be determined by determining which deformation area the drag information inputted from the data corresponds to.
  • the application area determiner 170 calculates the drag lengths of the X and Y axes using the drag length information and the drag direction information included in the pointer input information, and calculates the drag lengths of the calculated X and Y axes.
  • the application area can be determined by calculating the X-axis application area and the Y-axis application area by dividing by the predetermined unit length for each makeup tool.
  • the parameter calculator 180 may calculate an effect parameter to be applied to the determined application area by using at least one of the makeup tool information and the pointer input information.
  • the parameter calculator 180 may calculate the effect parameter to be applied to the application area by interpreting the pointer input information reflecting the application method.
  • the parameter calculator 180 may calculate a blushing effect preset for each makeup tool or selected by a user as an effect parameter.
  • the makeup function control unit 160 may apply the makeup effect by applying the calculated blushing effect to the application area including the at least one blushing area. For example, in the case of taking a dot as in the example shown in FIG. 6, an effect corresponding to a dot may be calculated as an effect parameter for a point where a click occurs.
  • detailed parameters such as dot size, color, etc. may be provided and selected through the makeup input interface.
  • the parameter calculator 180 may calculate an effect parameter by using pointer input information performed on the determined application area.
  • the parameter calculator 180 identifies the click information or the drag length information performed on the determined application area and weights the number of click information or the length of the drag from the identified click information or the drag length information. Can be given to calculate the effect value to be applied.
  • the parameter calculator 180 may determine a parameter item (adjustment parameter) to be adjusted according to the makeup tool, and calculate an effect parameter by reflecting the effect value calculated for the determined parameter item. For example, in the case of the lip gloss as shown in FIG. 5, as shown in (a) of FIG. 5, when the drag length is short, a lower gloss value is provided. The effect parameter can be calculated.
  • the parameter item (adjustment parameter) to be adjusted according to the makeup tool may be any one of color, brightness, gloss and revert.
  • the parameter calculator 180 may calculate an effect parameter by using an effect set according to the makeup tool for the determined application area.
  • 5 through 11 are reference diagrams for explaining various makeup tools and effects thereof that may be provided in the disclosed technology.
  • FIG. 5 shows an example for a lip gloss, which may be a makeup tool targeting a fixed area (lip) as described above. Therefore, when the user drags as shown, the application area determiner 160 may determine the lips as the application area, and the parameter calculator 180 may calculate the effect parameter to be applied according to the drag length. The application area determination unit 160 may apply the effect parameter to the lips to change the corresponding texture and provide the game client 200 with information about the changed character.
  • a makeup effect may be applied using a point where a click is made by a user as an application area and a point size selected or default selected by the user as an effect parameter.
  • FIG. 7 illustrates an example of a highlighter, and the highlighter may be applied in a fixed area designation manner. That is, as shown in the illustrated example, a region to which the highlighter can be applied, such as a forehead, a snorkel, a snowball, and a ball, may be preset, and the effect (brightness) of the highlighter using a user's brush touch click or drag information Can be calculated.
  • a region to which the highlighter can be applied such as a forehead, a snorkel, a snowball, and a ball, may be preset, and the effect (brightness) of the highlighter using a user's brush touch click or drag information Can be calculated.
  • the foundation may be applied in a free drawing manner. Accordingly, the application of the brush area to the movement line of the pointer after the user's click becomes the application area, and the makeup effect may be applied using the color selected or defaulted by the user as the effect parameter.
  • 10-11 are examples showing that the disclosed technique can impose a makeup effect on other appearances other than the face of the virtual character.
  • FIG. 10 illustrates an example of a body balm, and a makeup effect may be given by applying an area in which the body balm is dragged to the appearance of the character as an application area (free drawing) and using color or gloss of the body balm as an effect parameter. .
  • FIG. 11 illustrates an example of a manicure (or pedicure), and as shown in FIG. 11, a user's free drawing path is applied to an application area (free drawing), and a preset or selected color or gloss effect is applied. A make-up effect can be provided as a parameter.
  • FIG. 12 is a flowchart illustrating an embodiment of an online game providing method according to the disclosed technology.
  • the game providing system 100 displays a list of a character's face and at least one makeup tool on the game client 200.
  • a makeup input interface may be provided (step S1210).
  • the game providing system 100 receives the makeup tool information about any one selected from the list of the makeup tools and the input pointer input information about the face of the displayed character from the game client 200 through the makeup input interface (step S1220,
  • the application method of the makeup effect may be determined using the makeup tool information (step S1230).
  • the game providing system 100 may determine an application area to which the makeup effect is to be applied using the pointer input information according to the determined application method (step S1240), and calculate an effect parameter to be applied to the determined application area (step S1250). .
  • the game providing system 100 may apply the effect parameter to the application area to correct the face texture of the character (step S1260), and provide the face of the character whose texture is corrected through the makeup input interface (step S1270).
  • the application method of the makeup effect may be classified based on the application area, and includes (1) a free drawing method for designating a moving line of the pointer as an application area, (2) a fixed area method in which the application area is fixed, and (3) application
  • the region may include at least one of a modified region scheme in which the region is changed according to the pointer input information.
  • the pointer input information may include at least one of click information, drag length information, and drag direction information.
  • the game providing system 100 checks whether the makeup tool identified by the makeup tool information is a makeup tool belonging to the free drawing method, and if it belongs to the free drawing method, You can check the blushing area for.
  • the game providing system 100 may change the texture of the corresponding area by applying the checked blushing area for each click according to the click information.
  • the game providing system 100 checks whether the makeup tool identified by the makeup tool information is a makeup tool belonging to the fixed area method, and if it belongs to the fixed area method, the makeup tool information or The application area may be determined using at least one of the click information.
  • the game providing system 100 may calculate the effect parameter using the pointer input information made for the determined application area.
  • the game providing system 100 may determine an application area by using a closed curve.
  • the game providing system 100 may check whether a click is performed within a predetermined closed curve using the click information, and if the click is performed, determine the inner region of the closed curve as the application area.
  • the game providing system 100 may calculate the effect parameter using the click or drag length.
  • the game providing system 100 identifies the click information or the drag length information performed on the determined application area and weights the number of click information or the length of the drag from the identified click information or the drag length information. Can be given to calculate the effect value to be applied.
  • the game providing system 100 may determine a parameter item to be adjusted according to the makeup tool, and calculate an effect parameter by reflecting an effect value calculated for the determined parameter item.
  • the parameter item may be any one of color, brightness, gloss and revert.
  • the game providing system 100 checks whether the makeup tool identified by the makeup tool information is a makeup tool belonging to the deformation area method, and if the belonging to the deformation area method, the pointer input information.
  • the application area can be determined.
  • the game providing system 100 may calculate an effect parameter using an effect set according to the makeup tool for the determined application area.
  • the game providing system 100 may calculate the variable area using the X-axis and Y-axis drag lengths.
  • the game providing system 100 calculates the drag lengths of the X and Y axes using the drag length information and the drag direction information included in the pointer input information, and applies the calculated drag lengths of the X and Y axes.
  • X-axis application area and Y-axis application area can be calculated by dividing by preset unit length for each tool.
  • FIG. 13 is a flowchart illustrating another embodiment of an online game providing method according to the disclosed technology.
  • the game providing system 100 provides a make-up input interface for displaying the appearance of a predetermined character to the game client 200 (In operation S1310, the makeup tool information and the pointer input information may be received through the provided makeup input interface (step S1320, YES).
  • the game providing system 100 may select any one of application methods of the plurality of makeup effects according to the makeup tool information (step S1330).
  • the game providing system 100 may determine an application area to which the makeup effect is applied using at least one of the makeup tool information or pointer input information according to the selected application method (step S1340), and the effect to be applied to the determined application area.
  • the parameter can be calculated (step S1350).
  • the game providing system 100 may apply the effect parameter to the application area to correct the face texture of the character (step S1260), and provide the appearance of the character whose texture is corrected through the makeup input interface (step S1270).
  • the game providing system 100 may enlarge and provide the game client 200 with at least a partial area of the character appearance to which the makeup tool may be applied. .
  • the game providing system 100 selects, as an application method, a pre-drawing method that designates an effect according to the moving line of the pointer, if the makeup tool is any one of a foundation, a dot, a concealer, and a manicure. Can be.
  • step S1330 if the make-up tool is any one of blusher, highlighter, lipstick, and lip gloss, the game providing system 100 applies a fixed area method in which the application area of the effect is fixed for each make-up tool. It can be used as a method.
  • step S1330 if the make-up tool is one of the eyeliner and the eyeshadow, the game providing system 100 may use the deformation area method in which the application area of the effect is variable according to the pointer input information as the application method. Can be.

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

온라인 게임 제공 방법은 네트워크를 통하여 적어도 하나의 게임 클라이언트와 연결될 수 있고, 연결된 게임 클라이언트에 가상의 캐릭터를 기반으로 하는 온라인 게임을 제공할 수 있는 온라인 게임 제공 시스템에서 수행된다. 온라인 게임에서 제공되는 가상의 캐릭터에 대하여 실제 화장과 동등한 화장 환경을 제공함으로써, 가상 캐릭터를 다양하게 꾸밀 수 있으며 타 캐릭터와 차별적이고 개성적인 꾸밈을 가능하게 하는 효과가 있다.

Description

캐릭터 화장을 제공하는 온라인 게임 제공 방법 및 그 시스템
본 출원은 게임 제공 기술에 관한 것으로, 보다 상세하게는, 온라인 게임에서 사용자가 조작하는 가상의 캐릭터에 대하여 실제와 같은 화장 기능을 부여함으로써 개인의 개성을 반영하여 캐릭터를 꾸미고 보다 실제적인 가상 캐릭터를 제공할 수 있는 캐릭터 화장을 제공하는 온라인 게임 제공 방법 및 그 시스템에 관한 것이다.
컴퓨팅 디바이스 및 네트워크 환경의 발달에 따라, 온라인 기반의 게임이 크게 발전하고 있다. 이러한 온라인 기반의 게임은 사용자들간 상호 연관이 발생한다는 점에서, 종래의 프로그램을 대상으로 소정의 액션을 수행하는 오프라인 게임과 차별성이 인정되며 급속하게 발전하기 시작했다.
초기의 온라인 게임은 MORPG(Multiplayer Online Role Playing Game)의 종류가 다수였으나, 네트워크의 대역폭 확대, 컴퓨팅 디바이스의 발전에 따라 점차 다양한 종류의 온라인 게임이 제공되고 있다.
이러한 다양한 온라인 게임의 대표적인 특징으로는, 사용자를 대신하는 가상의 캐릭터를 게임의 진행 객체로서 사용하는 것이다. 따라서, 온라인 게임의 컨텐츠를 직접 수행하는 가상의 캐릭터는 게임에서 제공되는 가상 세계에서 사용자을 나타내는 역할을 수행하게 되었다.
이로 인하여서, 가상 캐릭터에 대한 개성있는 표현에 대한 욕구가 지속적으로 존재하고 있다. 즉, 자신의 가상 캐릭터의 표현을 타인의 가상 캐릭터와 차별적으로 하고자 하는 사용자들의 욕구가 다양하게 표출되고 있다.
따라서, 최근에는 가상 캐릭터를 꾸미기 위한 다양한 기술들이 제공되고 있다. 예를 들어, 캐릭터를 다양한 모습을 생성할 수 있도록 하거나, 캐릭터가 입는 옷을 다양하게 제공하는 등이 그러한 것들이다.
그러나, 이러한 종래의 기술들은 그 표현할 수 있는 다양성에 대한 한계가 존재하고 있다. 즉, 캐릭터가 입을 수 있는 옷이나, 캐릭터의 생김새 또한 유행 등을 따라 유사하게 이뤄지는 성향이 있어, 캐릭터를 개성있고 독특하게 꾸미는 근본적인 니즈를 만족시키기 어려운 한계성이 있다. 또한 캐릭터의 생김새의 경우는, 한번 확정되면 수정하기가 어려운 한계성도 지니고 있었다.
또한, 게임 엔진의 발전에 따라 캐릭터의 정밀하고 사실적인 묘사도 가능하므로, 이러한 발전한 게임 환경에서 자신의 캐릭터를 타인의 캐릭터와 차별적이고 개성있게 꾸밀 수 있는 수단에 대한 게임 사용자의 니즈가 점점 더 증가하고 있는 실정이다.
본 출원은 온라인 게임에서 제공되는 가상의 캐릭터에 대하여 실제 화장과 동등한 화장 환경을 제공함으로써, 가상 캐릭터를 다양하게 꾸밀 수 있으며 타 캐릭터와 차별적이고 개성적인 꾸밈을 가능하게 하는 캐릭터 화장을 제공하는 온라인 게임 제공 기술을 제공하고자 한다.
또한, 본 출원은 가상 캐릭터에 대한 화장을 수행하는 절차 및 화장 도구의 효과를 실제 화장과 유사하게 설정함으로써, 화장으로 꾸미는 그 절차 자체를 하나의 게임과 같이 흥미있게 수행할 수 있는 온라인 게임 제공 기술을 제공하고자 한다.
또한, 본 출원은 화장 도구의 종류에 따라 사용자의 클릭 입력을 다르게 해석하여 화장의 효과가 적용되는 적용 범위를 고정적으로 또는 가변적으로 설정하고 해당 범위에 대한 효과 파라미터를 산출함으로써, 화장의 효과를 다양하게 적용할 수 있으면서도 화장의 효과를 발휘하기 위한 입력 단계를 효율적으로 제공할 수 있는 온라인 게임 제공 기술을 제공하고자 한다.
실시예들 중에서, 온라인 게임 제공 방법은 네트워크를 통하여 적어도 하나의 게임 클라이언트와 연결될 수 있고, 연결된 게임 클라이언트에 가상의 캐릭터를 기반으로 하는 온라인 게임을 제공할 수 있는 온라인 게임 제공 시스템에서 수행된다. 상기 온라인 게임 제공 방법은 (a) 게임 클라이언트에 대하여 소정의 캐릭터의 외형을 디스플레이하거나 게임 클라이언트에 캐릭터의 얼굴 및 적어도 하나의 화장 도구에 대한 목록을 포함하여 디스플레이하는 화장 입력 인터페이스를 제공하는 단계, (b) 상기 게임 클라이언트로부터 상기 화장 도구 목록에서 선택된 어느 하나에 대한 화장 도구 정보 및 상기 디스플레이된 캐릭터의 얼굴에 대하여 입력된 포인터 입력 정보를 수신하는 단계, (c) 상기 화장 도구 정보를 이용하여 화장 효과의 적용 방식을 결정하고, 상기 결정된 적용 방식에 따라 상기 포인터 입력 정보를 이용하여 화장 효과를 적용할 적용 영역을 판정하고 상기 판정된 적용 영역에 적용될 효과 파라미터를 산출하는 단계 및 (d) 상기 적용 영역에 상기 효과 파라미터를 적용하여 상기 캐릭터의 얼굴 텍스처를 보정하고, 텍스처가 보정된 캐릭터의 얼굴을 상기 화장 입력 인터페이스를 통하여 제공하는 단계를 포함한다.
실시예들 중에서, 온라인 게임 제공 시스템은 네트워크를 통하여 적어도 하나의 게임 클라이언트와 연결될 수 있고, 연결된 게임 클라이언트에 가상의 캐릭터를 기반으로 하는 온라인 게임을 제공할 수 있다. 상기 온라인 게임 제공 시스템은 화장 기능 제어부, 적용 영역 판정부 및 파라미터 산출부를 포함한다. 상기 화장 기능 제어부는 화장 도구 목록 및 캐릭터의 외형을 디스플레이하는 화장 입력 인터페이스를 제공하고, 지정된 적용 영역에 대하여 효과 파라미터를 적용하여 보정된 캐릭터 외형을 재 제공한다. 상기 적용 영역 판정부는 상기 디스플레이된 캐릭터의 외형에 대한 포인터 입력 정보 및 상기 도구 목록에서 선택된 화장 도구를 포함하는 화장 도구 정보 중 적어도 하나를 이용하여, 화장 효과를 적용할 적용 영역을 판정한다. 상기 파라미터 산출부는 상기 화장 도구 정보 및 상기 포인터 입력 정보 중 적어도 하나를 이용하여, 상기 판정된 적용 영역에 적용될 효과 파라미터를 산출한다.
실시예들 중에서, 기록 매체는 온라인 게임 제공 방법을 실행시키기 위한 프로그램을 기록한다. 상기 프로그램은 네트워크를 통하여 적어도 하나의 게임 클라이언트와 연결될 수 있고, 연결된 게임 클라이언트에 가상의 캐릭터를 기반으로 하는 온라인 게임을 제공할 수 있는 온라인 게임 제공 시스템에서 구동될 수 있는 프로그램으로서, (a) 게임 클라이언트에 대하여 소정의 캐릭터의 외형을 디스플레이하거나 게임 클라이언트에 캐릭터의 얼굴 및 적어도 하나의 화장 도구에 대한 목록을 포함하여 디스플레이하는 화장 입력 인터페이스를 제공하는 기능, (b) 상기 게임 클라이언트로부터 상기 화장 도구 목록에서 선택된 어느 하나에 대한 화장 도구 정보 및 상기 디스플레이된 캐릭터의 얼굴에 대하여 입력된 포인터 입력 정보를 수신하는 기능, (c) 상기 화장 도구 정보를 이용하여 화장 효과의 적용 방식을 결정하고, 상기 결정된 적용 방식에 따라 상기 포인터 입력 정보를 이용하여 화장 효과를 적용할 적용 영역을 판정하고 상기 판정된 적용 영역에 적용될 효과 파라미터를 산출하는 기능 및 (d) 상기 적용 영역에 상기 효과 파라미터를 적용하여 상기 캐릭터의 얼굴 텍스처를 보정하고, 텍스처가 보정된 캐릭터의 얼굴을 상기 화장 입력 인터페이스를 통하여 제공하는 기능을 포함한다.
본 출원의 개시된 기술에 따르면, 온라인 게임에서 제공되는 가상의 캐릭터에 대하여 실제 화장과 동등한 화장 환경을 제공함으로써, 가상 캐릭터를 다양하게 꾸밀 수 있으며 타 캐릭터와 차별적이고 개성적인 꾸밈을 가능하게 하는 효과가 있다.
또한 본 출원의 개시된 기술에 따르면, 가상 캐릭터에 대한 화장을 수행하는 절차 및 화장 도구의 효과를 실제 화장과 유사하게 설정함으로써, 화장으로 꾸미는 그 절차 자체를 하나의 게임과 같이 흥미있게 수행할 수 있는 효과가 있다.
또한 본 출원의 개시된 기술에 따르면, 화장 도구의 종류에 따라 사용자의 클릭 입력을 다르게 해석하여 화장의 효과가 적용되는 적용 범위를 고정적으로 또는 가변적으로 설정하고 해당 범위에 대한 효과 파라미터를 산출함으로써, 화장의 효과를 다양하게 적용할 수 있으면서도 화장의 효과를 발휘하기 위한 입력 단계를 효율적으로 제공할 수 있는 효과가 있다.
도 1은 개시된 기술에 따른 온라인 게임 제공 시스템과 게임 클라이언트를 설명하기 위한 참고도이다.
도 2는 개시된 기술에 따른 온라인 게임 제공 시스템의 일 실시예를 도시하는 구성도이다.
도 3은 개시된 기술에 따라 제공되는 화장 기능 제공의 처리 절차의 일 실시예를 도식화한 참고도이다.
도 4는 화장 도구 데이터베이스에 저장될 수 있는 화장 도구에 대한 정보의 일 예를 도시하는 참고도이다.
도 5 내지 도 11은 개시된 기술에서 제공될 수 있는 다양한 화장 도구 및 그에 대한 효과를 설명하기 위한 참고도들이다.
도 12는 개시된 기술에 따른 온라인 게임 제공 방법의 일 실시예를 설명하기 위한 순서도이다.
도 13은 개시된 기술에 따른 온라인 게임 제공 방법의 다른 일 실시예를 설명하기 위한 순서도이다.
개시된 기술의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 개시된 기술의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다.
한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
개시된 기술은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한, 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
도 1은 개시된 기술에 따른 온라인 게임 제공 시스템과 게임 클라이언트를 설명하기 위한 참고도이다.
온라인 게임 제공 시스템(100)(이하, 게임 제공 시스템)은 온라인 네트워크 환경을 통하여 동시에 적어도 하나의 유저(게임 클라이언트)에 온라인 게임을 제공할 수 있다.
개시된 기술에서, 게임 제공 시스템(100)에 의하여 제공되는 온라인 게임은 다수 사용자를 기반으로 하는 온라인 게임일 수 있다.
개시된 기술에서, 게임 제공 시스템(100)에 의하여 제공되는 온라인 게임은 특정 장르로 한정짓지 아니한다. 즉, 개시된 기술에 따른 온라인 게임은 캐릭터 화장을 제공할 수 있으므로, 캐릭터를 기반으로 컨텐츠가 제공되는 온라인 게임이라면 그 장르 등을 한정하지 않는다. 예를 들어, MORPG(Multiplayer Online Role Playing Game), MMORPG(Massive Multiplayer Online Role Playing Game), 스포츠 온라인 게임, FPS(First-Person Shooting) 또는 TPF(Third-Person Shooting) 등과 같이 다양한 장르의 게임에 적용될 수 있다.
게임 제공 시스템(100)은 사용자들 간(Player versus Player, PVP)의 게임 컨텐츠 뿐만 아니라, 사용자와 인공지능 간(Player versus environment, PVE)의 게임 컨텐츠도 제공할 수 있다. 또한 다수 사용자들 간 PVP, 다수 사용자들과 인공지능 간의 PVE, 사용자와 인공 지능이 혼합된 게임 컨텐츠도 제공할 수 있다.
게임 제공 시스템(100)은 온라인 게임을 제공하기 위하여, 적어도 하나의 게임 클라이언트(200)와 적어도 일부의 실시간 데이터 교환을 수행할 수 있다.
게임 제공 시스템(100)은 게임 내에서 제공되는 가상 캐릭터에 대한 화장 제공 수단을 제공할 수 있다. 이러한 게임 제공 시스템에 대해서는 도 2를 참조하여 이하에서 더 상세히 설명한다.
게임 클라이언트(200)는 사용자 단말에서 구동될 수 있는 게임 제공 수단이다. 사용자 단말은 PC, 태블릿 PC, 스마트 폰 등과 같이, 중앙처리장치, 저장 수단 및 입출력 수단을 구비한 단말일 수 있다.
게임 클라이언트(200)는 게임 제공 시스템(100)과 통신을 수행하여, 사용자에게 온라인 게임을 제공할 수 있다. 실시예에 따라, 게임 클라이언트(200)는 게임 구동을 위한 게임 엔진의 적어도 일부를 적재할 수 있다. 예를 들어, 온라인 게임의 제공에 필요한 소정의 연산 중 적어도 일부는 빠른 처리를 위하여 게임 클라이언트(200)에서 수행될 수 있다.
도 2는 개시된 기술에 따른 온라인 게임 제공 시스템의 일 실시예를 도시하는 구성도이다.
도 2를 참조하여 더 상세히 설명하면, 게임 제공 시스템(100)은 통신부(110), 게임 엔진(120), 게임 제공 제어부(130), 화장 도구 데이터베이스(140), 카드 테이블 데이터베이스(140), 캐릭터 데이터베이스(150), 적용 영역 판정부(170), 파라미터 산출부(180) 및 화장 기능 제어부(160)를 포함할 수 있다.
통신부(110)는 게임 제공 제어부(130)의 제어에 따라 게임 클라이언트(200)와 게임 제공 등을 위한 통신 환경을 설정 또는 유지할 수 있다.
통신부(110)는 게임 제공 제어부(160)의 제어에 의하여, 화장 기능 제어부(160)의 제어를 직접 받아 게임 클라이언트(200)와 통신을 수행할 수 있다.
게임 엔진(120)은 게임의 구동을 위한 구성으로서, 게임 클라이언트(200)와 연동되어 사용자에게 온라인 게임을 제공할 수 있다. 개시된 실시예에서는, 게임 엔진(120)을 게임 제공 제어부(130)와 별도의 구성으로 설명하였으나, 실시예에 따라 게임 엔진(120)은 게임 제공 제어부(130)의 일 기능으로서 구현될 수 있다.
일 실시예에서, 게임 엔진(120)의 적어도 일부는 게임 클라이언트(200)에 적재 또는 중복하여 적재될 수 있다.
게임 제공 제어부(130)는 게임 제공 시스템(100)의 다른 구성요소들을 제어하여 온라인 게임을 제공할 수 있다.
게임 제공 제어부(130)는 온라인 게임 컨텐츠 중 캐릭터의 화장 기능과 연관된 요청 또는 데이터을 제공받으면, 해당 요청 또는 데이터를 화장 기능 제어부(160)에 제공할 수 있다. 즉, 화장 기능과 관련된 소정의 처리는 화장 기능 제어부(160)가 제어하여 처리가 이루어질 수 있다. 예를 들어, 사용자가 새로운 캐릭터를 생성하는 경우, 또는 소정의 절차에 따라 캐릭터의 외형을 수정하는 요청을 받은 경우, 게임 제공 제어부(130)는 캐릭터의 생성 기능 중 일부 기능으로서 또는 캐릭터 외형의 수정 기능의 일부 기능으로서 화장 기능을 제공할 수 있고, 이러한 화장 기능에 대해서는 화장 기능 제어부(160)가 관련 제어를 수행하도록 제어 권한의 적어도 일부를 넘겨줄 수 있다.
도 1에 도시된 일 실시예예서, 게임 제공 제어부(130)를 화장 기능 제어부(160)와 구분하여 구성요소로서 표시하고 있으나, 이는 설명의 편의를 위한 기능적 구별에 불과할 것이다. 따라서, 개시된 기술은 반드시 두 구성요소를 서로 상이한 독립적 구성요소로서 구분하여 구성하도록 한정하지 아니하며, 화장 기능 제어부(160)는 게임 제공 제어부(130)의 일 기능으로서 구현될 수도 있다.
개시된 기술은 화장 도구 데이터베이스(140), 카드 테이블 데이터베이스(140), 캐릭터 데이터베이스(150), 적용 영역 판정부(170), 파라미터 산출부(180) 및 화장 기능 제어부(160)를 통하여 사용자(게임 클라이언트)에 가상 캐릭터의 화장 기능을 제공할 수 있다.
캐릭터 화장 기능을 제공하는데 필요한 구성요소들을 각각 설명하기 이전에, 도 3을 참조하여 개시된 기술에서 화장 기능을 제공하는 처리 절차에 대하여 간략한 설명을 실시한다. 도 3은 개시된 기술에 따라 제공되는 화장 기능 제공의 처리 절차의 일 실시예를 도식화한 참고도이다. 개시된 기술은 복수의 화장 도구를 제공하고 있으며, 화장 도구에 따라 설정되는 속성(320)이 서로 상이할 수 있다. 즉, 화장 도구에 따라, 화장을 입력하는 적용 방식이 상이하므로 사용자의 입력(310)과 화장 도구의 속성(320)을 함께 이용하여 사용자의 입력으로부터 포인터의 움직임을 해석할 수 있다. 또한, 이러한 해석된 포인터의 움직임으로부터, 화장 도구에 따른 적용 범위를 고려하여 실제 화장 효과를 적용할 영역(이하, "적용 영역")을 결정하고, 해당 영역에서 화장 효과에 따라 조정할 파라미터(이하, "효과 파라미터")를 산출하여 이를 반영하여 텍스처의 속성을 변경함으로써 화장을 제공하도록 할 수 있다.
화장 도구 데이터베이스(140)는 가상 캐릭터를 화장하는데 적용되는 화장 도구에 대한 정보를 포함하여 저장할 수 있다.
일 실시예에서, 화장 도구 데이터베이스(140)는 화장 도구 별 조정 파라미터, 유저 입력 요소, 적용 방식, 적용 범위 지정 방식, 적용 영역, 브러시 영역, 가변값 중 적어도 하나에 대한 정보를 저장할 수 있다. 도 4는 화장 도구 데이터베이스(140)에 저장될 수 있는 화장 도구에 대한 정보의 일 예를 도시하는 참고도로서, 도 4에 도시된 예와 같이, 화장 도구 데이터베이스(140)는 화장 도구 별로 속성 정보를 각각 가지는 소정의 테이블을 저장 또는 유지할 수 있다. 여기에서, 화장 도구 별 속성 정보는 고정 속성과 가변 속성을 포함할 수 있다.
가변 속성은 유저가 선택하거나 조절할 수 있는 속성을 의미한다. 일 실시예에서, 가변 속성은 사용자가 화장 입력 인터페이스에서 화장 도구를 선택한 후 하위 메뉴를 선택할 때 사용자의 선택에 의하여 선택될 수 있다. 예를 들어, 사용자가 화장 입력 인터페이스에서 화장 도구로서 파운데이션을 선택하였다면, 파운데이션의 브러시 영역의 크기는 가변 속성이 되며, 이러한 브러시 영역의 크기는 사용자에 의하여 선택되어질 수 있다.
고정 속성은 각 화장 도구별로 기 지정된 속성으로서 사용자에 의하여 변경되지 않는 속성이다. 개시된 기술은, 화장 도구별 고정 속성을 이용하여 사용자의 입력을 해석할 수 있다.
조정 파라미터는 해당 화장 도구가 변경하는 텍스처의 속성을 의미한다. 조정 파라미터 중 되돌리기란, 화장 효과를 제거하는 것을 의미한다. 조정 파라미터가 색깔인 경우, 기존 색깔과 혼합시키거나 또는 기존 색깔을 덮어씌우는 방식이 있을 수 있다.
유저 입력 요소는 사용자의 입력 중 어느 요소로서 조정 파라미터를 변경시킬 수 있는지를 나타내는 것이다. 예를 들어, 립 글로즈의 경우, 드래그 길이에 따라 광택의 효과를 결정할 수 있다.
적용 방식은 화장 도구 별로 사용자에 의한 입력이 속성 변경에 어떻게 관련되는지를 나타내는 속성이다.
적용 범위 지정 방식은 화장 효과가 적용될 영역을 확정하는 방식을 의미한다.
적용 부분은 해당 화장 도구의 효과가 적용되는 가상 캐릭터의 외형의 적어도 일부분을 의미한다.
브러시 영역은 붓 형태로 화장 효과가 적용되는 경우, 브리시 영역을 의미하며, 가변값은 전술한 가변 속성을 지정하는 속성이다.
캐릭터 데이터베이스(150)는 가상 캐릭터에 대한 정보를 저장할 수 있다.
일 실시예예서, 캐릭터 데이터베이스(150)는 가상 캐릭터에 대한 텍스처 정보를 저장할 수 있다. 더 상세히 설명하면, 캐릭터 데이터베이스(150)는 가상 캐릭터를 디스플레이하기 위하여 필요한 텍스처 정보를 저장할 수 있으며, 타 구성요소의 요청에 따라 특정 캐릭터의 텍스처 정보를 제공하여 특정 캐릭터를 디스플레이하도록 할 수 있다.
화장 기능 제어부(160)는 화장 도구 데이터베이스(140), 캐릭터 데이터베이스(150), 적용 영역 판정부(170) 또는 파라미터 산출부(180)를 제어하여 가상 캐릭터에 대한 화장 기능을 제공하도록 할 수 있다.
화장 기능 제어부(160)는 게임 클라이언트(200)에 화장 입력을 위한 화장 입력 인터페이스를 제공할 수 있다. 예를 들어, 게임 클라이언트(200)는 화장 입력 인터페이스를 통하여 가상 캐릭터의 외형 중 적어도 일부(예컨대, 캐릭터의 얼굴)를 디스플레이할 수 있다. 다른 예를 들어, 게임 클라이언트(200)는 화장 입력 인터페이스를 통하여 가상 캐릭터의 외형 중 적어도 일부와 함께 화장 도구에 대한 목록을 더 포함하여 디스플레이할 수 있다.
화장 기능 제어부(160)는 화장 입력 인터페이스를 제공한 게임 클라이언트(200)로부터 화장 도구 정보 또는 포인터 입력 정보 중 적어도 하나를 수신할 수 있다.
화장 도구 정보는 화장 입력 인터페이스에서 제공되는 적어도 하나의 화장 도구에 대한 목록에서 선택된 어느 하나에 대한 화장 도구에 관한 식별 정보를 포함할 수 있다.
포인터 입력 정보는 포인터에 대하여 사용자로부터 입력된 정보이다. 일 실시예에서, 포인터 입력 정보는 클릭 정보, 드래그 길이 정보 및 드래그 방향 정보 중 적어도 하나를 포함할 수 있다.
화장 기능 제어부(160)는 화장 도구 정보로부터 화장 도구를 식별하고, 식별된 화장 도구의 속성을 반영하여 포인터 입력 정보의 포인터 움직임을 해석하도록 할 수 있다.
일 실시예에서, 화장 기능 제어부(160)는 화장 도구 정보를 이용하여 화장 효과의 적용 방식을 결정할 수 있다. 예를 들어, 화장 기능 제어부(160)는 화장 도구 정보에 포함된 화장 도구에 대한 식별 정보를 이용하여 화장 도구 데이터베이스(140)를 검색하여 해당 화장 도구의 속성 중 조정 파라미터를 확인할 수 있다.
일 실시예에서, 화장 기능 제어부(160)는 적용 영역을 기준으로 화장 효과의 적용 방식을 구분할 수 있다. 예를 들어, 화장 기능 제어부(160)는 화장 효과의 적용 방식으로서, (1) 포인터의 이동 동선을 적용 영역으로 지정하는 프리 드로잉 방식, (2) 적용 영역이 고정되는 고정 영역 방식 및 (3) 적용 영역이 포인터 입력 정보에 따라 가변되는 변형 영역 방식 중 적어도 하나를 포함할 수 있다.
화장 기능 제어부(160)는 화장 효과의 적용 방식을 기초로, 적용 영역 판정부(170) 또는 파라미터 산출부(180)를 이용하여 캐릭터에 화장 효과를 부여하도록 할 수 있다.
일 실시예에서, 화장 기능 제어부(160)는 구분된 화장 효과의 적용 방식에 대한 정보를 적용 영역 판정부(170) 또는 파라미터 산출부(180)에 제공할 수 있다. 예를 들어, 화장 기능 제어부(160)는 화장 도구 정보를 확인하여, 해당 화장 도구가 프리 드로잉 방식, 고정 영역 방식 및 변형 영역 방식 중 어느 하나에 해당하는지 확인하고, 확인된 정보를 적용 영역 판정부(170) 또는 파라미터 산출부(180)에 제공할 수 있다.
화장 기능 제어부(160)는 적용 영역 판정부(170)에 의하여 판정된 적용 영역에 대하여 파라미터 산출부(180)에서 산출된 효과 파라미터를 적용하여 캐릭터 외형을 보정(즉, 텍스처 값을 변경)할 수 있다.
화장 기능 제어부(160)는 화장 효과가 중첩되는 경우, 중첩된 영역에 대하여 기존 화장을 덮어 씌우거나, 기존 화장과 혼합하도록 할 수 있다.
일 실시예에서, 화장 기능 제어부(160)는 화장 효과가 중첩되는 경우, 화장 도구의 동일성 및 효과 파라미터의 동일 범주 여부를 판단하여 화장 효과를 덮어 씌울지 또는 혼합할지를 결정할 수 있다. 더 상세히 설명하면, 화장 기능 제어부(160)는 동일한 화장 도구이며 동등한 범주의 효과 파라미터이면 화장 효과를 덮어 씌우도록 할 수 있고, 화장 도구가 상이하거나 효과 파라미터가 서로 상이하다면 화장 효과를 혼합하도록 할 수 있다. 예를 들어, 화장 기능 제어부(160)는 동일한 아이쉐도우에 의한 화장 입력이고 아이쉐도우의 색깔(효과 파라미터가 동등 범주)이 같으면 중첩되는 부분에 대해서는 최근의 입력으로 덮어 씌울 수 있다. 다른 예를 들어, 화장 기능 제어부(160)는 동일한 아이쉐도우에 의한 화장 입력이나 아이쉐도우의 색깔이 서로 상이하면 겹치는 부분에 대해서는 해당 두 색깔을 혼합한 결과가 나오도록 할 수 있다.
화장 기능 제어부(160)는 화장 도구 정보를 이용하여 캐릭터 외형의 적어도 일부 영역을 확대하여 디스플레이하도록 하여 게임 클라이언트(200)에 제공할 수 있다. 예를 들어, 캐릭터에 대하여 전신 샷 크기로 디스플레이 되고 있는 상태에서 선택된 화장 입력도구가 볼 터치이면, 화장 입력 인터페이스에 캐릭터의 얼굴 부분을 중심으로 디스플레이하여 게임 클라이언트(200)에 제공할 수 있다. 다른 예를 들어, 캐릭터의 얼굴이 디스플레이 되고 있는 상태에서 눈썹 칼이 선택되어지면, 해당 캐릭터의 눈썹 부분을 현재 캐릭터 얼굴에 오버래핑하여 확대하거나 또는 눈썹 부분을 중심으로 확대하여 디스플레이하도록 할 수 있다.
화장 기능 제어부(160)는 보정된 캐릭터 외형을 게임 클라이언트(200)에 재 제공하여 화장 기능을 계속적으로 제공할 수 있다.
적용 영역 판정부(170)는 화장 기능 제어부(160)로부터 제공된 적용 방식에 따라 포인터 입력 정보 또는 화장 도구 정보 중 적어도 하나를 이용하여 화장 효과를 적용할 적용 영역을 판정할 수 있다.
일 실시예에서, 적용 영역 판정부(170)는 적용 방식이 프리 드로잉 방식이면, 해당 화장 도구에 대한 블러싱 영역을 확인하고, 포인터 입력 정보에 포함된 클릭 정보를 해석하여 각각의 클릭마다 하나의 블러싱 영역을 지정하고, 복수의 클릭들로 이루어진 경우 복수의 블러싱 영역들을 포함하여 적용 영역으로서 판정할 수 있다. 예를 들어, 도 6에 도시된 예와 같은 점 찍기의 경우, 하나의 클릭마다 해당 클릭이 일어난 지점을 적용 영역으로서 판정할 수 있다. 다른 예를 들어, 도 8에 도시된 예와 같은 파운데이션의 경우, 클릭한 채로 포인터를 이용한 경로를 포함하여 적용 영역으로서 판정할 수 있다.
일 실시예에서, 적용 영역 판정부(170)는 적용 방식이 고정 영역 방식이면, 화장 도구 정보 또는 클릭 정보 중 적어도 하나를 이용하여 적용 영역을 판정할 수 있다. 예를 들어, 화장 도구가 블러셔이고 광대뼈 주변에서 클릭이 이루어진 경우, 해당 클릭이 일어난 지점에 블러싱 영역(블러셔의 크기 등)을 지정하여 적용 영역으로서 판정할 수 있다. 그러나 만약 화장 도구가 블러셔인데 턱 아래 인근에서 클릭이 이루어진 경우에는, 적용 영역을 판정하지 않을 수 있다.
일 실시예에서, 적용 영역 판정부(170)는 적용 방식이 고정 영역 방식이며 디스플레이된 캐릭터의 외형에 포함된 소정의 폐곡선 내에서 클릭이 수행되었다면, 해당 폐곡선의 내부 영역을 적용 영역으로서 판정할 수 있다. 예를 들어, 도 5에 도시된 예와 같은 립글로즈의 경우, 입술 영역 내에서 클릭이 이루어진 경우 입술 영역 전체를 적용 영역으로서 판정할 수 있다.
일 실시예에서, 적용 영역 판정부(170)는 적용 방식이 변형 영역 방식이면, 포인터 입력 정보를 이용하여 적용 영역을 판정할 수 있다. 더 상세히 설명하면, 적용 영역 판정부(170)는 사용자의 드래그 입력에 따라 화장 효과를 적용할 적용 영역을 결정할 수 있다. 예를 들어, 도 9에 도시된 예와 같은 마스카라의 경우, 사용자가 눈 근처에 포인터를 위치시키고 수행한 드래그 입력에 따라 마스카라를 적용할 영역을 판정할 수 있다.
일 실시예에서, 적용 영역 판정부(170)는 이와 같은 변형 영역 방식에 대해서는 가로 및 세로 입력에 따라 차등적으로 구분되어 기 설정되는 복수의 변형 영역들을 각 화장 도구마다 미리 설정하여 유지하고, 사용자로부터 입력된 드래그 정보가 어느 변형 영역에 해당하는지 판정함으로써 적용 영역을 판정할 수 있다.
다른 일 실시예에서, 적용 영역 판정부(170)는 포인터 입력 정보에 포함된 드래그 길이 정보 및 드래그 방향 정보를 이용하여 X 축 및 Y 축의 드래그 길이를 산출하고, 산출된 X축 및 Y축의 드래그 길이를 화장 도구별로 기 설정된 단위 길이로 나누어 X축 적용 영역 및 Y축 적용 영역을 산출함으로써, 적용 영역을 판정할 수 있다.
파라미터 산출부(180)는 화장 도구 정보 또는 포인터 입력 정보 중 적어도 하나를 이용하여, 판정된 적용 영역에 적용될 효과 파라미터를 산출할 수 있다. 파라미터 산출부(180)는 적용 방식을 반영하여 포인터 입력 정보를 해석하여 적용 영역에 적용될 효과 파라미터를 산출할 수 있다.
일 실시예에서, 파라미터 산출부(180)는 적용 방식이 프리 드로잉 방식이면, 해당 화장 도구별로 기 설정된, 또는 사용자에 의하여 선택된 블러싱 효과를 효과 파라미터로서 산출할 수 있다. 화장 기능 제어부(160)는 이와 같이 산출된 블러싱 효과를 적어도 하나의 블러싱 영역을 포함하는 적용 영역에 적용시킴으로써 화장 효과를 부여할 수 있다. 예를 들어, 도 6에 도시된 예와 같은 점 찍기의 경우, 클릭이 일어난 지점에 대하여 점에 해당하는 효과를 효과 파라미터로 산출할 수 있다. 여기에서, 점의 크기, 색갈 등의 세부적 파라미터는 화장 입력 인터페이스를 통하여 제공되어 선택되어질 수 있다.
일 실시예에서, 파라미터 산출부(180)는 적용 방식이 고정 영역 방식이면, 판정된 적용 영역을 대상으로 행해진 포인터 입력 정보를 이용하여 효과 파라미터를 산출할 수 있다.
일 실시예에서, 파라미터 산출부(180)는 판정된 적용 영역을 대상으로 행해진 클릭 정보 또는 드래그 길이 정보를 식별하고, 식별된 클릭 정보 또는 드래그 길이 정보로부터 클릭 정보의 횟수 또는 드래그의 길이에 따라 가중치를 부여하여 적용할 효과 수치를 산출할 수 있다. 파라미터 산출부(180)는 화장 도구에 따라 조정할 파라미터 항목(조정 파라미터)을 결정하고, 결정된 파라미터 항목에 대하여 산출된 효과 수치를 반영하여 효과 파라미터를 산출할 수 있다. 예를 들어, 도 5에 도시된 예와 같은 립글로즈의 경우, 도 5의 (a)처럼 드래그의 길이가 짧으면 보다 낮은 광택 수치를, (b)처럼 드래그의 길이가 길면 보다 높은 광택 수치를 부여하여 효과 파라미터를 산출할 수 있다.
여기에서, 화장 도구에 따라 조정할 파라미터 항목(조정 파라미터)은 색깔, 밝기, 광택, 되돌리기 중 어느 하나일 수 있다.
일 실시예에서, 파라미터 산출부(180)는 적용 방식이 변형 영역 방식이면, 판정된 적용 영역에 대하여 화장 도구에 따라 설정된 효과를 이용하여 효과 파라미터를 산출할 수 있다.
도 5 내지 도 11은 개시된 기술에서 제공될 수 있는 다양한 화장 도구 및 그에 대한 효과를 설명하기 위한 참고도들이다.
도 5는 립 글로스에 대한 예를 도시하고 있으며, 이러한 립 글로스는 전술한 바와 같이 고정 영역(입술)을 대상으로 하는 화장 도구일 수 있다. 따라서, 사용자가 도시된 바와 같이 드래그를 하면, 적용 영역 판정부(160)는 입술을 적용 영역으로서 판정하고 파라미터 산출부(180)는 드래그 길이에 따라 적용될 효과 파라미터를 산출할 수 있다. 적용 영역 판정부(160)는 입술에 대하여 효과 파라미터를 적용하여 해당 텍스처를 변경하고, 변경된 캐릭터에 대한 정보를 게임 클라이언트(200)에 제공할 수 있다.
도 6은 점 찍기에 대한 예를 도시하고 있으며, 점 찍기는 프리 드로잉 방식으로 적용 될 수 있다. 따라서, 도시된 예와 같이, 사용자에 의하여 클릭이 일어난 지점을 적용 영역으로, 사용자에 의하여 선택된 또는 기본 선택된 점 크기를 효과 파라미터로 하여 화장 효과를 적용할 수 있다.
도 7은 하일라이터에 대한 예를 도시하고 있으며, 하일라이터는 고정 영역 지정 방식으로 적용될 수 있다. 즉, 도시된 예와 같이 이마, 콧대, 눈 덩이, 볼과 같이 하일라이터가 적용될 수 있는 영역이 기 설정될 수 있으며, 사용자의 붓 터치 클릭 또는 드래그 정보를 이용하여 하일라이터의 효과(밝기 정도)를 산출하도록 할 수 있다.
도 8은 파운데이션(또는 볼터치)에 대한 예를 도시하고 있으며, 파운데이션은 프리 드로잉 방식으로 적용될 수 있다. 따라서, 사용자의 클릭 후 포인터의 이동 동선에 브러시 영역을 반영한 것이 적용 영역이 되며, 사용자에 의하여 선택된 또는 기본 설정된 색깔 등을 효과 파라미터로 하여 화장의 효과를 적용할 수 있다.
도 10 내지 도 11은 개시된 기술이 가상 캐릭터의 얼굴 외의 다른 외형에 대해서도 화장 효과를 부과할 수 있음을 도시하는 예이다.
도 10은 바디 밤에 대한 예를 도시하고 있으며, 캐릭터의 외형에 바디 밤을 드래그 한 영역을 적용 영역으로(프리 드로잉), 바디 밤의 색깔 또는 광택을 효과 파라미터로 하여 화장 효과를 부여할 수 있다.
도 11은 매니큐어(또는 패티큐어)에 대한 예를 도시하고 있으며, 도 11에 도시된 것과 같이 사용자의 자유로운 드로잉 경로를 적용 영역으로(프리 드로잉), 기 설정된 또는 사용자에 의하여 선택된 색깔 또는 광택을 효과 파라미터로 하여 화장 효과를 부여할 수 있다.
이하에서는, 도 12 내지 도 13을 참조하여 온라인 게임 제공 방법의 다양한 실시예들에 대하여 설명한다. 이하에서 설명 할 실시예들은 전술한 게임 제공 시스템(100)에서 수행되므로, 서로 상응하는 내용에 대해서는 중복하여 설명하지 않으나, 당업자는 전술한 기재로부터 후술할 본 온라인 게임 제공 방법의 일 실시예를 보다 명확하게 이해할 수 있을 것이다.
도 12는 개시된 기술에 따른 온라인 게임 제공 방법의 일 실시예를 설명하기 위한 순서도이다.
*도 12를 참조하여 온라인 게임 제공 방법의 일 실시예에 대하여 더 상세히 설명하면, 게임 제공 시스템(100)은 게임 클라이언트(200)에 캐릭터의 얼굴 및 적어도 하나의 화장 도구에 대한 목록을 포함하여 디스플레이하는 화장 입력 인터페이스를 제공할 수 있다(단계 S1210).
게임 제공 시스템(100)은 화장 입력 인터페이스를 통하여 게임 클라이언트(200)로부터 화장 도구 목록에서 선택된 어느 하나에 대한 화장 도구 정보 및 디스플레이된 캐릭터의 얼굴에 대하여 입력된 포인터 입력 정보를 수신하면(단계 S1220, 예), 화장 도구 정보를 이용하여 화장 효과의 적용 방식을 결정할 수 있다(단계 S1230).
게임 제공 시스템(100)은 결정된 적용 방식에 따라 포인터 입력 정보를 이용하여 화장 효과를 적용할 적용 영역을 판정하고(단계 S1240), 판정된 적용 영역에 적용될 효과 파라미터를 산출할 수 있다(단계 S1250).
게임 제공 시스템(100)은 적용 영역에 효과 파라미터를 적용하여 캐릭터의 얼굴 텍스처를 보정하고(단계 S1260), 텍스처가 보정된 캐릭터의 얼굴을 화장 입력 인터페이스를 통하여 제공할 수 있다(단계 S1270).
화장 효과의 적용 방식은 상기 적용 영역을 기준으로 구분될 수 있고, (1) 포인터의 이동 동선을 적용 영역으로 지정하는 프리 드로잉 방식, (2) 적용 영역이 고정되는 고정 영역 방식 및 (3) 적용 영역이 포인터 입력 정보에 따라 가변되는 변형 영역 방식 중 적어도 하나를 포함할 수 있다.
포인터 입력 정보는 클릭 정보, 드래그 길이 정보 및 드래그 방향 정보 중 적어도 하나를 포함할 수 있다.
단계 S1230 내지 S1250에 대한 일 실시예에서, 게임 제공 시스템(100)은 화장 도구 정보에 의하여 식별된 화장 도구가 프리 드로잉 방식에 속하는 화장 도구인지 확인하고, 만일 프리 드로잉 방식에 속하면 해당 화장 도구에 대한 블러싱 영역을 확인할 수 있다. 게임 제공 시스템(100)은 클릭 정보에 따른 클릭 마다 확인된 블러싱 영역을 적용하여 해당 영역의 텍스처를 변경할 수 있다.
단계 S1230 내지 S1250에 대한 일 실시예에서, 게임 제공 시스템(100)은 화장 도구 정보에 의하여 식별된 화장 도구가 고정 영역 방식에 속하는 화장 도구인지 확인하고, 만일 고정 영역 방식에 속하면 화장 도구 정보 또는 클릭 정보 중 적어도 하나를 이용하여 적용 영역을 판정할 수 있다. 게임 제공 시스템(100)은 판정된 적용 영역을 대상으로 행해진 포인터 입력 정보를 이용하여 효과 파라미터를 산출할 수 있다.
단계 S1230 내지 S1250에 대한 일 실시예에서, 게임 제공 시스템(100)은 폐곡선 여부를 이용하여 적용 영역을 판정할 수 있다. 더 상세히 설명하면, 게임 제공 시스템(100)은 클릭 정보를 이용하여 소정의 폐곡선 내에서 클릭이 수행되었는지 확인하고, 만일 클릭이 수행되었으면 해당 폐곡선의 내부 영역을 적용 영역으로서 판정할 수 있다.
단계 S1230 내지 S1250에 대한 일 실시예에서, 게임 제공 시스템(100)은 클릭 또는 드래그 길이를 이용하여 효과 파라미터를 산출할 수 있다. 더 상세히 설명하면, 게임 제공 시스템(100)은 판정된 적용 영역을 대상으로 행해진 클릭 정보 또는 드래그 길이 정보를 식별하고, 식별된 클릭 정보 또는 드래그 길이 정보로부터 클릭 정보의 횟수 또는 드래그의 길이에 따라 가중치를 부여하여 적용할 효과 수치를 산출할 수 있다. 게임 제공 시스템(100)은 화장 도구에 따라 조정할 파라미터 항목을 결정하고, 결정된 파라미터 항목에 대하여 산출된 효과 수치를 반영하여 효과 파라미터를 산출할 수 있다. 여기에서, 파라미터 항목은 색깔, 밝기, 광택, 되돌리기 중 어느 하나일 수 있다.
단계 S1230 내지 S1250에 대한 일 실시예에서, 게임 제공 시스템(100)은 화장 도구 정보에 의하여 식별된 화장 도구가 변형 영역 방식에 속하는 화장 도구인지 확인하고, 만일 변형 영역 방식에 속하면 포인터 입력 정보를 이용하여 적용 영역을 판정할 수 있다. 게임 제공 시스템(100)은 판정된 적용 영역에 대하여 화장 도구에 따라 설정된 효과를 이용하여 효과 파라미터를 산출할 수 있다.
단계 S1230 내지 S1250에 대한 일 실시예에서, 게임 제공 시스템(100)은 X축 및 Y축 드래그 길이를 이용하여 가변 영역을 산출할 수 있다. 더 상세히 설명하면, 게임 제공 시스템(100)은 포인터 입력 정보에 포함된 드래그 길이 정보 및 드래그 방향 정보를 이용하여 X 축 및 Y 축의 드래그 길이를 산출하고, 산출된 X축 및 Y축의 드래그 길이를 화장 도구별로 기 설정된 단위 길이로 나누어 X축 적용 영역 및 Y축 적용 영역을 산출할 수 있다.
도 13은 개시된 기술에 따른 온라인 게임 제공 방법의 다른 일 실시예를 설명하기 위한 순서도이다.
도 13을 참조하여 온라인 게임 제공 방법의 다른 일 실시예에 대하여 더 상세히 설명하면, 게임 제공 시스템(100)은 게임 클라이언트(200)에 대하여 소정의 캐릭터의 외형을 디스플레이하는 화장 입력 인터페이스를 제공하고(단계 S1310), 제공된 화장 입력 인터페이스를 통하여 화장 도구 정보 및 포인터 입력 정보를 수신할 수 있다(단계 S1320, 예).
게임 제공 시스템(100)은 화장 도구 정보에 따라 복수의 화장 효과의 적용 방식 중 어느 하나를 선택할 수 있다(단계 S1330).
게임 제공 시스템(100)은 선택된 적용 방식에 따라 상기 화장 도구 정보 또는 포인터 입력 정보 중 적어도 하나를 이용하여 화장 효과를 적용할 적용 영역을 판정할 수 있고(단계 S1340), 판정된 적용 영역에 적용될 효과 파라미터를 산출할 수 있다(단계 S1350).
게임 제공 시스템(100)은 적용 영역에 효과 파라미터를 적용하여 캐릭터의 얼굴 텍스처를 보정하고(단계 S1260), 텍스처가 보정된 캐릭터의 외형을 화장 입력 인터페이스를 통하여 제공할 수 있다(단계 S1270).
단계 S1310 내지 S1320에 대한 일 실시예에서, 게임 제공 시스템(100)은 화장 도구 정보를 수신하면, 해당 화장 도구가 적용될 수 있는 캐릭터 외형의 적어도 일부 영역를 확대하여 게임 클라이언트(200)에 제공할 수 있다.
단계 S1330에 대한 일 실시예에서, 게임 제공 시스템(100)은 만일 화장 도구가 파운데이션, 점, 컨실러 및 매니큐어 중 어느 하나이면, 포인터의 이동 동선에 따라 효과를 지정하는 프리 드로잉 방식을 적용 방식으로서 선택할 수 있다.
단계 S1330에 대한 일 실시예에서, 게임 제공 시스템(100)은 만일 화장 도구가 블러셔, 하이라이터, 립스틱 및 립글로즈 중 어느 하나이면, 해당 화장 도구 별로 효과의 적용 영역이 고정되는 고정 영역 방식을 적용 방식으로서 이용할 수 있다.
단계 S1330에 대한 일 실시예에서, 게임 제공 시스템(100)은 만일 화장 도구가 아이라이너 및 아이새도우 중 어느 하나이면, 포인터 입력 정보에 따라 효과의 적용 영역이 가변되는 변형 영역 방식을 적용 방식으로서 이용할 수 있다.
상기에서는 본 출원의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 출원의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 출원을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (15)

  1. 네트워크를 통하여 적어도 하나의 게임 클라이언트와 연결될 수 있고, 연결된 게임 클라이언트에 가상의 캐릭터를 기반으로 하는 온라인 게임을 제공할 수 있는 온라인 게임 제공 시스템에서 수행되는 온라인 게임 제공 방법에 있어서,
    (a) 게임 클라이언트에 대하여 소정의 캐릭터의 외형을 디스플레이하거나 게임 클라이언트에 캐릭터의 얼굴 및 적어도 하나의 화장 도구에 대한 목록을 포함하여 디스플레이하는 화장 입력 인터페이스를 제공하는 단계;
    (b) 상기 게임 클라이언트로부터 상기 화장 도구 목록에서 선택된 어느 하나에 대한 화장 도구 정보 및 상기 디스플레이된 캐릭터의 얼굴에 대하여 입력된 포인터 입력 정보를 수신하는 단계;
    (c) 상기 화장 도구 정보를 이용하여 화장 효과의 적용 방식을 결정하고, 상기 결정된 적용 방식에 따라 상기 포인터 입력 정보를 이용하여 화장 효과를 적용할 적용 영역을 판정하고 상기 판정된 적용 영역에 적용될 효과 파라미터를 산출하는 단계; 및
    (d) 상기 적용 영역에 상기 효과 파라미터를 적용하여 상기 캐릭터의 얼굴 텍스처를 보정하고, 텍스처가 보정된 캐릭터의 얼굴을 상기 화장 입력 인터페이스를 통하여 제공하는 단계;
    를 포함하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  2. 제1항에 있어서, 상기 화장 효과의 적용 방식은
    상기 적용 영역을 기준으로 구분되고,
    상기 포인터의 이동 동선을 적용 영역으로 지정하는 프리 드로잉 방식, 상기 적용 영역이 고정되는 고정 영역 방식 및 상기 적용 영역이 상기 포인터 입력 정보에 따라 가변되는 변형 영역 방식 중 적어도 하나를 포함하는 것
    을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  3. 제2항에 있어서, 상기 포인터 입력 정보는
    클릭 정보, 드래그 길이 정보 및 드래그 방향 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  4. 제2항에 있어서, 상기 (c) 단계는
    상기 화장 도구 정보에 의하여 식별된 화장 도구가 상기 프리 드로잉 방식에 속하는 화장 도구인지 확인하는 단계;
    상기 확인 결과 프리 드로잉 방식에 속하면, 해당 화장 도구에 대한 블러싱 영역을 확인하는 단계; 및
    상기 클릭 정보에 따른 클릭 마다 상기 확인된 블러싱 영역을 적용하여 해당 영역의 텍스처를 변경하는 단계;
    를 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  5. 제2항에 있어서, 상기 (c) 단계는
    (c-1) 상기 화장 도구 정보에 의하여 식별된 화장 도구가 상기 고정 영역 방식에 속하는 화장 도구인지 확인하는 단계;
    (c-2) 상기 확인 결과 고정 영역 방식에 속하면, 상기 화장 도구 정보 또는 상기 클릭 정보 중 적어도 하나를 이용하여 적용 영역을 판정하는 단계; 및
    (c-3) 상기 판정된 적용 영역을 대상으로 행해진 포인터 입력 정보를 이용하여 상기 효과 파라미터를 산출하는 단계;
    를 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  6. 제5항에 있어서, 상기 (c-2) 단계는
    상기 클릭 정보를 이용하여, 소정의 폐곡선 내에서 클릭이 수행되었는지 확인하는 단계; 및
    상기 확인 결과 클릭이 수행되었으면, 해당 폐곡선의 내부 영역을 상기 적용 영역으로서 판정하는 단계;
    를 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  7. 제5항에 있어서, 상기 (c-3) 단계는
    상기 판정된 적용 영역을 대상으로 행해진 클릭 정보 또는 드래그 길이 정보를 식별하는 단계;
    상기 식별된 클릭 정보 또는 드래그 길이 정보로부터 클릭 정보의 횟수 또는 드래그의 길이에 따라 가중치를 부여하여 적용할 효과 수치를 산출하는 단계; 및
    상기 화장 도구에 따라 조정할 파라미터 항목을 결정하고, 상기 결정된 파라미터 항목에 대하여 상기 산출된 효과 수치를 반영하여 상기 효과 파라미터를 산출하는 단계;
    를 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  8. 제2항에 있어서, 상기 (c) 단계는
    (c-1) 상기 화장 도구 정보에 의하여 식별된 화장 도구가 상기 변형 영역 방식에 속하는 화장 도구인지 확인하는 단계;
    (c-2) 상기 확인 결과 변형 영역 방식에 속하면, 상기 포인터 입력 정보를 이용하여 적용 영역을 판정하는 단계; 및
    (c-3) 상기 판정된 적용 영역에 대하여 상기 화장 도구에 따라 설정된 효과를 이용하여 상기 효과 파라미터를 산출하는 단계;
    를 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  9. 제8항에 있어서, 상기 (c-2) 단계는
    상기 포인터 입력 정보에 포함된 드래그 길이 정보 및 드래그 방향 정보를 이용하여 X 축 및 Y 축의 드래그 길이를 산출하는 단계; 및
    상기 산출된 X축 및 Y축의 드래그 길이를 화장 도구별로 기 설정된 단위 길이로 나누어 X축 적용 영역 및 Y축 적용 영역을 산출하는 단계;
    를 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  10. 제1항에 있어서, 상기 (a) 단계는
    상기 화장 도구 정보를 수신하면, 해당 화장 도구가 적용될 수 있는 상기 캐릭터 외형의 적어도 일부 영역를 확대하여 상기 게임 클라이언트에 제공하는 단계;
    를 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  11. 제1항에 있어서, 상기 (c) 단계는
    만일 화장 도구가 파운데이션, 점, 컨실러 및 매니큐어 중 어느 하나이면, 포인터의 이동 동선에 따라 효과를 지정하는 프리 드로잉 방식을 이용하는 단계;
    를 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  12. 제1항에 있어서, 상기 (c) 단계는
    만일 화장 도구가 블러셔, 하이라이터, 립스틱 및 립글로즈 중 어느 하나이면, 해당 화장 도구 별로 효과의 적용 영역이 고정되는 고정 영역 방식을 이용하는 단계;
    를 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  13. 네트워크를 통하여 적어도 하나의 게임 클라이언트와 연결될 수 있고, 연결된 게임 클라이언트에 가상의 캐릭터를 기반으로 하는 온라인 게임을 제공할 수 있는 온라인 게임 제공 시스템에 있어서,
    화장 도구 목록 및 캐릭터의 외형을 디스플레이하는 화장 입력 인터페이스를 제공하고, 지정된 적용 영역에 대하여 효과 파라미터를 적용하여 보정된 캐릭터 외형을 재 제공하는 화장 기능 제어부;
    상기 디스플레이된 캐릭터의 외형에 대한 포인터 입력 정보 및 상기 도구 목록에서 선택된 화장 도구를 포함하는 화장 도구 정보 중 적어도 하나를 이용하여, 화장 효과를 적용할 적용 영역을 판정하는 적용 영역 판정부; 및
    상기 화장 도구 정보 및 상기 포인터 입력 정보 중 적어도 하나를 이용하여, 상기 판정된 적용 영역에 적용될 효과 파라미터를 산출하는 파라미터 산출부;
    를 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 시스템.
  14. 제13항에 있어서, 상기 화장 기능 제어부는
    상기 화장 도구 정보를 이용하여 화장 효과의 적용 방식을 결정하고,
    상기 적용 영역 판정부는
    상기 결정된 적용 방식을 기초로, 상기 포인터 입력 정보 또는 상기 화장 도구 정보 중 적어도 하나를 이용하여 화장 효과를 적용할 적용 영역을 판정하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 시스템.
  15. 온라인 게임 제공 방법을 실행시키기 위한 프로그램을 기록한 기록매체에 있어서,
    상기 프로그램은 네트워크를 통하여 적어도 하나의 게임 클라이언트와 연결될 수 있고, 연결된 게임 클라이언트에 가상의 캐릭터를 기반으로 하는 온라인 게임을 제공할 수 있는 온라인 게임 제공 시스템에서 구동될 수 있는 프로그램으로서,
    (a) 게임 클라이언트에 대하여 소정의 캐릭터의 외형을 디스플레이하거나 게임 클라이언트에 캐릭터의 얼굴 및 적어도 하나의 화장 도구에 대한 목록을 포함하여 디스플레이하는 화장 입력 인터페이스를 제공하는 기능;
    (b) 상기 게임 클라이언트로부터 상기 화장 도구 목록에서 선택된 어느 하나에 대한 화장 도구 정보 및 상기 디스플레이된 캐릭터의 얼굴에 대하여 입력된 포인터 입력 정보를 수신하는 기능;
    (c) 상기 화장 도구 정보를 이용하여 화장 효과의 적용 방식을 결정하고, 상기 결정된 적용 방식에 따라 상기 포인터 입력 정보를 이용하여 화장 효과를 적용할 적용 영역을 판정하고 상기 판정된 적용 영역에 적용될 효과 파라미터를 산출하는 기능; 및
    (d) 상기 적용 영역에 상기 효과 파라미터를 적용하여 상기 캐릭터의 얼굴 텍스처를 보정하고, 텍스처가 보정된 캐릭터의 얼굴을 상기 화장 입력 인터페이스를 통하여 제공하는 기능;
    을 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법을 기록한 기록 매체.
PCT/KR2013/001952 2012-03-13 2013-03-11 캐릭터 화장을 제공하는 온라인 게임 제공 방법 및 그 시스템 WO2013137609A1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US14/385,177 US20150038225A1 (en) 2012-03-13 2013-03-11 Online game providing method for providing character makeup and system therefor
EP13761812.0A EP2827296A4 (en) 2012-03-13 2013-03-11 ONLINE GAME PROVIDING METHOD FOR PROVIDING A CHARACTER COMPOSITION AND CORRESPONDING SYSTEM
CN201380010575.5A CN104137140A (zh) 2012-03-13 2013-03-11 用于提供角色化妆的在线游戏提供方法及其系统
JP2015500358A JP2015513924A (ja) 2012-03-13 2013-03-11 キャラクタ化粧を提供するオンラインゲーム提供方法及びそのシステム
RU2014141047/08A RU2586834C2 (ru) 2012-03-13 2013-03-11 Способ предоставления онлайн-игр для предоставления гримирования персонажей и система для этого

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0025477 2012-03-13
KR1020120025477A KR101398188B1 (ko) 2012-03-13 2012-03-13 캐릭터 화장을 제공하는 온라인 게임 제공 방법 및 그 시스템

Publications (1)

Publication Number Publication Date
WO2013137609A1 true WO2013137609A1 (ko) 2013-09-19

Family

ID=49161450

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/001952 WO2013137609A1 (ko) 2012-03-13 2013-03-11 캐릭터 화장을 제공하는 온라인 게임 제공 방법 및 그 시스템

Country Status (7)

Country Link
US (1) US20150038225A1 (ko)
EP (1) EP2827296A4 (ko)
JP (1) JP2015513924A (ko)
KR (1) KR101398188B1 (ko)
CN (1) CN104137140A (ko)
RU (1) RU2586834C2 (ko)
WO (1) WO2013137609A1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101697286B1 (ko) * 2015-11-09 2017-01-18 경북대학교 산학협력단 사용자 스타일링을 위한 증강현실 제공 장치 및 방법
CN106251191A (zh) * 2016-07-15 2016-12-21 深圳市金立通信设备有限公司 一种终端屏幕的显示控制方法及终端
CN107551549A (zh) * 2017-08-09 2018-01-09 广东欧珀移动通信有限公司 游戏形象调整方法及其装置
CN110992248B (zh) * 2019-11-27 2021-03-19 腾讯科技(深圳)有限公司 唇妆特效的显示方法、装置、设备及存储介质
CN111408129B (zh) * 2020-02-28 2020-12-08 苏州叠纸网络科技股份有限公司 一种基于虚拟角色形象的交互方法、装置及存储介质
CN111861632B (zh) * 2020-06-05 2023-06-30 北京旷视科技有限公司 虚拟试妆方法、装置、电子设备及可读存储介质
US20220202168A1 (en) * 2020-12-30 2022-06-30 L'oreal Digital makeup palette
CN112843702B (zh) * 2021-03-11 2024-06-25 网易(杭州)网络有限公司 一种颜色调整方法、装置、电子设备和存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06319613A (ja) * 1993-04-30 1994-11-22 Onishi Netsugaku:Kk 顔のメークアップ支援装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3912834B2 (ja) * 1997-03-06 2007-05-09 有限会社開発顧問室 顔画像の修正方法、化粧シミュレーション方法、化粧方法、化粧サポート装置及びファンデーション転写膜
JP2003173451A (ja) * 2001-12-05 2003-06-20 Sony Communication Network Corp キャラクタ表示方法およびその方法を利用可能な端末
US20050143174A1 (en) * 2003-08-19 2005-06-30 Goldman Daniel P. Systems and methods for data mining via an on-line, interactive game
JP2005092588A (ja) * 2003-09-18 2005-04-07 Hitachi Software Eng Co Ltd 合成画像プリント装置及び画像編集方法
US20070019882A1 (en) * 2004-01-30 2007-01-25 Shoji Tanaka Makeup simulation program, makeup simulation device, and makeup simulation method
US7775885B2 (en) * 2005-10-14 2010-08-17 Leviathan Entertainment, Llc Event-driven alteration of avatars
CN101379460B (zh) * 2006-01-31 2011-09-28 吉田健治 图像处理方法
WO2007128117A1 (en) * 2006-05-05 2007-11-15 Parham Aarabi Method. system and computer program product for automatic and semi-automatic modification of digital images of faces
KR20090002176A (ko) * 2007-06-20 2009-01-09 엔에이치엔(주) 네트워크 상에서 게임 아바타의 랭킹을 제공하는 시스템 및그 방법
US20090032100A1 (en) * 2007-08-02 2009-02-05 Eugene Oak Position adjustable awning equipped with solar cell plates thereon
WO2009021124A2 (en) * 2007-08-07 2009-02-12 Dna Digital Media Group System and method for a motion sensing amusement device
JP2009064423A (ja) * 2007-08-10 2009-03-26 Shiseido Co Ltd メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム
US20090312100A1 (en) * 2008-06-12 2009-12-17 Harris Scott C Face Simulation in Networking
JP5442966B2 (ja) * 2008-07-10 2014-03-19 株式会社 資生堂 ゲーム装置、ゲーム制御方法、ゲーム制御プログラム、及び、該プログラムを記録した記録媒体
JP5029852B2 (ja) * 2010-01-07 2012-09-19 花王株式会社 メイクアップシミュレーション方法
RU2438647C1 (ru) * 2010-04-30 2012-01-10 Елена Юрьевна Кутузова Косметическое средство для формирования художественного образа (варианты)
RU2475290C1 (ru) * 2010-11-17 2013-02-20 Общество С Ограниченной Ответственностью "Айтэм Мультимедиа" Устройство для игр
JP2012181688A (ja) * 2011-03-01 2012-09-20 Sony Corp 情報処理装置、情報処理方法、情報処理システムおよびプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06319613A (ja) * 1993-04-30 1994-11-22 Onishi Netsugaku:Kk 顔のメークアップ支援装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
NAVER BLOG, MAKEUP METHOD-SITE FOR MAKEUP SIMULATION, TAAZ, 9 February 2009 (2009-02-09), XP055167023, Retrieved from the Internet <URL:http://blog.naver.com/happy2bean/30042556976> *
NAVER BLOG: "Makeup! Hair style! Try computer simulation at TAAZ!", 7 January 2011 (2011-01-07), XP055167026, Retrieved from the Internet <URL:http://blog.naver.com/kachi6292/90103904651> *
PANDORA TV: "Makeup Debut", 27 August 2009 (2009-08-27), Retrieved from the Internet <URL:http://channel.pandora.tv/channel/video.ptv?ch_userid=fkaqhrddwn&prgid=35971493> *

Also Published As

Publication number Publication date
KR20130104190A (ko) 2013-09-25
KR101398188B1 (ko) 2014-05-30
RU2586834C2 (ru) 2016-06-10
JP2015513924A (ja) 2015-05-18
CN104137140A (zh) 2014-11-05
US20150038225A1 (en) 2015-02-05
RU2014141047A (ru) 2016-05-10
EP2827296A1 (en) 2015-01-21
EP2827296A4 (en) 2015-11-18

Similar Documents

Publication Publication Date Title
WO2013137609A1 (ko) 캐릭터 화장을 제공하는 온라인 게임 제공 방법 및 그 시스템
JP7482242B2 (ja) 表情トランスファーモデルの訓練方法、表情トランスファー方法及び装置並びにコンピュータ装置及びプログラム
WO2020180134A1 (ko) 이미지 수정 시스템 및 이의 이미지 수정 방법
US9224248B2 (en) Method of virtual makeup achieved by facial tracking
JP6778877B2 (ja) メイクパーツ作成装置、メイクパーツ利用装置、メイクパーツ作成方法、メイクパーツ利用方法、メイクパーツ作成プログラム、およびメイクパーツ利用プログラム
CN104331164A (zh) 一种基于手势识别的相似度阈值分析的手势运动平滑处理方法
WO2021242005A1 (ko) 전자 장치 및 사용자 아바타 기반의 이모지 스티커를 생성하는 방법
WO2023138345A1 (zh) 虚拟形象生成方法和系统
WO2013141510A1 (ko) 사용자에 의한 아이템 외형 변경을 지원하는 온라인 게임 제공 방법 및 그 시스템
US10628984B2 (en) Facial model editing method and apparatus
CN115346024A (zh) 虚拟形象生成方法
WO2022215823A1 (ko) 영상 생성 방법 및 장치
CN112083863A (zh) 图像处理方法、装置、电子设备及可读存储介质
CN104484034A (zh) 一种基于手势识别的手势运动基元过渡帧定位方法
Shin et al. Incorporating real-world object into virtual reality: using mobile device input with augmented virtuality
CN111383343A (zh) 一种面向家装设计的基于生成对抗网络技术的增强现实图像渲染上色方法
WO2022097823A1 (ko) 화장자의 영상 이미지 추출 및 얼굴 투영 시스템
CN112446821A (zh) 一种图像处理方法、装置及电子设备
CN112037338A (zh) Ar形象的创建方法、终端设备以及可读存储介质
Yang et al. Bimanual natural user interaction for 3D modelling application using stereo computer vision
CN115999156B (zh) 角色控制方法、装置、设备及存储介质
WO2023068571A1 (ko) 전자 장치 및 전자 장치의 제어 방법
KR102293108B1 (ko) 화장자의 영상 이미지 추출 및 얼굴 투영 시스템
WO2019083234A1 (ko) 공간 콘텐츠 체험 정보의 시각화 및 보상 시스템
WO2023172063A1 (ko) 오픈 아바타 제공 서버 및 오픈 아바타 제공 프로그램

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13761812

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14385177

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2015500358

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2013761812

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2013761812

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2014141047

Country of ref document: RU

Kind code of ref document: A