KR20130104190A - 캐릭터 화장을 제공하는 온라인 게임 제공 방법 및 그 시스템 - Google Patents

캐릭터 화장을 제공하는 온라인 게임 제공 방법 및 그 시스템 Download PDF

Info

Publication number
KR20130104190A
KR20130104190A KR1020120025477A KR20120025477A KR20130104190A KR 20130104190 A KR20130104190 A KR 20130104190A KR 1020120025477 A KR1020120025477 A KR 1020120025477A KR 20120025477 A KR20120025477 A KR 20120025477A KR 20130104190 A KR20130104190 A KR 20130104190A
Authority
KR
South Korea
Prior art keywords
makeup
information
effect
character
providing
Prior art date
Application number
KR1020120025477A
Other languages
English (en)
Other versions
KR101398188B1 (ko
Inventor
이정현
Original Assignee
주식회사 네오위즈블레스스튜디오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 네오위즈블레스스튜디오 filed Critical 주식회사 네오위즈블레스스튜디오
Priority to KR1020120025477A priority Critical patent/KR101398188B1/ko
Priority to JP2015500358A priority patent/JP2015513924A/ja
Priority to US14/385,177 priority patent/US20150038225A1/en
Priority to EP13761812.0A priority patent/EP2827296A4/en
Priority to PCT/KR2013/001952 priority patent/WO2013137609A1/ko
Priority to RU2014141047/08A priority patent/RU2586834C2/ru
Priority to CN201380010575.5A priority patent/CN104137140A/zh
Publication of KR20130104190A publication Critical patent/KR20130104190A/ko
Application granted granted Critical
Publication of KR101398188B1 publication Critical patent/KR101398188B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 출원은 게임 제공 기술에 관한 것으로, 개시된 기술의 일 실시예에 따른 온라인 게임 제공 방법은 네트워크를 통하여 적어도 하나의 게임 클라이언트와 연결될 수 있고, 연결된 게임 클라이언트에 가상의 캐릭터를 기반으로 하는 온라인 게임을 제공할 수 있는 온라인 게임 제공 시스템에서 수행된다. 상기 온라인 게임 제공 방법은 (a) 게임 클라이언트에 캐릭터의 얼굴 및 적어도 하나의 화장 도구에 대한 목록을 포함하여 디스플레이하는 화장 입력 인터페이스를 제공하는 단계, (b) 상기 게임 클라이언트로부터 상기 화장 도구 목록에서 선택된 어느 하나에 대한 화장 도구 정보 및 상기 디스플레이된 캐릭터의 얼굴에 대하여 입력된 포인터 입력 정보를 수신하는 단계, (c) 상기 화장 도구 정보를 이용하여 화장 효과의 적용 방식을 결정하고, 상기 결정된 적용 방식에 따라 상기 포인터 입력 정보를 이용하여 화장 효과를 적용할 적용 영역을 판정하고 상기 판정된 적용 영역에 적용될 효과 파라미터를 산출하는 단계 및 (d) 상기 적용 영역에 상기 효과 파라미터를 적용하여 상기 캐릭터의 얼굴 텍스처를 보정하고, 텍스처가 보정된 캐릭터의 얼굴을 상기 화장 입력 인터페이스를 통하여 제공하는 단계를 포함한다. 본 출원의 개시된 기술에 따르면, 온라인 게임에서 제공되는 가상의 캐릭터에 대하여 실제 화장과 동등한 화장 환경을 제공함으로써, 가상 캐릭터를 다양하게 꾸밀 수 있으며 타 캐릭터와 차별적이고 개성적인 꾸밈을 가능하게 하는 효과가 있다.

Description

캐릭터 화장을 제공하는 온라인 게임 제공 방법 및 그 시스템 {METHOD FOR PROVIDING ON-LINE GAME SUPPORTING CHARACTER MAKE UP AND SYSTEM THERE OF}
본 출원은 게임 제공 기술에 관한 것으로, 보다 상세하게는, 온라인 게임에서 사용자가 조작하는 가상의 캐릭터에 대하여 실제와 같은 화장 기능을 부여함으로써 개인의 개성을 반영하여 캐릭터를 꾸미고 보다 실제적인 가상 캐릭터를 제공할 수 있는 캐릭터 화장을 제공하는 온라인 게임 제공 방법 및 그 시스템에 관한 것이다.
컴퓨팅 디바이스 및 네트워크 환경의 발달에 따라, 온라인 기반의 게임이 크게 발전하고 있다. 이러한 온라인 기반의 게임은 사용자들간 상호 연관이 발생한다는 점에서, 종래의 프로그램을 대상으로 소정의 액션을 수행하는 오프라인 게임과 차별성이 인정되며 급속하게 발전하기 시작했다.
초기의 온라인 게임은 MORPG(Multiplayer Online Role Playing Game)의 종류가 다수였으나, 네트워크의 대역폭 확대, 컴퓨팅 디바이스의 발전에 따라 점차 다양한 종류의 온라인 게임이 제공되고 있다.
이러한 다양한 온라인 게임의 대표적인 특징으로는, 사용자를 대신하는 가상의 캐릭터를 게임의 진행 객체로서 사용하는 것이다. 따라서, 온라인 게임의 컨텐츠를 직접 수행하는 가상의 캐릭터는 게임에서 제공되는 가상 세계에서 사용자을 나타내는 역할을 수행하게 되었다.
이로 인하여서, 가상 캐릭터에 대한 개성있는 표현에 대한 욕구가 지속적으로 존재하고 있다. 즉, 자신의 가상 캐릭터의 표현을 타인의 가상 캐릭터와 차별적으로 하고자 하는 사용자들의 욕구가 다양하게 표출되고 있다.
따라서, 최근에는 가상 캐릭터를 꾸미기 위한 다양한 기술들이 제공되고 있다. 예를 들어, 캐릭터를 다양한 모습을 생성할 수 있도록 하거나, 캐릭터가 입는 옷을 다양하게 제공하는 등이 그러한 것들이다.
그러나, 이러한 종래의 기술들은 그 표현할 수 있는 다양성에 대한 한계가 존재하고 있다. 즉, 캐릭터가 입을 수 있는 옷이나, 캐릭터의 생김새 또한 유행 등을 따라 유사하게 이뤄지는 성향이 있어, 캐릭터를 개성있고 독특하게 꾸미는 근본적인 니즈를 만족시키기 어려운 한계성이 있다. 또한 캐릭터의 생김새의 경우는, 한번 확정되면 수정하기가 어려운 한계성도 지니고 있었다.
또한, 게임 엔진의 발전에 따라 캐릭터의 정밀하고 사실적인 묘사도 가능하므로, 이러한 발전한 게임 환경에서 자신의 캐릭터를 타인의 캐릭터와 차별적이고 개성있게 꾸밀 수 있는 수단에 대한 게임 사용자의 니즈가 점점 더 증가하고 있는 실정이다.
본 출원은 온라인 게임에서 제공되는 가상의 캐릭터에 대하여 실제 화장과 동등한 화장 환경을 제공함으로써, 가상 캐릭터를 다양하게 꾸밀 수 있으며 타 캐릭터와 차별적이고 개성적인 꾸밈을 가능하게 하는 캐릭터 화장을 제공하는 온라인 게임 제공 기술을 제공하고자 한다.
또한, 본 출원은 가상 캐릭터에 대한 화장을 수행하는 절차 및 화장 도구의 효과를 실제 화장과 유사하게 설정함으로써, 화장으로 꾸미는 그 절차 자체를 하나의 게임과 같이 흥미있게 수행할 수 있는 온라인 게임 제공 기술을 제공하고자 한다.
또한, 본 출원은 화장 도구의 종류에 따라 사용자의 클릭 입력을 다르게 해석하여 화장의 효과가 적용되는 적용 범위를 고정적으로 또는 가변적으로 설정하고 해당 범위에 대한 효과 파라미터를 산출함으로써, 화장의 효과를 다양하게 적용할 수 있으면서도 화장의 효과를 발휘하기 위한 입력 단계를 효율적으로 제공할 수 있는 온라인 게임 제공 기술을 제공하고자 한다.
실시예들 중에서, 온라인 게임 제공 방법은 네트워크를 통하여 적어도 하나의 게임 클라이언트와 연결될 수 있고, 연결된 게임 클라이언트에 가상의 캐릭터를 기반으로 하는 온라인 게임을 제공할 수 있는 온라인 게임 제공 시스템에서 수행된다. 상기 온라인 게임 제공 방법은 (a) 게임 클라이언트에 캐릭터의 얼굴 및 적어도 하나의 화장 도구에 대한 목록을 포함하여 디스플레이하는 화장 입력 인터페이스를 제공하는 단계, (b) 상기 게임 클라이언트로부터 상기 화장 도구 목록에서 선택된 어느 하나에 대한 화장 도구 정보 및 상기 디스플레이된 캐릭터의 얼굴에 대하여 입력된 포인터 입력 정보를 수신하는 단계, (c) 상기 화장 도구 정보를 이용하여 화장 효과의 적용 방식을 결정하고, 상기 결정된 적용 방식에 따라 상기 포인터 입력 정보를 이용하여 화장 효과를 적용할 적용 영역을 판정하고 상기 판정된 적용 영역에 적용될 효과 파라미터를 산출하는 단계 및 (d) 상기 적용 영역에 상기 효과 파라미터를 적용하여 상기 캐릭터의 얼굴 텍스처를 보정하고, 텍스처가 보정된 캐릭터의 얼굴을 상기 화장 입력 인터페이스를 통하여 제공하는 단계를 포함한다.
실시예들 중에서, 온라인 게임 제공 방법은 네트워크를 통하여 적어도 하나의 게임 클라이언트와 연결될 수 있고, 연결된 게임 클라이언트에 가상의 캐릭터를 기반으로 하는 온라인 게임을 제공할 수 있는 온라인 게임 제공 시스템에서 수행된다. 상기 온라인 게임 제공 방법은 (a) 게임 클라이언트에 대하여 소정의 캐릭터의 외형을 디스플레이하는 화장 입력 인터페이스를 제공하고, 상기 제공된 화장 입력 인터페이스를 통하여 화장 도구 정보 및 포인터 입력 정보를 수신하는 단계, (b) 화장 도구 정보에 따라 복수의 화장 효과의 적용 방식 중 어느 하나를 선택하는 단계 및 (c) 상기 결정된 적용 방식에 따라 상기 화장 도구 정보 또는 포인터 입력 정보 중 적어도 하나를 이용하여 화장 효과를 적용할 적용 영역을 판정하고, 판정된 적용 영역에 적용될 효과 파라미터를 산출하는 단계를 포함한다.
실시예들 중에서, 온라인 게임 제공 시스템은 네트워크를 통하여 적어도 하나의 게임 클라이언트와 연결될 수 있고, 연결된 게임 클라이언트에 가상의 캐릭터를 기반으로 하는 온라인 게임을 제공할 수 있다. 상기 온라인 게임 제공 시스템은 화장 기능 제어부, 적용 영역 판정부 및 파라미터 산출부를 포함한다. 상기 화장 기능 제어부는 화장 도구 목록 및 캐릭터의 외형을 디스플레이하는 화장 입력 인터페이스를 제공하고, 지정된 적용 영역에 대하여 효과 파라미터를 적용하여 보정된 캐릭터 외형을 재 제공한다. 상기 적용 영역 판정부는 상기 디스플레이된 캐릭터의 외형에 대한 포인터 입력 정보 및 상기 도구 목록에서 선택된 화장 도구를 포함하는 화장 도구 정보 중 적어도 하나를 이용하여, 화장 효과를 적용할 적용 영역을 판정한다. 상기 파라미터 산출부는 상기 화장 도구 정보 및 상기 포인터 입력 정보 중 적어도 하나를 이용하여, 상기 판정된 적용 영역에 적용될 효과 파라미터를 산출한다.
실시예들 중에서, 기록 매체는 온라인 게임 제공 방법을 실행시키기 위한 프로그램을 기록한다. 상기 프로그램은 네트워크를 통하여 적어도 하나의 게임 클라이언트와 연결될 수 있고, 연결된 게임 클라이언트에 가상의 캐릭터를 기반으로 하는 온라인 게임을 제공할 수 있는 온라인 게임 제공 시스템에서 구동될 수 있는 프로그램으로서, (a) 게임 클라이언트에 캐릭터의 얼굴 및 적어도 하나의 화장 도구에 대한 목록을 포함하여 디스플레이하는 화장 입력 인터페이스를 제공하는 기능, (b) 상기 게임 클라이언트로부터 상기 화장 도구 목록에서 선택된 어느 하나에 대한 화장 도구 정보 및 상기 디스플레이된 캐릭터의 얼굴에 대하여 입력된 포인터 입력 정보를 수신하는 기능, (c) 상기 화장 도구 정보를 이용하여 화장 효과의 적용 방식을 결정하고, 상기 결정된 적용 방식에 따라 상기 포인터 입력 정보를 이용하여 화장 효과를 적용할 적용 영역을 판정하고 상기 판정된 적용 영역에 적용될 효과 파라미터를 산출하는 기능 및 (d) 상기 적용 영역에 상기 효과 파라미터를 적용하여 상기 캐릭터의 얼굴 텍스처를 보정하고, 텍스처가 보정된 캐릭터의 얼굴을 상기 화장 입력 인터페이스를 통하여 제공하는 기능을 포함한다.
실시예들 중에서, 기록 매체는 온라인 게임 제공 방법을 실행시키기 위한 프로그램을 기록한다. 상기 프로그램은 네트워크를 통하여 적어도 하나의 게임 클라이언트와 연결될 수 있고, 연결된 게임 클라이언트에 가상의 캐릭터를 기반으로 하는 온라인 게임을 제공할 수 있는 온라인 게임 제공 시스템에서 구동될 수 있는 프로그램으로서, (a) 게임 클라이언트에 대하여 소정의 캐릭터의 외형을 디스플레이하는 화장 입력 인터페이스를 제공하고, 상기 제공된 화장 입력 인터페이스를 통하여 화장 도구 정보 및 포인터 입력 정보를 수신하는 기능, (b) 화장 도구 정보에 따라 복수의 화장 효과의 적용 방식 중 어느 하나를 이용하는 기능 및 (c) 상기 결정된 적용 방식에 따라 상기 화장 도구 정보 또는 포인터 입력 정보 중 적어도 하나를 이용하여 화장 효과를 적용할 적용 영역을 판정하고, 판정된 적용 영역에 적용될 효과 파라미터를 산출하는 기능을 포함한다.
본 출원의 개시된 기술에 따르면, 온라인 게임에서 제공되는 가상의 캐릭터에 대하여 실제 화장과 동등한 화장 환경을 제공함으로써, 가상 캐릭터를 다양하게 꾸밀 수 있으며 타 캐릭터와 차별적이고 개성적인 꾸밈을 가능하게 하는 효과가 있다.
또한 본 출원의 개시된 기술에 따르면, 가상 캐릭터에 대한 화장을 수행하는 절차 및 화장 도구의 효과를 실제 화장과 유사하게 설정함으로써, 화장으로 꾸미는 그 절차 자체를 하나의 게임과 같이 흥미있게 수행할 수 있는 효과가 있다.
또한 본 출원의 개시된 기술에 따르면, 화장 도구의 종류에 따라 사용자의 클릭 입력을 다르게 해석하여 화장의 효과가 적용되는 적용 범위를 고정적으로 또는 가변적으로 설정하고 해당 범위에 대한 효과 파라미터를 산출함으로써, 화장의 효과를 다양하게 적용할 수 있으면서도 화장의 효과를 발휘하기 위한 입력 단계를 효율적으로 제공할 수 있는 효과가 있다.
도 1은 개시된 기술에 따른 온라인 게임 제공 시스템과 게임 클라이언트를 설명하기 위한 참고도이다.
도 2는 개시된 기술에 따른 온라인 게임 제공 시스템의 일 실시예를 도시하는 구성도이다.
도 3은 개시된 기술에 따라 제공되는 화장 기능 제공의 처리 절차의 일 실시예를 도식화한 참고도이다.
도 4는 화장 도구 데이터베이스에 저장될 수 있는 화장 도구에 대한 정보의 일 예를 도시하는 참고도이다.
도 5 내지 도 11은 개시된 기술에서 제공될 수 있는 다양한 화장 도구 및 그에 대한 효과를 설명하기 위한 참고도들이다.
도 12는 개시된 기술에 따른 온라인 게임 제공 방법의 일 실시예를 설명하기 위한 순서도이다.
도 13은 개시된 기술에 따른 온라인 게임 제공 방법의 다른 일 실시예를 설명하기 위한 순서도이다.
개시된 기술에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 개시된 기술의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 개시된 기술의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다.
한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
개시된 기술은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한, 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
도 1은 개시된 기술에 따른 온라인 게임 제공 시스템과 게임 클라이언트를 설명하기 위한 참고도이다.
온라인 게임 제공 시스템(100)(이하, 게임 제공 시스템)은 온라인 네트워크 환경을 통하여 동시에 적어도 하나의 유저(게임 클라이언트)에 온라인 게임을 제공할 수 있다.
개시된 기술에서, 게임 제공 시스템(100)에 의하여 제공되는 온라인 게임은 다수 사용자를 기반으로 하는 온라인 게임일 수 있다.
개시된 기술에서, 게임 제공 시스템(100)에 의하여 제공되는 온라인 게임은 특정 장르로 한정짓지 아니한다. 즉, 개시된 기술에 따른 온라인 게임은 캐릭터 화장을 제공할 수 있으므로, 캐릭터를 기반으로 컨텐츠가 제공되는 온라인 게임이라면 그 장르 등을 한정하지 않는다. 예를 들어, MORPG(Multiplayer Online Role Playing Game), MMORPG(Massive Multiplayer Online Role Playing Game), 스포츠 온라인 게임, FPS(First-Person Shooting) 또는 TPF(Third-Person Shooting) 등과 같이 다양한 장르의 게임에 적용될 수 있다.
게임 제공 시스템(100)은 사용자들 간(Player versus Player, PVP)의 게임 컨텐츠 뿐만 아니라, 사용자와 인공지능 간(Player versus environment, PVE)의 게임 컨텐츠도 제공할 수 있다. 또한 다수 사용자들 간 PVP, 다수 사용자들과 인공지능 간의 PVE, 사용자와 인공 지능이 혼합된 게임 컨텐츠도 제공할 수 있다.
게임 제공 시스템(100)은 온라인 게임을 제공하기 위하여, 적어도 하나의 게임 클라이언트(200)와 적어도 일부의 실시간 데이터 교환을 수행할 수 있다.
게임 제공 시스템(100)은 게임 내에서 제공되는 가상 캐릭터에 대한 화장 제공 수단을 제공할 수 있다. 이러한 게임 제공 시스템에 대해서는 도 2를 참조하여 이하에서 더 상세히 설명한다.
게임 클라이언트(200)는 사용자 단말에서 구동될 수 있는 게임 제공 수단이다. 사용자 단말은 PC, 태블릿 PC, 스마트 폰 등과 같이, 중앙처리장치, 저장 수단 및 입출력 수단을 구비한 단말일 수 있다.
게임 클라이언트(200)는 게임 제공 시스템(100)과 통신을 수행하여, 사용자에게 온라인 게임을 제공할 수 있다. 실시예에 따라, 게임 클라이언트(200)는 게임 구동을 위한 게임 엔진의 적어도 일부를 적재할 수 있다. 예를 들어, 온라인 게임의 제공에 필요한 소정의 연산 중 적어도 일부는 빠른 처리를 위하여 게임 클라이언트(200)에서 수행될 수 있다.
도 2는 개시된 기술에 따른 온라인 게임 제공 시스템의 일 실시예를 도시하는 구성도이다.
도 2를 참조하여 더 상세히 설명하면, 게임 제공 시스템(100)은 통신부(110), 게임 엔진(120), 게임 제공 제어부(130), 화장 도구 데이터베이스(140), 카드 테이블 데이터베이스(140), 캐릭터 데이터베이스(150), 적용 영역 판정부(170), 파라미터 산출부(180) 및 화장 기능 제어부(160)를 포함할 수 있다.
통신부(110)는 게임 제공 제어부(130)의 제어에 따라 게임 클라이언트(200)와 게임 제공 등을 위한 통신 환경을 설정 또는 유지할 수 있다.
통신부(110)는 게임 제공 제어부(160)의 제어에 의하여, 화장 기능 제어부(160)의 제어를 직접 받아 게임 클라이언트(200)와 통신을 수행할 수 있다.
게임 엔진(120)은 게임의 구동을 위한 구성으로서, 게임 클라이언트(200)와 연동되어 사용자에게 온라인 게임을 제공할 수 있다. 개시된 실시예에서는, 게임 엔진(120)을 게임 제공 제어부(130)와 별도의 구성으로 설명하였으나, 실시예에 따라 게임 엔진(120)은 게임 제공 제어부(130)의 일 기능으로서 구현될 수 있다.
일 실시예에서, 게임 엔진(120)의 적어도 일부는 게임 클라이언트(200)에 적재 또는 중복하여 적재될 수 있다.
게임 제공 제어부(130)는 게임 제공 시스템(100)의 다른 구성요소들을 제어하여 온라인 게임을 제공할 수 있다.
게임 제공 제어부(130)는 온라인 게임 컨텐츠 중 캐릭터의 화장 기능과 연관된 요청 또는 데이터을 제공받으면, 해당 요청 또는 데이터를 화장 기능 제어부(160)에 제공할 수 있다. 즉, 화장 기능과 관련된 소정의 처리는 화장 기능 제어부(160)가 제어하여 처리가 이루어질 수 있다. 예를 들어, 사용자가 새로운 캐릭터를 생성하는 경우, 또는 소정의 절차에 따라 캐릭터의 외형을 수정하는 요청을 받은 경우, 게임 제공 제어부(130)는 캐릭터의 생성 기능 중 일부 기능으로서 또는 캐릭터 외형의 수정 기능의 일부 기능으로서 화장 기능을 제공할 수 있고, 이러한 화장 기능에 대해서는 화장 기능 제어부(160)가 관련 제어를 수행하도록 제어 권한의 적어도 일부를 넘겨줄 수 있다.
도 1에 도시된 일 실시예예서, 게임 제공 제어부(130)를 화장 기능 제어부(160)와 구분하여 구성요소로서 표시하고 있으나, 이는 설명의 편의를 위한 기능적 구별에 불과할 것이다. 따라서, 개시된 기술은 반드시 두 구성요소를 서로 상이한 독립적 구성요소로서 구분하여 구성하도록 한정하지 아니하며, 화장 기능 제어부(160)는 게임 제공 제어부(130)의 일 기능으로서 구현될 수도 있다.
개시된 기술은 화장 도구 데이터베이스(140), 카드 테이블 데이터베이스(140), 캐릭터 데이터베이스(150), 적용 영역 판정부(170), 파라미터 산출부(180) 및 화장 기능 제어부(160)를 통하여 사용자(게임 클라이언트)에 가상 캐릭터의 화장 기능을 제공할 수 있다.
캐릭터 화장 기능을 제공하는데 필요한 구성요소들을 각각 설명하기 이전에, 도 3을 참조하여 개시된 기술에서 화장 기능을 제공하는 처리 절차에 대하여 간략한 설명을 실시한다. 도 3은 개시된 기술에 따라 제공되는 화장 기능 제공의 처리 절차의 일 실시예를 도식화한 참고도이다. 개시된 기술은 복수의 화장 도구를 제공하고 있으며, 화장 도구에 따라 설정되는 속성(320)이 서로 상이할 수 있다. 즉, 화장 도구에 따라, 화장을 입력하는 적용 방식이 상이하므로 사용자의 입력(310)과 화장 도구의 속성(320)을 함께 이용하여 사용자의 입력으로부터 포인터의 움직임을 해석할 수 있다. 또한, 이러한 해석된 포인터의 움직임으로부터, 화장 도구에 따른 적용 범위를 고려하여 실제 화장 효과를 적용할 영역(이하, "적용 영역")을 결정하고, 해당 영역에서 화장 효과에 따라 조정할 파라미터(이하, "효과 파라미터")를 산출하여 이를 반영하여 텍스처의 속성을 변경함으로써 화장을 제공하도록 할 수 있다.
화장 도구 데이터베이스(140)는 가상 캐릭터를 화장하는데 적용되는 화장 도구에 대한 정보를 포함하여 저장할 수 있다.
일 실시예에서, 화장 도구 데이터베이스(140)는 화장 도구 별 조정 파라미터, 유저 입력 요소, 적용 방식, 적용 범위 지정 방식, 적용 영역, 브러시 영역, 가변값 중 적어도 하나에 대한 정보를 저장할 수 있다. 도 4는 화장 도구 데이터베이스(140)에 저장될 수 있는 화장 도구에 대한 정보의 일 예를 도시하는 참고도로서, 도 4에 도시된 예와 같이, 화장 도구 데이터베이스(140)는 화장 도구 별로 속성 정보를 각각 가지는 소정의 테이블을 저장 또는 유지할 수 있다. 여기에서, 화장 도구 별 속성 정보는 고정 속성과 가변 속성을 포함할 수 있다.
가변 속성은 유저가 선택하거나 조절할 수 있는 속성을 의미한다. 일 실시예에서, 가변 속성은 사용자가 화장 입력 인터페이스에서 화장 도구를 선택한 후 하위 메뉴를 선택할 때 사용자의 선택에 의하여 선택될 수 있다. 예를 들어, 사용자가 화장 입력 인터페이스에서 화장 도구로서 파운데이션을 선택하였다면, 파운데이션의 브러시 영역의 크기는 가변 속성이 되며, 이러한 브러시 영역의 크기는 사용자에 의하여 선택되어질 수 있다.
고정 속성은 각 화장 도구별로 기 지정된 속성으로서 사용자에 의하여 변경되지 않는 속성이다. 개시된 기술은, 화장 도구별 고정 속성을 이용하여 사용자의 입력을 해석할 수 있다.
조정 파라미터는 해당 화장 도구가 변경하는 텍스처의 속성을 의미한다. 조정 파라미터 중 되돌리기란, 화장 효과를 제거하는 것을 의미한다. 조정 파라미터가 색깔인 경우, 기존 색깔과 혼합시키거나 또는 기존 색깔을 덮어씌우는 방식이 있을 수 있다.
유저 입력 요소는 사용자의 입력 중 어느 요소로서 조정 파라미터를 변경시킬 수 있는지를 나타내는 것이다. 예를 들어, 립 글로즈의 경우, 드래그 길이에 따라 광택의 효과를 결정할 수 있다.
적용 방식은 화장 도구 별로 사용자에 의한 입력이 속성 변경에 어떻게 관련되는지를 나타내는 속성이다.
적용 범위 지정 방식은 화장 효과가 적용될 영역을 확정하는 방식을 의미한다.
적용 부분은 해당 화장 도구의 효과가 적용되는 가상 캐릭터의 외형의 적어도 일부분을 의미한다.
브러시 영역은 붓 형태로 화장 효과가 적용되는 경우, 브리시 영역을 의미하며, 가변값은 전술한 가변 속성을 지정하는 속성이다.
캐릭터 데이터베이스(150)는 가상 캐릭터에 대한 정보를 저장할 수 있다.
일 실시예예서, 캐릭터 데이터베이스(150)는 가상 캐릭터에 대한 텍스처 정보를 저장할 수 있다. 더 상세히 설명하면, 캐릭터 데이터베이스(150)는 가상 캐릭터를 디스플레이하기 위하여 필요한 텍스처 정보를 저장할 수 있으며, 타 구성요소의 요청에 따라 특정 캐릭터의 텍스처 정보를 제공하여 특정 캐릭터를 디스플레이하도록 할 수 있다.
화장 기능 제어부(160)는 화장 도구 데이터베이스(140), 캐릭터 데이터베이스(150), 적용 영역 판정부(170) 또는 파라미터 산출부(180)를 제어하여 가상 캐릭터에 대한 화장 기능을 제공하도록 할 수 있다.
화장 기능 제어부(160)는 게임 클라이언트(200)에 화장 입력을 위한 화장 입력 인터페이스를 제공할 수 있다. 예를 들어, 게임 클라이언트(200)는 화장 입력 인터페이스를 통하여 가상 캐릭터의 외형 중 적어도 일부(예컨대, 캐릭터의 얼굴)를 디스플레이할 수 있다. 다른 예를 들어, 게임 클라이언트(200)는 화장 입력 인터페이스를 통하여 가상 캐릭터의 외형 중 적어도 일부와 함께 화장 도구에 대한 목록을 더 포함하여 디스플레이할 수 있다.
화장 기능 제어부(160)는 화장 입력 인터페이스를 제공한 게임 클라이언트(200)로부터 화장 도구 정보 또는 포인터 입력 정보 중 적어도 하나를 수신할 수 있다.
화장 도구 정보는 화장 입력 인터페이스에서 제공되는 적어도 하나의 화장 도구에 대한 목록에서 선택된 어느 하나에 대한 화장 도구에 관한 식별 정보를 포함할 수 있다.
포인터 입력 정보는 포인터에 대하여 사용자로부터 입력된 정보이다. 일 실시예에서, 포인터 입력 정보는 클릭 정보, 드래그 길이 정보 및 드래그 방향 정보 중 적어도 하나를 포함할 수 있다.
화장 기능 제어부(160)는 화장 도구 정보로부터 화장 도구를 식별하고, 식별된 화장 도구의 속성을 반영하여 포인터 입력 정보의 포인터 움직임을 해석하도록 할 수 있다.
일 실시예에서, 화장 기능 제어부(160)는 화장 도구 정보를 이용하여 화장 효과의 적용 방식을 결정할 수 있다. 예를 들어, 화장 기능 제어부(160)는 화장 도구 정보에 포함된 화장 도구에 대한 식별 정보를 이용하여 화장 도구 데이터베이스(140)를 검색하여 해당 화장 도구의 속성 중 조정 파라미터를 확인할 수 있다.
일 실시예에서, 화장 기능 제어부(160)는 적용 영역을 기준으로 화장 효과의 적용 방식을 구분할 수 있다. 예를 들어, 화장 기능 제어부(160)는 화장 효과의 적용 방식으로서, (1) 포인터의 이동 동선을 적용 영역으로 지정하는 프리 드로잉 방식, (2) 적용 영역이 고정되는 고정 영역 방식 및 (3) 적용 영역이 포인터 입력 정보에 따라 가변되는 변형 영역 방식 중 적어도 하나를 포함할 수 있다.
화장 기능 제어부(160)는 화장 효과의 적용 방식을 기초로, 적용 영역 판정부(170) 또는 파라미터 산출부(180)를 이용하여 캐릭터에 화장 효과를 부여하도록 할 수 있다.
일 실시예에서, 화장 기능 제어부(160)는 구분된 화장 효과의 적용 방식에 대한 정보를 적용 영역 판정부(170) 또는 파라미터 산출부(180)에 제공할 수 있다. 예를 들어, 화장 기능 제어부(160)는 화장 도구 정보를 확인하여, 해당 화장 도구가 프리 드로잉 방식, 고정 영역 방식 및 변형 영역 방식 중 어느 하나에 해당하는지 확인하고, 확인된 정보를 적용 영역 판정부(170) 또는 파라미터 산출부(180)에 제공할 수 있다.
화장 기능 제어부(160)는 적용 영역 판정부(170)에 의하여 판정된 적용 영역에 대하여 파라미터 산출부(180)에서 산출된 효과 파라미터를 적용하여 캐릭터 외형을 보정(즉, 텍스처 값을 변경)할 수 있다.
화장 기능 제어부(160)는 화장 효과가 중첩되는 경우, 중첩된 영역에 대하여 기존 화장을 덮어 씌우거나, 기존 화장과 혼합하도록 할 수 있다.
일 실시예에서, 화장 기능 제어부(160)는 화장 효과가 중첩되는 경우, 화장 도구의 동일성 및 효과 파라미터의 동일 범주 여부를 판단하여 화장 효과를 덮어 씌울지 또는 혼합할지를 결정할 수 있다. 더 상세히 설명하면, 화장 기능 제어부(160)는 동일한 화장 도구이며 동등한 범주의 효과 파라미터이면 화장 효과를 덮어 씌우도록 할 수 있고, 화장 도구가 상이하거나 효과 파라미터가 서로 상이하다면 화장 효과를 혼합하도록 할 수 있다. 예를 들어, 화장 기능 제어부(160)는 동일한 아이쉐도우에 의한 화장 입력이고 아이쉐도우의 색깔(효과 파라미터가 동등 범주)이 같으면 중첩되는 부분에 대해서는 최근의 입력으로 덮어 씌울 수 있다. 다른 예를 들어, 화장 기능 제어부(160)는 동일한 아이쉐도우에 의한 화장 입력이나 아이쉐도우의 색깔이 서로 상이하면 겹치는 부분에 대해서는 해당 두 색깔을 혼합한 결과가 나오도록 할 수 있다.
화장 기능 제어부(160)는 화장 도구 정보를 이용하여 캐릭터 외형의 적어도 일부 영역을 확대하여 디스플레이하도록 하여 게임 클라이언트(200)에 제공할 수 있다. 예를 들어, 캐릭터에 대하여 전신 샷 크기로 디스플레이 되고 있는 상태에서 선택된 화장 입력도구가 볼 터치이면, 화장 입력 인터페이스에 캐릭터의 얼굴 부분을 중심으로 디스플레이하여 게임 클라이언트(200)에 제공할 수 있다. 다른 예를 들어, 캐릭터의 얼굴이 디스플레이 되고 있는 상태에서 눈썹 칼이 선택되어지면, 해당 캐릭터의 눈썹 부분을 현재 캐릭터 얼굴에 오버래핑하여 확대하거나 또는 눈썹 부분을 중심으로 확대하여 디스플레이하도록 할 수 있다.
화장 기능 제어부(160)는 보정된 캐릭터 외형을 게임 클라이언트(200)에 재 제공하여 화장 기능을 계속적으로 제공할 수 있다.
적용 영역 판정부(170)는 화장 기능 제어부(160)로부터 제공된 적용 방식에 따라 포인터 입력 정보 또는 화장 도구 정보 중 적어도 하나를 이용하여 화장 효과를 적용할 적용 영역을 판정할 수 있다.
일 실시예에서, 적용 영역 판정부(170)는 적용 방식이 프리 드로잉 방식이면, 해당 화장 도구에 대한 블러싱 영역을 확인하고, 포인터 입력 정보에 포함된 클릭 정보를 해석하여 각각의 클릭마다 하나의 블러싱 영역을 지정하고, 복수의 클릭들로 이루어진 경우 복수의 블러싱 영역들을 포함하여 적용 영역으로서 판정할 수 있다. 예를 들어, 도 6에 도시된 예와 같은 점 찍기의 경우, 하나의 클릭마다 해당 클릭이 일어난 지점을 적용 영역으로서 판정할 수 있다. 다른 예를 들어, 도 8에 도시된 예와 같은 파운데이션의 경우, 클릭한 채로 포인터를 이용한 경로를 포함하여 적용 영역으로서 판정할 수 있다.
일 실시예에서, 적용 영역 판정부(170)는 적용 방식이 고정 영역 방식이면, 화장 도구 정보 또는 클릭 정보 중 적어도 하나를 이용하여 적용 영역을 판정할 수 있다. 예를 들어, 화장 도구가 블러셔이고 광대뼈 주변에서 클릭이 이루어진 경우, 해당 클릭이 일어난 지점에 블러싱 영역(블러셔의 크기 등)을 지정하여 적용 영역으로서 판정할 수 있다. 그러나 만약 화장 도구가 블러셔인데 턱 아래 인근에서 클릭이 이루어진 경우에는, 적용 영역을 판정하지 않을 수 있다.
일 실시예에서, 적용 영역 판정부(170)는 적용 방식이 고정 영역 방식이며 디스플레이된 캐릭터의 외형에 포함된 소정의 폐곡선 내에서 클릭이 수행되었다면, 해당 폐곡선의 내부 영역을 적용 영역으로서 판정할 수 있다. 예를 들어, 도 5에 도시된 예와 같은 립글로즈의 경우, 입술 영역 내에서 클릭이 이루어진 경우 입술 영역 전체를 적용 영역으로서 판정할 수 있다.
일 실시예에서, 적용 영역 판정부(170)는 적용 방식이 변형 영역 방식이면, 포인터 입력 정보를 이용하여 적용 영역을 판정할 수 있다. 더 상세히 설명하면, 적용 영역 판정부(170)는 사용자의 드래그 입력에 따라 화장 효과를 적용할 적용 영역을 결정할 수 있다. 예를 들어, 도 9에 도시된 예와 같은 마스카라의 경우, 사용자가 눈 근처에 포인터를 위치시키고 수행한 드래그 입력에 따라 마스카라를 적용할 영역을 판정할 수 있다.
일 실시예에서, 적용 영역 판정부(170)는 이와 같은 변형 영역 방식에 대해서는 가로 및 세로 입력에 따라 차등적으로 구분되어 기 설정되는 복수의 변형 영역들을 각 화장 도구마다 미리 설정하여 유지하고, 사용자로부터 입력된 드래그 정보가 어느 변형 영역에 해당하는지 판정함으로써 적용 영역을 판정할 수 있다.
다른 일 실시예에서, 적용 영역 판정부(170)는 포인터 입력 정보에 포함된 드래그 길이 정보 및 드래그 방향 정보를 이용하여 X 축 및 Y 축의 드래그 길이를 산출하고, 산출된 X축 및 Y축의 드래그 길이를 화장 도구별로 기 설정된 단위 길이로 나누어 X축 적용 영역 및 Y축 적용 영역을 산출함으로써, 적용 영역을 판정할 수 있다.
파라미터 산출부(180)는 화장 도구 정보 또는 포인터 입력 정보 중 적어도 하나를 이용하여, 판정된 적용 영역에 적용될 효과 파라미터를 산출할 수 있다. 파라미터 산출부(180)는 적용 방식을 반영하여 포인터 입력 정보를 해석하여 적용 영역에 적용될 효과 파라미터를 산출할 수 있다.
일 실시예에서, 파라미터 산출부(180)는 적용 방식이 프리 드로잉 방식이면, 해당 화장 도구별로 기 설정된, 또는 사용자에 의하여 선택된 블러싱 효과를 효과 파라미터로서 산출할 수 있다. 화장 기능 제어부(160)는 이와 같이 산출된 블러싱 효과를 적어도 하나의 블러싱 영역을 포함하는 적용 영역에 적용시킴으로써 화장 효과를 부여할 수 있다. 예를 들어, 도 6에 도시된 예와 같은 점 찍기의 경우, 클릭이 일어난 지점에 대하여 점에 해당하는 효과를 효과 파라미터로 산출할 수 있다. 여기에서, 점의 크기, 색갈 등의 세부적 파라미터는 화장 입력 인터페이스를 통하여 제공되어 선택되어질 수 있다.
일 실시예에서, 파라미터 산출부(180)는 적용 방식이 고정 영역 방식이면, 판정된 적용 영역을 대상으로 행해진 포인터 입력 정보를 이용하여 효과 파라미터를 산출할 수 있다.
일 실시예에서, 파라미터 산출부(180)는 판정된 적용 영역을 대상으로 행해진 클릭 정보 또는 드래그 길이 정보를 식별하고, 식별된 클릭 정보 또는 드래그 길이 정보로부터 클릭 정보의 횟수 또는 드래그의 길이에 따라 가중치를 부여하여 적용할 효과 수치를 산출할 수 있다. 파라미터 산출부(180)는 화장 도구에 따라 조정할 파라미터 항목(조정 파라미터)을 결정하고, 결정된 파라미터 항목에 대하여 산출된 효과 수치를 반영하여 효과 파라미터를 산출할 수 있다. 예를 들어, 도 5에 도시된 예와 같은 립글로즈의 경우, 도 5의 (a)처럼 드래그의 길이가 짧으면 보다 낮은 광택 수치를, (b)처럼 드래그의 길이가 길면 보다 높은 광택 수치를 부여하여 효과 파라미터를 산출할 수 있다.
여기에서, 화장 도구에 따라 조정할 파라미터 항목(조정 파라미터)은 색깔, 밝기, 광택, 되돌리기 중 어느 하나일 수 있다.
일 실시예에서, 파라미터 산출부(180)는 적용 방식이 변형 영역 방식이면, 판정된 적용 영역에 대하여 화장 도구에 따라 설정된 효과를 이용하여 효과 파라미터를 산출할 수 있다.
도 5 내지 도 11은 개시된 기술에서 제공될 수 있는 다양한 화장 도구 및 그에 대한 효과를 설명하기 위한 참고도들이다.
도 5는 립 글로스에 대한 예를 도시하고 있으며, 이러한 립 글로스는 전술한 바와 같이 고정 영역(입술)을 대상으로 하는 화장 도구일 수 있다. 따라서, 사용자가 도시된 바와 같이 드래그를 하면, 적용 영역 판정부(160)는 입술을 적용 영역으로서 판정하고 파라미터 산출부(180)는 드래그 길이에 따라 적용될 효과 파라미터를 산출할 수 있다. 적용 영역 판정부(160)는 입술에 대하여 효과 파라미터를 적용하여 해당 텍스처를 변경하고, 변경된 캐릭터에 대한 정보를 게임 클라이언트(200)에 제공할 수 있다.
도 6은 점 찍기에 대한 예를 도시하고 있으며, 점 찍기는 프리 드로잉 방식으로 적용 될 수 있다. 따라서, 도시된 예와 같이, 사용자에 의하여 클릭이 일어난 지점을 적용 영역으로, 사용자에 의하여 선택된 또는 기본 선택된 점 크기를 효과 파라미터로 하여 화장 효과를 적용할 수 있다.
도 7은 하일라이터에 대한 예를 도시하고 있으며, 하일라이터는 고정 영역 지정 방식으로 적용될 수 있다. 즉, 도시된 예와 같이 이마, 콧대, 눈 덩이, 볼과 같이 하일라이터가 적용될 수 있는 영역이 기 설정될 수 있으며, 사용자의 붓 터치 클릭 또는 드래그 정보를 이용하여 하일라이터의 효과(밝기 정도)를 산출하도록 할 수 있다.
도 8은 파운데이션(또는 볼터치)에 대한 예를 도시하고 있으며, 파운데이션은 프리 드로잉 방식으로 적용될 수 있다. 따라서, 사용자의 클릭 후 포인터의 이동 동선에 브러시 영역을 반영한 것이 적용 영역이 되며, 사용자에 의하여 선택된 또는 기본 설정된 색깔 등을 효과 파라미터로 하여 화장의 효과를 적용할 수 있다.
도 10 내지 도 11은 개시된 기술이 가상 캐릭터의 얼굴 외의 다른 외형에 대해서도 화장 효과를 부과할 수 있음을 도시하는 예이다.
도 10은 바디 밤에 대한 예를 도시하고 있으며, 캐릭터의 외형에 바디 밤을 드래그 한 영역을 적용 영역으로(프리 드로잉), 바디 밤의 색깔 또는 광택을 효과 파라미터로 하여 화장 효과를 부여할 수 있다.
도 11은 매니큐어(또는 패티큐어)에 대한 예를 도시하고 있으며, 도 11에 도시된 것과 같이 사용자의 자유로운 드로잉 경로를 적용 영역으로(프리 드로잉), 기 설정된 또는 사용자에 의하여 선택된 색깔 또는 광택을 효과 파라미터로 하여 화장 효과를 부여할 수 있다.
이하에서는, 도 12 내지 도 13을 참조하여 온라인 게임 제공 방법의 다양한 실시예들에 대하여 설명한다. 이하에서 설명 할 실시예들은 전술한 게임 제공 시스템(100)에서 수행되므로, 서로 상응하는 내용에 대해서는 중복하여 설명하지 않으나, 당업자는 전술한 기재로부터 후술할 본 온라인 게임 제공 방법의 일 실시예를 보다 명확하게 이해할 수 있을 것이다.
도 12는 개시된 기술에 따른 온라인 게임 제공 방법의 일 실시예를 설명하기 위한 순서도이다.
도 12를 참조하여 온라인 게임 제공 방법의 일 실시예에 대하여 더 상세히 설명하면, 게임 제공 시스템(100)은 게임 클라이언트(200)에 캐릭터의 얼굴 및 적어도 하나의 화장 도구에 대한 목록을 포함하여 디스플레이하는 화장 입력 인터페이스를 제공할 수 있다(단계 S1210).
게임 제공 시스템(100)은 화장 입력 인터페이스를 통하여 게임 클라이언트(200)로부터 화장 도구 목록에서 선택된 어느 하나에 대한 화장 도구 정보 및 디스플레이된 캐릭터의 얼굴에 대하여 입력된 포인터 입력 정보를 수신하면(단계 S1220, 예), 화장 도구 정보를 이용하여 화장 효과의 적용 방식을 결정할 수 있다(단계 S1230).
게임 제공 시스템(100)은 결정된 적용 방식에 따라 포인터 입력 정보를 이용하여 화장 효과를 적용할 적용 영역을 판정하고(단계 S1240), 판정된 적용 영역에 적용될 효과 파라미터를 산출할 수 있다(단계 S1250).
게임 제공 시스템(100)은 적용 영역에 효과 파라미터를 적용하여 캐릭터의 얼굴 텍스처를 보정하고(단계 S1260), 텍스처가 보정된 캐릭터의 얼굴을 화장 입력 인터페이스를 통하여 제공할 수 있다(단계 S1270).
화장 효과의 적용 방식은 상기 적용 영역을 기준으로 구분될 수 있고, (1) 포인터의 이동 동선을 적용 영역으로 지정하는 프리 드로잉 방식, (2) 적용 영역이 고정되는 고정 영역 방식 및 (3) 적용 영역이 포인터 입력 정보에 따라 가변되는 변형 영역 방식 중 적어도 하나를 포함할 수 있다.
포인터 입력 정보는 클릭 정보, 드래그 길이 정보 및 드래그 방향 정보 중 적어도 하나를 포함할 수 있다.
단계 S1230 내지 S1250에 대한 일 실시예에서, 게임 제공 시스템(100)은 화장 도구 정보에 의하여 식별된 화장 도구가 프리 드로잉 방식에 속하는 화장 도구인지 확인하고, 만일 프리 드로잉 방식에 속하면 해당 화장 도구에 대한 블러싱 영역을 확인할 수 있다. 게임 제공 시스템(100)은 클릭 정보에 따른 클릭 마다 확인된 블러싱 영역을 적용하여 해당 영역의 텍스처를 변경할 수 있다.
단계 S1230 내지 S1250에 대한 일 실시예에서, 게임 제공 시스템(100)은 화장 도구 정보에 의하여 식별된 화장 도구가 고정 영역 방식에 속하는 화장 도구인지 확인하고, 만일 고정 영역 방식에 속하면 화장 도구 정보 또는 클릭 정보 중 적어도 하나를 이용하여 적용 영역을 판정할 수 있다. 게임 제공 시스템(100)은 판정된 적용 영역을 대상으로 행해진 포인터 입력 정보를 이용하여 효과 파라미터를 산출할 수 있다.
단계 S1230 내지 S1250에 대한 일 실시예에서, 게임 제공 시스템(100)은 폐곡선 여부를 이용하여 적용 영역을 판정할 수 있다. 더 상세히 설명하면, 게임 제공 시스템(100)은 클릭 정보를 이용하여 소정의 폐곡선 내에서 클릭이 수행되었는지 확인하고, 만일 클릭이 수행되었으면 해당 폐곡선의 내부 영역을 적용 영역으로서 판정할 수 있다.
단계 S1230 내지 S1250에 대한 일 실시예에서, 게임 제공 시스템(100)은 클릭 또는 드래그 길이를 이용하여 효과 파라미터를 산출할 수 있다. 더 상세히 설명하면, 게임 제공 시스템(100)은 판정된 적용 영역을 대상으로 행해진 클릭 정보 또는 드래그 길이 정보를 식별하고, 식별된 클릭 정보 또는 드래그 길이 정보로부터 클릭 정보의 횟수 또는 드래그의 길이에 따라 가중치를 부여하여 적용할 효과 수치를 산출할 수 있다. 게임 제공 시스템(100)은 화장 도구에 따라 조정할 파라미터 항목을 결정하고, 결정된 파라미터 항목에 대하여 산출된 효과 수치를 반영하여 효과 파라미터를 산출할 수 있다. 여기에서, 파라미터 항목은 색깔, 밝기, 광택, 되돌리기 중 어느 하나일 수 있다.
단계 S1230 내지 S1250에 대한 일 실시예에서, 게임 제공 시스템(100)은 화장 도구 정보에 의하여 식별된 화장 도구가 변형 영역 방식에 속하는 화장 도구인지 확인하고, 만일 변형 영역 방식에 속하면 포인터 입력 정보를 이용하여 적용 영역을 판정할 수 있다. 게임 제공 시스템(100)은 판정된 적용 영역에 대하여 화장 도구에 따라 설정된 효과를 이용하여 효과 파라미터를 산출할 수 있다.
단계 S1230 내지 S1250에 대한 일 실시예에서, 게임 제공 시스템(100)은 X축 및 Y축 드래그 길이를 이용하여 가변 영역을 산출할 수 있다. 더 상세히 설명하면, 게임 제공 시스템(100)은 포인터 입력 정보에 포함된 드래그 길이 정보 및 드래그 방향 정보를 이용하여 X 축 및 Y 축의 드래그 길이를 산출하고, 산출된 X축 및 Y축의 드래그 길이를 화장 도구별로 기 설정된 단위 길이로 나누어 X축 적용 영역 및 Y축 적용 영역을 산출할 수 있다.
도 13은 개시된 기술에 따른 온라인 게임 제공 방법의 다른 일 실시예를 설명하기 위한 순서도이다.
도 13을 참조하여 온라인 게임 제공 방법의 다른 일 실시예에 대하여 더 상세히 설명하면, 게임 제공 시스템(100)은 게임 클라이언트(200)에 대하여 소정의 캐릭터의 외형을 디스플레이하는 화장 입력 인터페이스를 제공하고(단계 S1310), 제공된 화장 입력 인터페이스를 통하여 화장 도구 정보 및 포인터 입력 정보를 수신할 수 있다(단계 S1320, 예).
게임 제공 시스템(100)은 화장 도구 정보에 따라 복수의 화장 효과의 적용 방식 중 어느 하나를 선택할 수 있다(단계 S1330).
게임 제공 시스템(100)은 선택된 적용 방식에 따라 상기 화장 도구 정보 또는 포인터 입력 정보 중 적어도 하나를 이용하여 화장 효과를 적용할 적용 영역을 판정할 수 있고(단계 S1340), 판정된 적용 영역에 적용될 효과 파라미터를 산출할 수 있다(단계 S1350).
게임 제공 시스템(100)은 적용 영역에 효과 파라미터를 적용하여 캐릭터의 얼굴 텍스처를 보정하고(단계 S1260), 텍스처가 보정된 캐릭터의 외형을 화장 입력 인터페이스를 통하여 제공할 수 있다(단계 S1270).
단계 S1310 내지 S1320에 대한 일 실시예에서, 게임 제공 시스템(100)은 화장 도구 정보를 수신하면, 해당 화장 도구가 적용될 수 있는 캐릭터 외형의 적어도 일부 영역를 확대하여 게임 클라이언트(200)에 제공할 수 있다.
단계 S1330에 대한 일 실시예에서, 게임 제공 시스템(100)은 만일 화장 도구가 파운데이션, 점, 컨실러 및 매니큐어 중 어느 하나이면, 포인터의 이동 동선에 따라 효과를 지정하는 프리 드로잉 방식을 적용 방식으로서 선택할 수 있다.
단계 S1330에 대한 일 실시예에서, 게임 제공 시스템(100)은 만일 화장 도구가 블러셔, 하이라이터, 립스틱 및 립글로즈 중 어느 하나이면, 해당 화장 도구 별로 효과의 적용 영역이 고정되는 고정 영역 방식을 적용 방식으로서 이용할 수 있다.
단계 S1330에 대한 일 실시예에서, 게임 제공 시스템(100)은 만일 화장 도구가 아이라이너 및 아이새도우 중 어느 하나이면, 포인터 입력 정보에 따라 효과의 적용 영역이 가변되는 변형 영역 방식을 적용 방식으로서 이용할 수 있다.
상기에서는 본 출원의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 출원의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 출원을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
100 : 온라인 게임 제공 시스템
110 : 통신부 120 : 게임 엔진
130 : 게임 제공 제어부 140 : 화장 도구 데이터베이스
150 : 캐릭터 데이터베이스 160 : 화장 기능 제어부
170 : 적용 영역 판정부 180 : 파라미터 산출부
200: 게임 클라이언트

Claims (19)

  1. 네트워크를 통하여 적어도 하나의 게임 클라이언트와 연결될 수 있고, 연결된 게임 클라이언트에 가상의 캐릭터를 기반으로 하는 온라인 게임을 제공할 수 있는 온라인 게임 제공 시스템에서 수행되는 온라인 게임 제공 방법에 있어서,
    (a) 게임 클라이언트에 캐릭터의 얼굴 및 적어도 하나의 화장 도구에 대한 목록을 포함하여 디스플레이하는 화장 입력 인터페이스를 제공하는 단계;
    (b) 상기 게임 클라이언트로부터 상기 화장 도구 목록에서 선택된 어느 하나에 대한 화장 도구 정보 및 상기 디스플레이된 캐릭터의 얼굴에 대하여 입력된 포인터 입력 정보를 수신하는 단계;
    (c) 상기 화장 도구 정보를 이용하여 화장 효과의 적용 방식을 결정하고, 상기 결정된 적용 방식에 따라 상기 포인터 입력 정보를 이용하여 화장 효과를 적용할 적용 영역을 판정하고 상기 판정된 적용 영역에 적용될 효과 파라미터를 산출하는 단계; 및
    (d) 상기 적용 영역에 상기 효과 파라미터를 적용하여 상기 캐릭터의 얼굴 텍스처를 보정하고, 텍스처가 보정된 캐릭터의 얼굴을 상기 화장 입력 인터페이스를 통하여 제공하는 단계;
    를 포함하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  2. 제1항에 있어서, 상기 화장 효과의 적용 방식은
    상기 적용 영역을 기준으로 구분되고,
    상기 포인터의 이동 동선을 적용 영역으로 지정하는 프리 드로잉 방식, 상기 적용 영역이 고정되는 고정 영역 방식 및 상기 적용 영역이 상기 포인터 입력 정보에 따라 가변되는 변형 영역 방식 중 적어도 하나를 포함하는 것
    을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  3. 제2항에 있어서, 상기 포인터 입력 정보는
    클릭 정보, 드래그 길이 정보 및 드래그 방향 정보 중 적어도 하나를 포함하는 것
    을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  4. 제2항에 있어서, 상기 (c) 단계는
    상기 화장 도구 정보에 의하여 식별된 화장 도구가 상기 프리 드로잉 방식에 속하는 화장 도구인지 확인하는 단계;
    상기 확인 결과 프리 드로잉 방식에 속하면, 해당 화장 도구에 대한 블러싱 영역을 확인하는 단계; 및
    상기 클릭 정보에 따른 클릭 마다 상기 확인된 블러싱 영역을 적용하여 해당 영역의 텍스처를 변경하는 단계;
    를 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  5. 제2항에 있어서, 상기 (c) 단계는
    (c-1) 상기 화장 도구 정보에 의하여 식별된 화장 도구가 상기 고정 영역 방식에 속하는 화장 도구인지 확인하는 단계;
    (c-2) 상기 확인 결과 고정 영역 방식에 속하면, 상기 화장 도구 정보 또는 상기 클릭 정보 중 적어도 하나를 이용하여 적용 영역을 판정하는 단계; 및
    (c-3) 상기 판정된 적용 영역을 대상으로 행해진 포인터 입력 정보를 이용하여 상기 효과 파라미터를 산출하는 단계;
    를 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  6. 제5항에 있어서, 상기 (c-2) 단계는
    상기 클릭 정보를 이용하여, 소정의 폐곡선 내에서 클릭이 수행되었는지 확인하는 단계; 및
    상기 확인 결과 클릭이 수행되었으면, 해당 폐곡선의 내부 영역을 상기 적용 영역으로서 판정하는 단계;
    를 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  7. 제5항에 있어서, 상기 (c-3) 단계는
    상기 판정된 적용 영역을 대상으로 행해진 클릭 정보 또는 드래그 길이 정보를 식별하는 단계;
    상기 식별된 클릭 정보 또는 드래그 길이 정보로부터 클릭 정보의 횟수 또는 드래그의 길이에 따라 가중치를 부여하여 적용할 효과 수치를 산출하는 단계; 및
    상기 화장 도구에 따라 조정할 파라미터 항목을 결정하고, 상기 결정된 파라미터 항목에 대하여 상기 산출된 효과 수치를 반영하여 상기 효과 파라미터를 산출하는 단계;
    를 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  8. 제7항에 있어서, 상기 파라미터 항목은
    색깔, 밝기, 광택, 되돌리기 중 어느 하나인 것
    을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  9. 제2항에 있어서, 상기 (c) 단계는
    (c-1) 상기 화장 도구 정보에 의하여 식별된 화장 도구가 상기 변형 영역 방식에 속하는 화장 도구인지 확인하는 단계;
    (c-2) 상기 확인 결과 변형 영역 방식에 속하면, 상기 포인터 입력 정보를 이용하여 적용 영역을 판정하는 단계; 및
    (c-3) 상기 판정된 적용 영역에 대하여 상기 화장 도구에 따라 설정된 효과를 이용하여 상기 효과 파라미터를 산출하는 단계;
    를 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  10. 제9항에 있어서, 상기 (c-2) 단계는
    상기 포인터 입력 정보에 포함된 드래그 길이 정보 및 드래그 방향 정보를 이용하여 X 축 및 Y 축의 드래그 길이를 산출하는 단계; 및
    상기 산출된 X축 및 Y축의 드래그 길이를 화장 도구별로 기 설정된 단위 길이로 나누어 X축 적용 영역 및 Y축 적용 영역을 산출하는 단계;
    를 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  11. 네트워크를 통하여 적어도 하나의 게임 클라이언트와 연결될 수 있고, 연결된 게임 클라이언트에 가상의 캐릭터를 기반으로 하는 온라인 게임을 제공할 수 있는 온라인 게임 제공 시스템에서 수행되는 온라인 게임 제공 방법에 있어서,
    (a) 게임 클라이언트에 대하여 소정의 캐릭터의 외형을 디스플레이하는 화장 입력 인터페이스를 제공하고, 상기 제공된 화장 입력 인터페이스를 통하여 화장 도구 정보 및 포인터 입력 정보를 수신하는 단계;
    (b) 화장 도구 정보에 따라 복수의 화장 효과의 적용 방식 중 어느 하나를 선택하는 단계; 및
    (c) 상기 선택된 적용 방식에 따라 상기 화장 도구 정보 또는 포인터 입력 정보 중 적어도 하나를 이용하여 화장 효과를 적용할 적용 영역을 판정하고, 판정된 적용 영역에 적용될 효과 파라미터를 산출하는 단계;
    를 포함하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  12. 제11항에 있어서, 상기 (a) 단계는
    상기 화장 도구 정보를 수신하면, 해당 화장 도구가 적용될 수 있는 상기 캐릭터 외형의 적어도 일부 영역를 확대하여 상기 게임 클라이언트에 제공하는 단계;
    를 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  13. 제11항에 있어서, 상기 (b) 단계는
    만일 화장 도구가 파운데이션, 점, 컨실러 및 매니큐어 중 어느 하나이면, 포인터의 이동 동선에 따라 효과를 지정하는 프리 드로잉 방식을 이용하는 단계;
    를 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  14. 제11항에 있어서, 상기 (b) 단계는
    만일 화장 도구가 블러셔, 하이라이터, 립스틱 및 립글로즈 중 어느 하나이면, 해당 화장 도구 별로 효과의 적용 영역이 고정되는 고정 영역 방식을 이용하는 단계;
    를 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  15. 제11항에 있어서, 상기 (b) 단계는
    만일 화장 도구가 아이라이너 및 아이새도우 중 어느 하나이면, 상기 포인터 입력 정보에 따라 효과의 적용 영역이 가변되는 변형 영역 방식을 이용하는 단계;
    를 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법.
  16. 네트워크를 통하여 적어도 하나의 게임 클라이언트와 연결될 수 있고, 연결된 게임 클라이언트에 가상의 캐릭터를 기반으로 하는 온라인 게임을 제공할 수 있는 온라인 게임 제공 시스템에 있어서,
    화장 도구 목록 및 캐릭터의 외형을 디스플레이하는 화장 입력 인터페이스를 제공하고, 지정된 적용 영역에 대하여 효과 파라미터를 적용하여 보정된 캐릭터 외형을 재 제공하는 화장 기능 제어부;
    상기 디스플레이된 캐릭터의 외형에 대한 포인터 입력 정보 및 상기 도구 목록에서 선택된 화장 도구를 포함하는 화장 도구 정보 중 적어도 하나를 이용하여, 화장 효과를 적용할 적용 영역을 판정하는 적용 영역 판정부; 및
    상기 화장 도구 정보 및 상기 포인터 입력 정보 중 적어도 하나를 이용하여, 상기 판정된 적용 영역에 적용될 효과 파라미터를 산출하는 파라미터 산출부;
    를 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 시스템.
  17. 제16항에 있어서, 상기 화장 기능 제어부는
    상기 화장 도구 정보를 이용하여 화장 효과의 적용 방식을 결정하고,
    상기 적용 영역 판정부는
    상기 결정된 적용 방식을 기초로, 상기 포인터 입력 정보 또는 상기 화장 도구 정보 중 적어도 하나를 이용하여 화장 효과를 적용할 적용 영역을 판정하는 것
    을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 시스템.
  18. 온라인 게임 제공 방법을 실행시키기 위한 프로그램을 기록한 기록매체에 있어서,
    상기 프로그램은 네트워크를 통하여 적어도 하나의 게임 클라이언트와 연결될 수 있고, 연결된 게임 클라이언트에 가상의 캐릭터를 기반으로 하는 온라인 게임을 제공할 수 있는 온라인 게임 제공 시스템에서 구동될 수 있는 프로그램으로서,
    (a) 게임 클라이언트에 캐릭터의 얼굴 및 적어도 하나의 화장 도구에 대한 목록을 포함하여 디스플레이하는 화장 입력 인터페이스를 제공하는 기능;
    (b) 상기 게임 클라이언트로부터 상기 화장 도구 목록에서 선택된 어느 하나에 대한 화장 도구 정보 및 상기 디스플레이된 캐릭터의 얼굴에 대하여 입력된 포인터 입력 정보를 수신하는 기능;
    (c) 상기 화장 도구 정보를 이용하여 화장 효과의 적용 방식을 결정하고, 상기 결정된 적용 방식에 따라 상기 포인터 입력 정보를 이용하여 화장 효과를 적용할 적용 영역을 판정하고 상기 판정된 적용 영역에 적용될 효과 파라미터를 산출하는 기능; 및
    (d) 상기 적용 영역에 상기 효과 파라미터를 적용하여 상기 캐릭터의 얼굴 텍스처를 보정하고, 텍스처가 보정된 캐릭터의 얼굴을 상기 화장 입력 인터페이스를 통하여 제공하는 기능;
    을 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법을 기록한 기록 매체.
  19. 온라인 게임 제공 방법을 실행시키기 위한 프로그램을 기록한 기록매체에 있어서,
    상기 프로그램은 네트워크를 통하여 적어도 하나의 게임 클라이언트와 연결될 수 있고, 연결된 게임 클라이언트에 가상의 캐릭터를 기반으로 하는 온라인 게임을 제공할 수 있는 온라인 게임 제공 시스템에서 구동될 수 있는 프로그램으로서,
    (a) 게임 클라이언트에 대하여 소정의 캐릭터의 외형을 디스플레이하는 화장 입력 인터페이스를 제공하고, 상기 제공된 화장 입력 인터페이스를 통하여 화장 도구 정보 및 포인터 입력 정보를 수신하는 기능;
    (b) 화장 도구 정보에 따라 복수의 화장 효과의 적용 방식 중 어느 하나를 이용하는 기능; 및
    (c) 상기 결정된 적용 방식에 따라 상기 화장 도구 정보 또는 포인터 입력 정보 중 적어도 하나를 이용하여 화장 효과를 적용할 적용 영역을 판정하고, 판정된 적용 영역에 적용될 효과 파라미터를 산출하는 기능;
    을 포함하는 것을 특징으로 하는 캐릭터 화장을 제공하는 온라인 게임 제공 방법을 기록한 기록 매체.
KR1020120025477A 2012-03-13 2012-03-13 캐릭터 화장을 제공하는 온라인 게임 제공 방법 및 그 시스템 KR101398188B1 (ko)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020120025477A KR101398188B1 (ko) 2012-03-13 2012-03-13 캐릭터 화장을 제공하는 온라인 게임 제공 방법 및 그 시스템
JP2015500358A JP2015513924A (ja) 2012-03-13 2013-03-11 キャラクタ化粧を提供するオンラインゲーム提供方法及びそのシステム
US14/385,177 US20150038225A1 (en) 2012-03-13 2013-03-11 Online game providing method for providing character makeup and system therefor
EP13761812.0A EP2827296A4 (en) 2012-03-13 2013-03-11 ONLINE GAME PROVIDING METHOD FOR PROVIDING A CHARACTER COMPOSITION AND CORRESPONDING SYSTEM
PCT/KR2013/001952 WO2013137609A1 (ko) 2012-03-13 2013-03-11 캐릭터 화장을 제공하는 온라인 게임 제공 방법 및 그 시스템
RU2014141047/08A RU2586834C2 (ru) 2012-03-13 2013-03-11 Способ предоставления онлайн-игр для предоставления гримирования персонажей и система для этого
CN201380010575.5A CN104137140A (zh) 2012-03-13 2013-03-11 用于提供角色化妆的在线游戏提供方法及其系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120025477A KR101398188B1 (ko) 2012-03-13 2012-03-13 캐릭터 화장을 제공하는 온라인 게임 제공 방법 및 그 시스템

Publications (2)

Publication Number Publication Date
KR20130104190A true KR20130104190A (ko) 2013-09-25
KR101398188B1 KR101398188B1 (ko) 2014-05-30

Family

ID=49161450

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120025477A KR101398188B1 (ko) 2012-03-13 2012-03-13 캐릭터 화장을 제공하는 온라인 게임 제공 방법 및 그 시스템

Country Status (7)

Country Link
US (1) US20150038225A1 (ko)
EP (1) EP2827296A4 (ko)
JP (1) JP2015513924A (ko)
KR (1) KR101398188B1 (ko)
CN (1) CN104137140A (ko)
RU (1) RU2586834C2 (ko)
WO (1) WO2013137609A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101697286B1 (ko) * 2015-11-09 2017-01-18 경북대학교 산학협력단 사용자 스타일링을 위한 증강현실 제공 장치 및 방법

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106251191A (zh) * 2016-07-15 2016-12-21 深圳市金立通信设备有限公司 一种终端屏幕的显示控制方法及终端
CN107551549A (zh) * 2017-08-09 2018-01-09 广东欧珀移动通信有限公司 游戏形象调整方法及其装置
CN112037123B (zh) * 2019-11-27 2023-08-08 腾讯科技(深圳)有限公司 唇妆特效的显示方法、装置、设备及存储介质
CN111408129B (zh) * 2020-02-28 2020-12-08 苏州叠纸网络科技股份有限公司 一种基于虚拟角色形象的交互方法、装置及存储介质
CN111861632B (zh) * 2020-06-05 2023-06-30 北京旷视科技有限公司 虚拟试妆方法、装置、电子设备及可读存储介质
US20220202168A1 (en) * 2020-12-30 2022-06-30 L'oreal Digital makeup palette

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06319613A (ja) * 1993-04-30 1994-11-22 Onishi Netsugaku:Kk 顔のメークアップ支援装置
JP3912834B2 (ja) * 1997-03-06 2007-05-09 有限会社開発顧問室 顔画像の修正方法、化粧シミュレーション方法、化粧方法、化粧サポート装置及びファンデーション転写膜
JP2003173451A (ja) * 2001-12-05 2003-06-20 Sony Communication Network Corp キャラクタ表示方法およびその方法を利用可能な端末
US20050137015A1 (en) * 2003-08-19 2005-06-23 Lawrence Rogers Systems and methods for a role-playing game having a customizable avatar and differentiated instant messaging environment
JP2005092588A (ja) * 2003-09-18 2005-04-07 Hitachi Software Eng Co Ltd 合成画像プリント装置及び画像編集方法
WO2005073909A1 (ja) * 2004-01-30 2005-08-11 Digital Fashion Ltd. 化粧シミュレーションプログラム、化粧シミュレーション装置、及び化粧シミュレーション方法
US7775885B2 (en) * 2005-10-14 2010-08-17 Leviathan Entertainment, Llc Event-driven alteration of avatars
WO2007089021A1 (ja) * 2006-01-31 2007-08-09 Kenji Yoshida 画像処理方法
WO2007128117A1 (en) * 2006-05-05 2007-11-15 Parham Aarabi Method. system and computer program product for automatic and semi-automatic modification of digital images of faces
KR20090002176A (ko) * 2007-06-20 2009-01-09 엔에이치엔(주) 네트워크 상에서 게임 아바타의 랭킹을 제공하는 시스템 및그 방법
US20090032100A1 (en) * 2007-08-02 2009-02-05 Eugene Oak Position adjustable awning equipped with solar cell plates thereon
WO2009021124A2 (en) * 2007-08-07 2009-02-12 Dna Digital Media Group System and method for a motion sensing amusement device
JP2009064423A (ja) * 2007-08-10 2009-03-26 Shiseido Co Ltd メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム
US20090312100A1 (en) * 2008-06-12 2009-12-17 Harris Scott C Face Simulation in Networking
JP5442966B2 (ja) * 2008-07-10 2014-03-19 株式会社 資生堂 ゲーム装置、ゲーム制御方法、ゲーム制御プログラム、及び、該プログラムを記録した記録媒体
JP5029852B2 (ja) * 2010-01-07 2012-09-19 花王株式会社 メイクアップシミュレーション方法
RU2438647C1 (ru) * 2010-04-30 2012-01-10 Елена Юрьевна Кутузова Косметическое средство для формирования художественного образа (варианты)
RU2475290C1 (ru) * 2010-11-17 2013-02-20 Общество С Ограниченной Ответственностью "Айтэм Мультимедиа" Устройство для игр
JP2012181688A (ja) * 2011-03-01 2012-09-20 Sony Corp 情報処理装置、情報処理方法、情報処理システムおよびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101697286B1 (ko) * 2015-11-09 2017-01-18 경북대학교 산학협력단 사용자 스타일링을 위한 증강현실 제공 장치 및 방법
WO2017082539A1 (ko) * 2015-11-09 2017-05-18 경북대학교 산학협력단 사용자 스타일링을 위한 증강현실 제공 장치 및 방법
US10762709B2 (en) 2015-11-09 2020-09-01 Kyungpook National University Industry-Academic Cooperation Foundation Device and method for providing augmented reality for user styling

Also Published As

Publication number Publication date
RU2014141047A (ru) 2016-05-10
RU2586834C2 (ru) 2016-06-10
US20150038225A1 (en) 2015-02-05
EP2827296A4 (en) 2015-11-18
WO2013137609A1 (ko) 2013-09-19
KR101398188B1 (ko) 2014-05-30
JP2015513924A (ja) 2015-05-18
CN104137140A (zh) 2014-11-05
EP2827296A1 (en) 2015-01-21

Similar Documents

Publication Publication Date Title
KR101398188B1 (ko) 캐릭터 화장을 제공하는 온라인 게임 제공 방법 및 그 시스템
US10860838B1 (en) Universal facial expression translation and character rendering system
CN107180446B (zh) 人物面部模型的表情动画生成方法及装置
GB2564745B (en) Methods for generating a 3D garment image, and related devices, systems and computer program products
US11868515B2 (en) Generating textured polygon strip hair from strand-based hair for a virtual character
JP6778877B2 (ja) メイクパーツ作成装置、メイクパーツ利用装置、メイクパーツ作成方法、メイクパーツ利用方法、メイクパーツ作成プログラム、およびメイクパーツ利用プログラム
US20230128505A1 (en) Avatar generation method, apparatus and device, and medium
US20140016823A1 (en) Method of virtual makeup achieved by facial tracking
CN108227922A (zh) 一种虚拟现实的实时数字影像上妆方法
CN111282277B (zh) 一种特效处理方法、装置、设备及存储介质
CN116909407B (zh) 基于虚拟现实的触控显示屏全景交互方法及控制系统
US11978145B2 (en) Expression generation for animation object
CN111729321B (zh) 构造个性化角色的方法、系统、存储介质以及计算设备
CN113362263B (zh) 变换虚拟偶像的形象的方法、设备、介质及程序产品
Oberdörfer et al. Effects of VE transition techniques on presence, illusion of virtual body ownership, efficiency, and naturalness
CN107213636A (zh) 镜头移动方法、装置、存储介质和处理器
CN109285209A (zh) 游戏角色的面部模型的处理方法、装置、处理器及终端
CN117203675A (zh) 用于捕获面部表情并生成网格数据的人工智能
US20180151002A1 (en) Modifying a simulated character by direct manipulation
CN116301531A (zh) 基于虚拟数字人的化妆方法、装置及系统
Ward et al. A simulation-based VR system for interactive hairstyling
Yang et al. Bimanual natural user interaction for 3D modelling application using stereo computer vision
CN115999156B (zh) 角色控制方法、装置、设备及存储介质
CN116778114A (zh) 对组件进行操作的方法、电子设备、存储介质及程序产品
Arora Creative visual expression in immersive 3D environments

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190329

Year of fee payment: 6