KR20090058765A - 아바타 표현 장치와 방법 및 이를 구현할 수 있는 컴퓨터로읽을 수 있는 기록 매체 - Google Patents

아바타 표현 장치와 방법 및 이를 구현할 수 있는 컴퓨터로읽을 수 있는 기록 매체 Download PDF

Info

Publication number
KR20090058765A
KR20090058765A KR1020070125511A KR20070125511A KR20090058765A KR 20090058765 A KR20090058765 A KR 20090058765A KR 1020070125511 A KR1020070125511 A KR 1020070125511A KR 20070125511 A KR20070125511 A KR 20070125511A KR 20090058765 A KR20090058765 A KR 20090058765A
Authority
KR
South Korea
Prior art keywords
avatar
expression
digital content
change
facecon
Prior art date
Application number
KR1020070125511A
Other languages
English (en)
Other versions
KR100993801B1 (ko
Inventor
엄지훈
Original Assignee
에스케이커뮤니케이션즈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이커뮤니케이션즈 주식회사 filed Critical 에스케이커뮤니케이션즈 주식회사
Priority to KR1020070125511A priority Critical patent/KR100993801B1/ko
Publication of KR20090058765A publication Critical patent/KR20090058765A/ko
Application granted granted Critical
Publication of KR100993801B1 publication Critical patent/KR100993801B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 3차원으로 구현되는 아바타의 반응과 표정을 자연스럽고 명시적이면서도 강렬하게 표현할 수 있도록 한 아바타 표현 장치 및 방법에 관한 것으로, 아바타의 얼굴 표정을 강조하기 위해 별개의 얼굴 표정으로 아바타의 얼굴을 대체하거나 가면처럼 덧붙일 수 있도록 하는 정보를 포함하는 페이스콘을 등록하여 해당 표현을 상호작용이나 수동 표현에 활용할 수 있도록 함으로써 특정한 상황에 대한 아바타의 감정 상태를 극적으로 강조할 수 있어 아바타 간 대화의 흥미를 높일 수 있는 효과가 있다.
가상 현실, 아바타, 표현, 페이스콘, 감정, 상황, 대화, 3D

Description

아바타 표현 장치와 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체{AVATAR PRESENTING APPARATUS AND METHOD THEREOF AND COMPUTER READABLE MEDIUM PROCESSING THE METHOD}
본 발명은 아바타 표현 방법에 관한 것으로, 특히 3차원으로 구현되는 아바타의 반응과 표정을 자연스럽고 명시적이면서도 강렬하게 표현할 수 있도록 한 아바타 표현 장치와 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체에 관한 것이다.
급속한 컴퓨터 연산 기능 및 그래픽 처리 능력의 발전과 고속 인터넷 선로의 대중화에 따라 다양한 3차원 온라인 게임이 일반화되었으며, 특정한 게임의 목적을 달성해야 하는 게임과 달리 실제 생활 공간의 3차원 구현과 이를 통한 가상현실 체험을 위한 새로운 개념의 "생활형 가상 현실" 서비스도 상용화되어 점차 규모를 넓혀가고 있다.
이 중에서 가장 뚜렷한 성장을 보이는 "생활형 가상 현실"은 널리 알려진 " 세컨드 라이프"라는 온라인 서비스의 등장을 통해 그 가능성을 인정받아 그와 유사한 기능의 "생활형 가상 현실" 서비스의 대거 등장을 예고하고 있다.
이렇게 특정한 미션(mission)이나 퀘스트(quest) 없이 실제 생활과 유사한 환경을 제공하여 실제 생활을 가상 공간에서 대신할 수 있도록 하는 서비스는 실제와 유사하거나 실제에서는 찾기 어려운 3차원 입체 공간을 제공할 수 있어야 하며 다양한 사용자들의 상호 관계 설정 및 자연스러운 사용자 아바타 구현이 이루어져야 한다. 또한, 다양한 목적이 혼재된 서비스 환경이라는 특성 상 사용자들의 흥미를 유발할 수 있는 다양한 활용 어플리케이션의 제공과 실생활의 즐거움을 가상 공간에 접목할 수 있는 어플리케이션의 발굴 역시 서비스 활용에 큰 영향을 미치게 된다.
이러한 생활형 가상 현실 서비스에 대한 초기 인상이나 활용상의 만족도를 좌우하는 요소 중 하나로 아바타에 대한 사용자의 몰입성을 들 수 있다. 일반적으로 사용자는 아바타가 자신과 동일하다고 느낄 수록 해당 서비스에 대한 몰입성과 충성도가 높아지게 되며 만족도 역시 높아지게 된다. 특히 사용자의 아바타가 항상 서비스의 중심에서 표현되는 경우, 아바타의 형태, 구성의 다양성 및 액션의 자연스러움은 가상 공간 상에서 자신을 대신하는 아바타에 대한 몰입 정도를 결정하는 주요한 요인이 된다.
널리 알려진 바와 같이 아바타는 자신의 분신 또는 화신의 의미를 가지기 때문에 자신을 유사하게 표현하거나 자신이 이상적이라 생각하는 이상형을 표현하는 것이 바람직하므로 최근 아바타 구현 방식은 실물에 근접하게 아바타의 외관을 제 공하는 방식과 이상적인 외관의 기본 형태를 약간씩 변형하도록 한 외관을 제공하는 방식이 대세를 이루고 있다. 한편, 단순한 형태의 아바타를 제공하는 경우도 있으나 이는 사용자의 화신인 아바타라기보다는 다양한 서비스 사용을 위한 캐릭터라는 측면이 강하여 몰입성을 요하는 서비스에는 적합하지 않다.
아바타의 외형은 사용자의 선택에 따라 그 용모와 옷차림 등이 결정되어 사용자를 반영하게 되는데, 가상 현실 서비스에서 사용되는 방식은 크게 몰핑(morphing) 방식과 맵핑(mapping) 방식으로 나뉘어진다.
도 1은 대표적인 몰핑 방식의 아바타를 보인 것으로, 도시한 바와 같이 현실감 있는 형태를 제공하게 되며, 실제 사용자에 근접한 외관을 스스로 설정할 수 있어 일체감을 높일 수 있는 장점이 있다. 하지만, 몰핑 방식의 경우 이목구비와 얼굴형, 헤어 스타일 등과 같은 다양한 요소들을 수치 입력이나 바(bar) 조절을 통해 설정해야 하기 때문에 그 조작이 어려워 원하는 형태를 만들기 어렵고 최종적으로 얻어지는 아바타들 간의 차별성이 작은 문제점이 있다. 즉, 노력에 비해 개성이나 차별점이 미비하다. 또한, 실제 신체 치수에 근접하기 때문에 아바타의 전체 모습이 나타나는 경우 표정이나 얼굴의 변화를 쉽게 알기 어려워 아바타들 간의 대화 시 표현력이 낮아 현장감이 떨어진다.
도 2는 단순한 형태의 아바타를 구성하기 위한 맵핑 방식 아바타 생성의 예를 보인 것으로, 도시한 바와 같이 얼굴형태를 선택하기 위한 도구(10)에서 전체적인 얼굴 형태(11)를 선택한 후 해당 얼굴 형태(11)의 구체적인 예들(12)이 나타나면 이들 중에서 하나를 선택함으로써 우측의 예시된 아바타들(14, 15)과 같은 얼굴 형태 및 특징들을 결정할 수 있다. 하지만, 도시한 바와 같이 단순한 형태만을 선택할 수 있기 때문에 현실감이 낮아지며, 몰입성도 낮아진다.
도 3 역시 맵핑 방식 아바타 생성의 예를 보인 것으로, 입체적인 형태와 이목구비 특징들을 선택할 수 있으나, 기본이 되는 형태를 기준으로 약간씩의 형태 변화만이 가능해진다. 이를 통해서 전체적으로 아름다운 아바타를 쉽게 구성할 수 있으나, 이 경우 아바타들 간의 차별성이 낮아지게 된다.
도 4는 상기 도 3과 같은 아바타 생성 방식을 적용한 실제 서비스에서 얼굴 형태를 달리 선택한 4가지 예를 보인 것으로, 얼굴 형태를 달리 선택함에도 불구하고 전체적인 느낌은 거의 유사하여 차별성이 극히 낮은 것을 알 수 있다.
따라서, 아바타 생성은 서비스의 용도에 적합하면서도 사용자들 간 차별성이 드러나고 구성이 용이하도록 해야 함을 알 수 있다.
한편, 현재의 생활형 가상현실 서비스는 사용자 아바타의 생산적인 활동이나, 사용자 아바타가 참여하는 다양한 어플리케이션 이용, 아바타들 간의 거래, 아이템 생산 등의 다양한 기본 기능을 통해 실제 생활을 모방하는 것에 초점을 맞추고 있으며, 이를 특화하여 특정한 목적성을 부여함으로써 목적성이 다소 포함된 생활형 가상현실 서비스도 등장하고 있으나 이러한 서비스들은 목적을 해결하기 위한 아바타들의 활동성을 근거로 서비스되고 있어 아바타들이 제공해야 하는 기능이 다양해지므로 아바타를 원하는 대로 조작하기 어렵고 표현 방식 또한 제한이 있다.
상기와 같은 생활형 가상 현실 서비스에서 제공되는 아바타 표현의 부족함을 개선하기 위해 새롭게 제안하는 본 발명 실시예들의 목적은 아바타들 간의 상호작용을 위한 표현을 다양하게 특화시켜 간단한 조작을 통해 적절하게 제공하도록 함으로써 현실감 높은 상호작용을 제공하여 몰입감을 높이도록 한 아바타 표현 장치와 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체를 제공하는 것이다.
본 발명 실시예들의 다른 목적은 환경이나 인접 아바타들의 변화에 따른 이벤트를 공유하여 상기 이벤트 정보에 포함된 상호 작용이나 표현 변화, 물리적 변화 등의 표현 변경이 필요한 정보에 따라 아바타의 표현을 페이스콘을 활용하여 변경함으로써, 표현을 풍부하게 제공하도록 한 아바타 표현 장치와 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체를 제공하는 것이다.
본 발명 실시예들의 다른 목적은 얼굴의 표정을 강조하기 위해 별개의 얼굴 표정을 아바타의 얼굴을 대체하거나 가면처럼 덧붙일 수 있도록 하는 정보를 포함하는 페이스콘을 아이템으로 등록하여 해당 표현을 상호작용이나 수동 표현에 활용할 수 있도록 함으로써 특정한 상황을 강조할 수 있도록 한 아바타 표현 장치와 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체를 제공하는 것이다.
본 발명 실시예들의 또 다른 목적은 사용자가 멀티미디어 정보를 이용하여 직접 페이스콘을 생성하여 적용할 수 있도록 하고, 해당 페이스콘을 아이템으로 등 록, 배포, 판매할 수 있도록 하여 페이스콘의 사용을 활성화시킬 수 있도록 한 아바타 표현 장치와 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체를 제공하는 것이다.
본 발명 실시예들의 또 다른 목적은 아바타의 외형에 대응되는 표현 요소를 정적/동적으로 대체 또는 중복 표현하는 디지털 컨텐츠와, 아바타의 동작 패턴을 정하는 디지털 컨텐츠와, 아바타의 의복이나 장신구 등과 같은 외부 표현을 표현하는 디지털 컨텐츠들 중 적어도 하나 이상을 결합하여 페이스콘을 생성하도록 하여 간단한 방식으로 복잡한 표현 변경이 가능하도록 한 아바타 표현 장치와 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체를 제공하는 것이다.
본 발명 실시예들의 또 다른 목적은 표현 변경 상황에 대해 복수의 페이스콘을 등록하여 이들을 순차/랜덤/가중치 랜덤을 포함하는 방식으로 선택하여 제공하도록 함으로써, 표현 변경에 대한 자유도를 높일 수 있도록 한 아바타 표현 장치와 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체를 제공하는 것이다.
본 발명 실시예들의 또 다른 목적은 이벤트 발생시 그에 따른 표현 변경이 설정되어 있지 않다면 추천 페이스콘을 직접 선택 가능하도록 제공하도록 하여 신속한 표현 변화가 가능하도록 한 아바타 표현 장치와 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체를 제공하는 것이다.
상기와 같은 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 아바타 표현 방법은 아바타를 이루는 외형의 일부 부위에 대응되어 상기 아바타의 표현을 변경하기 위한 디지털 컨텐츠를 등록하는 단계와; 상기 아바타가 특정한 상황이 되거나 사용자가 지정하는 경우 상기 등록된 디지털 컨텐츠를 대응되는 상기 아바타 부위에 대체 혹은 중복 표현하는 단계를 포함하여 이루어진다.
상기 등록 단계는 상기 디지털 컨텐츠를 아바타와 결합하여 새로운 디지털 컨텐츠를 생성할 수 있다.
상기 디지털 컨텐츠는 아바타의 실제 얼굴과 상이하거나, 크기나 표정을 이루는 이목구비의 비율이 실제 아바타 얼굴과 상이한 얼굴 부위 표현 요소를 포함하며, 정지된 표현 요소와 움직이는 표현 요소를 포함할 수도 있다.
그리고, 상기 디지털 컨텐츠는 외형을 대체하는 표현 요소와 함께 아바타의 동작을 세트로 정의한 것일 수 있으며, 이러한 세부적 표현 요소나 아바타의 동작 세트 등은 다른 표현 요소나 동작과 재결합되어 새로운 페이스콘을 구성할 수 있다. 이를 통해 페이스콘을 다양하게 구성할 수 있으며 기존 페이스콘의 변형도 자유로울 수 있다.
상기 디지털 컨텐츠를 등록하는 단계는 다른 아바타와의 상호 관계 변화, 환경의 물리적 변화, 아바타의 감정 변화 또는 사용자의 지정에 따라 자동적으로 나타날 디지털 컨텐츠를 적어도 하나 이상 지정하는 단계를 포함할 수 있으며, 이 경우 상기 복수의 지정된 디지털 컨텐츠 중 하나를 선택하기 위해서 순차, 랜덤, 가중치 랜덤 방식 중 하나 이상을 포함하는 선택 방식들 중 하나를 지정하는 단계를 더 포함할 수 있다. 이를 통해서 단조롭지 않은 디지털 컨텐츠 표현을 즐길 수 있게 된다.
상기 표현 단계 후에 기 설정된 시간이나 상황 변화를 포함하는 조건들 중 하나를 만족하는 경우 상기 표현 단계를 종료하고 기존 아바타 표현 상태로 복귀하는 복귀 단계를 더 포함하여 기존 아바타의 일관성을 유지할 수 있다. 한편, 이러한 복귀에 관련된 구체적 구성은 다양하게 변경될 수 있어 복귀 여부를 개별 지정할 수도 있고, 복귀 조건도 개별 지정할 수 있다.
상기 디지털 컨텐츠는 아바타의 외형 변경에 대한 영상 정보나 외형 변경에 대한 효과 정보와, 아바타에 부가된 부착 아이템이나 장신구, 의복, 헤어 스타일, 동작의 변경 중 하나 이상의 설정이 결합된 복합적인 정보일 수 있다.
그 활용 방식으로, 상기 디지털 컨텐츠는 아바타의 얼굴보다 큰 가면 형상의 정지 혹은 움직이는 얼굴 정보를 포함하며, 상기 표현 단계에서 상기 디지털 컨텐츠를 상기 아바타의 얼굴 앞에 중복 표현할 수 있다.
또한, 상기 디지털 컨텐츠는 아바타의 형상 일부에 대응되는 영상 정보를 포함하며, 상기 표현 단계는 상기 디지털 컨텐츠와 상기 아바타의 대응 영역을 합성하여 얻어진 결과를 상기 아바타의 대응 영역에 대체 혹은 중복 표현하는 단계를 포함할 수 있다. 이를 통해서 아바타의 특징이 반영된 디지털 컨텐츠 표현이 가능해진다.
또 다른 방식으로, 상기 디지털 컨텐츠는 아바타의 형상 일부에 대응되는 영역에 대한 이미지 처리 효과 정보를 포함하며, 상기 표현 단계는 상기 아바타의 대 응 영역을 상기 디지털 컨텐츠에 정의된 이미지 처리 방식으로 처리하여 얻어진 결과를 상기 아바타의 대응 영역에 대체 혹은 중복 표현하는 단계를 포함할 수 있다. 이를 통해서 아바타의 일부가 각종 영상처리 효과 필터를 적용한 것처럼 변화될 수 있어 극적 표현을 높일 수 있게 된다.
한편, 상기 표현 단계는 상기 아바타가 특정한 상황이 되거나 사용자가 지정하는 경우 상기 등록된 디지털 컨텐츠를 선택하며, 만일 상기 상황이나 사용자 지정에 대해 등록된 디지털 컨텐츠가 없는 경우 다른 상황에 대해 등록된 디지털 컨텐츠의 적어도 일부를 직접 선택 가능한 상태로 제공하는 단계를 더 포함할 수 있다. 여기서, 상기 디지털 컨텐츠를 선택하는 특정한 상황은 다른 아바타의 표현 변화, 환경의 물리적 변화, 다른 아바타와의 상호 작용을 포함하는 표현 변경을 유발할 수 있는 모든 종류의 변화 발생 상황일 수 있다.
또한, 본 발명의 다른 실시예에 따른 아바타 표현 장치는 아바타를 구성하는 표현 요소들과 특정한 표현 요소들을 강조하기 위한 페이스콘을 저장하는 데이터베이스와; 상기 표현 요소들과 페이스콘을 상기 데이터베이스에 등록하고 표현될 상황에 대한 정보를 관리하는 관리부와; 다른 아바타들과 상호작용을 포함하는 외부 환경의 변화와 사용자 조작에 따른 정보를 수신하여 상기 아바타에 대한 표현 변화 여부를 판단하는 상호작용 판단부와; 상기 관리부를 통한 현재 적용 표현 요소 정보와 상기 상호작용 판단부의 표현 변화 여부를 근거로 현재 아바타 표현 요소 중 일부를 상기 페이스콘으로 대체 표현하는 상호작용 표현부를 포함하여 이루어진다.
또한, 본 발명의 또 다른 실시예에 따른 기록 매체는 전술한 아바타 표현 방 법을 수행하는 프로그램이 수록된다.
이러한 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있도록 프로그램 및 데이터가 저장되는 모든 종류의 기록매체를 포함한다. 그 예로는, 롬(Read Only Memory), 램(Random Access Memory), CD(Compact Disk), DVD( Digital Video Disk)-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 케리어 웨이브(예를 들면, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함된다. 또한, 이러한 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
본 발명의 실시예에 따른 아바타 표현 장치와 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체는 아바타들 간의 상호작용을 위한 표현을 다양하게 특화시켜 간단한 조작을 통해 적절하게 제공하도록 함으로써 현실감 높은 상호작용을 제공하여 몰입감을 높일 수 있는 효과가 있다.
본 발명의 실시예에 따른 아바타 표현 장치와 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체는 복수의 아바타와 공간 아이템에 대한 상호작용을 근접과 물리적 변화로 간주되는 환경의 변화 등을 고려하여 자동적으로 실시하도록 구성함과 아울러 특정한 상호작용은 사용자가 지정하여 수행하도록 함으로써 자동적인 상호작용과 수동적인 상호작용을 통해 간단하면서도 다양한 표현이 가능하도록 하여 아바타간 의사소통의 효율을 극대화할 수 있는 효과가 있다.
본 발명의 실시예에 따른 아바타 표현 장치와 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체는 아바타의 외형을 설정할 경우 특정한 표현을 위한 외형을 추가적으로 설정할 수 있도록 하여 사용자가 직접 특정한 상황에 대한 표현을 지정할 수 있도록 함으로써, 상황에 따른 과장되거나 극적인 효과를 제공하여 실제와 유사하거나 더욱 효과적인 의사 전달이 가능해지는 효과가 있다.
본 발명 실시예에 따른 아바타 표현 장치와 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체는 다양한 표현 변화를 유도하는 페이스콘을 사용자가 다양한 방식으로 생성할 수 있으며, 구매나 선물, 획득 등의 방식으로 얻을 수 있어 방대한 페이스콘을 통해 자신만의 개성을 강조할 수 있고, 이러한 페이스콘을 생성하여 이를 판매할 수도 있어 서비스 사용자의 참여를 유도할 수 있는 효과가 있다.
본 발명 실시예에 따른 아바타 표현 장치와 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체는 얼굴의 표정을 강조하기 위해 별개의 얼굴 표정으로 아바타의 얼굴을 대체하거나 가면처럼 덧붙일 수 있도록 하는 정보를 포함하는 페이스콘을 등록하여 해당 표현을 상호작용이나 수동 표현에 활용할 수 있도록 함으로써 특정한 상황에 대한 아바타의 감정 상태를 극적으로 강조할 수 있도록 하여 아바타 간 대화의 흥미를 높일 수 있는 효과가 있다.
본 발명 실시예에 따른 아바타 표현 장치와 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체는 아바타의 일부를 대체하거나 덧붙일 수 있도록 하는 표현 요소(이미지나 영상 정보) 또는 해당 영역을 다양하게 변경시키기 위한 효과 정보(필터와 설정 정보 등)와, 아바타의 동작 패턴 정보 등의 복합적인 정보를 구비한 페이스콘을 등록하여 해당 표현을 환경의 물리적 변화, 다른 아바타와의 상호 작용 및 표현 변화 등의 다양한 표현변화가 필요한 시기에 활용할 수 있도록 함으로써 특정한 상황에 대한 아바타의 감정 상태를 극적으로 강조할 수 있도록 하여 아바타 간 대화의 흥미를 높일 수 있는 효과가 있다.
상기한 바와 같은 본 발명을 첨부된 도면들과 실시예들을 통해 상세히 설명하도록 한다.
도 5는 가상 현실 시스템에서의 아바타 표현 방식을 보인 것으로, 도시한 바와 같이 인간과 유사한 형상의 아바타(101)가 기본적으로 사용되며 경우에 따라서는 인간에 대응되는 다른 형태의 아바타가 사용될 수도 있다.
도시된 간단한 아바타(101)의 사용 방식을 보면, 사용자(User)를 나타내기 위한 태그(102)와, 상기 아바타(101)나 태그(102)를 선택할 경우 나타나는 기본 메뉴로서 개인 정보나 아바타의 외관을 편집하는 항목과 가상 현실에서 아바타를 움직이기 위한 기본적인 동작 항목들이 나타나 있다.
물론, 간단한 동작의 경우 마우스나 키보드와 같은 입력 장치를 통해 직접적으로 조정될 수 있으며, 단축키를 통해 복잡하고 다양한 세부 동작들을 제어할 수도 있다. 하지만, 이러한 활동성보다는 표현이 중요시되므로 이러한 동작들은 너무 복잡하지 않은 것이 바람직하다.
도 6은 본 발명 일 실시예에 따른 아바타들의 표현 방식의 기본 예를 보인 것으로, 도시한 바와 같이 복수의 아바타들이 참여하기 위해 기 설정된 공간이나 특정한 아바타 사용자가 생성하여 다른 아바타를 초대할 수 있는 가상의 공간에서 복수의 아바타들이 대화를 나누는 경우이다.
최근의 생활형 가상현실 서비스는 대부분 실질적인 거리나 도시에서 실제 생활하는 것처럼 이동하며 집을 짓고 일을 하는 등의 현실적인 가상 체험을 제공하는 경우가 많으나, 이러한 경우 서비스의 내용을 익혀서 재미를 추구할 정도로 숙련되기가 어렵다. 따라서, 간단한 목적성과 단순화된 조작성을 통해 쉽고 빠르게 서비스 활용이 가능한 부분 생활형 가상현실 서비스의 필요성이 높아지고 있다.
본 실시예에서는 생활의 일부분인 상호 교류와 대화를 주된 서비스로 하며 부가적으로 다양한 위락 시설이나 공통 놀이 공간을 제공하는 서비스를 제공할 경우 가장 중요시되는 아바타들 간의 상호 교류, 상호작용, 자신에 대한 표현을 다양하면서도 간단한 방식으로 제공할 수 있는 예를 든 것이다.
도시된 경우 제 1아바타(101)의 사용자가, 다른 아바타들(111, 121)의 사용자와 대화를 한다면, 채팅 내용은 메신저와 유사하게 채팅창을 통해 상호 전달할 수 있어 기본적인 대화가 가능하다. 한편, 사용자들은 각각 자신의 아바타를 통해 단순한 문자가 아닌 몸짓이나 신체 접촉을 통해 상기 문자를 통해 전달한 내용을 보충하거나 보조하고, 문자를 통하지 않은 정보(상태, 기분, 구체적 정보)를 전달할 수 있다.
특히, 상대방이 있는 경우 실시할 수 있는 다양한 상호동작은 실제 상황일 경우 하기 어려운 상호동작도 할 수 있기 때문에 단순한 대화가 아닌 '만남'을 즐길 수 있게 된다. 도시된 경우 상호동작은 상대방이 필요하기 때문에 제 1아바타(101) 사용자가 제 3아바타(121) 사용자와 상호동작을 수행하고자 할 경우, 제 3아바타(121)를 선택하거나 해당 아바타의 태그(122)를 선택하여 메뉴(125)가 나타나도록 한 후 상호동작을 선택하여 하위 메뉴(126)가 나타나도록 하고 해당 메뉴에서 원하는 상호동작 항목을 선택하면 해당 동작이 수행되게 된다. 상기 상호동작의 하위 메뉴(126) 항목들을 보면, '악수', '인사', '포옹'...'격식 인사'와 같이 상대방이 있어야만 하는 동작임을 알 수 있다.
한편, 이러한 동작은 단순히 지정을 통해 수행될 수도 있으나 물리적 환경에 의해 수행되지 않을 수도 있는데, 예를 들어 다른 곳을 바라보고 있거나, 배치된 공간에 장애물이 있는 경우 '인사'를 선택해도 동작이 되지 않도록 하여 보다 현실감을 높일 수 있다.
따라서, 자신의 아바타는 키보드나 마우스와 같은 입력 수단을 통해 조작하거나 자신의 태그를 선택하여 메뉴를 호출한 후 항목을 지정함(도 5)으로써 조작할 수 있고, 상호동작은 상대방 아바타를 지정한 후 특정한 동작을 선택하여 수행할 수 있다. 이 경우, 상대방이 이러한 상호동작에 대한 요청을 받아 허락한 경우에만 해당 상호동작이 이루어질 수 있도록 할 수 있다.
한편, 도시되지는 않았지만 상기 상호동작의 경우 아바타의 동작을 의미하는 것이므로 특정한 동작의 경우 이를 편집하여 상기 상호동작의 하위 항목으로 등록할 수 있으며, 이를 새로운 아이템처럼 취급할 수도 있다.
도 7은 본 발명 일 실시예에 따른 가상현실 서비스의 화면 예를 보인 것으로, 도시한 바와 같이 가상의 공간(200)에 복수의 아바타들(101, 111)과 공간 아이템(131)으로서 특정한 오브젝트가 배치될 수 있다. 상기 공간 아이템(131)은 해당 공간을 생성하는 사용자 혹은 서비스 제공자가 배치할 수 있으며, 상기 아바타들(101, 111)과 상호동작이 가능하다.
도시된 경우, 간단한 메뉴 상태를 보면 제 1아바타(101) 사용자는 도시한 바와 같이 자신의 아바타(101)에 대해서는 독립적 움직임 항목을 가진 사용자 인터페이스(107)를 표시하여 이용할 수 있고, 다른 사용자의 제 2아바타(111)에 대해서는 상호동작을 포함하는 메뉴(117)와 그 하위 메뉴(118)를 통해 다양한 상호동작을 수행할 수 있다. 한편, 공간 아이템(131)에 대해서도 상호동작이 가능한 메뉴(132)를 통해 상호동작을 수행할 수 있다.
한편, 공간 상의 가상적 현실감을 높이기 위해서 이러한 공간(200)과 공간상의 아바타들(101,111) 및 공간 아이템(131)은 물리적인 환경에 영향을 받도록 구성할 수 있는데, 예를 들어 상기 제 1아바타(101) 사용자가 자신의 아바타를 상기 공간 아이템(131)에 앉도록 한 경우, 그 경로가 차단되어 있거나 공간 아이템의 위치가 앉기 어렵게(특정 물건의 상부, 뒤집어짐 등)되어 있다면 이를 수행하지 못하도록 할 수 있다. 이는 다른 아바타와의 상호동작에서도 유사하게 적용될 수 있다.
상기 제 1아바타(101) 사용자는 도시된 바와 같은 개인 정보 영역(210)을 통해 온라인/자리비움/오프라인 등의 접속 상태나 자신의 사이버 머니, 로그인 정보, 등급 등과 같은 다양한 사용자 정보를 확인할 수 있고, 채팅창(220)을 통해 다른 아바타와 문자로 정보를 주고 받을 수 있다. 그 외에 상태바(status bar)로서 네비게이션바(230)를 통해 공간 정보를 알거나 공간 이동을 지시할 수 있고, 보조 아이콘바(240)를 통해 특정한 기능이나 표현 변경등의 작업을 쉽게 지시할 수 있다. 부가적으로 일반관리바(250)를 통해 일반적인 관리 메뉴를 호출하여 설정등을 변경하거나 사용법을 확인하는 등의 작업을 수행할 수 있다. 이러한 다양한 부가적인 구성들은 다양하게 변경될 수 있으므로 이러한 변경들로 본 발명이 제한되는 것이 아님에 주의한다.
즉, 상기 설명한 구성을 통해서 간단한 동작과 상호작용 및 대화를 실시할 수 있게 되며, 직관적인 인터페이스를 통해 간단한 마우스 조작으로 상대 아바타에 접근하고 상호작용하면서 채팅을 실시하고, 각종 상태를 관리할 수 있게 된다. 이러한 아바타를 이용한 기본적인 시스템 구성으로 동적인 대화는 가능하지만, 현실감은 상당히 낮기 때문에 아바타를 개성적으로 표현하기 위한 새로운 표현 방식을 더 제공해야할 필요가 있다.
상기 채팅창(220)과 같이 사용자가 집중하여 조작하며 실제 대화의 기본이 되는 수단은 문자를 입력하기 위한 입력창(221)과, 입력된 문자를 전송하기 위한 전송 버튼이 존재하며, 자신의 감정을 아바타가 대신 표현하도록 하는 감정표현 수단(222)이 부가될 수 있다. 상기 감정표현 수단(222)을 통해 도시한 바와 같이 부가적인 서브 메뉴창(223)이 나타나 자신이 표현하도록 하는 감정 항목을 선택하도록 할 수 있으며, 이러한 지시를 통해 상기 제 1아바타(101)는 몸짓이나 얼굴 표정 등을 변화시켜 감정을 나타낸다.
이러한 감정 표현 중에서 일부는 자동적으로 수행되도록 할 수 있는데, 예를 들어 아바타들 간의 상호동작에 의해 인사를 할 경우 기쁜 감정 상태가 되도록 한다거나, 포옹이나 키스와 같은 상호동작을 할 경우 수줍거나 사랑하는 감정 상태가 되도록 한다거나, 특정한 감정을 표현하는 경우 그에 따라 대응되는 감정 상태가 되도록 하는 등 상대 아바타의 상호 동작, 독립 동작, 감정 표현 등과 같은 상황에 대한 대응이 자동적으로 이루어지도록 할 수 있다. 물론, 그 자동 응답 수준은 사용자에 의해 설정될 수 있으며, 완전한 수동으로 이루어지도록 할 수도 있다.
한편, 본 실시예에서는 이러한 아바타의 표현 방식을 더욱 풍부하면서도 활용 및 관리가 용이하도록 하기 위해 상기 감정 표현을 포함하는 포괄적인 표현 변경 방식을 페이스콘으로 대변되는 아이템 형태로 추가/변경/선택/해제/버림 등을 할 수도 있도록 구성한다.
상기 감정 표현에 따른 아바타의 표현 변화(페이스콘의 적용)는 상기 아바타에 대해 기 설정된 표현 방식으로 변경 표시되는 수준으로 그칠 수도 있으나, 이러한 경우 감정 표현에 대해 모든 아바타가 동일한 대응을 하게 되므로 개성이 없어져 현실감이 극히 낮아지게 된다. 예를 들어, 문자 채팅에서 즐겁다는 표현을 누구나 "^^"로 나타내는 경우와 흡사하게 즐거울 때는 모든 아바타가 동일한 방식으로 웃도록 표현 변경 내용이 구성(예를 들어, 눈과 입을 웃는 형태로 변경하도록 하는 구성)될 수 있어 즐거움의 정도와 개인별 개성이 무시될 수 있다.
따라서, 앞서 설명한 바와 같이 감정 표현에 대한 항목들을 사용자가 스스로 추가할 수 있도록 하여 특정한 감정의 종류를 다양화할 수 있다. 한편, 다른 방식으로 감정 표현에 따른 아바타 표현 방식을 변경할 수 있는데, 기본적으로 제시되는 감정 표현에 따른 아바타 표현 변경 내용을 사용자가 다른 종류의 표현 방식으로 변경할 수 있다.
도 8은 본 발명 일 실시예에 따른 페이스콘의 사용 예를 보인 것으로, 상기 페이스콘이란 얼굴로 대변되는 아바타의 표현을 이모티콘과 같이 감정을 나타내기 위한 수단으로 대체/중복 표현할 수 있도록 하는 일종의 아이템을 의미한다. 먼저, 좌측과 같이 제 1아바타(110)와 제 2아바타(111)가 대화하는 도중에 상기 제 2아바타(111) 사용자가 당혹한 감정 표현을 하고자 할때, 해당 감정으로서 당혹에 해당되는 페이스콘 아이템을 선택할 경우 우측에 도시한 바와 같이 제 2아바타(111)의 얼굴 대신 당혹한 감정을 과장하는 새로운 얼굴(300)이 상기 제 2아바타(111)의 새로운 표현 요소로서 나타나게 된다. 상기 새로운 얼굴(300)은 기존 얼굴에 가면처럼 부착되어 나타나도록 표현될 수 있고, 기존 얼굴을 대체하는 3차원 입체물로서 나타날 수도 있다.
상기 페이스콘은 정지 영상이나 움직이는 영상으로 이루어질 수 있으며, 도 7의 보조 아이콘바(240)에 등록되거나 감정표현 수단(222)의 하위 메뉴(223)에 등록될 수 있다. 혹은 필요시 나타나는 별도의 감정 아이템창에 등록될 수도 있다. 이러한 페이스콘은 동일한 감정에 대해 복수의 상이한 페이스콘이 다른 아이템으로 서 등록될 수도 있고, 동일한 감정에 대해서는 복수의 페이스콘 중에서 지정된 아이템이 우선적으로 사용되도록 설정될 수도 있다. 또한, 자동적인 감정 표현에서 특정한 감정에 대한 응답으로 페이스콘이 나타나도록 설정될 수도 있어 사용자의 개성을 나타낼 수 있게 된다.
즉, 일반적인 아바타의 경우 일관성을 유지하기 위해서 한번 설정한 아바타의 기본 표현 내용은 변경이 불가능하도록 하고 있으나, 이러한 페이스콘을 이용할 경우 다양한 형태로 변경이 가능하여 다양한 감정을 강조하거나 나타낼 수 있게 된다. 일반적으로 페이스콘은 감정을 과장하거나 강조하기 위해서 실제 아바타의 얼굴보다 크도록 하거나 이목구비 배치 비율과는 다른 강조된 형태를 가질 수 있다.
한편, 상기 페이스콘은 단순히 아바타의 얼굴을 다른 얼굴로 치환하는 것으로 한정되는 것이 아니라 아바타의 동작을 과장되게 한다거나 몸짓, 상호동작, 장신구나 의복, 피부 색상 등의 변화일 수도 있고, 이들의 결합일 수도 있으며, 필요에 따라 복수의 표현 변화들로 구성한 후 이들을 교차 결합하여 다른 종류의 페이스콘을 생성할 수 있도록 할 수도 있다.
그리고, 페이스콘의 경우 사용자가 직접 멀티미디어 데이터를 통해서 생성하거나 직접 편집하는 등의 수작업으로 생성할 수도 있어 개성 표현 가능성을 확장할 수 있고, 이렇게 만들어진 페이스콘을 아이템으로 객체화하여 배포할 수도 있다. 한편, 서비스 시스템의 게시판이나 페이스콘 판매 게시판 등에 상기 개인이 생성한 페이스콘을 등록하여 판매할 수도 있어 페이스콘을 사용자나 서비스 제공자 모두가 다양한 방식으로 활용할 수 있다.
또 다른 페이스콘의 적용 예로서, 상기와 같은 감정 표현이 아닌 다른 종류의 상황 표현에 페이스콘을 적용할 수 있는데, 예를 들어 공간의 환경이 변화되어 온도가 상승하거나 특정한 동작을 수행하여 덥다는 것을 나타내고자 할 때, 페이스콘을 이용하여 땀이 나는 상황을 더욱 극적으로 표현할 수 있고, 바람이 불 경우 그에 대한 대응 역시 페이스콘으로 등록하여 더욱 극적으로 표현할 수 있다.
도 9는 페이스콘을 아이템처럼 관리하는 화면 구성의 예를 보인 것으로, 다양한 감정 표현에 대한 이모티콘창(225)과 복수의 페이스콘 아이템이 표시되는 페이스콘 아이템창(228)을 표시하고, 상기 페이스콘 아이템창(228)에서 선택한 페이스콘 아이템과 상기 이모티콘창(225)의 이모티콘을 연동 설정하는 방식을 보인 것이다. 이를 통해 향후 사용자는 이모티콘을 선택하는 것으로 대응되게 설정된 페이스콘이 나타나 아바타의 기존 얼굴이 새로운 얼굴(300)로 변화되어 표현될 수 있다. 한편, 본 실시예에서는 동일한 감정에 대해서 복수의 페이스콘 아이템을 선택할 수 있으며, 이 경우 해당 감정이 표현될 때 어떠한 페이스콘 아이템을 선택할 것인지도 함께 설정할 수 있는데, 예를 들어 순차적 방식, 랜덤 방식, 혹은 특정한 아이템에 선택 가중치를 부여한 랜덤 방식 등이 선택 방식으로 적용될 수 있다. 만일, 사용자가 동일한 감정을 나타내는 복수의 페이스콘을 보유하고 있을 경우 이들을 전부 활용할 수 있으며, 감정 표현도 한결 다양하게 제공할 수 있어 단조로움을 피할 수 있다.
그리고, 상기 페이스콘은 특정한 상황을 강조하는 것이기 때문에 지속적으로 표현되는 것보다는 특정한 상황에 대한 극적인 과장을 나타낸 후 기존 아바타 상태 로 복귀되는 것이 바람직하기 때문에, 시간이나 환경 변화 등 특정한 기 설정 조건을 만족시키면 자동적으로 기존 아바타 상태로 복귀되는 것이 바람직하다.
도 10은 페이스콘 적용 방식의 예를 보인 것으로, 도시한 바와 같이 페이스콘을 적용할 경우 아바타의 일정 부분을 대체 혹은 중복 표현할 때 페이스콘에 적용된 영상이 그대로 적용되는 대신 아바타와 합성되어 양측의 특징을 모두 가지도록 적용되도록 한 예이다. 즉, 아바타의 특징이 페이스콘을 적용시에도 나타나게 되므로 동일한 페이스콘을 적용하더라도 아바타마다 개성적인 결과물로서 적용될 수 있다. 물론, 이러한 합성 여부는 페이스콘 등록시 결정될 수 있고, 그 합성 방식 역시 도시된 몰핑(Morphing) 방식 외에 다른 합성용 정보와 합성 파라메터를 적용하는 방식이나 특정한 영상 효과를 제공하는 방식이 이용될 수 있어, 페이스콘의 표현 요소는 단순한 이미지/영상이 아닌 영상 효과 필터 정보와 설정 파라메터 등과 같은 복합적인 정보 형태로 제공될 수 있다. 예를 들어, 상기 영상 효과가 포함된 페이스콘을 적용한다면 아바타의 특정 부위를 회색조로 변화시키거나, 탈색시키거나, 돌/유리/금속과 같은 다른 재질로 보이게 변화시키는 등의 이미지 효과를 통해 아바타의 일관성을 유지하면서도 극적인 표현이 가능해진다.
도 11은 아바타 표현 방식의 다른 예를 보인 것으로 도시한 바와 같이 아바타의 얼굴(310), 손(320), 발(330)이 신체 비율에 비해 커지도록 한 것으로, 이 역시 페이스콘의 일종일 수 있고, 기본적으로 아바타 설정시 결정될 수도 있다. 이는 본 실시예가 대화를 주목적으로 하는 가상현실 시스템의 목적에 적합하도록 하는 표현 방식으로, 시스템상에서 자동으로 제공할 수 있다. 사용자의 설정에 따라 사용 여부가 결정되거나 수준이 결정될 수 있음은 물론이다.
이는 특정한 공간에서 다양한 아바타들이 '만남'을 목적으로 하는 가상 현실 서비스에서 감정의 표현이나 상호 소통의 수단인 표정, 손짓, 발짓이 명료하게 드러나도록 한 예를 보인 것으로, 롱테이크 화면 배치와 같은 시점의 변화를 통해 아바타의 소통 표현이 잘 보이지 않을 경우 상기와 같은 아바타 표현 변화가 나타나도록 할 수 있다. 즉, 상기 얼굴과 손발 중 적어도 하나에 대응하는 영역이 줄어들 경우, 기 설정된 범위에서 기 설정된 비율로 상기 얼굴과 손발 중 적어도 하나를 확대 표시하여 표현 변경의 관찰 범위를 확장할 수 있어 자신 및 상대방의 표현 변화를 보다 용이하게 확인할 수 있게 된다.
도 12는 아바타 표현 변화를 위한 또 다른 실시예로서, 사용자가 아바타 생성이나 사용 중에 아바타의 외관을 나타내는 신체와 같은 표현 요소들을 다양한 상황에 따라 달리 설정할 수 있도록 함으로써, 기본 아바타를 설정할 경우 특정 상황에 대해서는 자동적으로 제공되는 획일적 표현 변화가 아닌 개성적인 표현 변화를 유도할 수 있게 된다.
즉, 도시된 바와 같이, 기본 아바타의 얼굴 표현(110)을 선택할 경우 각 상황별 얼굴 표현 역시 사용자가 지정할 수 있도록 할 수 있는데, 예를 들어 기쁠 때의 얼굴 표현 요소들에 대한 세트를 사용자가 임의적으로 선택할 수 있다. 물론, 아바타의 외형이 완전히 달라져 일관성을 유지할 수 없을 수도 있으므로 얼굴 형태 를 유지하고 내부 이목구비나 얼굴 색상만 변경하도록 하는 등의 부분별 제한을 둘 수도 있다.
상기 각 상황별 표현요소 세트들은 기본 아바타와는 달리 사용 중에 변화 가능한 것이기 때문에 마치 의복 세트를 지정하듯이 표현 세트를 하나의 단일 아이템으로 관리할 수도 있어 필요 시 동일한 상황에 대해 상이한 표현도 아이템 선택에 의해 가능해 질 수 있다.
도 13은 자동적인 표현 변화의 예를 보인 것으로, 상기 아바타들의 대화를 주로 하는 서비스에서 아바타들 간의 아이템 사용이나 환경 변화에 따른 표현 변경은 아기자기한 재미를 줄 수 있는 부분이므로, 예를 들어 다른 아바타가 물을 부었다거나 공간 환경 변화로 비가 왔다거나 하는 특정한 상황변화, 즉 이벤트가 발생하게 되면 그에 따라 아바타의 표현이 해당하는 물리적 상황에 맞추어 자동적으로 변경될 수 있다. 도시된 바와 같이 좌측의 기본 아바타(420)가 비를 맞을 경우 우측과 같이 일반 헤어 스타일(421)이 비 맞은 헤어 스타일(422)로 변경되어 표현될 수 있다. 그 외에 바람이 분다거나 선풍기 아이템을 동작시킨 경우 등에서는 대응 범위에 위치한 아바타의 옷이나 머리가 날리는 등의 물리적 법칙에 의거한 변화가 자동적으로 제공될 수 있다.
도 14는 상기 설명한 아바타 표현 방식의 변화를 제공하기 위한 장치 구성을 보인 예로서, 도시한 바와 같이 개별 아바타에 대한 아바타 표현 제공 장치의 구성을 보인 것이다.
먼저, 데이터베이스(510)는 내부적으로 아바타가 구비한 아이템을 착용 정보 와 함께 구비하는 개인 아이템 DB(511), 표현 변형에 관련된 정보(예를 들어 상황별로 제공되는 표현 요소 세트들, 현재 구성에 따른 물리적 변화를 위한 요소들)가 저장되는 변형정보 DB(512), 사용자가 구비한 페이스콘 및 설정 정보가 저장되는 페이스콘 DB(513), 기본 및 사용자가 설정한 상호동작, 개별 동작등의 작용 동작 정보가 저장되는 작용동작 DB(514) 등이 구성된다. 그 외에 각종 개인적인 정보(사이버 머니, 로그인 정보, 등급 등)나 서비스 활용을 위한 부가적인 정보들이 DB로 저장될 수 있다.
상기 데이터베이스(510)에 포함된 각 세부 DB들을 관리하기 위한 관리부로서, 기본적인 등록, 선택, 편집, 삭제, 설정 등을 수행하는 개인 아이템 관리부(521), 변형 및 속성 관리부(522), 페이스콘 관리부(523), 작용동작 관리부(524)가 구비되며, 상기 페이스콘 관리부(523)의 경우 부가적으로 페이스콘의 생성이나 아이템화, 해당 아이템의 배포와 판매 등에 관련된 추가적인 기능도 수행할 수 있다.
한편, 상기 관리부들에 대한 정보를 근거로 아바타의 표현을 변경하기 위해서, 상기 아바타에 의한 환경 변화를 파악기 위해 상기 작용동작 관리부(524)로부터 해당 정보를 획득하고, 사용자의 지시에 대한 정보를 획득하며, 공간이나 다른 아바타나 아이템들에 의한 환경 변화 정보를 획득하여 이들을 근거로 아바타의 표현 변화 유무를 판단하는 작용동작 판단부(535)와, 상기 작용동작 판단부(535)의 판단과 그 외의 관리부들에 대해 현재 아바타 상태나 페이스콘 설정 정보, 변형 정보, 현재 구비된 아이템 상황등을 종합적으로 고려하여 물리적으로 상충되는 조합 의 경우 상기 작용동작 판단부(535)의 판단을 무시하고, 그외에 물리적으로 조정이 필요한 경우 상기 작용동작 판단부(535)의 판단을 조정하고, 별다른 문제가 없는 경우 상기 작용동작 판단부(535)의 판단에 의거하여 상기 관리부들과 데이터베이스(510)의 정보를 통해 표현 변경에 대한 정보를 제공하는 상호작용 관리부(530)가 구성된다. 상기 상호작용 관리부(530)는 사용자의 지시에 따라 상기 판단 내용을 조정할 수 있다.
상기 상호작용 관리부(530)는 표현부(540)를 통해서 실질적인 데이터베이스(510)의 정보를 실제 출력하도록 하며, 상기 아바타의 표현 변경에 따른 정보를 다른 아바타나 공간 관리 부분에 제공한다.
즉, 상기 구성에서 아바타 표현 변경을 위한 정보들은 사용자의 지시와 환경 변화이며, 이러한 환경 변화에 대한 정보는 표현 정보로서 다른 아바타를 관리하는 상호작용 판단부나 공간을 관리하는 수단에 제공되어 해당 아바타나 공간 관리 수단의 변화를 유도한다. 따라서, 이러한 표현 변화를 유도하는 각종 정보들을 이벤트 정보라 할 수 있으며, 이러한 이벤트 정보에는 변화 주체, 변화 객제, 변화 내용 및 종류와 같이 다른 아바타나 공간(공간 아이템 포함) 등과 같은 상호작용이 필요한 대상에게 필요한 정보가 포함되어 있다.
도 15는 이러한 이벤트를 가상현실의 구성요소들 간에 메세지 형식으로 교환하는 개념적 구성을 보인 것으로, 도시한 바와 같이 가상 현실의 기본 배경이 되는 공간을 관리하는 공간 관리부(610)와 해당 공간에 위치되는 각각의 아바타들의 표현을 관리하는 유저 표현부들(701~710)은 각각의 변화들 중에서 상호작용에 관련되 어 기 설정되거나 소정의 수준으로 분류하여 해당 수준을 초과하는 경우 관련된 변화 정보를 메세지 형태의 이벤트 정보로 관련된 유저 표현부들 및 공간 관리부에 제공한다. 이러한 메세지 형태의 이벤트 정보 교환을 통해서 공간을 포함하는 공간상의 요소들은 상호작용에 관련된 환경 변화를 파악하게 되며 그에 따라 적절한 상호 동작 및 표현 변화를 제공할 수 있게 된다.
한편, 도시된 실시예에서 서비스의 기본은 공간이 되므로 상기 공간 관리부(610)는 해당 공간 내의 공간 아이템(610)에 대한 관리를 대행하고, 공간에 대한 환경 설정부(630)를 통해 공간 상의 환경 내용 등을 파악하고 그 변화를 아바타를 관리하는 유저 표현부들로 전달할 수 있으며, 유저 표현부들의 표현 변화에 따른 공간의 변화 여부를 상기 환경 설정부(630)의 내용을 참조하여 관리할 수 있다.
상기 언급한 메세지 교환 방식은 도시된 바와 같은 버스 방식이 될 수 있고, 공간 관리부가 해당하는 메세지를 일괄 처리하여 관련된 유저 표현부들에 제공할 수도 있으며, 별도의 메세지 처리부를 운영할 수도 있는 등 실질적인 구성은 메세지 드리븐(Message Driven) 방식, 이벤트 관리 방식의 프로그래밍 기법, 하드웨어 설계 기법 등을 활용하여 다양하게 구현할 수 있다.
상기 이벤트 발생에 따른 메세지 교환 방식을 통해서 각 아바타들은 환경 변화와 상대 아바타의 표현 변화를 감지할 수 있게 되며, 상호작용에 대한 정보를 알 수 있게 된다. 이는 본 시스템의 중요한 개념 중 하나인 실제 "만남"에 가까운 표현 변화를 "간단한 조작"으로 제공해 줄 수 있는 중요한 키가 된다.
즉, 본 실시예에서 다루고자 하는 기능은 자신의 아바타의 표현을 간단한 조작으로 변경하여 이를 상대방이 확인할 수 있도록 하여 자신의 감정이나 전달하고자 하는 의미를 명확히 하는 것뿐만 아니라, 상대방 아바타의 표현 변화를 확인하여 그에 따른 자신의 표현을 변화시키는 시간을 최대한 줄여 "실시간성"을 높일 수 있도록 하는 것도 포함하고 있으며, 이를 위해서 상기 이벤트 발생에 따라 실시간으로 제공되는 메세지를 활용할 수 있다.
상기 메세지를 통해 상대방의 표현 변화나 다양한 환경의 변화를 실시간으로 확인할 수 있게 되면, 해당 메세지에 포함된 상태 정보를 근거로 사용자가 선택 가능한 페이스콘들을 화면상에 직접 선택이 가능한 상태로 제공(추천)하여 사용자가 이들 중 하나를 선택하도록 함으로써, 각종 이벤트 발생 시 자신의 상태를 쉽고 빠르게 변경할 수 있도록 할 수 있다.
이러한 방식을 활용하면 상호작용, 물리적 환경 변화 등에 의한 페이스콘 사용을 반자동으로 처리하여 표현 선택의 폭을 넓히거나, 자동적인 표현 변화 제공 이후의 페이스콘 사용을 신속하고 정확하게 선택할 수 있다. 예를 들어, 바람이 불어 옷이 날린 경우 찡그린 상태의 페이스콘을 쉽게 선택할 수 있고, 물에 의해 옷이 젖은 경우 젖은 상태에 대한 난감한 표현을 페이스콘으로 쉽게 표현할 수 있다.
도 16 내지 도 18은 본 발명 실시예의 동작 방식들 중 기본적인 일부에 대한 순차적 동작 과정을 보인 순서도로서, 전술한 복수의 아바타 표현 방식들 중 극히 일부에 대한 기본적 동작을 예시한 것임에 주의한다.
먼저 도 16은 서비스 가입시 아바타를 생성하거나 서비스 도중에 아바타를 변경하고자 할 경우 수행될 수 있는 기본 과정으로, 이 경우 다양한 아바타 상황별 표현 방식을 사용자가 편집할 수 있도록 하여 자동 및 기본 표현에 대해서도 사용자별 개인차를 발생시킬 수 있도록 하는 예이다
도시된 바와 같이 아바타 편집을 위한 수단을 통해 아바타의 기본 외형을 선택하면, 해당 기본 외형을 근거로 상황에 따른 아바타의 표현 요소들을 선택할 수 있게 된다. 이때, 설정에 따라 기본 외형에 대한 일관성을 유지하기 위해 선택 가능한 표현 요소들은 기본 외형을 선택하는 경우에 비해 다소 제한될 수 있고, 사용자가 상황별 설정을 실시하지 않을 경우 기본 표현 요소들이 사용되거나 랜덤한 표현 요소들을 사용하도록 설정될 수 있다.
사용자가 상황별 외형을 선택할 경우 상황에 대응되는 외형을 선택하게 되는데, 예를 들어 화가 나는 경우의 눈썹과 입을 선택한다거나, 눈썹을 선택하면서 화가 나는 경우와 즐거운 경우 등을 선택할 수 있다.
이러한 각 상황이나 선택 가능한 외형, 즉 표현 요소에 대한 선택을 필요한 만큼 완료하면 아바타의 편집이 완료되며, 이때 기본 아바타에 대한 표현 요소들은 기본 설정으로 관리되고 상기 특정한 상황에 따라 설정된 표현 요소들은 별도의 세트 설정으로 관리될 수 있다. 예를 들어 즐거울 경우에 대한 표현 요소 설정들을 하나의 세트로 관리하여 해당 세트에 대한 명칭을 부여하거나 저장하거나 하나의 단일 아이템처럼 관리 및 사용할 수 있다.
도 17은 페이스콘을 적용하는 경우 특정한 상황에 따른 대응 방식을 설정하는 경우의 표현 변경 과정을 보인 예로서, 도시한 바와 같이 페이스콘을 직접 생성 하거나, 선물로 받거나, 구매하거나, 획득한 경우 해당 페이스콘을 어떠한 상황에 이용할 것인지를 설정할 수 있는데, 도시한 바와 같이 해당 페이스콘을 자동적으로 동작하게 되는 상황에 대한 대응으로 설정하는 자동설정과, 해당 페이스콘을 사용자가 선택할 경우에만 표현되도록 하는 수동 선택과, 설정에 따라 이들을 모두 사용하도록 하는 자동/수동 선택으로 설정할 수 있다.
만일, 자동선택을 지정할 경우 해당 페이스콘이 표현될 자동 표현 상황을 설정하고, 표현을 유지하는 조건(시간, 표현 횟수, 상황 해제 등) 등을 설정한다. 그리고, 수동으로 표현 변경을 수행하기 위해서 해당 페이스콘을 특정한 상황에 대응시켜 설정할 수 있다.
만일, 자동 선택이나 수동 선택을 지정할 경우 상기 상황 중 해당 설정에 대한 과정이 수행된다.
이를 통해서 페이스콘을 다양한 방식으로 활용할 수 있으며, 이러한 설정은 사용 중에 변경될 수 있고, 이러한 과정은 페이스콘을 아이템으로서 사용할 경우 해당 아이템의 사용을 결정한 경우 수행될 수 있다.
도 18은 공간 상에서 발생되는 아바타의 표현 변화에 관련된 동작 과정을 보인 것으로, 도시한 바와 같이 소정의 아바타가 초대나 선택 혹은 생성에 따라 소정의 가상 공간에 입장한 후 다른 아바타들이나 공간 아이템들 혹은 공간 자체의 환경에 따른 상호작용 및 지시에 근거하여 아바타의 표현을 변경하는 과정의 개략적 과정이다.
먼저, 아바타가 공간에 입장하면 해당 아바타가 입장한 공간 및 해당 공간에 위치된 모든 요소들이 표현된다.
상기 아바타의 입장에 따라 해당 아바타는 다른 아바타와 대화를 시작할 수 있는 기능을 부여받게 되며, 이러한 기능은 공간 입장에 따른 사용자 인터페이스의 변화로 구현될 수 있다.
이러한 대화를 통해 상대방을 지정하거나 혹은 전체 아바타들과 대화를 주고 받을 수 있게 되며, 아바타를 움직이고 공간 아이템과 상호 동작을 실시하며, 다른 아바타들과도 상호 동작을 수행할 수 있다. 이러한 과정에서 상기 아바타나 공간 아이템 혹은 공간의 환경 변화가 발생하거나, 사용자가 상황 선택에 따른 표현 변경을 지시할 경우 아바타의 표현 변경이 발생하게 되는데, 상기 환경 변화에 따른 이벤트 발생이나 사용자의 수동 조작에 의한 이벤트 발생이 발생하면 사용자 아바타는 해당 이벤트 발생에 대응되어 기 설정된 표현 변화가 존재하는지 검색하여 해당하는 표현 변화가 존재하는 경우 해당 표현 변화를 우선적으로 제공하고, 대응되어 설정된 표현 변화가 없는 경우 기본적인 표현 변화를 제공한다.
상기 표현 변화(페이스콘, 기본 얼굴 형태의 변화, 옷차림이나 장신구의 변화, 동작의 변화 등)는 그 발생 중에도 다른 공간 구성원(아바타나 공간 아이템)에 대해 환경 변화를 유발할 수 있으므로 그에 따른 이벤트가 발생되어 상기 표현 변화에 따라 다른 아바타들이나 공간 아이템의 표현도 변화될 수 있다.
전술한 바와 같이 3차원 가상현실 서비스에서 실제와 같은 만남과 다소 과장된 의사교환이 필요할 경우, 예시된 다양한 아바타의 표현 변경 방식을 적용할 경우 사용자마다 개성 있는 상황별 표현이 가능해지며, 이러한 개성 있는 표현 변경 의 조작도 용이해 질 뿐만 아니라 이러한 상황별 표현 내용도 용이하게 변경할 수 있도록 하여 보다 현실감 있고 다채로운 가상의 "만남"을 즐길 수 있게 된다.
이상에서는 본 발명에서 특정의 바람직한 실시예들에 대하여 도시하고 또한 설명하였다. 그러나 본 발명은 상술한 실시예에 한정되지 아니하며, 특허 청구의 범위에서 첨부하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능할 것이다.
도 1은 대표적인 몰핑 방식의 아바타 예시도.
도 2는 단순한 형태의 아바타를 구성하기 위한 맵핑 방식 아바타 생성의 예시도.
도 3 역시 맵핑 방식 아바타 생성의 예시도.
도 4는 상기 도 3과 같은 아바타 생성 방식을 적용한 실제 서비스에서 얼굴
형태를 달리 선택한 4가지 예시도.
도 5는 가상 현실 시스템에서의 아바타 표현 방식의 예.
도 6은 본 발명 실시예에 따른 아바타들의 표현 방식의 예.
도 7은 본 발명 실시예에 따른 가상현실 서비스의 화면예.
도 8은 본 발명 실시예에 따른 페이스콘의 사용 예.
도 9는 본 발명 실시예에 따라 페이스콘을 아이템처럼 관리하는 화면예.
도 10은 본 발명 실시예에 따른 페이스콘 적용 예.
도 11은 본 발명 실시예에 따른 아바타 표현 방식의 다른 예.
도 12는 본 발명 실시예에 따른 아바타 표현 변화를 위한 또 다른 실시예.
도 13은 본 발명 일 실시예에 따른 자동적인 아바타 표현 변화의 예.
도 14는 본 발명 일 실시예에 따른 아바타 표현 장치의 구성예.
도 15는 이러한 이벤트를 가상현실의 구성요소들 간에 메세지 형식으로 교환하는 구성예.
도 16은 아바타를 생성 또는 변경하고자 할 경우 수행될 수 있는 기본 과정 의 순서도.
도 17은 페이스콘을 적용하는 경우 특정한 상황에 따른 대응 방식을 설정하는 경우의 표현 변경 과정을 보인 순서도.
도 18은 공간 상에서 발생되는 아바타의 표현 변화에 관련된 동작 과정을 보인 순서도.
** 도면의 주요 부분에 대한 부호의 설명 **
101, 111, 121: 아바타 102, 112, 122: 태그
103, 107, 117, 125: 메뉴 131: 공간 아이템
210: 개인 정보 영역 220: 채팅창
222: 감정 표현 수단 510: 데이터베이스
511: 개인 아이템 DB 512: 변형정보 DB
513: 페이스콘 DB 514: 작용동작 DB
530: 상호작용 관리부 535: 상호작용 판단부
610: 공간 관리부 701~710: 유저 표현부

Claims (24)

  1. 아바타를 이루는 외형의 일부 부위에 대응되어 상기 아바타의 표현을 변경하기 위한 디지털 컨텐츠를 등록하는 단계와;
    상기 아바타가 특정한 상황이 되거나 사용자가 지정하는 경우 상기 등록된 디지털 컨텐츠를 대응되는 상기 아바타 부위에 대체 혹은 중복 표현하는 단계를 포함하는 것을 특징으로 하는 아바타 표현 방법.
  2. 제 1항에 있어서,
    상기 등록 단계는 상기 디지털 컨텐츠를 아바타와 결합하여 새로운 디지털 컨텐츠를 생성하는 것을 특징으로 하는 아바타 표현 방법.
  3. 제 1항에 있어서, 상기 디지털 컨텐츠는 아바타의 실제 얼굴과 상이하거나, 크기나 표정을 이루는 이목구비의 비율이 실제 아바타 얼굴과 상이한 얼굴 부위 표현 요소를 포함하는 것을 특징으로 하는 아바타 표현 방법.
  4. 제 1항에 있어서, 상기 디지털 컨텐츠는 정지된 표현 요소와 움직이는 표현 요소 중 적어도 하나를 포함하는 것을 특징으로 하는 아바타 표현 방법.
  5. 제 1항에 있어서, 상기 디지털 컨텐츠는 외형을 대체하는 표현 요소와 함께 아바타의 동작을 세트로 정의한 것이며, 이들은 다른 표현 요소나 동작과 재결합되어 새로운 페이스콘을 구성하는 것을 특징으로 하는 아바타 표현 방법.
  6. 제 1항에 있어서, 상기 디지털 컨텐츠를 등록하는 단계는 다른 아바타와의 상호 관계 변화, 환경의 물리적 변화, 아바타의 감정 변화 또는 사용자의 지정에 따라 자동적으로 나타날 디지털 컨텐츠를 적어도 하나 이상 지정하는 단계를 더 포함하는 것을 특징으로 하는 아바타 표현 방법.
  7. 제 6항에 있어서, 상기 디지털 컨텐츠가 복수로 지정되는 경우 상기 디지털 컨텐츠를 선택하기 위해서 순차, 랜덤, 가중치 랜덤 방식 중 하나 이상을 포함하는 선택 방식들 중 하나를 지정하는 단계를 더 포함하는 것을 특징으로 하는 아바타 표현 방법.
  8. 제 1항에 있어서, 상기 표현 단계 후에 기 설정된 시간이나 상황 변화를 포함하는 조건들 중 하나를 만족하는 경우 상기 표현 단계를 종료하고 기존 아바타 표현 상태로 복귀하는 복귀 단계를 더 포함하는 것을 특징으로 하는 아바타 표현 방법.
  9. 제 1항에 있어서, 상기 디지털 컨텐츠는 아바타의 외형 변경에 대한 영상 정보나 외형 변경에 대한 효과 정보와, 아바타에 부가된 부착 아이템이나 장신구, 의복, 헤어 스타일, 동작의 변경 중 하나 이상의 설정이 결합된 정보인 것을 특징으로 하는 아바타 표현 방법.
  10. 제 1항에 있어서, 상기 디지털 컨텐츠는 아바타의 얼굴보다 큰 가면 형상의 정지 혹은 움직이는 얼굴 정보를 포함하며, 상기 표현 단계는 상기 디지털 컨텐츠를 상기 아바타의 얼굴 앞에 중복 표현하는 단계를 포함하는 것을 특징으로 하는 아바타 표현 방법.
  11. 제 1항에 있어서, 상기 디지털 컨텐츠는 아바타의 형상 일부에 대응되는 영상 정보를 포함하며, 상기 표현 단계는 상기 디지털 컨텐츠와 상기 아바타의 대응 영역을 합성하여 얻어진 결과를 상기 아바타의 대응 영역에 대체 혹은 중복 표현하는 단계를 포함하는 것을 특징으로 하는 아바타 표현 방법.
  12. 제 1항에 있어서, 상기 디지털 컨텐츠는 아바타의 형상 일부에 대응되는 영역에 대한 이미지 처리 효과 정보를 포함하며, 상기 표현 단계는 상기 아바타의 대응 영역을 상기 디지털 컨텐츠에 정의된 이미지 처리 방식으로 처리하여 얻어진 결과를 상기 아바타의 대응 영역에 대체 혹은 중복 표현하는 단계를 포함하는 것을 특징으로 하는 아바타 표현 방법.
  13. 제 1항에 있어서, 상기 표현 단계는 상기 아바타가 특정한 상황이 되거나 사용자가 지정하는 경우 상기 등록된 디지털 컨텐츠를 선택하며, 만일 상기 상황이나 사용자 지정에 대해 등록된 디지털 컨텐츠가 없는 경우 다른 상황에 대해 등록된 디지털 컨텐츠의 적어도 일부를 직접 선택 가능한 상태로 제공하는 단계를 더 포함하는 것을 특징으로 하는 아바타 표현 방법.
  14. 제 13항에 있어서, 상기 디지털 컨텐츠를 선택하는 특정한 상황은 다른 아바타의 표현 변화, 환경의 물리적 변화, 다른 아바타와의 상호 작용을 포함하는 표현 변경을 유발할 수 있는 모든 종류의 변화 발생 상황인 것을 특징으로 하는 아바타 표현 방법.
  15. 제 1항에 있어서, 상기 디지털 컨텐츠를 등록하는 단계는 상기 디지털 컨텐츠에 대한 구매, 선물, 판매, 선택, 해제, 버림, 멀티미디어를 이용한 생성 중 적어도 하나 이상의 부가적인 단계를 포함하는 것을 특징으로 하는 아바타 표현 방법.
  16. 제 1항에 있어서, 상기 디지털 컨텐츠를 등록하는 단계는 사용자가 멀티미디어 파일을 이용하여 자신만의 표현 요소를 생성하여 이를 디지털 컨텐츠로 등록하는 단계를 더 포함하는 것을 특징으로 하는 아바타 표현 방법.
  17. 제 1항에 있어서, 상기 사용자가 생성한 디지털 컨텐츠을 아이템화하여 해당 디지털 컨텐츠 아이템을 분배 또는 판매용으로 서비스 시스템에 등록하는 단계를 더 포함하는 것을 특징으로 하는 아바타 표현 방법.
  18. 제 1항 내지 제 17항 중의 어느 한 항의 방법을 수행할 수 있는 프로그램이 수록된 컴퓨터로 읽을 수 있는 기록 매체.
  19. 아바타를 구성하는 표현 요소들과 특정한 표현 요소들을 강조하기 위한 페이스콘을 저장하는 데이터베이스와;
    상기 표현 요소들과 페이스콘을 상기 데이터베이스에 등록하고 표현될 상황에 대한 정보를 관리하는 관리부와;
    다른 아바타들과 상호작용을 포함하는 외부 환경의 변화와 사용자 조작에 따른 정보를 수신하여 상기 아바타에 대한 표현 변화 여부를 판단하는 상호작용 판단부와;
    상기 관리부를 통한 현재 적용 표현 요소 정보와 상기 상호작용 판단부의 표현 변화 여부를 근거로 현재 아바타 표현 요소 중 일부를 상기 페이스콘으로 대체 표현하는 상호작용 표현부를 포함하는 것을 특징으로 하는 아바타 표현 장치.
  20. 제 19항에 있어서, 상기 페이스콘은 아바타의 외형을 대체하는 표현 요소와 함께 아바타의 동작을 세트로 정의한 것이며, 이들은 다른 표현 요소나 동작과 재결합되어 다른 페이스콘을 구성하는 것을 특징으로 하는 아바타 표현 장치.
  21. 제 19항에 있어서, 상기 상호작용 판단부는 다른 아바타의 동작 및 물리적 배치를 근거로 표현 변화 여부를 판단하고, 상기 아바타가 표현되는 공간의 환경 변화와 상기 아바타의 물리적 배치를 근거로 표현 변화 여부를 판단하는 것을 특징으로 하는 아바타 표현 장치.
  22. 제 19항에 있어서, 상기 상호작용 표현부는 상기 상호작용 판단부의 표현 변화 정보를 근거로 현재 적용된 표현 요소가 변화 가능한 것인지 파악하여 변화 가능할 경우에만 페이스콘을 표현하는 단계를 더 포함하는 것을 특징으로 하는 아바타 표현 장치.
  23. 제 19항에 있어서, 상기 상호작용 표현부는 상기 페이스콘 표현에 따른 표현 정보를 다른 아바타에 대한 상호작용 표현부에 제공하는 단계를 포함하는 것을 특징으로 하는 아바타 표현 장치.
  24. 제 19항에 있어서, 상기 관리부는 일반 멀티미디어 정보를 페이스콘으로 가공하여 상기 데이터베이스에 등록하는 수단을 더 포함하는 것을 특징으로 하는 아 바타 표현 장치.
KR1020070125511A 2007-12-05 2007-12-05 아바타 표현 장치와 방법 및 이를 구현할 수 있는 컴퓨터로읽을 수 있는 기록 매체 KR100993801B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070125511A KR100993801B1 (ko) 2007-12-05 2007-12-05 아바타 표현 장치와 방법 및 이를 구현할 수 있는 컴퓨터로읽을 수 있는 기록 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070125511A KR100993801B1 (ko) 2007-12-05 2007-12-05 아바타 표현 장치와 방법 및 이를 구현할 수 있는 컴퓨터로읽을 수 있는 기록 매체

Publications (2)

Publication Number Publication Date
KR20090058765A true KR20090058765A (ko) 2009-06-10
KR100993801B1 KR100993801B1 (ko) 2010-11-12

Family

ID=40989088

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070125511A KR100993801B1 (ko) 2007-12-05 2007-12-05 아바타 표현 장치와 방법 및 이를 구현할 수 있는 컴퓨터로읽을 수 있는 기록 매체

Country Status (1)

Country Link
KR (1) KR100993801B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010151070A3 (ko) * 2009-06-25 2011-03-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
WO2010151075A3 (ko) * 2009-06-25 2011-03-31 삼성전자주식회사 영상 장치 및 컴퓨터 판독 기록매체
WO2016064121A1 (ko) * 2014-10-21 2016-04-28 삼성전자 주식회사 가상 피팅 장치 및 이의 가상 피팅 방법
KR20200046735A (ko) * 2018-10-25 2020-05-07 서울여자대학교 산학협력단 사용자 맞춤형 캐릭터 모델링을 위한 장치 및 이를 위한 방법
CN115334325A (zh) * 2022-06-23 2022-11-11 联通沃音乐文化有限公司 基于可编辑三维虚拟形象生成直播视频流的方法和系统

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200093213A (ko) * 2019-01-28 2020-08-05 삼성전자주식회사 전자 장치 및 전자 장치의 그래픽 객체 제어 방법

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010151070A3 (ko) * 2009-06-25 2011-03-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
WO2010151075A3 (ko) * 2009-06-25 2011-03-31 삼성전자주식회사 영상 장치 및 컴퓨터 판독 기록매체
CN102483857A (zh) * 2009-06-25 2012-05-30 三星电子株式会社 图像装置及计算机可读记录介质
WO2016064121A1 (ko) * 2014-10-21 2016-04-28 삼성전자 주식회사 가상 피팅 장치 및 이의 가상 피팅 방법
KR20160046471A (ko) * 2014-10-21 2016-04-29 삼성전자주식회사 가상 피팅 장치 및 이의 가상 피팅 방법
US10152829B2 (en) 2014-10-21 2018-12-11 Samsung Electronics Co., Ltd. Virtual fitting device and virtual fitting method thereof
KR20200046735A (ko) * 2018-10-25 2020-05-07 서울여자대학교 산학협력단 사용자 맞춤형 캐릭터 모델링을 위한 장치 및 이를 위한 방법
CN115334325A (zh) * 2022-06-23 2022-11-11 联通沃音乐文化有限公司 基于可编辑三维虚拟形象生成直播视频流的方法和系统

Also Published As

Publication number Publication date
KR100993801B1 (ko) 2010-11-12

Similar Documents

Publication Publication Date Title
US8648865B2 (en) Variable rendering of virtual universe avatars
CN107750005A (zh) 虚拟互动方法和终端
CN109885367B (zh) 互动聊天实现方法、装置、终端和存储介质
KR100993801B1 (ko) 아바타 표현 장치와 방법 및 이를 구현할 수 있는 컴퓨터로읽을 수 있는 기록 매체
Tanenbaum et al. Nonverbal Communication in Virtual Worlds
KR100957858B1 (ko) 아바타 표현 방법 및 이를 구현할 수 있는 컴퓨터로 읽을수 있는 기록 매체
Makryniotis Fashion and costume design in electronic entertainment—bridging the gap between character and fashion design
Boyns et al. Feeling through presence: Toward a theory of interaction rituals and parasociality in online social worlds
CN109621419A (zh) 游戏角色表情的生成装置方法及装置、存储介质
CN113826147A (zh) 动画角色的改进
Sakamoto et al. Introducing virtuality to enhance game-related physical artifacts
KR20070025384A (ko) 춤추는 아바타를 생성하는 방법 및 서버와 춤추는 아바타를이용한 응용 서비스 제공 방법
CN112807688A (zh) 游戏内表情设置方法、装置、处理器及电子装置
KR20050007747A (ko) 웹과 게임 상에서 연동되는 아바타/ 게임의 캐릭터 통합시스템 및 그 운용방법
KR20030088694A (ko) 동시표현이 가능한 아바타와 이것을 적용한아이템/개인가상공간 구현 방법
Grieve An ethnographic method for the study of religion in video game environments
LaPensée et al. Timetraveller™: first nations nonverbal communication in second life
Makryniotis Game design with the aid of computer semiotics
KR20210020197A (ko) 사용자들을대상으로한가상컨텐츠공동참여서비스시스템
Montemorano Body Language: Avatars, Identity Formation, and Communicative Interaction in VRChat
KR20180107625A (ko) 가상 컨텐츠 공동 참여 서비스 시스템
Cleland Face to Face: Avatars and mobile identities
JP7460922B2 (ja) 情報処理システムおよびプログラム
Blanco-Fernández Queering the Metaverse: Queer Approaches to Virtual Reality in Contemporary Art
Chen The Idol that You Can Dress Up: Investigating the Idol-Making Practices in Shining Nikki

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20131105

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20141106

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20151102

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20161026

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20171103

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20181102

Year of fee payment: 9