KR20110107428A - 컨텐츠 제작을 위한 그래픽 유저 인터페이스를 제공하는 디지털 기기 및 그의 그래픽 유저 인터페이스 제공 방법 및 그 방법을 수행하기 위한 프로그램이 기록된 기록 매체 - Google Patents

컨텐츠 제작을 위한 그래픽 유저 인터페이스를 제공하는 디지털 기기 및 그의 그래픽 유저 인터페이스 제공 방법 및 그 방법을 수행하기 위한 프로그램이 기록된 기록 매체 Download PDF

Info

Publication number
KR20110107428A
KR20110107428A KR1020100026521A KR20100026521A KR20110107428A KR 20110107428 A KR20110107428 A KR 20110107428A KR 1020100026521 A KR1020100026521 A KR 1020100026521A KR 20100026521 A KR20100026521 A KR 20100026521A KR 20110107428 A KR20110107428 A KR 20110107428A
Authority
KR
South Korea
Prior art keywords
item
avatar
scenario
gui screen
gui
Prior art date
Application number
KR1020100026521A
Other languages
English (en)
Inventor
심현주
호용방
강보경
곽경수
김동훈
민욱희
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020100026521A priority Critical patent/KR20110107428A/ko
Priority to US12/909,373 priority patent/US20110239147A1/en
Publication of KR20110107428A publication Critical patent/KR20110107428A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2213/00Indexing scheme for animation
    • G06T2213/08Animation software package

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

컨텐츠 제작을 위한 그래픽 유저 인터페이스를 제공하는 디지털 기기가 개시된다. 제안되는 디지털 기기는, 컨텐츠 제작을 위한 적어도 하나의 배경 아이템을 설정받기 위한 제1 GUI 화면, 컨텐츠 제작을 위한 적어도 하나의 3D 아바타(avatar) 아이템을 설정받기 위한 제2 GUI 화면, 컨텐츠 제작을 위한 적어도 하나의 시나리오 아이템을 설정받기 위한 제3 GUI 화면을 제공하며, 제1 내지 제3 GUI 화면 상에서 사용자 설정 신호에 따라 각 아이템들이 설정되면, 설정된 아이템들을 조합하여 컨텐츠를 제작한다.

Description

컨텐츠 제작을 위한 그래픽 유저 인터페이스를 제공하는 디지털 기기 및 그의 그래픽 유저 인터페이스 제공 방법 및 그 방법을 수행하기 위한 프로그램이 기록된 기록 매체 {DIGITAL APPARATUS AND METHOD FOR PROVIDING USER INTERFACE FOR MAKING CONTENTS AND RECORDING MEDIUM RECORDED PROGRAM FOR EXECUTING THEREOF METHOD}
컨텐츠 제작을 위한 그래픽 유저 인터페이스를 제공하는 디지털 기기 및 그의 그래픽 유저 인터페이스 제공 방법 및 그 방법을 수행하기 위한 프로그램이 기록된 기록 매체에 관한 것이다.
디지털 기기의 발달로, 컨텐츠의 이용도가 높아지고 있으며 다양한 컨텐츠가 제작되고 있다. 또한, 영상(인물 또는 배경 영상을 포함), 음악, 시나리오 등 다양한 종류의 컨텐츠를 그룹화하여 하나의 컨텐츠로 제작하고 있다.
기존의 3D 컨텐츠 제작은, 작가가 시나리오를 작성하고, 모델러(modeler)가 3D 캐릭터, 배경 및 소품 등을 디자인하며, 애니메이터(animator)가 시나리오에 맞게 3D 캐릭터의 동작을 설정하고, 음향 감독이 배경 음악 및 효과음을 재생시키는 등 각각의 작업을 통해 이루어진다. 그러나, 이 같은 방식은 컨텐츠 제작이 익숙한 전문가들에 의해서 수행되는 것으로, 품질이 우수한 컨텐츠 제작이 가능하다는 이점은 있으나 고비용 및 많은 시간을 필요로 하며 일반 사용자들에게 보편적으로 이용될 수 없다는 문제점이 있었다.
또한, 디지털 기기를 이용하는 사용자들을 위한 3D 컨텐츠 제작 프로그램이 개발되고는 있으나, 영상(인물 또는 배경 영상을 포함), 음악, 시나리오 등의 다양한 컨텐츠를 그룹화하는데 어려움이 있어 3D 컨텐츠의 완성도가 떨어진다는 문제점이 있었다. 따라서, 디지털 기기를 이용하는 사용자들도 편리하게 이용할 수 있으며, 완성도 및 제작 속도가 보장되는 3D 컨텐츠 제작을 위한 방안이 필요하다.
상술한 문제점을 해결하기 위해 제안되는 실시 예에 따른 디지털 기기는, 사용자 설정 신호를 입력받는 입력부, 컨텐츠 제작을 위한 적어도 하나의 배경 아이템을 설정받기 위한 제1 GUI 화면, 상기 컨텐츠 제작을 위한 적어도 하나의 3D 아바타(avatar) 아이템을 설정받기 위한 제2 GUI 화면, 상기 컨텐츠 제작을 위한 적어도 하나의 시나리오 아이템을 설정받기 위한 제3 GUI 화면을 제공하는 GUI 제공부 및 상기 제1 내지 제3 GUI 화면 상에서 상기 사용자 설정 신호에 따라 각 아이템들이 설정되면 상기 설정된 아이템들을 조합하여 컨텐츠를 제작하도록 상기 GUI 제공부를 제어하는 제어부를 포함한다.
한편, 제안되는 실시 예에 따른 컨텐츠 제작을 위한 유저 인터페이스 제공 방법은, 컨텐츠 제작을 위한 적어도 하나의 배경 아이템을 설정받기 위한 제1 GUI 화면, 상기 컨텐츠 제작을 위한 적어도 하나의 3D 아바타(avatar) 아이템을 설정받기 위한 제2 GUI 화면, 상기 컨텐츠 제작을 위한 적어도 하나의 시나리오 아이템을 설정받기 위한 제3 GUI 화면을 제공하는 단계 및 상기 제1 내지 제3 GUI 화면 상에서 사용자 설정 신호에 따라 각 아이템들이 설정되면, 상기 설정된 아이템들을 조합하여 컨텐츠를 제작하는 단계를 포함한다.
제안되는 실시 예에 따르면, 디지털 기기는 컨텐츠 제작을 위한 그래픽 유저 인터페이스를 사용자에게 제공함으로써, 컨텐츠 제작에 있어서 비전문가인 일반 사용자들도 완성도가 높은 컨텐츠를 빠르게 제작할 수 있게 된다.
또한, 디지털 기기는 제작된 컨텐츠를 타 디지털 기기에 전송하여 공유할 수 있게 된다.
도 1은 제안되는 실시 예에 따른 디지털 기기의 구성을 나타내는 블록도이다.
도 2 내지 도 7은 제안되는 실시 예에 따른 컨텐츠 제작을 위한 유저 인터페이스를 나타내는 도면이다.
도 8은 제안되는 실시 예에 따른 컨텐츠 제작을 위한 유저 인터페이스 제공 방법을 설명하기 위한 흐름도이다.
도 9는 제안되는 다른 실시 예에 따른 컨텐츠 제작을 위한 유저 인터페이스 제공 방법을 설명하기 위한 흐름도이다.
도 10은 제안되는 또 다른 실시 예에 따른 컨텐츠 제작을 위한 유저 인터페이스 제공 방법을 설명하기 위한 흐름도이다.
이하 첨부된 도면을 참조하여 본 발명의 실시 예들을 상세히 설명한다. 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 바람직한 실시 예를 적절히 표현하기 위해 사용된 용어들로서, 이는 사용자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 제안되는 실시 예에 따른 디지털 기기의 구성을 나타내는 블록도이다. 도 1을 참조하면, 디지털 기기(100)는 입력부(110), GUI 제공부(120), 디스플레이부(130), 통신부(140), 제어부(150) 및 저장부(160)를 더 포함한다.
도 1에 도시된 디지털 기기(100)는 휴대폰, 게임기, 디지털 TV, 컴퓨터 등과 같은 기기가 될 수 있다. 그러나 이에 한정되지 않는다.
입력부(110)는 사용자 설정 신호를 입력 받는다. 이 경우, 입력부(110)는 디지털 기기(100)의 외부에 구비된 입력 키(마우스 포함)가 될 수 있으며, 터치 스크린이 될 수도 있다.
GUI 제공부(120)는 컨텐츠 제작을 위한 GUI를 제공한다. 이 경우, GUI 제공부(120)에 의한 GUI 제공은 GUI 생성 및 GUI 디스플레이 동작을 모두 포함하는 것이 될 수 있다. 그러나, 어느 경우에 있어서는, GUI 제공은 GUI 생성만을 포함할 수도 있다.
GUI 제공부(120)는 컨텐츠 제작을 위한 적어도 하나의 배경 아이템을 설정받기 위한 제1 GUI 화면, 컨텐츠 제작을 위한 적어도 하나의 3D 아바타(avatar) 아이템을 설정받기 위한 제2 GUI 화면 및 컨텐츠 제작을 위한 적어도 하나의 시나리오 아이템을 설정받기 위한 제3 GUI 화면을 제공한다.
제1 GUI 화면에 포함된 배경 아이템은, 무대 배경, 배경 시간대, 배경 날씨, 배경 분위기 및 배경 음악을 포함할 수 있다. 그리고, 제2 GUI 화면에 포함된 3D 아바타 아이템은 서로 다른 아바타 아이템을 포함할 수 있다. 또한, 제2 GUI 화면은 적어도 하나의 3D 아바타 아이템에 대응하는 액세서리, 의상, 이름, 표정, 프로필 및 목소리 중 적어도 하나의 아바타 특성을 설정받기 위한 서브 GUI 화면을 포함한다.
한편, 제3 GUI 화면은 제2 GUI 화면 상에서 설정된 적어도 하나의 3D 아바타 아이템에 대응하는 특별 동작, 위치 동작, 온몸 동작, 얼굴 동작 및 대화 동작을 포함하는 시나리오 아이템이 표시된 아이템 표시 영역 및 적어도 하나의 3D 아바타 아이템에 대응하는 복수의 프레임이 나열된 프레임 표시 영역을 포함한다. 이 경우, 제3 GUI 화면은 위치 동작에 대하여 적어도 하나의 3D 아바타 아이템에 대응하는 목표 위치 및 목표 위치에서의 목표 방향을 설정하기 위한 하위 메뉴를 더 포함할 수 있다. 즉, 목표 위치란 3D 아바타 아이템이 이동하는 경우(걷거나 달리는 동작에 의해 이동하는 경우), 이동을 통해 도달하게 될 장소를 의미한다. 또한, 목표 방향이란 이동을 통해 도달하게 될 장소에서 향하게 될 3D 아바타 아이템의 방향을 의미한다.
또한, 제3 GUI 화면 상에서 프레임 표시 영역은 제2 GUI 화면 상에서 설정된 적어도 하나의 3D 아바타 아이템을 제1축(수직축) 상에 표시하고, 적어도 하나의 3D 아바타 아이템 각각에 대응하는 복수의 프레임을 시간 순서대로 나열하여 제1 축과 수직 교차하는 제2축(수평축) 상에 표시한다. 따라서, 해당하는 3D 아바타 아이템에 대응하는 복수의 프레임이 수평축 상에 나열되어 3D 아바타 아이템의 연속적인 동작을 생성할 수 있게 된다.
구체적으로, GUI 제공부(120)는 입력부(110)를 통해 입력된 사용자 입력 신호에 따라 아이템 표시 영역에서 어느 하나의 시나리오 아이템이 드래그되어 프레임 표시 영역 상에 표시된 어느 하나의 프레임에 드롭되면, 드롭된 프레임 상에 드래그된 시나리오 아이템을 설정한다. 이 경우, GUI 제공부(120)는 해당 프레임 내에 기 설정된 시나리오 아이템이 없거나, 다른 종류의 시나리오 아이템이 기 설정되어 있는 경우, 드래그 앤 드롭된 시나리오 아이템을 해당 프레임 내에 설정한다. 반면, GUI 제공부(120)는 해당 프레임 내에, 드래그된 시나리오 아이템과 동일한 종류의 시나리오 아이템이 기 설정되어 있는 경우, 드래그된 시나리오 아이템의 설정을 취소한다. 예를 들어, 어느 프레임 내에 드래그된 시나리오 아이템이 "위치 동작" 아이템인 경우, 해당 프레임 내에 "위치 동작" 아이템이 기 설정되어 있으면 드래드된 "위치 동작" 아이템의 설정을 취소한다.
제3 GUI 화면 상에서 복수의 프레임 각각에 적어도 하나의 시나리오 아이템 설정이 완료되면, GUI 제공부(120)는 동일한 프레임 내에 설정된 적어도 하나의 시나리오 아이템을 동시화시켜 시나리오 아이템들이 동시에 재생될 수 있도록 한다. 나아가, GUI 제공부(120)는 동일한 프레임 내에 설정된 적어도 하나의 시나리오 아이템을 최단 동작 기준 모드, 최장 동작 기준 모드 및 랜덤 동작 기준 모드 중 어느 하나를 이용하여 동기화시킬 수 있다. 또한, 제1 축(수직축) 상에 상/하로 배치되며, 동일한 프레임 번호를 갖는 프레임들에 설정된 시나리오 아이템들은 서로 다른 아바타 아이템에 대응하여 설정된 것이라 하더라도, 동기화되어 동시에 재생된다. 다시 말해, 동일한 프레임 번호를 갖지만, 서로 다른 아바타 아이템에 대응하는 시나리오 아이템들은 해당 아바타 아이템들에 의해 동시에 재생되고, 이는 두 개 이상의 아바타 아이템들이 동시에 동작하는 효과를 내게 된다.
상술한 동작에 의해 제1 내지 제3 GUI 화면 상에서 각 아이템들이 설정되면, GUI 제공부(120)는 설정된 아이템을 상기 제1 내지 제3 GUI 화면 상에 실시간으로 반영하여 제공한다. 즉, GUI 제공부(120)는 제1 GUI 화면 상에서 무대 배경, 배경 시간대, 배경 날씨, 배경 분위기 및 배경 음악 중 적어도 하나가 설정되는 경우, 해당 배경 아이템을 바로 제1 GUI 화면 상에 반영할 수 있다.
저장부(160)는 컨텐츠를 제작하기 위한 다양한 아이템들을 저장하고 있다. 이 경우, 다양한 아이템들은 계층적 구조로 저장될 수 있다. 구체적으로, 컨텐츠 제작을 위한 배경 아이템, 3D 아바타 아이템 및 시나리오 아이템들은 각각 상위 메뉴로 저장되고, 각 상위 메뉴에 대응하는 복수의 하위 메뉴가 각 상위 메뉴들과 연결되어 저장될 수 있다. 예를 들어, 무대 배경, 배경 시간대, 배경 날씨, 배경 분위기 및 배경 음악 등은 모두 배경 아이템에 대한 상위 메뉴가 될 수 있으며, 각 상위 메뉴와 연결된 하위 메뉴가 저장될 수 있다. 즉, 상위 메뉴인 "무대 배경"의 하위 메뉴로는 교실, 사무실, 극장 및 스튜디오 등이 존재할 수 있으며, 이들은 "무대 배경"과 연결되어 저장될 수 있다.
통신부(140)는 적외선 통신, 블루투스, 3G 및 WiFi 등과 같은 무선 네트워크망을 통해 타 디지털 기기와 통신한다.
제어부(150)는 GUI 제공부(120)에서 제공되는 제1 내지 제3 GUI 화면 상에서 사용자 설정 신호에 따라 각 아이템들이 설정되면, 설정된 아이템들을 조합하여 컨텐츠를 제작하도록 GUI 제공부(120)를 제어한다. 구체적으로, 제어부(150)는 제1 GUI 화면 상에서 설정된 적어도 하나의 배경 아이템, 제2 GUI 화면 상에서 설정된 3D 아바타 아이템, 제3 GUI 화면 상에서 복수의 프레임 각각에 설정된 시나리오 아이템을 모두 조합하여 컨텐츠를 제작하도록 GUI 제공부(120)를 제어한다.
또한, 제어부(150)는 이 같은 동작에 따라 컨텐츠를 제작하면, 제작된 컨텐츠를 저장 매체(미도시)에 저장하고 컨텐츠를 디스플레이부(130)를 통해 재생한다.
한편, 제어부(150)는 컨텐츠 전송을 위해 타 디지털 기기가 기 설정되어 있다면, 타 디지털 기기로 제작된 컨텐츠를 전송하도록 통신부(140)를 제어한다. 따라서, 디지털 기기(100)를 통해 제작된 컨텐츠를 타 디지털 기기의 사용자와 공유할 수 있게 된다.
도 2 내지 도 7은 제안되는 실시 예에 따른 컨텐츠 제작을 위한 그래픽 유저 인터페이스 화면을 나타내는 도면이다. 도 2 및 도 3은 컨텐츠 제작을 위한 적어도 하나의 배경 아이템을 설정받기 위한 제1 GUI 화면을 나타내는 도면이다. 그리고, 도 4는 컨텐츠 제작을 위한 적어도 하나의 3D 아바타(avatar) 아이템을 설정받기 위한 제2 GUI 화면을 나타내는 도면이다. 그리고, 도 5는 컨텐츠 제작을 위한 적어도 하나의 시나리오 아이템을 설정받기 위한 제3 GUI 화면의 구조를 나타내는 도면이며, 도 6 및 도 7은 제3 GUI 화면을 나타내는 도면이다.
도 2를 참조하면, 제1 GUI 화면(200)은 컨텐츠 제작을 위한 적어도 하나의 배경 아이템을 설정받기 위해 사용자에게 제공된다. 이 경우, 제1 GUI 화면(200) 상에는 배경 아이템인 무대 배경(210), 배경 시간대(220), 배경 날씨(230), 배경 분위기(240) 및 배경 음악(250) 등이 디스플레이될 수 있다.
무대 배경(210)은 컨텐츠에 적용될 무대를 의미하는 것으로, 교실, 사무실, 극장 및 스튜디오 등과 같은 장소가 될 수 있다. 또한, 무대 배경(210)은 교실, 사무실, 극장 및 스튜디오에 한정되지 않으며 다양한 장소들이 될 수 있다. 또한, 배경 시간대(220)는 해당 컨텐츠가 디스플레이되는 시간을 의미한다. 즉, 배경 시간대(220)는 컨텐츠에 적용될 배경 시간이 낮인지, 밤인지, 새벽인지를 설정하기 위한 것이다. 그리고, 배경 날씨(230)는 컨텐츠에 적용될 날씨를 의미한다. 또한, 배경 분위기(240)는 컨텐츠에 적용될 분위기를 의미하는 것으로, 우울, 밝음, 로맨스 등과 같이 배경의 전체적인 분위기를 설정하기 위한 것이다. 그리고, 배경 음악(250)은 컨텐츠에 적용될 음악을 의미한다.
사용자는 무대 배경(210)의 양측에 위치한 화살표(211, 212)를 눌러(터치 또는 마우스 등을 이용) 제1 GUI 화면(200) 상에서 무대 배경(210)을 변경할 수 있다. 이 같은 방식으로 무대 배경(210) 상에 어느 하나의 장소가 디스플레이된 상태에서 소정 시간(예를 들어, 10초) 경과되면 제1 GUI 화면(200)은 해당 장소를 무대 배경(210)으로 설정하게 된다.
사용자는 무대 배경(210)을 설정하는 것과 동일한 방법으로 배경 시간대(220), 배경 날씨(230), 배경 분위기(240) 및 배경 음악(250)을 설정할 수 있다. 즉, 도 2에서와 같이, 사용자는 무대 배경(210)을 "교실"로, 배경 시간대(220)를 "낮(Day)"으로, 배경 날씨(230)를 "맑음(Clean)"으로, 배경 분위기(240)를 "로맨스(Romance)"로, 배경 음악(250)을 "음악 1(Music 1)"로 설정할 수 있다. 또한, 사용자는 제1 GUI 화면(200) 상에 포함된 5개의 배경 아이템을 모두 설정할 수도 있으며, 이 중 하나 또는 몇 개만 설정할 수도 있다.
도 3은 도 2와 다른 배경 아이템이 설정된 제1 GUI 화면(200)을 나타내는 도면이다. 도 3을 참조하면, 사용자는 도 2에 도시된 제1 GUI 화면(200) 상에서, 배경 시간대(220) 및 배경 날씨(230)를 변경하고자 할 경우, 각 아이템의 양측에 위치한 화살표 중 어느 하나를 누를 수 있다. 이 같은 방법에 의해 배경 시간대(220)는 "밤(Night)"으로, 배경 날씨(230)는 "비(Rainy)"로 설정될 수 있다.
또한, 사용자가 화살표를 눌러 배경 시간대(220)가 "밤(Night)"으로 변경되는 경우, 제1 GUI 화면(200)은 배경을 어둡게 함으로써 실시간으로 변경된 아이템을 적용한다. 그리고, 배경 날씨(230)가 "비(Rainy)"로 변경되는 경우, 제1 GUI 화면(200)은 배경 상에 비가 내리는 효과를 적용함으로써 실시간으로 변경된 아이템을 적용한다. 이 같은 방법에 따라, 도 2에 도시된 제1 GUI 화면(200)을 도 3에 도시된 것과 같이 변경 및 설정할 수 있다. 또한, 제1 GUI 화면(200) 상에서 적어도 하나 이상의 배경 아이템이 설정되면, 디지털 기기(100)는 설정된 각 아이템들의 정보를 저장한다.
한편, 제1 GUI 화면(200) 상에서 배경 아이템 설정이 완료되면, 사용자는 제1 GUI 화면(200)의 상단에 위치한 화살표를 눌러 도 4에 도시된 것과 같은 제2 GUI 화면(300)이 디스플레이 되도록 할 수 있다. 제2 GUI 화면(300)은 컨텐츠 제작을 위한 적어도 하나의 3D 아바타(avatar) 아이템을 설정받기 위해 제공된다. 이 경우, 제2 GUI 화면(300)은 3D 아바타 아이템 표시 영역(310), 제1 및 제2 등장 아바타 설정 영역(320, 330)을 포함하며, 3D 아바타 아이템에 대응하는 액세서리, 의상, 이름, 표정, 프로필 및 목소리 중 적어도 하나의 아바타 특성을 설정받기 위한 서브 GUI 화면(340)을 더 포함한다.
3D 아바타 아이템 표시 영역(310)은 서로 다른 3D 아바타 아이템을 포함하고 있다. 또한, 제1 및 제2 등장 아바타 설정 영역(320, 330)은 컨텐츠 상에 등장할 아바타를 설정하기 위한 영역이다. 그리고, 서브 GUI 화면(340)은 제1 및 제2 등장 아바타 설정 영역(320, 330) 상에 설정된 3D 아바타 아이템에 대응하는 액세서리, 의상, 이름, 표정, 프로필 및 목소리 등을 설정하기 위한 영역이다. 이를 위해 서브 GUI 화면(340)은 액세서리 설정 영역(341), 의상 설정 영역(342), 이름 입력 영역(343), 표정 설정 영역(344), 프로필 설정 영역(345) 및 목소리 설정 영역(346) 등을 포함한다.
사용자는 3D 아바타 아이템 표시 영역(310)에서 어느 하나를 제1 등장 아바타 설정 영역(320)으로 드래그 앤 드롭하여 제1 등장 아바타를 설정할 수 있다. 사용자가 원하는 3D 아바타 아이템이 없을 경우, 화살표(311, 312)를 눌러 다른 3D 아바타 아이템들을 더 확인한 후 설정할 수 있다.
또한, 등장 아바타("3D 아바타 아이템"과 동일한 의미로 사용)가 더 필요한 경우, 사용자는 제1 등장 아바타 설정 방법과 동일하게 제2 등장 아바타를 설정할 수 있다. 또한, 더 많은 수의 등장 아바타가 필요한 경우, 사용자는 "추가" 항목(301)을 선택하여 등장 아바타 설정 영역이 더 생성되도록 할 수 있다.
또한, 제1 등장 아바타가 설정되면, 제2 GUI 화면(300)은 서브 GUI 화면(340) 상에 제1 등장 아바타를 디스플레이 한다. 따라서, 사용자는 서브 GUI 화면(340) 상에서 제1 등장 아바타에 대하여 액세서리, 의상, 이름, 표정, 프로필 및 목소리 등을 설정할 수 있다. 이 경우, 서브 GUI 화면(340) 상에서 어느 하나의 아바타 특성이 설정 또는 변경될 때마다 제2 GUI 화면(300)은 설정 또는 변경된 아바타 특성을 제1 등장 아바타에 실시간으로 반영하여 디스플레이 한다.
한편, 설정이 완료된 후, 사용자가 서브 GUI 화면(340) 상의 하단 좌측에 위치한 "OK" 항목(347)을 누르면, 제2 GUI 화면(300)은 제1 등장 아바타 설정 영역(320) 상에 아바타 특성이 설정된 제1 등장 아바타를 디스플레이 한다. 이 같은 방법으로 제2 등장 아바타에 대한 아바타 특성을 설정할 수 있다.
제2 GUI 화면(300) 상에서 배경 아이템 설정이 완료되면, 사용자는 제2 GUI 화면(300)의 상단에 위치한 화살표를 눌러 도 6에 도시된 것과 같은 제3 GUI 화면(400)이 디스플레이 되도록 할 수 있다. 도 6을 구체적으로 설명하기 전에, 도 5를 이용하여 제3 GUI 화면(400)의 구조를 먼저 설명한다.
도 5를 참조하면, 제3 GUI 화면(400)은 컨텐츠 제작을 위한 적어도 하나의 시나리오 아이템을 설정받기 위해 제공된다. 즉, 제3 GUI 화면(400)은 등장 아바타의 동작, 대사 및 그 순서 등을 포함하는 시나리오 아이템을 설정받기 위한 것이다. 따라서, 제3 GUI 화면(400)은 시나리오 아이템 표시 영역(410) 및 프레임 표시 영역(420)을 포함한다.
시나리오 아이템 표시 영역(410)은 적어도 하나의 3D 아바타 아이템과 관련하여 3D 아바타 아이템의 신체 부위 별로 구분되는 특별 동작(411), 위치 동작(412), 온몸 동작(413), 얼굴 동작(414) 및 대화 동작(415)을 포함하는 시나리오 아이템을 표시한다. 특별 동작(411), 위치 동작(412), 온몸 동작(413), 얼굴 동작(414) 및 대화 동작(415) 각각은 시나리오 아이템의 상위 메뉴이며, 각 상위 메뉴는 그에 대응하는 복수의 하위 메뉴를 포함할 수 있다.
또한, 프레임 표시 영역(420)은 제2 GUI 화면(300) 상에서 설정된 등장 아바타에 대응하는 복수의 프레임을 나열한다. 구체적으로, 제3 GUI 화면(400)은 프레임 표시 영역(420) 상에서 제1 등장 아바타(421) 및 제2 등장 아바타(422)를 제1축(수직축) 상에 디스플레이하고, 제1 등장 아바타(421) 및 제2 등장 아바타(422) 각각에 대응하는 복수의 프레임을 시간 순서대로 나열하여 제1 축과 수직 교차하는 제2 축(수평축) 상에 디스플레이 한다. 따라서, 동일한 수평축 상에는 제1 등장 아바타(421)와, 제1 등장 아바타(421)에 대응하는 복수의 프레임이 나열된다.
한편, 프레임 표시 영역(420)에 있어서, 제1 등장 아바타(421)에 대응하는 제1 내지 제3 프레임은 연속 프레임이 될 수 있다. 또한, 제2 등장 아바타(422)에 대응하는 제1 및 제3 프레임도 연속 프레임이 될 수 있다. 다만, 도 5에서, 제1 등장 아바타(421)와는 달리, 제2 등장 아바타(422)은 제2 프레임이 정의되어 있지 않다. 이 경우, 제2 등장 아바타(422)는 제1 등장 아바타(421)가 제2 프레임에 설정된 시나리오 아이템을 실행하는 동안, 자신에 대응하는 제1 프레임에 설정된 시나리오 아이템을 계속 실행하거나, 또는 쉬는 동작(idle 상태)을 실행할 수 있다. 그리고, 제1 등장 아바타(421)가 제2 프레임에 대한 동작을 마치면, 제2 등장 아바타(422)는 제1 등장 아바타(421)와 함께 각각 제3 프레임에 설정된 시나리오 아이템을 동시에 실행할 수 있게 된다.
또한, 프레임 표시 영역(420)에 있어서, 제1 등장 아바타(421) 및 제2 등장 아바타(422)에 대응하는 프레임들 중 동일한 프레임 번호를 갖는 것은 동기화 프레임이 될 수 있다. 즉, 컨텐츠 재생시, 동일한 프레임 번호를 갖는 프레임은 동시에 재생되며, 동일한 시간 동안 재생될 수 있다.
또한, 프레임 표시 영역(420)은 프레임 추가를 위한 "프레임 추가" 항목(423)을 포함할 수 있다. 따라서, 필요에 따라 사용자는 프레임을 추가할 수 있다.
도 5에 도시된 바와 같은 제3 GUI 화면(400)을 이용하여 사용자는 컨텐츠 제작을 위한 시나리오 아이템을 설정할 수 있게 된다. 시나리오 아이템 설정과 관련된 구체적인 설명은 도 6 및 도 7을 이용한다.
도 6에 도시된 제3 GUI 화면(500)은 실제 디스플레이되는 화면의 일 실시 예이며, 도 5에 도시된 제3 GUI 화면(400)과 동일한 구조를 갖는다. 즉, 제3 GUI 화면(500)은 시나리오 아이템 표시 영역(510) 및 프레임 표시 영역(520)을 포함하며, 프레임 표시 영역(420) 상에는 제2 GUI 화면(300) 상에서 설정된 제1 등장 아바타(521) 및 제2 등장 아바타(522)가 제1 축 상에 디스플레이 된다.
사용자가 아이템 표시 영역(510)에서 특별 동작(511)을 선택하게 되면, 제2 GUI 화면(500)은 특별 동작(511)에 대응하는 복수의 하위 메뉴들을 디스플레이 한다. 이에 따라, 사용자는 특별 동작(511)에 대응하는 복수의 하위 메뉴들 중 하나를 선택함으로써, 특별 동작(511)에 대한 시나리오 아이템을 선택할 수 있게 된다. 이렇게 시나리오 아이템이 선택된 상태에서 드래그하여 프레임 표시 영역(520) 상에 표시된 제2 등장 아바타(522)에 대응하는 제2 프레임에 드롭하면, 제3 GUI 화면은 이를 감지하여 제2 프레임 상에 드래그된 시나리오 아이템을 설정한다. 이와 같은 방법으로 사용자는 다른 프레임에도 시나리오 아이템을 설정할 수 있다.
또한, 제2 프레임 상에 대화 동작(515)과 관련된 시나리오 아이템을 설정하고자 할 경우, 사용자는 제3 GUI 화면(500) 상에서 대화 동작(515)을 드래그하여 제2 등장 아바타(522)에 대응하는 제2 프레임에 드롭시킨다. 이 같은 동작에 따라 제3 GUI 화면(500)은 제2 프레임의 일 측에 대사 입력 영역(523)을 디스플레이한다.
한편, 제3 GUI 화면(500)은 사용자가 설정하는 모든 시나리오 아이템을 프레임 상에 설정하는 것이 아니라, 사용자가 어느 하나의 시나리오 아이템을 드래그하여 프레임 내에 드롭하면, 드래그된 시나리오 아이템과 동일한 종류의 시나리오 아이템이 해당 프레임 내에 기 설정되어 있는지를 판단한다. 만약, 그렇다면 제3 GUI 화면(500)은 드래그된 시나리오 아이템의 설정을 취소한다.
반면, 드래그된 시나리오 아이템과 동일한 종류의 시나리오 아이템이 해당 프레임 내에 기 설정되어 있지 않다면, 드래그된 시나리오 아이템을 해당 프레임 내에 설정한다. 예를 들어, 제2 등장 아바타(522)에 대응하는 제2 프레임 상에 대화 동작(515)과 관련된 시나리오 아이템이 설정되어 있는 상태에서, 사용자가 또 다시 대화 동작(515)과 관련된 시나리오 아이템을 설정하려 한다면, 제3 GUI 화면(500)은 후속으로 선택된 대화 동작(515)의 설정을 취소시킨다. 즉, 제2 등장 아바타(522)가 제2 프레임 상에서 서로 다른 대화 동작을 동시에 실행할 수 없으므로, 동일한 종류의 시나리오 아이템이 설정되는 것을 방지하는 것이 바람직하다.
또한, 제2 등장 아바타(522)에 대응하는 제2 프레임 상에 대화 동작(515)과 관련된 시나리오 아이템이 설정되어 있는 상태에서, 사용자가 대화 동작(515)이 아닌 특별 동작(511), 위치 동작(512), 온몸 동작(513), 얼굴 동작(514) 및 미디어(516) 중 어느 하나와 관련된 시나리오 아이템을 설정하려 한다면, 제3 GUI 화면(500)은 해당 시나리오 아이템을 제2 프레임 상에 설정한다. 이 경우, 제2 등장 아바타(522)는 제2 프레임 상에 새롭게 설정된 시나리오 아이템을 기 설정된 대화 동작과 관련된 시나리오 아이템과 동시에 실행하게 되며, 결과적으로, 제2 등장 아바타(522)는 대화를 실행함과 동시에 새롭게 설정된 시나리오 아이템을 실행하게 된다.
또한, 제2 등장 아바타(522)에 대응하는 제2 프레임 상에 어떠한 종류의 시나리오 아이템도 설정되어 있지 않은 상태에서, 사용자가 대화 동작(515)과 관련된 시나리오 아이템을 설정하려 한다면, 제3 GUI 화면(500)은 대화 동작(515)을 설정할 수 있도록 제2 프레임의 일 측에 대사 입력 영역(523)을 디스플레이 한다. 따라서, 사용자는 대사 입력 영역(523) 상에 텍스트를 입력함으로써 대화 동작(515)을 설정할 수 있게 된다.
한편, 제3 GUI 화면(500)은 어느 하나의 프레임 상에 각각 시나리오 아이템이 설정되면, 해당 프레임이 이전 프레임들 및 다음 프레임들과 연속되도록 구성한다. 따라서, 추후, 컨텐츠 제작이 완료되었을 때, 제1 등장 아바타(521) 또는 제2 등장 아바타(522)에 대응하여 나열된 프레임들이 끊기지 않고 연속적으로 재생될 수 있다.
또한, 제3 GUI 화면(500)은 어느 하나의 프레임 상에 적어도 두 개 이상의 시나리오 아이템이 설정되면, 해당 프레임 내에서 시나리오 아이템들의 실행 시간이 동일해지도록 동기화시킨다. 또한, 제3 GUI 화면(500)은 제1 등장 아바타(521) 및 제2 등장 아바타(522)에 대응하는 프레임들 중 동일한 프레임 번호에 설정된 시나리오 아이템들의 실행 시간이 동일해지도록 동기화시킬 수도 있다.
이 경우, 제3 GUI 화면(500)은 최단 동작 기준 모드, 최장 동작 기준 모드 및 랜덤 동작 기준 모드 중 어느 하나를 이용하여 동일 프레임 내에 설정된 시나리오 아이템들을 동기화시킬 수 있다. 최단 동작 기준 모드란, 적어도 두 개 이상의 시나리오 아이템들 중 가장 짧은 실행 시간을 갖는 시나리오 아이템을 기준으로 다른 시나리오 아이템들의 실행 시간을 조절하는 것이다. 또한, 최장 동작 기준 모드란, 가장 긴 실행 시간을 갖는 시나리오 아이템을 기준으로 다른 시나리오 아이템들의 실행 시간을 조절하는 것이다. 그리고, 랜덤 동작 기준 모드란, 임의로 선택된 어느 하나의 시나리오 아이템의 실행 시간을 기준으로 다른 시나리오 아이템들의 실행 시간을 조절하는 것이다.
한편, 도 6에 도시된 제3 GUI 화면(500) 상에서, 사용자가 위치 동작(512)과 관련된 시나리오 아이템을 선택하는 경우, 제3 GUI 화면(500)은 등장 아바타에 대응하는 목표 위치 및, 목표 위치에서의 목표 방향을 설정하기 위한 하위 메뉴를 디스플레이 한다. 구체적으로, 등장 아바타에 대응하는 어느 프레임 상에서 위치 동작(512)을 설정하는 경우, 사용자는 다른 종류의 시나리오 아이템을 설정할 때와 달리 등장 아바타가 어디로 이동할지에 대한 목표 위치와, 목표 위치에 도달했을 경우 어디를 바라보고 있을지에 대한 목표 방향을 함께 설정해주어야 한다.
도 7을 참조하면, 사용자가 위치 동작(512)를 선택한 경우, 제3 GUI 화면(500)은 위치 동작(512)과 관련된 시나리오 아이템 표시 테이블(512a)을 디스플레이 한다. 이 경우, 시나리오 아이템 표시 테이블(512a)에는 걷기, 달리기 및 점프 및 기어가기 등의 동작이 포함된다.
사용자가 시나리오 아이템 표시 테이블(512a) 상에서 "달리기"를 선택하면, 제3 GUI 화면(500)은 시나리오 아이템 표시 테이블(512a)의 일 측으로 목표 위치 테이블(512b)을 디스플레이 한다. 이 경우, 목표 위치 테이블(512b)에는 현재 위치, 제1 아바타, 테이블 및 나무 등의 목표 위치가 포함된다. 목표 위치 테이블(512b)에 포함되는 다양한 목표 위치들은, 제1 GUI 화면(200) 상에서 설정된 무대 배경(210)에 따라 동적으로 변경될 수 있다. 즉, 제1 GUI 화면(200) 상에서 설정된 무대 배경(210)에 포함된 사물, 위치 등에 따라 목표 위치 테이블(512b)은 재구성될 수 있다.
또한, 사용자가 목표 위치 테이블(512b) 상에서 "테이블"을 선택하면, 제3 GUI 화면(500)은 목표 위치 테이블(512b)의 일 측으로 목표 방향 테이블(512c)을 디스플레이 한다. 이 경우, 목표 방향 테이블(512c)에는 앞, 위, 오른쪽 및 왼쪽 등의 목표 방향이 포함된다. 이 같은 목표 방향은, 앞, 위, 오른쪽 및 왼쪽에 한정되지 않으며, 위, 아래 등을 더 포함할 수 있고 각 방향에서 목표 각도를 세분화하여 포함할 수도 있다.
또한, 사용자가 목표 방향 테이블(512c)에서 "앞"을 선택하면, 제3 GUI 화면(500)은 목표 방향 테이블(512c)의 일 측으로 이격 거리 테이블(512d)을 디스플레이 한다. 이 경우, 이격 거리 테이블(512d)이란, 목표 위치에서 얼마나 떨어져 위치할 것인지에 대한 거리를 설정받기 위해 제공되는 것으로, 사용자가 직접 숫자(예를 들어, "2")를 입력하여 설정할 수 있다.
이 같은 방법에 따라, 도 7에 도시된 바와 같이, 등장 아바타는 어느 프레임 상에서 달리는 동작을 하여 목표 위치인 테이블을 기준으로, 테이블의 앞에서 "2" 걸음 떨어진 위치로 이동하는 위치 동작(512)이 설정될 수 있다. 따라서, 등장 아바타의 위치 동작을 보다 구체적으로 동작함으로써, 컨텐츠 재생시 등장 아바타의 동작이 보다 활동적이도 현실감 있게 실행되도록 할 수 있다.
디지털 기기(100)는 도 3, 도 4, 도 6 및 도 7에 도시된 제1 내지 제3 GUI 화면(200, 300, 500) 상에서 설정된 배경 아이템, 3D 아바타 아이템 및 시나리오 아이템을 조합하여 컨텐츠를 제작, 재생 및 타 디지털 기기에 전송할 수 있게 된다.
 도 2 내지 도 7을 설명함에 있어서, 사용자 선택 또는 설정에 따른 디스플레이 동작을 제1 내지 제3 GUI 화면(200, 300, 400, 500)이 제어하는 형태로 설명하였으나, 실질적으로는 사용자 선택 또는 설정에 따라 제어부(150)가 제1 내지 제3 GUI 화면(200, 300, 400, 500)의 디스플레이 동작을 제어할 수 있다.
도 8은 제안되는 실시 예에 따른 컨텐츠 제작을 위한 유저 인터페이스 제공 방법을 설명하기 위한 흐름도이다. 도 8을 참조하면, 디지털 기기(100)는 컨텐츠 제작을 위한 제1 GUI 화면, 제2 GUI 화면 및 제3 GUI 화면을 제공한다(810 단계). 구체적으로, 디지털 기기(100)는 컨텐츠 제작을 위한 배경 아이템을 설정받기 위한 제1 GUI 화면, 3D 아바타 아이템을 설정받기 위한 제2 GUI 화면 및 시나리오 아이템을 설정받기 위한 제3 GUI 화면을 생성 및 디스플레이 한다. 이 경우, 디지털 기기(100)는 제1 GUI 화면 내지 제3 GUI 화면을 한 화면 상에 디스플레이 하는 것이 아니라, 제1 GUI 화면 내지 제3 GUI 화면을 차례로 제공한다.
다음, 디지털 기기(100)는 제1 내지 제3 GUI 화면 상에서 사용자 설정 신호에 따라 각 아이템들을 설정한다(820 단계). 구체적으로, 제1 내지 제3 GUI 화면 각각에서 사용자가 배경 아이템, 3D 아바타 아이템 및 시나리오 아이템들을 선택하면, 디지털 기기(100)는 그에 대응하는 사용자 설정 신호를 입력 받아 각 아이템들을 설정한다.
이후, 디지털 기기(100)는 제1 내지 제3 GUI 화면 상에서 설정된 아이템들을 조합하여 컨텐츠를 제작한다(830 단계). 이 같은 방법에 따라 사용자가 컨텐츠 제작에 있어서 비전문가인 경우에도, 완성도가 높은 컨텐츠를 빠르게 제작할 수 있게 된다.
도 9는 제안되는 다른 실시 예에 따른 컨텐츠 제작을 위한 유저 인터페이스 제공 방법을 설명하기 위한 흐름도이다. 도 9를 참조하면, 디지털 기기(100)는 제1 GUI 화면 상에서 배경 아이템을 설정한다(910 단계). 구체적으로, 디지털 기기(100)는 제1 GUI 화면이 디스플레이된 상태에서, 사용자 설정 신호가 입력되면 그에 따라 적어도 하나의 배경 아이템을 설정한다.
다음, 디지털 기기(100)는 제2 GUI 화면 상에서 3D 아바타 아이템을 설정한다(920 단계). 구체적으로, 디지털 기기(100)는 제2 GUI 화면이 디스플레이된 상태에서, 사용자 설정 신호가 입력되면 그에 따라 적어도 하나의 3D 아바타 아이템을 설정한다.
이후, 디지털 기기(100)는 사용자 설정 신호에 따라 제3 GUI 화면의 아이템 표시 영역에 포함된 시나리오 아이템을 어느 하나의 프레임 상에 설정한다(930 단계). 구체적으로, 디지털 기기(100)는 제3 GUI 화면의 아이템 표시 영역에서 어느 하나의 시나리오 아이템이 드래그되어 프레임 표시 영역 상에 표시된 어느 하나의 프레임에 드롭되는 것이 감지되면, 드롭된 프레임에 드래그된 시나리오 아이템을 설정하게 된다.
한편, 디지털 기기(100)는 해당 프레임 내에, 상기 설정된 시나리오 아이템과 동일한 종류의 시나리오 아이템이 기 설정되어 있는지를 판단하여(940 단계), 기 설정되어 있는 것으로 판단되면 해당 프레임에 대한 상기 시나리오 아이템 설정을 취소한다(990 단계).
반면, 해당 프레임 내에, 상기 설정된 시나리오 아이템과 동일한 종류의 시나리오 아이템이 기 설정되어 있지 않으면(940 단계:NO), 상기 시나리오 아이템을 해당 프레임에 설정한다(950 단계).
이후, 각 프레임에 대한 시나리오 아이템 설정이 완료되었으면(960:YES), 디지털 기기(100)는 제1 내지 제3 GUI 화면 상에서 설정된 아이템들을 조합하여 컨텐츠를 제작한다(970 단계). 그리고, 디지털 기기(100)는 제작된 컨텐츠를 재생하여 화면 상에 디스플레이한다(980 단계).
반면, 각 프레임에 대한 시나리오 아이템 설정이 완료되지 않았으면(960:NO), 디지털 기기(100)는 930 단계 내지 960 단계를 반복하여 실행한다.
도 9에 도시된 방법에 따르면, 디지털 기기(100)는 제1 내지 제3 GUI 화면을 이용하여 보다 완성도가 높은 컨텐츠를 제작 및 재생할 수 있게 된다.
도 10은 제안되는 또 다른 실시 예에 따른 컨텐츠 제작을 위한 유저 인터페이스 제공 방법을 설명하기 위한 흐름도이다. 도 10을 참조하면, 디지털 기기(100)는 제3 GUI 화면을 제공한다(1100 단계). 이 경우, 1100 단계 이전에는 제1 및 제2 GUI 화면을 제공하고, 각 GUI 화면을 통해 배경 아이템 및 3D 아바타 아이템을 설정받는 단계가 포함되어 있음은 물론이다.
이후, 디지털 기기(100)는 제3 GUI 화면 상에서 아이템 표시 영역에 포함된 시나리오 아이템을 어느 하나의 프레임 상에 설정한다(1150 단계). 이 경우, 시나리오 아이템을 프레임 상에 설정하는 동작은 앞서 설명한 바와 같이, 사용자에 의해 시나리오 아이템이 드래그되어 어느 하나의 프레임 상에 드롭되는 동작을 감지하여 이루어질 수 있다.
한편, 디지털 기기(100)는 해당 프레임이 비어있는지를 확인한다(1200 단계). 해당 프레임이 비어있다면, 디지털 기기(100)는 시나리오 아이템을 해당 프레임에 설정한다(1250 단계). 이 경우, "해당 프레임이 비어있다는 것"은 해당 프레임 내에 어떤 시나리오 아이템도 설정되어 있지 않다는 것을 의미한다.
이후, 디지털 기기(100)는 해당 프레임을 이전 프레임 또는 다음 프레임과 연속하도록 설정한다(1300 단계). 이는 컨텐츠 제작이 완료된 후, 컨텐츠 재생시 프레임들 간에 끊김이 없이 연속적으로 재생하기 위한 것이다.
다음, 각 프레임에 대한 시나리오 아이템 설정이 완료되었으면(1350 단계:YES), 디지털 기기(100)는 제1 내지 제3 GUI 화면 상에서 설정된 아이템들을 조합하여 컨텐츠를 제작한다(1400 단계). 그리고, 디지털 기기(100)는 제작된 컨텐츠를 재생하여 화면 상에 디스플레이한다(1650 단계).
한편, 1200 단계의 확인 결과, 해당 프레임이 비어있지 않다면, 디지털 기기(100)는 해당 프레임에, 상기 설정된 시나리오 아이템과 동일한 종류의 시나리오 아이템이 기 설정되어 있는지를 판단한다(1450 단계). 만약, 기 설정되어 있는 것으로 판단되면, 디지털 기기(100)는 해당 프레임에 대한 상기 시나리오 아이템 설정을 취소한다(1600 단계).
반면, 해당 프레임 내에, 상기 설정된 시나리오 아이템과 동일한 종류의 시나리오 아이템이 기 설정되어 있지 않으면(1450 단계:NO), 상기 시나리오 아이템을 해당 프레임에 설정한다(1500 단계).
이후, 디지털 기기(100)는 동일 프레임 내에 설정된 시나리오 아이템들을 동기화시킨다(1550 단계). 즉, 동일 프레임 내에서 적어도 두 개 이상의 시나리오 아이템들의 실행 시간이 동일해지도록 동기화시키며, 서로 다른 3D 아바타 아이템에 대응하는 프레임들 중 동일 프레임 번호에 설정된 시나리오 아이템들의 실행 시간이 동일해지도록 동기화시킬 수 있다. 이 경우, 동기화는 최단 동작 기준 모드, 최장 동작 기준 모드 및 랜덤 동작 기준 모드 중 어느 하나로 수행될 수 있다. 그리고, 디지털 기기(100)는 1350 단계 내지 1650 단계를 거쳐 컨텐츠를 제작 및 재생할 수 있게 된다.
본 발명에 따른 실시 예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이러한 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(Floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명은 비록 한정된 실시 예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시 예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
110 : 입력부 120 : GUI 제공부
130 : 디스플레이부 140 : 통신부
150 : 제어부 160 : 저장부
200 : 제1 GUI 화면 300 : 제2 GUI 화면
400 : 제3 GUI 화면

Claims (20)

  1. 사용자 설정 신호를 입력받는 입력부;
    컨텐츠 제작을 위한 적어도 하나의 배경 아이템을 설정받기 위한 제1 GUI 화면, 상기 컨텐츠 제작을 위한 적어도 하나의 3D 아바타(avatar) 아이템을 설정받기 위한 제2 GUI 화면, 상기 컨텐츠 제작을 위한 적어도 하나의 시나리오 아이템을 설정받기 위한 제3 GUI 화면을 제공하는 GUI 제공부; 및
    상기 제1 내지 제3 GUI 화면 상에서 상기 사용자 설정 신호에 따라 각 아이템들이 설정되면, 상기 설정된 아이템들을 조합하여 컨텐츠를 제작하도록 상기 GUI 제공부를 제어하는 제어부
    를 포함하는 디지털 기기.
  2. 제1항에 있어서,
    상기 GUI 제공부는,
    상기 제1 내지 제3 GUI 화면 상에서 각 아이템들이 설정되면, 상기 설정된 아이템을 상기 제1 내지 제3 GUI 화면 상에 실시간으로 반영하여 제공하는 디지털 기기.
  3. 제1항에 있어서,
    상기 배경 아이템은,
    무대 배경, 배경 시간대, 배경 날씨, 배경 분위기 및 배경 음악을 포함하는 디지털 기기.
  4. 제1항에 있어서,
    상기 제2 GUI 화면은,
    상기 적어도 하나의 3D 아바타 아이템에 대응하는 액세서리, 의상, 이름, 표정, 프로필 및 목소리 중 적어도 하나의 아바타 특성을 설정받기 위한 서브 GUI 화면을 포함하는 디지털 기기.
  5. 제1항에 있어서,
    상기 제3 GUI 화면은,
    상기 적어도 하나의 3D 아바타 아이템과 관련하여 상기 3D 아바타 아이템의 신체 부위에 따라 구분되는 특별 동작, 위치 동작, 온몸 동작, 얼굴 동작 및 대화 동작을 포함하는 시나리오 아이템이 표시된 아이템 표시 영역 및 상기 제2 GUI 화면 상에서 설정된 상기 적어도 하나의 3D 아바타 아이템에 대응하는 복수의 프레임이 나열된 프레임 표시 영역을 포함하는 디지털 기기.
  6. 제5항에 있어서,
    상기 제3 GUI 화면은,
    상기 위치 동작에 대하여 상기 적어도 하나의 3D 아바타 아이템에 대응하는 목표 위치 및 상기 목표 위치에서의 목표 방향을 설정하기 위한 하위 메뉴를 더 포함하는 디지털 기기.
  7. 제5항에 있어서,
    상기 프레임 표시 영역은,
    상기 설정된 적어도 하나의 3D 아바타 아이템을 제1축 상에 표시하고, 상기 적어도 하나의 3D 아바타 아이템 각각에 대응하는 상기 복수의 프레임을 시간 순서대로 나열하여 상기 제1 축과 수직 교차하는 제2 축 상에 표시하는 디지털 기기.
  8. 제5항에 있어서,
    상기 GUI 제공부는,
    상기 제3 GUI 화면의 상기 아이템 표시 영역에서 어느 하나의 시나리오 아이템이 드래그되어 상기 프레임 표시 영역 상에 표시된 어느 하나의 프레임에 드롭되면, 상기 드롭된 프레임 상에 상기 드래그된 시나리오 아이템을 설정하는 디지털 기기.
  9. 제8항에 있어서,
    상기 GUI 제공부는,
    상기 드롭된 프레임 내에 상기 드래그된 시나리오 아이템과 동일한 종류의 시나리오 아이템이 기 설정되어 있는 경우, 상기 드래그된 시나리오 아이템의 설정을 취소하는 디지털 기기.
  10. 제8항에 있어서,
    상기 GUI 제공부는,
    상기 복수의 프레임에 상기 적어도 하나의 시나리오 아이템 설정이 완료되면, 최단 동작 기준 모드, 최장 동작 기준 모드 및 랜덤 동작 기준 모드 중 어느 하나를 이용하여 동일한 프레임 내에 설정된 적어도 하나의 시나리오 아이템을 동기화시키는 디지털 기기.
  11. 제1항에 있어서,
    타 디지털 기기와 통신하는 통신부를 더 포함하고,
    상기 제어부는,
    상기 GUI 제공부에 의해 제작된 컨텐츠를 기 설정된 타 디지털 기기로 전송하도록 상기 통신부를 제어하는 디지털 기기.
  12. 컨텐츠 제작을 위한 적어도 하나의 배경 아이템을 설정받기 위한 제1 GUI 화면, 상기 컨텐츠 제작을 위한 적어도 하나의 3D 아바타(avatar) 아이템을 설정받기 위한 제2 GUI 화면, 상기 컨텐츠 제작을 위한 적어도 하나의 시나리오 아이템을 설정받기 위한 제3 GUI 화면을 제공하는 단계; 및
    상기 제1 내지 제3 GUI 화면 상에서 사용자 설정 신호에 따라 각 아이템들이 설정되면, 상기 설정된 아이템들을 조합하여 컨텐츠를 제작하는 단계
    를 포함하는 컨텐츠 제작을 위한 그래픽 유저 인터페이스 제공 방법.
  13. 제12항에 있어서,
    상기 컨텐츠를 제작하는 단계는,
    상기 제1 내지 제3 GUI 화면 상에서 각 아이템들이 설정되면, 상기 설정된 아이템을 상기 제1 내지 제3 GUI 화면 상에 실시간으로 반영하여 제공하는 컨텐츠 제작을 위한 그래픽 유저 인터페이스 제공 방법.
  14. 제12항에 있어서,
    상기 제2 GUI 화면은,
    상기 적어도 하나의 3D 아바타 아이템에 대응하는 액세서리, 의상, 이름, 표정, 프로필 및 목소리 중 적어도 하나의 아바타 특성을 설정받기 위한 서브 GUI 화면을 포함하는 컨텐츠 제작을 위한 그래픽 유저 인터페이스 제공 방법.
  15. 제12항에 있어서,
    상기 제3 GUI 화면은,
    상기 적어도 하나의 3D 아바타 아이템과 관련된 특별 동작, 위치 동작, 온몸 동작, 얼굴 동작 및 대화 동작을 포함하는 시나리오 아이템이 표시된 아이템 표시 영역 및 상기 제2 GUI 화면 상에서 설정된 상기 적어도 하나의 3D 아바타 아이템에 대응하는 복수의 프레임이 나열된 프레임 표시 영역을 포함하는 컨텐츠 제작을 위한 그래픽 유저 인터페이스 제공 방법.
  16. 제15항에 있어서,
    상기 프레임 표시 영역은,
    상기 설정된 적어도 하나의 3D 아바타 아이템을 제1축 상에 표시하고, 상기 적어도 하나의 3D 아바타 아이템 각각에 대응하는 상기 복수의 프레임을 시간 순서대로 나열하여 상기 제1 축과 수직 교차하는 제2 축 상에 표시하는 컨텐츠 제작을 위한 그래픽 유저 인터페이스 제공 방법.
  17. 제15항에 있어서,
    상기 컨텐츠를 제작하는 단계는,
    상기 아이템 표시 영역에서 어느 하나의 시나리오 아이템이 드래그되어 상기 프레임 표시 영역 상에 표시된 어느 하나의 프레임에 드롭되면, 상기 드롭된 프레임에 상기 드래그된 시나리오 아이템을 설정하는 컨텐츠 제작을 위한 그래픽 유저 인터페이스 제공 방법.
  18. 제17항에 있어서,
    상기 컨텐츠를 제작하는 단계는,
    상기 드롭된 프레임 내에 상기 드래그된 시나리오 아이템과 동일한 종류의 시나리오 아이템이 기 설정되어 있는 경우, 상기 드래그된 시나리오 아이템의 설정을 취소하는 컨텐츠 제작을 위한 그래픽 유저 인터페이스 제공 방법.
  19. 제17항에 있어서,
    상기 컨텐츠를 제작하는 단계는,
    상기 복수의 프레임에 상기 적어도 하나의 시나리오 아이템 설정이 완료되면, 최단 동작 기준 모드, 최장 동작 기준 모드 및 랜덤 기준 모드 중 어느 하나의 모드를 이용하여 동일한 프레임 내에 설정된 적어도 하나의 시나리오 아이템들을 동기화시키는 컨텐츠 제작을 위한 그래픽 유저 인터페이스 제공 방법.
  20. 제12항에 기재된 방법을 수행하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.
KR1020100026521A 2010-03-25 2010-03-25 컨텐츠 제작을 위한 그래픽 유저 인터페이스를 제공하는 디지털 기기 및 그의 그래픽 유저 인터페이스 제공 방법 및 그 방법을 수행하기 위한 프로그램이 기록된 기록 매체 KR20110107428A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020100026521A KR20110107428A (ko) 2010-03-25 2010-03-25 컨텐츠 제작을 위한 그래픽 유저 인터페이스를 제공하는 디지털 기기 및 그의 그래픽 유저 인터페이스 제공 방법 및 그 방법을 수행하기 위한 프로그램이 기록된 기록 매체
US12/909,373 US20110239147A1 (en) 2010-03-25 2010-10-21 Digital apparatus and method for providing a user interface to produce contents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100026521A KR20110107428A (ko) 2010-03-25 2010-03-25 컨텐츠 제작을 위한 그래픽 유저 인터페이스를 제공하는 디지털 기기 및 그의 그래픽 유저 인터페이스 제공 방법 및 그 방법을 수행하기 위한 프로그램이 기록된 기록 매체

Publications (1)

Publication Number Publication Date
KR20110107428A true KR20110107428A (ko) 2011-10-04

Family

ID=44657795

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100026521A KR20110107428A (ko) 2010-03-25 2010-03-25 컨텐츠 제작을 위한 그래픽 유저 인터페이스를 제공하는 디지털 기기 및 그의 그래픽 유저 인터페이스 제공 방법 및 그 방법을 수행하기 위한 프로그램이 기록된 기록 매체

Country Status (2)

Country Link
US (1) US20110239147A1 (ko)
KR (1) KR20110107428A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101302263B1 (ko) * 2013-03-05 2013-09-02 이명수 그래픽 유저 인터페이스 제공방법 및 이를 위한 단말
WO2018021607A1 (ko) * 2016-07-26 2018-02-01 주식회사 엘로이즈 3d 아바타 기반 화자 변경형 스토리텔링 시스템

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9606694B2 (en) * 2011-06-20 2017-03-28 Tandemseven, Inc. System and method for building and managing user experience for computer software interfaces
US9177410B2 (en) 2013-08-09 2015-11-03 Ayla Mandel System and method for creating avatars or animated sequences using human body features extracted from a still image
US10614606B2 (en) * 2016-11-30 2020-04-07 Ricoh Company, Ltd. Information processing apparatus for creating an animation from a spherical image

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3179474B2 (ja) * 1990-11-28 2001-06-25 株式会社日立製作所 コンピュータグラフィックの表示方法及び情報処理装置
US5659793A (en) * 1994-12-22 1997-08-19 Bell Atlantic Video Services, Inc. Authoring tools for multimedia application development and network delivery
CA2180899A1 (en) * 1995-07-12 1997-01-13 Yasuaki Honda Synchronous updating of sub objects in a three dimensional virtual reality space sharing system and method therefore
IL126142A0 (en) * 1996-03-15 1999-05-09 Zapa Digital Art Ltd Programmable computer graphic objects
US5986675A (en) * 1996-05-24 1999-11-16 Microsoft Corporation System and method for animating an object in three-dimensional space using a two-dimensional input device
US5781188A (en) * 1996-06-27 1998-07-14 Softimage Indicating activeness of clips and applying effects to clips and tracks in a timeline of a multimedia work
JP3472065B2 (ja) * 1997-03-17 2003-12-02 株式会社東芝 アニメーション生成装置およびアニメーション生成方法
US6011562A (en) * 1997-08-01 2000-01-04 Avid Technology Inc. Method and system employing an NLE to create and modify 3D animations by mixing and compositing animation data
US6466213B2 (en) * 1998-02-13 2002-10-15 Xerox Corporation Method and apparatus for creating personal autonomous avatars
GB2336022A (en) * 1998-04-03 1999-10-06 Discreet Logic Inc Edit processing audio-visual data
US6141041A (en) * 1998-06-22 2000-10-31 Lucent Technologies Inc. Method and apparatus for determination and visualization of player field coverage in a sporting event
US6119147A (en) * 1998-07-28 2000-09-12 Fuji Xerox Co., Ltd. Method and system for computer-mediated, multi-modal, asynchronous meetings in a virtual space
US6215498B1 (en) * 1998-09-10 2001-04-10 Lionhearth Technologies, Inc. Virtual command post
JP2001029655A (ja) * 1999-07-23 2001-02-06 Square Co Ltd 行動選択支援方法、記録媒体およびゲーム装置
US6654031B1 (en) * 1999-10-15 2003-11-25 Hitachi Kokusai Electric Inc. Method of editing a video program with variable view point of picked-up image and computer program product for displaying video program
US7369130B2 (en) * 1999-10-29 2008-05-06 Hitachi Kokusai Electric Inc. Method and apparatus for editing image data, and computer program product of editing image data
US6545682B1 (en) * 2000-05-24 2003-04-08 There, Inc. Method and apparatus for creating and customizing avatars using genetic paradigm
JP4380042B2 (ja) * 2000-09-04 2009-12-09 ソニー株式会社 アニメーション生成方法および装置
US8555164B2 (en) * 2001-11-27 2013-10-08 Ding Huang Method for customizing avatars and heightening online safety
KR100523742B1 (ko) * 2002-03-26 2005-10-26 김소운 3차원 안경 시뮬레이션 시스템 및 방법
US6817979B2 (en) * 2002-06-28 2004-11-16 Nokia Corporation System and method for interacting with a user's virtual physiological model via a mobile terminal
US20040130566A1 (en) * 2003-01-07 2004-07-08 Prashant Banerjee Method for producing computerized multi-media presentation
US7484176B2 (en) * 2003-03-03 2009-01-27 Aol Llc, A Delaware Limited Liability Company Reactive avatars
US20070113181A1 (en) * 2003-03-03 2007-05-17 Blattner Patrick D Using avatars to communicate real-time information
GB0306875D0 (en) * 2003-03-25 2003-04-30 British Telecomm Apparatus and method for generating behavior in an object
US7805678B1 (en) * 2004-04-16 2010-09-28 Apple Inc. Editing within single timeline
US7555717B2 (en) * 2004-04-30 2009-06-30 Samsung Electronics Co., Ltd. Method for displaying screen image on mobile terminal
US20060019222A1 (en) * 2004-06-14 2006-01-26 Lelito Lisa F On-line educational course delivery system for medical and other applications
KR100755437B1 (ko) * 2004-07-07 2007-09-04 주식회사 더블유알지 휴대단말기의 캐릭터 서비스 장치 및 방법
US8016664B2 (en) * 2005-04-13 2011-09-13 Take Two Interactive Software, Inc. Systems and methods for simulating a particular user in an interactive computer system
US20060294465A1 (en) * 2005-06-22 2006-12-28 Comverse, Inc. Method and system for creating and distributing mobile avatars
US7396281B2 (en) * 2005-06-24 2008-07-08 Disney Enterprises, Inc. Participant interaction with entertainment in real and virtual environments
US20070162855A1 (en) * 2006-01-06 2007-07-12 Kelly Hawk Movie authoring
US20070176921A1 (en) * 2006-01-27 2007-08-02 Koji Iwasaki System of developing urban landscape by using electronic data
US8095400B2 (en) * 2006-03-06 2012-01-10 Cbs Interactive, Inc. Online waiting room system, method and computer program product
WO2007124590A1 (en) * 2006-05-03 2007-11-08 Affinity Media Uk Limited Method and system for presenting virtual world environment
WO2007130691A2 (en) * 2006-05-07 2007-11-15 Sony Computer Entertainment Inc. Method for providing affective characteristics to computer generated avatar during gameplay
CA2667168A1 (en) * 2006-10-18 2008-04-24 Iscopia Software Inc. Online qualification management system
US7979067B2 (en) * 2007-02-15 2011-07-12 Yahoo! Inc. Context avatar
US20090029771A1 (en) * 2007-07-25 2009-01-29 Mega Brands International, S.A.R.L. Interactive story builder
US20090079743A1 (en) * 2007-09-20 2009-03-26 Flowplay, Inc. Displaying animation of graphic object in environments lacking 3d redndering capability
US8892999B2 (en) * 2007-11-30 2014-11-18 Nike, Inc. Interactive avatar for social network services
US20090186693A1 (en) * 2007-12-26 2009-07-23 Edge Of Reality, Ltd. Interactive video game display method, apparatus, and/or system for object interaction
GB2458388A (en) * 2008-03-21 2009-09-23 Dressbot Inc A collaborative online shopping environment, virtual mall, store, etc. in which payments may be shared, products recommended and users modelled.
US8941642B2 (en) * 2008-10-17 2015-01-27 Kabushiki Kaisha Square Enix System for the creation and editing of three dimensional models
US20100225811A1 (en) * 2009-03-05 2010-09-09 Nokia Corporation Synchronization of Content from Multiple Content Sources

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101302263B1 (ko) * 2013-03-05 2013-09-02 이명수 그래픽 유저 인터페이스 제공방법 및 이를 위한 단말
WO2018021607A1 (ko) * 2016-07-26 2018-02-01 주식회사 엘로이즈 3d 아바타 기반 화자 변경형 스토리텔링 시스템

Also Published As

Publication number Publication date
US20110239147A1 (en) 2011-09-29

Similar Documents

Publication Publication Date Title
CN102707939B (zh) 用于呈现用户界面的元件的方法和装置
US11985360B2 (en) Immersive event production and distribution
TWI732240B (zh) 視頻檔案的生成方法、裝置及儲存媒體
CN101073048B (zh) 内容管理接口
KR20200128132A (ko) 비디오 제작 방법 및 장치, 컴퓨터 디바이스 및 저장 매체
US8808089B2 (en) Projection of interactive game environment
CN105139741B (zh) 一种数字沙盘系统
US9418346B2 (en) Method and apparatus for providing a drawer-based user interface for content access or recommendation
US20120233555A1 (en) Real-time multi-user collaborative editing in 3d authoring system
US20130272673A1 (en) System and method for guided video creation
CN110070594B (zh) 一种演绎时实时渲染输出的三维动画制作方法
JP2016163996A (ja) 3dプリンティングのシステム、装置および方法
US9076264B1 (en) Sound sequencing system and method
JP2016054481A (ja) 改善されたユーザインターフェースを備えたデジタルジュークボックス装置および関連手法
KR20110107428A (ko) 컨텐츠 제작을 위한 그래픽 유저 인터페이스를 제공하는 디지털 기기 및 그의 그래픽 유저 인터페이스 제공 방법 및 그 방법을 수행하기 위한 프로그램이 기록된 기록 매체
KR20190034215A (ko) 디지털 멀티미디어 플랫폼
WO2021052133A1 (zh) 一种演唱界面的显示方法、显示设备及服务器
CN112261481B (zh) 互动视频的创建方法、装置、设备及可读存储介质
US20180296916A1 (en) System and method for spatial and immersive computing
CN112118397B (zh) 一种视频合成的方法、相关装置、设备以及存储介质
KR101831802B1 (ko) 적어도 하나의 시퀀스에 대한 가상현실 컨텐츠 제작방법 및 장치
CN113420350A (zh) 对象、商品、衣物试搭展示处理方法、装置及电子设备
CN108846881B (zh) 一种表情图像的生成方法及装置
WO2017026170A1 (ja) クライアント機器、サーバ機器、表示処理方法、及び、データ配信方法
KR101426918B1 (ko) Gui 공유 시스템과 gui 편집 장치

Legal Events

Date Code Title Description
A201 Request for examination
E601 Decision to refuse application