KR101810023B1 - 대사 생성을 지원하는 멀티미디어 콘텐츠 제작을 위한 장치, 이를 위한 단말, 이를 위한 방법 및 이 방법이 기록된 컴퓨터로 판독 가능한 기록 매체 - Google Patents

대사 생성을 지원하는 멀티미디어 콘텐츠 제작을 위한 장치, 이를 위한 단말, 이를 위한 방법 및 이 방법이 기록된 컴퓨터로 판독 가능한 기록 매체 Download PDF

Info

Publication number
KR101810023B1
KR101810023B1 KR1020110027702A KR20110027702A KR101810023B1 KR 101810023 B1 KR101810023 B1 KR 101810023B1 KR 1020110027702 A KR1020110027702 A KR 1020110027702A KR 20110027702 A KR20110027702 A KR 20110027702A KR 101810023 B1 KR101810023 B1 KR 101810023B1
Authority
KR
South Korea
Prior art keywords
character
terminal
user
voice
metabolism
Prior art date
Application number
KR1020110027702A
Other languages
English (en)
Other versions
KR20120109893A (ko
Inventor
나승원
송혜원
김인환
Original Assignee
에스케이플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이플래닛 주식회사 filed Critical 에스케이플래닛 주식회사
Priority to KR1020110027702A priority Critical patent/KR101810023B1/ko
Publication of KR20120109893A publication Critical patent/KR20120109893A/ko
Application granted granted Critical
Publication of KR101810023B1 publication Critical patent/KR101810023B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 멀티미디어 콘텐츠의 대사 생성을 위한 시스템, 이를 위한 장치, 이를 위한 단말, 이를 위한 방법 및 이 방법이 기록된 컴퓨터로 판독 가능한 기록 매체에 관한 것으로, 이러한 본 발명은 가상의 인형인 캐릭터를 등장시키는 인형극인 멀티미디어 콘텐츠를 생성하되, 캐릭터의 움직임은 사용자에 의해 조작되며, 캐릭터의 대사는 사용자의 음성을 활용하는 멀티미디어 콘텐츠를 제작할 수 있는 시스템, 장치, 단말, 방법 및 이 방법이 기록된 기록 매체를 제공한다. 사용자는 직관적인 방법으로 인형극을 제작할 수 있으며, 이에 따라, 유아의 경우에도 쉽게 멀티미디어 콘텐츠를 제작할 수 있어 온 가족이 함께 즐길 수 있는 이점이 있다. 특히, 사용자 자신이 대사를 함으로써, 캐릭터에 이입될 수 있는 사용자 경험(UX, User Experience)를 제공한다.

Description

대사 생성을 지원하는 멀티미디어 콘텐츠 제작을 위한 장치, 이를 위한 단말, 이를 위한 방법 및 이 방법이 기록된 컴퓨터로 판독 가능한 기록 매체{An apparatus for producing multimedia content aided generating dialogue, a terminal thereof, a method thereof and a computer recordable medium storing the method}
본 발명은 멀티미디어 콘텐츠 제작 기술에 관한 것으로, 더욱 상세하게는 사용자가 직접 멀티미디어 콘텐츠를 제작할 수 있도록 하되, 사용자의 음성을 캐릭터의 대사로 생성하기 위한 시스템, 이를 위한 장치, 이를 위한 단말, 이를 위한 방법 및 이 방법이 기록된 컴퓨터로 판독 가능한 기록 매체에 관한 것이다.
일반적으로, 인터넷(internet)은 전세계 어디서나 접속하고자 하는 상대편 컴퓨터에 IP(internet Protocol)라는 공통의 프로토콜을 이용하여 자유롭게 연결할 수 있도록 구성된 개방형 네트워크로서, 기본적인 문자정보의 전달은 물론 압축기술의 발전과 더불어 멀티미디어 정보의 전달에 이용되고 있다. 이러한 인터넷을 통한 비즈니스의 일환으로 인터넷 광고, 인터넷 방송, 온라인 게임, 인터넷 신문/잡지, 검색서비스, 포탈 서비스, 전자 상거래 등의 다양한 콘텐트를 제공하는 사이트들이 급격히 증가되고 있다.
UCC(User Created Contents)란 사용자가 직접 제작한 멀티미디어 콘텐츠를 말한다. 사용자가 상업적인 의도 없이 제작한 멀티미디어 콘텐츠를 온라인상으로 나타낸 것이다. 이러한 UCC는 인터넷, 디지털 카메라, 휴대 전화 등 정보 통신 분야가 발달함에 따라 전문가 집단이 아닌 일반인들도 기존의 미디어보다 빠르고 의미 있는 정보들을 생산해 내면서 확산되었다. 이와 같이, 사용자들 자신이 자유스럽게 표현할 수 있는 저작 기술을 통해 멀티미디어 콘텐츠를 직접 제작하고자 하는 니즈(Needs)가 많아지고 있다.
따라서 상술한 바와 같은 점을 감안한 본 발명의 목적은 사용자가 캐릭터를 활용하여 멀티미디어 콘텐츠를 직접 제작할 수 있도록 그 툴(tool)을 제공하되, 사용자의 음성을 캐릭터의 대사로 활용할 수 있는 시스템, 이를 위한 장치, 이를 위한 단말, 이를 위한 방법 및 이 방법이 기록된 컴퓨터로 판독 가능한 기록 매체를 제공함에 있다.
또한, 각 캐릭터별로 변조 음성을 이용하여 변조된 음성으로 캐릭터의 대사를 생성할 수 있는 시스템, 이를 위한 장치, 이를 위한 단말, 이를 위한 방법 및 이 방법이 기록된 컴퓨터로 판독 가능한 기록 매체를 제공함에 있다.
그리고 본 발명의 다른 목적은 사용자가 캐릭터를 조작하여 멀티미디어 콘텐츠를 직접 제작할 수 있도록 하는 시스템, 이를 위한 장치, 이를 위한 단말, 이를 위한 방법 및 이 방법이 기록된 컴퓨터로 판독 가능한 기록 매체를 제공함에 있다.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 멀티미디어 콘텐츠 제작을 위한 시스템은, 사용자의 음성을 입력 받아 음성 신호를 생성하고, 사용자의 캐릭터 조작 행위를 감지하여 제어 신호를 생성하여, 생성된 음성 신호 및 제어 신호를 전송하는 단말; 및 제어 신호에 따라 캐릭터의 움직임을 생성하여 저장하고, 음성 신호를 상기 캐릭터의 대사로 저장하며, 저장된 움직임 및 대사를 포함하는 멀티미디어 콘텐츠를 생성하는 서비스 장치;를 포함한다.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 멀티미디어 콘텐츠 제작을 위한 장치는, 단말로부터 사용자의 음성을 입력 받아 생성된 음성 신호와 사용자의 캐릭터를 조작하는 행위에 따라 생성된 제어 신호를 수신하는 통신 모듈; 및 제어 신호에 따라 캐릭터를 움직임을 생성하여 저장하고, 음성 신호를 상기 캐릭터의 대사로 저장한 후, 저장된 움직임 및 대사를 포함하는 멀티미디어 콘텐츠를 생성하는 제작 모듈;을 포함한다.
제작 모듈은 음성 신호를 캐릭터에 대응하는 변조 음성으로 변조하여 캐릭터의 대사로 저장하는 것을 특징으로 한다.
움직임은 캐릭터가 무대 화면에 등장하는 것, 무대 화면으로부터 퇴장 하는 것, 무대 화면 내에서 이동하는 것, 기 설정된 캐릭터 고유의 동작인 고유 행동 중 적어도 하나를 포함하는 것을 특징으로 한다.
서비스 장치는 상기 멀티미디어 콘텐츠를 저장하는 저장 모듈; 및 멀티미디어 콘텐츠를 요청하는 단말에 전송하는 공유 모듈;을 더 포함한다.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 사용자의 음성을 입력 받아 음성 신호를 생성하는 오디오부; 사용자의 캐릭터를 조작하는 행위를 감지하여 제어 신호를 생성하는 입력부; 및 제어 신호에 따른 캐릭터의 움직임을 저장하고, 음성 신호를 상기 캐릭터의 대사로 저장하며, 저장된 움직임 및 대사를 포함하는 멀티미디어 콘텐츠를 생성하는 제어부; 및 멀티미디어 콘텐츠를 화면으로 표시하는 표시부;를 포함한다.
제어부는 음성 신호를 캐릭터에 대응하는 변조 음성으로 변조하여 캐릭터의 대사로 저장하는 것을 특징으로 한다.
움직임은 캐릭터가 무대 화면에 등장하는 것, 무대 화면으로부터 퇴장 하는 것, 무대 화면 내에서 이동하는 것 및 기 설정된 캐릭터 고유의 동작인 고유 행동 중 적어도 하나를 포함하는 것을 특징으로 한다.
단말은 단말의 움직임을 감지하는 센서부;를 더 포함하며, 제어부는 센서부가 감지한 단말의 움직임에 따라 캐릭터의 움직임을 제어하는 것을 특징으로 한다.
표시부 및 입력부는 터치스크린 형태의 하나로 장치로 형성되는 것을 특징으로 한다.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 단말의 멀티미디어 콘텐츠 제작을 위한 방법은, 사용자의 음성을 입력 받아 음성 신호를 생성하고, 사용자의 캐릭터를 조작하는 행위를 감지하여 제어 신호를 생성하는 단계; 제어 신호에 따른 캐릭터의 움직임을 저장하고, 음성 신호를 캐릭터의 대사로 저장하는 단계; 및 저장된 움직임 및 대사를 포함하는 콘텐츠를 생성하는 단계;를 포함한다.
저장하는 단계는 음성 신호를 캐릭터에 대응하는 변조 음성으로 변조하여 캐릭터의 대사로 저장하는 것을 특징으로 한다.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 단말의 멀티미디어 콘텐츠 제작을 위한 방법을 실행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체는 사용자의 음성을 입력 받아 음성 신호를 생성하고, 사용자의 캐릭터를 조작하는 행위를 감지하여 제어 신호를 생성하는 단계; 제어 신호에 따른 캐릭터의 움직임을 저장하고, 음성 신호를 상기 캐릭터의 대사로 저장하는 단계; 및 저장된 움직임 및 대사를 포함하는 콘텐츠를 생성하는 단계;를 포함하는 방법을 실행한다.
상술한 바와 같은 본 발명은 사용자가 캐릭터의 대사를 자신의 음성으로 생성할 수 있게 함으로써, 사용자가 실제 인형극과 동일한 환경에서 인형극을 제작할 수 있도록 하는 사용자 경험(UX, User Experience)을 제공할 수 있다.
또한, 각 캐릭터에 대응하는 변조 음성을 이용하여 변조된 음성으로 캐릭터의 대사를 생성할 수 있음으로, 한 명이 다수의 캐릭터의 역할을 소화할 수 도 있도록 하는 사용자 경험(UX)을 제공할 수 있다.
그리고 사용자가 직접 터치 입력을 이용하여 캐릭터의 움직임을 조작하고, 사용자의 음성을 캐릭터의 대사로 사용할 수 있어, 실제 인형극과 같이 직관적인 방법으로 멀티미디어 콘텐츠를 제작할 수 있도록 한다. 이러한 직관적인 방법을 제공함으로써, 어린이의 경우에도 쉽게 멀티미디어 콘텐츠를 제작할 수 있다. 따라서, 아이와 부모, 즉, 온 가족이 함께 즐길 수 있는 사용자 경험(UX)을 제공할 수 있다.
또한, 멀티미디어 콘텐츠를 다수의 사용자가 공유할 수 있음으로, 멀티미디어 콘텐츠를 매개로 하여 소셜 네트워크(social network)를 구성할 수 있어, 새로운 비즈니스 모델을 창출할 수 있다.
도 1은 본 발명의 실시 예에 따른 멀티미디어 콘텐츠의 제작을 위한 시스템을 설명하기 위한 도면.
도 2는 본 발명의 실시예에 따른 시스템에서 서비스 장치의 구성을 설명하기 위한 도면.
도 3은 본 발명의 실시예에 따른 시스템에서 단말의 구성을 설명하기 위한 도면.
도 4는 본 발명의 실시예에 따른 멀티미디어 콘텐츠 제작을 위한 사용자 인터페이스를 설명하기 위한 화면 예.
도 5는 본 발명의 실시예에 따른 멀티미디어 콘텐츠 제작을 위한 방법을 설명하기 위한 도면.
도 6 내지 도 8은 본 발명의 실시예에 따른 터치 입력에 의한 캐릭터의 조작 방법을 설명하기 위한 화면 예.
도 9는 본 발명의 실시예에 따른 단말의 움직임을 이용한 캐릭터의 조작 방법을 설명하기 위한 화면 예.
도 10은 본 발명의 실시예에 따른 음성을 저장하는 방법을 설명하기 위한 도면.
도 11은 본 발명의 실시예에 따른 서비스 장치의 멀티미디어 콘텐츠 제작을 위한 방법을 설명하기 위한 흐름도.
도 12는 본 발명의 실시예에 따른 서비스 장치의 멀티미디어 콘텐츠 제작을 위한 방법을 설명하기 위한 흐름도.
도 13은 본 발명의 실시예에 따른 서비스 장치의 멀티미디어 콘텐츠 제작을 위한 방법을 설명하기 위한 흐름도.
도 14는 본 발명의 실시예에 따른 서비스 장치의 멀티미디어 콘텐츠 제작을 위한 방법을 설명하기 위한 흐름도.
도 15는 본 발명의 실시예에 따른 단말의 멀티미디어 콘텐츠 제작을 위한 방법을 설명하기 위한 흐름도.
도 16은 본 발명의 실시예에 따른 단말의 멀티미디어 콘텐츠 제작을 위한 방법을 설명하기 위한 흐름도.
도 17은 본 발명의 실시예에 따른 단말의 멀티미디어 콘텐츠 제작을 위한 방법을 설명하기 위한 흐름도.
도 18은 본 발명의 실시예에 따른 단말의 멀티미디어 콘텐츠 제작을 위한 방법을 설명하기 위한 흐름도.
도 19는 본 발명의 실시예에 따른 멀티미디어 콘텐츠 공유 방법을 설명하기 위한 흐름도.
도 20은 본 발명의 실시예에 따른 멀티미디어 콘텐츠 재생 방법을 설명하기 위한 화면 예.
이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 또한, 도면 전체에 걸쳐 동일한 구성 요소들은 가능한 한 동일한 도면 부호로 나타내고 있음에 유의하여야 한다.
이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.
본 발명은 다음과 같은 점에 착안하여 제안되었다. 어린 아이들은 인형을 가지고 놀며, 그 인형의 대사를 직접 입으로 말하게 된다. 가령, 곰 인형과 토끼 인형을 가지고 노는 아이는 곰 인형의 대사와 토끼 인형의 대사를 자신이 직접 하면서, 인형 놀이를 하게 된다. 이는 인형극에서도 그대로 보여지며, 인형들이 무대에 등장하며, 무대에 등장한 인형들의 움직임을 인형극 배우들이 조작하며, 그 인형들의 대사는 인형극 배우들이 하게 된다. 이러한 본 발명은 디지털 매체를 통해 아이들의 인형 놀이나, 인형극을 사용자가 직접 제작할 수 있도록 한다.
도 1은 본 발명의 실시 예에 따른 멀티미디어 콘텐츠의 제작을 위한 시스템을 설명하기 위한 도면이다.
도 1을 참조하면, 본 발명의 실시예에 따른 시스템은 서비스 장치(100) 및 단말(200)을 포함한다. 여기서, 서비스 장치(100)는 통신망(400) 상에 위치한다. 또한, 단말(200)은 통신망(400)에 접속하여, 통신망(400)을 통해 서비스 장치(100)에 접속할 수 있다. 또한, 단말(200)은 통신망(400)에 접속을 지원하는 프로토콜에 따라 다양한 방식으로 접속할 수 있다. 예컨대, 단말(200)은 DSL(Digital Subscriber Line), 케이블 모뎀(cable modem), 이더넷(Ethernet) 등의 고정 접속(Fixed Access) 방식을 통해 통신망(400)에 접속할 수 있다. 또한, 단말(200)은 기지국을 이용하는 이동 접속(Mobile Access) 방식을 통해 통신망(400)에 접속할 수 있다. 그리고 단말(200)은 WLAN(Wireless Local Area Network), WiFi(Wireless Fidelity), WiMAX(Worldwide Interoperability for Microwave Access) 등의 무선 접속(Wireless Access) 방식을 통해 통신망(400)에 접속할 수 있다.
서비스 장치(100)는 단말(200)이 접속하여 인증을 요청하면 단말(200)을 인증한다. 이에 따라, 서비스 장치(100)는 인증된 단말(200)과 연동하여 멀티미디어 콘텐츠를 생성할 수 있다. 이때, 단말(200)은 멀티미디어 콘텐츠 생성을 위한 데이터를 서비스 장치(100)에 제공한다.
또한, 서비스 장치(100)는 단말(200)이 멀티미디어 콘텐츠를 생성할 수 있도록 하는 어플리케이션을 제공할 수 있다. 즉, 단말(200)은 통신망(400)을 통해 서비스 장치(100)에 접속하여, 서비스 장치(100)로부터 멀티미디어 콘텐츠를 제작할 수 있는 어플리케이션을 다운로드하여 단말(200) 자체에서 스탠드 얼론(Stand alone) 방식으로 멀티미디어 콘텐츠를 생성할 수 있다.
멀티미디어 콘텐츠가 생성되면, 서비스 장치(100)는 생성된 멀티미디어 콘텐츠를 저장하고, 이를 다수의 사용자간에 공유 할 수 있도록 한다. 즉, 단말(200)은 서비스 장치(100)에 접속하여 저장된 멀티미디어 콘텐츠를 다운로드할 수 있으며, 다운로드한 멀티미디어 콘텐츠를 재생할 수 있다.
본 발명의 실시예에 따른 멀티미디어 콘텐츠는 캐릭터의 움직임과, 캐릭터의 대사를 화면으로 표현하는 것이다. 예컨대, 멀티미디어 콘텐츠는 동영상으로 제작되거나, 액션스크립트와 같은 스크립트 언어로 제작될 수 도 있다.
도 2는 본 발명의 실시예에 따른 시스템에서 서비스 장치의 구성을 설명하기 위한 도면이다.
도 2를 참조하면, 서비스 장치(100)는 통신 모듈(110), 인증 모듈(120), 저장 모듈(130), 제작 모듈(140) 및 공유 모듈(150)을 포함한다.
통신 모듈(110)은 단말(200)과 통신망(400)을 통해 데이터를 송수신한다. 또한, 오디오 신호는 음향 효과 또는 배경 음악이 될 수 있다. 이러한 통신 모듈(110)은 통신망(400)의 종류 및 통신망(400)에 적용된 프로토콜에 따라서 데이터를 처리하는 기능을 더 포함할 수 있다.
인증 모듈(120)은 사용자가 등록된 사용자인지 여부를 판단하는 수단으로서, 가입 절차에 의해 사용자를 등록한다. 인증 모듈(120)은 단말(200)이 서비스 장치(100)에 접속할 때마다, 사용자 등록 시 사용자에 의해 입력된 사용자의 인증 정보를 이용하여 사용자 인증을 수행할 수 있다. 예컨대, 인증 정보는 사용자의 식별자(ID, Identification)와 이에 대응하는 패스워드(Password)를 포함할 수 있다.
저장 모듈(130)은 본 발명의 실시예에 따른 어플리케이션(application)과, 그 어플리케이션에 따라 정의되는 캐릭터, 각 캐릭터에 따른 변조 음성, 각 캐릭터에 따른 고유 행동 등을 저장할 수 있다. 또한, 저장 모듈(130)은 캐릭터의 움직임, 대사, 음향 효과, 배경 음악 등을 저장할 수 있다. 그리고, 저장 모듈(130)은 멀티미디어 콘텐츠를 저장할 수 있다. 멀티미디어 콘텐츠는 본 발명의 실시예에 따라 생성되며, 캐릭터의 움직임, 캐릭터의 대사, 음향 효과 및 배경 음악을 포함한다. 이러한 저장 모듈(130)의 저장 형태는 파일(file) 시스템에 따라 저장 될 수 도 있고, 데이터베이스(database) 시스템에 따라 저장 될 수 도 있다.
제작 모듈(140)은 통신 모듈(110)을 통해 접속된 단말(200)과 연동하여 멀티미디어 콘텐츠를 생성하거나, 단말(200)이 멀티미디어 콘텐츠를 생성하기 위한 어플리케이션을 제공할 수 있다.
클라이언트 서버(client/server) 방식으로 어플리케이션을 실행하는 경우, 제작 모듈(140)은 단말(200)과 연동하여 멀티미디어 콘텐츠를 제작할 수 있다. 즉, 멀티미디어 콘텐츠 제작을 위한 어플리케이션 중 일부는 서비스 장치(100)에서 실행되고, 나머지는 단말(200)에서 실행된다. 예컨대, 단말(200)이 사용자의 음성을 입력 받아, 음성 신호를 생성하고, 사용자의 캐릭터를 조작하는 행위를 감지하여, 제어 신호를 생성한 후, 음성 신호 및 제어 신호를 전송하면, 제작 모듈(140)은 통신 모듈(110)을 통해 단말(200)로부터 음성 신호 및 제어 신호를 수신한다. 그리고, 제작 모듈(140)은 수신된 제어 신호에 따라 캐릭터의 움직임을 생성하여, 생성된 움직임을 저장하고, 수신된 음성 신호를 캐릭터의 대사로 생성하여 저장한다. 그런 다음, 제작 모듈(140)은 저장된 움직임과 대사를 이용하여 멀티미디어 콘텐츠를 제작할 수 있다.
그리고 클라우드 컴퓨팅(cloud computing) 방식으로 어플리케이션을 실행하는 경우, 제작 모듈(140)은 멀티미디어 콘텐츠 제작을 위한 어플리케이션을 실행시킨다. 그런 다음, 제작 모듈(140)은 통신 모듈(110)을 통해 해당 어플리케이션에 대한 사용자 인터페이스만 단말(200)에 제공한다. 즉, 단말(200)은 단순한 입력 및 출력을 하는 콘솔(console) 기능만 제공하며, 모든 프로세스는 제작 모듈(140)에서 이루어진다.
제작 모듈(140)은 단말(200)이 스탠드 얼론 방식으로 멀티미디어 콘텐츠를 제작하는 경우, 저장 모듈(130)에 저장된 멀티미디어 콘텐츠 제작을 위한 어플리케이션을 단말(200)에 전송할 수 있다. 이에 따라, 단말(200)은 해당 어플리케이션을 실행시킴으로써, 스탠드 얼론 방식으로 멀티미디어 콘텐츠를 제작할 수 있다.
공유 모듈(150)은 제작된 멀티미디어 콘텐츠를 다수의 사용자간에 공유하기 위한 것이다. 이러한 공유 모듈(150)은 미리 제작된 멀티미디어 콘텐츠를 접속된 단말(200)에 리스트로 제공하며, 단말(200)이 특정 멀티미디어 콘텐츠를 요청하는 경우, 해당하는 멀티미디어 콘텐츠를 통신 모듈(110)을 통해 단말(200)에 제공할 수 있다. 이때, 공유 모듈(150)이 단말(200)에 멀티미디어 콘텐츠를 제공하는 방식은 스트리밍 방식과 다운로드 방식 중 적어도 하나를 포함한다.
상술한 바와 같은 서비스 장치(100)는 클라이언트 서버(client/server) 방식 또는 클라우드 컴퓨팅 방식으로 동작하는 적어도 하나의 서버로 구현될 수 있다. 예컨대, 통신 모듈(110), 인증 모듈(120), 저장 모듈(130), 제작 모듈(140) 및 공유 모듈(150) 각각이 독립된 서버로 구현되거나, 통신 모듈(110), 인증 모듈(120), 저장 모듈(130), 제작 모듈(140) 및 공유 모듈(150)을 포함하는 복수개의 서버로 구현될 수 있다. 뿐만 아니라, 이러한 서비스 장치(100)는 단말(200)에 대하여 본 발명에 따른 멀티미디어 콘텐츠 제작 서비스를 클라우드 컴퓨팅 방식으로 제공할 수 있다. 여기서, 클라우드 컴퓨팅이란 인터넷 기술을 활용하여 가상화된 IT 자원, 예를 들어, 하드웨어(서버, 스토리지, 네트워크 등), 소프트웨어(데이터베이스, 보안, 웹 서버 등), 서비스, 데이터 등을 온 디맨드(on demand) 방식으로 서비스하는 기술을 의미한다. 즉, 서비스 장치(100)는 본 발명의 실시예에 따른 멀티미디어 콘텐츠를 제작하기 위해 필요한 하드웨어, 소프트웨어, 서비스, 데이터 중 적어도 하나를 포함하는 컴퓨팅 자원을 단말(200)에 제공한다. 예를 들어, 서비스 장치(100)는 단말(200)에 대하여 가상의 컴퓨팅 공간을 제공하고, 컴퓨팅 공간을 통해 멀티미디어 콘텐츠를 제작할 수 있도록 서비스할 수 있다. 따라서, 서비스 장치(100)는 멀티미디어 콘텐츠 제작을 위한 어플리케이션을 저장하고, 단말(200)의 요청에 따라서 해당 어플리케이션을 단말(200)에 제공하거나, 어플리케이션을 실행하여 단말(200)에 실행 결과만 제공할 수 있다.
도 3은 본 발명의 실시예에 따른 시스템에서 단말의 구성을 설명하기 위한 도면이다.
도 3을 참조하면, 본 발명의 실시예에 따른 단말(200)은 통신부(210), 센서부(240), 입력부(250), 오디오부(260), 표시부(270), 저장부(280), 카메라부(290) 및 제어부(300)를 포함한다.
통신부(210)는 서비스 장치(100)와 통신망(400)을 통해 데이터를 송수신하기 위한 수단이다. 여기서, 데이터는 음성 신호, 오디오 신호 및 제어 신호를 포함한다. 이러한 통신 모듈(110)은 통신망(400)의 종류 및 통신망(400)에 적용된 프로토콜에 따라서 데이터를 처리하는 기능을 더 포함할 수 있다.
여기서, 통신부(210)는 무선 통신부(220) 및 유선 통신부(230) 중 적어도 하나를 포함할 수 있다. 그리고 무선 통신부(220)는 무선 망 통신부(221), 무선 랜(WLAN, Wireless Local Area Network 또는 WiFi, Wireless Fidelity 또는 WiMAX, Worldwide Interoperability for Microwave Access) 통신부(222) 및 무선 팬(WPAN, Wireless Personal Area Network) 통신부(223) 중 적어도 하나를 포함할 수 있다.
무선 통신부(220)는 무선 통신 방법에 따라 데이터를 송수신하기 위한 구성이며, 단말(200)이 무선 통신을 이용하는 경우, 무선 망 통신부(221), 무선 랜 통신부(222) 및 무선 팬 통신부(223) 중 어느 하나를 이용하여 데이터를 다른 단말(200) 또는 서비스 장치(100)에 전송하거나, 수신할 수 있다.
무선 망 통신부(221)는 기지국을 통해 통신망(400)에 접속하여 데이터를 송수신하기 위한 것이다. 무선 통신부(221)는 제어부(300)로부터 데이터를 수신하면, 기지국을 통해 통신망(400)에 접속하여 데이터를 서비스 장치(100)에 전송할 수 있다. 또한, 무선 망 통신부(221)는 기지국을 통해 통신망(400)에 접속하고, 데이터를 서비스 장치(100)로부터 수신하여, 수신된 데이터를 제어부(300)로 제공할 수 있다.
무선 랜 통신부(222)는 무선 랜(WLAN), 와이파이(WiFi) 또는 와이맥스(WiMAX) 방식에 따른 통신을 수행하기 위한 것이다. 무선 랜 통신부(222)는 제어부(300)로부터 데이터를 수신하면, 접속 포인트(AP, Access Point)를 통해 통신망(400)에 접속하여, 데이터를 서비스 장치(100)로 전송할 수 있다. 또한, 무선 랜 통신부(222)는 접속 포인트를 통해 통신망(400)에 접속하여 서비스 장치(100)로부터 데이터를 수신하면, 수신된 데이터를 제어부(300)로 제공할 수 있다.
무선 팬 통신부(223)는 무선 팬(WPAN) 방식에 따라 데이터를 송수신하기 위한 것으로, 무선 망 통신부(221) 및 무선 랜 통신부(222)에 비해 짧은 거리의 무선 통신을 수행한다. 무선 팬 통신부(223)는 단말(200)간에 직접 데이터를 주고 받을 수도 있다. 즉, 무선 팬 통신부(223)를 통해 다른 단말(200)과 직접 데이터를 송수신할 수 있다. 또한, 무선 팬 통신부(223)는 통신망(400)에 게이트웨이(Gateway)에 직접 또는 멀티 홉(multi-hop)을 통해 연결 가능한 경우, 게이트웨이를 통해 통신망(400)에 접속하여 데이터를 송수신할 수도 있다. 이러한 무선 팬 통신부(223)는 블루투스(Bluetooth), 적외선 통신(IrDA), 지그비(ZigBee) 등에 따른 통신을 예시할 수 있다.
유선 통신부(230)는 유선으로 데이터를 송수신하기 위한 것이다. 유선 통신부(230)는 특히, 유선을 통해 통신망(400)에 접속하여, 서비스 장치(100)에 데이터를 전송하거나, 수신할 수 있다. 즉, 단말(200)은 유선 통신부(230)를 이용하여 통신망(400)에 접속하며, 통신망(400)을 통해 서비스 장치(100)와 데이터를 송수신할 수 있다.
센서부(240)는 단말(200)의 움직임 등을 감지하여, 그 감지된 단말(200)의 움직임을 제어부(300)에 제공한다. 이러한 센서부(240)는 자이로 센서, 가속도 센서, 지자기 센서 등을 포함할 수 있다. 제어부(300)는 센서부(240)가 감지한 단말(200)의 움직임 등을 통해 캐릭터의 움직임을 제어할 수 있다.
입력부(250)는 사용자의 명령, 선택, 데이터, 정보 중에서 어느 하나를 입력 받기 위한 수단으로서, 숫자 또는 문자 정보를 입력 받고 다양한 기능을 설정하기 위한 다수의 입력키 및 기능키를 포함할 수 있다. 그리고 입력부(250)는 사용자의 입력을 감지하여, 감지된 입력에 따른 제어 신호를 제어부(300)로 전달한다. 여기서, 사용자의 입력은 사용자가 캐릭터를 조작하고자 하는 행위가 될 수 있으며, 이러한 행위는 터치 입력이 될 수 있다. 특히, 터치 입력은 터치스크린을 통한 입력을 의미한다. 입력부(250)는 키보드, 키패드, 마우스, 조이스틱, 터치스크린 등과 같은 입력 장치 외에도 향후 개발될 수 있는 모든 형태의 입력 수단이 사용될 수 있다. 특히, 입력부(250)가 터치스크린인 경우, 입력부(250)와 표시부(270)는 일체로 구현될 수 있다.
오디오부(260)는 음성 신호를 처리하기 위한 것으로, 마이크 및 스피커를 포함할 수 있다. 이러한 오디오부(260)는 마이크를 통해 입력되는 아날로그 형식의 음성을 디지털 형식으로 변환한 음성 신호를 제어부(300)에 전달할 수 있다. 또한, 오디오부(260)는 제어부(300)로부터 출력되는 디지털 형식의 음성 신호를 아날로그 신호인 음성으로 변환하여 스피커를 통해 출력할 수 있다. 특히, 사용자가 오디오부(260)를 통해 음성을 입력하면, 입력된 음성을 변환하여 음성 신호를 생성하고, 생성된 음성 신호를 제어부(300)에 전달한다.
표시부(270)는 단말(200)의 동작에 따른 결과 또는 정보를 화면으로 표시하기 위한 수단이다. 표시부(270)는 터치스크린(touch screen)이 될 수 있으며, 이와 같이, 터치스크린 형태로 표시부(270)가 형성된 경우, 표시부(270)는 입력부(250)와 일체로 구현될 수 있다.
저장부(280)는 데이터를 저장하기 위한 장치로, 주 기억 장치 및 보조 기억 장치를 포함한다. 저장부(280)는 기본적으로 운영 체제를 저장할 수 있으며, 어플리케이션(application)과 그 어플리케이션에 따라 정의되는 캐릭터, 각 캐릭터에 따른 변조 음성, 각 캐릭터에 따른 고유 행동 등을 저장할 수 있다. 또한, 저장부(280)는 캐릭터의 움직임 및 대사를 저장할 수 있다. 그리고 저장부(280)는 캐릭터의 움직임, 캐릭터의 대사, 음향 효과 및 배경 음악을 포함하는 멀티미디어 콘텐츠를 저장할 수 있다. 저장부(280)에 저장되는 데이터는 사용자의 조작에 따라, 삭제, 변경, 추가될 수 있다. 또한, 저장부(280)는 캐릭터의 움직임 및 대사를 저장할 수 있다.
카메라부(290)는 본 발명의 실시예에 따른 영상을 촬영하고, 촬영한 영상을 제어부(300)에 제공한다. 이를 위하여 카메라부(290)는 렌즈, 카메라 센서, 신호처리장치 및 영상처리장치를 구비할 수 있다. 카메라 센서는 렌즈를 통해 입사되는 영상을 촬영한다. 촬영된 영상은 광학적 신호이며, 카메라 센서는 촬영된 광학적 신호를 전기적 신호로 변환하는 센서이다. 여기서 카메라 센서는 CCD(charge-coupleddevice) 센서를 사용함이 바람직하다. 신호처리장치는 카메라로부터 출력되는 아날로그 비디오 신호를 디지털 비디오 신호로 변환한다. 여기서 신호처리장치는 DSP(Digital Signal Processor)로 구현함이 바람직하다. 영상처리장치는 신호처리장치에서 출력되는 비디오 신호를 표시하기 위한 화면 데이터를 발생하는 기능을 수행한다.
제어부(300)는 운영 체제 및 멀티미디어 콘텐츠 제작을 위한 어플리케이션 등을 실제로 구동시키는 프로세스 장치가 될 수 있다. 예컨대, 제어부(300)는 중앙처리장치(CPU, Central Processing Unit)가 될 수 있다. 제어부(300)는 단말(200)의 전원이 켜지면, 운영 체제(OS, Operation System)를 저장부(280)의 보조 기억 장치로부터 주 기억 장치로 이동시킨 후, 운영 체제를 구동하는 부팅(booting)을 수행한다.
제어부(300)는 클라이언트 서버 방식으로 멀티미디어 콘텐츠를 제작하는 경우, 서비스 장치(100)와 연동하여 멀티미디어 콘텐츠를 제작할 수 있다. 즉, 어플리케이션 중 일부는 서비스 장치(100)에서 실행되고, 나머지는 단말(200)에서 실행된다. 그리고 클라우드 컴퓨팅 방식으로 어플리케이션을 실행하는 경우, 서비스 장치(100)가 어플리케이션을 실행하고, 서비스 장치(100)는 단말(200)에 입력 및 출력을 위한 인터페이스만 제공한다. 따라서 제어부(300)는 이러한 입력 및 출력에 따른 신호의 흐름을 제어할 수 있다. 즉, 제어부(300)는 센서부(240), 입력부(250) 및 오디오부(260)로부터 수신되는 입력 데이터를 통신부(210)를 통해 서비스 장치(100)에 전달하며, 서비스 장치(100)로부터 수신되는 출력 데이터를 통신부(210)를 통해 수신하여, 이를 표시부(270) 또는 오디오부(260)를 통해 출력하도록 할 수 있다. 제어부(300)는 스탠드 얼론 방식으로 어플리케이션을 실행하는 경우, 어플리케이션을 실행시켜 멀티미디어 콘텐츠를 제작할 수 있다.
이하로는, 입력부(250) 및 표시부(270)는 일체로 구성된 터치스크린이라고 가정하여 설명한다. 하지만, 입력부(250) 및 표시부(270)를 터치스크린으로 한정하는 것은 아니며, 각각 분리된 구성으로 본 발명의 실시예를 충분히 반복실시 할 수 있음은 당업자에 의해 당연한 것이다.
도 4는 본 발명의 실시예에 따른 멀티미디어 콘텐츠 제작을 위한 사용자 인터페이스를 설명하기 위한 화면 예이다.
도 4에 멀티미디어 콘텐츠 제작을 위한 사용자 인터페이스인 제작 화면을 도시하였다. 제작 화면은 무대 화면(10), 제작 버튼(20), 캐릭터 선택 버튼(30) 및 오디오 버튼(40)을 포함한다.
무대 화면(10)은 미리 저장된 이미지, 사용자가 촬영한 이미지, 사용자 인터페이스를 표시하는 시점에 카메라부(290)를 통해 촬영되고 있는 영상 중 적어도 하나가 선택되어 표시될 수 있다. 또한, 무대 화면(10)은 기본(default)으로 아무런 이미지가 없는 흰색 배경이 쓰일 수 도 있다.
사용자는 제작 버튼(20)을 통해 제작 시작 및 종료를 입력할 수 있다. 제작 시작을 지시하는 제작 버튼(20)이 선택되면, 사용자 조작에 의한 캐릭터 움직임과 오디오부(260)를 통해 입력되는 음성이 시간에 흐름에 따라 연속(time continuously)으로 저장된다. 또한, 제작 종료를 지시하는 제작 버튼(20)이 선택되면, 그 저장을 멈추고, 제작 시작부터 종료까지 저장된 캐릭터 움직임을 포함하는 무대 화면(10)과 오디오부(260)를 통해 입력되는 음성을 포함하는 멀티미디어 콘텐츠인 인형극이 생성된다.
캐릭터 선택 버튼(30)은 적어도 하나의 캐릭터를 표시하며, 캐릭터는 사용자 또는 제조사에 의해 생성될 수 있다. 사용자는 이러한 캐릭터를 캐릭터 선택 버튼(30)에 등록하여 사용할 수 있으며, 캐릭터 선택 버튼(30)에 등록된 캐릭터를 이용하여 인형극을 제작할 수 있다.
사용자는 오디오 버튼(40)을 통해 음향 효과, 배경 음악 등을 선택할 수 있다. 사용자가 오디오 버튼(40)을 선택하면, 음향 효과, 배경 음악 등을 리스트로 표시하고, 사용자는 표시된 리스트에서 어느 하나의 음향 효과 또는 배경 음악을 선택할 수 있다. 이에 따라, 음향 효과 또는 배경 음악이 멀티미디어 콘텐츠에 삽입된다.
도 5는 본 발명의 실시예에 따른 멀티미디어 콘텐츠 제작을 위한 방법을 설명하기 위한 도면이다.
도 3 내지 도 5를 참조하면, 사용자는 제작 화면에 대해 터치 입력을 통해 멀티미디어 콘텐츠를 생성할 수 있다. 특히, 입력부(250)는 사용자의 캐릭터를 조작하는 행위, 즉, 터치 입력을 감지할 수 있다. 입력부(250)는 이러한 캐릭터를 조작하는 행위를 감지하면, 이에 상응하는 제어 신호를 생성한다. 이러한 제어 신호는 사용자의 캐릭터를 조작하는 행위 즉, 터치한 위치, 터치한 시간 및 터치한 궤적에 따라 달리 정의될 수 있다. 제어부(300)는 제어 신호에 따라 캐릭터의 움직임을 생성하여, 이러한 움직임을 시간에 흐름에 따라 저장부(280)에 저장할 수 있다. 또한, 제어부(300)는 제어 신호를 통신부(210)를 통해 서비스 장치(100)에 전송할 수 있다. 이에 따라, 서비스 장치(100)가 캐릭터의 움직임을 생성하여 저장할 수 있다.
사용자는 캐릭터의 대사를 자신이 직접 입력할 수 있다. 즉, 사용자의 음성을 캐릭터의 대사로 생성할 수 있다. 오디오부(260)는 사용자의 음성을 입력 받아 음성 신호를 생성한다. 음성 신호는 아날로그 신호인 사용자의 음성을 디지털로 변환한 신호이다. 오디오부(260)는 이러한 음성 신호를 제어부(300)에 제공한다. 그러면, 제어부(300)는 해당 음성 신호를 캐릭터의 대사로 생성하고, 생성된 데이터를 저장부(280)에 저장할 수 있다. 또한, 제어부(300)는 음성 신호를 통신부(210)를 통해 서비스 장치(100)에 전송할 수 있다. 이에 따라, 서비스 장치(100)가 캐릭터의 대사를 생성하여 저장할 수 있다.
또한, 사용자는 멀티미디어 콘텐츠에 삽입되는 음향 효과 또는 배경 음악을 선택할 수 있다. 즉, 사용자가 음향 효과 또는 배경 음악을 오디오 버튼(40)을 통해 선택하면, 제어부(300)는 해당 음향 효과 또는 배경 음악인 오디오 신호를 생성하고, 생성된 데이터를 저장부(280)에 저장할 수 있다. 또한, 제어부(300)는 오디오 신호를 통신부(210)를 통해 서비스 장치(100)에 전송할 수 있다. 이에 따라, 서비스 장치(100)가 음향 효과 또는 배경 음악을 저장할 수 있다.
도 6 내지 도 8은 본 발명의 실시예에 따른 터치 입력에 의한 캐릭터의 조작 방법을 설명하기 위한 화면 예이다.
도 6을 참조하면, 사용자는 터치 입력을 통해 캐릭터의 움직임을 조작할 수 있다. 이러한 움직임은 캐릭터가 무대 화면(10)에 등장하는 것, 캐릭터가 무대 화면(10)으로부터 퇴장하는 것, 캐릭터가 무대 화면(10)내에서 이동하는 것 그리고 캐릭터가 그 캐릭터의 고유 행동을 취하는 것을 포함한다.
사용자는 터치 입력을 통해 캐릭터 선택 버튼(30)에서 원하는 캐릭터를 선택하여 무대 화면(10)에 등장시킬 수 있다. 예컨대, 도면 부호 402와 같이, 사용자가 캐릭터 선택 버튼(30) 중 악마 캐릭터(12)를 선택하면, 선택된 악마 캐릭터(12)는 무대 화면(10)에 등장한다. 이때, 선택은 해당하는 선택 버튼(30)을 단순 터치하는 사용자의 동작이 될 수 있다. 또한, 사용자가 악마 캐릭터(12)를 나타내는 선택 버튼(30)을 끌어서 무대 화면(10)에 올려 놓는 동작(drag and drop)에 의해 악마 캐릭터(12)를 무대 화면(10)에 등장시킬 수 있다.
또한, 사용자는 터치 입력에 의해 무대 화면(10)의 캐릭터를 무대 화면(10) 밖으로 퇴장시킬 수 있다. 예컨대, 도면 부호 401과 같이, 공주 캐릭터(11)가 무대 화면(10)에 등장된 상태에서, 사용자의 조작에 의해 무대 화면(10)에 있는 캐릭터(11)를 무대 화면(10) 밖으로 퇴장시킬 수 있다. 이는 공주 캐릭터(11)가 무대 화면(10)에 등장된 상태에서 캐릭터 선택 버튼(30) 중 공주 캐릭터(11)를 표시하는 버튼을 선택함으로써 이루어질 수 있다. 또한, 무대 화면(10)에서 공주 캐릭터(11)를 끌어다가 무대 화면 밖에 내려 놓는 사용자의 동작(drag and drop)에 의해 공주 캐릭터(11)를 무대 화면(10) 밖으로 퇴장 시킬 수 있다.
도 7을 참조하면, 사용자는 무대 화면(10) 내에서 터치 입력에 의해 캐릭터의 움직임을 조작할 수 있다. 예컨대, 도면 부호 403과 같이, 사용자가 손가락으로 캐릭터(12)를 선택한 상태에서 이동시키면 캐릭터는 손가락에의 이동에 의해 움직일 수 있다.
도 8을 참조하면, 사용자는 마우스의 더블 클릭과 같이, 캐릭터를 두 번 연속으로 터치하는 동작에 의해 미리 설정된 캐릭터의 고유 행동을 취하도록 할 수 있다.
다음의 <표 1>은 본 발명의 실시예에 따른 캐릭터 고유의 동작을 설명하기 위한 것이다.
캐릭터 고유 행동
공주 캐릭터 손을 입에 가져간 채로 웃음
악마 캐릭터 머리 위에 먹구름이 생기고 번개가 침
.
.
.
.
.
.
<표 1>에 나타난 바와 같이, 각 캐릭터는 미리 설정된 고유 행동을 가질 수 있으며, 고유 행동은 캐릭터 특징을 나타내는 화면 효과, 캐릭터의 동작 등을 포함하며, 캐릭터의 특징을 나타내도록 설정되어 저장됨이 바람직하다. 예컨대, 공주 캐릭터는 공주 캐릭터(11)가 손을 입에 가져간 채로 웃는 고유 행동을 가질 있다. 또한, 도시된 바와 같이, 악마 캐릭터(12)는 그 악마 캐릭터 머리 위에 먹구름(701)이 생기고 번개가 치는(404) 고유 행동을 가질 수 있다. 사용자가 악마 캐릭터(12)를 두 번 연속으로 터치하는 동작에 의해 이러한 악마 캐릭터(12)의 고유 행동을 실행시킬 수 있다. 이와 같이, 사용자가 캐릭터의 고유 행동을 실행시키는 터치 입력은 두 번 연속으로 터치하는 동작으로 한정하는 것은 아니다. 예컨대, 사용자가 기 설정된 시간 이상 해당 캐릭터를 누르는 동작에 의해 캐릭터 고유 행동이 실행될 수 있다.
도 9는 본 발명의 실시예에 따른 단말의 움직임을 이용한 캐릭터의 조작 방법을 설명하기 위한 화면 예이다.
도 9를 참조하면, 사용자가 단말(200)을 움직이면, 단말(200)은 이를 감지하고, 감지된 단말(200)의 움직임에 따라 캐릭터를 움직일 수 있다. 즉, 사용자는 단말(200) 자체를 움직여서 무대 화면(10) 내에서 캐릭터의 움직임을 조작할 수 있다. 예컨대, 단말(200)을 움직이면, 단말(200)의 기울기가 변하고, 센서부(240)는 그 기울어진 정도를 감지할 수 있다. 이에 따라, 센서부(240)는 단말(200)의 움직임(기울어진 정도)을 제어부(300)에 전달한다. 그러면, 제어부(300)는 그 기울어진 정도에 따라 무대 화면(10) 내의 캐릭터를 이동시킨다.
도 10은 본 발명의 실시예에 따른 음성을 저장하는 방법을 설명하기 위한 도면이다.
도 10을 참조하면, 오디오부(260)는 사용자의 음성을 입력 받아 음성 신호를 생성하여, 제어부(300)에 제공한다. 기본적으로, 제어부(300)는 이 음성 신호를 그대로 캐릭터의 대사로 저장할 수 있다.
한편, 제어부(300)는 음성 신호를 캐릭터에 대응하는 변조 음성으로 변조하여 캐릭터의 대사로 저장할 수 있다. 이때, 제어부(300)는 특정 캐릭터에 대한 제어 신호의 입력이 있는 동안 음성 신호를 수신하면, 해당 음성 신호를 해당 캐릭터에 상응하는 변조 음성으로 변조하여 대사로 저장할 수 있다. 즉, 사용자가 특정 캐릭터에 대한 터치 입력과 함께 음성을 입력하면, 해당 음성은 음성 신호로 생성된 후, 해당 캐릭터에 상응하는 변조 음성으로 변조되어 저장된다.
다음의 <표 2>는 본 발명의 실시예에 따른 변조 음성을 설명하기 위한 것이다.
캐릭터 변조 음성
공주 캐릭터 변조 음성 1
악마 캐릭터 변조 음성 2
.
.
.
.
.
.
<표 2>와 같이, 공주 캐릭터(11)는 변조 음성 1에 매핑되며, 악마 캐릭터(12)는 변조 음성 2에 매핑되어 있다고 가정한다. 여기서, 변조 음성 1 및 2는 각 캐릭터(11, 12)의 특색에 맞는 음성인 것이 바람직하다.
도시된 바와 같이, 사용자가 공주 캐릭터(11)를 선택한 상태라고 가정한다. 여기서, 선택한 상태는 공주 캐릭터(11)를 선택한 후, 공주 캐릭터(11)를 조작하여 이동시키는 것을 포함한다. 이와 같이, 공주 캐릭터(11)를 선택한 상태에서 입력되는 음성은 해당 캐릭터에 매핑되는 변조 음성으로 변환되어 저장될 수 있다. 따라서, 인형극 생성 시, 각 캐릭터의 대사는 각 캐릭터에 매핑된 변조 음성으로 변환되어 생성될 수 있다.
도 11은 본 발명의 실시예에 따른 서비스 장치의 멀티미디어 콘텐츠 제작을 위한 방법을 설명하기 위한 흐름도이다.
도 11을 참조하면, 단말(200)은 서비스 장치(100)에 통신망(400)을 통해 접속한 후, 서비스 장치(100)와 연동하여 인형극 제작을 위한 어플리케이션을 실행시킨 상태라고 가정한다.
이때, 단말(200)이 S1111 단계에서 서비스 장치(100)에 인형극 제작을 위한 사용자 인터페이스인 제작 화면을 요청한다. 이에 따라, 서비스 장치(100)는 S1113 단계에서 앞서 도 4 내지 도 10에서 설명한 바와 같은 제작 화면을 단말(200)에 제공한다. 그러면, 단말(200)은 이러한 사용자 인터페이스인 제작 화면을 표시한다. 이와 같이, 제작 화면을 표시한 상태에서, 사용자가 단말(200)에 제작 버튼(20)을 통해 제작을 시작하도록 요청하였다고 가정한다. 그러면, 단말(200)은 S1115 단계에서 제작을 시작하도록 서비스 장치(100)에 요청한다. 이에 따라, 단말(200) 및 서비스 장치(100)는 S1117 단계에서 인형극 제작을 위한 제작을 수행한다.
S1117 단계에서 단말(200)은 사용자의 캐릭터 조작 행위를 입력 받아 제어 신호를 생성할 수 있다. 또한, 단말(200)은 사용자의 음성을 입력 받아 음성 신호를 생성할 수 있다. 그리고 단말(200)은 사용자의 선택에 의해 음향 효과 또는 배경 음악인 오디오 신호를 생성할 수 있다. 이러한 제어 신호 및 음성 신호 및 오디오 신호는 서비스 장치(100)로 전송하며, 서비스 장치(100)는 제어 신호를 통해 캐릭터의 움직임을 생성하고, 음성 신호를 통해 캐릭터의 대사를 생성한다. 이는 시간에 흐름에 따라 연속(time continuously)으로 저장한다. 또한, 서비스 장치(100)는 오디오 신호를 수신하여, 효과음 및 배경 음악을 저장한다. 이때, 단말(200)은 네트워크 상태에 따른 전송 지연을 고려하여, 제어 신호 및 음성 신호 및 오디오 신호는 동영상인 멀티미디어 콘텐츠를 생성하기 위해 타임 스탬프(time stamp)가 포함될 수 있다. 타임 스탬프는 제어 신호, 음성 신호 및 오디오 신호에 따라 생성되는 캐릭터의 움직임, 캐릭터의 대사, 음향 효과 및 배경 음악이 멀티미디어 콘텐츠의 재생 중 삽입되어야 하는 시간을 의미한다.
다음의 <표 3>은 본 발명의 실시예에 따른 타임 스탬프를 설명하기 위한 것이다.
재생 시간 01 02 03 04 05 06 07 08 09 10 11 12 13 14 15 16 17 18 19
제어 신호 X X X O O O O X X X X O O O X X X X X
음성 신호 X X X O O O O 0 X X X X X O O O X X X
오디오 신호 X X X X O O X X X X O O O O O O O O O
<표 3>을 살펴보면, 재생 시간은 S1117 단계의 제작되는 시간을 의미한다. 재생 시간은 절대 시간을 의미하며, 각 재생 시간의 간격은 설정된 바에 따라 달라 질 수 있다. 예컨대, 재생시간 01은 00:00:00[시:분:초]이며, 재생시간 02는 00:00:01[시:분:초]가 될 수 있다.
제어 신호, 음성 신호 및 오디오 신호는 사용자의 입력에 의해 생성되며, 타임 스탬프는 단말(200)이 제어 신호, 음성 신호 및 오디오 신호가 생성되는 사용자의 입력을 수신한 시간이 될 수 있다. 또는 타임 스탬프는 단말(200)이 사용자의 입력에 따라 제어 신호, 음성 신호 및 오디오 신호를 생성한 시간이 될 수도 있다.
이러한 타임 스탬프는 제어 신호, 음성 신호 및 오디오 신호에 포함되어 전송될 수 있다. 예컨대, <표 3>에 따르면, 캐릭터 조작을 위한 입력이 재생 시간 04 내지 07에서 이루어졌으며, 이에 따라, 제어 신호에는 재생 시간 04 내지 07의 타임 스탬프가 포함된다. 또한, 사용자의 음성이 재생 시간 04 내지 08에서 이루어졌으며, 이에 따라, 음성 신호에는 재생 시간 04 내지 08의 타임 스탬프가 포함된다. 그리고, 음향 효과 또는 배경 음악이 사용자의 선택에 의해 삽입된 시간은 재생 시간 05 및 06에서 이루어졌으며, 이에 따라, 오디오 신호에는 재생 시간 05 및 06의 타임 스탬프가 포함된다. 이와 같이, 타임 스탬프가 포함되어 있음으로, 서비스 장치(100)는 동시에 입력되는 제어 신호, 음성 신호 및 오디오 신호를 재생 시간에 따라 움직임, 대사, 효과음 및 배경 음악을 저장할 수 있다.
여기서, 움직임은 캐릭터가 무대 화면(10)에 등장하는 것, 캐릭터가 무대 화면(10)으로부터 퇴장하는 것, 캐릭터가 무대 화면(10)내에서 이동하는 것 그리고 캐릭터가 그 캐릭터의 고유 행동을 취하는 것을 포함한다. 또한, 대사는 각 캐릭터 별로 대응하는 변조 음성이 미리 설정되어 저장된 경우, 서비스 장치(100)는 음성 신호를 해당 캐릭터에 매핑되는 변조 음성으로 변조한 후, 대사로 저장할 수 있다.
상술한 바와 같은 제작 중 사용자가 제작 버튼(20)을 통해 제작 종료를 요청하면, 단말(200)은 S1119 단계에서 이러한 제작 종료 요청을 서비스 장치(100)에 전달한다. 이에 따라, 서비스 장치(100)는 S1121 단계에서 제작을 종료한다. 그런 다음, 서비스 장치(100)는 S1123 단계에서 저장된 캐릭터의 움직임 및 대사를 통해 멀티미디어 콘텐츠인 인형극을 생성한다. 서비스 장치(100)는 S1125 앞서 생성된 인형극을 저장 모듈(130)에 저장한다.
도 12는 본 발명의 실시예에 따른 서비스 장치의 멀티미디어 콘텐츠 제작을 위한 방법을 설명하기 위한 흐름도이다. 특히, 도 12는 도 11의 S1117 단계에서 대사를 저장하는 방법을 보다 상세하게 설명하기 위한 것이다.
도 12를 참조하면, 단말(200)은 S1201 단계에서 사용자로부터 음성을 입력 받는다. 그런 다음, 단말(200)은 입력 받은 음성을 음성 신호로 변환하고, S1203 단계에서 음성 신호를 서비스 장치(100)에 전송한다. <표 3>을 참조로 설명한 바와 같이, 음성 신호는 타임 스탬프를 포함할 수 있다.
서비스 장치(100)는 S1205 단계에서 각 캐릭터에 상응하는 변조 음성으로 음성 신호를 변조할 수 있다. 이러한 S1205 단계는 필요에 따라 선택적으로 수행할 수 있다. 서비스 장치(100)는 S1207 단계에서 앞서(S1203 단계) 수신된 음성 신호 또는 변조 음성으로 변조된 음성 신호를 대사로 저장한다.
대사를 저장한 후, 서비스 장치(100)는 S1209 단계에서 대사를 단말(200)에 전송한다. 그러면, 단말(200)은 S1211 단계에서 대사를 음성으로 출력한다. 상술한 S1209 단계 및 S1211 단계는 사용자의 입력을 그대로 단말(200)에 반영하는 것임으로, 서비스 장치(100)가 대사를 단말(200)에 전송하지 않고, 단말(200)이 입력 받은 사용자의 음성을 그대로 또는 변조하여 출력할 수도 있다.
도 13은 본 발명의 실시예에 따른 서비스 장치의 멀티미디어 콘텐츠 제작을 위한 방법을 설명하기 위한 흐름도이다. 특히, 도 13은 도 11의 S1117 단계의 캐릭터의 움직임을 저장하는 방법을 보다 상세히 설명하기 위한 것이다.
도 13을 참조하면, 단말(200)은 S1301 단계에서 사용자의 캐릭터를 조작하는 행위를 감지한다. 이에 따라, 단말(200)은 S1203 단계에서 제어 신호를 생성하고, 생성된 제어 신호를 서비스 장치(100)에 전송한다. <표 3>을 참조로 설명한 바와 같이, 제어 신호는 타임 스탬프를 포함할 수 있다.
제어 신호를 수신한 서비스 장치(100)는 S1305 단계에서 캐릭터의 움직임을 생성한다. 그리고 서비스 장치(100)는 S1307 단계에서 앞서(S1305 단계) 생성된 캐릭터의 움직임을 저장한다.
캐릭터의 움직임을 저장한 후, 서비스 장치(100)는 S1309 단계에서 캐릭터의 움직임을 단말(200)에 전송한다. 그러면, 단말(200)은 S1311 단계에서 캐릭터의 움직임을 화면에 표시한다. 상술한 S1309 단계 및 S1311 단계는 사용자의 입력을 그대로 단말(200)에 반영하는 것임으로, 서비스 장치(100)가 캐릭터의 움직임을 단말(200)에 전송하지 않고, 단말(200)이 제어 신호에 따라 캐릭터의 움직임을 생성하여 화면에 표시할 수도 있다.
도 14는 본 발명의 실시예에 따른 서비스 장치의 멀티미디어 콘텐츠 제작을 위한 방법을 설명하기 위한 흐름도이다. 특히, 도 14는 도 11의 S1117 단계의 효과음 또는 배경 음악을 저장하는 방법을 보다 상세히 설명하기 위한 것이다.
도 14를 참조하면, 단말(200)은 S1401 단계에서 사용자의 효과음 또는 배경 음악 선택을 감지한다. 이에 따라, 단말(200)은 S1403 단계에서 오디오 신호를 생성하고, 생성된 오디오 신호를 서비스 장치(100)에 전송한다. <표 3>을 참조로 설명한 바와 같이, 오디오 신호는 타임 스탬프를 포함할 수 있다.
오디오 신호를 수신한 서비스 장치(100)는 S1405 단계에서 효과음 또는 배경 음악을 저장한다. 효과음 또는 배경 음악을 저장을 저장한 후, 서비스 장치(100)는 S1407 단계에서 효과음 또는 배경 음악을 단말(200)에 전송한다. 그러면, 단말(200)은 S1409 단계에서 효과음 또는 배경 음악을 재생한다. 상술한 S1407 단계 및 S1409 단계는 사용자의 입력을 그대로 단말(200)에 반영하는 것임으로, 서비스 장치(100)가 효과음 또는 배경 음악을 단말(200)에 전송하지 않고, 단말(200)이 오디오 신호에 따라 효과음 또는 배경 음악을 재생할 수 있다.
도 15는 본 발명의 실시예에 따른 단말의 멀티미디어 콘텐츠 제작을 위한 방법을 설명하기 위한 흐름도이다.
도 15를 참조하면, 제어부(300)는 인형극 제작을 위한 어플리케이션을 실행시킨 상태라고 가정한다. 이에 따라, 제어부(300)는 S1501 단계에서 앞서 도 4 내지 도 10에서 설명한 바와 같은 사용자 인터페이스인 제작 화면을 표시부(270)를 통해 표시한다.
이러한 제작 화면을 표시한 상태에서, 사용자는 제작 버튼(20)을 통해 제작을 시작하도록 요청할 수 있다. 그러면, 제어부(300)는 S1503 단계에서 이를 감지하고, S1505 단계에서 제작을 수행한다.
S1505 단계에서 단말(200)은 사용자의 캐릭터 조작 행위를 입력 받아 제어 신호를 생성할 수 있다. 또한, 단말(200)은 사용자의 음성을 입력 받아 음성 신호를 생성할 수 있다. 그리고 단말(200)은 제어 신호를 통해 캐릭터의 움직임을 생성하고, 음성 신호를 통해 캐릭터의 대사를 생성한다. 이는 시간에 흐름에 따라 연속(time continuously)으로 저장한다. 또한, 단말(200)은 효과음 및 배경 음악을 저장한다. 단말(200)은 제어 신호 및 음성 신호 및 오디오 신호는 동영상인 멀티미디어 콘텐츠를 생성하기 위해 타임 스탬프(time stamp)가 포함될 수 있다. 타임 스탬프는 앞서 <표 3>을 참조로 하여 설명한 바와 같다. 타임 스탬프에 따라, 단말(200)은 동시에 입력되는 제어 신호, 음성 신호 및 오디오 신호를 그 재생 시간에 따라 움직임, 대사, 효과음 및 배경 음악을 저장할 수 있다. 여기서, 움직임은 캐릭터가 무대 화면(10)에 등장하는 것, 캐릭터가 무대 화면(10)으로부터 퇴장하는 것, 캐릭터가 무대 화면(10)내에서 이동하는 것 그리고 캐릭터가 그 캐릭터의 고유 행동을 취하는 것을 포함한다. 또한, 대사는 각 캐릭터 별로 대응하는 변조 음성이 미리 설정되어 저장된 경우, 서비스 장치(100)는 음성 신호를 해당 캐릭터에 매핑되는 변조 음성으로 변조한 후, 대사로 저장할 수 있다.
상술한 바와 같은 제작 중 사용자는 제작 버튼(20)을 통해 제작 종료를 요청할 수 있다. 그러면, 단말(200)은 S1507 단계에서 이를 감지하고, S1509 단계에서 제작을 종료한다. 그런 다음, 단말(200)은 S1511 단계에서 저장된 캐릭터의 움직임 및 음성을 포함하는 멀티미디어 콘텐츠인 인형극을 생성한다.
사용자는 생성된 인형극을 서비스 장치(100)에 전송할 수 있다. 이에 따라, 단말(200)은 S1513 단계에서 사용자의 업로드(upload) 요청이 있는지 감지한다. 감지 결과, 업로드 요청이 있으면, 단말(200)은 S1515 단계에서 앞서 생성된 인형극을 서비스 장치(100)에 업로드한 후, S1517 단계에서 인형극을 저장부(280)에 저장한다.
도 16은 본 발명의 실시예에 따른 단말의 멀티미디어 콘텐츠 제작을 위한 방법을 설명하기 위한 흐름도이다. 특히, 도 16은 도 15의 S1505 단계에서 대사를 저장하는 방법을 보다 상세하게 설명하기 위한 것이다.
도 16을 참조하면, 단말(200)은 S1601 단계에서 사용자로부터 음성을 입력 받는다. 그리고 단말(200)은 S1603 단계에서 입력 받은 아날로그 신호인 음성을 변환하여 디지털 신호인 음성 신호를 생성한다. <표 3>을 참조로 설명한 바와 같이, 음성 신호는 타임 스탬프를 포함할 수 있다.
그리고, 단말(200)은 S1605 단계에서 음성 신호를 변조할 것인지 판단한다. 이는 사용자의 설정에 따라 달라질 수 있다. 설정에 따라 음성 변조를 하는 경우, 단말(200)은 S1607 단계에서 음성을 변조한다.
S1609 단계에서 단말(200)은 음성 신호 또는 변조된 음성 신호를 대사로 저장한다. 대사를 저장한 후, 단말(200)은 S1611 단계에서 대사를 음성으로 재생하여 출력한다.
도 17은 본 발명의 실시예에 따른 단말의 멀티미디어 콘텐츠 제작을 위한 방법을 설명하기 위한 흐름도이다. 여기서, 도 17은 도 15의 S1505 단계에서 캐릭터의 움직임을 저장하는 방법을 보다 상세히 설명하기 위한 것이다.
도 17을 참조하면, 단말(200)은 S1701 단계에서 사용자의 캐릭터를 조작하는 행위를 감지한다. 이에 따라, 단말(200)은 S1703 단계에서 제어 신호를 생성한다. <표 3>을 참조로 설명한 바와 같이, 제어 신호는 타임 스탬프를 포함할 수 있다. 그런 다음, 단말(200)은 S1705 단계에서 제어 신호에 상응하는 캐릭터의 움직임을 생성한다. 그리고 서비스 장치(100)는 S1707 단계에서 앞서(S1705 단계) 생성된 캐릭터의 움직임을 저장한다. 그런 다음, 단말(200)은 S1709 단계에서 캐릭터의 움직임을 화면에 표시한다.
도 18은 본 발명의 실시예에 따른 단말의 멀티미디어 콘텐츠 제작을 위한 방법을 설명하기 위한 흐름도이다. 여기서, 도 18은 도 15의 S1505 단계의 효과음 또는 배경 음악을 저장하는 방법을 보다 상세히 설명하기 위한 것이다.
도 18을 참조하면, 단말(200)은 S1801 단계에서 사용자의 효과음 또는 배경 음악 선택을 감지한다. 이에 따라, 단말(200)은 S1803 단계에서 오디오 신호를 생성한다. <표 3>을 참조로 설명한 바와 같이, 오디오 신호는 타임 스탬프를 포함할 수 있다.
그런 다음, 단말(200)은 S1805 단계에서 효과음 또는 배경 음악을 저장한다. 효과음 또는 배경 음악을 저장을 저장한 후, 단말(200)은 S1807 단계에서 효과음 또는 배경 음악을 재생한다.
도 19는 본 발명의 실시예에 따른 멀티미디어 콘텐츠 공유 방법을 설명하기 위한 흐름도이며, 도 20은 본 발명의 실시예에 따른 멀티미디어 콘텐츠 재생 방법을 설명하기 위한 화면 예이다.
도 19를 참조하면, 본 발명의 실시예에 따르면, 생성된 인형극은 공유되어 회원간에 공유 될 수 있다. 여기서, 해당 서비스에 가입한 자들을 의미한다. 단말(200)은 S1901 단계에서 통신망(400)을 통해 서비스 장치(100)에 접속한 후, S1903 단계에서 인증을 수행한다. 이때, 인증은 서비스 장치(100)가 제공하는 서비스에 가입할 시에 미리 등록된 아이디 및 패스워드를 통해 이루어질 수 있다. 인증이 완료되면, 서비스 장치(100)는 S1905 단계에서 단말(200)에 인형극의 리스트를 전송하고, 단말(200)은 S1907 단계에서 이러한 인형극 리스트를 표시한다. 이러한 인형극 리스트는 섬 네일(thumb-nail) 형태로 제공되며, 미리 보기가 제공됨이 바람직하다. 사용자가 인형극 리스트에서 적어도 하나의 인형극을 선택하면, 사용자가 적어도 하나를 선택하면, 단말(200)은 S1909 단계에서 선택된 인형극을 요청한다. 이러한 요청이 유효하다면, 단말(200)은 S1911 단계에서 해당하는 인형극을 다운로드 할 수 있다. 그리고 단말(200)은 다운로드가 완료되면, S1913 단계에서 해당 인형극을 재생할 수 있다. 이와 같이, 다운로드된 인형극을 재생하는 사용자 인터페이스의 화면 예를 도 20에 도시하였다. 도시된 바와 같이, 이 사용자 인터페이스는 재생 화면(15), 프로그래스바(progress bar, 50), 복수의 버튼들(60, 70, 80, 90)을 포함한다.
재생 화면(15)은 제작된 인형극이 재생되는 화면이다. 프로그래스바(50)는 인형극의 전체 런타임(run time)에서 현재 재생되는 시간 상의 위치를 나타낸다. 또한, 되감기 버튼(60)은 인형극이 재생되는 시간상의 위치를 되감기(rewind)하기 위한 버튼이다. 재생/일시정지 버튼(70)은 인형극을 재생(play)하거나, 재생 중 일시 정지(pause)하기 위한 버튼이다. 그리고 정지 버튼(80)은 인형극 재생을 정지(stop)시키기 위한 버튼이고, 빨리 감기 버튼(90)은 인형극이 재생되는 시간 상의 위치를 빨리 감기(fast forward)하기 위한 버튼이다.
상술한 바와 같이 본 발명의 실시예에 따르면, 사용자가 캐릭터의 대사를 사용자 자신의 음성으로 생성할 수 있게 함으로써, 캐릭터에 이입되는 동질감을 제공하며, 이에 따라, 사용자에게 긍정적인 사용자 경험(UX, User Experience)을 제공할 수 있다. 또한, 음성 변조를 통해 변조된 음성으로 캐릭터의 대사를 생성할 수 있음으로, 한 명이 다수의 캐릭터의 역할을 소화할 수 도 있도록 하는 사용자 경험(UX)을 제공할 수 있다. 그리고 사용자가 직접 터치 입력을 이용하여 캐릭터의 움직임을 조작하고, 사용자의 음성을 캐릭터의 대사로 사용할 수 있음으로, 사용자가 직관적인 방법으로 멀티미디어 콘텐츠를 제작할 수 있도록 한다. 이러한 직관적인 방법은 유아의 경우에도 쉽게 멀티미디어 콘텐츠를 제작할 수 있도록 함으로써, 아이와 부모, 즉, 온 가족이 함께 즐길 수 있는 사용자 경험(UX)을 제공할 수 있다. 또한, 멀티미디어 콘텐츠를 다수의 사용자가 공유할 수 있음으로, 멀티미디어 콘텐츠를 매개로 하여 소셜 네트워크(social network)를 구성할 수 있어, 새로운 비즈니스 모델을 창출할 수 있다.
본 발명의 실시예에 따른 단말의 대사 생성 방법은 다양한 컴퓨터 수단을 통하여 판독 가능한 프로그램 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
본 명세서와 도면에는 본 발명의 바람직한 실시 예에 대하여 개시하였으나, 여기에 개시된 실시 예외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다. 또한, 본 명세서와 도면에서 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다.
본 발명은 멀티미디어 콘텐츠의 대사 생성을 위한 시스템, 이를 위한 장치, 이를 위한 단말, 이를 위한 방법 및 이 방법이 기록된 컴퓨터로 판독 가능한 기록 매체에 관한 것이며, 이러한 본 발명은 사용자가 캐릭터의 대사를 사용자 자신의 음성으로 생성할 수 있게 함으로써, 캐릭터에 이입되는 동질감을 제공하며, 이에 따라, 사용자에게 긍정적인 사용자 경험(UX, User Experience)을 제공할 수 있다. 또한, 음성 변조를 통해 변조된 음성으로 캐릭터의 대사를 생성할 수 있음으로, 한 명이 다수의 캐릭터의 역할을 소화할 수 도 있도록 하는 사용자 경험(UX)을 제공할 수 있다. 그리고 사용자가 직접 터치 입력을 이용하여 캐릭터의 움직임을 조작하고, 사용자의 음성을 캐릭터의 대사로 사용할 수 있음으로, 사용자가 직관적인 방법으로 멀티미디어 콘텐츠를 제작할 수 있도록 한다. 이러한 직관적인 방법은 유아의 경우에도 쉽게 멀티미디어 콘텐츠를 제작할 수 있도록 함으로써, 아이와 부모, 즉, 온 가족이 함께 즐길 수 있는 사용자 경험(UX)을 제공할 수 있다. 또한, 멀티미디어 콘텐츠를 다수의 사용자가 공유할 수 있음으로, 멀티미디어 콘텐츠를 매개로 하여 소셜 네트워크(social network)를 구성할 수 있어, 새로운 비즈니스 모델을 창출할 수 있다. 이는 시판 또는 영업의 가능성이 충분할 뿐만 아니라 현실적으로 명백하게 실시할 수 있는 정도이므로 산업상 이용가능성이 있다.
10: 무대 화면 15: 재생 화면 20: 제작 버튼
30: 캐릭터 선택 버튼 40: 오디오 버튼 50: 프로그래스바
60: 되감기 버튼 70: 재생/일시정지 버튼 80: 정지 버튼
90: 빨리 감기 버튼 100: 서비스 장치 110: 통신 모듈
120: 인증 모듈 130: 저장 모듈 140: 제작 모듈
150: 공유 모듈 200: 단말 210: 통신부
220: 무선 통신부 221: 무선 망 통신부 222: 무선 랜 통신부
223: 무선 팬 통신부 230: 유선 통신부 240: 센서부
250: 입력부 260: 오디오부 270: 표시부
280: 저장부 290: 카메라부 300: 제어부
400: 통신망

Claims (13)

  1. 삭제
  2. 캐릭터의 움직임 및 대사를 포함하는 멀티미디어 콘텐츠를 제작하는 서비스 장치에 있어서,
    단말로부터 사용자의 음성을 입력 받아 생성된 음성 신호와 사용자의 캐릭터를 조작하는 행위 및 사용자가 상기 단말을 기울이는 정도에 따라 생성된 제어 신호를 수신하는 통신 모듈; 및
    상기 제어 신호에 따라 캐릭터의 움직임을 생성하여 저장하고, 상기 음성 신호를 상기 캐릭터의 대사로 저장하되, 상기 음성 신호를 상기 캐릭터의 특색에 맞게 매핑된 음성으로 변조하여 상기 캐릭터의 대사로 저장하고, 상기 저장된 움직임 및 대사를 포함하는 멀티미디어 콘텐츠를 생성하는 제작 모듈;을 포함하고,
    상기 캐릭터를 조작하는 행위는 사용자의 터치 입력인 터치한 위치, 터치한 시간 및 터치한 궤적 중 적어도 하나를 포함하고, 상기 움직임은 캐릭터가 무대 화면에 등장하는 것, 무대 화면으로부터 퇴장하는 것, 무대 화면 내에서 이동하는 것, 기 설정된 캐릭터 고유의 동작인 고유 행동 중 적어도 하나를 포함하고, 상기 제어 신호 및 상기 음성 신호는 상기 캐릭터의 움직임 및 대사가 멀티미디어 콘텐츠의 재생 중 삽입되어야 하는 시간인 타임 스탬프를 포함하는 것을 특징으로 하는 멀티미디어 콘텐츠 제작을 위한 서비스 장치.
  3. 삭제
  4. 삭제
  5. [청구항 5은(는) 설정등록료 납부시 포기되었습니다.]
    제2항에 있어서, 상기 멀티미디어 콘텐츠 제작을 위한 서비스 장치는
    상기 멀티미디어 콘텐츠를 저장하는 저장 모듈; 및
    상기 멀티미디어 콘텐츠를 요청하는 단말에 전송하는 공유 모듈;을 더 포함하는 것을 특징으로 하는 멀티미디어 콘텐츠 제작을 위한 서비스 장치.
  6. 캐릭터의 움직임 및 대사를 포함하는 멀티미디어 콘텐츠를 제작하는 단말에 있어서,
    사용자의 음성을 입력 받아 음성 신호를 생성하는 오디오부;
    단말의 움직임을 감지하는 센서부;
    사용자의 캐릭터를 조작하는 행위 및 상기 센서부를 통해 사용자가 단말을 기울이는 정도를 감지하여 제어 신호를 생성하는 입력부; 및
    상기 제어 신호에 따른 캐릭터의 움직임을 저장하고, 상기 음성 신호를 상기 캐릭터의 대사로 저장하되, 상기 음성 신호를 상기 캐릭터의 특색에 맞게 매핑된 음성으로 변조하여 상기 캐릭터의 대사로 저장하고, 상기 저장된 움직임 및 대사를 포함하는 멀티미디어 콘텐츠를 생성하는 제어부; 및
    상기 멀티미디어 콘텐츠를 화면으로 표시하는 표시부;를 포함하고,
    상기 캐릭터를 조작하는 행위는 사용자의 터치 입력인 터치한 위치, 터치한 시간 및 터치한 궤적 중 적어도 하나를 포함하고, 상기 움직임은 캐릭터가 무대 화면에 등장하는 것, 무대 화면으로부터 퇴장하는 것, 무대 화면 내에서 이동하는 것, 기 설정된 캐릭터 고유의 동작인 고유 행동 중 적어도 하나를 포함하고, 상기 제어 신호 및 상기 음성 신호는 상기 캐릭터의 움직임 및 대사가 멀티미디어 콘텐츠의 재생 중 삽입되어야 하는 시간인 타임 스탬프를 포함하는 것을 특징으로 하는 멀티미디어 콘텐츠 제작을 위한 단말.
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
  11. 캐릭터의 움직임 및 대사를 포함하는 멀티미디어 콘텐츠를 제작하는 단말에 있어서, 상기 단말이
    사용자의 음성을 입력 받아 음성 신호를 생성하고, 사용자의 캐릭터를 조작하는 행위 및 사용자가 상기 단말을 기울이는 정도를 감지하여 제어 신호를 생성하는 단계;
    상기 제어 신호에 따른 캐릭터의 움직임을 저장하고, 상기 음성 신호를 상기 캐릭터의 대사로 저장하되, 상기 음성 신호를 상기 캐릭터의 특색에 맞게 매핑된 음성으로 변조하여 상기 캐릭터의 대사로 저장하는 단계; 및
    상기 저장된 움직임 및 대사를 포함하는 콘텐츠를 생성하는 단계;를 포함하고,
    상기 캐릭터를 조작하는 행위는 사용자의 터치 입력인 터치한 위치, 터치한 시간 및 터치한 궤적 중 적어도 하나를 포함하고, 상기 움직임은 캐릭터가 무대 화면에 등장하는 것, 무대 화면으로부터 퇴장하는 것, 무대 화면 내에서 이동하는 것, 기 설정된 캐릭터 고유의 동작인 고유 행동 중 적어도 하나를 포함하고, 상기 제어 신호 및 상기 음성 신호는 상기 캐릭터의 움직임 및 대사가 멀티미디어 콘텐츠의 재생 중 삽입되어야 하는 시간인 타임 스탬프를 포함하는 것을 특징으로 하는 단말의 멀티미디어 콘텐츠 제작을 위한 방법.
  12. 삭제
  13. [청구항 13은(는) 설정등록료 납부시 포기되었습니다.]
    제11항에 기재된 단말의 멀티미디어 콘텐츠 제작을 위한 방법을 실행하는 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.
KR1020110027702A 2011-03-28 2011-03-28 대사 생성을 지원하는 멀티미디어 콘텐츠 제작을 위한 장치, 이를 위한 단말, 이를 위한 방법 및 이 방법이 기록된 컴퓨터로 판독 가능한 기록 매체 KR101810023B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110027702A KR101810023B1 (ko) 2011-03-28 2011-03-28 대사 생성을 지원하는 멀티미디어 콘텐츠 제작을 위한 장치, 이를 위한 단말, 이를 위한 방법 및 이 방법이 기록된 컴퓨터로 판독 가능한 기록 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110027702A KR101810023B1 (ko) 2011-03-28 2011-03-28 대사 생성을 지원하는 멀티미디어 콘텐츠 제작을 위한 장치, 이를 위한 단말, 이를 위한 방법 및 이 방법이 기록된 컴퓨터로 판독 가능한 기록 매체

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020160140715A Division KR20160128956A (ko) 2016-10-27 2016-10-27 대사 생성을 지원하는 멀티미디어 콘텐츠 제작을 위한 시스템, 이를 위한 장치, 이를 위한 단말, 이를 위한 방법 및 이 방법이 기록된 컴퓨터로 판독 가능한 기록 매체

Publications (2)

Publication Number Publication Date
KR20120109893A KR20120109893A (ko) 2012-10-09
KR101810023B1 true KR101810023B1 (ko) 2018-01-26

Family

ID=47280942

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110027702A KR101810023B1 (ko) 2011-03-28 2011-03-28 대사 생성을 지원하는 멀티미디어 콘텐츠 제작을 위한 장치, 이를 위한 단말, 이를 위한 방법 및 이 방법이 기록된 컴퓨터로 판독 가능한 기록 매체

Country Status (1)

Country Link
KR (1) KR101810023B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101640410B1 (ko) 2014-04-09 2016-07-18 주식회사 도브투래빗 다중 디지털 교감 시스템 및 방법
KR101682626B1 (ko) * 2016-06-20 2016-12-06 (주)라온스퀘어 인터랙티브 콘텐츠 제공 시스템 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005216149A (ja) 2004-01-30 2005-08-11 Ntt Docomo Inc 携帯通信端末及びプログラム
JP2010066789A (ja) 2008-09-08 2010-03-25 Taito Corp アバター編集サーバ及びアバター編集プログラム
JP2011055483A (ja) * 2009-08-06 2011-03-17 Bond:Kk 番組画像配信システム、番組画像配信方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005216149A (ja) 2004-01-30 2005-08-11 Ntt Docomo Inc 携帯通信端末及びプログラム
JP2010066789A (ja) 2008-09-08 2010-03-25 Taito Corp アバター編集サーバ及びアバター編集プログラム
JP2011055483A (ja) * 2009-08-06 2011-03-17 Bond:Kk 番組画像配信システム、番組画像配信方法及びプログラム

Also Published As

Publication number Publication date
KR20120109893A (ko) 2012-10-09

Similar Documents

Publication Publication Date Title
JP6743241B2 (ja) 情報処理装置
WO2017148294A1 (zh) 基于移动终端的设备控制方法、装置和移动终端
CN112351302B (zh) 基于云游戏的直播交互方法、装置及存储介质
CN103357177B (zh) 使用便携式游戏装置来记录或修改在主游戏系统上实时运行的游戏或应用
CN107029429A (zh) 用于实现云游戏系统的时移辅导的系统和方法
CN114466209B (zh) 直播互动方法、装置、电子设备、存储介质和程序产品
KR20150026367A (ko) 화면 미러링을 이용한 서비스 제공 방법 및 그 장치
CN112533037B (zh) 连麦合唱作品的生成方法和显示设备
KR102099135B1 (ko) 가상현실 컨텐츠 제작 시스템 및 제작 방법
Scheible et al. MobiToss: a novel gesture based interface for creating and sharing mobile multimedia art on large public displays
TW201535358A (zh) 互動節拍特效系統及互動節拍特效處理方法
CN114205633B (zh) 直播互动方法、装置、存储介质和电子设备
JP2018011850A (ja) 動画記録装置、動画生成方法、及びプログラム
JP2018011849A (ja) 動画記録装置、動画配信方法及びプログラム
KR101596724B1 (ko) 캐릭터 커스터마이징을 지원하는 멀티미디어 콘텐츠 제작을 위한 시스템, 이를 위한 장치, 이를 위한 단말, 이를 위한 방법 및 이 방법이 기록된 컴퓨터로 판독 가능한 기록 매체
CN115701082A (zh) 共享移动数据
KR101810023B1 (ko) 대사 생성을 지원하는 멀티미디어 콘텐츠 제작을 위한 장치, 이를 위한 단말, 이를 위한 방법 및 이 방법이 기록된 컴퓨터로 판독 가능한 기록 매체
KR20190096576A (ko) 숏클립 비디오를 제작 및 공유할 수 있도록 하는 완구 sns
WO2023130715A1 (zh) 一种数据处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品
KR20160128956A (ko) 대사 생성을 지원하는 멀티미디어 콘텐츠 제작을 위한 시스템, 이를 위한 장치, 이를 위한 단말, 이를 위한 방법 및 이 방법이 기록된 컴퓨터로 판독 가능한 기록 매체
CN102654955A (zh) 一种基于手势识别的互动沙盘系统及其应用
WO2021031940A1 (zh) 放映厅业务管理方法、互动方法、显示设备及移动终端
CN112533023B (zh) 连麦合唱作品的生成方法和显示设备
US20220295135A1 (en) Video providing system and program
JP6141167B2 (ja) コンテンツ作成装置及びプログラム

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
A107 Divisional application of patent
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)