KR101686913B1 - 전자기기에서 이벤트 서비스 제공 방법 및 장치 - Google Patents

전자기기에서 이벤트 서비스 제공 방법 및 장치 Download PDF

Info

Publication number
KR101686913B1
KR101686913B1 KR1020090074748A KR20090074748A KR101686913B1 KR 101686913 B1 KR101686913 B1 KR 101686913B1 KR 1020090074748 A KR1020090074748 A KR 1020090074748A KR 20090074748 A KR20090074748 A KR 20090074748A KR 101686913 B1 KR101686913 B1 KR 101686913B1
Authority
KR
South Korea
Prior art keywords
interaction
user
electronic device
input
item
Prior art date
Application number
KR1020090074748A
Other languages
English (en)
Other versions
KR20110017188A (ko
Inventor
김진용
신동준
김희운
유승혜
나수현
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020090074748A priority Critical patent/KR101686913B1/ko
Priority to PCT/KR2010/005237 priority patent/WO2011019188A2/en
Priority to US12/855,872 priority patent/US8635545B2/en
Publication of KR20110017188A publication Critical patent/KR20110017188A/ko
Application granted granted Critical
Publication of KR101686913B1 publication Critical patent/KR101686913B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Abstract

본 발명은 다양한 이벤트 상황별 이벤트 요소를 이용하여 사용자 인터랙션을 입력받고, 상기 이벤트 요소에서 입력되는 상기 사용자 인터랙션에 따른 하나 이상의 이펙트 출력을 통해 상황별 이벤트 서비스를 제공할 수 있는 방법 및 장치에 관한 것으로, 이러한 본 발명은 전자기기에 있어서, 사용자 입력에 대응하는 이벤트 요소의 오브젝트를 출력하는 과정과; 상기 오브젝트에 대한 사용자 인터랙션을 입력받는 과정과; 상기 사용자 인터랙션에 대응하는 이펙트 오브젝트를 출력하는 과정을 포함한다.
전자기기, 인터랙션, 이벤트 요소, 이펙트, 오브젝트, 엔터테인먼트

Description

전자기기에서 이벤트 서비스 제공 방법 및 장치{APPARATUS AND METHOD FOR PROVIDING OF EVENT SERVICE IN A ELECTRONIC MACHINE}
본 발명은 전자기기에서 엔터테인먼트 기능 구현 방법 및 장치에 관한 것으로, 특히 미리 정의되는 하나 이상의 이벤트 요소에 발생하는 사용자 인터랙션별로 시각/청각/촉각 등의 이펙트를 출력하도록 함으로써, 사용자에게 상황별로 다양한 이벤트 서비스를 제공할 수 있는 방법 및 장치에 관한 것이다.
최근 들어, 전자 기술의 급속한 발전으로 인해 전자기기에서의 기능이 점차 확대되고 있으며, 이에 맞추어 보다 다양한 사용자인터페이스(UI, User Interface) 및 그를 이용한 다양한 기능들이 제공되고 있다. 또한, 전자기기에서는 다양한 기능들을 제어하기 위한 다양한 입력 방식들을 제공하고 있다. 특히, 이러한 전자기기들 중 휴대단말은 이동성을 기반으로 다양한 사용자 기능을 지원하는 단말기로서, 그 이용의 편리성과 휴대의 용이성 등으로 인하여 매우 폭넓은 분야에서 이용되고 있다.
본 발명의 목적은 다양한 사용자 인터랙션 기반의 전자기기 제어 방법 및 장치를 제공함에 있다.
본 발명의 다른 목적은 사용자 인터랙션을 기반으로 다양한 이벤트적인 요소를 구성하여 제공할 수 있는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 미리 정의된 이벤트 요소별로 입력되는 하나 이상의 인터랙션을 인식하고, 인식하는 인터랙션에 대응하는 이벤트의 이펙트를 출력할 수 있는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 전자기기가 가지는 기본적인 기능들과 정의되는 이벤트 요소들에 의한 기능 간의 연동을 통해, 사용자에게 보다 감성적이고 직관적인 사용자 인터페이스를 제공할 수 있는 방법 및 장치를 제공함에 있다.
상기와 같은 목적들을 달성하기 위한 본 발명의 실시 예에 따른 전자기기에서 이벤트 서비스 제공 방법은, 사용자 입력에 대응하는 이벤트 요소의 오브젝트를 출력하는 과정과; 상기 오브젝트에 대한 사용자 인터랙션을 입력받는 과정과; 상기 사용자 인터랙션에 대응하는 이펙트 오브젝트를 출력하는 과정을 포함한다.
상기와 같은 목적들을 달성하기 위한 본 발명의 실시 예에 따른 이벤트 서비스 제공 시스템은, 다양한 상황별 이벤트 실행을 위한 하나 이상의 이벤트 요소와; 상기 하나 이상의 이벤트 요소별로 매핑되는 오브젝트와; 상기 오브젝트에 입력 가 능한 하나 이상의 사용자 인터랙션 정보와; 상기 이벤트 요소와 상기 이벤트 요소에 대응하는 해당 사용자 인터랙션에 대응하게 매핑되는 하나 이상의 이펙트 오브젝트를 포함한다.
상기와 같은 목적들을 달성하기 위한 본 발명의 실시 예에 따른 전자기기에서 이벤트 서비스 제공 장치는, 하나 이상의 사용자 인터랙션을 입력받는 입력수단과; 상기 입력수단을 통해 입력되는 사용자 인터랙션에 따른 이펙트 오브젝트를 출력하는 출력수단을 포함한다.
상술한 바와 같이 본 발명에서 제안하는 전자기기에서 이벤트 서비스 제공 방법 및 장치에 따르면, 사용자에게 다양한 이벤트 상황에 대응하는 이벤트 서비스를 전자기기를 통해 간편하게 제공할 수 있다. 즉, 사용자는 미리 정의된 이벤트 요소들 중 해당 이벤트 상황에 대응하는 이벤트 요소 선택에 의해 이벤트 상황에 따른 오브젝트(화면 및 사운드 포함)에 의해 간편하게 이벤트 서비스를 이용할 수 있다. 또한, 사용자는 제공되는 오브젝트에 대해서 하나 이상의 사용자 인터랙션을 통해 다양한 이펙트가 반영된 오브젝트를 제공받을 수 있다. 이와 같이, 본 발명에 따르면, 사용자는 본 발명의 엔터테인먼트 기능을 통해 이벤트 상황에 따른 보다 감성적이고 직관적인 인터페이스를 이용할 수 있으며, 사용자는 현실에서 실제 이벤트를 제공받는 것과 같은 경험상의 효과를 제공할 수 있다.
또한, 본 발명에 따르면, 다양한 사용자 인터랙션(음성 인터랙션, 터치 인터랙션, 모션 인터랙션 등)을 주어진 상황에 따라 입력되도록 함으로써, 사용자 인터 랙션 입력 방법을 보다 쉽게 전달 및 사용 가능하도록 하는 효과가 있다. 즉, 전자기기 제어에 따른 사용자 편의 및 접근성을 향상시킬 수 있다. 이를 통해, 전자기기의 제약적이고 획일적인 제어 방식을 개선하고, 전자기기를 이용함에 있어서 현실감 부여 및 편의성 향상을 도모할 수 있다.
또한, 본 발명에 따르면, 전자기기에서 제공되는 기본적인 기능들(통화, 메시지, 폰북, 일정관리, 카메라 등의 기능)과 엔터테인먼트 기능 간의 연동을 통해, 사용자에게 보다 감성적이고 직관적인 서비스를 제공할 수 있다.
또한, 본 발명에 따르면, 어느 하나의 전자기기에서 정의되는 엔터테인먼트 기능을 다른 전자기기와 서로 공유함으로써, 이벤트 서비스를 다수의 사용자들과 함께 이용할 수 있다. 또한, 본 발명에 따르면, 어느 하나의 전자기기에서 이벤트 서비스 실행에 따른 사용자 인터랙션을 입력하고, 그에 대한 결과 즉, 이벤트 오브젝트를 다른 전자기기를 통해 출력할 수 있다. 이를 통해, 사용자는 생일 축하와 같은 이벤트 전달을 보다 역동적이고 직관적으로 제공할 수 있다.
이하, 첨부된 도면들을 참조하여 본 발명의 바람직한 실시 예들을 상세히 설명한다. 이때, 첨부된 도면들에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음에 유의해야 한다. 또한, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다.
제안하는 본 발명은 전자기기에서 하나 이상의 사용자 인터랙션을 이용하여 전자기기에서의 엔터테인먼트 기능을 구현할 수 있도록 하는 것에 관한 것이다. 본 발명의 실시 예에 따른 전자기기는, 사용자로부터 하나 이상의 인터랙션을 인지하는 적어도 하나의 디바이스를 포함한다. 그리고 상기 전자기기는 미리 정의된 이벤트 요소에 대응하는 오브젝트를 제공하고, 상기 오브젝트에서 발생하는 하나 이상의 인터랙션에 따라 시각, 청각 및 촉각 등의 다양한 이펙트를 피드백 하여 제공한다.
이러한 전자기기를 이용한 이벤트 서비스를 제공하기 위한 본 발명의 시스템 구성으로, 다양한 상황별 이벤트(예컨대, 생일 이벤트, 파티 이벤트, 합격 이벤트 등)에 대응하는 이벤트 서비스를 제공하기 위한 하나 이상의 이벤트 요소; 이벤트 요소에 대한 사용자 입력에 따라 상기 이벤트 요소에 대응하는 이벤트 실행을 위한 오브젝트; 상기 오브젝트에서 미리 정의된 이펙트 실행을 명령하는 하나 이상의 사용자 인터랙션에 대한 인터랙션 정보; 사용자 인터랙션에 따른 이펙트가 반영되어 출력되는 이펙트 오브젝트를 포함할 수 있다. 여기서, 상기 오브젝트는 상기 하나 이상의 이벤트 요소별로 매핑되고, 상기 이펙트 오브젝트는 상기 이벤트 요소와 상기 이벤트 요소에 대응하는 해당 사용자 인터랙션에 대응하게 매핑될 수 있다.
그리고 상기 이벤트 서비스를 제공하기 위한 본 발명의 수단으로, 하나 이상의 사용자 인터랙션을 입력받는 입력수단; 상기 입력수단을 통해 입력되는 사용자 인터랙션에 따른 이펙트 오브젝트를 출력하는 출력수단을 포함할 수 있다. 상기 입력수단은 본 발명에서 정의되는 각 사용자 인터랙션을 입력받을 수 있는 장치로, 음성입력수단, 터치입력수단, 모션입력수단 등을 포함할 수 있다. 상기 출력수단은 본 발명에 정의되는 다양한 이펙트에 대응하는 이펙트 오브젝트를 출력할 수 있는 장치로, 오디오신호 출력수단, 영상(정적 영상 및 동적 영상) 출력수단, 진동 출력수단 등을 포함할 수 있다.
또한, 상기한 시스템 및 수단에 의한 본 발명의 동작을 살펴보면, 사용자 입력에 대응하는 이벤트 요소의 오브젝트를 출력하는 과정; 상기 오브젝트에 대한 사용자 인터랙션을 입력받는 과정; 상기 사용자 인터랙션에 대응하는 이펙트 오브젝트를 출력하는 과정으로 이루어질 수 있다.
그러면 이하, 본 발명의 실시 예에 따라, 사용자 인터랙션을 이용하는 전자기기 및 상기 사용자 인터랙션을 이용하여 상기 전자기기를 제어하는 방법 및 장치에 대하여 살펴보기로 한다. 하지만, 본 발명의 전자기기 및 그의 제어 동작이 하기에서 기술하는 내용에 한정되는 것은 아니므로, 하기의 실시 예에 의거하여 다양한 실시 예들에 적용할 수 있음에 유의하여야 한다.
도 1 내지 도 3은 본 발명의 실시 예에 따른 전자기기의 예시를 개략적으로 도시한 도면들이다.
상기 도 1 내지 도 3을 참조하면, 상기 도 1은 본 발명에 이용되는 전자기기 중 하나인 휴대단말의 예시를 나타낸 것이고, 상기 도 2는 본 발명에 이용되는 전자기기 중 하나인 안내시스템의 예시를 나타낸 것이고, 상기 도 3은 본 발명에 이용되는 전자기기 중 하나인 개인용 컴퓨터에 이용되는 모니터의 예시를 나타낸 것이다.
여기서, 상기 도 1의 상기 휴대단말은 다양한 통신 시스템들에 대응되는 통신 프로토콜들(communication protocols)에 의거하여 동작하는 모든 이동통신 단말 기들(mobile communication terminals)을 비롯하여, PMP(Portable Multimedia Player)와, 디지털방송 플레이어, PDA(Personal Digital Assistant)와, 음악 재생기(예컨대, MP3 플레이어)와, 휴대게임단말 및 스마트 폰(Smart Phone) 등 모든 정보통신기기와 멀티미디어기기 및 그에 대한 응용기기를 포함할 수 있다.
또한, 상기 도 2의 상기 안내시스템은 박물관, 전시관, 놀이공원, 거리 등지에서 사용자로부터 요청되는 다양한 안내정보를 제공하는 것으로, 벽면, 기둥 및 지면 등에 고정 장착되는 스크린 모니터, 미디어폴(media pole) 등을 포함할 수 있다.
또한, 상기 도 3의 상기 모니터는 대형 전자기기의 예시를 나타낸 것으로, 이러한 대형 전자기기는 텔레비전, 모니터를 포함하는 개인용 컴퓨터, 노트북 등을 더 포함할 수 있다. 아울러, 상기한 예시들의 전자기기는 사용자 인터랙션을 위한 하나 이상의 디바이스를 포함하며, 상기 전자기기에 구비되는 상기 디바이스는 상기 전자기기의 형태에 따라 다양하게 구성될 수 있다.
상기 도 1 내지 도 3에 나타낸 바와 같이, 본 발명의 실시 예에 따른 전자기기는 사용자의 입력에 대응하는 출력을 제공하는 수단을 나타내며, 이러한 전자기기는 사용자의 휴대가 가능한 소형 기기뿐만 아니라, 특정 공간에 고정되는 중대형기기 모두를 포함한다. 따라서 이하에서는, 상기 전자기기가 휴대단말인 것을 대표적인 예시로 설명하지만, 본 발명의 전자기기는 전술한 바와 같이 다양한 형태의 모든 기기들을 포함할 수 있다.
이러한 본 발명의 실시 예에 따른 상기 전자기기는, 상기 전자기기에 구비되 는 하나 이상의 디바이스를 통해 하나 이상의 사용자 인터랙션을 감지하고, 상기 사용자 인터랙션에 따른 시각적인 요소, 청각적인 요소 및 촉각적인 요소 등의 이펙트에 의한 이벤트를 제공한다. 이를 위하여, 본 발명의 상기 전자기기는 상기 하나 이상의 사용자 인터랙션을 입력받는 하나 이상의 디바이스를 포함한다. 상기 사용자 인터랙션은 음성 인터랙션(voice interaction), 모션 인터랙션(motion interaction), 터치 인터랙션(touch interaction), 복합 인터랙션(Multimodal interaction) 등을 포함할 수 있다.
따라서 상기 전자기기는 음성 인터랙션을 위한 마이크(MIC, Microphone) 등과 같은 음성입력장치, 모션 인터랙션을 위한 모션감지센서, 터치 인터랙션을 위한 터치스크린(또는 터치패드) 등과 같은 하나 이상의 디바이스를 포함할 수 있으며, 아울러, 상기 전자기기는 상기 복합 인터랙션을 위하여 상기한 디바이스들 중 두 개 이상의 조합된 구성을 가질 수 있음을 물론이다.
본 발명의 실시 예에서는 이상에서 나타낸 바와 같은 전자기기를 이용하여, 미리 정의된 하나 이상의 이벤트 요소를 제공하고, 상기 하나 이상의 이벤트 요소에 대응하는 오브젝트를 이용하여 사용자 인터랙션별 이펙트 오브젝트를 제공하도록 한다. 또한, 본 발명의 실시 예에서는 상기 하나 이상의 이벤트 요소를 하나의 이벤트 그룹으로 구성하고, 상기 이벤트 그룹에 의해 하나 이상의 이벤트 요소에 대한 이펙트를 순차적으로 제공하도록 한다.
이하, 상기 하나 이상의 디바이스를 포함하는 전자기기에 대한 구성 예시를 하기 도 4를 참조하여 살펴보기로 한다.
도 4는 본 발명의 실시 예에 따른 전자기기의 블록 구성을 개략적으로 도시한 도면이다.
상기 도 4를 참조하면, 본 발명의 실시 예에 따른 전자기기는 오디오처리부(410)와, 입력부(420)와, 표시부(430)와, 저장부(440) 및 제어부(450) 등을 포함한다.
상기 오디오처리부(410)는 마이크(MIC) 및 스피커(SPK, Speaker)와 접속된다. 상기 오디오처리부(410)는 상기 마이크(MIC)로부터 입력되는 오디오신호(예컨대, 음성신호)를 데이터화하여 상기 제어부(450)로 출력하고, 상기 제어부(450)로부터 전달되는 다양한 오디오 성분(예컨대, 음악파일 재생 등에 따른 오디오신호 등)을 상기 스피커(SPK)를 통해 출력한다. 즉, 상기 오디오처리부(410)는 상기 마이크(MIC)로부터 입력되는 아날로그 신호를 디지털 신호로 변환하거나, 상기 제어부(450)로부터 입력되는 디지털 신호를 아날로그 신호로 변환한다. 상기 오디오처리부(410)는 상기 전자기기에서 사용자 인터랙션에 따라 발생하는 다양한 오디오 성분(예컨대, 이펙트 오브젝트에 대응하는 오디오신호 등)을 재생할 수 있다.
상기 입력부(420)는 다양한 문자 정보를 입력받고, 각종 기능들의 설정 및 상기 전자기기의 기능 제어와 관련하여 입력되는 신호를 상기 제어부(450)로 전달한다. 상기 입력부(420)는 사용자의 행위에 따른 입력 신호를 발생하고, 이를 위한 키패드(Keypad), 기능키(Function key) 및 터치패드(Touch pad) 등과 같은 입력수단을 포함할 수 있다. 아울러, 상기 입력부(420)는 상기 전자기기의 제공 형태에 따라 상기 터치패드, 터치스크린, 일반적인 키 배열의 키패드, 쿼티 방식의 키패드 및 특정 기능을 수행하도록 설정된 기능키 등과 같은 입력수단들 중 어느 하나 또는 이들의 조합으로 형성할 수 있다. 또한, 본 발명의 전자기기가 터치스크린에 의해서만 동작하는 전자기기인 경우, 상기 입력부(420)의 구성은 생략할 수 있다.
상기 표시부(430)는 상기 전자기기의 기능 수행 중에 발생하는 화면데이터를 표시하고, 사용자의 입력이벤트, 조작 및 키 조작 등의 상태 정보를 표시하고, 또한 상기 전자기기의 기능 설정정보 등을 표시한다. 즉, 상기 표시부(430)는 상기 전자기기의 상태 및 동작에 관련된 각종 화면데이터를 표시할 수 있다. 상기 표시부(430)는 상기 제어부(450)로부터 출력되는 여러 신호와 색 정보들을 시각적인 이펙트를 적용하여 표시한다. 상기 표시부(430)는 액정디스플레이(LCD, Liquid Crystal Display)나 유기전계발광소자(OLED, Organic Light Emitting Diodes)로 제공될 수 있다.
또한, 상기 표시부(430)는 본 발명의 실시 예에 따라 터치스크린(touchscreen)으로 제공될 수 있다. 상기 터치스크린은 사용자가 손가락이나 펜 등의 물체로 입력이벤트(터치, 멀티터치, 드래그, 탭, 플릭 등의 입력)를 발생하면, 그 위치를 입력받도록 하는 특수한 입력장치를 장착한 스크린을 나타낸다. 즉, 전자기기에서 키패드를 사용하지 않고 스크린(screen)에 나타난 오브젝트나 사용자 인터페이스의 특정 위치 등에 사용자의 입력이벤트가 발생하면, 그 위치를 파악하여 저장된 소프트웨어에 의해 특정 처리를 할 수 있도록 한다. 즉, 상기 터치스크린은 스크린에서 직접 입력 정보를 받을 수 있게 하는 표시장치를 나타낸다.
특히, 상기 표시부(430)는 본 발명의 실시 예에서 실행 어플리케이션에 따른 기능 제어를 위한 터치 인터랙션을 입력받을 수 있다. 상기 터치 인터랙션은 탭 인터랙션, 더블탭 인터랙션, 드래그앤드롭 인터랙션, 터치앤무브 인터랙션, 및 플릭 인터랙션 등을 포괄하는 의미일 수 있다. 상기 표시부(430)는 상기와 같은 터치 인터랙션에 따른 신호를 생성하여 상기 제어부(450)로 전달하고, 상기 제어부(450)로부터 전달되는 제어신호에 응답하여, 해당 인터랙션에 따른 이펙트의 오브젝트를 출력할 수 있다.
상기 저장부(440)는 ROM(Read Only Memory)과 RAM(Random Access Memory) 등으로 구성될 수 있다. 상기 저장부(440)는 상기 전자기기에서 생성 및 활용되는 다양한 데이터 등을 저장할 수 있다. 상기 데이터는, 상기 전자기기의 어플리케이션 실행에 따라 발생하는 데이터 및 상기 전자기기를 이용하여 생성하거나 외부(외부 전자기기 등)로부터 수신하여 저장 가능한 모든 형태의 데이터 등을 포함한다. 특히, 상기 데이터는 상기 전자기기에서 제공되는 사용자인터페이스, 엔터테인먼트 기능 실행과 관련된 이벤트 요소, 상기 이벤트 요소별로 매핑되는 오브젝트, 상기 오브젝트에서 발생 가능한 다양한 사용자 인터랙션별 이펙트 오브젝트, 상기 엔터테인먼트 기능 이용에 따른 다양한 설정정보(후술하는 편집/설정에 따른 설정정보 등), 실행 어플리케이션마다 설정된 그래픽 사용자 인터페이스(GUI, Graphical User Interface) 오브젝트, 이펙트 재생에 이용되는 각 이벤트 요소별 영상 데이터(동영상 파일, 플래시 파일, 애니메이션 파일 등), 다양한 이미지 정보 등을 포함할 수 있다. 또한, 상기 저장부(440)는 전술한 어플리케이션 실행 중에 발생하는 데이터를 일시 저장하는 하나 이상의 버퍼(buffer)를 포함할 수 있다. 또한 상기 저장부(440)는 상기 전자기기의 내부에 구성될 수 있으며, 또한 스마트카드(Smart card) 등과 같이 외부에 구성될 수 있으며, 내부/외부의 모든 저장 매체를 포함할 수 있음은 물론이다.
상기 제어부(450)는 상기 전자기기에 대한 전반적인 제어 기능을 수행하며, 상기 전자기기 내의 상기 각 블록들 간 신호 흐름을 제어한다. 상기 제어부(450)는 상기 오디오처리부(410)와, 상기 입력부(420)와, 상기 표시부(430) 및 상기 저장부(440) 등과 같은 각 블록 간의 신호 흐름을 제어한다. 이때, 상기 도 4에서는 생략하였으나, 상기 제어부(450)는 상기 전자기기가 이동통신단말인 경우 이동통신서비스를 위한 코덱(CODEC) 및 적어도 하나의 모뎀(MODEM)으로 이루어진 데이터처리부를 포함할 수도 있다. 또한, 상기와 같이 상기 전자기기가 이동통신서비스를 지원할 시, 상기 전자기기는 무선주파수(RF, Radio Frequency) 신호 처리를 위한 무선통신모듈을 포함할 수 있다.
한편, 상기 제어부(450)는 미리 정의된 이벤트 요소를 이용한 이벤트 처리를 제어한다. 상기 제어부(450)는 미리 정의된 이벤트 요소들 중 사용자 선택에 따른 이벤트 요소의 오브젝트를 상기 표시부(430)를 통해 제공한다. 그리고 상기 제어부(450)는 상기 표시부(430) 또는 상기 마이크(MIC) 등을 통해 입력되는 사용자 인터랙션을 식별하고, 상기 사용자 인터랙션에 대응하는 이펙트를 추출하여 상기 표시부(430) 및/또는 상기 스피커(SPK)를 통해 상기 이펙트에 대응하는 오브젝트(GUI, 사운드 등)의 출력을 제어한다.
이러한 본 발명의 실시 예에 따른 상기 제어부(450)의 상세 제어 동작은 후 술하는 도 5 내지 도 54를 참조한 설명 부분에서 설명하는 바와 같은 본 발명의 전반적인 동작을 제어할 수 있으며, 따라서 상기 제어부(450)의 제어 동작은 후술하는 도면들에 의해 상세히 기술된다. 또한, 상기 제어부(450)의 전술한 기능 제어는 소프트웨어(software)로 구현되어 본 발명의 동작을 처리할 수도 있다.
한편, 상기 도 4에서는 설명의 편의를 위하여 상기 전자기기의 개략적인 구성 예를 도시하였다. 하지만, 본 발명의 상기 전자기기가 반드시 상기한 구성에 한정되지는 않는다.
따라서 본 발명의 상기 전자기기가 이동통신 서비스를 지원하는 경우, 상기 제어부(450)는 상기 전자기기의 이동통신 서비스를 위한 베이스밴드(Baseband) 모듈을 구비할 수 있다. 이와 같이, 본 발명의 전자기기가 이동통신 서비스를 지원하는 경우, 상기 전자기기는 지원 가능한 이동통신 네트워크와 설정된 통신채널(communication channel)을 형성하여 음성통신(voice call), 화상통신(video telephony call) 및 데이터통신(data call) 등과 같은 통신을 수행하는 무선통신모듈을 포함할 수 있다. 아울러, 상기 오디오처리부(410)는 이동통신 서비스에 따른 음성신호 처리 기능을 더 포함할 수 있다.
또한 상기 도 4에서는 도시하지 않았으나, 본 발명의 상기 전자기기는 그 제공 형태에 따라 피사체 촬영을 통해 그에 따른 영상데이터를 획득할 수 있는 카메라모듈, 디지털 방송을 수신하여 재생할 수 있는 디지털방송수신모듈, 근거리 통신을 위한 근거리통신모듈, 인터넷 망과 통신하여 인터넷 기능을 수행하는 인터넷통신모듈, 및 사용자의 다양한 모션을 감지할 수 있는 센싱 모듈 등과 같이 상기에서 언급되지 않은 구성들을 추가적으로 더 포함할 수 있다. 이러한 구성 요소들은 디지털 기기의 컨버전스(convergence) 추세에 따라 변형이 매우 다양하여 모두 열거할 수는 없으나, 상기 언급된 구성 요소들과 동등한 수준의 구성 요소가 상기 전자기기에 추가로 더 포함되어 구성될 수 있다. 또한 본 발명의 상기 전자기기는 그 제공 형태에 따라 상기 나열한 구성에서 특정 구성들이 제외되거나 다른 구성으로 대체될 수도 있음은 물론이다. 이는 본 기술 분야의 통상의 지식을 가진 자에겐 쉽게 이해될 수 있을 것이다.
한편, 이상 및 이하에서 본 발명의 실시 예에서는, 상기 전자기기가 터치스크린을 포함하는 경우를 대표적인 예시로 하여 설명한다. 하지만, 본 발명의 전자기기 및 그의 동작이 반드시 터치스크린을 이용하는 것에 한정되는 것은 아니다. 따라서 일반적인 LCD로 구성된 표시부와 키패드 또는/ 및 터치패드의 조합에 의해 동작할 수도 있음은 물론이다. 즉, 상기 전자기기는 본 발명의 정의하는 사용자 인터랙션을 상기 키패드, 터치패드, 마이크(MIC), 및 모션센서 등에 의해 입력받고, 그에 따른 결과로서 상기 표시부를 통해 표시할 수 있다.
그러면 이하, 전술한 바와 같은 본 발명의 동작에 따라 실시되는 동작 실시 예들 및 그들의 화면 예시들에 대하여 살펴보기로 한다. 하지만, 본 발명의 실시 예들이 하기에서 기술하는 내용에 한정되는 것은 아니므로, 하기의 실시 예들에 의거하여 다양한 실시 예들에 적용할 수 있음에 유의하여야 한다.
도 5 내지 도 8은 본 발명의 실시 예에 따른 전자기기에서 하나 이상의 인터랙션에 따라 이벤트를 제공하기 위한 화면 예시를 도시한 도면들이다.
상기 도 5 내지 도 8에 도시한 바와 같이, 참조부호 510은 이벤트 실행을 위한 이벤트 요소에 해당하는 아이템(단일 이벤트 요소)을 나타내며, 참조부호 530은 상기 참조부호 510과 같은 이벤트 요소들 중 소정 개수의 이벤트 요소들이 하나의 그룹으로 미리 정의된 아이템(복합 이벤트 요소)을 나타내며, 참조부호 550은 상기 참조부호 530과 같은 복합 이벤트 요소를 사용자 임의로 생성하기 위한 그룹 박스에 해당하는 아이템을 나타낸다.
또한, 참조부호 555는 상기 그룹 박스(550) 아이템을 통해 사용자 정의에 따라 소정 개수의 이벤트 요소들이 하나의 그룹으로 설정된 경우의 아이템을 나타낸다. 즉, 상기 참조부호 550은 그룹 박스에 이전 설정 내용이 없는 경우의 형태를 나타내고, 상기 참조부호 555는 그룹 박스에 이전 설정 내용이 있는 경우의 형태를 나타낸다. 이때, 참조부호 555의 그룹 박스는 상기 참조부호 530의 복합 이벤트 요소에 대응할 수 있다. 따라서 상기 참조부호 550의 그룹 박스를 이용하여 소정 개수의 단일 이벤트 요소들이 그룹으로 설정될 시, 추후 상기 그룹 박스에 의한 단일 이벤트 요소들의 그룹을 상기 복합 이벤트 요소로도 제공할 수 있다.
상기 도 5를 참조하면, 상기 도 5는 상기 참조부호 510과 같은 단일 이벤트 요소들 중 임의의 단일 이벤트 요소에 사용자 입력이 발생할 시, 그에 따라 수행되는 동작의 예시를 나타낸 것이다. 즉, 단일 이벤트 요소에 사용자 입력이 발생할 시, 상기 사용자 입력이 발생하는 해당 단일 이벤트 요소가 실행되며, 상기 단일 이벤트 요소의 실행에 따른 오브젝트가 출력된다. 이러한 구체적인 화면 예시에 대해서는 후술하는 도면들에 의해 상세히 나타난다.
상기 도 6을 참조하면, 상기 도 6은 상기 참조부호 530과 같은 복합 이벤트 요소에 사용자 입력이 발생할 시, 그에 따라 수행되는 동작의 예시를 나타낸 것이다. 즉, 복합 이벤트 요소에 사용자 입력이 발생할 시, 상기 사용자 입력이 발생하는 해당 복합 이벤트 요소가 실행되며, 상기 복합 이벤트 요소의 실행 시 우선순위에 따른 단일 이벤트 요소에 대응하는 오브젝트가 출력된다. 즉, 상기 복합 이벤트 요소는 소정 개수의 단일 이벤트 요소들로 구성됨에 따라, 상기 복합 이벤트 요소에 의한 실행이 명령될 시, 상기 복합 이벤트 요소를 이루는 단일 이벤트 요소들 중 우선순위에 따른 어느 하나의 단일 이벤트 요소가 추적되며, 상기 추적되는 해당 단일 이벤트 요소의 오브젝트가 출력될 수 있다. 이러한 구체적인 화면 예시에 대해서는 후술하는 도면들에 의해 상세히 나타난다.
상기 도 7을 참조하면, 상기 도 7은 상기 참조부호 550과 같은 그룹 박스에 사용자 입력이 발생할 시, 그에 따라 수행되는 동작의 예시를 나타낸 것이다. 즉, 그룹 박스에 이전에 설정된 내용이 없는 경우, 상기 도 7과 같이 상기 그룹 박스를 편집(추가)할 수 있는 화면을 제공한다. 이러한 구체적인 화면 예시에 대해서는 후술하는 도면들에 의해 상세히 나타난다.
상기 도 8을 참조하면, 상기 도 8은 상기 참조부호 555와 같은 그룹 박스에 사용자 입력이 발생할 시, 그에 따라 수행되는 동작의 예시를 나타낸 것이다. 즉, 이전에 설정된 내용이 있는 그룹 박스에 사용자 입력이 발생할 시, 상기 사용자 입력이 발생하는 해당 그룹 박스가 실행되며, 상기 그룹 박스의 실행 시 우선순위에 따른 단일 이벤트 요소에 대응하는 오브젝트가 출력된다. 즉, 상기 그룹 박스에 이 전에 설정된 내용은 상기 복합 이벤트 요소와 마찬가지로, 소정 개수의 단일 이벤트 요소들로 구성될 수 있다. 따라서 상기 그룹 박스에 의한 실행이 명령될 시, 상기 그룹 박스를 이루는 단일 이벤트 요소들 중 우선순위에 따른 어느 하나의 단일 이벤트 요소가 추적되며, 상기 추적되는 해당 단일 이벤트 요소의 오브젝트가 출력될 수 있다. 이러한 구체적인 화면 예시에 대해서는 후술하는 도면들에 의해 상세히 나타난다.
이상에서와 같은 본 발명의 실시 예에 따른 상기 전자기기는, 하나의 개별적인 이벤트 요소를 가지는 단일 이벤트 요소 또는 하나 이상의 단일 이벤트 요소들로 이루어진 복합 이벤트 요소를 제공하며, 상기 단일 이벤트 요소 또는 복합 이벤트 요소에 대하여 하나 이상의 인터랙션에 따라 다양한 이펙트의 이벤트를 제공할 수 있다. 즉, 본 발명의 실시 예에 따른 전자기기는, 사용자 인터랙션을 위한 하나 이상의 디바이스를 포함하며, 상기 하나 이상의 디바이스에 의한 인터랙션에 따라 해당 이벤트 요소에 매핑된 이벤트를 제공할 수 있다.
이러한 본 발명의 이벤트 요소의 예시는 하기 <표 1>과 같이 나타낼 수 있으며, 상기 <표 1>과 같은 이벤트 요소에 입력되는 사용자 인터랙션의 예시가 하기 <표 2>에 나타나 있다. 또한, 이러한 이벤트 요소에서 사용자 인터랙션에 따라 다양하게 제공되는 이펙트에 대한 예시가 도 9 내지 도 13에 나타나 있다.
Figure 112009049502867-pat00001
상기 <표 1>에 나타낸 바와 같이, 본 발명의 실시 예에 따른 생일 아이템, 폭죽 아이템, 풍선 아이템, 촛불 아이템, 환호성 아이템, 전광판 아이템, 버블 아이템 및 그룹박스 아이템 등 다양한 이벤트 요소를 포함할 수 있다. 이때, 본 발명의 이벤트 요소는 상기 <표 1>에 나타낸 바와 같은 이벤트 요소에만 한정되는 것은 아니며, 전자기기 제조 시 또는 사용자 설정에 따라 다양한 이벤트 요소의 추가/편집이 가능함은 물론이다.
먼저, 상기 생일 아이템은 복수개의 단일 이벤트 요소들을 미리 정해진 순서대로 실행되도록 함으로써, 사용자가 간편하게 생일 축하 이벤트를 제공하는 아이템의 예시를 나타낸다. 예컨대, 상기 생일 아이템에 의한 기능 실행 시, (전광판 아이템->촛불 아이템->폭죽 아이템->환호성 아이템)의 순서에 의한 이벤트 요소 실행과 더불어, 생일축하 노래가 반복 재생되도록 할 수 있다.
상기 폭죽 아이템은 아름다운 야경을 배경화면으로 하여 화면상에서 입력되는 사용자 인터랙션의 위치에 따라 폭죽이 터지는 것과 같은 이벤트를 제공하는 아이템의 예시를 나타낸다.
상기 풍선 아이템은, 사용자 인터랙션 입력을 통해 실제 풍선을 부는 것과 같은 이벤트를 제공하는 아이템의 예시를 나타낸다. 상기 촛불 아이템은 화면상에서 실사 촛불 동영상과 같은 오브젝트가 제공되고, 사용자 인터랙션 입력을 통해 촛불이 꺼지는 이벤트를 제공하는 아이템의 예시를 나타낸다. 또한, 상기 촛불 아이템에 의해서는 촛불 이미지를 통해 사용자에게 실제 조명 효과를 주는 것과 같은 비주얼적인 이펙트를 사진 촬영 기능과 연동하여 제공할 수 있다.
상기 환호성 아이템은 박수치는 동영상 오브젝트가 제공되는 중에 입력되는 사용자 인터랙션에 맞추어 박수와 환호성 사운드가 출력되는 이벤트를 제공하는 아이템의 예시를 나타낸다.
상기 전광판 아이템은 사용자가 텍스트를 입력하지 않으면 지정된 색상을 전체화면으로 채운 이벤트를 제공하고, 텍스트가 입력된 경우 사용자 인터랙션이 발생하는 방향에 따른 슬라이딩 및/또는 물결치는 파도 효과 등의 부가적인 애니메이션이 재생되는 이벤트를 제공하는 아이템의 예시를 나타낸다.
상기 버블 아이템은 사용자 인터랙션 입력에 따라 미리 정의된 노래의 일부 구간이 재생되는 이벤트를 제공하는 아이템의 예시를 나타낸다.
상기 그룹박스 아이템은 상기 생일 아이템과 같이 다양한 이벤트 요소들을 사용자가 원하는 순서대로 연속해서 실행 가능하도록 하는 패키지 지정 기능을 제공하는 아이템을 나타내며, 상기 그룹박스 아이템에 의해 하나의 그룹이 설정될 시, 상기 그룹박스 아이템에 의해서도 상기 생일 아이템의 실행과 같은 이벤트가 제공될 수 있다.
Figure 112009049502867-pat00002
상기 <표 2>에 나타낸 바와 같이, 본 발명의 실시 예에 따른 각 아이템 즉, 이벤트 요소별로 하나 이상의 사용자 인터랙션에 의한 기능 실행이 가능하다. 이러한 각 이벤트 요소를 이용한 사용자 인터랙션별 이펙트 오브젝트의 출력 동작에 대해서는 후술하는 도면들에 의해 상세히 나타난다. 따라서 사용자 인터랙션 및 사용자 인터랙션별 출력 이펙트에 대해서 상기 <표 2>에 의한 설명은 생략하기로 한다.
그러면 이하, 상기 <표 1>에 나타낸 이벤트 요소 및 해당 이벤트 요소에 대해 상기 <표 2>에 나타낸 바와 같은 사용자 인터랙션에 따라 제공되는 이펙트에 대한 예시들에 대하여 도 9 내지 도 13을 참조하여 개략적으로 살펴보기로 한다.
도 9 내지 도 13은 본 발명의 실시 예에 따른 전자기기에서 사용자 인터랙션에 따라 이벤트 요소별 이펙트에 의한 이벤트가 제공되는 화면 예시를 도시한 도면들이다.
먼저, 상기 도 9를 참조하면, 상기 도 9는 상기 <표 1>의 이벤트 요소들 중 촛불(Candle) 아이템과 같은 단일 이벤트 요소(촛불 아이템)에 사용자 입력이 발생할 시, 상기 촛불 아이템의 실행에 따른 오브젝트가 제공되는 화면 예시를 나타낸다.
상기 도 9에 나타낸 바와 같이, 상기 촛불 아이템(910)에 사용자 입력(예컨대, 탭(Tap) 입력)이 발생하면, 상기 촛불 아이템(910)에 해당하는 오브젝트가 화면에 제공될 수 있다. 이때, 상기 오브젝트는 설정 방식에 따라 참조부호 930과 같이 점화되지 않은 형태의 오브젝트로 제공되거나, 또는 참조부호 950과 같이 점화된 형태의 오브젝트로 제공될 수 있다. 상기 도 9에서는 초기에 상기 참조부호 930과 같이 점화되지 않은 형태의 오브젝트가 제공되는 경우를 예시로 살펴보기로 한다.
따라서 사용자는 상기 참조부호 930과 같이 제공된 오브젝트에서 미리 정의된 인터랙션을 발생함으로써, 상기 참조부호 930의 오브젝트를 상기 참조부호 950의 오브젝트로 변경할 수 있다. 즉, 사용자는 꺼진 촛불의 심지에 불꽃이 점화되지 않은 오브젝트에서, 주어진 인터랙션 예컨대, 심지에 발생하는 플릭(Flick) 인터랙션을 입력할 수 있다. 그러면, 전자기기는 상기 참조부호 950에 나타낸 바와 같이 상기 플릭 인터랙션에 따라 상기 꺼진 촛불의 심지에 불꽃이 점화된 오브젝트를 제공한다. 즉, 사용자는 꺼진 촛불의 심지에 플릭하는 동작을 통해 불꽃이 점화되는 것과 같은 시각적인 이펙트의 이벤트를 제공받을 수 있게 된다. 또한, 상기 시각적인 이펙트에 의한 이벤트 제공 시 청각적인 이펙트에 의한 이벤트도 함께 제공할 수 있다.
여기서, 상기 참조부호 950의 오브젝트에서 상기 점화된 촛불의 경우 현실감을 위하여, 정적인 영상이 아닌 동적인 영상으로 제공될 수 있다. 즉, 상기 플릭 인터랙션에 따라 촛불이 점화될 시, 정적인 영상이 아닌 동영상 또는 플래시 파일에 의해 동적인 영상이 재생되어 제공될 수 있다. 이러한 촛불 아이템에 의한 사용자 인터랙션에 따른 다양한 이펙트 제공 방법에 대해서는 후술하는 도면들에 의해 상세히 나타나며, 여기서는 그의 상세한 설명은 생략하기로 한다.
다음으로, 상기 도 10을 참조하면, 상기 도 10은 상기 <표 1>의 이벤트 요소들 중 폭죽(Fireworks) 아이템과 같은 단일 이벤트 요소(폭죽 아이템)에 사용자 입력이 발생할 시, 상기 폭죽 아이템의 실행에 따른 오브젝트가 제공되는 화면 예시를 나타낸다.
상기 도 10에 나타낸 바와 같이, 상기 폭죽 아이템(1010)에 사용자 입력(예컨대, 탭 입력)이 발생하면, 상기 폭죽 아이템(1010)에 해당하는 오브젝트가 화면에 제공될 수 있다. 이때, 상기 오브젝트는 설정 방식에 따라 참조부호 1030과 같은 공백의 배경화면 오브젝트로 제공되거나, 또는 야경과 같은 특정 이미지의 배경화면 오브젝트로 제공될 수 있다. 상기 도 10에서는 상기 공백의 배경화면 오브젝트가 제공되는 경우를 예시로 살펴보기로 한다.
따라서 사용자는 상기 참조부호 1030과 같이 제공된 오브젝트에서 미리 정의된 인터랙션을 발생함으로써, 상기 참조부호 1030의 오브젝트를 참조부호 1050의 오브젝트로 변경할 수 있다. 즉, 사용자는 상기 참조부호 1030의 오브젝트에서, 주어진 인터랙션 예컨대, 임의의 영역에 발생하는 탭(Tap) 인터랙션을 입력할 수 있다. 그러면, 전자기기는 상기 참조부호 1050에 나타낸 바와 같이 상기 탭 인터랙션이 발생하는 위치에 폭죽이 터지는 것과 같은 오브젝트를 제공한다. 예컨대, 사용자는 아름다운 야경을 배경으로 하는 오브젝트 화면상의 원하는 위치에서 탭하는 동작을 통해 폭죽이 터지는 비주얼 이펙트의 이벤트를 제공받을 수 있게 된다. 이때, 설정 방식에 따라 상기 비주얼 이펙트 제공 시, 시각적인 이펙트 외에 "펑"하는 사운드와 같은 청각적인 이펙트와 전자기기에 진동이 발생하는 촉각적인 이펙트를 조합하여 제공할 수도 있음은 물론이다. 이때, 상기 참조부호 1050의 오브젝트에서 상기 폭죽이 터지는 경우, 현실감을 위하여 정적인 영상이 아닌 동적인 영상으로 제공될 수 있다. 즉, 상기 탭 인터랙션에 따라 폭죽이 터질 시, 정적인 영상이 아닌 동영상 또는 플래시 파일에 의해 동적인 영상이 재생되어 제공될 수 있다. 이러한 폭죽 아이템에 의한 사용자 인터랙션에 따른 다양한 이펙트 제공 방법에 대해서는 후술하는 도면들에 의해 상세히 나타내며, 여기서는 그의 상세한 설명은 생략하기로 한다.
다음으로, 상기 도 11을 참조하면, 상기 도 11은 상기 <표 1>의 이벤트 요소들 중 풍선(Balloon) 아이템과 같은 단일 이벤트 요소(풍선 아이템)에 사용자 입력이 발생할 시, 상기 풍선 아이템의 실행에 따른 오브젝트가 제공되는 화면 예시를 나타낸다.
상기 도 11에 나타낸 바와 같이, 상기 풍선 아이템(1110)에 사용자 입력(예컨대, 탭 입력)이 발생하면, 상기 풍선 아이템(1110)에 해당하는 오브젝트가 화면에 제공될 수 있다. 이때, 상기 도 11에서는 참조부호 1130과 같이 상기 오브젝트가 바람이 빠진 형태의 풍선 오브젝트로 제공되는 경우를 예시로 살펴보기로 한다.
따라서 사용자는 상기 참조부호 1130과 같이 제공된 오브젝트에서 미리 정의된 인터랙션을 발생함으로써, 상기 참조부호 1130의 오브젝트를 참조부호 1150의 오브젝트로 변경할 수 있다. 즉, 사용자는 상기 참조부호 1130의 오브젝트가 제공된 상태에서, 주어진 인터랙션 예컨대, 마이크(MIC)를 통해 블로우(blow) 인터랙션을 입력할 수 있다. 그러면, 전자기기는 상기 참조부호 1150에 나타낸 바와 같이 상기 블로우 인터랙션에 따라 상기 바람이 빠진 형태의 풍선에서 점차적으로 풍선 모양이 커지는 것과 같은 오브젝트를 제공한다. 예컨대, 사용자는 상기 바람이 빠진 풍성 형태의 오브젝트가 제공된 상태에서, 마이크(MIC) 등을 이용하여 "후~"하는 음성 입력 동작을 통해 풍선이 커지는 비주얼 이펙트의 이벤트를 제공받을 수 있게 된다. 즉, 사용자의 블로우 입력을 통해 실제 풍선을 부는 것과 같은 이펙트를 제공할 수 있다. 이때, 상기 참조부호 1130에서 상기 참조부호 1150의 오브젝트로 변화되는 경우, 현실감을 위하여 정적인 영상이 아닌 동적인 영상으로 제공될 수 있다. 즉, 상기 블로우 인터랙션에 따라 바람이 빠진 풍선에서 바로 풍선이 최대로 커지는 정적인 영상이 아닌, 풍선이 점차적으로 커지는 동영상 또는 플래시 파일에 의해 동적인 영상이 상기 블로우 인터랙션이 입력되는 동안 재생되어 제공될 수 있다. 이러한 풍선 아이템에 의한 사용자 인터랙션에 따른 다양한 이펙트 제공 방법에 대해서는 후술하는 도면들에 의해 상세히 나타내며, 여기서는 그의 상세한 설명은 생략하기로 한다.
다음으로, 상기 도 12를 참조하면, 상기 도 12는 상기 <표 1>의 이벤트 요소들 중 전광판(Electric sign) 아이템과 같은 단일 이벤트 요소(전광판 아이템)에 사용자 입력이 발생할 시, 상기 전광판 아이템의 실행에 따른 오브젝트가 제공되는 화면 예시를 나타낸다.
상기 도 12에 나타낸 바와 같이, 상기 전광판 아이템(1210)에 사용자 입력(예컨대, 탭 입력)이 발생하면, 상기 전광판 아이템(1210)에 해당하는 오브젝트가 화면에 제공될 수 있다. 이때, 상기 도 12에서는 참조부호 1230과 같이 상기 오브젝트가 "HAPPY"에 대응하는 텍스트 오브젝트로 제공되는 경우를 예시로 살펴보기로 한다.
따라서 사용자는 상기 참조부호 1230과 같이 제공된 오브젝트에서 미리 정의된 인터랙션을 발생함으로써, 상기 참조부호 1230의 오브젝트를 참조부호 1250의 오브젝트로 변경할 수 있다. 즉, 사용자는 상기 참조부호 1230의 오브젝트가 제공된 상태에서, 주어진 인터랙션 예컨대, 마이크(MIC)를 통해 블로우(blow) 인터랙션을 입력할 수 있다.
그러면, 전자기기는 상기 참조부호 1250에 나타낸 바와 같이 상기 블로우 인터랙션에 따라 상기 "HAPPY" 텍스트가 화면 상단으로 날려 올라가는 것과 같은 오브젝트를 제공한다. 예컨대, 사용자는 상기 "HAPPY" 텍스트가 제공된 상태에서, 마이크(MIC) 등을 이용하여 "후~"하는 음성 입력 동작을 통해 텍스트의 문자들 각각이 화면상으로 날려 올라가는 비주얼 이펙트의 이벤트를 제공받을 수 있게 된다. 이때, 상기 전자기기의 세로 화면 상태(Portrait view) 또는 가로 화면 상태(Landscape view)에 따라, 상기 블로우 인터랙션 입력 진입 방향이 가로/세로로 서로 달라질 수 있으며,
따라서 필요에 따라 각각 다른 GUI 이펙트가 제공될 수 있다. 또한, 상기 참조부호 1230에서 상기 참조부호 1250의 오브젝트로 변화되는 경우, 현실감을 위하여 정적인 영상이 아닌 동적인 영상으로 제공될 수 있다. 즉, 상기 블로우 인터랙션에 따라 텍스트의 문자 각각이 흩어져 날려 올라가는 이펙트 제공 시, 정적인 영상이 아닌 동영상 또는 플래시 파일에 의해 동적인 영상이 재생되어 제공될 수 있다. 이러한 전광판 아이템에 의한 사용자 인터랙션에 따른 다양한 이펙트 제공 방법에 대해서는 후술하는 도면들에 의해 상세히 나타나며, 여기서는 그의 상세한 설명은 생략하기로 한다.
다음으로, 상기 도 13을 참조하면, 상기 도 13은 상기 <표 1>의 이벤트 요소들 중 노래 방울(Bubble song) 아이템과 같은 단일 이벤트 요소(버블 아이템)에 사용자 입력이 발생할 시, 상기 버블 아이템의 실행에 따른 오브젝트가 제공되는 화면 예시를 나타낸다.
상기 도 13에 나타낸 바와 같이, 상기 버블 아이템(1310)에 사용자 입력(예컨대, 탭 입력)이 발생하면, 상기 버블 아이템(1310)에 해당하는 오브젝트가 화면에 제공될 수 있다. 이때, 상기 도 13에서는 참조부호 1330과 같이 상기 오브젝트가 하늘을 배경으로 하는 배경화면이 제공되는 경우를 예시로 살펴보기로 한다.
따라서 사용자 상기 참조부호 1330과 같이 제공된 오브젝트에서 미리 정의된 인터랙션을 발생함으로써, 상기 참조부호 1330의 오브젝트에서 참조부호 1350의 오브젝트로 변경할 수 있다. 즉, 사용자는 상기 참조부호 1330의 오브젝트가 제공된 상태에서, 주어진 인터랙션 예컨대, 마이크(MIC)를 통해 블로우 인터랙션을 입력할 수 있다. 그러면, 전자기기는 상기 참조부호 1350에 나타낸 바와 같이 상기 블로우 인터랙션에 따라 물방울이 제공되는 하늘 위로 올라가는 것과 같은 시각적인 오브젝트를 제공한다.
이때, 상기 전자기기는 상기 블로우 인터랙션에 따른 상기 시각적인 오브젝트를 제공할 시, 상기 블로우 인터랙션의 입력 정도(길이, 세기 등)에 따라 미리 정의된 노래의 일부(예컨대, 한 소절)를 재생하는 청각적인 오브젝트를 함께 제공할 수 있다. 이때, 상기 참조부호 1330에서 상기 참조부호 1350의 오브젝트로 변화되는 경우, 현실감을 위하여 정적인 영상이 아닌 동적인 영상으로 제공될 수 있다. 즉, 상기 블로우 인터랙션에 따라 물방울이 하늘로 올라가는 동영상 또는 플래시 파일에 의해 동적인 영상이 상기 블로우 인터랙션이 입력되는 동안 재생되어 제공될 수 있다. 이러한 버블 아이템에 의한 사용자 인터랙션에 따른 다양한 이펙트 제공 방법에 대해서는 후술하는 도면들에 의해 상세히 나타내며, 여기서는 그의 상세한 설명은 생략하기로 한다.
이상에서는 본 발명의 실시 예에 따른 아이템들 및 각 아이템들이 사용자 인터랙션에 따라 반응하여 다양한 이벤트를 제공하는 개략적인 동작에 대하여 설명하였다. 다음으로, 이하에서는 전술한 바와 같은 본 발명의 엔터테인먼트 기능 실행에 따른 제어 동작에 대하여 살펴보기로 한다. 하지만, 본 발명의 제어 동작이 하기에서 기술하는 내용에 한정되는 것은 아니므로, 하기의 실시 예에 의거하여 다양한 실시 예들에 적용될 수 있음에 유의하여야 한다.
도 14는 본 발명의 실시 예에 따른 전자기기에서 이벤트 요소에 의한 이벤트 실행 시 사용자 인터랙션별 이펙트를 제공하는 제어 방법을 도시한 도면이다.
상기 도 14를 참조하면, 먼저 전자기기는 특정 모드를 수행할 수 있다(1401단계). 여기서, 상기 특정 모드는 임의의 어플리케이션 실행에 따라 수행하는 모드이거나, 또는 대기 모드 수행 또는 본 발명의 엔터테인먼트 기능을 위한 엔터테인먼트 모드 등의 상태일 수 있다. 상기 도 14에서는 상기 특정 모드가 엔터테인먼트 모드 상태임을 가정하기로 한다.
따라서 사용자는 상기 엔터테인먼트 모드에서 특정 아이템의 선택에 의해 이벤트 실행을 요청할 수 있다(1403단계). 그러면, 전자기기는 상기 이벤트에 대응하는 오브젝트를 출력할 수 있다(1405단계). 예를 들면, 사용자는 전술한 도 9 내지 도 13의 예시에 나타낸 바와 같이, 특정 아이템에 대하여 사용자 입력을 발생할 수 있다. 그러면, 상기 전자기기는 상기 사용자 입력이 발생되는 상기 특정 아이템에 대응하는 오브젝트를 출력할 수 있다.
다음으로, 상기 전자기기는 상기 오브젝트 출력 후 사용자 인터랙션 입력을 대기할 수 있으며, 이때, 사용자 인터랙션이 발생하면(1407단계), 상기 전자기기는 상기 입력되는 사용자 인터랙션을 분석한다(1409단계). 즉, 상기 사용자 인터랙션은 음성 인터랙션(예컨대, 블로우 인터랙션), 터치 인터랙션(예컨대, 탭 인터랙션, 플릭 인터랙션), 모션 인터랙션 등 다양한 인터랙션을 포함하며, 상기 사용자 인터랙션에 대한 예시가 전술한 도 9 내지 도 13의 예시에 개시되어 있다.
다음으로, 상기 전자기기는 상기 분석하는 인터랙션에 대응하는 이펙트를 추출한다(1411단계). 예를 들면, 상기 전자기기는 상기 음성 인터랙션에 따른 이펙트, 또는 터치 인터랙션에 따른 이펙트 등을 추출할 수 있다. 이어서, 상기 전자기기는 상기 추출하는 이펙트에 대응하는 오브젝트를 출력한다(1421단계). 예를 들면, 상기 전자기기는 상기 이펙트를 시각적인 이펙트, 청각적인 이펙트, 촉각적인 이펙트 또는 이들이 조합된 2개 이상의 이펙트들이 반영된 오브젝트를 출력할 수 있다.
도 15는 본 발명의 실시 예에 따른 전자기기에서 사용자 인터랙션에 따라 전자기기를 제어하는 전체 동작을 개략적으로 도시한 도면이다.
상기 도 15를 참조하면, 먼저 전자기기는 사용자 요청에 따른 이벤트 실행을 감지할 시(1510단계), 상기 이벤트 실행에 요청되는 해당 이벤트 요소에 대응하는 오브젝트를 출력한다(1520단계). 사용자는 상기 오브젝트에 대하여 미리 정의된 사용자 인터랙션 중 특정 사용자 인터랙션을 입력할 수 있다.
그러면, 상기 전자기기는 상기 특정 사용자 인터랙션의 발생을 감지하면(1530단계), 상기 특정 사용자 인터랙션을 분석할 수 있다(1540단계). 예를 들어, 상기 전자기기는 상기 특정 사용자 인터랙션이 음성 인터랙션인지, 터치 인터랙션인지, 모션 인터랙션인지, 또는 복합 인터랙션인지 여부를 식별할 수 있다.
먼저, 상기 전자기기가 상기 특정 인터랙션이 상기 오브젝트에 대한 음성 인터랙션(예컨대, 블로우 인터랙션)인 것으로 인지하면(1551단계), 상기 전자기기는 상기 오브젝트(또는 이벤트 요소)와 상기 음성 인터랙션에 매핑된 이펙트를 추출할 수 있다(1553단계). 그리고 상기 전자기기는 상기 추출하는 이펙트에 의한 이펙트 오브젝트 출력을 통해 이벤트를 제공한다(1555단계).
다음으로, 상기 전자기기가 상기 특정 인터랙션이 상기 오브젝트에 대한 터치 인터랙션(예컨대, 탭 인터랙션)인 것으로 인지하면(1561단계), 상기 전자기기는 상기 오브젝트(또는 이벤트 요소)와 상기 터치 인터랙션에 매핑된 이펙트를 추출할 수 있다(1563단계). 그리고 상기 전자기기는 상기 추출하는 이펙트에 의한 이펙트 오브젝트 출력을 통해 이벤트를 제공한다(1565단계).
다음으로, 상기 전자기기가 상기 특정 인터랙션이 상기 오브젝트에 대한 모션 인터랙션(예컨대, 방향전환 인터랙션)인 것으로 인지하면(1571단계), 상기 전자기기는 상기 오브젝트(또는 이벤트 요소)와 상기 모션 인터랙션에 매핑된 이펙트를 추출할 수 있다(1573단계). 그리고 상기 전자기기는 상기 추출하는 이펙트에 의한 이펙트 오브젝트 출력을 통해 이벤트를 제공한다(1675단계).
다음으로, 상기 전자기기가 상기 특정 인터랙션이 상기 오브젝트에 대한 복합 인터랙션(예컨대, 블로우 인터랙션 및 탭 인터랙션이 함께 입력된 경우)인 것으로 인지하면(1581단계), 상기 전자기기는 상기 복합 인터랙션에 따른 각각의 개별 인터랙션(예컨대, 블로우 인터랙션 및 탭 인터랙션)을 구분하고, 상기 오브젝트(도는 이벤트 요소)와 상기 복합 인터랙션에 따른 각 개별 인터랙션들에 매핑된 각각의 이펙트를 추출할 수 있다(1583단계). 그리고 상기 전자기기는 상기 추출하는 각각의 이펙트에 의한 이펙트 오브젝트 출력을 통해 이벤트를 제공한다(1585단계).
한편, 상기 전자기기는 상기와 같이 사용자 인터랙션별 이펙트를 처리하는 중에, 해당 인터랙션의 변화를 감지할 수 있다(1590단계). 즉, 상기 전자기기는 사용자 인터랙션이 중단된 후 재입력되거나, 또는 상기 오브젝트에 대해 이전 인터랙션과 다른 인터랙션이 입력되거나, 또는 복합 이벤트 요소에 의해 상기 이벤트 요소에 의한 이펙트가 완료되고 다른 이벤트 요소에 대한 오브젝트가 제공되는 경우 등을 감지할 수 있다. 이러한 경우, 상기 전자기기는 상기 1540단계로 진행하여 전술한 과정을 수행할 수 있다.
도 16은 본 발명의 실시 예에 따른 전자기기에서 이벤트 요소의 타입에 따른 처리 동작을 도시한 도면이다.
상기 도 16을 참조하면, 먼저 전자기기는 특정 이벤트 요소에 대한 사용자 입력을 감지하면(1601단계), 상기 사용자 입력이 발생하는 해당 이벤트 요소가 단일 이벤트 요소인지 또는 복합 이벤트 요소인지 여부를 판별한다(1603단계).
상기 1603단계의 판별결과, 상기 이벤트 요소가 단일 이벤트 요소이면(1603단계의 YES), 상기 전자기기는 상기 단일 이벤트 요소에 대응하는 오브젝트를 출력한다(1605단계). 이후, 상기 전자기기는 전술한 도 5 내지 도 14를 참조한 설명 부분에서 설명한 바와 같이 상기 오브젝트에 대해 입력되는 사용자 인터랙션에 따른 이펙트 오브젝트를 출력할 수 있다(1607단계).
상기 1603단계의 판별결과, 상기 이벤트 요소가 복합 이벤트 요소이면(1603단계의 NO), 상기 전자기기는 상기 복합 이벤트 요소를 구성하는 하나 이상의 단일 이벤트 요소를 분석한다(1609단계). 이때, 상기 분석은 상기 복합 이벤트 요소를 구성하는 하나 이상의 단일 이벤트 요소의 타입 및 각 단일 이벤트 요소들이 배열된 순서 즉, 우선순위에 따른 순서를 분석할 수 있다.
다음으로, 상기 전자기기는 상기 분석에 의하여 우선순위가 높은 첫 번째(n=1) 단일 이벤트 요소에 대응하는 오브젝트를 출력한다(1611단계). 이후, 상기 전자기기는 전술한 도 5 내지 도 14를 참조한 설명 부분에서 설명한 바와 같이 상기 오브젝트에 대해 입력되는 사용자 인터랙션에 따른 이펙트 오브젝트를 출력할 수 있다(1613단계). 상기 복합 이벤트 요소에 대해서는 상기 복합 이벤트 요소를 구성하는 모든 단일 이벤트 요소들에 대해, 우선순위별로 상기 1611단계 및 1613단계를 수행할 수 있다.
즉, 상기 전자기기는 상기 단일 이벤트 요소에 대한 이펙트 처리 후, 상기 복합 이벤트 요소를 구성하는 다음 단일 이벤트 요소가 존재하는지 여부를 체크한다(1615단계). 만약, 상기 다음 단일 이벤트 요소가 존재하지 않으면, 상기 전자기기는 전술한 동작을 종료할 수 있다. 반면, 상기 다음 단일 이벤트 요소가 존재하면, 상기 전자기기는 두 번째(n=2) 우선순위를 가지는 단일 이벤트 요소를 식별하고(1617단계), 상기 1611단계에서와 같이 상기 두 번째 단일 이벤트 요소에 대응하는 오브젝트를 출력하고, 전술한 과정을 수행할 수 있다. 상기 전자기기는 상기 복합 이벤트 요소를 구성하는 모든 단일 이벤트 요소들에 대해 상기의 과정을 반복할 수 있다.
이상에서는 본 발명의 실시 예에 따른 전자기기에서 하나 이상의 이벤트 요소로 구성되는 단일 이벤트 요소 또는 복합 이벤트 요소에, 하나 이상의 인터랙션에 따라 다양한 이펙트의 이벤트를 제공하는 동작 실시 예들 및 그들의 화면 예시들에 대하여 살펴보았다. 다음으로 이하에서는, 전술한 바와 같은 본 발명의 구체적인 동작에 대응하는 화면 예시들에 대하여 살펴보기로 한다. 하지만, 본 발명의 동작이 하기에서 기술하는 내용에 한정되는 것은 아니므로, 하기의 실시 예에 의거하여 다양한 실시 예들에 적용할 수 있음에 유의하여야 한다.
도 17은 본 발명의 실시 예에 따른 전자기기에서 그룹 박스 아이템을 구성하는 화면 예시를 도시한 도면이다.
상기 도 17을 참조하면, 참조부호 1710 및 참조부호 1730은 하나 이상의 이벤트 요소를 포함하는 엔터테인먼트 모드가 실행된 화면 예시를 나타낸다. 특히, 상기 참조부호 1710은 이전에 설정된 내용이 없는 경우, 그룹박스 아이템(1715)에 의한 새로운 그룹을 설정하는 동작의 시작 화면을 나타내고, 참조부호 1730은 이전에 설정된 내용이 있는 경우, 그룹박스 아이템(1735)에 이전에 설정된 내용을 편집하는 동작의 시작 화면을 나타낼 수 있다.
또한, 상기 도 17의 참조부호 1715는 하나 이상의 단일 이벤트 요소를 그룹으로 설정할 수 있는 즉, 이전에 설정된 내용이 없는 그룹박스 아이템의 예시를 나타내고, 참조부호 1725는 현재 메뉴에서 이전 메뉴로 돌아가기 위한 리턴 아이템을 나타내고, 참조부호 1745는 그룹박스 아이템에 의한 단일 이벤트 요소를 그룹으로 설정하거나, 또는 이전에 설정된 내용의 편집을 위한 그룹박스설정 아이템을 나타내고, 참조부호 1735는 하나 이상의 단일 이벤트 요소에 의해 그룹이 설정된 즉, 이전에 설정된 내용이 있는 그룹박스 아이템의 예시를 나타낸다.
상기 도 17에 나타낸 바와 같이, 상기 참조부호 1710과 같은 상태에서 사용자는 상기 그룹박스 아이템(1715)에 탭(Tap) 입력 등의 사용자 입력을 통해, 적어도 하나의 단일 이벤트 요소를 이용한 그룹 설정이 가능하다. 즉, 이전에 설정된 내용이 없는 상기 그룹박스 아이템(1715)에 사용자 입력이 발생할 시, 상기 전자기기는 참조부호 1750에 나타낸 바와 같이 그룹박스 편집화면을 제공할 수 있다. 이때, 상기 참조부호 1750의 그룹박스 편집화면 및 그의 동작에 대해서는 후술하는 도 18을 통해 상세히 살펴보기로 한다.
그리고 사용자는 상기 참조부호 1750의 그룹박스 편집화면에서 소정의 설정 절차를 걸쳐 그룹박스의 설정을 완료할 수 있다. 이러한 경우, 참조부호 1770에 나타낸 바와 같이, 상기 참조부호 1710의 그룹박스 아이템(1715)이 참조부호 1775와 같은 형태로 변경되어 제공됨을 알 수 있다. 즉, 상기 참조부호 1775는 하나 이상의 단일 이벤트 요소에 의해 그룹이 설정된 즉, 설정된 내용이 있는 그룹박스 아이템을 나타낼 수 있다.
다음으로, 상기 참조부호 1730과 같은 상태에서 사용자는 상기 그룹박스 아이템(1735)에 설정된 단일 이벤트 요소의 편집을 위하여, 상기 그룹박스설정 아이템(1745)에 탭(Tap) 입력 등과 같은 사용자 입력을 발생할 수 있다.
그러면, 상기 전자기기는 상기 참조부호 1750에 나타낸 바와 같이 그룹박스 편집화면을 제공할 수 있다. 그리고 사용자는 상기 참조부호 1750의 그룹박스 편집화면에서 소정의 편집 절차를 걸쳐 그룹박스의 편집을 완료할 수 있다. 이러한 경우, 참조부호 1770에 나타낸 바와 같이, 하나 이상의 단일 이벤트 요소에 의해 그룹 내용이 변경된 그룹박스 아이템을 제공할 수 있다.
이와 같이, 적어도 하나의 단일 이벤트 요소가 하나의 그룹에 포함되어 상기 그룹박스 아이템으로 설정될 시, 상기 그룹박스 아이템은 복합 이벤트 요소에 대응하는 이펙트 처리 과정을 가질 수 있다.
도 18은 본 발명의 실시 예에 따른 전자기기에서 그룹박스 아이템을 설정/편집하는 동작 예시를 도시한 도면이다. 즉, 상기 도 18은 상기 도 17의 참조부호 1750에 대한 상세 화면 구성의 예시를 나타낼 수 있다.
상기 도 17 및 도 18을 참조하면, 상기 도 17의 참조부호 1710 또는 참조부호 1730에서와 같이 그룹박스의 편집/설정이 요청되면, 상기 전자기기는 참조부호 1810과 같은 그룹박스 편집화면을 제공할 수 있다. 상기 참조부호 1810에서 참조부호 1805는 그룹박스에 의해 하나의 그룹으로 설정될 수 있는 이벤트 요소들 특히, 단일 이벤트 요소들을 나타내며, 참조부호 1815는 상기 그룹박스의 슬롯(slot)을 나타내는 것으로 상기 이벤트 요소들 중 사용자 선택에 따른 이벤트 요소가 위치할 수 있다. 즉, 상기 그룹박스의 슬롯에 이벤트 요소가 위치할 시, 상기 슬롯에 위치되는 적어도 하나의 이벤트 요소의 하나의 그룹으로 설정하게 된다.
한편, 상기 도 18에서는 상기 그룹박스의 슬롯을 6개로 나타내었으나, 본 발명이 이에 한정되는 것은 아니며, 상기 그룹박스의 슬롯은 다양한 개수로 설정될 수 있다. 그리고 사용자는 희망하는 이벤트 요소가 상기 그룹박스의 슬롯에 위치하는 순서에 따라, 이벤트 처리 순서를 결정할 수 있다.
또한, 상기 그룹박스의 슬롯의 개수가 상기 6개보다 많이 구성되는 경우, 설정된 개수만큼은 하나의 화면에 표시되도록 하거나, 또는 상기 6개의 슬롯은 고정하고, 스크롤에 의해 다음 줄의 슬롯 또는 다음 칸의 슬롯이 표시되도록 할 수 있다. 이때, 상기 하나의 화면에 표시되도록 하는 경우, 화면 비율에 대응하여 상기 6개의 슬롯의 크기보다 축소되어 제공될 수 있다. 또한 화면상에 표시되지 않는 다음 줄의 슬롯 또는 다음 칸의 슬롯으로의 이동은 좌우 플릭 입력, 또는 상하 플릭 입력에 의해 스크롤을 제어할 수 있다.
다음으로, 상기 참조부호 1810 내지 참조부호 1830에 나타낸 바와 같이, 사용자는 희망하는 이벤트 요소들을 개별적으로 선택하여 임의의 슬롯에 위치시킬 수 있다. 상기 참조부호 1810 내지 참조부호 1830에서는 촛불 아이템이 첫 번째 슬롯에, 풍선 아이템이 두 번째 슬롯에, 폭죽 아이템이 세 번째 슬롯에 위치되는 경우를 예시로 나타낸다. 이러한 경우, 이벤트 처리는 상기 촛불 아이템, 풍선 아이템, 폭죽 아이템 순으로 처리된다. 즉, 슬롯에 위치하는 이벤트 요소의 순서에 대응하여 이벤트 처리가 이루어질 수 있다.
이때, 상기 참조부호 1810 내지 참조부호 1830에 나타낸 바와 같이, 이벤트 요소가 제공되는 영역(이벤트 요소 영역)에 존재하던 이벤트 요소가 슬롯으로 이동될 시, 해당 이벤트 요소는 상기 이벤트 요소 영역에서 사라지는 비주얼 이펙트를 제공한다. 이는 사용자로 하여금 이벤트 요소가 중복하여 설정되지 않도록 하기 위함이다.
또한, 사용자는 상기 참조부호 1830 및 참조부호 1840에 나타낸 바와 같이, 특정 슬롯에 위치한 이벤트 요소들 간의 순서를 변경시킬 수 있다. 상기 참조부호 1830 및 참조부호 1840에서는 상기 촛불 아이템의 이동에 대응하여, 나머지 다른 이벤트 요소(풍선 아이템, 폭죽 아이템)가 좌측 방향으로 쉬프트되는 형태를 나타내었다. 하지만, 이러한 순서 변경은 설정 방식에 따라 서로 자리바꿈과 같은 형태로 제공될 수도 있다. 예를 들어, 상기 촛불 아이템이 상기 폭죽 아이템 위치의 슬롯이 이동될 시, 상기 풍선 아이템은 두 번째 슬롯에 고정되어 있는 상태에서, 상기 폭죽 아이템이 첫 번째 슬롯에 위치하게 되고, 상기 촛불 아이템이 세 번째 슬롯에 위치 즉, 서로 자리바꿈되는 형태로 순서의 변경도 가능하다.
또한, 사용자는 상기 참조부호 1830 및 참조부호 1850에 나타낸 바와 같이, 특정 슬롯에 위치한 이벤트 요소를 해당 슬롯에서 제거할 수도 있다. 상기 참조부호 1840 및 참조부호 1850에서는 상기 폭죽 아이템에 대한 사용자 이동에 대응하여, 상기 폭죽 아이템이 두 번째 슬롯에서 제거되어 해당 슬롯으로 이동하기 전의 위치 즉, 이벤트 요소들이 최초 위치하는 영역으로 이동될 수 있다.
그리고 상기 폭죽 아이템이 제거된 두 번째 슬롯에는, 상기 세 번째 슬롯에 위치하던 폭죽 아이템이 좌측 방향으로 쉬프트되어 위치할 수 있다. 이때, 빈 슬롯에 대한 쉬프트 과정은 설정 방식에 따라 빈 영역을 그대로 유지할 수도 있음은 물론이다.
상기한 참조부호 1810 내지 참조부호 1850의 과정을 통해 나머지 슬롯들에 대해서도 중첩되지 않는 다른 이벤트 요소들에 의하여 채워질 수 있다. 이때, 상기한 6개의 슬롯 모두에 이벤트 요소를 위치할 필요는 없으며, 사용자의 필요에 따라 다양한 구성의 조합으로 설정될 수 있다.
한편, 상기 도 18에서 이벤트 요소의 슬롯으로의 이동(슬롯에 삽입하는 동작), 슬롯들 간의 이벤트 요소의 이동(순서를 변경하는 동작), 슬롯의 이벤트 요소를 외부로 이동(슬롯의 이벤트 요소를 제거하는 동작) 등의 명령은 상기 도 18에 도시한 바와 같이, 드래그&드롭(Drag*Drop) 입력에 의해 이루어질 수 있다. 또는, 기능키 및 방향키 등의 조합에 의한 조작도 가능함은 물론이다.
이후, 사용자는 상기한 참조부호 1810 내지 참조부호 1850의 과정을 통해 소정 개수의 이벤트 요소들에 의한 그룹 설정이 완료될 시, 메뉴 조작 등을 통해 상기한 절차를 완료할 수 있다. 이러한 경우, 상기 도 17의 참조부호 1770에 나타낸 바와 같은 화면으로 전환될 수 있다.
한편, 상기와 같이 그룹박스에 의해 하나 이상의 이벤트 요소가 하나의 그룹으로 설정되는 경우, 이러한 그룹을 전술한 생일 아이템과 같은 복합 이벤트 요소로 생성하여 새로운 아이템으로 추가할 수도 있음은 물론이다. 즉, 사용자는 상기와 같이 설정하는 그룹의 이벤트 요소를 상기 그룹박스 아이템에 의해 운용하거나, 또는 편의에 따라 새로운 아이템으로 추가할 수도 있다.
도 19는 본 발명의 실시 예에 따른 전자기기에서 이벤트 요소별 실행되는 이펙트를 설정/편집하는 동작 예시를 도시한 도면이다.
여기서, 상기 도 19에서는 상기 도18에서와 같이 그룹박스 아이템을 설정/편집하는 동작 중에, 특정 이벤트 요소에 대한 이펙트를 설정/편집하는 동작을 예시로 설명한다. 이러한 도 19의 예시에 대응하여, 일반적으로 제공되는 엔터테인먼트 모드에서도 이벤트 요소에 대한 이펙트를 설정/편집하는 동작에도 적용될 수 있음은 물론이다.
상기 도 19에 나타낸 바와 같이, 상기 도 19는 버블 아이템, 전광판 아이템, 풍선 아이템이 하나의 그룹으로 포함되고, 사용자는 하나의 그룹으로 지정된 각 아이템들, 즉 현재 슬롯에 포함된 각 아이템들의 실행 시 필요한 이펙트에 대한 상세 설정을 추가로 진행할 수 있다. 상기 도 19에서는 상기 버블 아이템, 전광판 아이템 및 풍선 아이템 모두에 대하여 순차적으로 상세 설정이 이루어지는 과정을 예시로 나타내었다. 이때, 상기 상세 설정은 상기한 각 아이템들 중 어느 하나의 아이템의 지정에 의해 해당 아이템에 대해서만 상세 설정도 가능함은 물론이다.
상기 도 19를 참조하면, 사용자는 참조부호 1910에 나타낸 바와 같이 그룹에 포함되도록 지정된 즉, 슬롯에 위치한 아이템들 중 버블 아이템에 대한 상세 설정을 위한 메뉴를 요청할 수 있다. 이때, 상기 메뉴 요청은 상기 참조부호 1910에 나타낸 바와 같이, 지정되는 아이템에 대한 상세 설정으로 진입을 위한 기능으로 할당된 해당 아이템에 사용자 입력(예컨대, 탭 입력)을 발생함으로써 요청하거나, 또는 옵션(option) 선택을 통한 상세 설정 진입을 요청할 수도 있다.
다음으로, 전자기기는 상기 사용자의 요청에 응답하여, 참조부호 1920에 나타낸 바와 같이 상기 각 아이템들의 순서에 대응하는 상세 설정 초기 화면을 제공할 수 있다. 이때, 상기 참조부호 1910에 나타낸 바와 같이, 각 아이템들의 순서가 버블 아이템, 전광판 아이템 및 풍선 아이템의 순서로 배치됨에 따라 상세 설정을 위한 상기 초기 화면은 참조부호 1920에 나타낸 바와 같이 상기 버블 아이템의 상세 설정을 위한 화면이 제공될 수 있다.
상기 참조부호 1920과 같은 버블 아이템의 상세 설정 화면에서, 사용자는 상기 버블 아이템에 의해 수행될 이펙트를 설정(예컨대, 노래 선곡과 같은 사운드 선택)할 수 있다. 상기 참조부호 1920에서는 사용자가 "노래2"의 항목을 선택하는 경우를 나타내며, 만약 사용자가 별도의 다른 설정 없이 '다음' 또는 '완료'를 진행할 시, 기본 값인 첫 번째 항목 즉, "노래1"이 자동 지정될 수 있다.
다음으로, 상기 참조부호 1920에 나타낸 바와 같이, 상기 버블 아이템의 이펙트로 상기 "노래2" 항목에 사용자 입력(예컨대, 탭 입력)이 이루어지거나, 또는 다음 단계로 진입하기 위한 기능이 할당된 아이템에 사용자 입력이 이루어질 시, 상기 전자기기는 참조부호 1930과 같이 상기 버블 아이템의 다음 순서로 위치하는 상기 전광판 아이템의 상세 설정을 위한 화면을 제공한다.
상기 참조부호 1930과 같은 전광판 아이템의 상세 설정 화면에서, 사용자는 상기 전광판 아이템에 의해 수행될 이펙트를 설정(예컨대, 텍스트 입력)할 수 있다. 상기 참조부호 1930에서는 사용자가 "Happy birthday"라는 텍스트를 입력하는 경우를 나타내며, 이러한 텍스트 입력은 상기 전자기기의 형태에 따라 다양한 방식으로 입력될 수 있다. 이때, 상기 참조부호 1930에서는 참조부호 1935에 나타낸 바와 같이, 특정 형태의 배열을 가지는 문자 입력기(예컨대, 쿼티 키 방식의 가상 입력기)가 제공되고, 상기 문자 입력기를 이용하여, 상기한 텍스트를 입력할 수 있다.
다음으로, 상기 참조부호 1930에 나타낸 바와 같이, 상기 전광판 아이템의 이펙트로 상기 "Happy birthday"라는 텍스트 입력이 완료되고, 다음 단계로 진입하기 위한 기능이 할당된 아이템에 사용자 입력이 이루어질 시, 상기 전자기기는 참조부호 1940과 같이 상기 전광판 아이템의 다음 순서로 위치하는 상기 풍선 아이템의 상세 설정을 위한 화면을 제공한다.
상기 참조부호 1940과 같은 풍선 아이템의 상세 설정 화면에서, 사용자는 상기 풍선 아이템에 의해 수행될 이펙트를 설정(예컨대, 풍선 메시지 선택)할 수 있다. 상기 참조부호 1940에서는 사용자가 "아야!"의 항목을 선택하는 경우를 나타내며, 만약 사용자가 별도의 다른 설정 없이 '다음' 또는 '완료'를 진행할 시, 기본 값인 첫 번째 항목 즉, "좋았어!"가 자동 지정될 수 있다.
다음으로, 상기 참조부호 1920 내지 참조부호 1940에 의하여, 상기 버블 아이템, 상기 전광판 아이템 및 상기 풍선 아이템에 대한 상세 설정이 완료되고, 다음의 다른 아이템이 존재하지 않을 시, 상기 참조부호 1940과 같이 상기한 상세 설정의 완료를 위한 아이템이 제공될 수 있다. 그리고 상기한 절차에 의한 각 아이템들에 대한 상세 설정 중, 상기 참조부호 1920 내지 참조부호 1940에 나타낸 바와 같이, 이전 단계로 진행하기 위한 아이템에 의하여 이전 아이템에 대한 상세 설정을 다시 변경할 수도 있다. 이후, 사용자가 상기한 절차에 의해 각 아이템들에 대한 상세 설정이 완료되어, 상기 완료를 위한 아이템에 사용자 입력(예컨대, 탭 입력)을 발생하면, 전자기기는 참조부호 1950에 나타낸 바와 같이, 엔터테인먼트 모드의 초기 화면을 제공할 수 있다.
한편, 상기 도 19에서는 설명의 편의를 위하여 각 아이템들에 대한 상세 설정 동작 중 일부를 나타낸 것일 수 있다. 따라서 상기 도 19와 같은 상세 설정 동작에서 사용자는 상기한 이펙트 설정뿐만 아니라, 해당 이펙트를 실행하기 위한 사용자 인터랙션 및/또는 해당 사용자 인터랙션에 따른 수행될 이펙트의 타입 등을 설정하는 과정을 수행할 수도 있다. 즉, 사용자 인터랙션 및 사용자 인터랙션별 이펙트를 설정할 수도 있다.
예를 들어, 상기 참조부호 1940과 같은 상태에서, 풍선 아이템에 대한 이펙트로 선택되는 상기 "아야!"의 풍선 메시지의 이펙트를 실행하기 위한 사용자 인터랙션을, 블로우 인터랙션 또는 터치 인터랙션 중 어느 하나의 인터랙션을 설정할 수 있다. 그리고 해당 인터랙션에 의해 상기 풍선 메시지 출력 시 함께 제공할 청각적인 이펙트 및 촉각적인 이펙트에 대한 설정도 가능함은 물론이다.
한편, 이상에서는 그룹박스 아이템에 의해 하나 이상의 이벤트 요소를 하나의 그룹으로 지정하고, 그룹 내의 각 이벤트 요소에 대하여 설정/편집하는 동작에 대하여 살펴보았다. 다음으로, 이하에서는 상기 그룹박스 아이템 또는 미리 정의되는 복합 이벤트 요소에 의해, 하나 이상의 이벤트 요소에 대응하는 각각의 이펙트가 사용자 인터랙션에 따라 제공되는 동작에 대하여 살펴보기로 한다. 이하에서는, 그룹박스 아이템 및 상기 복합 이벤트 요소에 대응하는 아이템으로 생일 아이템을 예시로 살펴보며, 상기 생일 아이템은 전술한 바와 같이 생일 이벤트와 관련된 하나 이상의 이벤트 요소로 이루어진다.
도 20은 본 발명의 실시 예에 따른 전자기기에서 생일 아이템에 의해 각 이벤트 요소별 이펙트를 제공하는 동작의 개략적인 화면 예시를 도시한 도면이다.
여기서, 상기 도 20에서는 생일 아이템에 사용자 입력이 발생할 시, 상기 생일 아이템을 이루는 단일 이벤트 요소들 중 우선순위의 해당 아이템에 대응하는 오브젝트부터 순차적으로 제공되는 경우의 예시를 나타낸다.
상기 도 20을 참조하면, 사용자는 참조부호 2010에 나타낸 바와 같은 초기의 기능 실행 화면에서, 생일 아이템에 사용자 입력을 발생할 수 있다. 이러한 경우, 전자기기는 먼저, 상기 사용자 입력이 발생하는 해당 아이템이 단일 이벤트 요소인지 또는 복합 이벤트 요소인지 여부를 식별할 수 있다. 여기서, 상기 전자기기는 상기 아이템이 복합 이벤트 요소임을 식별하면, 상기 복합 이벤트 요소를 이루고 있는 하나 이상의 단일 이벤트 요소를 식별하고, 아울러, 상기 식별하는 단일 이벤트 요소가 배치된 순서를 구분한다. 상기 도 20에서는 상기 생일 아이템을 이루는 단일 이벤트 요소가 전광판 아이템, 촛불 아이템, 폭죽 아이템 및 환호성 아이템이고, 이들의 순서가 전광판 아이템->촛불 아이템->폭죽 아이템->환호성 아이템의 순으로 배치된 경우를 예시로 설명한다.
한편, 상기 도 20과 같이 특정 목적의 이벤트에 대응하는 이벤트 요소들로 이루어진 상기 생일 아이템과 같은 특정 아이템의 경우, 해당 아이템의 목적에 부응하는 참조부호 2070에 나타낸 바와 같이 이벤트 오브젝트를 제공할 수 있다. 예를 들어, 상기 특정 아이템이 생일 아이템인 경우, 상기 생일 아이템의 목적에 부응하는 배경음악(BGM, background music)을 디폴트로 제공할 수 있다. 즉, 상기 생일 아이템의 경우 사용자 입력이 발생에 따라 최우선 순위의 단일 아이템에 대응하는 오브젝트가 제공될 시 생일 축가와 같은 배경음악을 제공될 수 있다. 이러한 이벤트 오브젝트는 상기와 같이 배경음악을 비롯하여, 특정 이벤트에 부합되는 배경화면, 이모티콘, 플래시콘 등을 포함할 수 있다. 이러한 이벤트 오브젝트는 상기 특정 아이템을 이루는 모든 단일 이벤트 요소에 의한 이펙트 처리가 완료되는 동안 반복 재생될 수 있으며, 또한 이벤트 오브젝트는 설정에 따라 다수개로 제공될 수도 있음은 물론이다. 예를 들면, 여러 가지의 생일 축가에 해당하는 다수개의 배경음악이 순차적으로 제공될 수 있다.
다음으로, 상기 전자기기는 상기 사용자 입력에 응답하여, 참조부호 2020에 나타낸 바와 같이 최우선 순위의 상기 전광판 아이템에 대응하는 오브젝트를 제공할 수 있다. 여기서, 상기 전광판 아이템의 오브젝트는 "Happy birthday"와 같은 텍스트가 반복적으로 슬라이딩되는 형태로 제공될 수 있다. 이때, 상기한 바와 같이, 상기 전광판 아이템의 오브젝트를 제공할 시, 상기 이벤트 오브젝트가 배경으로 제공될 수 있다.
다음으로, 사용자는 상기 참조부호 2020에서 상기 전광판 아이템의 해당 오브젝트가 제공될 시, 상기 오브젝트에 대하여 미리 정의된 다수개의 사용자 인터랙션 중 어느 하나의 인터랙션을 입력할 수 있다. 예를 들면, 상기 사용자 인터랙션은 대분류에 따라 음성 인터랙션, 모션 인터랙션, 터치 인터랙션, 복합 인터랙션으로 구분할 수 있다. 또한, 상기 사용자 인터랙션은 상기 대분류에 따른 각 인터랙션을 세분화하면, 블로우 인터랙션, 탭 인터랙션, 더블탭 인터랙션, 홀드 인터랙션, 플릭 인터랙션, 방향전환 인터랙션, 드래그앤드롭 인터랙션, 터치앤무브 인터랙션 등으로 구분할 수 있다.
따라서 사용자는 상기와 같은 인터랙션 중, 상기 전광판 아이템의 텍스트에 대하여 희망하는 임의의 인터랙션을 입력할 수 있다. 그러면, 전자기기는 사용자에 입력되는 인터랙션을 식별하고, 해당 인터랙션에 대응하는 이펙트의 오브젝트를 출력한다. 예를 들어, 상기 전광판 아이템에 대응하는 텍스트를 사용자의 터치 인터랙션에 따라 여러 방향으로 슬라이딩 되도록 하거나, 또는 상기 전광판 아이템에 대응하는 텍스트를 사용자의 블로우 인터랙션에 따라 블로우 이펙트에 의한 화면을 제공한다. 이러한 전광판 아이템에 대하여 사용자 인터랙션별로 이펙트 오브젝트를 구별하여 제공하는 구체적인 동작에 대해서는 후술하는 도면들에 의하여 상세히 살펴보기로 한다.
다음으로, 상기 전자기기는 상기 참조부호 2020과 같은 상태에서, 상기 전광판 아이템에 대한 이펙트 처리가 완료될 시, 참조부호 2030에 나타낸 바와 같이, 상기 전광판 아이템의 차순위에 해당하는 촛불 아이템에 대응하는 오브젝트를 제공할 수 있다. 이때, 상기한 바와 같이, 상기 촛불 아이템의 오브젝트를 제공할 시, 상기 이벤트 오브젝트가 배경으로 제공될 수 있다.
이때, 사용자는 상기 참조부호 2030에서 상기 촛불 아이템의 해당 오브젝트가 제공될 시, 상기 오브젝트에 대하여 미리 정의된 다수개의 사용자 인터랙션 중 어느 하나의 인터랙션을 입력할 수 있다. 예를 들어, 상기 촛불 아이템의 심지에 점화하는 플릭 인터랙션, 또는 점화된 상태의 촛불 아이템에 블로우 인터랙션 등을 입력할 수 있으며, 상기 전자기기는 해당 인터랙션에 대응하여 심지에 불이 점화되는 이펙트, 촛불이 꺼지면서 사진 촬영을 수행하는 이펙트 등을 처리하여 제공할 수 있다. 이러한 촛불 아이템에 대하여 사용자 인터랙션별로 이펙트 오브젝트를 구별하여 제공하는 구체적인 동작에 대해서는 후술하는 도면들에 의하여 상세히 살펴보기로 한다.
다음으로, 상기 전자기기는 상기 참조부호 2030과 같은 상태에서, 상기 촛불 아이템에 대한 이펙트 처리가 완료될 시, 참조부호 2040에 나타낸 바와 같이, 상기 촛불 아이템의 다음 순위에 해당하는 폭죽 아이템에 대응하는 오브젝트를 제공할 수 있다. 이때, 상기한 바와 같이, 상기 폭죽 아이템의 오브젝트를 제공할 시, 상기 이벤트 오브젝트가 배경으로 제공될 수 있다.
이때, 사용자는 상기 참조부호 2040에서 상기 폭죽 아이템의 해당 오브젝트가 제공될 시, 상기 오브젝트에 대하여 미리 정의된 다수개의 사용자 인터랙션 중 어느 하나의 인터랙션을 입력할 수 있다. 예를 들어, 상기 폭죽 아이템의 오브젝트가 제공된 화면에서 임의의 영역에 탭 인터랙션을 입력하거나, 또는 플릭 인터랙션 등을 입력할 수 있으며, 상기 전자기기는 해당 인터랙션에 대응하는 이펙트 예컨대, 입력이 발생하는 영역에 폭죽이 터지는 화면을 제공할 수 있다. 이러한 폭죽 아이템에 대하여 사용자 인터랙션별로 이펙트 오브젝트를 구별하여 제공하는 구체적인 동작에 대해서는 후술하는 도면들에 의하여 상세히 살펴보기로 한다.
다음으로, 상기 전자기기는 상기 참조부호 2040과 같은 상태에서, 상기 폭죽 아이템에 대한 이펙트 처리가 완료될 시, 참조부호 2050에 나타낸 바와 같이, 상기 폭죽 아이템의 다음 순위에 해당하는 환호성 아이템에 대응하는 오브젝트를 제공할 수 있다. 이때, 상기한 바와 같이, 상기 환호성 아이템의 오브젝트를 제공할 시, 상기 이벤트 오브젝트가 배경으로 제공될 수 있다.
이때, 사용자는 상기 참조부호 2050에서 상기 환호성 아이템의 해당 오브젝트가 제공될 시, 상기 오브젝트에 대하여 미리 정의된 다수개의 사용자 인터랙션 중 어느 하나의 인터랙션을 입력할 수 있다. 예를 들어, 상기 환호성 아이템의 오브젝트가 제공된 화면에서 임의의 영역에 탭 인터랙션을 입력하거나, 터치앤무브 인터랙션 등을 입력할 수 있으며, 상기 전자기기는 해당 인터랙션에 대응하는 이펙트 예컨대, 탭 인터랙션에 따라 설정된 사운드(예컨대, 환호성)를 재생하여 출력할 수 있다. 이러한 환호성 아이템에 대하여 사용자 인터랙션별로 이펙트 오브젝트를 구별하여 제공하는 구체적인 동작에 대해서는 후술하는 도면들에 의하여 상세히 살펴보기로 한다.
다음으로, 상기 전자기기는 상기 참조부호 2050과 같은 상태에서, 상기 환호성 아이템에 대한 이펙트 처리가 완료될 시, 초기 화면으로 진행할 수 있다. 즉, 상기 생일 아이템을 구성하는 각 아이템들에 의한 동작이 완료될 시, 상기 참조부호 2010과 같은 초기 과정으로 진입할 수 있다.
한편, 상기 도 20에서 각 아이템들 간의 전환 시점은 해당 아이템별로 정의될 수 있다. 예를 들어, 상기 촛불 아이템에서 다음 아이템으로의 전환은 블로우 인터랙션에 따라 촛불이 꺼지면 사진 촬영하는 이펙트를 제공한 후, 상기 촛불 아이템에 의한 동작을 종료하고 다음 아이템으로 전환할 수 있다. 또한, 상기 전광판 아이템, 폭죽 아이템 또는 환호성 아이템에서 다음 아이템으로의 전환은, 특정 인터랙션에 따른 이펙트 처리 후, 설정된 시간(예컨대, n초)동안 사용자의 인터랙션 입력이 없을 경우 상기 전광판 아이템, 폭죽 아이템 또는 환호성 아이템에 의한 동작을 종료하고 다음 아이템으로 전환할 수 있다.
그러면 이하에서는, 본 발명에서 정의하는 이벤트 요소를 이용하여 사용자 인터랙션별로 다양한 이펙트에 의한 이벤트가 제공되는 상세 동작에 대하여 살펴보기로 한다.
도 21은 본 발명의 실시 예에 따른 전자기기에서 촛불 아이템에 의한 이펙트를 제공하는 동작의 화면 예시를 도시한 도면이다.
상기 도 21을 참조하면, 전자기기는 사용자 입력에 응답하여 참조부호 2110에 나타낸 바와 같은 촛불 아이템에 대응하는 오브젝트를 제공할 수 있다. 여기서, 상기 참조부호 2110의 오브젝트는 심지에 불이 점화된 경우의 예시를 나타내었지만, 상기 참조부호 2110 이전에 상기 심지의 불이 꺼진 상태의 오브젝트가 먼저 제공될 수도 있음은 물론이다.
다음으로, 사용자는 상기 참조부호 2110과 같은 상기 촛불 아이템의 오브젝트가 제공될 시, 상기 오브젝트에 대하여 미리 정의된 사용자 인터랙션을 입력할 수 있다. 이때, 상기 도 21에서는 상기 사용자 인터랙션으로 블로우 인터랙션을 이용하는 것을 예로 한다. 따라서 사용자는 상기 전자기기의 일측에 구비된 마이크(MIC)를 통해 '후~'하는 것과 같은 블로우 인터랙션을 입력할 수 있다. 그러면, 상기 전자기기는 상기 블로우 인터랙션을 감지할 시 참조부호 2120에 나타낸 바와 같이 상기 불꽃이 바람에 흔들리는 것과 같은 이펙트를 제공한다. 이때, 상기 불꽃이 바람에 흔들리는 이펙트의 현실감을 위하여, 상기 참조부호 2120의 오브젝트는 동적인 영상으로 제공될 수 있다. 즉, 상기 블로우 인터랙션이 입력되는 동안 불꽃이 흔들리는 동영상 파일 또는 플래시 파일의 재생에 의해 동적인 이펙트를 제공한다. 상기 동영상 파일 또는 플래시 파일은 상기 블로우 인터랙션이 입력되는 길이에 따라 재생될 수 있다. 즉, 상기 블로우 인터랙션이 입력되는 동안 즉, 상기 블로우 인터랙션의 입력 시작부터 상기 블로우 인터랙션의 입력 종료 시까지 해당 동영상 파일 또는 플래시 파일이 재생되어 제공될 수 있으며, 상기 블로우 인터랙션의 입력이 종료될 시 참조부호 2130에 나타낸 바와 같이 불꽃의 흔들림이 멈춘 상태의 오브젝트를 제공할 수 있다.
또한, 상기 참조부호 2110과 같은 상태에서 상기 전자기기는 블로우 인터랙션을 감지할 시, 상기 블로우 인터랙션에 따른 강약을 판단할 수 있다. 상기 블로우 인터랙션의 강약 판단은, 마이크(MIC)를 통해 입력되는 사용자 인터랙션의 세기와 미리 설정된 기준 값의 비교에 의하여 판단할 수 있다. 예를 들어, 상기 전자기기는 상기 블로우 인터랙션이 상기 기준 값 미만인 경우, 즉 약한 블로우 인터랙션으로 판별하는 경우, 상기 참조부호 2120과 같은 이펙트의 오브젝트를 제공할 수 있다.
반면, 상기 전자기기는 상기 블로우 인터랙션이 상기 기준 값 이상인 경우, 즉 강한 블로우 인터랙션으로 판별하는 경우, 참조부호 2140에 나타낸 바와 같이 상기 블로우 인터랙션에 따라 불꽃이 흔들리다 꺼진 후 연기가 보이는 것과 같은 이펙트를 제공한다. 이때, 상기 불꽃이 잠시 흔들리다 꺼진 후 연기가 보이는 이펙트의 현실감을 위하여, 상기 참조부호 2140의 오브젝트는 실사의 동적인 영상으로 제공될 수 있다. 즉, 상기 강한 블로우 인터랙션이 입력될 시, 상기 불꽃이 잠시 흔들린 후 꺼지는 동영상 파일 또는 플래시 파일의 재생에 의해 동적인 이펙트를 제공한다. 즉, 상기 동영상 파일 또는 플래시 파일은 상기 블로우 인터랙션의 강약에 따라 해당 오브젝트의 동적인 영상이 재생될 수 있다.
다음으로, 상기 전자기기는 상기 촛불이 꺼진 오브젝트 제공 후, 사용자 요청에 응답하여 상기 촛불 아이템에 의한 동작을 완료하거나, 또는 참조부호 2150에 나타낸 바와 같이, 상기 촛불 아이템의 심지에 촛불을 점화하는 과정으로 진입하여 사용자 인터랙션에 따라 불꽃이 없는 심지에 불꽃이 점화되는 오브젝트를 제공할 수 있다.
도 22는 본 발명의 실시 예에 따른 전자기기에서 촛불 아이템에 의한 이펙트를 제공하는 다른 동작의 화면 예시를 도시한 도면이다.
특히, 상기 도 22에서는 상기 촛불 아이템과 카메라 기능의 상호작용에 의하여 동작하는 예시를 나타낸 것이다.
상기 도 22를 참조하면, 전자기기는 사용자 입력에 응답하여 참조부호 2210에 나타낸 바와 같은 촛불 아이템에 대응하는 오브젝트를 제공할 수 있다. 사용자는 상기 참조부호 2210과 같은 상기 촛불 아이템의 오브젝트가 제공될 시, 상기 오브젝트의 임의의 영역에 사용자 인터랙션을 입력할 수 있다. 이때, 상기 참조부호 2210에서는 상기 촛불 아이템과 연동 가능한 부가기능 실행을 위한 사용자 인터랙션으로 탭 인터랙션이 상기 오브젝트의 임의의 빈 영역에 입력되는 경우를 가정한다. 상기 도 22에서 상기 촛불 아이템과 연동 가능한 부가기능으로 카메라 기능이 수행되는 경우를 가정한다.
다음으로, 상기 전자기기는 상기 사용자의 탭 인터랙션에 대응하여 참조부호 2220에 나타낸 바와 같이 옵션 버튼을 제공한다. 상기 옵션 버튼은 이전 메뉴로 돌아가기 위한 제1버튼과, 상기 촛불 아이템과 연동되는 카메라 기능을 실행할 수 있는 제2버튼을 예시로 나타낸다. 다음으로, 상기 참조부호 2220과 같은 상태에서 카메라 기능 수행을 위해 상기 제2버튼에 사용자 인터랙션(예컨대, 탭 인터랙션 등)을 입력할 수 있다. 이때, 사용자는 카메라 기능 실행을 위해 할당된 카메라 단축키에 의해서도 상기 카메라 기능을 실행할 수도 있음은 물론이다.
다음으로, 상기 전자기기는 상기 참조부호 2220과 같은 상태에서, 사진촬영을 위한 사용자의 인터랙션을 감지할 시, 참조부호 2230에 나타낸 바와 같이 카메라 기능을 구동하고, 카메라모듈을 통해 입력되는 피사체의 영상을 표시한다. 이때, 상기 전자기기는 촛불 아이템의 오브젝트(특히, 촛불 이미지)가 줌 아웃(Zoom out)되면서 임의의 영역(예컨대, 우측 하단)으로 이동하여, 상기 피사체의 영상과 함께 제공한다. 여기서, 상기 촛불 이미지가 이동되는 위치는 미리 정의되거나, 또는 입력되는 피사체의 영상을 추적하여 해당 영상과 겹치지 않는 위치에 이동되는 이펙트를 제공할 수 있다. 또한, 상기 카메라 기능 수행 및 촛불 이미지의 이동을 드래그 인터랙션에 의해 수행할 수도 있음은 물론이다. 예를 들면, 사용자는 상기 참조부호 2220과 같은 상태에서 상기 촛불 이미지를 희망하는 위치로 이동하는 드래그 인터랙션을 발생할 수 있다. 이러한 경우, 상기 전자기기는 상기 드래그 인터랙션에 따라 상기 촛불 이미지를 참조부호 2230과 같은 위치로 축소하여 이동하면서, 상기 카메라 기능을 실행하여 피사체의 영상을 입력받을 수 있다.
다음으로, 사용자는 상기 참조부호 2230과 같이 촛불 아이템의 오브젝트와 상기 피사체의 영상이 제공되는 상태에서, 미리 정의된 사용자 인터랙션을 입력할 수 있다. 예를 들면, 상기 참조부호 2230에 나타낸 바와 같이, 사용자는 블로우 인터랙션 또는 탭 인터랙션(또는 카메라 단축키) 등을 입력할 수 있다.
먼저, 상기 사용자가 상기 블로우 인터랙션을 입력하는 경우를 살펴보면, 상기 전자기기는 상기 참조부호 2230과 같은 상태에서 상기 블로우 인터랙션을 감지할 시, 상기 블로우 인터랙션이 사진 촬영 명령인 것으로 인지하고, 참조부호 2240에 나타낸 바와 같이 상기 피사체의 영상과 상기 촛불 아이템의 이미지가 결합된 상태의 영상을 촬영하고, 촬영하는 영상을 저장할 수 있다. 이때, 상기 전자기기는 상기 블로우 인터랙션에 대응하여 상기 촛불이 흔들리는 이펙트를 제공하고, 상기 사진 촬영 기능을 수행할 수 있다. 이후, 상기 전자기기는 상기 촬영 기능이 완료될 시, 상기 참조부호 2210의 단계로 진행할 수 있다.
다음으로, 상기 사용자가 상기 탭 인터랙션(또는 카메라 단축키)을 입력하는 경우를 살펴보면, 상기 전자기기는 상기 참조부호 2230과 같은 상태에서 상기 탭 인터랙션을 감지할 수 있다. 여기서, 상기 탭 인터랙션은 상기 참조부호 2230에 나타낸 바와 같이 옵션 버튼에 발생하는 입력을 나타낸다. 상기 옵션 버튼은 상기 참조부호 2220에서 사용자 입력에 의해 상기 참조부호 2230으로 전환될 시, 상기 참조부호 2220의 옵션 버튼 중 상기 제2버튼의 옵션 내용이 캡쳐(또는 촬영)와 같이 변경되는 제3버튼을 나타낸다. 따라서 사용자는 사진 촬영 기능을 위해 상기 제3버튼에 탭 인터랙션을 입력할 수 있다.
그러면, 상기 전자기기는 상기 탭 인터랙션(또는 카메라 단축키 입력)이 사진 촬영 명령인 것으로 인지하고, 참조부호 2250에 나타낸 바와 같이 상기 피사체의 영상과 상기 촛불 아이템의 이미지가 결합된 상태의 영상을 촬영한다. 그리고 상기 촬영이 완료될 시 상기 참조부호 2250에 나타낸 바와 같이 상기 제3버튼의 내용이 저장과 같이 변경되는 제4버튼을 제공한다. 즉, 상기 촬영하는 영상에 대한 저장을 명령할 수 있는 옵션 기능을 제공한다. 따라서 사용자는 상기 촬영하는 영상의 저장을 취소하고 재촬영을 수행하거나, 또는 상기 촬영하는 영상의 저장을 결정할 수 있다. 만약, 사용자가 상기 제4버튼에 탭 인터랙션을 발생할 시, 상기 전자기기는 참조부호 2260에 나타낸 바와 같이 상기 촬영하는 영상을 저장할 수 있다. 이후, 상기 전자기기는 상기 촬영 기능이 완료될 시, 상기 참조부호 2210의 단계로 진행할 수 있다.
이상에서, 상기 도 22를 참조하여 나타낸 바와 같이, 본 발명의 실시 예에 따르면, 상기 촛불 아이템과 카메라 기능의 상호작용에 의하여, 촬영을 위한 특정 피사체의 영상에 상기 촛불 아이템에 의한 조명 효과를 반영할 수 있으며, 이러한 조명 효과가 반영된 상태에서 피사체의 영상 촬영이 가능하다.
도 23 내지 도 28은 본 발명의 실시 예에 따른 전자기기에서 폭죽 아이템에 의한 이펙트를 제공하는 동작의 화면 예시를 도시한 도면들이다.
상기 도 23 내지 도 28에 나타낸 바와 같이, 전자기기는 사용자 입력에 응답하여 폭죽 아이템에 대응하는 오브젝트를 제공할 수 있다. 그리고 사용자는 상기 오브젝트가 제공될 시, 상기 오브젝트에 대하여 미리 정의된 다양한 사용자 인터랙션을 입력할 수 있다. 이때, 상기 폭죽 아이템에 대하여 각 사용자 인터랙션별 이펙트를 제공하는 예시를 살펴보면 다음과 같다.
먼저, 상기 도 23을 참조하면, 상기 도 23은 상기 오브젝트에서 사용자의 탭 인터랙션이 입력되는 경우의 예시를 나타낸다. 상기 전자기기는 사용자의 탭 인터랙션을 감지할 시, 상기 탭 인터랙션이 입력되는 위치에 폭죽이 터지는 이펙트를 출력한다. 이때, 상기 전자기기는 상기 탭 인터랙션에 따라 다양한 폭죽 타입들 중 랜덤(random)하게 어느 하나의 폭죽 타입을 추출하고, 그에 해당하는 이펙트를 출력한다. 이때, 상기 폭죽이 터지는 이펙트는 실사 영상으로 제공될 수 있다. 즉, 현실감을 위하여 하단에서 작은 폭죽이 올라와서 상기 탭 인터랙션이 발생된 지점에서 터지는 이펙트로 제공될 수 있다.
다음으로, 상기 도 23 및 도 24를 참조하면, 상기 도 24는 상기 도 23과 같이 상기 탭 인터랙션(제1 인터랙션)이 입력된 후, 설정된 시간(예컨대, n초) 이내에 다른 영역에 새로운 탭 인터랙션(제2 인터랙션)이 입력되는 경우의 예시를 나타낸다. 상기 전자기기는 사용자의 제1 인터랙션에 따른 이펙트 처리 후 제2 인터랙션을 감지할 시, 상기 제2 인터랙션이 상기 제1 인터랙션 입력 후 설정된 시간 이내에 발생한 것인지, 또는 설정된 시간 이후에 발생한 것인지 여부를 판별할 수 있다. 이때, 상기 전자기기는 상기 제2 인터랙션이 상기 설정된 시간 이내에 발생한 것으로 인지할 경우, 상기 제2 인터랙션이 입력되는 위치에 상기 제1 인터랙션에 따른 폭죽 타입과 동일한 타입의 폭죽이 터지는 이펙트를 출력한다. 이때, 상기 제1 인터랙션에 따라 제공되는 폭죽 이미지의 크기와 상기 제2 인터랙션에 따라 제공되는 폭죽 이미지의 크기는 동일하게 나타내거나, 또는 원근감을 위해 서로 상이하게 나타낼 수 있다.
다음으로, 상기 도 23 및 도 25를 참조하면, 상기 도 25는 상기 도 23과 같이 상기 탭 인터랙션(제1 인터랙션)이 입력된 후, 설정된 시간(예컨대, n초) 이후에 다른 영역에 새로운 탭 인터랙션(제2 인터랙션)이 입력되는 경우의 예시를 나타낸다. 상기 전자기기는 사용자의 제1 인터랙션에 다른 이펙트 처리 후 제2 인터랙션을 감지할 시, 상기 제2 인터랙션이 상기 제1 인터랙션 입력 후 설정된 시간 이내에 발생한 것인지, 또는 설정된 시간 이후에 발생한 것인지 여부를 판별할 수 있다. 이때, 상기 전자기기는 상기 제2 인터랙션이 상기 설정된 시간 이후에 발생한 것으로 인지할 경우, 상기 제2 인터랙션이 입력되는 위치에 상기 제2 인터랙션에 따른 폭죽 타입과 다른 타입의 폭죽이 터지는 이펙트를 출력한다. 이때, 상기 제1 인터랙션에 따라 제공되는 폭죽 이미지의 크기와 상기 제2 인터랙션에 따라 제공되는 폭죽 이미지의 크기는 동일하게 나타내거나, 또는 원근감을 위해 서로 상이하게 나타낼 수 있다.
즉, 상기 도 23 내지 도 25에 나타낸 바와 같이, 본 발명의 실시 예에 따르면, 사용자의 인터랙션 입력 간 시간 차이를 반영하여 순차적인 이펙트 출력이 가능하다. 그리고 상기와 같이 탭 인터랙션 입력이 입력되는 타이밍에 따라 터지는 폭죽의 형태가 결정될 수 있다. 예를 들어, 제1 인터랙션 입력 후 2초 내에 제2 인터랙션이 입력될 시 같은 모양의 폭죽이 터지는 이펙트를 제공하고, 제1 인터랙션 입력 후 2초 후에 제2 인터랙션이 입력될 시 다른 모양의 폭죽이 터지는 이펙트를 제공할 수 있다.
다음으로, 상기 도 26을 참조하면, 상기 도 26은 상기 오브젝트에서 사용자의 블로우 인터랙션이 입력되는 경우의 예시를 나타낸다. 상기 전자기기는 사용자의 블로우 인터랙션을 감지할 시, 상기 오브젝트가 제공되는 화면상의 랜덤한 위치에 여러 가지의 서로 다른 폭죽이 터지는 이펙트를 제공할 수 있다. 이때, 상기 서로 다른 폭죽의 형태는 한 번에 다수개가 터지는 이펙트로 제공하거나, 또는 설정된 개수의 폭죽이 순차적으로 터지는 이펙트로 제공될 수 있다. 또한, 상기 서로 다른 폭죽의 개수는 사용자 설정에 다양하게 변경 가능함은 물론이다. 이때, 상기 여러 가지의 서로 다른 폭죽은 상기 블로우 인터랙션이 입력되는 동안 새로운 폭죽 타입이 계속하여 출력되고, 상기 블로우 인터랙션이 종료되는 시점에서 종료될 수 있다.
다음으로, 상기 도 27을 참조하면, 상기 도 27은 상기 오브젝트에서 사용자의 플릭 인터랙션이 입력되는 경우의 예시를 나타낸다. 상기 전자기기는 사용자의 플릭 인터랙션을 감지할 시, 상기 플릭 인터랙션이 입력되는 위치 변화(터치 입력 후 빠르게 직선 이동 후 릴리즈되는 제스처의 변화)에 따라 동일한 폭죽이 순차적으로 터지는 이펙트를 제공할 수 있다. 즉, 상기 도 27에 나타낸 바와 같이, 사용자의 플릭 인터랙션이 발생한 후 설정된 시간이 경과하면, 상기 전자기기는 상기 플릭 인터랙션이 최초 입력되는 위치에서 상기 플릭 인터랙션이 릴리즈 되는 위치까지의 직선 방향으로 순차적으로 폭죽이 터지는 이펙트를 제공할 수 있다. 이때, 상기 이펙트는 해당 위치에 동시에 터지는 것과 같은 이펙트로 제공할 수도 있음은 물론이다. 예를 들어, 상기 도 27에서 세 개의 폭죽이 순차적으로 터지거나, 또는 세 개의 폭죽이 한 번에 터지는 것과 같이 다양하게 제공 가능하다. 이때, 상기 폭죽의 타입은 동일한 타입의 폭죽이 제공되거나, 또는 랜덤하게 서로 다른 타입의 폭죽이 제공될 수 있으며, 또한, 상기 폭죽의 개수는 상기 플릭 인터랙션이 발생되는 길에 대응하여 결정될 수 있다.
다음으로, 상기 도 28을 참조하면, 상기 도 28은 상기 오브젝트에서 사용자의 탭 인터랙션에 따라 메시지 폭죽과 같이 특정 문구(예컨대, LOVE)의 폭죽이 터지는 것과 같은 이펙트를 제공하는 경우의 예시를 나타낸다. 상기 전자기기는 사용자의 탭 인터랙션을 감지할 시, 상기 오브젝트가 제공되는 화면상의 랜덤한 위치에 다양한 형태의 메시지 폭죽이 터지는 이펙트를 제공할 수 있다. 상기 도 28에서는 "LOVE"에 대응하는 메시지 폭죽이 터지는 경우를 예로 나타낸다. 이러한 메시지 폭죽의 내용은 사용자 정의에 따라 변경 가능하며, 이에 따라 메시지 폭죽의 내용을 이루는 문자 개수에 따라 이펙트로 제공되는 오브젝트 개수가 결정될 수 있다. 또한, 상기 메시지 폭죽의 경우에도 상기 탭 인터랙션에 따라 다양한 메시지 폭죽 타입들 중 랜덤하게 추출되는 어느 하나의 폭죽 타입에 대응하는 이펙트가 출력될 수 있다.
도 29는 본 발명의 실시 예에 따른 전자기기에서 풍선 아이템에 의한 이펙트를 제공하는 동작의 화면 예시를 도시한 도면이다. 특히, 상기 도 29에서는 블로우 인터랙션의 입력에 대응하여 다양한 이펙트 오브젝트를 출력하는 화면 예시를 나타낸다.
상기 도 29에 나타낸 바와 같이, 상기 도 29는 사용자의 블로우 인터랙션 입력을 통해 실제 풍선을 부는 것과 같은 이펙트를 제공하는 동작의 예시를 나타낸다. 이때, 상기 도 29에서 출력되는 이펙트 오브젝트는 사용자의 블로우 인터랙션의 입력 정도(길이(지속), 세기)에 대응하게 실제 풍선의 크기가 변하는 실사 동영상 파일 또는 플래시 파일의 재생에 의해 제공될 수 있다.
상기 도 29를 참조하면, 전자기기는 참조부호 2910에 나타낸 바와 같이 사용자 입력에 응답하여 풍선 아이템에 대응하는 오브젝트를 제공할 수 있다. 그리고 사용자는 상기 오브젝트가 제공될 시, 상기 오브젝트에 대하여 참조부호 2910 내지 참조부호 2930에 나타낸 바와 같이 블로우 인터랙션을 입력할 수 있다. 그러면, 상기 전자기기는 상기 사용자의 블로우 인터랙션을 감지할 시, 상기 블로우 인터랙션의 입력에 따라 풍선이 점차적으로 커지는 이펙트를 출력한다. 이때, 상기 전자기기는 상기 블로우 인터랙션의 입력되는 길이(예컨대, '후~' 입력이 지속되는 정도)를 인식하여 상기 참조부호 2910의 풍선 오브젝트의 크기가 점차 커지는 이펙트를 제공한다. 또한, 상기 전자기기는 상기 블로우 인터랙션의 강약의 세기를 인식하여 상기 참조부호 2910의 풍선 오브젝트의 크기가 상기 참조부호 2930의 풍선 오브젝트의 크기로 커지는 시간을 빠르게 또는 느리게 출력한다.
다음으로, 상기 전자기기는 상기 참조부호 2910 내지 참조부호 2930과 같이 사용자의 블로우 인터랙션에 따른 이펙트 오브젝트 제공 중에, 상기 블로우 인터랙션이 인식이 되지 않는 동안에는, 참조부호 2940에 나타낸 바와 같이 풍선 오브젝트가 점차적으로 작아지는 이펙트를 출력한다. 즉, 사용자의 블로우 인터랙션이 없을 시, 상기 참조부호 2930과 같이 커진 풍선이 점차 바람이 빠지면서 작아지는 것과 같은 이펙트를 제공할 수 있다.
다음으로, 참조부호 2950 내지 참조부호 2960에 나타낸 바와 같이, 사용자는 상기 참조부호 2910 내지 참조부호 2930에 이어서 블로우 인터랙션을 계속하여 입력하거나, 또는 상기 참조부호 2940과 같은 상태에서 새로운 블로우 인터랙션을 입력할 수 있다. 이때, 상기 참조부호 2960과 같이 풍선 모양이 최대로 커지는 경우, 상기 전자기기는 이전에 입력되고 있는 블로우 인터랙션이 계속하여 입력되고 있더라도, 상기 참조부호 2960과 상태 즉, 상기 풍선 모양(크기)을 그대로 유지할 수 있다. 이때, 상기 풍선의 한계치 도달 여부 판별은, 사용자의 블로우 인터랙션이 입력되는 정도에 따라 판별할 수 있다. 예를 들면, 상기 블로우 인터랙션 입력이 설정된 일정 시간 이상 입력될 시, 상기 설정된 일정 시간이 되는 시점을 상기 풍선의 한계치 도달로 판단하고, 상기 참조부호 2960과 같은 한계치 도달 시점의 풍선의 크기를 유지할 수 있다.
다음으로, 사용자는 상기 참조부호 2960과 같은 오브젝트가 제공될 시, 다시 블로우 인터랙션을 입력할 수 있다. 그러면, 상기 전자기기는 상기 오브젝트(즉, 풍선)가 최대 크기 즉, 한계치에 도달한 상태에서 새로운 블로우 인터랙션을 인식하면, 참조부호 2970에 나타낸 바와 같이 상기 오브젝트의 풍선이 터지는 이펙트를 출력한다. 이때, 상기 이펙트는 풍선이 터지는 영상을 출력하는 시각적인 요소와, 풍선이 터지는 사운드를 출력하는 청각적인 요소를 포함할 수 있다. 아울러, 상기 전자기기는 상기 풍선이 터지는 이펙트 출력 시, 미리 설정된 메시지를 함께 제공할 수 있다. 예를 들어, 상기 참조부호 2960과 같이 "펑!!"과 같은 메시지 오브젝트를 함께 출력할 수 있다. 이때, 상기 메시지 오브젝트의 내용은 사용자 설정에 따라 다양한 형태로 제공될 수 있다. 이러한 화면 예시에 대해서는 후술하는 도면을 참조하여 상세히 살펴보기로 한다.
다음으로, 상기 전자기기는 상기 참조부호 2970과 같이 풍선이 터지는 이펙트 출력 후, 그에 대한 결과로서 상기 참조부호 2910과 같은 초기 화면을 제공할 수 있다.
한편, 상기 도 29에서는 상기 참조부호 2970과 같은 이펙트를 위해, 참조부호 2960과 같이 풍선 아이템이 한계치에 도달한 시점에서 사용자가 새로 입력하는 블로우 인터랙션에 제공되는 것을 예시로 설명하였다. 하지만, 설정 방식에 따라 상기 참조부호 2960과 같이 상기 풍선 아이템이 한계치에 도달한 시점에서도 사용자의 블로우 인터랙션이 계속하여 입력되는 경우에 상기 참조부호 2970과 같은 이펙트가 제공되도록 운용할 수도 있음은 물론이다. 즉, 사용자의 연속된 인터랙션 입력에 의해서도 가능함은 물론이다. 따라서 상기 전자기기는 상기 블로우 인터랙션이 입력이 설정된 일정 시간 이상 지속될 시, 상기 일정 시간이 경과하는 시점에서 상기 풍선이 터지는 이펙트를 제공할 수 있다.
도 30은 본 발명의 실시 예에 따른 전자기기에서 풍선 아이템에 의한 이펙트를 제공하는 동작의 다른 화면 예시를 도시한 도면이다. 특히, 상기 도 30에서는 블로우 인터랙션 및 탭 인터랙션의 입력에 대응하여 다양한 이펙트 오브젝트를 출력하는 화면 예시를 나타낸다.
상기 도 30에 나타낸 바와 같이, 상기 도 30은 사용자의 블로우 인터랙션 입력을 통해 실제 풍선을 부는 것과 같은 이펙트 및 사용자의 탭 인터랙션 입력을 통해 부풀어진 풍선을 터뜨리는 것과 같은 이펙트를 제공하는 동작의 예시를 나타낸다.
상기 도 30을 참조하면, 참조부호 3010 및 참조부호 3020은 상기 도 29를 참조한 설명 부분에서 블로우 인터랙션에 따른 이펙트를 출력하는 과정에 대응할 수 있다. 예를 들어, 상기 도 30의 상기 참조부호 3020까지의 과정은 상기 도 29의 상기 참조부호 2960가지의 과정에 대응할 수 있으며, 따라서 상기 참조부호 3010 및 참조부호 3020에 대한 상세한 설명은 생략하기로 한다.
다음으로, 상기 참조부호 3020과 같은 오브젝트가 제공된 상태에서, 사용자는 상기 참조부호 3020에 제공된 이펙트 오브젝트에서 탭 인터랙션을 입력할 수 있다. 그러면, 상기 전자기기는 상기 탭 인터랙션을 인식하면, 참조부호 3030에 나타낸 바와 같이 상기 오브젝트의 풍선이 터지는 이펙트를 출력한다. 이때, 상기 이펙트는 풍선이 터지는 영상을 출력하는 시각적인 요소와, 풍선이 터지는 사운드를 출력하는 청각적인 요소를 포함할 수 있다. 아울러, 상기 전자기기는 상기 풍선이 터지는 이펙트 출력 시, 미리 설정된 메시지를 함께 제공할 수 있다. 예를 들어, 상기 참조부호 3030과 같이 "펑!!"과 같은 메시지 오브젝트를 함께 출력할 수 있다. 이때, 상기 메시지 오브젝트의 내용은 사용자 설정에 따라 다양한 형태로 제공될 수 있다. 이러한 화면 예시에 대해서는 후술하는 도면을 참조하여 상세히 살펴보기로 한다.
다음으로, 상기 전자기기는 상기 참조부호 3030과 같이 풍선이 터지는 이펙트 출력 후, 그에 대한 결과로서 참조부호 3040과 같은 초기 화면을 제공할 수 있다. 이때, 상기 풍선이 터지는 이펙트에 의해 바람이 빠진 풍선 오브젝트가 다양한 종류로 제공되는 경우, 상기 참조부호 3040에서 랜덤한 풍선 모양이 제공될 수 있다.
도 31은 본 발명의 실시 예에 따른 전자기기에서 풍선 아이템에 의해 처리되는 이펙트에 대한 설정 동작을 개략적으로 도시한 도면이다.
상기 도 31을 참조하면, 사용자는 참조부호 3110에 나타낸 바와 같이 메시지 설정을 위한 옵션 메뉴에 사용자 입력(예컨대, 탭 입력)을 발생함으로써, 풍선 아이템과 관련된 메시지 편집을 위한 메뉴를 요청할 수 있다. 그러면, 전자기기는 상기 사용자의 요청에 응답하여, 참조부호 3120에 나타낸 바와 같이 풍선 아이템의 이펙트 오브젝트로 출력되는 메시지를 편집할 수 있는 설정 화면을 제공할 수 있다.
다음으로, 상기 참조부호 3120과 같은 메시지의 설정 화면에서, 사용자는 상기 메시지로 출력된 이펙트를 설정(예컨대, 메시지 선택 또는 임의의 메시지 입력)할 수 있다. 상기 참조부호 3120에서는 사용자가 "사랑해!"의 항목을 선택하는 경우를 나타낸다. 이때, 전자기기는 상기 선택되는 메시지에 대응하는 배경음악을 변경 설정할 수 있다. 예를 들어, "좋았어!"의 메시지가 선택될 시, 상기 메시지에 대응하여 "좋았어"라는 음성 사운드가 함께 설정될 수 있으며, 상기 "사랑해!"의 메시지가 선택될 시, 상기 메시지에 대응하여 "사랑해"라는 음성 사운드가 함께 설정될 수 있다. 또한, 상기 도 31에서는 생략하였으나, 사용자는 옵션 메뉴 선택을 통해 해당 메시지에 대한 출력 오브젝트 및 사운드에 대한 미리보기 및 미리듣기 기능을 제공할 수도 있다.
다음으로, 상기 참조부호 3120에 나타낸 바와 같이, 상기 메시지 오브젝트로 상기 "사랑해!" 항목에 사용자 입력(예컨대, 탭 입력)이 이루어지거나, 또는 다음 단계로 진입하기 위한 기능이 할당된 아이템에 사용자 입력이 이루어질 시, 상기 전자기기는 참조부호 3130과 같이 풍선 메시지가 상기 "사랑해!"로 변경됨을 알리는 메시지를 생성하여 팝업으로 제공할 수 있다. 그리고 상기 전자기기는 상기 팝업 제공 후 일정 시간이 경과하면, 참조부호 3140과 같이 메시지 편집 이전의 초기 화면을 제공할 수 있다.
도 32는 본 발명의 실시 예에 따른 전자기기에서 전광판 아이템에 의한 이펙트를 제공하는 동작의 화면 예시를 도시한 도면이다. 특히, 상기 도 32에서는 상기 전광판 아이템으로 이용되는 오브젝트(텍스트)가 "HAPPY"인 경우를 예로 나타내지만, 상기 전광판 아이템에 이용되는 오브젝트는 사용자 설정에 따라 그의 문자, 형태 및 색깔 등을 다양하게 변경 가능함은 물론이다.
상기 도 32에 나타낸 바와 같이, 상기 도 32는 사용자의 플릭 인터랙션 입력을 통해 전광판 아이템의 텍스트 오브젝트(문자열)의 슬라이딩 방향이 변경되는 이펙트를 제공하는 동작의 예시를 나타낸다.
상기 도 32를 참조하면, 전자기기는 참조부호 3210에 나타낸 바와 같이 사용자 입력에 응답하여 전광판 아이템에 대응하는 오브젝트를 제공할 수 있다. 그리고 사용자는 상기 오브젝트가 제공될 시, 상기 오브젝트에 대하여 참조부호 3210 내지 참조부호 3250에 나타낸 바와 같이 플릭 인터랙션을 입력할 수 있다. 그러면, 상기 전자기기는 상기 사용자의 플릭 인터랙션을 감지할 시, 상기 플릭 인터랙션의 입력에 따라 상기 오브젝트의 슬라이딩 방향을 변경하여 제공한다.
예를 들면, 상기 참조부호 3210의 경우, 상기 오브젝트의 슬라이딩 방향이 '우'에서 '좌'인 경우를 나타낸다. 이러한 상태에서 상기 참조부호 3210과 같이 사용자의 플릭 인터랙션이 상기 오브젝트의 임의의 영역에서 '상' 방향으로 입력될 시, 상기 전자기기는 참조부호 3220에 나타낸 바와 같이 상기 오브젝트의 슬라이딩 방향을 '하'에서 '상'으로 변경하여 제공한다. 또한, 상기 참조부호 3220과 같은 상태에서 사용자의 플릭 인터랙션이 상기 오브젝트의 임의의 영역에서 '우' 방향으로 입력될 시, 상기 전자기기는 참조부호 3230에 나타낸 바와 같이 상기 오브젝트의 슬라이딩 방향을 '좌'에서 '우'로 변경하여 제공한다. 또한, 상기 참조부호 3230과 같은 상태에서 사용자의 플릭 인터랙션이 상기 오브젝트의 임의의 영역에서 '하' 방향으로 입력될 시, 상기 전자기기는 참조부호 3240에 나타낸 바와 같이 상기 오브젝트의 슬라이딩 방향을 '상'에서 '좌'로 변경하여 제공한다. 또한, 상기 참조부호 3240과 같은 상태에서 사용자의 플릭 인터랙션이 상기 오브젝트의 임의의 영역에서 '임의의 방향(예컨대, 우상대각 방향)으로 입력될 시, 상기 전자기기는 참조부호 3250에 나타낸 바와 같이 상기 오브젝트의 슬라이딩 방향을 상기 '임의의 방향'에 대응하는 방향으로 변경하여 제공한다. 이때, 상기 참조부호 3210 내지 참조부호 3250에 나타낸 바와 같이, 상기 오브젝트의 문자열의 순서는 입력된 문자의 순서 예컨대, "HAPPY"의 순서와 동일하게 유지된다.
다음으로, 상기 참조부호 3210과 같은 상태에서, 만약 상기 전자기기의 가로 및 세로 방향을 변경하는 방향전환 인터랙션이 발생할 시, 상기 전자기기는 참조부호 3260에 나타낸 바와 같이 오브젝트의 슬라이딩 방향은 유지하되, 개별 문자의 표시 방향을 사용자 기준으로 항상 똑바로 보이도록 자동 회전하여 제공한다.
한편, 상기 도 32에 나타낸 바와 같이, 본 발명의 실시 예에 따르면, 사용자의 플릭 인터랙션이 입력되는 방향에 상관없이, 항상 첫 번째 문자(예컨대, 'H')가 제일 먼저 나타나는 순서로 흘러가며, 상/하/좌/우/대각선을 포함한 모든 방향으로의 전환이 가능하다. 또한, 전자기기 화면의 가로/세로 뷰(view) 모드에 따라 개별 문자의 표시 방향은, 항상 사용자 기준으로 똑바로 보이도록 자동 회전되며, 이러한 경우 오브젝트(문자열)의 슬라이딩 방향은 이전 설정 값을 그대로 유지하도록 제공된다.
도 33은 본 발명의 실시 예에 따른 저자기기에서 전광판 아이템에 의한 이펙트를 제공하는 다른 동작의 화면 예시를 도시한 도면이다.
상기 도 33에 나타낸 바와 같이, 상기 도 33은 사용자의 더블탭 인터랙션을 통해 전광판 아이템에 대응하는 이펙트 오브젝트로 텍스트 오브젝트 또는 화면의 색상이 변경(화면 깜박임 등)되는 이펙트를 제공하는 동작의 예시를 나타낸다. 이때, 상기 도 33과 같이 화면 전환에 따른 이펙트가 제공되는 중에도 오브젝트의 슬라이딩은 계속하여 이루어질 수 있다. 여기서 상기 화면 전환에 따른 이펙트는 상기와 같이 화면의 색상이 변경되는 이펙트(참조부호 3320, 참조부호 3340), 오브젝트에 불꽃 효과와 같이 오브젝트가 변경되는 이펙트(참조부호 3330) 등을 포함한다.
상기 도 33을 참조하면, 전자기기는 참조부호 3310에 나타낸 바와 같이 사용자 입력에 응답하여 전광판 아이템에 대응하는 오브젝트를 제공할 수 있다. 그리고 사용자는 상기 오브젝트가 제공될 시, 상기 오브젝트에 대하여 참조부호 3310에 나타낸 바와 같이 더블탭 인터랙션을 입력할 수 있다. 그러면, 상기 전자기기는 상기 사용자의 더블탭 인터랙션을 감지할 시, 상기 더블탭 인터랙션의 입력에 따라 상기 오브젝트 또는 화면의 색상을 변경 예컨대, 화면 깜박임과 같은 이펙트를 제공한다.
예를 들면, 상기 참조부호 3310과 같은 상태에서 상기 더블탭 인터랙션이 입력되면, 상기 전자기기는 상기 더블탭 인터랙션에 대응하여 참조부호 3320 내지 참조부호 3340에 나타낸 바와 같이 다양한 형태의 화면 변화에 대응하는 이펙트를 제공한다. 여기서, 상기 참조부호 3320 내지 참조부호 3340과 같은 이펙트는 설정된 시간(예컨대, 1초)동안 3회 내지 5회 주기로 화면을 반복해서 제공될 수 있다. 즉, 상기 설정된 시간동안 상기 참조부호 3320 내지 참조부호 3340의 화면 간을 전환을 수행할 수 있다. 이러한 화면 전환(깜박임)의 설정 시간 및 전환 주기는 사용자 설정에 따를 수 있다.
다음으로, 상기 전자기기가 상기 더블탭 인터랙션 입력에 대응하여 상기 참조부호 3320 내지 참조부호 3340과 같이 화면을 전환하는 이펙트를 제공하는 중에, 사용자는 상기 참조부호 3320의 예시와 같이 더블탭 인터랙션을 입력할 수 있다. 그러면, 상기 전자기기는 상기 더블탭 인터랙션을 인지할 시, 상기 화면 전환(깜박임) 이펙트 출력을 종료하고, 참조부호 3350에 나타낸 바와 같이 초기 화면을 제공할 수 있다.
도 34는 본 발명의 실시 예에 따른 전자기기에서 전광판 아이템에 의한 이펙트를 제공하는 다른 동작의 화면 예시를 도시한 도면이다.
상기 도 34에 나타낸 바와 같이, 상기 도 34는 사용자의 블로우 인터랙션 입력을 통해 전광판 아이템의 텍스트 오브젝트(문자열)의 개별 문자들이 제각각 화면 상단으로 날려 올라가는 이펙트를 제공하는 동작의 예시를 나타낸다.
상기 도 34를 참조하면, 전자기기는 참조부호 3410에 나타낸 바와 같이 사용자 입력에 응답하여 전광판 아이템에 대응하는 오브젝트를 제공할 수 있다. 그리고 사용자는 상기 오브젝트가 제공될 시, 상기 오브젝트에 대하여 블로우 인터랙션을 입력할 수 있다. 그러면, 상기 전자기기는 마이크(MIC)를 통해 입력되는 상기 사용자의 블로우 인터랙션을 감지할 시, 참조부호 3420에 나타낸 바와 같이 상기 블로우 인터랙션의 입력에 따라 상기 오브젝트를 구성하는 개별 문자들이 화면 상단으로 날려 올라가는 것과 같은 이펙트를 제공한다.
예를 들어, 사용자는 상기 참조부호 3410과 같이 "Happy" 텍스트가 슬라이딩 되고 있는 상태에서, 마이크(MIC) 등을 이용하여 "후~" 하는 블로우 인터랙션을 입력할 수 있으며, 상기 전자기기는 상기 블로우 인터랙션이 입력되는 시점에서의 상기 "Happy" 텍스의 슬라이딩 상태에 따라 텍스트의 문자들이 화면상으로 날려 올라가는 이펙트를 출력한다. 즉, 참조부호 3410 및 참조부호 3420에 나타낸 바와 같이, "Happy" 텍스트의 슬라이딩 중 현재 화면상에 "Hap"가 표시된 상태에서 블로우 인터랙션이 입력될 시, 상기 전자기기는 'H', 'a', 'p'의 각 문자들이 제각각 화면 상단으로 날려 올라가는 것과 같은 이펙트를 제공한다.
다음으로, 상기 전자기기는 상기 블로우 인터랙션 입력이 중단되면, 참조부호 3430과 같이 상기 오브젝트의 슬라이딩에 따른 이펙트를 계속하여 제공할 수 있다. 여기서, 상기 도 34에서는 'Hap'의 문자에 대해 이펙트가 처리되는 경우를 예로 하였지만, 상기 'Happy' 텍스트가 슬라이딩됨에 따라 상기 이펙트는 'Happy' 전체 문자에 대해 이루어질 수 있다.
한편, 상기 도 34에서는 생략하였으나, 상기 전자기기는 상기 사용자의 블로우 인터랙션 입력이 계속 지속되고 있는 동안 화면 상단으로 날려 올라간 문자에 대하여 계속 이펙트를 제공할 수 있다. 또한, 상기 전자기기는 상기 블로우 인터랙션 입력의 세기를 구분하여, 파도처럼 울렁이는 정도를 차등적으로 적용할 수도 있음은 물론이다. 또한, 상기 도 34에서와 같이 '우'에서 '좌' 방향의 슬라이딩되는 오브젝트 외에도, 다른 방향으로 슬라이딩 되는 오브젝트에 대해서도, 상기와 같은 동일한 파도 이펙트를 제공할 수 있다.
도 35는 본 발명의 실시 예에 따른 전자기기에서 전광판 아이템에 의한 이펙트를 제공하는 다른 동작의 화면 예시를 도시한 도면이다.
상기 도 35에 나타낸 바와 같이, 상기 도 35는 사용자의 홀드 인터랙션 입력을 통해 전광판 아이템의 텍스트 오브젝트(문자열)의 슬라이딩을 일시 정지시키는 이펙트를 제공하는 동작의 예시를 나타낸다.
상기 도 35를 참조하면, 전자기기는 참조부호 3510에 나타낸 바와 같이 사용자 입력에 응답하여 전광판 아이템에 대응하는 오브젝트를 제공할 수 있다. 그리고 상기 참조부호 3510의 오브젝트는 '우'에서 '좌' 방향으로 슬라이딩 되고 있는 상태를 나타낼 수 있다.
다음으로, 사용자는 상기 오브젝트가 슬라이딩 되는 상태에서, 상기 오브젝트에 대하여 홀드 인터랙션을 입력할 수 있다. 즉, 사용자는 상기 오브젝트가 슬라이딩 되는 상태에서, 상기 오브젝트 또는 화면상의 임의의 영역에 터치하는 입력을 유지(hold)할 수 있다. 그러면, 상기 전자기기는 상기 사용자의 홀드 인터랙션을 감지할 시, 참조부호 3520에 나타낸 바와 같이 상기 홀드 인터랙션의 입력에 따라 상기 오브젝트의 슬라이딩을 정지 상태로 유지한다. 즉, 상기 전자기기는 상기 참조부호 3520에 나타낸 바와 같이 사용자가 상기 홀드 인터랙션을 홀드하고 있는 동안 오브젝트(문자열) 슬라이딩을 정지하고 상기 정지되는 시점의 오브젝트 표시를 유지한다.
다음으로, 사용자는 상기 참조부호 3520과 같이 상기 홀드 인터랙션에 의해 오브젝트의 슬라이딩이 정지된 상태에서, 상기 참조부호 3510에서 입력된 상기 홀드 인터랙션을 릴리즈할 수 있다. 그러면, 상기 전자기기는 상기 홀드 인터랙션의 릴리즈를 감지할 시, 참조부호 3530에 나타낸 바와 같이 상기 참조부호 3520에서 정지한 슬라이딩 동작을 재개한다.
한편, 상기 도 35에서는 도시하지 않았으나, 본 발명의 실시 예에 따르면, 상기 전자기기의 가로(Landscape) 화면에서도 상기 도 35의 동작에 대응하는 홀드 동작이 적용될 수 있다. 이때, 사용자가 오브젝트(문자열)를 홀드하는 동안, 상기 전자기기의 화면을 회전하는 등의 인터랙션이 입력되더라도, 상기 전자기기는 현재 상태 즉, 화면이 회전되기 전의 홀드 상태를 그대로 유지할 수 있다. 그리고 사용자가 상기 홀드하는 입력을 릴리즈할 시, 상기 전자기기는 상기 홀드 입력이 끝난 다음, 필요에 따라 변경된 사항 즉, 화면이 회전됨에 따른 이펙트를 반영하여 제공할 수 있다.
도 36 및 도 37은 본 발명의 실시 예에 따른 전자기기에서 전광판 아이템에 대한 편집 동작의 화면 예시를 도시한 도면들이다.
상기 도 36 및 도 37에 나타낸 바와 같이, 상기 도 36은 상기 전자기기의 세로화면(Portrait view) 상태의 예시를 나타낸 것이고, 상기 도 37은 상기 전자기기의 가로화면(Landscape view) 상태의 예시를 나타낸 것이다.
상기 도 36을 참조하면, 사용자가 전광판 아이템에 의한 기능을 최초 실행 시, 전자기기는 참조부호 3610과 같이 화이트(White) 배경색에 텍스트가 설정되지 않은 화면을 기본으로 제공할 수 있다. 만약, 사용자가 상기 전광판 아이템에 대해 이전에 설정한 오브젝트(화면 및/또는 텍스트)가 존재하는 경우, 상기 전자기기는 참조부호 3630에 나타낸 바와 같이 사용자 설정에 따른 오브젝트의 화면을 제공한다. 상기 참조부호 3610 및 참조부호 3630을 비교하면, 상기 참조부호 3610의 경우에는 텍스트 없이 기본색이 화이트 배경색만 제공되고, 상기 참조부호 3630의 경우에는 "Happy"라는 텍스트와 사용자 설정에 따른 배경색(예컨대, 분홍색)이 제공될 수 있다. 이때, 상기 "Happy"의 텍스트 역시 사용자 설정에 따른 글자색, 크기를 가질 수 있다.
다음으로, 사용자는 상기 참조부호 3610과 같이 전광판 아이템의 최초 진입에 따른 오브젝트 설정, 또는 상기 참조부호 3630과 같이 이전에 설정된 오브젝트에 대한 편집을 수행할 수 있다. 이를 위하여, 사용자는 화면상의 임의의 영역에 사용자 입력(예컨대, 탭 입력)을 발생할 수 있다. 그러면, 상기 전자기기는 상기 사용자 입력이 전광판 아이템에 대한 편집 메뉴 요청인 것으로 인지하고, 참조부호 3260 및 참조부호 3640과 같이 편집 메뉴(3650)를 제공한다. 이후, 사용자는 상기 참조부호 3260 또는 참조부호 3640에서 상기 편집 메뉴(3650)를 이용하여 전광판 아이템에 대응하는 오브젝트에 대한 상세 설정을 수행할 수 있다. 이러한 전광판 아이템에 대한 편집 동작에 대해서는 후술하는 도면들을 통해 상세히 나타내기로 한다.
상기 도 37을 참조하면, 상기 도 37은 상기 전자기기의 가로화면(Landscape view) 상태의 예시를 나타낸 것으로, 참조부호 3710, 참조부호 3720 및 참조부호 3750은 상기 도 36을 참조한 설명 부분에서 설명한 바와 같은 상기 전자기기의 세로화면(Portrait view) 상태에서의 동작에 대응한다. 예를 들어, 상기 참조부호 3710은 상기 도 36의 참조부호 3620에 대응하고, 상기 참조부호 3720은 상기 도 36의 참조부호 3640에 대응하고, 상기 참조부호 3750은 상기 도 36의 참조부호 3650에 대응할 수 있다. 즉, 상기 도 37은 전자기기의 가로화면 상태를 나타낸 것으로, 그에 의한 편집 메뉴 진입 동작은 상기 도 36을 참조한 설명 부분에서 설명한 동작에 대응하여 운용할 수 있다.
도 38은 본 발명의 실시 예에 따른 전자기기에서 가로/세로 표시모드에 대응하는 오브젝트 출력 동작 설명을 위해 개략적으로 도시한 도면이다.
상기 도 38을 참조하면, 상기 도 38은 상기 도 32 내지 도 37에 대응하는 전광판 아이템에 의한 이펙트 제공 시, 상기 전자기기의 표시모드가 세로화면에서 가로화면으로 변경되는 인터랙션 입력에 따른 오브젝트 출력 동작의 예시를 나타낸 것이다.
본 발명의 실시 예에서 전자기기는 전광판 아이템에 의한 기능 제공 시, 가로화면 및 세로화면에 관계없이 전광판 아이템의 오브젝트를 기본 설정 값 예컨대, '우'에서 '좌' 방향으로의 설정 값에 따라 상기 오브젝트가 '우'에서 '좌' 방향으로 흘러가는 슬라이딩을 제공할 수 있다. 즉, 본 발명의 실시 예에서 가속도센서, 지자기센서 등의 센서를 통한 회전(rotate) 입력, 기울기(tilt)와 같은 모션 입력 및 전자기기 화면의 현재 표시모드(가로/세로) 변경 입력 등은 오브젝트(문자열)의 슬라이딩 방향과는 무관하도록 제공할 수 있다.
다만, 본 발명의 실시 예에서 블로우 인터랙션과 같은 음성 인터랙션의 경우는 마이크(MIC)를 통해 입력될 수 있다. 이때, 상기 마이크(MIC)의 경우는 전자기기의 일측에 고정되어 장착될 수 있다. 따라서 상기 전자기기가 가로화면인 경우는 블로우 인터랙션의 입력 진입 방향이 세로화면인 경우와는 다르게 된다. 이에, 본 발명의 실시 예에서는 전자기기의 가로화면 및 세로화면에 대응하여 필요에 따라 각각 다른 그래픽 사용자 인터페이스(GUI, Graphical User Interface)를 제공할 수 있다. 예를 들어, 상기 도 38에 나타낸 바와 같이, 전광판 아이템의 오브젝트가 제공되고, 우측에서 마이크(MIC)를 통해 블로우 인터랙션이 입력될 시, 상기 블로우 인터랙션에 대응하게 동작하도록 설정된 기능에 대응하는 오브젝트를 제공할 수 있다.
또한, 본 발명의 실시 예에 따르면, 상기 전광판 아이템의 오브젝트(문자열)에 블로우 인터랙션과 같은 사용자 인터랙션에 따른 이펙트(파도 효과)가 진행되는 동안, 사용자가 전자기기를 특정 방향으로 회전하는 등의 추가 입력이 발생할 수 있다. 이러한 경우, 전자기기는 상기 추가 입력에 대하여, 즉시 상기 오브젝트의 표시 방향을 변경하지 않고, 상기 진행되는 이펙트에 대한 처리가 완료된 후, 해당 변경 사항을 반영하여 제공할 수 있다.
도 39는 본 발명의 실시 예에 따른 전자기기에서 전광판 아이템에서 제공되는 오브젝트의 상세 편집 동작의 화면 예시를 도시한 도면이다.
상기 도 39를 참조하면, 사용자는 참조부호 3910에 나타낸 바와 같이 전광판 아이템에 의해 제공되는 오브젝트의 편집을 위한 옵션 메뉴를 요청할 수 있다. 이때, 상기 옵션 메뉴 요청은 전술한 바와 같이 화면상의 임의의 영역에 발생하는 사용자 입력(예컨대, 탭 입력)일 수 있다. 그러면, 상기 전자기기는 상기 사용자 입력이 전광판 아이템에 대한 편집 메뉴 요청인 것으로 인지하고, 참조부호 3920에 나타낸 바와 같이 편집 메뉴(3925)를 제공한다. 이후, 사용자는 상기 편집 메뉴(3925)를 이용하여 전광판 아이템에 대응하는 오브젝트에 대한 상세 설정을 수행할 수 있다. 이때, 사용자가 편집 메뉴(3925) 진입을 위해 상기 사용자 입력을 발생한 후, 설정된 시간 내에 다른 입력이 없을 시 상기 편집 메뉴(3925)는 사라질 수 있다. 즉, 상기 화면상에서 제거될 수 있다.
상기 편집 메뉴(3925)를 살펴보면, 사용자는 상기 편집 메뉴(3925) 중 '글자 색상' 옵션을 통해 상기 전광판 아이템에 의해 슬라이딩 되는 오브젝트(문자열)에 대한 색상을 설정할 수 있다. 또한, 사용자는 상기 편집 메뉴(3925) 중 '배경색상' 옵션을 통해 상기 전광판 아이템에 의해 제공되는 오브젝트(배경)에 대한 색상을 설정할 수 있다. 또한, 사용자는 상기 편집 메뉴(3925) 중 '문구 입력' 옵션을 통해 상기 전광판 아이템에 의해 슬라이딩 되는 오브젝트(문자열)에 대한 텍스트를 설정할 수 있다. 이때, 상기 편집 메뉴(3925)가 오버레이(Overlay) 표시되고 있는 동안에도 상기 오브젝트(문자열)는 계속하여 슬라이딩 될 수 있다.
먼저, 상기 '글자 색상' 옵션을 이용하는 경우를 살펴보면, 사용자는 상기 참조부호 3920에 나타낸 바와 같이 상기 편집 메뉴(3925) 중 상기 '글자 색상' 옵션에 사용자 입력(예컨대, 탭 입력)을 발생할 수 있다. 그러면, 상기 전자기기는 상기 '글자 색상' 옵션에 대한 사용자 입력에 응답하여, 참조부호 3930과 같이 상기 오브젝트(문자열)의 글자 색상을 설정할 수 있는 편집 화면(팔레트 오브젝트 포함)을 제공할 수 있다.
다음으로, 사용자는 참조부호 3930 및 참조부호 3940에 나타낸 바와 같이, 상기 편집 화면에서 드래그앤드롭 입력 또는 탭 입력 등의 사용자 입력을 통해, 상기 팔레트 오브젝트 상의 커서를 이동함으로써, 희망하는 글자 색상을 지정할 수 있다. 이때, 상기 참조부호 3930 및 3940에 나타낸 바와 같이 상기 사용자 입력의 이동에 대응하여, 미리보기 박스(3935)의 색상이 변경되어 제공될 수 있다. 즉, 상기 미리보기 박스(3935)를 통해, 사용자가 선택하는 글자 색상에 대한 정보(텍스트 및 배경색상 등)가 사용자 입력이 이루어지는 위치에 대응하는 색상으로 즉시 반영되어 제공될 수 있다. 상기 도 39에서는 상기 사용자 입력이 드래그앤드롭 하는 입력에 의하여 색상을 지정하는 동작을 나타내지만, 사용자가 희망하는 해당 색상 위치에 직접 탭 하는 입력에 의하여 색상을 지정할 수도 있음은 물론이다.
다음으로, 사용자는 상기 참조부호 3930 및 참조부호 3940과 같은 동작에 의한 오브젝트(문자열)에 대한 색상 지정을 완료하고자 할 시, 상기 참조부호 3940에 나타낸 바와 같이 상기한 바와 같은 편집 동작의 완료를 명령하는 기능이 할당된 아이템에 사용자 입력(예컨대, 탭 입력)을 발생할 수 있다. 그러면, 상기 전자기기는 상기 사용자 입력에 응답하여, 참조부호 3950과 같이 오브젝트의 색상이 변경된 화면을 제공한다. 이때, 상기 오브젝트는 슬라이딩에 의해 제공되며, 상기 편집 메뉴(3925)의 표시는 생략될 수 있다.
다음으로, 사용자는 상기 참조부호 3950에 나타낸 바와 같이, 옵션 메뉴 요청을 위한 사용자 입력을 발생할 수 있다. 그러면, 상기 전자기기는 상기 사용자 입력이 전광판 아이템에 대한 편집 메뉴 요청인 것으로 인지하고, 참조부호 3960에 나타낸 바와 같이 편집 메뉴(3925)를 제공한다. 이후, 사용자는 상기 편집 메뉴(3925)를 이용하여 전광판 아이템에 대응하는 오브젝트에 대한 상세 설정을 수행할 수 있다. 이하, 상기 편집 메뉴(3925) 중 상기 '배경 색상' 옵션을 이용하는 경우를 살펴보면 다음과 같다.
즉, 사용자는 상기 참조부호 3960에 나타낸 바와 같이 상기 편집 메뉴(3925) 중 상기 '배경 색상' 옵션에 사용자 입력(예컨대, 탭 입력)을 발생할 수 있다. 그러면, 상기 전자기기는 상기 '배경 색상' 옵션에 대한 사용자 입력에 응답하여, 참조부호 3970과 같이 상기 오브젝트(배경)의 배경 색상을 설정할 수 있는 편집 화면(팔레트 오브젝트 포함)을 제공할 수 있다.
다음으로, 사용자는 참조부호 3970 및 참조부호 3980에 나타낸 바와 같이, 상기 편집 화면에서 드래그앤드롭 입력 또는 탭 입력 등의 사용자 입력을 통해, 상기 배경 색상을 지정할 수 있다. 이러한 배경 색상 지정 동작은 전술한 참조부호 3910 내지 참조부호 3950을 참조한 설명 부분에서 설명한 바에 대응하는 동작으로 이루어질 수 있다. 따라서 상기 배경 색상을 지정하는 동작에 대한 부연 설명은 생략하기로 한다.
도 40은 본 발명의 실시 예에 따른 전자기기에서 전광판 아이템에서 제공되는 오브젝트의 상세 편집 동작의 화면 예시를 도시한 도면이다. 특히, 상기 도 40은 전자기기의 표시모드가 가로화면인 경우의 예시를 나타낸다.
상기 도 40을 참조하면, 상기 도 40에 나타낸 가로화면에서의 오브젝트 편집 동작은 전술한 도 39의 세로화면에서와 동작과 동일하다. 즉, 상기 도 40은 상기 전자기기의 가로화면 상태의 예시를 나타낸 것으로, 참조부호 4010, 참조부호 4020 및 참조부호 4030은 상기 도 39에서 나타낸 전자기기의 세로화면 상태에서의 동작에 대응한다. 예를 들어, 상기 참조부호 4010은 상기 도 39의 참조부호 3910에 대응하고, 상기 참조부호 4020은 상기 도 39의 참조부호 3920에 대응하고, 상기 참조부호 4030은 상기 도 39의 참조부호 3930에 대응할 수 있다. 즉, 상기 도 40은 전자기기의 가로화면 상태를 나타낸 것으로, 그에 의한 편집 메뉴 진입 동작 및 편집 절차는 상기 도 39를 참조한 설명 부분에서 설명한 동작에 대응할 수 있다. 따라서 상기 도 40에 대한 구체적인 부연 설명은 생략하기로 한다.
다음으로, 이하에서는 상기 편집 메뉴 중 상기 '문구 입력' 옵션을 이용하는 경우를 하기 도 41 및 도 42를 참조하여 살펴보기로 한다.
도 41 및 도 42는 본 발명의 실시 예에 따른 전자기기에서 전광판 아이템에서 제공되는 오브젝트의 상세 편집 동작의 화면 예시를 도시한 도면들이다. 특히, 상기 도 41 및 도 42는 전광판 아이템에 따른 오브젝트의 텍스트 내용(문구)을 변경하는 동작을 예시로 나타낸다.
상기 도 41 및 도 42에 나타낸 바와 같이, 상기 도 41은 상기 전자기기의 세로화면 상태의 예시를 나타낸 것이고, 상기 도 42는 상기 전자기기의 가로화면 상태의 예시를 나타낸 것이다.
상기 도 41을 참조하면, 사용자는 참조부호 4110에 나타낸 바와 같이 전광판 아이템에 의해 제공되는 오브젝트의 편집을 위한 옵션 메뉴를 요청할 수 있다. 이때, 상기 옵션 메뉴 요청은 전술한 바와 같이 화면상의 임의의 영역에 발생하는 사용자 입력(예컨대, 탭 입력)일 수 있다. 그러면, 상기 전자기기는 상기 사용자 입력이 전광판 아이템에 대한 편집 메뉴 요청인 것으로 인지하고, 참조부호 4120에 나타낸 바와 같이 편집 메뉴(4125)를 제공한다. 이후, 사용자는 상기 편집 메뉴(4125)를 이용하여 전광판 아이템에 대응하는 오브젝트에 대한 상세 설정을 수행할 수 있다. 이때, 사용자가 편집 메뉴(4125) 진입을 위해 상기 사용자 입력을 발생한 후, 설정된 시간 내에 다른 입력이 없을 시 상기 편집 메뉴(4125)는 사라질 수 있다. 즉, 상기 화면상에서 제거될 수 있다.
전술한 바와 같이, 상기 편집 메뉴(4125)를 이용하는 경우 '글자색상', '배경색상' 및 '문구입력' 등의 옵션을 이용한 전광판 아이템의 오브젝트에 대한 설정이 가능하다. 상기 도 39 및 도 40에서는 상기 '글자색상' 및 '배경색상'에 의한 오브젝트를 설정하는 동작에 대하여 살펴보았으며, 이하에서는 상기 도 41 및 도 42를 통해 상기 '문구입력'에 의한 오브젝트를 설정하는 동작에 대하여 살펴보기로 한다.
먼저, 사용자는 상기 참조부호 4120에 나타낸 바와 같이 상기 편집 메뉴(4125) 중 상기 '문구입력' 옵션에 사용자 입력(예컨대, 탭 입력)을 발생할 수 있다. 그러면, 상기 전자기기는 상기 '문구입력' 옵션에 대한 사용자 입력에 응답하여, 참조부호 4130 및 참조부호 4140과 같이 상기 오브젝트의 문구를 설정할 수 있는 편집 화면을 제공할 수 있다.
여기서, 상기 참조부호 4130 및 참조부호 4140에 나타낸 바와 같이, 사용자는 상기 전광판 아이템에 의해 수행될 이펙트의 오브젝트를 설정(예컨대, 텍스트 입력)할 수 있다. 상기 참조부호 4120에서는 이전에 설정된 텍스트가 문자입력창(4131)을 통해 제공된다. 예를 들어, "Happy birthday"라는 텍스트가 이전 설정 값에 따라 제공될 수 있으며, 만약 최초 설정인 경우 상기 문자입력창(4131)은 공백으로 제공될 수 있다.
또한, 사용자는 상기 전자기기의 형태에 따라 다양한 입력 방식을 제공하는 문자 입력기(4133)를 통해 희망하는 텍스트를 입력할 수 있다. 예를 들어, 상기 참조부호 4140에 나타낸 바와 같이 "Welcome, Jenny!"와 같은 텍스트를 새로 입력할 수 있다. 이때, 상기 참조부호 4140에 나타낸 바와 같이 상기 문자 입력기(4133)를 이용한 텍스트 입력 시, 상기 문자입력창(4131)을 통해 사용자 입력에 대응하는 문자가 표시되어 제공될 수 있다. 또한, 참조부호 4135에 나타낸 바와 같이, 입력 가능한 잔여 문자수에 대한 정보를 나타내는 문자수 표시기가 화면상의 일 영역에 제공될 수 있다. 따라서 사용자가 상기 문자 입력기(4133)에 의한 문자 입력 시, 그에 대응하는 문자가 상기 문자입력창(4131)을 통해 제공되며, 아울러, 상기 입력된 문자수에 비례하여 입력 가능한 남은 문자수에 대한 정보가 상기 문자수 표시기(4135)를 통해 제공된다.
한편, 상기 참조부호 4130 및 참조부호 4140에서는 생략하였으나, 본 발명의 실시 예에 따르면 글자의 타입(font type) 및 글자의 크기(font size)를 설정할 수 있는 기능도 옵션으로 제공 가능함은 물론이다.
다음으로, 사용자는 상기 참조부호 4130 및 참조부호 4140과 같은 동작에 의한 오브젝트에 대한 문자 설정을 완료하고자 할 시, 상기 참조부호 4140에 나타낸 바와 같이 상기한 바와 같은 편집 동작의 완료를 명령하는 기능이 할당된 아이템에 사용자 입력(예컨대, 탭 입력)을 발생할 수 있다. 그러면, 상기 전자기기는 상기 사용자 입력에 응답하여, 참조부호 4150과 같이 오브젝트의 텍스트가 변경된 화면을 제공한다. 이때, 상기 변경된 오브젝트는 슬라이딩에 의해 제공되며, 상기 편집 메뉴(4125)의 표시는 생략될 수 있다.
상기 도 42를 참조하면, 상기 도 42는 상기 전자기기의 가로화면 상태의 예시를 나타낸 것으로, 참조부호 4210, 참조부호 4220, 참조부호 4230, 참조부호 4240 및 참조부호 4250은 상기 도 41을 참조한 설명 부분에서 설명한 바와 같은 전자기기의 세로화면 상태에서의 동작에 대응한다. 예를 들어, 상기 참조부호 4210은 상기 도 41의 참조부호 4110에 대응하고, 상기 참조부호 4220은 상기 도 41의 참조부호 4120에 대응하고, 상기 0참조부호 4230은 상기 참조부호 4130에 대응하고, 상기 참조부호 4240은 상기 도 41의 참조부호 4140에 대응하고, 상기 참조부호 4250은 상기 도 41의 참조부호 4150에 대응할 수 있다. 즉, 상기 도 42는 전자기기의 가로화면 상태를 나타낸 것으로, 그에 의한 편집 메뉴 진입 및 그에서 오브젝트를 설정하는 동작은 상기 도 41을 참조한 설명 부분에서 설명한 동작에 대응하여 운용될 수 있다.
도 43은 본 발명의 실시 예에 따른 전자기기에서 환호성 아이템에 의한 이펙트를 제공하는 동작의 화면 예시를 도시한 도면이다.
상기 도 43에 나타낸 바와 같이, 상기 도 43은 환호성 아이템에 사용자 입력이 발생할 시, 상기 환호성 아이템에 의해 초기 제공되는 오브젝트의 화면 예시를 나타낸 것이다. 상기 도 43을 참조하면, 사용자는 참조부호 4310에 나타낸 바와 같이, 환호성 아이템에 사용자 입력(예컨대, 탭 입력)을 발생할 수 있다. 그러면, 상기 전자기기는 상기 사용자 입력에 응답하여, 참조부호 4320에 나타낸 바와 같이 상기 환호성 아이템에 대응하는 오브젝트를 제공할 수 있다.
여기서, 상기 참조부호 4320과 같이 제공되는 초기 화면에서는 사운드는 출력되지 않고, 배경화면의 오브젝트만 제공될 수 있다. 이때, 상기 배경화면은 적어도 한명의 사람이 박수를 치고 있는 동적인 영상(또는 애니메이션 등)의 오브젝트로 제공될 수 있다. 이후, 화면상의 임의의 영역에 사용자 인터랙션이 입력될 시, 상기 사용자 인터랙션에 따라 설정된 환호성/야유 등의 사운드가 출력될 수 있다. 그리고 사용자는 상기 참조부호 4325에 나타낸 바와 같은 커서를 이용하여 사용자가 사운드를 제어할 수 있다. 예를 들어, X축으로의 사용자 인터랙션에 의해서 템포에 대한 제어가 가능하며, Y축으로의 사용자 인터랙션에 의해서 환호성/야유와 같은 출력 사운드의 타입에 대한 제어가 가능하다.
또한, 상기 참조부호 4320과 같이 화면상에서는 생략되지만, 화면 분할에 의한 출력 이펙트의 제어가 가능하다. 예를 들면, 화면상의 상단에 발생하는 사용자 인터랙션에 따라 박수 소리를 크게 출력하거나, 화면상의 하단에 발생하는 사용자 인터랙션에 따라 박수 소리를 작게 출력하거나, 화면상의 우측에 발생하는 사용자 인터랙션에 따라 템포를 빠르게 출력하거나, 화면상의 좌측에 발생하는 사용자 인터랙션에 따라 템포를 느리게 출력하는 등의 제어가 가능하다. 이러한 구체적인 동작에 대해서 하기 도 44 및 도 45를 참조하여 살펴보기로 한다.
도 44 및 도 45는 본 발명의 실시 예에 따른 전자기기에서 환호성 아이템에 의한 이펙트를 제공하는 동작의 화면 예시를 도시한 도면들이다.
상기 도 44 및 도 45에 나타낸 바와 같이, 전자기기는 사용자 입력에 응답하여 환호성 아이템에 대응하는 오브젝트를 제공할 수 있다. 그리고 사용자는 상기 오브젝트가 제공될 시, 상기 오브젝트에 대하여 미리 정의된 다양한 사용자 인터랙션을 입력할 수 있다. 이때, 상기 환호성 아이템에 대하여 각 사용자 인터랙션별 이펙트를 제공하는 예시를 살펴보면 다음과 같다.
먼저, 상기 도 44를 참조하면, 상기 도 44는 상기 오브젝트에서 사용자의 터치앤무브 인터랙션(참조부호 4410 및 참조부호 4420) 또는 탭 인터랙션(참조부호 4430 및 참조부호 4440)이 입력되는 경우의 예시를 나타낸다.
상기 참조부호 4410 및 참조부호 4420에 나타낸 바와 같이, 사용자는 상기 오브젝트의 특정 영역에서 터치한 후, 해당 입력을 임의의 영역으로 무브하는 터치앤무브 인터랙션을 입력할 수 있다. 그러면, 상기 전자기기는 사용자의 상기 터치앤무브 인터랙션을 감지할 시, 상기 터치앤무브 인터랙션에 따라 환호성 사운드의 템포 및 종류를 추출하고, 그에 따른 이펙트를 출력할 수 있다. 예컨대, 상기 참조부호 4410 및 참조부호 4420과 같이 상기 터치앤무브 인터랙션이 화면상에 중앙에서 좌측하단으로 입력될 시, 상기 전자기기는 느린 템포의 작은 박수 소리의 사운드를 연속되게 출력할 수 있다.
또한, 상기 참조부호 4430 및 참조부호 4440에 나타낸 바와 같이, 사용자는 상기 오브젝트의 임의의 영역을 탭하는 탭 인터랙션을 입력할 수 있다. 그러면, 상기 전자기기는 사용자의 상기 탭 인터랙션을 감지할 시, 상기 탭 인터랙션이 입력되는 위치에 따라 환호성 사운드의 템포 및 종류를 추출하고, 그에 따른 이펙트를 출력할 수 있다. 예컨대, 상기 참조부호 4430 및 참조부호 4440과 같이 상기 탭 인터랙션이 화면상의 좌측하단으로 입력될 시, 상기 전자기기는 느린 템포의 작은 박수 소리의 사운드가 한번 출력할 수 있다.
상기 도 44의 실시 예에 따르면, 터치앤무브 인터랙션 또는 탭 인터랙션 입력 동작을 통해 사운드 이펙트의 템포 및 종류에 대한 조정이 가능하다. 또한, 상기 사용자 인터랙션이 입력되는 동안 사운드 이펙트의 출력(템포 및 종류)이, 인터랙션이 입력되는 영역의 상대적 위치에 따라 재생되어 출력될 수 있다. 예를 들어, 상기 터치앤무브 인터랙션이 입력되는 동안에는 해당 영역의 값으로 박수소리가 연속적으로 출력되도록 하고, 상기 탭 인터랙션이 입력되는 경우에는 해당 영역의 박수 소리의 사운드를 한번 출력되도록 할 수 있다.
다음으로, 상기 도 45를 참조하면, 상기 도 45는 상기 오브젝트에서 사용자의 블로우 인터랙션이 입력되는 경우의 예시를 나타낸다.
상기 참조부호 4510 및 참조부호 4520에 나타낸 바와 같이, 사용자는 상기 오브젝트에 대해 블로우 인터랙션을 입력할 수 있다. 그러면, 상기 전자기기는 사용자의 상기 블로우 인터랙션을 감지할 시, 상기 블로우 인터랙션에 따라 휘파람 사운드의 템포 및 종류를 추출하고, 그에 따른 이펙트를 출력할 수 있다. 이때, 상기 휘파람 사운드 이펙트 출력은, 상기 블로우 인터랙션이 입력되는 동안 계속하여 출력되고, 또한 상기 블로우 인터랙션은 상기 도 44에 나타낸 바와 같은 환호성 사운드 이펙트를 출력하는 중에도 입력 가능함은 물론이다. 또한, 상기 전자기기는 상기 블로우 인터랙션의 입력 정도(길이, 세기)에 따라 상기 휘파람 사운드를 고저를 제어하여 그에 따른 이펙트를 출력할 수 있다.
도 46은 본 발명의 실시 예에 따른 전자기기에서 버블 아이템에 의한 이펙트를 제공하는 동작의 화면 예시를 도시한 도면이다.
상기 도 46에 나타낸 바와 같이, 상기 도 46은 버블 아이템에 사용자 입력이 발생할 시, 상기 버블 아이템에 의해 초기 제공되는 오브젝트의 예시 및 상기 오브젝트에 발생하는 사용자 인터랙션에 따라 제공되는 이펙트의 화면 예시를 나타낸 것이다. 상기 도 46을 참조하면, 사용자는 참조부호 4610에 나타낸 바와 같이, 버블 아이템에 사용자 입력(예컨대, 탭 입력)을 발생할 수 있다. 그러면, 상기 전자기기는 상기 사용자 입력에 응답하여, 참조부호 4620에 나타낸 바와 같이 상기 버블 아이템에 대응하는 오브젝트를 제공할 수 있다.
여기서, 상기 참조부호 4620과 같이 제공되는 초기 화면에서는 이전에 설정된 배경화면 및 노래제목(4625)이 화면상에 제공될 수 있다. 상기 참조부호 4620과 같은 상태에서 사용자는 마이크(MIC)를 통해 블로우 인터랙션을 입력할 수 있다. 그러면, 상기 전자기기는 참조부호 4630에 나타낸 바와 같이 상기 블로우 인터랙션에 따라 상기 설정된 노래제목에 해당하는 노래파일의 일 구간(한 소절)을 재생하여 출력하고, 아울러, 참조부호 4635에 나타낸 바와 같이 그래픽 이펙트를 함께 출력할 수 있다. 그리고 상기 전자기기는 상기 블로우 인터랙션이 입력되는 정도(길이, 세기 등)에 따라 노래파일의 일 구간을 출력하거나, 또는 다수 구간을 연속되게 출력하며, 상기 그래픽 이펙트(4635)의 개수를 결정할 수 있다. 또한, 상기 전자기기는 상기 블로우 인터랙션이 입력될 때마다 다음 시퀀스의 구간을 재생하게 된다.
도 47은 본 발명의 실시 예에 따른 전자기기에서 버블 아이템에서 실행되는 이펙트를 설정/편집하는 동작의 화면 예시를 도시한 도면이다.
상기 도 47을 참조하면, 사용자는 버블 아이템의 최초 진입에 따른 오브젝트 설정, 또는 이전에 설정된 오브젝트에 대한 편집을 수행할 수 있다. 이를 위하여, 사용자는 참조부호 4710에 나타낸 바와 같이 화면상의 임의의 영역에 사용자 입력(예컨대, 탭 입력)을 발생할 수 있다. 그러면, 상기 전자기기는 상기 사용자 입력이 버블 아이템에 대한 편집 메뉴 요청인 것으로 인지하고, 참조부호 4720에 나타낸 바와 같이 편집 메뉴(4725)를 제공한다.
이후, 사용자는 상기 참조부호 4720에 나타낸 바와 같이 상기 편집 메뉴(4725)에 사용자 입력(예컨대, 탭 입력)을 발생할 수 있다. 그러면, 상기 전자기기는 상기 사용자 입력에 응답하여, 참조부호 4730에 나타낸 바와 같이 상기 버블 아이템의 상세 설정 화면을 제공할 수 있다. 이러한 버블 아이템의 상세 설명 화면에서, 사용자는 상기 버블 아이템에 의해 수행될 이펙트를 설정(예컨대, 노래 선곡과 같은 사운드 선택)할 수 있다. 상기 참조부호 4730에서는 사용자가 "노래2"의 항목을 선택하는 경우를 나타내며, 만약, 사용자가 별도의 다른 설정 없이 다음 단계 또는 완료 단계를 진행할 시, 기본 값인 첫 번째 항목 즉, "노래1"이 자동 지정될 수 있다.
다음으로, 상기 참조부호 4730에 나타낸 바와 같이, 상기 버블 아이템의 이펙트로 상기 "노래2" 항목에 사용자 입력(예컨대, 탭 입력)이 이루어질 시, 상기 전자기기는 참조부호 4740과 같이 상기 설정에 따라 변경된 오브젝트의 화면을 제공한다. 이때, 상기 참조부호 4740에서는 상기 노래제목(4735)은 상기 참조부호 4730에서 선택되는 노래제목으로 변경되며, 참조부호 4710 내지 참조부호 4730에 나타나는 노래제목(4625)과 상이할 수 있다.
한편, 상기 도 47에서는 도시하지 않았으나, 상기 전자기기는 상기 버블 아이템에 대한 상세 설정에서 버블 아이템에 의해 출력되는 그래픽 이펙트(물방울 등)의 개수, 출력 속도, 크기 등의 다양한 설정 기능을 옵션으로 제공할 수도 있음은 물론이다.
도 48 및 도 49는 본 발명의 실시 예에 따른 전자기기에서 이벤트 요소에 이펙트 출력 중 또는 이벤트 요소에 대한 설정 중 이전 메뉴로 진입하는 동작의 화면 예시를 도시한 도면들이다.
상기 도 48 및 도 49를 참조하면, 참조부호 4810 및 참조부호 4910에 나타낸 바와 같이, 사용자는 임의의 이벤트 요소에 의해 사용자 인터랙션에 따른 이펙트 출력을 수행할 수 있다. 이때, 전자기기는 상기 이펙트 출력하는 동안 또는 이펙트 출력 후, 설정된 시간(예컨대, n초, n은 자연수)동안 사용자로부터 어떠한 입력도 발생하지 않으면, 즉 사용자 입력이 없으면, 참조부호 4820 및 참조부호 4920에 나타낸 바와 같이 이전 메뉴를 진입할 수 있는 리턴 아이템(4825, 4925)을 제공할 수 있다.
그러면, 사용자는 상기 리턴 아이템(4825, 4925)을 이용하여, 현재 수행하는 동작을 멈추고 이전 메뉴로의 진입을 요청할 수 있다. 즉, 사용자가 상기 리턴 아이템(4825, 4925)에 사용자 입력(예컨대, 탭 입력)을 발생하면, 상기 전자기기는 참조부호 4830 및 참조부호 4930에 나타낸 바와 같이 상기 수행하던 동작을 중단하고, 이전 메뉴로 진입하여 해당 화면을 제공할 수 있다. 이때, 상기 전자기기는 상기 리턴 아이템에 의한 이전 메뉴 진입 요청을 감지할 시, 설정 방식에 따라 수행 중인 동작(예컨대, 이펙트 출력)을 중지하고 리턴하거나, 또는 수행 중인 동작(예컨대, 이펙트 출력)을 완료한 후 리턴할 수 있다.
한편, 이상에서는 본 발명의 실시 예에 따른 화면 예시들을 설명함에 있어서, 사용자 인터랙션으로 단일 인터랙션이 입력되는 경우를 예시로 하여 설명하였다. 하지만, 본 발명의 동작이 상기 단일 인터랙션에 의해서만 동작하는 것은 아니며, 서로 다른 복수개의 복합 인터랙션에 의해 동작할 수도 있음은 물론이다. 예를 들면, 사용자는 블로우 인터랙션을 이용한 이펙트 출력을 제어하는 중에, 탭 인터랙션을 함께 발생할 수 있다. 그러면, 전자기기는 상기 블로우 인터랙션에 따른 이펙트를 출력함과 아울러, 상기 이펙트 출력 중에 상기 탭 인터랙션을 감지할 시, 상기 블로우 인터랙션에 따른 이펙트 출력은 유지하는 상태에서, 상기 탭 인터랙션에 따른 이펙트를 함께 출력할 수 있다.
이상에서는, 본 발명의 실시 예를 설명함에 있어서, 사용자의 전자기기를 이용하여 사용자 인터랙션별 이펙트를 출력하는 동작 및 그의 예시들에 대하여 살펴보았다. 다음으로, 이하에서는 전술한 바와 같은 본 발명의 엔터테인먼트 기능을 지원하는 전자기기들 간에, 유무선 통신을 통해 설정 정보를 공유하는 동작 및 유무선 통신에 의해 연결된 전자기기들에서 인터랙션 입력 및 그에 따른 이펙트를 쌍방 간에 출력하는 동작에 대하여 살펴보기로 한다.
도 50은 본 발명의 실시 예에 따른 엔터테인먼트 기능을 가지는 전자기기들 간의 상호작용에 의한 동작을 설명하기 위해 개략적으로 도시한 도면이다.
상기 도 50을 참조하면, 본 발명의 전자기기(5010)는 유선통신 또는 무선통신을 통해 다른 전자기기(5030)와 통신할 수 있다. 상기 전자기기(5010)는 상기 유선통신 또는 무선통신에 의하여, 엔터테인먼트 기능과 관련된 데이터 및 설정정보를 다른 전자기기(5030)와 공유할 수 있다. 예를 들어, 풍선 아이템에 의한 오브젝트, 상기 오브젝트에 대한 사용자 인터랙션별 출력 이펙트, 상기 이펙트에 대한 설정 정보 등을 공유할 수 있다. 상기 공유는 사용자 입력에 대응하여, 유선통신 또는 무선통신에 이용되는 파일 전송 기술에 의해 전송될 수 있다. 또는 MMS(Multimedia Messaging Service) 등의 메시지 서비스에 의해 전송될 수 있다. 또는 블루투스 등의 근거리 무선통신에 의해 전송될 수 있다. 또한, 상기 도 50에서는 생략하였으나, 상기 데이터 및 설정정보는 외부 저장매체를 이용한 공유도 가능함은 물론이다.
또한, 상기와 같이 상기 전자기기들(5010)(5030) 간에 연결이 이루어질 시, 어느 하나의 전자기기에서 실행되는 인터랙션에 따라 그에 대한 이펙트 출력을 상대 전자기기를 통해 출력할 수도 있다. 예를 들어, 송신측 전자기기를 상기 전자기기(5010)(제1 전자기기)라 하고, 수신측 전자기기를 상기 다른 전자기기(5030) 중 어느 하나의 전자기기(제2 전자기기)라 가정할 시, 사용자는 상기 제1 전자기기(5010)를 이용한 엔터테인먼트 기능을 실행하고, 상기 제1 전자기기에서 사용자 인터랙션을 입력할 수 있다. 그러면, 상기 제1 전자기기에 의한 사용자 인터랙션에 따른 결과 즉, 이펙트 오브젝트는 상기 제2 전자기기에 의해 재생 출력될 수 있다. 이러한 컨텐츠 공유(Contents Sharing) 기술에 대하여 하기 도 51 내지 도 54를 참조하여 구체적으로 살펴보기로 한다. 하지만, 본 발명의 컨텐츠 공유 기술이 하기에서 기술하는 내용에 한정되는 것은 아니므로, 하기의 실시 예에 의거하여 다양한 실시 예들에 적용할 수 있음에 유의하여야 한다.
도 51 내지 도 54는 본 발명의 실시 예에 따른 전자기기들 간의 상호작용에 의한 이펙트 출력 동작 예시를 도시한 도면들이다.
상기 도 51 내지 도 54를 참조하면, 먼저 제1전자기기(5010)와 제2전자기기(5030)는 지원하는 통신방식에 따른 절차에 의해 서로 간의 연결을 설정할 수 있다(5101단계). 이때, 상기 연결 설정 시 각 전자기기들(5010, 5030)은 본 발명의 실시 예에 따른 엔터테인먼트 기능을 활성화할 수 있다. 예를 들면, 상기 각 전자기기들(5010, 5030)은 각각의 화면을 구동하고, 상기 엔터테인먼트 기능에 따른 데이터 송수신을 위한 모드를 활성화할 수 있다.
한편, 본 발명의 실시 예에서, 상기 전자기기들(5010, 5030) 간의 연결은, 블루투스 통신과 같은 근거리 무선통신에 의한 연결, 데이터케이블 등을 이용한 유선통신에 의한 연결, 무선 랜 기술을 이용한 무선통신에 의한 연결 및 이동통신 기술을 이용한 무선통신에 의한 연결 등이 가능하다. 따라서 상기 전자기기들(5010, 5030) 간에 이루어지는 통신방식은 상기 연결에 대응하는 무선통신방식이거나 유선통신방식 중 어느 하나의 통신방식일 수 있다. 이때, 상기 도 51 내지 도 54에서는 근거리 무선통신을 이용하는 경우를 예로 하여 설명한다. 또한, 본 발명의 실시 예에서 이용되는 상기 근거리 무선통신은, 블루투스 통신, 적외선 통신, 지그비 통신, 및 기타 근거리에서 통신채널을 형성하여 신호를 송수신할 수 있는 다양한 무선통신의 적용이 가능함은 물론이다.
다음으로, 상기 제1전자기기(5010)는 사용자의 이벤트 요소 선택에 따른 해당 오브젝트를 출력한다(5103단계). 즉, 상기 제1전자기기(5010)는 상기 도 52에 나타낸 바와 같이, 사용자 요청에 따라 풍선 아이템에 대응하는 오브젝트를 표시할 수 있다. 이때, 상기 제1전자기기(5010)는 상기 오브젝트 출력과 함께, 상기 오브젝트에 대한 정보(오브젝트 정보)를 상기 제2전자기기(5030)로 전송할 수 있다(5105단계). 그러면, 상기 제2전자기기(5030)는 상기 오브젝트 정보를 수신할 시, 상기 정보에 대응하여 상기 오브젝트를 상기 제2전자기기(5030)의 화면상에 출력할 수 있다. 이러한 예시가 상기 도 53에 나타나 있다.
여기서, 상기 도 51 및 도 52에서는 상기 제1전자기기(5010)에서 실행되는 오브젝트에 대한 오브젝트 정보를 전송하는 것을 예시로 나타내었으나, 상기 제1전자기기(5010)는 상기 오브젝트 자체에 대한 데이터(오브젝트 데이터)를 전송할 수도 있음은 물론이다. 이러한 경우, 상기 제2전자기기(5030)는 상기 오브젝트 데이터를 수신하고, 수신하는 상기 오브젝트 데이터를 디코딩 등의 절차를 수행한 후, 자신의 화면상에 출력할 수 있다.
다음으로, 상기 제1전자기기(5010)는 상기 오브젝트가 출력된 상태에서 사용자의 인터랙션 입력을 감지할 수 있다(5109단계). 그러면, 상기 제1전자기기(5010)는 입력되는 상기 사용자 인터랙션을 분석한다(5111단계). 예를 들면, 상기 제1전자기기(5010)는 상기 인터랙션이 상기 오브젝트에 대한 음성 인터랙션(예컨대, 블로우 인터랙션)인지, 터치 인터랙션(예컨대, 탭 인터랙션 등)인지, 모션 인터랙션(예컨대, 방향전환 인터랙션)인지, 또는 여러 가지 인터랙션이 조합된 복합 인터랙션인지 등을 판단할 수 있다.
다음으로, 상기 제1전자기기(5010)는 상기 분석하는 인터랙션에 따른 제어정보(인터랙션 제어정보)를 생성한다(5113단계). 그리고 상기 제1전자기기(5010)는 상기 인터랙션 제어정보를 상기 제2전자기기(5030)로 전송한다(5115단계). 이때, 상기 제1전자기기(5010)는 상기 인터랙션 제어정보를 상기 제2전자기기(5030)로 전송한 후, 상기 사용자 인터랙션에 따른 이펙트를 출력할 수 있다(5117단계). 이때, 상기 제1전자기기(5010)에서의 이펙트 출력은 설정 방식에 따라 생략될 수 있음은 물론이다.
다음으로, 상기 제2전자기기(5030)는 상기 제1전자기기(5010)로부터 상기 인터랙션 제어정보를 수신하면, 상기 인터랙션 제어정보에 의하여 상기 오브젝트에 대한 인터랙션을 추출할 수 있다(5119단계). 즉, 상기 제2전자기기(5030)는 상기 인터랙션 제어정보에 대응하는 인터랙션 정보를 추출할 수 있다. 상기 인터랙션에 따른 이펙트를 출력할 수 있다(5121단계). 상기 5109단계 내지 5121단계에 대한 동작 예시가 상기 도 53 및 도 54에 나타나 있다.
여기서, 상기에서는 상기 제2전자기기(5030)가 상기 제1전자기기(5010)의 인터랙션 제어정보에 대응하는 인터랙션을 제2전자기기(5030)에 미리 정의되는 설정정보로부터 추출하고, 그에 대응하여 이펙트 출력을 처리하는 동작을 예시로 나타내었다. 하지만, 상기 제2전자기기(5030)는 상기 제1전자기기(5010)로부터 상기 인터랙션 제어정보를 수신할 시, 상기 인터랙션 제어정보에 의거하여 이펙트 출력을 처리할 수도 있음은 물론이다.
또한, 상기에서는 상기 제1전자기기(5010)가 인터랙션 제어정보를 전송하는 것을 예시로 나타내었으나, 실제 이펙트의 동영상 파일 또는 플래시 파일 등의 이펙트 파일을 상기 제2전자기기(5030)로 전송할 수도 있다. 이러한 경우, 상기 제2전자기기(5030)는 상기 수신하는 이펙트 파일을 디코딩 등에 의한 절차를 수행한 후, 상기 이펙트 파일의 재생에 의한 이펙트 출력을 처리할 수도 있음은 물론이다.
이상에서 상기 도 50 내지 도 54를 참조하여 살펴본 바와 같이, 본 발명의 실시 예에 따르면, 제1전자기기(5010)에서 사용자 인터랙션이 입력되고, 상기 사용자 인터랙션에 대응하는 이펙트를 상기 제2전자기기(5030)를 통해 출력할 수 있다. 이에 의해, 전자기기들(5010, 5030)간 컨텐츠 공유에 의한 엔터테인먼트 서비스를 제공할 수 있다.
한편, 이상에서는 이벤트 요소에 대응하는 오브젝트를 통해 사용자 인터랙션을 입력받고, 상기 사용자 인터랙션에 따른 이펙트 오브젝트를 출력하는 본 발명의 엔터테인먼트 기능에 대하여 살펴보았다. 이러한 본 발명의 엔터테인먼트 기능은, 전술한 바와 같이 단독으로 실행되거나, 또는 전자기기에서 기본적으로 제공되는 어플리케이션 실행에 따른 부가기능(예컨대, 일정관리 기능, 카메라 기능, 폰북 기능 등)과 연동하여 부가적인 서비스의 제공도 가능함은 물론이다.
예를 들면, 생일 아이템과 일정관리 기능과 연동하여, 상기 일정관리 기능에 의해 설정된 특정 사용자의 생일 정보를 검출할 시, 상기 생일 정보에 따른 해당 날짜 및/또는 시간에 대기화면(idle screen)에 상기 생일 아이템에 대응하는 아이콘(예컨대, 위젯 등) 형태로 표시할 수 있다. 이를 통해, 전자기기 사용자는 아이콘을 통해 이벤트 서비스를 바로 이용하거나, 또는 상대 사용자에게 생일 축하를 위한 이벤트 서비스를 제공할 수 있다.
또한, 다른 예시로 각 이벤트 요소에 대응하는 오브젝트를 폰북 기능에 의해 설정된 컨텐츠(사용자 정보)의 포토 식별자(Photo ID)와 연동하여 저장할 수 있다. 이후, 사용자는 상기 연동되는 오브젝트를 통해 입력 가능한 사용자 인터랙션 및 상기 사용자 인터랙션별 이펙트 오브젝트를 상기 컨텐츠 선택만으로 해당 사용자에게 전송하도록 할 수 있다. 즉, 전술한 바와 같은 컨텐츠 공유 시, 사용자는 해당 사용자의 컨텐츠(사용자 정보)를 선택하는 절차만으로, 엔터테인먼트 기능에 따른 데이터 및 설정정보 등을 해당 사용자에게로 전송할 수 있다.
또한, 본 발명의 실시 예에 따르면, 이펙트 오브젝트 특히, 배경음악 및 배경이미지로 제공되는 오브젝트를, 전자기기에 저장된 음악파일, 사진 데이터 등을 이용하여 제공할 수도 있음은 물론이다.
한편, 본 명세서와 도면에 개시된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.
도 1 내지 도 3은 본 발명의 실시 예에 따른 전자기기의 예시를 개략적으로 도시한 도면들,
도 4는 본 발명의 실시 예에 따른 전자기기의 블록 구성을 개략적으로 도시한 도면,
도 5 내지 도 8은 본 발명의 실시 예에 따른 전자기기에서 하나 이상의 인터랙션에 따라 이벤트를 제공하기 위한 화면 예시를 도시한 도면들,
도 9 내지 도 13은 본 발명의 실시 예에 따른 전자기기에서 사용자 인터랙션에 따라 이벤트 요소별 이펙트에 의한 이벤트가 제공되는 화면 예시를 도시한 도면들,
도 14는 본 발명의 실시 예에 따른 전자기기에서 이벤트 요소에 의한 이벤트 실행 시 사용자 인터랙션별 이펙트를 제공하는 제어 방법을 도시한 도면,
도 15는 본 발명의 실시 예에 따른 전자기기에서 사용자 인터랙션에 따라 전자기기를 제어하는 전체 동작을 개략적으로 도시한 도면,
도 16은 본 발명의 실시 예에 따른 전자기기에서 이벤트 요소의 타입에 따른 처리 동작을 도시한 도면,
도 17은 본 발명의 실시 예에 따른 전자기기에서 그룹 박스 아이템을 구성하는 화면 예시를 도시한 도면,
도 18은 본 발명의 실시 예에 따른 전자기기에서 그룹박스 아이템을 설정/편집하는 동작 예시를 도시한 도면,
도 19는 본 발명의 실시 예에 따른 전자기기에서 이벤트 요소별 실행되는 이펙트를 설정/편집하는 동작 예시를 도시한 도면,
도 20은 본 발명의 실시 예에 따른 전자기기에서 생일 아이템에 의해 각 이벤트 요소별 이펙트를 제공하는 동작의 개략적인 화면 예시를 도시한 도면,
도 21 및 도 22는 본 발명의 실시 예에 따른 전자기기에서 촛불 아이템에 의한 이펙트를 제공하는 동작의 화면 예시를 도시한 도면들,
도 23 내지 도 28은 본 발명의 실시 예에 따른 전자기기에서 폭죽 아이템에 의한 이펙트를 제공하는 동작의 화면 예시를 도시한 도면들,
도 29 및 도 30은 본 발명의 실시 예에 따른 전자기기에서 풍선 아이템에 의한 이펙트를 제공하는 동작의 화면 예시를 도시한 도면들,
도 31은 본 발명의 실시 예에 따른 전자기기에서 풍선 아이템에 의해 처리되는 이펙트에 대한 설정 동작을 개략적으로 도시한 도면,
도 32 내지 도 35는 본 발명의 실시 예에 따른 전자기기에서 전광판 아이템에 의한 이펙트를 제공하는 동작의 화면 예시를 도시한 도면들,
도 36 및 도 37은 본 발명의 실시 예에 따른 전자기기에서 전광판 아이템에 대한 편집 동작의 화면 예시를 도시한 도면들,
도 38은 본 발명의 실시 예에 따른 전자기기에서 가로/세로 표시모드에 대응하는 오브젝트 출력 동작 설명을 위해 개략적으로 도시한 도면,
도 39 내지 도 42는 본 발명의 실시 예에 따른 전자기기에서 전광판 아이템에서 제공되는 오브젝트의 상세 편집 동작의 화면 예시를 도시한 도면들,
도 43 내지 도 45는 본 발명의 실시 예에 따른 전자기기에서 환호성 아이템에 의한 이펙트를 제공하는 동작의 화면 예시를 도시한 도면들,
도 46은 본 발명의 실시 예에 따른 전자기기에서 버블 아이템에 의한 이펙트를 제공하는 동작의 화면 예시를 도시한 도면,
도 47은 본 발명의 실시 예에 따른 전자기기에서 버블 아이템에서 실행되는 이펙트를 설정/편집하는 동작의 화면 예시를 도시한 도면,
도 48 및 도 49는 본 발명의 실시 예에 따른 전자기기에서 이벤트 요소에 이펙트 출력 중 또는 이벤트 요소에 대한 설정 중 이전 메뉴로 진입하는 동작의 화면 예시를 도시한 도면들,
도 50은 본 발명의 실시 예에 따른 엔터테인먼트 기능을 가지는 전자기기들 간의 상호작용에 의한 동작을 설명하기 위해 개략적으로 도시한 도면,
도 51 내지 도 54는 본 발명의 실시 예에 따른 전자기기들 간의 상호작용에 의한 이펙트 출력 동작 예시를 도시한 도면들.

Claims (27)

  1. 전자기기에 있어서,
    사용자 입력을 수신하는 과정과,
    상기 사용자 입력에 대응하는 적어도 하나 이상의 이벤트 요소를 디스플레이하는 과정과,
    상기 적어도 하나 이상의 이벤트 요소에 대한 사용자 입력에 대응하여, 상기 사용자 입력에 대응하는 이벤트 요소에 대응하는 적어도 하나 이상의 오브젝트를 확인하는 과정과,
    상기 적어도 하나 이상의 오브젝트를 기 설정된 순서에 기반하여 순차적으로 디스플레이하는 과정과,
    상기 디스플레이된 오브젝트에 대한 사용자 인터랙션을 입력받는 과정과,
    상기 사용자 인터랙션을 분석하고, 분석 결과에 기반하여 상기 사용자 인터랙션의 종류를 식별하는 과정과,
    상기 사용자 인터랙션의 종류에 대응하는 이펙트 오브젝트를 출력하는 과정을 포함하는 것을 특징으로 하는 전자기기에서 이벤트 서비스 제공 방법.
  2. 제1항에 있어서, 상기 이벤트 요소는,
    하나 이상의 단일 이벤트 요소 및 상기 하나 이상의 단일 이벤트 요소가 그룹으로 이루어진 복합 이벤트 요소 중 어느 하나인 것을 특징으로 하는 전자기기에서 이벤트 서비스 제공 방법.
  3. 제2항에 있어서,
    상기 이벤트 요소에 상기 사용자 입력이 발생할 시, 상기 이벤트 요소가 단일 이벤트 요소인지, 복합 이벤트 요소인지 여부를 판별하는 과정을 포함하는 것을 특징으로 하는 전자기기에서 이벤트 서비스 제공 방법.
  4. 제3항에 있어서, 상기 오브젝트를 출력하는 과정은,
    상기 단일 이벤트 요소에 대응하는 오브젝트를 출력하는 과정인 것을 특징으로 하는 전자기기에서 이벤트 서비스 제공 방법.
  5. 제3항에 있어서, 상기 오브젝트를 출력하는 과정은,
    상기 복합 이벤트 요소를 구성하는 하나 이상의 단일 이벤트 요소 중 우선순위에 따른 단일 이벤트 요소의 오브젝트를 출력하는 과정인 것을 특징으로 하는 전자기기에서 이벤트 서비스 제공 방법.
  6. 제2항에 있어서, 상기 이펙트 오브젝트는,
    상기 이벤트 요소와 상기 사용자 인터랙션에 대응하여 적어도 하나의 이펙트가 반영되어 제공되는 오브젝트인 것을 특징으로 하는 전자기기에서 이벤트 서비스 제공 방법.
  7. 제6항에 있어서, 상기 적어도 하나의 이펙트는,
    시각적인 요소의 이펙트, 청각적인 요소의 이펙트 및 촉각적인 요소의 이펙 트 중 적어도 하나를 포함하는 것을 특징으로 하는 전자기기에서 이벤트 서비스 제공 방법.
  8. 제2항에 있어서, 상기 사용자 인터랙션은,
    음성 인터랙션, 터치 인터랙션, 모션 인터랙션 및 복합 인터랙션 중 어느 하나의 인터랙션인 것을 특징으로 하는 전자기기에서 이벤트 서비스 제공 방법.
  9. 제8항에 있어서,
    상기 사용자 인터랙션은 이벤트 요소별로 하나 이상의 인터랙션이 설정되며, 상기 하나 이상의 인터랙션에 하나 이상의 이펙트 오브젝트가 설정되는 것을 특징으로 하는 전자기기에서 이벤트 서비스 제공 방법.
  10. 제2항에 있어서,
    입력되는 상기 사용자 인터랙션을 분석하는 과정과,
    상기 사용자 인터랙션에 대응하는 적어도 하나의 이펙트 오브젝트를 추출하는 과정과,
    상기 이펙트 오브젝트의 재생에 의하여 적어도 하나의 이펙트를 출력하는 과 정을 포함하는 것을 특징으로 하는 전자기기에서 이벤트 서비스 제공 방법.
  11. 제10항에 있어서,
    상기 이펙트 오브젝트는 상기 사용자 인터랙션에 대응하는 동적인 오브젝트의 재생에 의해 출력되는 것을 특징으로 하는 전자기기에서 이벤트 서비스 제공 방법.
  12. 제2항에 있어서,
    상기 이벤트 요소의 오브젝트에 사용자 인터랙션이 입력될 시, 상기 사용자 인터랙션의 입력 정도를 판단하는 과정과,
    상기 사용자 인터랙션의 입력 정도에 따라 상이한 이펙트 오브젝트를 출력하는 과정을 포함하는 것을 특징으로 하는 전자기기에서 이벤트 서비스 제공 방법.
  13. 제2항에 있어서,
    상기 이벤트 요소의 오브젝트에 연속된 사용자 인터랙션이 입력될 시, 상기 연속된 사용자 인터랙션의 각각에 해당하는 이펙트 오브젝트를 순차적으로 출력하는 것을 특징으로 하는 전자기기에서 이벤트 서비스 제공 방법.
  14. 제2항에 있어서,
    상기 사용자 인터랙션에 따른 이펙트 오브젝트 출력 중 다른 타입의 제2 사용자 인터랙션이 입력될 시, 상기 제2 사용자 인터랙션에 따른 이펙트 오브젝트를 이전에 출력 중인 상기 이펙트 오브젝트와 융합하여 제공하는 것을 특징으로 하는 전자기기에서 이벤트 서비스 제공 방법.
  15. 제2항에 있어서,
    상기 이벤트 요소와 상기 전자기기의 어플리케이션을 연동하는 과정과,
    상기 어플리케이션 실행 시, 상기 어플리케이션과 연동되는 이벤트 요소의 오브젝트를 출력하는 과정을 포함하는 것을 특징으로 하는 전자기기에서 이벤트 서비스 제공 방법.
  16. 제2항에 있어서,
    상기 사용자 인터랙션을 제1전자기기에서 입력받는 과정과,
    상기 제1전자기기의 상기 사용자 인터랙션에 대응하는 상기 이펙트 오브젝트를 제2전자기기에서 출력하는 과정을 포함하는 것을 특징으로 하는 전자기기에서 이벤트 서비스 제공 방법.
  17. 제16항에 있어서,
    상기 제1전자기기 및 상기 제2전자기기는 설정된 통신방식에 의해 서로 연결되며, 상기 이벤트 요소, 상기 이벤트 요소의 오브젝트, 상기 사용자 인터랙션 및 상기 이펙트 오브젝트에 대응하는 데이터 및 설정정보를 상기 통신방식에 의해 서로 공유하는 것을 특징으로 하는 전자기기에서 이벤트 서비스 제공 방법.
  18. 제16항에 있어서,
    상기 제1전자기기는 상기 이벤트 요소의 오브젝트 출력 시, 상기 오브젝트에 대한 오브젝트 정보를 상기 제2전자기기로 제공하는 과정과,
    상기 제2전자기기는 수신하는 상기 오브젝트 정보에 의하여 오브젝트를 출력하는 과정을 포함하는 것을 특징으로 하는 전자기기에서 이벤트 서비스 제공 방법.
  19. 제16항에 있어서,
    상기 제1전자기기는 상기 사용자 인터랙션에 따른 인터랙션 제어정보를 상기 제2전자기기로 제공하는 과정과,
    상기 제2전자기기는 상기 인터랙션 제어정보에 의하여 상기 이펙트 오브젝트를 출력하는 과정을 포함하는 것을 특징으로 하는 전자기기에서 이벤트 서비스 제공 방법.
  20. 제19항에 있어서,
    상기 이펙트 오브젝트는 상기 제1전자기기 및 제2전자기기 모두에 출력되는 것을 특징으로 하는 전자기기에서 이벤트 서비스 제공 방법.
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
  25. 전자기기에서 이벤트 서비스 제공 장치에 있어서,
    사용자 입력 또는 하나 이상의 사용자 인터랙션을 입력받는 입력수단과,
    상기 사용자 인터랙션을 분석하고, 분석 결과에 기반하여 상기 사용자 인터랙션의 종류를 식별하는 분석 수단과,
    상기 사용자 입력에 대응하는 적어도 하나 이상의 이벤트 요소 및 상기 입력수단을 통해 입력되는 사용자 인터랙션의 종류에 대응하는 이펙트 오브젝트를 출력하는 출력수단을 포함하고,
    상기 분석 수단은
    상기 적어도 하나 이상의 이벤트 요소 중 사용자가 선택한 이벤트 요소에 대응하는 적어도 하나 이상의 오브젝트를 확인하고,
    상기 출력 수단은
    상기 적어도 하나 이상의 오브젝트를 기 설정된 순서에 기반하여 순차적으로 출력하고,
    상기 사용자 인터랙션은
    상기 출력된 적어도 하나 이상의 오브젝트에 대한 인터랙션인 것을 특징으로 하는 전자기기에서 이벤트 서비스 제공 장치.
  26. 제25항에 있어서, 상기 입력수단은,
    미리 정의되는 각 사용자 인터랙션을 입력받을 수 있는 장치를 나타내며, 음성입력수단, 터치입력수단, 모션입력수단 중 적어도 하나를 포함하는 것을 특징으로 하는 전자기기에서 이벤트 서비스 제공 장치.
  27. 제26항에 있어서, 상기 출력수단은,
    미리 정의되는 다양한 이펙트에 대응하는 이펙트 오브젝트를 출력할 수 있는 장치를 나타내며, 오디오신호 출력수단, 영상 출력수단, 진동 출력수단 중 적어도 하나를 포함하는 것을 특징으로 하는 전자기기에서 이벤트 서비스 제공 장치.
KR1020090074748A 2009-08-13 2009-08-13 전자기기에서 이벤트 서비스 제공 방법 및 장치 KR101686913B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020090074748A KR101686913B1 (ko) 2009-08-13 2009-08-13 전자기기에서 이벤트 서비스 제공 방법 및 장치
PCT/KR2010/005237 WO2011019188A2 (en) 2009-08-13 2010-08-10 User interaction method and apparatus for electronic device
US12/855,872 US8635545B2 (en) 2009-08-13 2010-08-13 User interaction method and apparatus for electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090074748A KR101686913B1 (ko) 2009-08-13 2009-08-13 전자기기에서 이벤트 서비스 제공 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20110017188A KR20110017188A (ko) 2011-02-21
KR101686913B1 true KR101686913B1 (ko) 2016-12-16

Family

ID=43586634

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090074748A KR101686913B1 (ko) 2009-08-13 2009-08-13 전자기기에서 이벤트 서비스 제공 방법 및 장치

Country Status (3)

Country Link
US (1) US8635545B2 (ko)
KR (1) KR101686913B1 (ko)
WO (1) WO2011019188A2 (ko)

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7362331B2 (en) * 2000-01-05 2008-04-22 Apple Inc. Time-based, non-constant translation of user interface objects between states
KR101686913B1 (ko) * 2009-08-13 2016-12-16 삼성전자주식회사 전자기기에서 이벤트 서비스 제공 방법 및 장치
US20110084962A1 (en) * 2009-10-12 2011-04-14 Jong Hwan Kim Mobile terminal and image processing method therein
KR101605347B1 (ko) * 2009-12-18 2016-03-22 삼성전자주식회사 휴대단말의 외부 출력 제어 방법 및 장치
KR101660746B1 (ko) * 2010-08-24 2016-10-10 엘지전자 주식회사 이동 단말기 및 이것의 애플리케이션 지시자 설정 방법
US20120054667A1 (en) * 2010-08-31 2012-03-01 Blackboard Inc. Separate and simultaneous control of windows in windowing systems
US9483786B2 (en) 2011-10-13 2016-11-01 Gift Card Impressions, LLC Gift card ordering system and method
CN102479024A (zh) * 2010-11-24 2012-05-30 国基电子(上海)有限公司 手持装置及其用户界面构建方法
KR101728728B1 (ko) * 2011-03-18 2017-04-21 엘지전자 주식회사 이동 단말기 및 그 제어방법
US9684635B2 (en) * 2011-03-21 2017-06-20 Adobe Systems Incorporated Packaging, distributing, presenting, and using multi-asset electronic content
US8854324B2 (en) * 2011-04-13 2014-10-07 Sony Corporation Information processing control device
KR101891803B1 (ko) * 2011-05-23 2018-08-27 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 화면 편집 방법 및 장치
KR20120132069A (ko) * 2011-05-27 2012-12-05 삼성전자주식회사 다중 선택 및 다중 붙이기를 이용한 텍스트 편집을 위한 방법 및 장치
WO2012177641A2 (en) * 2011-06-21 2012-12-27 Net Power And Light Inc. Method and system for providing gathering experience
KR101979283B1 (ko) * 2011-07-12 2019-05-15 한국전자통신연구원 사용자 인터페이스 구현 방법 및 이러한 방법을 사용하는 장치
US8634661B2 (en) * 2011-09-07 2014-01-21 Intellectual Ventures Fund 83 Llc Event classification method using light source detection
US8634660B2 (en) * 2011-09-07 2014-01-21 Intellectual Ventures Fund 83 Llc Event classification method using lit candle detection
US20130058577A1 (en) * 2011-09-07 2013-03-07 Peter O. Stubler Event classification method for related digital images
KR20130093722A (ko) * 2011-12-23 2013-08-23 삼성전자주식회사 디스플레이 장치 및 그 잠금 해제 방법
TW201327356A (zh) * 2011-12-28 2013-07-01 Acer Inc 電子裝置及控制電子裝置的方法
CA3170246A1 (en) 2012-01-10 2013-07-18 Saint-Gobain Ceramics & Plastics, Inc. Abrasive particles having complex shapes and methods of forming same
US10430865B2 (en) 2012-01-30 2019-10-01 Gift Card Impressions, LLC Personalized webpage gifting system
WO2013119702A1 (en) 2012-02-06 2013-08-15 Hothead Games, Inc. Virtual competitive group management systems and methods
WO2013116926A1 (en) 2012-02-06 2013-08-15 Hothead Games, Inc. Virtual opening of boxes and packs of cards
KR101870775B1 (ko) * 2012-02-08 2018-06-26 삼성전자 주식회사 휴대 단말기에서 애니메이션 재생 방법 및 장치
EP2658227B1 (en) * 2012-04-27 2018-12-05 LG Electronics Inc. Exchange of hand-drawings on touch-devices
US9322665B2 (en) * 2012-06-05 2016-04-26 Apple Inc. System and method for navigation with inertial characteristics
US9288840B2 (en) * 2012-06-27 2016-03-15 Lg Electronics Inc. Mobile terminal and controlling method thereof using a blowing action
USD745566S1 (en) * 2012-09-22 2015-12-15 uMotif, Ltd. Display screen or a portion thereof with animated graphical user interface
US9430991B2 (en) 2012-10-02 2016-08-30 Futurewei Technologies, Inc. User interface display composition with device sensor/state based graphical effects
USD747353S1 (en) * 2012-11-30 2016-01-12 Lg Electronics Inc. Multimedia terminal having transitional graphical user interface
AU350085S (en) * 2013-01-04 2013-08-06 Samsung Electronics Co Ltd Display screen for an electronic device
CA2907372C (en) 2013-03-29 2017-12-12 Saint-Gobain Abrasives, Inc. Abrasive particles having particular shapes and methods of forming such particles
USD741893S1 (en) * 2013-07-10 2015-10-27 Lg Electronics Inc. Display of a multimedia terminal with transitional graphical user interface
USD741892S1 (en) * 2013-07-19 2015-10-27 Lg Electronics Inc. Display of a multimedia terminal with transitional graphical user interface
US20150039710A1 (en) * 2013-08-05 2015-02-05 John C. Feghali System and method for sending and receiving action-based digital greeting cards
US9771507B2 (en) 2014-01-31 2017-09-26 Saint-Gobain Ceramics & Plastics, Inc. Shaped abrasive particle including dopant material and method of forming same
USD762236S1 (en) * 2014-02-10 2016-07-26 Tencent Technology (Shenzhen) Company Limited Display screen portion with animated graphical user interface
US9582827B2 (en) * 2014-03-31 2017-02-28 Gift Card Impressions, LLC System and method for digital delivery of vouchers for online gifting
US9471144B2 (en) * 2014-03-31 2016-10-18 Gift Card Impressions, LLC System and method for digital delivery of reveal videos for online gifting
MX2016013465A (es) 2014-04-14 2017-02-15 Saint-Gobain Ceram & Plastics Inc Articulo abrasivo que incluye particulas abrasivas conformadas.
USD751577S1 (en) * 2014-04-15 2016-03-15 Microsoft Corporation Display screen with animated graphical user interface
USD751087S1 (en) * 2014-04-15 2016-03-08 Microsoft Corporation Display screen with animated graphical user interface
WO2016036427A1 (en) * 2014-09-02 2016-03-10 Apple Inc. Electronic device with rotatable input mechanism
DE202015006142U1 (de) 2014-09-02 2015-12-09 Apple Inc. Elektronische Touch-Kommunikation
USD800758S1 (en) 2014-09-23 2017-10-24 Seasonal Specialties, Llc Computer display screen with graphical user interface for lighting
US20160147989A1 (en) * 2014-11-25 2016-05-26 Wipro Limited Method and system for authenticating access to a computing device
US9914864B2 (en) 2014-12-23 2018-03-13 Saint-Gobain Ceramics & Plastics, Inc. Shaped abrasive particles and method of forming same
KR101620050B1 (ko) * 2015-03-03 2016-05-12 주식회사 카카오 인스턴트 메시지 서비스를 통한 시나리오 이모티콘 표시 방법 및 이를 위한 사용자 단말
US20180139553A1 (en) * 2015-04-28 2018-05-17 Huawei Technologies Co., Ltd. Method for Operating Mobile Terminal Based on Blowing Action and Mobile Terminal
US11209972B2 (en) * 2015-09-02 2021-12-28 D&M Holdings, Inc. Combined tablet screen drag-and-drop interface
CA2988012C (en) 2015-06-11 2021-06-29 Saint-Gobain Ceramics & Plastics, Inc. Abrasive article including shaped abrasive particles
CN106445180B (zh) * 2015-08-04 2019-07-09 北京搜狗科技发展有限公司 一种输入方法和装置
US20170038960A1 (en) * 2015-08-07 2017-02-09 Your Voice Usa Corp. Management of data in an electronic device
KR102422461B1 (ko) * 2015-11-06 2022-07-19 삼성전자 주식회사 햅틱 제공 방법 및 이를 지원하는 전자 장치
RS61896B1 (sr) * 2015-12-29 2021-06-30 Pfizer Supstituisani 3-azabiciklo[3.1.0]heksani kao inhibitori ketoheksokinaze
US10679677B2 (en) * 2016-03-31 2020-06-09 Sony Corporation Information processing device and information processing method
US9919213B2 (en) 2016-05-03 2018-03-20 Hothead Games Inc. Zoom controls for virtual environment user interfaces
KR102313436B1 (ko) 2016-05-10 2021-10-19 생-고뱅 세라믹스 앤드 플라스틱스, 인코포레이티드 연마 입자들 및 그 형성 방법
KR102243356B1 (ko) 2016-05-10 2021-04-23 생-고뱅 세라믹스 앤드 플라스틱스, 인코포레이티드 연마 입자 및 이의 형성 방법
BR112018073693A2 (pt) 2016-05-18 2019-02-26 Apple Inc dispositivos, métodos, e interfaces gráficas de usuário para mensagens
US11320982B2 (en) 2016-05-18 2022-05-03 Apple Inc. Devices, methods, and graphical user interfaces for messaging
US10368208B2 (en) 2016-06-12 2019-07-30 Apple Inc. Layers in messaging applications
USD803238S1 (en) 2016-06-12 2017-11-21 Apple Inc. Display screen or portion thereof with graphical user interface
US10010791B2 (en) 2016-06-28 2018-07-03 Hothead Games Inc. Systems and methods for customized camera views and customizable objects in virtualized environments
US10004991B2 (en) 2016-06-28 2018-06-26 Hothead Games Inc. Systems and methods for customized camera views in virtualized environments
CN106897355A (zh) * 2016-12-31 2017-06-27 天脉聚源(北京)科技有限公司 填充互动的方法和装置
US20180188905A1 (en) * 2017-01-04 2018-07-05 Google Inc. Generating messaging streams with animated objects
USD823330S1 (en) * 2017-01-13 2018-07-17 Apple Inc. Display screen or portion thereof with graphical user interface
US10563105B2 (en) 2017-01-31 2020-02-18 Saint-Gobain Ceramics & Plastics, Inc. Abrasive article including shaped abrasive particles
CN111052770B (zh) 2017-09-29 2021-12-03 苹果公司 空间音频下混频的方法及系统
CN108280865B (zh) * 2017-12-08 2021-05-18 广州视源电子科技股份有限公司 调色方法、系统、存储介质及计算机设备
USD864979S1 (en) * 2018-07-03 2019-10-29 Google Llc Display screen with animated graphical user interface
USD870124S1 (en) * 2018-07-03 2019-12-17 Google Llc Display screen with animated graphical user interface
CN109672830B (zh) * 2018-12-24 2020-09-04 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备及存储介质
US11442549B1 (en) * 2019-02-07 2022-09-13 Apple Inc. Placement of 3D effects based on 2D paintings
US11016643B2 (en) 2019-04-15 2021-05-25 Apple Inc. Movement of user interface object with user-specified content
US11013449B2 (en) * 2019-05-21 2021-05-25 Roshan Narayan Sriram Methods and systems for decoding, inducing, and training peak mind/body states via multi-modal technologies
KR20220116556A (ko) 2019-12-27 2022-08-23 세인트-고바인 세라믹스 앤드 플라스틱스, 인크. 연마 물품 및 이의 형성 방법
US11335088B2 (en) * 2020-03-30 2022-05-17 Snap Inc. Augmented reality item collections
KR20220161461A (ko) 2020-03-31 2022-12-06 스냅 인코포레이티드 메시징 시스템에서 물리적 제품들에 대한 증강 현실 경험들
USD978194S1 (en) * 2021-04-26 2023-02-14 Bottomline Technologies, Inc. Display screen with animated graphical user interface
RU207767U1 (ru) * 2021-08-24 2021-11-15 Федеральное государственное автономное образовательное учреждение высшего образования «Национальный исследовательский университет «Высшая школа экономики» Устройство низколатентной нейрообратной связи

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004177992A (ja) * 2002-11-22 2004-06-24 Panasonic Mobile Communications Co Ltd 風圧センサ付き携帯端末及び風圧センサ付き携帯端末により実行可能なプログラム

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2241629A (en) * 1990-02-27 1991-09-04 Apple Computer Content-based depictions of computer icons
EP0626635B1 (en) * 1993-05-24 2003-03-05 Sun Microsystems, Inc. Improved graphical user interface with method for interfacing to remote devices
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6160554A (en) * 1998-03-19 2000-12-12 Hewlett Packard Company Computer file content preview window
JP3956553B2 (ja) * 1998-11-04 2007-08-08 富士ゼロックス株式会社 アイコン表示処理装置
GB9920327D0 (en) * 1999-08-28 1999-11-03 Koninkl Philips Electronics Nv Menu display for a graphical user interface
US7086011B2 (en) * 2001-07-27 2006-08-01 Hewlett-Packard Development Company, L.P. Multi-component iconic representation of file characteristics
US7093201B2 (en) * 2001-09-06 2006-08-15 Danger, Inc. Loop menu navigation apparatus and method
US7203737B2 (en) * 2001-10-31 2007-04-10 Microsoft Corporation Computer system with file association and application retrieval
US7769794B2 (en) * 2003-03-24 2010-08-03 Microsoft Corporation User interface for a file system shell
US7188316B2 (en) * 2003-03-24 2007-03-06 Microsoft Corporation System and method for viewing and editing multi-value properties
US20050219223A1 (en) * 2004-03-31 2005-10-06 Kotzin Michael D Method and apparatus for determining the context of a device
US7765333B2 (en) * 2004-07-15 2010-07-27 Immersion Corporation System and method for ordering haptic effects
US7689915B2 (en) * 2004-07-29 2010-03-30 Canon Kabushiki Kaisha Image processing apparatus and image processing method using image attribute information and thumbnail displays for display control
KR100590576B1 (ko) * 2004-12-28 2006-11-23 삼성전자주식회사 영상의 촉각 제공 장치 및 방법
US7730425B2 (en) * 2005-11-30 2010-06-01 De Los Reyes Isabelo Function-oriented user interface
US7503009B2 (en) * 2005-12-29 2009-03-10 Sap Ag Multifunctional icon in icon-driven computer system
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
KR100851302B1 (ko) * 2006-11-27 2008-08-08 삼성전자주식회사 휴대 단말기의 대기화면에서의 기능 실행 방법
JP4939959B2 (ja) * 2007-02-02 2012-05-30 ペンタックスリコーイメージング株式会社 携帯機器
KR101426718B1 (ko) * 2007-02-15 2014-08-05 삼성전자주식회사 휴대단말기에서 터치 이벤트에 따른 정보 표시 장치 및방법
KR101450584B1 (ko) * 2007-02-22 2014-10-14 삼성전자주식회사 단말의 화면 표시 방법
JP4899991B2 (ja) * 2007-03-30 2012-03-21 富士ゼロックス株式会社 表示装置及びプログラム
KR20080104858A (ko) * 2007-05-29 2008-12-03 삼성전자주식회사 터치 스크린 기반의 제스쳐 정보 제공 방법 및 장치, 그장치를 포함하는 정보 단말 기기
DE102007039442A1 (de) * 2007-08-21 2009-02-26 Volkswagen Ag Verfahren zum Anzeigen von Informationen in einem Fahrzeug und Anzeigeeinrichtung für ein Fahrzeug
US20090102805A1 (en) * 2007-10-18 2009-04-23 Microsoft Corporation Three-dimensional object simulation using audio, visual, and tactile feedback
US8556720B2 (en) * 2008-01-14 2013-10-15 Disney Enterprises, Inc. System and method for touchscreen video game combat
US8514251B2 (en) * 2008-06-23 2013-08-20 Qualcomm Incorporated Enhanced character input using recognized gestures
JP5228755B2 (ja) * 2008-09-29 2013-07-03 富士通株式会社 携帯端末装置、表示制御方法および表示制御プログラム
US8411046B2 (en) * 2008-10-23 2013-04-02 Microsoft Corporation Column organization of content
KR20100081577A (ko) * 2009-01-06 2010-07-15 삼성전자주식회사 휴대단말에서 오브젝트의 내비게이션 방법 및 장치
JP2011028524A (ja) * 2009-07-24 2011-02-10 Toshiba Corp 情報処理装置、プログラムおよびポインティング方法
KR101686913B1 (ko) * 2009-08-13 2016-12-16 삼성전자주식회사 전자기기에서 이벤트 서비스 제공 방법 및 장치
US8365074B1 (en) * 2010-02-23 2013-01-29 Google Inc. Navigation control for an electronic device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004177992A (ja) * 2002-11-22 2004-06-24 Panasonic Mobile Communications Co Ltd 風圧センサ付き携帯端末及び風圧センサ付き携帯端末により実行可能なプログラム

Also Published As

Publication number Publication date
US20110041086A1 (en) 2011-02-17
KR20110017188A (ko) 2011-02-21
WO2011019188A3 (en) 2011-06-30
WO2011019188A2 (en) 2011-02-17
US8635545B2 (en) 2014-01-21

Similar Documents

Publication Publication Date Title
KR101686913B1 (ko) 전자기기에서 이벤트 서비스 제공 방법 및 장치
JP6301530B2 (ja) タッチデバイスの機能運用方法及び装置
US10134358B2 (en) Head mounted display device and method for controlling the same
US10254924B2 (en) Content presentation and interaction across multiple displays
DK179171B1 (en) Device, Method, and Graphical User Interface for Providing Audiovisual Feedback
JP5765070B2 (ja) 表示切換装置、表示切換方法、表示切換プログラム
US8635544B2 (en) System and method for controlling function of a device
US9372701B2 (en) Management of digital information via a buoyant interface moving in three-dimensional space
CN106155517B (zh) 移动终端及其控制方法
KR20170019242A (ko) 전자 장치에서 유저 인터페이스 제공 방법 및 장치
US20100175008A1 (en) Apparatus and method for playing of multimedia item
US20100174987A1 (en) Method and apparatus for navigation between objects in an electronic apparatus
TW201619856A (zh) 巡覽一瀏覽器中之複數個內容項目的方法、電腦系統及電腦程式產品
KR20080009597A (ko) 사용자 인터페이스 장치 및 그 구현방법
US20080163086A1 (en) Method and Apparatus For Transitions in a User Interface
US20170047082A1 (en) Electronic device and operation method thereof
JP3641631B2 (ja) 携帯電話装置、携帯電話装置の制御方法、携帯電話装置の制御プログラム、および携帯電話装置の制御プログラムを記録したコンピュータ読取可能な記録媒体
CN110737380B (zh) 思维导图展示方法、装置、存储介质及电子设备
JP6453500B1 (ja) ゲームプログラム、方法、および情報処理装置
KR101179947B1 (ko) 휴대전화 및 그 메뉴 표시방법
JP5814731B2 (ja) 検索装置
KR100915667B1 (ko) 터치 입력방식 휴대용 단말기
KR101235688B1 (ko) 사용자 인터페이스 장치 및 그 구현방법
KR101198168B1 (ko) 메뉴 표시기능을 갖는 휴대전화 및 그 메뉴 표시방법
KR20110108688A (ko) 터치 기반의 텍스트 편집 방법 및 이를 구현한 단말기

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191128

Year of fee payment: 4