KR20140055133A - 사용자 단말 장치 및 그 제어 방법 - Google Patents

사용자 단말 장치 및 그 제어 방법 Download PDF

Info

Publication number
KR20140055133A
KR20140055133A KR1020120121519A KR20120121519A KR20140055133A KR 20140055133 A KR20140055133 A KR 20140055133A KR 1020120121519 A KR1020120121519 A KR 1020120121519A KR 20120121519 A KR20120121519 A KR 20120121519A KR 20140055133 A KR20140055133 A KR 20140055133A
Authority
KR
South Korea
Prior art keywords
area
attribute
objects
block
automatically
Prior art date
Application number
KR1020120121519A
Other languages
English (en)
Inventor
서준규
김현진
곽지연
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120121519A priority Critical patent/KR20140055133A/ko
Priority to US13/735,440 priority patent/US20130179816A1/en
Priority to EP13852089.5A priority patent/EP2915032A4/en
Priority to PCT/KR2013/006662 priority patent/WO2014069750A1/en
Publication of KR20140055133A publication Critical patent/KR20140055133A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/30Creation or generation of source code
    • G06F8/34Graphical or visual programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

사용자 단말 장치가 개시된다. 사용자 단말 장치는, 적어도 하나의 오브젝트를 포함하는 제1 영역 및 적어도 하나의 오브젝트를 이용하여 편집을 수행하기 위한 제2 영역을 포함하는 화면을 디스플레이하는 디스플레이부, 제1 영역에 디스플레이된 오브젝트를 제2 영역으로 복사하기 위한 사용자 명령을 입력받는 사용자 인터페이스부 및, 사용자 명령이 입력되면, 오브젝트의 속성에 기초하여 제2 영역 내에서 오브젝트의 속성과 대응되는 위치에 오브젝트가 자동으로 복사되도록 제어하는 제어부를 포함한다.

Description

사용자 단말 장치 및 그 제어 방법 { USER TERMINAL APPARATUS AND CONTROL METHOD THEREOF }
본 발명은 사용자 단말 장치 및 그 제어 방법에 관한 것으로, 더욱 상세하게는 터치 기반의 사용자 단말 장치 및 그 제어 방법에 관한 것이다.
전자 기술의 발달에 힘입어 다양한 유형의 디스플레이 장치가 개발되고 있다. 특히, TV, PC, 랩탑 컴퓨터, 태블릿 PC, 휴대폰, MP3 플레이어 등과 같은 디스플레이 장치들은 대부분의 일반 가정으로까지 보급되어 사용되고 있다.
최근에는 더 새롭고 다양한 기능을 원하는 사용자의 니즈(needs)에 부합하기 위하여, 태블릿 PC, 휴대폰과 같은 다양한 터치 기반의 디바이스에서 사용자 조작의 편의성을 제공하기 위한 다양한 방안이 제안되고 있다.
특히, 터치 기반의 디바이스에서 다양한 화면 편집 기능이 제공됨에 따라 보다 용이하게 복사하여 붙여넣기 기능을 수행할 수 있는 방안이 요구된다.
본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 본 발명의 목적은 오브젝트의 속성에 기초하여 오브젝트 복사 위치를 결정하여 붙여넣기 기능을 수행하는 사용자 단말 장치 및 그 제어 방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시 예에 따른, 사용자 단말 장치는, 적어도 하나의 오브젝트를 포함하는 제1 영역 및 상기 적어도 하나의 오브젝트를 이용하여 편집을 수행하기 위한 제2 영역을 포함하는 화면을 디스플레이하는 디스플레이부, 상기 제1 영역에 디스플레이된 상기 오브젝트를 상기 제2 영역으로 복사하기 위한 사용자 명령을 입력받는 사용자 인터페이스부 및, 상기 사용자 명령이 입력되면, 상기 오브젝트의 속성에 기초하여 상기 제2 영역 내에서 상기 오브젝트의 속성과 대응되는 위치에 상기 오브젝트가 자동으로 복사되도록 제어하는 제어부를 포함한다.
여기서, 상기 제2 영역은 상이한 속성을 갖는 복수의 블럭 영역을 포함하며, 상기 제어부는, 상기 사용자 명령에 따라 상기 오브젝트가 상기 제2 영역 내로 이동되면, 상기 복수의 블럭 영역 중 상기 오브젝트의 속성과 대응되는 블럭 영역에 상기 오브젝트가 자동으로 복사되어 배치되도록 제어할 수 있다.
또한, 상기 복수의 블럭 영역 각각은 기설정된 서식 정보를 가지며, 상기 제어부는, 상기 오브젝트가 상기 블럭 영역에 자동으로 배치되면, 해당 블럭 영역에 기 설정된 서식 정보에 따라 상기 오브젝트의 서식을 변경하여 디스플레이할 수 있다.
이 경우, 상기 사용자 명령은, 상기 오브젝트를 터치하여 상기 제2 영역 내로 드래그하는 사용자 조작이 될 수 있다.
또한, 상기 제어부는, 상기 사용자 명령에 따라 상기 오브젝트가 상기 제2 영역 내에서 상기 오브젝트의 속성과 대응하지 않는 영역으로 이동되면, 상기 오브젝트가 상기 오브젝트의 속성과 대응되는 영역으로 자동으로 이동하여 배치되도록 제어할 수 있다.
또한, 상기 제어부는, 상기 오브젝트의 속성과 대응되는 블럭 영역이 복수 개인 경우, 상기 사용자 명령에 따라 상기 오브젝트가 이동된 위치에서 가장 근접한 블럭 영역에 상기 오브젝트가 자동으로 배치되도록 제어할 수 있다.
또한, 상기 제어부는, 사용자 명령에 따라 상기 제1 영역 내에서 동시에 선택된 복수의 오브젝트가 상기 제2 영역 내로 이동되면, 상기 복수의 오브젝트가 상기 복수의 오브젝트 각각의 속성과 대응되는 복수의 블럭 영역에 각각 자동으로 배치되도록 제어할 수 있다.
이 경우, 상기 복수의 오브젝트를 선택하기 위한 사용자 명령은, 상기 복수의 오브젝트 각각에 대한 멀티 터치 입력 및 상기 복수의 오브젝트를 포함하는 범위를 선택하는 터치 입력 중 하나가 될 수 있다.
여기서, 상기 오브젝트의 속성은 이미지 속성, 텍스트 속성, 리스트 속성 및 동영상 속성 중 적어도 하나를 포함할 수 있다.
한편, 본 발명의 일 실시 예에 따른 사용자 단말 장치의 제어 방법은, 적어도 하나의 오브젝트를 포함하는 제1 영역 및 상기 적어도 하나의 오브젝트를 이용하여 편집을 수행하기 위한 제2 영역을 포함하는 화면을 디스플레이하는 단계, 상기 제1 영역에 디스플레이된 상기 오브젝트를 상기 제2 영역으로 복사하기 위한 사용자 명령을 입력받는 단계 및, 상기 사용자 명령이 입력되면, 상기 오브젝트의 속성에 기초하여 상기 제2 영역 내에서 상기 오브젝트의 속성과 대응되는 위치에 상기 오브젝트를 자동으로 복사하는 단계를 포함한다.
여기서, 상기 제2 영역은 상이한 속성을 갖는 복수의 블럭 영역을 포함하며, 상기 오브젝트를 자동으로 복사하는 단계는, 상기 사용자 명령에 따라 상기 오브젝트가 상기 제2 영역 내로 이동되면, 상기 복수의 블럭 영역 중 상기 오브젝트의 속성과 대응되는 블럭 영역에 상기 오브젝트를 자동으로 복사하여 배치할 수 있다.
또한, 상기 복수의 블럭 영역 각각은 기설정된 서식 정보를 가지며, 상기 오브젝트가 상기 블럭 영역에 자동으로 배치되면, 해당 블럭 영역에 기 설정된 서식 정보에 따라 상기 오브젝트의 서식을 변경하여 디스플레이하는 단계를 더 포함할 수 있다.
이 경우, 상기 사용자 명령은, 상기 오브젝트를 터치하여 상기 제2 영역 내로 드래그하는 사용자 조작이 될 수 있다.
또한, 상기 오브젝트를 자동으로 복사하는 단계는, 상기 사용자 명령에 따라 상기 오브젝트가 상기 제2 영역 내에서 상기 오브젝트의 속성과 대응하지 않는 영역으로 이동되면, 상기 오브젝트를 상기 오브젝트의 속성과 대응되는 영역으로 자동으로 이동하여 배치할 수 있다.
또한, 상기 오브젝트를 자동으로 복사하는 단계는, 상기 오브젝트의 속성과 대응되는 블럭 영역이 복수 개인 경우, 상기 사용자 명령에 따라 상기 오브젝트가 이동된 위치에서 가장 근접한 블럭 영역에 상기 오브젝트를 자동으로 배치할 수 있다.
또한, 상기 오브젝트를 자동으로 복사하는 단계는, 사용자 명령에 따라 상기 제1 영역 내에서 동시에 선택된 복수의 오브젝트가 상기 제2 영역 내로 이동되면, 상기 복수의 오브젝트를 상기 복수의 오브젝트 각각의 속성과 대응되는 복수의 블럭 영역에 각각 자동으로 배치할 수 있다.
또한, 상기 복수의 오브젝트를 선택하기 위한 사용자 명령은, 상기 복수의 오브젝트 각각에 대한 멀티 터치 입력 및 상기 복수의 오브젝트를 포함하는 범위를 선택하는 터치 입력 중 하나가 될 수 있다.
이 경우, 상기 오브젝트의 속성은, 이미지 속성, 텍스트 속성, 리스트 속성 및 동영상 속성 중 적어도 하나를 포함할 수 있다.
상술한 바와 같은 본 발명의 다양한 실시 예에 따르면, 터치 기반 디바이스에서 복수의 오브젝트에 대한 복사하기 기능을 용이하게 수행할 수 있게 된다.
도 1은 본 발명의 일 실시 예에 따른 사용자 단말 장치를 설명하기 위한 도면이다.
도 2는 도 1에 도시된 사용자 단말 장치의 일 실시 예에 따른 세부 구성을 나타내는 블럭도이다.
도 3은 저장부에 저장된 소프트웨어 구성을 설명하기 위한 도면이다.
도 4는 본 발명의 다양한 실시 예에 따른 화면 편집 모드 진입 방법을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시 예에 따른 화면 편집을 위한 탬플릿 제공 방법을 설명하기 위한 도면이다.
도 6 내지 8은 본 발명의 다양한 실시 예에 따른 오브젝트를 이용한 편집 방법을 설명하기 위한 도면들이다.
도 9 및 도 10은 본 발명의 다양한 실시 예에 따른 오브젝트를 이용한 편집 방법을 예를 들어 설명하기 위한 도면들이다.
도 11은 본 발명의 일 실시 예에 따른 사용자 단말 장치의 제어 방법을 설명하기 위한 흐름도이다.
이하에서는 도면을 참조하여 본 발명에 대해 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시 예에 따른 사용자 단말 장치를 설명하기 위한 도면이다.
도 1(a)는 본 발명의 일 실시 예에 따른 사용자 단말 장치의 구현 예를 설명하기 위한 모식도이다.
한편, 사용자 단말 장치(100)는 복수의 윈도우를 화면 상에 동시에 디스플레이할 수 있다. 예를 들어, 사용자 단말 장치(100)는 복수의 어플리케이션을 동시에 실행하여 작업을 수행하는 멀티 태스킹 환경에서 대응되는 복수의 어플리케이션 윈도우를 화면 상에 디스플레이할 수 있다.
구체적으로, 사용자 단말 장치(100)는 사용자 명령에 따라 이미지, 텍스트, 동영상, 리스트 등의 다양한 오브젝트를 포함하는 윈도우(예를 들어, 웹페이지, 사진 이미지 등) 및 해당 화면에 포함된 오브젝트를 이용하여 편집 화면을 구성하기 위한 윈도우를 화면 상에 동시에 디스플레이할 수 있다. 이하에서는 사용자 단말 장치의 구성을 나타내는 블럭도를 중심으로 본 발명의 다양한 실시 예에 대해 설명하도록 한다.
도 1(b)는 본 발명의 일 실시 예에 따른 사용자 단말 장치의 구성을 나타내는 블럭도이다.
도 1(b)에 따르면, 사용자 단말 장치(100)는 디스플레이부(110), 사용자 인터페이스부(120) 및 제어부(130)를 포함한다.
디스플레이부(110)는 화면을 디스플레이한다. 여기에서, 화면은 이미지, 텍스트, 동영상, 리스트 등을 포함할 수 있다.
특히, 디스플레이부(110)는 사용자 명령에 따라 이미지, 텍스트, 동영상, 리스트 등의 다양한 오브젝트를 포함하는 제1 영역 및 제1 영역에 포함된 오브젝트를 이용하여 편집 화면을 구성하기 위한 제2 영역을 포함하는 화면을 디스플레이할 수 있다. 이하에서는 해당 화면 모드를 화면 편집 모드라 명명하도록 한다. 여기서, 제1 영역 및 제2 영역은 각각 어플리케이션 실행에 따른 윈도우 형태로 구현될 수 있으며 윈도우 각각은 위치 이동, 크기 조정 등이 가능한 형태로 제공될 수 있다. 또한, 윈도우 각각은 다양한 메뉴 항목을 포함하는 타이틀 영역(또는 타이틀 바)을 포함할 수 있다. 구체적으로, 타이틀 영역에는 최대화 버튼, 종료 버튼, 핀업 버튼 등이 마련될 수 있다. 이에 따라 각각의 버튼에 대한 조작을 통해 윈도우 최대화 명령, 윈도우 종료 명령, 윈도우 핀업 명령 등을 입력받을 수 있다.
다만, 제1 영역 및 제2 영역에 디스플레이되는 화면은 반드시 윈도우 형태로 구현되는 것은 아니며, 경우에 따라서는 하나의 윈도우에서 영역이 분리되어 디스플레이되는 형태로 구현되는 것도 가능함은 물론이다.
한편, 디스플레이부(110)는 LCD(Liquid Crystal Display Panel), OLED(Organic Light Emitting Diodes) 등으로 구현될 수 있으나, 이에 한정되는 것은 아니다. 특히, 디스플레이부(110)는 터치패드와 상호 레이어 구조를 이루는 터치 스크린 형태로 구현될 수 있다. 이 경우, 디스플레이부(110)은 출력 장치 이외에 후술하는 사용자 인터페이스부(120)로 사용될 수 있게 된다. 여기서, 터치스크린은 터치 입력 위치 및 면적 뿐만 아니라 터치 입력 압력까지도 검출할 수 있도록 구성될 수 있다.
사용자 인터페이스부(120)는 다양한 사용자 명령을 입력받는다.
특히, 사용자 인터페이스부(120)는 상술한 화면 편집 모드에 진입하기 위한 사용자 명령을 입력받을 수 있다. 예를 들어, 웹페이지와 같이 다양한 오브젝트를 포함하는 윈도우 상에 마련된 화면 편집 모드 진입을 위한 버튼에 대한 조작, 윈도우 상의 기설정된 영역을 터치 앤 드래그하여 윈도우의 크기를 축소시키는 조작 등을 통해 화면 편집 모드에 진입할 수 있다.
또한, 사용자 인터페이스부(120)는 화면 편집 모드에서 화면 편집을 위한 다양한 사용자 명령을 입력받을 수 있다. 예를 들어, 웹페이지 상에서 오브젝트를 선택하여 복사하고자 하는 영역으로 이동시키는 터치 앤 드래그 조작을 입력받을 수 있다.
제어부(130)는 사용자 단말 장치(100)의 전반적인 동작을 제어하는 기능을 한다.
제어부(130)는 디스플레이부(110)에 제1 영역에 디스플레이된 오브젝트를 제2 영역으로 복사하기 위한 사용자 명령이 입력되면, 제1 영역에 디스플레이된 오브젝트 중 사용자 명령에 의해 선택된 오브젝트를 제2 영역으로 복사하여 붙여넣기 기능을 수행할 수 있다. 예를 들어, 이미지, 텍스트, 동영상, 리스트 등을 포함하는 웹 페이지를 디스플레이하고, 웹 페이지 상에 포함된 오브젝트를 이용하여 편집 화면을 구성하기 위한 페이지를 디스플레이할 수 있다.
특히, 제어부(130)는 제1 영역에서 사용자 명령에 의해 선택된 오브젝트의 특성 정보에 기초하여 제2 영역 내에서 해당 오브젝트의 속성과 대응되는 위치에 오브젝트가 자동으로 복사되어 배치되도록 제어할 수 있다. 여기서, 오브젝트의 속성은 이미지 속성, 텍스트 속성, 리스트 속성 및 동영상 속성 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다.
한편, 제2 영역은 상이한 속성을 갖는 복수의 블럭 영역으로 구분되어 있을 수 있다. 예를 들어, 제2 영역은 이미지 속성을 갖는 제1 블럭 영역, 텍스트 속성을 갖는 제2 블럭 영역, 리스트 속성을 갖는 제3 블럭 영역 및 동영상 속성을 갖는 제4 블럭 영역 중 적어도 하나를 포함할 수 있다. 또한, 각 블럭 영역에는 서식 정보가 기설정되어 있을 수 있다. 예를 들어, 텍스트 속성을 갖는 제2 블럭 영역의 경우 "바탕체, 12 크기"의 서식이 설정되어 있을 수 있다.
이 경우, 제어부(130)는 사용자 명령에 따라 제1 영역에서 선택된 오브젝트가 제2 영역 내로 이동되면, 제2 영역에 기설정된 복수의 블럭 영역 중 선택된 오브젝트의 속성과 대응되는 블럭 영역에 오브젝트가 자동으로 배치되도록 제어할 수 있다. 여기서, 사용자 명령은, 제1 영역 내의 오브젝트를 터치(touch)하여 제2 영역 내로 드래그(drag)하는 사용자 조작이 될 수 있다.
즉, 제어부(130)는 사용자 명령에 따라 제1 영역에서 선택된 오브젝트가 제2 영역 내에서 선택된 오브젝트의 속성과 대응하지 않는 영역으로 이동되면, 오브젝트가 이동된 영역에서 가장 근접한 오브젝트의 속성에 대응되는 블럭 영역으로 자동으로 이동하여 배치되도록 제어할 수 있다.
또한, 제어부(130)는 오브젝트가 그 속성에 따라 제2 영역에 마련된 특정 블럭으로 자동으로 배치되면, 해당 블럭 영역에 기 설정된 서식 정보에 따라 오브젝트의 서식, 그래픽 효과 등을 변경하여 디스플레이할 수 있다.
예를 들어, 제1 영역에서 "굴림체, 10 크기"로 디스플레된 텍스트 영역이 제2 영역의 "바탕체, 12 크기"의 서식 정보를 갖는 특정 텍스트 블럭 영역으로 복사되어 배치되는 경우, 해당 텍스트 블럭 영역에 배치된 텍스트는 "바탕체, 12 크기"로 서식이 변경되어 디스플레이될 수 있다.
또한, 제어부(130)는 제2 영역 내에 사용자 명령에 따라 제1 영역에서 선택된 오브젝트의 속성에 대응되는 블럭 영역이 복수 개인 경우, 선택된 오브젝트가 이동된 위치에서 가장 근접한 블럭 영역에 오브젝트가 자동으로 배치되도록 제어할 수 있다. 예를 들어, 제어부(130)는 오브젝트가 이미지 속성을 갖는 경우 해당 이미지가 이동된 위치에서 해당 이미지의 중심점과 이미지 속성을 갖는 복수의 블럭 영역의 중심점 간의 거리를 산출하여, 해당 이미지의 중심점과 가장 근접한 거리에 있는 블럭 영역에 해당 이미지가 자동으로 배치되도록 제어할 수 있다. 다만, 이는 일 실시 예에 불과하며 해당 이미지의 일 모서리(또는 일 변)과 이미지 속성을 갖는 복수의 블럭 영역에서 해당 일변 모서리(또는 일 변)과 대응되는 모서리 간의 거리를 산출하는 방법 등 다양한 방식으로 거리를 오브젝트와 블럭 영역 간의 거리를 산출할 수 있다.
또한, 제어부(130)는 사용자 명령에 따라 제1 영역 내에서 동시에 선택된 복수의 오브젝트가 제2 영역 내로 이동하면, 복수의 오브젝트가 복수의 오브젝트 각각의 속성과 대응되는 복수의 블럭 영역에 각각 자동으로 배치되도록 제어할 수 있다. 여기서, 복수의 오브젝트를 동시에 선택하기 위한 사용자 명령은, 복수의 오브젝트 각각에 대한 멀티 터치 입력 및 복수의 오브젝트를 포함하는 범위를 선택하는 패닝(panning) 조작 중 하나가 될 수 있다.
예를 들어, 제1 영역에 디스플레이된 웹 페이지 상에서 이미지 속성을 갖는 제1 오브젝트 및 텍스트 속성을 갖는 제2 오브젝트가 멀티 터치 앤 드래그 조작에 의해 제2 영역 내에 디스플레이된 편집 페이지로 이동되면, 제1 오브젝트는 이미지 속성을 갖는 제1 블럭 영역으로, 제2 오브젝트는 텍스트 속성을 갖는 제2 블럭 영역으로 자동으로 이동되어 배치될 수 있다.
또한, 제어부(130)는 제1 영역에서 제2 영역으로 복사된 오브젝트가 배치된 블럭 영역의 크기 및 형태에 기초하여 오브젝트의 크기 및 형태를 조정할 수 있다. 예를 들어, 오브젝트가 이미지 속성을 갖는 경우 블럭 영역의 크기에 기초하여 이미지 크기, 해상도 등을 조정하여 디스플레이하고, 오브젝트가 텍스트 속성을 갖는 경우 블럭 영역의 크기에 기초하여 텍스트 크기 등을 조정하여 디스플레이할 수 있다.
또한, 제어부(130)는 오브젝트의 속성에 따라 제2 영역에 복사된 오브젝트의 적절한 배치 또는 형태 변경을 위한 메뉴를 해당 블럭 영역 또는 해당 블럭 영역과 인접한 영역에 디스플레이할 수 있다. 예를 들어, 제어부(130)는 오브젝트가 텍스트 속성을 갖는 경우, 텍스트의 크기 또는 모양을 변경하기 위한 메뉴를 블럭 영역 상에 중첩하여 디스플레이할 수 있다. 이에 따라 사용자는 제1 영역에서 제2 영역으로 복사된 오브젝트를 원하는 형태로 편집할 수 있게 된다.
또한, 제어부(130)는 화면 편집 모드에서 제공되는 다양한 편집 레이아웃을 기정의한 다양한 형태의 템플릿을 선택하기 위한 메뉴를 제2 영역 상에 디스플레이하도록 제어할 수 있다. 예를 들어, 제어부(130)는 해당 메뉴가 선택되면 기 정의된 다양한 레이아웃을 간략히 나타내는 복수의 템플릿 형상을 디스플레이하여 사용자가 원하는 템플릿을 선택 가능하도록 할 수 있다.
도 2는 도 1에 도시된 사용자 단말 장치의 일 실시 예에 따른 세부 구성을 나타내는 블럭도이다. 도 2에 따르면, 사용자 단말 장치(100)는 디스플레이부(110), 사용자 인터페이스부(120), 제어부(130), 저장부(140), 감지부(150), 피드백 제공부(160), 통신부(170), 오디오 처리부(180), 비디오 처리부(185), 스피커(190), 버튼(191), USB 포트(192), 카메라(193), 마이크(194)를 포함한다. 도 2에 도시된 구성요소들 중 도 1(b)에 도시된 구성요소와 중복되는 부분에 대해서는 자세한 설명을 생략하도록 한다.
상술한 제어부(130)의 동작은 저장부(140)에 저장된 프로그램에 의해 이루어질 수 있다. 저장부(140)에는 사용자 단말 장치(100)를 구동시키기 위한 O/S(Operating System) 소프트웨어 모듈, 각종 어플리케이션, 어플리케이션 실행 중에 입력되거나 설정되는 각종 데이터, 컨텐츠 등과 같이 다양한 데이터가 저장될 수 있다.
또한, 저장부(140)는 화면 편집 모드에서 제공되는 다양한 편집 레이아웃을 기정의한 다양한 형태의 템플릿을 저장할 수 있다.
그 밖에, 저장부(140)에 저장되는 다양한 소프트웨어 모듈에 대해서는 도 3을 참고하여 후술하도록 한다.
감지부(150)는 사용자 단말 장치(100)에 대한 터치, 회전, 기울기, 압력, 접근 등과 같은 다양한 조작을 감지할 수 있다.
특히, 감지부(150)는 터치를 감지하는 터치 센서를 포함할 수 있다. 터치 센서는 정전식 또는 감압식으로 구현될 수 있다. 정전식은 디스플레이부(110) 표면에 코팅된 유전체를 이용하여, 사용자의 신체 일부가 디스플레이부(110) 표면에 터치되었을 때 사용자의 인체로 여기되는 미세 전기를 감지하여 터치 좌표를 산출하는 방식이다. 감압식은 두 개의 전극 판을 포함하여, 사용자가 화면을 터치하였을 경우, 터치된 지점의 상하 판이 접촉되어 전류가 흐르게 되는 것을 감지하여 터치 좌표를 산출하는 방식이다. 이상과 같이 터치 센서는 다양한 형태로 구현될 수 있으며, 상술한 바와 같이 오브젝트를 복사하기 위한 사용자 명령인 터치(또는 멀티 터치) 앤 드래그 조작을 감지할 수 있다.
그 밖에 감지부(150)는, 사용자 단말 장치(100)의 회전 상태 및 이동 방향 등을 감지하기 위한 지자기 센서, 사용자 단말 장치(100)의 기울어진 정도를 감지하기 가속도 센서 등을 더 포함할 수 있다.
피드백 제공부(160)는 사용자 단말 장치(100)에서 실행되는 기능에 따라 따라 다양한 피드백을 제공하는 기능을 한다.
특히, 피드백 제공부(160)는 화면에 대한 터치 조작, 화면 상에 표시되는 GUI에 대한 햅틱 피드백을 제공할 수 있다. 여기서, 햅틱 피드백(haptic feedback)이라 함은, 사용자 단말 장치(100)에 진동이나 힘, 충격을 발생시킴으로써 사용자의 촉감을 느낄 수 있게 하는 기술로서, 컴퓨터 촉각 기술이라고도 한다.
예를 들어, 피드백 제공부(160)는 사용자의 멀티 터치 조작에 의해 제1 영역에서 복수의 오브젝트가 선택되면 해당 멀티 터치 조작에 대한 햅틱 피드백을 제공할 수 있다. 또한, 피드백 제공부(160)는 사용자 조작에 의해 제1 영역에서 오브젝트가 선택되고, 선택된 오브젝트를 다른 오브젝트와 식별되도록 하는 GUI 또는 하이라이트 영역이 제공되는 경우 해당 GUI 또는 하이라이트 영역 전체에 대해 햅틱 피드백을 제공할 수 있다.
이 경우, 피드백 제공부(160)는 제어부(130)의 제어에 따라 진동 조건(예를 들어, 진동 주파수, 진동 길이, 진동 강도, 진동 파형 , 진동 위치 등)을 상이하게 적용하여 다양한 피드백을 제공할 수 있다. 이때, 진동 방식을 상이하게 적용하여 다양한 햅틱 피드백을 생성하는 방법은 종래의 기술이므로 자세한 설명은 생략한다.
한편, 상술한 실시 예에서는 피드백 제공부(160)가 진동 센서를 이용하여 햅틱 피드백을 제공하는 것으로 설명하였으나, 이는 일 실시 예에 불과할 뿐, 피에조 센서(piezo sensor)를 이용하여 햅틱 피드백을 제공할 수도 있다.
통신부(170)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 장치와 통신을 수행하는 구성이다. 통신부(170)는 와이파이칩(171), 블루투스 칩(172), 무선 통신 칩(173) 등 다양한 통신 칩을 포함한다.
와이파이 칩(171) 및 블루투스 칩(172)은 각각 WiFi 방식, 블루투스 방식으로 통신을 수행한다. 무선 통신 칩(173)은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. 그 밖에 통신부(170)는 NFC 칩을 더 포함할 수 있다. 예를 들어, 통신부(170)는 무선 통신 칩(173)을 이용하여 웹서버로부터 다양한 오브젝트를 포함하는 웹페이지를 수신할 수 있다.
오디오 처리부(180)는 오디오 데이터에 대한 처리를 수행하는 구성요소이다. 오디오 처리부(170)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다.
비디오 처리부(185)는 비디오 데이터에 대한 처리를 수행하는 구성요소이다. 비디오 처리부(185)에서는 비디오 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다.
스피커(190)는 오디오 처리부(180)에서 처리된 각종 오디오 데이터 뿐만 아니라 각종 알림 음이나 음성 메시지 등을 출력하는 구성요소이다.
버튼(191)은 사용자 단말 장치(100)의 본체 외관의 전면부나 측면부, 배면부 등의 임의의 영역에 형성된 기계적 버튼, 터치 패드, 휠 등과 같은 다양한 유형의 버튼이 될 수 있다. 예를 들어, 사용자 단말 장치(100)의 전원을 ON/OFF 하기 위한 버튼이 마련될 수 있다.
USB 포트(192)는 USB 케이블을 통해서 각종 외부 장치와 통신을 수행하거나, 충전 등을 수행할 수 있다.
카메라(193)는 사용자의 제어에 따라 정지 영상 또는 동영상을 촬상하기 위한 구성이다. 카메라(193)는 전면 카메라, 후면 카메라와 같이 복수 개로 구현될 수 있다.
마이크(194)는 사용자 음성이나 기타 소리를 입력받아 오디오 데이터로 변환하기 위한 구성이다. 제어부(130)는 마이크(194)를 통해 입력되는 사용자 음성을 통화(call) 과정에서 이용하거나, 오디오 데이터로 변환하여 저장부(140)에 저장할 수 있다.
카메라(193) 및 마이크(194)가 마련된 경우, 제어부(130)는 마이크(194)를 통해 입력되는 사용자 음성이나 카메라(193)에 의해 인식되는 사용자 모션에 따라 제어 동작을 수행할 수도 있다. 즉, 사용자 단말 장치(100)는 모션 제어 모드나 음성 제어 모드로 동작할 수 있다. 모션 제어 모드로 동작하는 경우, 제어부(130)는 카메라(193)를 활성화시켜 사용자를 촬상하고, 사용자의 모션 변화를 추적하여 그에 대응되는 제어 동작을 수행한다. 음성 제어 모드로 동작하는 경우 제어부(130)는 마이크를 통해 입력된 사용자 음성을 분석하고, 분석된 사용자 음성에 따라 제어 동작을 수행하는 음성 인식 모드로 동작할 수도 있다.
그 밖에, 헤드셋, 마우스, LAN 등과 같은 다양한 외부 단자와 연결하기 위한 다양한 외부 입력 포트들이 더 포함될 수도 있다.
한편, 제어부(130)는 저장부(140)에 저장된 각종 프로그램을 이용하여 사용자 단말 장치(100)의 동작을 전반적으로 제어한다.
가령, 제어부(130)는 저장부(140)에 저장된 어플리케이션을 실행시켜 그 실행 화면을 구성하여 디스플레이할 수도 있으며, 저장부(140)에 저장된 각종 컨텐츠를 재생하여 줄 수도 있다. 또한, 제어부(130)는 통신부(160)를 통해서 외부 기기들과 통신을 수행할 수도 있다.
구체적으로, 제어부(130)는 RAM(131), ROM(132), 메인 CPU(133), 그래픽 처리부(134), 제1 내지 n 인터페이스(135-1 ~ 135-n), 버스(136)를 포함한다.
RAM(131), ROM(132), 메인 CPU(133), 그래픽 처리부(134), 제1 내지 n 인터페이스(135-1 ~ 135-n) 등은 버스(136)를 통해 서로 연결될 수 있다.
제1 내지 n 인터페이스(135-1 내지 135-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.
메인 CPU(133)는 저장부(140)에 액세스하여, 저장부(140)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 저장부(140)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.
ROM(132)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, 메인 CPU(133)는 ROM(132)에 저장된 명령어에 따라 저장부(140)에 저장된 O/S를 RAM(131)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(133)는 저장부(140)에 저장된 각종 어플리케이션 프로그램을 RAM(131)에 복사하고, RAM(131)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.
그래픽 처리부(134)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 연산부는 입력 장치(134)로부터 수신된 제어 명령을 이용하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. 렌더링부는 연산부에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성한다. 렌더링부에서 생성된 화면은 디스플레이부(110)의 디스플레이 영역 내에 표시된다.
한편, 도면에는 도시되지 않았지만, 사용자 단말 장치(100)는 어플리케이션 구동부(미도시)를 포함할 수 있다.
어플리케이션 구동부(미도시)는 사용자 단말 장치(100)에서 제공 가능한 어플리케이션을 구동 및 실행하는 기능을 한다. 여기서, 어플리케이션이란 스스로 실행가능한 응용 프로그램으로 다양한 멀티미디어 컨텐츠를 포함할 수 있다. 여기서, '멀티미디어 컨텐츠'라는 용어는 텍스트, 오디오, 정지 영상, 애니메이션, 비디오, 및 인터랙티브(Interactivity) 컨텐츠, 컨텐츠 제공자(Content Provider)로부터의 EPG(Electronic Program Guide) 컨텐츠, 사용자들로부터 수신된 전자 메시지, 현재 이벤트에 관한 정보 등을 포함하지만, 이에 한정되지 않는다.
특히, 어플리케이션 구동부(미도시)는 사용자 명령에 따라 본 발명의 일 실시 예에 따른 화면 편집 모드를 제공하기 위한 어플리케이션을 구동할 수 있다. 즉, 본 발명의 일 실시 예에 따른 화면 편집 모드 제공 서비스는 OS 상에서 사용자가 직접 사용하게 되는 소프트웨어인 어플리케이션(Application) 형태로 구현될 수 있있다. 이 경우, 어플리케이션은 사용자 단말 장치(100) 화면 상에서 아이콘 인터페이스 형태로 제공될 수 있으나, 이에 한정되는 것은 아니다.
한편, 도 2는 사용자 단말 장치(100)에 포함된 세부 구성의 일 예를 든 것으로, 실시 예에 따라서는, 도 2에 도시된 구성 요소 중 일부는 생략 또는 변경될 수도 있고, 다른 구성요소가 더 추가될 수도 있다. 예를 들어, GPS(Grobal Positioning System) 위성으로부터 GPS 신호를 수신하여, 사용자 단말 장치(100)의 현재 위치를 산출하기 위한 GPS 수신부(미도시), DMB(Digital Multimedia Broadcasting) 신호를 수신하여 처리하는 DMB 수신부(미도시) 등을 더 포함할 수 있다.
도 3은 저장부(140)에 저장된 소프트웨어 구성을 설명하기 위한 도면이다.
도 3에 따르면, 저장부(140)에는 베이스 모듈(141), 센싱 모듈(142), 통신 모듈(143), 프리젠테이션 모듈(144), 웹 브라우저 모듈(145), 서비스 모듈(146)을 포함하는 소프트웨어가 저장될 수 있다.
베이스 모듈(141)이란 사용자 단말 장치(100)에 포함된 각 하드웨어들로부터 전달되는 신호를 처리하여 상위 레이어 모듈로 전달하는 기초 모듈을 의미한다. 베이스 모듈(141)은 스토리지 모듈(141-1), 보안 모듈(141-2) 및 네트워크 모듈(141-3) 등을 포함한다. 스토리지 모듈(141-1)이란 데이터베이스(DB)나 레지스트리를 관리하는 프로그램 모듈이다. 메인 CPU(133)는 스토리지 모듈(141-1)을 이용하여 저장부(140) 내의 데이터베이스에 액세스하여, 각종 데이터를 독출할 수 있다. 보안 모듈(141-2)이란 하드웨어에 대한 인증(Certification), 요청 허용(Permission), 보안 저장(Secure Storage) 등을 지원하는 프로그램 모듈이고, 네트워크 모듈(141-3)이란 네트워크 연결을 지원하기 위한 모듈로 DNET 모듈, UPnP 모듈 등을 포함한다.
센싱 모듈(142)은 각종 센서들로부터 정보를 수집하고, 수집된 정보를 분석 및 관리하는 모듈이다. 센싱 모듈(142)은 얼굴 인식 모듈, 음성 인식 모듈, 모션 인식 모듈, NFC 인식 모듈 등을 포함할 수도 있다.
통신 모듈(143)은 외부와 통신을 수행하기 위한 모듈이다. 통신 모듈(143)은 메신저 프로그램, SMS(Short Message Service) & MMS(Multimedia Message Service) 프로그램, 이메일 프로그램 등과 같은 메시징 모듈(143-1), 전화 정보 수집기(Call Info Aggregator) 프로그램 모듈, VoIP 모듈 등을 포함하는 전화 모듈(143-2)을 포함할 수 있다.
프리젠테이션 모듈(144)은 디스플레이 화면을 구성하기 위한 모듈이다. 프리젠테이션 모듈(144)은 멀티미디어 컨텐츠를 재생하여 출력하기 위한 멀티미디어 모듈(144-1), UI 및 그래픽 처리를 수행하는 UI 렌더링 모듈(144-2)을 포함한다. 멀티미디어 모듈(144-1)은 플레이어 모듈, 캠코더 모듈, 사운드 처리 모듈 등을 포함할 수 있다. 이에 따라, 각종 멀티미디어 컨텐츠를 재생하여 화면 및 음향을 생성하여 재생하는 동작을 수행한다. UI 렌더링 모듈(144-2)은 이미지를 조합하는 이미지 합성기(Image Compositor module), 이미지를 디스플레이할 화면상의 좌표를 조합하여 생성하는 좌표 조합 모듈, 하드웨어로부터 각종 이벤트를 수신하는 X11 모듈, 2D 또는 3D 형태의 UI를 구성하기 위한 툴(tool)을 제공하는 2D/3D UI 툴킷 등을 포함할 수 있다.
웹 브라우저 모듈(145)은 웹 브라우징을 수행하여 웹 서버에 액세스하는 모듈을 의미한다. 웹 브라우저 모듈(145)은 웹 페이지를 구성하는 웹 뷰(web view) 모듈, 다운로드를 수행하는 다운로드 에이전트 모듈, 북마크 모듈, 웹킷(Webkit) 모듈 등과 같은 다양한 모듈을 포함할 수 있다.
서비스 모듈(146)은 다양한 서비스를 제공하기 위한 각종 어플리케이션을 포함하는 모듈이다. 구체적으로는, 서비스 모듈(146)은 네비게이션 프로그램, 컨텐츠 재생 프로그램, 게임 프로그램, 전자 책 프로그램, 달력 프로그램, 알람 관리 프로그램, 기타 위젯 등과 같은 다양한 프로그램 모듈을 포함할 수 있다.
도 3에서는 다양한 프로그램 모듈들을 도시하였으나, 도시된 각종 프로그램 모듈들은 사용자 단말 장치(100)의 종류 및 특성에 따라 일부 생략되거나 변형 또는 추가될 수 있음은 물론이다. 가령, GPS 칩과 같은 하드웨어와 연동하여 위치 기반 서비스를 지원하는 위치 기반 모듈을 더 포함하는 형태로 구현될 수 있다.
이하에서는 도면을 참조하여 본 발명의 다양한 실시 예에 따른 UI 제공 방법에 대해 보다 자세히 설명하도록 한다.
도 4는 본 발명의 다양한 실시 예에 따른 화면 편집 모드 진입 방법을 설명하기 위한 도면이다.
본 발명의 일 실시 예에 따르면, 도 4(a)에 도시된 바와 같이 화면 상에 이미지, 텍스트 등을 포함하는 웹 페이지(410)가 디스플레이된 상태에서 화면 상에 마련된 화면 편집 모드 진입을 위한 메뉴 버튼(411)이 선택되면, 해당 웹 페이지에 포함된 이미지, 텍스트 등을 이용하여 편집을 수행하기 위한 편집 페이지가 추가적으로 디스플레이될 수 있다.
구체적으로, 전체 화면 상에 디스플레이되었던 웹페이지(410)가 화면의 제1 영역(421) 상에 디스플레이되고, 화면의 제2 영역(422) 상에 편집 페이지가 디스플레이될 수 있다. 이 경우 제2 영역(422)에 디스플레이되는 편집 페이지는 기설정된 레이아웃을 갖는 형태가 될 수 있다. 예를 들어, 도시된 바와 같이 편집 페이지는 텍스트 속성을 갖는 오브젝트가 배치되는 텍스트 블럭 영역(422-1, 422-4) 및 이미지 속성을 갖는 오브젝트가 배치되는 이미지 블럭 영역(422-2, 422-3, 422-5)이 레이아웃된 형태가 될 수 있다.
본 발명의 다른 실시 예에 따르면, 도 4(b)에 도시된 바와 같이 화면 상에 이미지, 텍스트 등을 포함하는 웹 페이지(410)가 디스플레이된 상태에서 웹페이지(410)의 일 변 영역을 터치하여 좌측 방향으로 드래그하는 사용자 조작이 입력되면, 해당 터치 앤 드래그 조작에 따라 웹 페이지(410)의 크기는 축소되어 디스플레이되고, 나머지 영역에는 해당 웹 페이지에 포함된 이미지, 텍스트 등을 이용하여 편집을 수행하기 위한 편집 페이지가 추가적으로 디스플레이될 수 있다.
한편, 도면에는 도시하지 않았지만, 상술한 화면 편집 모드는 별도의 설정 메뉴에서 화면 편집 모드를 "ON"시킨 상태에서 수행 가능하거나, 해당 서비스를 제공하기 위한 어플리케이션이 구동된 상태에서 수행될 수도 있다.
도 5는 본 발명의 일 실시 예에 따른 화면 편집을 위한 탬플릿 제공 방법을 설명하기 위한 도면이다.
도 5에 도시된 바와 같이 화면의 제1 영역 상에 웹 페이지(510)가, 제2 영역 상에 편집 페이지(520)이 디스플레이되고, 편집 페이지(520) 상에는 편집을 위한 레이아웃을 선택하기 위한 메뉴 버튼(513)가 디스플레이될 수 있다. 경우에 따라 도시된 바와 같이 웹페이지(510) 및 편집 페이지(520) 상에는 해당 윈도우의 크기를 최대화하기 위한 버튼(511-1) 및 해당 윈도우를 종료하기 위한 버튼(512-1)이 포함될 수 있다.
한편, 편집 페이지(520) 상에 마련된 메뉴 버튼(513)이 선택되면, 해당 메뉴 버튼(513)과 인접한 영역 상에 기 설정된 복수의 템플릿 메뉴(514)가 디스플레이될 수 있다.
이어서, 디스플레이된 복수의 템플릿 메뉴(514) 중 하나(514-1)가 선택되면, 제2 영역에는 선택된 템플릿(514-1)에 따른 레이아웃을 정의하는 편집 페이지(521)가 디스플레이될 있다.
즉, 사용자는 템플릿을 제공하는 메뉴 버튼을 통해 편집 페이지 구성을 위한 레이아웃을 변경할 수 있게 된다.
다만, 도 5에 도시된 실시 예는 일 예에 불과하며, 편집 페이지의 레이아웃은 다양한 형태로 변경될 수 있다. 예를 들어, 별도의 메뉴 버튼이 아닌 편집 페이지에 대한 플릭 조작 등을 통해 편집 페이지가 기설정된 다른 레이아웃 형태로 변경되는 것도 가능하다.
도 6 내지 8은 본 발명의 다양한 실시 예에 따른 오브젝트를 이용한 편집 방법을 설명하기 위한 도면들이다.
하나의 오브젝트를 복사하는 경우
도 6에 도시된 바와 같이 화면의 좌측 영역에는 복수의 오브젝트(611 내지 614)를 포함하는 원본 페이지(610)가 디스플레이되고, 화면의 우측 영역에는 원본 페이지(610)에 포함된 복수의 오브젝트(611 내지 614)를 이용하여 편집을 수행하기 위한 편집 페이지(710)가 디스플레이될 수 있다. 이 경우, 편집 페이지(710)는 텍스트 블럭(711, 714), 이미지 블럭(712), 리스트 블럭(713) 등 다양한 블럭 영역을 포함할 수 있다.
좌측 영역에 디스플레이된 원본 페이지(610)에서 특정 이미지(611)를 터치하여 제2 영역에 마련된 편집 페이지(710)로 드래그하는 사용자 조작에 따라, 드래그된 이미지(611)는 해당 이미지(611)의 속성에 대응되는 이미지 블럭 영역(712)으로 자동으로 배치될 수 있다. 즉, 사용자의 드래그 조작이 멈춤 위치와 관계없이 이미지는 이미지 속성을 갖는 이미지 블럭 영역(712)으로 복사되어 배치될 수 있다.
이어서, 좌측 영역에 디스플레이된 원본 페이지(610)에서 특정 리스트(612)를 터치하여 제2 영역에 마련된 편집 페이지(710)로 드래그하는 사용자 조작에 따라, 드래그된 리스트(612)는 해당 리스트(612)의 속성에 대응되는 리스트 블럭 영역(713)으로 자동으로 복사되어 배치될 수 있다. 즉, 사용자의 드래그 조작이 이미지(611)가 기 배치된 이미지 블럭 영역(611')에서 멈춘 경우라도 멈춘 위치와 관계없이 리스트(612)는 이미지 속성을 갖는 리스트 블럭 영역(712)으로 복사되어 배치될 수 있다.
한편, 도시된 바와 같이 원본 페이지(610)에서 특정 오브젝트가 사용자의 터치 조작에 의해 선택되면, 선택된 오브젝트(611, 612)는 다른 오브젝트와 식별될 수 있도록 하이라이트되는 형태로 디스플레이되거나, 다른 오브젝트와 식별될 수 있는 GUI가 오버랩되어 디스플레이될 수 있다.
복수 개의 오브젝트를 동시에 복사하는 경우
복수 개의 오브젝트를 동시에 복사하고자 하는 경우, 도 7에 도시된 바와 같이 사용자는 제1 영역 디스플레이된 원본 페이지(510)에서 특정 오브젝트의 일 영역을 터치하여 복사하고자 하는 타 오브젝트의 일 영역까지 드래그하는 조작에 의해 복수 개의 오브젝트를 선택할 수 있다. 예를 들어, 오브젝트(611)의 좌측 상부 모서리 영역을 터치하여 타 오브젝트(612)의 우측 하부 모서리 영역까지 드래그하면 오브젝트(611) 및 타 오브젝트(612)가 선택되고, 오브젝트(611) 및 타 오브젝트(612) 상에는 해당 오브젝트들이 선택되었음을 나타내는 GUI(615)가 디스플레이될 수 있다.
오브젝트(611) 및 타 오브젝트(612) 상에 GUI(615)가 디스플레이된 상태에서 해당 오브젝트들을 제2 영역에 디스플레이된 편집 페이지(710)로 드래그하는 사용자 조작에 따라 선택된 오브젝트들(611, 612)들이 제2 영역으로 복사될 수 있다. 구체적으로, 선택된 오브젝트들(611, 612) 각각의 속성에 기초하여 대응되는 블럭 영역으로 선택된 오브젝트들(611, 612)들이 복사될 수 있다. 예를 들어, 이미지 속성을 갖는 오브젝트(611)는 이미지 블럭 영역(712)으로 배치되고, 리스트 속성을 갖는 오브젝트(612)는 리스트 블럭 영역(713)으로 배치될 수 있다. 즉, 사용자의 드래그 조작이 이미지 블럭 영역(712) 및 리스트 블럭 영역(713) 사이에서 멈춘 경우라도 멈춘 위치와 관계없이 각 오브젝트의 속성에 대응되는 블럭 영역으로 배치되어 복사될 수 있다.
또는, 복수 개의 오브젝트를 동시에 복사하고자 하는 경우, 도 8에 도시된 바와 같이 사용자는 제1 영역 디스플레이된 원본 페이지(510)에서 복수 개의 오브젝트를 멀티 터치하는 사용자 조작에 의해 복수 개의 오브젝트를 선택할 수 있다. 예를 들어, 오브젝트(611) 및 타 오브젝트(612)를 멀티 터치하면, 오브젝트(611) 및 타 오브젝트(612) 상에는 해당 오브젝트들이 선택되었음을 나타내는 GUI(615)가 디스플레이될 수 있다.
오브젝트(611) 및 타 오브젝트(612) 상에 GUI(615)가 디스플레이된 상태에서 해당 오브젝트들을 제2 영역에 디스플레이된 편집 페이지(710)로 드래그하는 사용자 조작에 따라 선택된 오브젝트들(611, 612)들이 제2 영역으로 복사될 수 있다. 구체적으로, 선택된 오브젝트들(611, 612) 각각의 속성에 기초하여 대응되는 블럭 영역으로 선택된 오브젝트들(611, 612)들이 자동으로 복사될 수 있다.
도 9 및 도 10은 본 발명의 다양한 실시 예에 따른 오브젝트를 이용한 편집 방법을 예를 들어 설명하기 위한 도면들이다.
도 9(a) 및 도 9(b)에 도시된 바와 같이 선택된 오브젝트에 대한 드래그 조작이 멈춘 위치와 관계 없이 오브젝트의 속성에 기초하여 해당 오브젝트가 자동으로 대응되는 영역으로 복사될 수 있다.
도시된 바와 같이 화면의 좌측 영역에 이미지(911, 912, 913), 텍스트(914, 915) 등을 포함하는 웹 페이지(910)가 디스플레이되고, 화면의 우측 영역에는 편집 페이지(920)가 디스플레이될 수 있다. 이 경우, 편집 페이지(920)는 타이틀 블럭 영역(921, 925, 928), 이미지 블럭 영역(922, 923, 926, 929), 텍스트 블럭 영역(924, 927, 930)을 포함하는 다양한 블럭 영역을 포함할 수 있다.
웹 페이지(910) 상에서 이미지(913) 및 해당 이미지(913)에 대응되는 텍스트(914)를 터치 조작에 의해 선택하면, 해당 이미지(913) 및 텍스트(914)가 선택되었음을 나타내는 GUI(930)가 디스플레이된다. 이어서, 해당 GUI(930)가 디스플레이된 상태에서 해당 이미지(913) 및 텍스트(914)를 편집 페이지(920)로 드래그하는 사용자 조작에 의해 해당 이미지(913) 및 텍스트(914)가 편집 페이지(920) 상의 이미지 블럭 영역(929) 및 텍스트 블럭 영역(930)으로 자동으로 복사되어 배치될 수 있다(913', 914'). 또한, 텍스트(914)가 복사된 텍스트 블럭 영역(930)에는 텍스트(914)의 서식을 변경하기 위한 서식 변경 메뉴(931)가 디스플레이될 수 있다. 경우에 따라서는 해당 이미지(913) 및 텍스트(914)에 타이틀(915)이 링크되어 있는 경우, 타이틀(915)이 별도로 선택되지 않을지라도 편집 페이지(920)의 타이틀 영역에 자동으로 복사될 수 있다(915').
한편, 도 9(b)에 도시된 바와 같이, 텍스트 블럭 영역(930)에 이미 텍스트(914)가 복사된 상태에서, 웹페이지(910)에서 이미지(913)가 터치 조작에 의해 선택되면, 이미지(913) 상에 해당 이미지(913)가 선택되었음을 나타내는 GUI(941)가 디스플레이될 수 있다.
이어서, 선택된 이미지(913)가 텍스트(914)가 복사된 영역(914')으로 드래그되면, 해당 이미지(913)가 대응되는 이미지 블럭 영역(929)에 자동으로 복사될 수 있다. 즉, 드래그 조작이 멈춘 위치가 텍스트 영역(914')인 경우에도 해당 이미지(913)는 자동으로 이미지 블럭 영역(929)으로 복사될 수 있다. 이 경우, 해당 이미지(913)는 드래그 조작이 멈춘 위치에서 가장 근접한 이미지 블럭 영역(929)으로 복사될 수 있다.
다만, 이는 일 실시 예에 불과하며, 경우에 따라 이미지(914) 및 텍스트(914)가 링크되어 있고 이미지 블럭 영역(929) 및 텍스트 블럭 영역(930)이 링크되어 있는 경우, 드래그 조작이 멈춘 위치에서 가장 근접한 이미지 블럭 영역과 관계없이 링크되어 있는 이미지 블럭 영역(929)으로 해당 이미지(913)가 자동으로 복사되는 것도 가능하다. 즉, 드래그 조작이 멈춘 위치에서 가장 근접한 이미지 블럭 영역이 이미지 블럭 영역(929)이 아닌 경우에도, 해당 이미지(913)가 자동으로 이미지 블럭 영역(929)으로 복사될 수 있다.
도 10에 도시된 바와 같이 멀티 터치 앤 드래그 조작을 통해 복수의 오브젝트가 동시에 선택되어 복사되는 경우, 복수의 오브젝트 각각의 속성에 기초하여 대응되는 영역으로 자동으로 복사될 수 있다.
구체적으로, 이미지(913) 및 텍스트(914)를 각각 터치하는 멀티 터치 조작에 의해 이미지(913) 및 텍스트(914)가 선택되면, 해당 오브젝트들이 선택되었음을 나타내는 GUI(943, 944)가 디스플레이될 수 있다.
이어서, 멀티 터치 조작에 의해 선택된 이미지(913) 및 텍스트(914)를 드래그하는 사용자 조작에 의해 선택된 이미지(913) 및 텍스트(914)가 드래그 조작이 멈춘 위치에서 가장 인접한 이미지 블럭 영역(929) 및 텍스트 블럭 영역(930)으로 복사될 수 있다. 또한, 경우에 따라서는 해당 이미지(913) 및 텍스트(914)에 대한 타이틀(915)이 링크되어 있는 경우에는 타이틀(915)이 멀티 터치 조작에 의해 별도로 선택되지 않더라도 해당 이미지(913) 및 텍스트(914)와 함께 복사될 수 있다.
도 11은 본 발명의 일 실시 예에 따른 사용자 단말 장치의 제어 방법을 설명하기 위한 흐름도이다.
도 11에 도시된 사용자 단말 장치의 제어 방법에 따르면, 우선, 적어도 하나의 오브젝트를 포함하는 제1 영역 및 적어도 하나의 오브젝트를 이용하여 편집을 수행하기 위한 제2 영역을 포함하는 화면을 디스플레이한다(S1110).
이어서, 제1 영역에 디스플레이된 오브젝트를 제2 영역으로 복사하기 위한 사용자 명령을 입력받는다(S1120). 여기서, 사용자 명령은 오브젝트를 터치하여 제2 영역 내로 드래그하는 사용자 조작이 될 수 있다.
이 후, 사용자 명령이 입력되면, 오브젝트의 속성에 기초하여 제2 영역 내에서 오브젝트의 속성과 대응되는 위치에 오브젝트를 자동으로 복사한다(S1130).
여기서, 제2 영역은 상이한 속성을 갖는 복수의 블럭 영역을 포함할 수 있다. 또한, 오브젝트의 속성은, 이미지 속성, 텍스트 속성, 리스트 속성 및 동영상 속성 중 적어도 하나를 포함할 수 있다.
이 경우, 오브젝트를 자동으로 복사하는 S1130 단계에서는, 사용자 명령에 따라 오브젝트가 제2 영역 내로 이동되면, 복수의 블럭 영역 중 오브젝트의 속성과 대응되는 블럭 영역에 오브젝트를 자동으로 복사하여 배치할 수 있다.
또한, 복수의 블럭 영역 각각은 기설정된 서식 정보를 가지며, 오브젝트가 블럭 영역에 자동으로 배치되면, 해당 블럭 영역에 기 설정된 서식 정보에 따라 오브젝트의 서식을 변경하여 디스플레이할 수 있다.
한편, 오브젝트를 자동으로 복사하는 S1130 단계에서는, 사용자 명령에 따라 오브젝트가 제2 영역 내에서 오브젝트의 속성과 대응하지 않는 영역으로 이동되면, 오브젝트를 오브젝트의 속성과 대응되는 영역으로 자동으로 이동하여 배치할 수 있다.
또한, 오브젝트를 자동으로 복사하는 S1130 단계에서는, 오브젝트의 속성과 대응되는 블럭 영역이 복수 개인 경우, 사용자 명령에 따라 오브젝트가 이동된 위치에서 가장 근접한 블럭 영역에 오브젝트를 자동으로 배치할 수 있다.
또한, 오브젝트를 자동으로 복사하는 S1130 단계에서는, 사용자 명령에 따라 제1 영역 내에서 동시에 선택된 복수의 오브젝트가 제2 영역 내로 이동되면, 복수의 오브젝트를 복수의 오브젝트 각각의 속성과 대응되는 복수의 블럭 영역에 각각 자동으로 배치할 수 있다.
이 경우, 복수의 오브젝트를 선택하기 위한 사용자 명령은, 복수의 오브젝트 각각에 대한 멀티 터치 입력 및 복수의 오브젝트를 포함하는 범위를 선택하는 터치 입력 중 하나가 될 수 있다.
상술한 바와 같이 본 발명에 따르면, 터치 기반 디바이스에서 복수의 오브젝트에 대한 복사하여 붙여넣기 기능을 용이하게 수행할 수 있게 된다.
한편, 상술한 다양한 실시 예에 따른 제어 방법은 프로그램으로 구현되어 사용자 단말 장치에 제공될 수 있다.
일 예로, 적어도 하나의 오브젝트를 포함하는 제1 영역 및 적어도 하나의 오브젝트를 이용하여 편집을 수행하기 위한 제2 영역을 포함하는 화면을 디스플레이하는 단계, 제1 영역에 디스플레이된 오브젝트를 제2 영역으로 복사하기 위한 사용자 명령을 입력받는 단계, 및 사용자 명령이 입력되면, 오브젝트의 속성에 기초하여 제2 영역 내에서 오브젝트의 속성과 대응되는 위치에 오브젝트를 자동으로 복사하는 단계를 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.
여기서, 비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
110: 디스플레이부 120: 사용자 인터페이스부
130: 제어부

Claims (18)

  1. 적어도 하나의 오브젝트를 포함하는 제1 영역 및 상기 적어도 하나의 오브젝트를 이용하여 편집을 수행하기 위한 제2 영역을 포함하는 화면을 디스플레이하는 디스플레이부;
    상기 제1 영역에 디스플레이된 상기 오브젝트를 상기 제2 영역으로 복사하기 위한 사용자 명령을 입력받는 사용자 인터페이스부; 및
    상기 사용자 명령이 입력되면, 상기 오브젝트의 속성에 기초하여 상기 제2 영역 내에서 상기 오브젝트의 속성과 대응되는 위치에 상기 오브젝트가 자동으로 복사되도록 제어하는 제어부;를 포함하는 사용자 단말 장치.
  2. 제1항에 있어서,
    상기 제2 영역은 상이한 속성을 갖는 복수의 블럭 영역을 포함하며,
    상기 제어부는,
    상기 사용자 명령에 따라 상기 오브젝트가 상기 제2 영역 내로 이동되면, 상기 복수의 블럭 영역 중 상기 오브젝트의 속성과 대응되는 블럭 영역에 상기 오브젝트가 자동으로 복사되어 배치되도록 제어하는 것을 특징으로 하는 사용자 단말 장치.
  3. 제2항에 있어서,
    상기 복수의 블럭 영역 각각은 기설정된 서식 정보를 가지며,
    상기 제어부는,
    상기 오브젝트가 상기 블럭 영역에 자동으로 배치되면, 해당 블럭 영역에 기 설정된 서식 정보에 따라 상기 오브젝트의 서식을 변경하여 디스플레이하는 것을 특징으로 하는 사용자 단말 장치.
  4. 제2항에 있어서,
    상기 사용자 명령은,
    상기 오브젝트를 터치하여 상기 제2 영역 내로 드래그하는 사용자 조작인 것으로 특징으로 하는 사용자 단말 장치.
  5. 제2항에 있어서,
    상기 제어부는,
    상기 사용자 명령에 따라 상기 오브젝트가 상기 제2 영역 내에서 상기 오브젝트의 속성과 대응하지 않는 영역으로 이동되면, 상기 오브젝트가 상기 오브젝트의 속성과 대응되는 영역으로 자동으로 이동하여 배치되도록 제어하는 것을 특징으로 하는 사용자 단말 장치.
  6. 제5항에 있어서,
    상기 제어부는,
    상기 오브젝트의 속성과 대응되는 블럭 영역이 복수 개인 경우, 상기 사용자 명령에 따라 상기 오브젝트가 이동된 위치에서 가장 근접한 블럭 영역에 상기 오브젝트가 자동으로 배치되도록 제어하는 것을 특징으로 하는 사용자 단말 장치.
  7. 제2항에 있어서,
    상기 제어부는,
    사용자 명령에 따라 상기 제1 영역 내에서 동시에 선택된 복수의 오브젝트가 상기 제2 영역 내로 이동되면, 상기 복수의 오브젝트가 상기 복수의 오브젝트 각각의 속성과 대응되는 복수의 블럭 영역에 각각 자동으로 배치되도록 제어하는 것을 특징으로 하는 사용자 단말 장치.
  8. 제7항에 있어서,
    상기 복수의 오브젝트를 선택하기 위한 사용자 명령은,
    상기 복수의 오브젝트 각각에 대한 멀티 터치 입력 및 상기 복수의 오브젝트를 포함하는 범위를 선택하는 터치 입력 중 하나인 것을 특징으로 하는 사용자 단말 장치.
  9. 제2항에 있어서,
    상기 오브젝트의 속성은,
    이미지 속성, 텍스트 속성, 리스트 속성 및 동영상 속성 중 적어도 하나를 포함하는 것을 특징으로 하는 사용자 단말 장치.
  10. 사용자 단말 장치의 제어 방법에 있어서,
    적어도 하나의 오브젝트를 포함하는 제1 영역 및 상기 적어도 하나의 오브젝트를 이용하여 편집을 수행하기 위한 제2 영역을 포함하는 화면을 디스플레이하는 단계;
    상기 제1 영역에 디스플레이된 상기 오브젝트를 상기 제2 영역으로 복사하기 위한 사용자 명령을 입력받는 단계; 및
    상기 사용자 명령이 입력되면, 상기 오브젝트의 속성에 기초하여 상기 제2 영역 내에서 상기 오브젝트의 속성과 대응되는 위치에 상기 오브젝트를 자동으로 복사하는 단계;를 포함하는 제어 방법.
  11. 제10항에 있어서,
    상기 제2 영역은 상이한 속성을 갖는 복수의 블럭 영역을 포함하며,
    상기 오브젝트를 자동으로 복사하는 단계는,
    상기 사용자 명령에 따라 상기 오브젝트가 상기 제2 영역 내로 이동되면, 상기 복수의 블럭 영역 중 상기 오브젝트의 속성과 대응되는 블럭 영역에 상기 오브젝트를 자동으로 복사하여 배치하는 것을 특징으로 하는 제어 방법.
  12. 제11항에 있어서,
    상기 복수의 블럭 영역 각각은 기설정된 서식 정보를 가지며,
    상기 오브젝트가 상기 블럭 영역에 자동으로 배치되면, 해당 블럭 영역에 기 설정된 서식 정보에 따라 상기 오브젝트의 서식을 변경하여 디스플레이하는 단계;를 더 포함하는 것을 특징으로 하는 제어 방법.
  13. 제10항에 있어서,
    상기 사용자 명령은,
    상기 오브젝트를 터치하여 상기 제2 영역 내로 드래그하는 사용자 조작인 것으로 특징으로 하는 제어 방법.
  14. 제11항에 있어서,
    상기 오브젝트를 자동으로 복사하는 단계는,
    상기 사용자 명령에 따라 상기 오브젝트가 상기 제2 영역 내에서 상기 오브젝트의 속성과 대응하지 않는 영역으로 이동되면, 상기 오브젝트를 상기 오브젝트의 속성과 대응되는 영역으로 자동으로 이동하여 배치하는 것을 특징으로 하는 제어 방법.
  15. 제14항에 있어서,
    상기 오브젝트를 자동으로 복사하는 단계는,
    상기 오브젝트의 속성과 대응되는 블럭 영역이 복수 개인 경우, 상기 사용자 명령에 따라 상기 오브젝트가 이동된 위치에서 가장 근접한 블럭 영역에 상기 오브젝트를 자동으로 배치하는 것을 특징으로 하는 제어 방법.
  16. 제11항에 있어서,
    상기 오브젝트를 자동으로 복사하는 단계는,
    사용자 명령에 따라 상기 제1 영역 내에서 동시에 선택된 복수의 오브젝트가 상기 제2 영역 내로 이동되면, 상기 복수의 오브젝트를 상기 복수의 오브젝트 각각의 속성과 대응되는 복수의 블럭 영역에 각각 자동으로 배치하는 것을 특징으로 하는 제어 방법.
  17. 제16항에 있어서,
    상기 복수의 오브젝트를 선택하기 위한 사용자 명령은,
    상기 복수의 오브젝트 각각에 대한 멀티 터치 입력 및 상기 복수의 오브젝트를 포함하는 범위를 선택하는 터치 입력 중 하나인 것을 특징으로 하는 제어 방법.
  18. 제11항에 있어서,
    상기 오브젝트의 속성은,
    이미지 속성, 텍스트 속성, 리스트 속성 및 동영상 속성 중 적어도 하나를 포함하는 것을 특징으로 하는 제어 방법.
KR1020120121519A 2012-01-06 2012-10-30 사용자 단말 장치 및 그 제어 방법 KR20140055133A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020120121519A KR20140055133A (ko) 2012-10-30 2012-10-30 사용자 단말 장치 및 그 제어 방법
US13/735,440 US20130179816A1 (en) 2012-01-06 2013-01-07 User terminal apparatus and controlling method thereof
EP13852089.5A EP2915032A4 (en) 2012-10-30 2013-07-25 USER DEVICE AND CONTROL PROCESS THEREFOR
PCT/KR2013/006662 WO2014069750A1 (en) 2012-10-30 2013-07-25 User terminal apparatus and controlling method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120121519A KR20140055133A (ko) 2012-10-30 2012-10-30 사용자 단말 장치 및 그 제어 방법

Publications (1)

Publication Number Publication Date
KR20140055133A true KR20140055133A (ko) 2014-05-09

Family

ID=48744848

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120121519A KR20140055133A (ko) 2012-01-06 2012-10-30 사용자 단말 장치 및 그 제어 방법

Country Status (4)

Country Link
US (1) US20130179816A1 (ko)
EP (1) EP2915032A4 (ko)
KR (1) KR20140055133A (ko)
WO (1) WO2014069750A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160001076A (ko) * 2014-06-26 2016-01-06 삼성전자주식회사 데이터 관리 방법 및 그 방법을 처리하는 전자 장치
KR20160026322A (ko) * 2014-08-29 2016-03-09 삼성전자주식회사 전자 장치 및 이의 기능 실행 방법

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8924335B1 (en) 2006-03-30 2014-12-30 Pegasystems Inc. Rule-based user interface conformance methods
US9158743B1 (en) * 2011-03-28 2015-10-13 Amazon Technologies, Inc. Grid layout control for network site design
USD682304S1 (en) 2012-01-06 2013-05-14 Path, Inc. Display screen with graphical user interface
US10078384B2 (en) * 2012-11-20 2018-09-18 Immersion Corporation Method and apparatus for providing haptic cues for guidance and alignment with electrostatic friction
US11096668B2 (en) 2013-03-13 2021-08-24 Samsung Electronics Co., Ltd. Method and ultrasound apparatus for displaying an object
WO2014142468A1 (en) 2013-03-13 2014-09-18 Samsung Electronics Co., Ltd. Method of providing copy image and ultrasound apparatus therefor
CN105339880A (zh) * 2013-12-27 2016-02-17 华为终端有限公司 一种处理字符的方法及设备
KR102218041B1 (ko) * 2014-06-17 2021-02-19 엘지전자 주식회사 이동 단말기
US10469396B2 (en) 2014-10-10 2019-11-05 Pegasystems, Inc. Event processing with enhanced throughput
JP2017041044A (ja) * 2015-08-19 2017-02-23 カシオ計算機株式会社 表示制御装置、表示制御方法、及びプログラム
CN107291345B (zh) * 2016-03-31 2020-08-14 宇龙计算机通信科技(深圳)有限公司 一种多媒体对象分享方法及装置
CN105843510B (zh) * 2016-04-01 2019-06-28 Oppo广东移动通信有限公司 复制粘贴处理方法、装置和终端设备
US10698599B2 (en) * 2016-06-03 2020-06-30 Pegasystems, Inc. Connecting graphical shapes using gestures
US11048488B2 (en) 2018-08-14 2021-06-29 Pegasystems, Inc. Software code optimizer and method
CN110086998B (zh) * 2019-05-27 2021-04-06 维沃移动通信有限公司 一种拍摄方法及终端
CN111552428B (zh) * 2020-04-29 2021-12-14 腾讯科技(深圳)有限公司 数据处理方法、装置、计算机设备以及存储介质
US11567945B1 (en) 2020-08-27 2023-01-31 Pegasystems Inc. Customized digital content generation systems and methods

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5754178A (en) * 1993-03-03 1998-05-19 Apple Computer, Inc. Method and apparatus for improved feedback during manipulation of data on a computer controlled display system
US5742286A (en) * 1995-11-20 1998-04-21 International Business Machines Corporation Graphical user interface system and method for multiple simultaneous targets
US20060181736A1 (en) * 1999-11-24 2006-08-17 Quek Su M Image collage builder
JP2003015923A (ja) * 2001-07-04 2003-01-17 Fuji Photo Film Co Ltd カーソルの補助的表示方法、ファイル管理方法およびファイル管理プログラム
US7370281B2 (en) * 2002-02-22 2008-05-06 Bea Systems, Inc. System and method for smart drag-and-drop functionality
US7228496B2 (en) * 2002-07-09 2007-06-05 Kabushiki Kaisha Toshiba Document editing method, document editing system, server apparatus, and document editing program
JP2005031979A (ja) * 2003-07-11 2005-02-03 National Institute Of Advanced Industrial & Technology 情報処理方法、情報処理プログラム、情報処理装置およびリモートコントローラ
JP4449445B2 (ja) * 2003-12-17 2010-04-14 コニカミノルタビジネステクノロジーズ株式会社 画像形成装置
US8117542B2 (en) * 2004-08-16 2012-02-14 Microsoft Corporation User interface for displaying selectable software functionality controls that are contextually relevant to a selected object
US8036489B2 (en) * 2005-07-07 2011-10-11 Shutterfly, Inc. Systems and methods for creating photobooks
JP4909576B2 (ja) * 2005-11-29 2012-04-04 株式会社リコー 文書編集装置、画像形成装置およびプログラム
JP4897520B2 (ja) * 2006-03-20 2012-03-14 株式会社リコー 情報配信システム
JP4760801B2 (ja) * 2007-08-07 2011-08-31 ソニー株式会社 画像判定装置、画像判定方法、およびプログラム
US20090187842A1 (en) * 2008-01-22 2009-07-23 3Dlabs Inc., Ltd. Drag and Drop User Interface for Portable Electronic Devices with Touch Sensitive Screens
KR20100074568A (ko) * 2008-12-24 2010-07-02 삼성전자주식회사 화상형성장치와 연결된 호스트장치 및 웹페이지 인쇄방법
US9513798B2 (en) * 2009-10-01 2016-12-06 Microsoft Technology Licensing, Llc Indirect multi-touch interaction
US9135229B2 (en) * 2009-11-25 2015-09-15 International Business Machines Corporation Automated clipboard software
KR101761612B1 (ko) * 2010-07-16 2017-07-27 엘지전자 주식회사 이동 단말기 및 이것의 메뉴 화면 구성 방법
JP2012058857A (ja) * 2010-09-06 2012-03-22 Sony Corp 情報処理装置、操作方法及び情報処理プログラム
KR101798965B1 (ko) * 2010-10-14 2017-11-17 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160001076A (ko) * 2014-06-26 2016-01-06 삼성전자주식회사 데이터 관리 방법 및 그 방법을 처리하는 전자 장치
KR20160026322A (ko) * 2014-08-29 2016-03-09 삼성전자주식회사 전자 장치 및 이의 기능 실행 방법
US10778617B2 (en) 2014-08-29 2020-09-15 Samsung Electronics Co., Ltd. Electronic device and method of transferring data in an application to another application

Also Published As

Publication number Publication date
EP2915032A1 (en) 2015-09-09
EP2915032A4 (en) 2016-06-15
WO2014069750A1 (en) 2014-05-08
US20130179816A1 (en) 2013-07-11

Similar Documents

Publication Publication Date Title
KR101961860B1 (ko) 사용자 단말 장치 및 그 제어 방법
KR20140055133A (ko) 사용자 단말 장치 및 그 제어 방법
US10712918B2 (en) User terminal device and displaying method thereof
US10452333B2 (en) User terminal device providing user interaction and method therefor
US10168797B2 (en) Terminal apparatus, audio system, and method for controlling sound volume of external speaker thereof
KR102085225B1 (ko) 사용자 단말 장치 및 그 제어 방법
US9865224B2 (en) Transparent display apparatus and display method thereof
US10747416B2 (en) User terminal device and method for displaying thereof
US10222840B2 (en) Display apparatus and controlling method thereof
US10416883B2 (en) User terminal apparatus and controlling method thereof
US10067666B2 (en) User terminal device and method for controlling the same
US20150227166A1 (en) User terminal device and displaying method thereof
KR20150094492A (ko) 사용자 단말 장치 및 이의 디스플레이 방법
KR102474244B1 (ko) 영상 표시 장치 및 그 동작방법
KR20140020568A (ko) 디스플레이 장치 및 이의 제어 방법
KR20150028127A (ko) 디스플레이 장치 및 그 제어 방법
KR20140017420A (ko) 투명 디스플레이 장치 및 그 디스플레이 방법
KR20160057651A (ko) 디스플레이 장치 및 그 제어 방법
KR20150095537A (ko) 사용자 단말 장치 및 이의 디스플레이 방법
KR20140081220A (ko) 사용자 단말 장치 및 그 제어 방법
US11243687B2 (en) User terminal apparatus and controlling method thereof
KR20160084238A (ko) 영상 표시 장치 및 영상 표시 방법
KR20140028383A (ko) 사용자 단말 장치 및 그 제어 방법
KR102351634B1 (ko) 사용자 단말장치, 음향 시스템 및 외부 스피커의 음량 제어 방법
KR20180058697A (ko) 디스플레이 장치 및 그 제어 방법

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid