KR20140035581A - 표시 정보를 편집하기 위한 방법 및 그 전자 장치 - Google Patents

표시 정보를 편집하기 위한 방법 및 그 전자 장치 Download PDF

Info

Publication number
KR20140035581A
KR20140035581A KR1020120101927A KR20120101927A KR20140035581A KR 20140035581 A KR20140035581 A KR 20140035581A KR 1020120101927 A KR1020120101927 A KR 1020120101927A KR 20120101927 A KR20120101927 A KR 20120101927A KR 20140035581 A KR20140035581 A KR 20140035581A
Authority
KR
South Korea
Prior art keywords
touch
electronic device
editing
information
touch point
Prior art date
Application number
KR1020120101927A
Other languages
English (en)
Other versions
KR102096581B1 (ko
Inventor
염동현
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120101927A priority Critical patent/KR102096581B1/ko
Priority to US14/016,799 priority patent/US10095401B2/en
Priority to CN201811188345.9A priority patent/CN109240593B/zh
Priority to PCT/KR2013/008320 priority patent/WO2014042470A1/en
Priority to EP13184460.7A priority patent/EP2708999A3/en
Priority to CN201380048127.4A priority patent/CN104641342B/zh
Priority to AU2013316279A priority patent/AU2013316279A1/en
Publication of KR20140035581A publication Critical patent/KR20140035581A/ko
Priority to US16/155,499 priority patent/US20190042070A1/en
Application granted granted Critical
Publication of KR102096581B1 publication Critical patent/KR102096581B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04807Pen manipulated menu
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명은 터치 스크린을 구비하는 전자 장치에서 표시 정보를 편집하기 위한 장치 및 방법에 관한 것이다. 이때, 편집하기 위한 방법은, 제 1 터치가 유지된 상태에서 제 1 편집 이벤트가 발생한 경우, 제 1 터치 지점의 객체를 저장하는 과정과, 및 제 2 터치가 감지되는 경우, 제 2 터치 지점에 상기 제 1 터치 지점의 객체를 표시하는 과정을 포함한다.

Description

표시 정보를 편집하기 위한 방법 및 그 전자 장치{METHOD FOR EDITING DISPLAY INFORMATION AND AN ELECTRONIC DEVICE THEREOF}
본 발명은 전자 장치에서 표시 정보를 편집하기 위한 장치 및 방법에 관한 것이다.
휴대용 전자 장치를 이용한 멀티미디어 서비스의 사용이 증가하면서 휴대용 전자 장치에서 처리해야 하는 정보량 및 표시해야 하는 정보량이 증가하고 있다. 이에 따라, 공간 활용도를 개선하여 표시부의 크기를 증가시킬 수 있는 터치스크린을 구비한 휴대용 전자 장치에 대한 관심이 증가하고 있다.
터치스크린은 정보의 입력과 표시를 하나의 스크린에서 수행하는 입출력 장치이다. 이에 따라, 휴대용 전자 장치에서 터치스크린을 사용하는 경우, 휴대용 전자 장치는 키패드와 같은 별도의 입력 장치를 제거하여 표시 면적을 증가시킬 수 있다. 예를 들어, 화면 전체가 터치스크린이 적용된 풀터치 방식을 사용하는 경우, 휴대용 전자 장치는 전면을 화면으로 활용하여 화면크기를 확대할 수 있다.
상술한 바와 같이 터치 스크린을 사용하는 경우, 전자 장치는 키패드와 같은 별도의 입력 장치를 구비하지 않으므로 별도의 입력 장치를 구비하는 전자 장치와 조작 방식이 달라진다. 더욱이, 전자 장치는 터치 스크린을 통해 확대된 화면을 통해 종래 터치 스크린을 사용하지 않는 전자 장치보다 많은 정보를 표시할 수 있다. 이에 따라, 터치스크린을 구비하는 전자 장치는 터치스크린에 따른 별도의 사용자 인터페이스를 필요로 한다.
따라서, 본 발명의 목적은 터치 스크린을 구비하는 전자 장치에서 표시 정보를 편집하기 위한 장치 및 방법을 제공함에 있다.
본 발명의 다른 목적은 터치 스크린을 구비하는 전자 장치에서 스포이드 편집 방식에 따라 표시 정보를 편집하기 위한 장치 및 방법을 제공함에 있다.
본 발명의 또 다른 목적은 터치 스크린을 구비하는 전자 장치에서 터치 펜을 이용하여 표시 정보를 편집하기 위한 장치 및 방법을 제공함에 있다.
본 발명의 또 다른 목적은 터치 스크린을 구비하는 전자 장치에서 터치 펜에 의한 터치 정보 및 버튼 입력 정보를 고려하여 표시 정보를 편집하기 위한 장치 및 방법을 제공함에 있다.
본 발명의 또 다른 목적은 터치 스크린을 구비하는 전자 장치에서 터치 펜에 의한 터치 정보 및 버튼 입력 정보를 고려하여 아이콘을 편집하기 위한 장치 및 방법을 제공함에 있다.
본 발명의 또 다른 목적은 터치 스크린을 구비하는 전자 장치에서 터치 펜에 의한 터치 정보 및 버튼 입력 정보를 고려하여 텍스트를 편집하기 위한 장치 및 방법을 제공함에 있다.
본 발명의 또 다른 목적은 터치 스크린을 구비하는 전자 장치에서 터치 펜에 의한 터치 정보 및 버튼 입력 정보를 고려하여 재생 목록을 편집하기 위한 장치 및 방법을 제공함에 있다.
본 발명의 목적들을 달성하기 위한 본 발명의 제 1 견지에 따르면, 전자 장치에서 표시부에 표시된 객체를 편집하기 위한 방법은, 제 1 터치가 유지된 상태에서 제 1 편집 이벤트가 발생한 경우, 제 1 터치 지점의 객체를 저장하는 과정과, 및 제 2 터치가 감지되는 경우, 제 2 터치 지점에 상기 제 1 터치 지점의 객체를 표시하는 과정을 포함한다.
본 발명의 제 2 견지에 따르면, 전자 장치에서 표시부에 표시된 객체를 편집하기 위한 방법은, 표시부에 표시된 다수 개의 객체 중 적어도 하나의 객체를 포함하는 객체 그룹을 결정하는 과정과, 상기 객체 그룹에 포함되는 객체 중 적어도 하나의 객체에 대한 제 1 터치가 유지된 상태에서 제 1 편집 이벤트가 발생한 경우, 상기 객체 그룹에 포함되는 적어도 하나의 객체를 저장하는 과정과, 및 제 2 터치가 감지되는 경우, 제 2 터치 지점에 상기 객체 그룹에 포함되는 적어도 하나의 객체를 표시하는 과정을 포함한다.
본 발명의 제 3 견지에 따르면, 전자 장치에서 표시부에 표시된 객체를 편집하기 위한 방법은, 제 1 터치가 유지된 상태에서 제 1 편집 이벤트가 발생한 경우, 제 1 터치를 통해 객체를 터치하였는지 확인하는 과정과, 및 상기 제 1 터치를 통해 객체를 터치한 경우, 상기 제 1 터치 지점의 객체를 잘라내기하는 과정을 포함한다.
본 발명의 제 4 견지에 따르면, 전자 장치는, 터치스크린과, 적어도 하나의 프로세서와, 메모리 및, 상기 메모리에 저장되며, 상기 하나 이상의 프로세서에 의해 구동되는 프로그램을 포함하며, 상기 프로그램은, 제 1 터치가 유지된 상태에서 제 1 편집 이벤트가 발생한 경우, 제 1 터치 지점의 객체를 저장하고, 제 2 터치가 감지되는 경우, 상기 터치스크린의 제 2 터치 지점에 상기 제 1 터치 지점의 객체를 표시한다.
본 발명의 제 5 견지에 따르면, 전자 장치는, 터치스크린과, 적어도 하나의 프로세서와, 메모리 및, 상기 메모리에 저장되며, 상기 하나 이상의 프로세서에 의해 구동되는 프로그램을 포함하며, 상기 프로그램은, 상기 터치스크린에 표시된 다수 개의 객체 중 적어도 하나의 객체를 포함하는 객체 그룹을 결정하고, 상기 객체 그룹에 포함되는 객체 중 적어도 하나의 객체에 대한 제 1 터치가 유지된 상태에서 제 1 편집 이벤트가 발생한 경우, 상기 객체 그룹에 포함되는 적어도 하나의 객체를 저장하고, 제 2 터치가 감지되는 경우, 상기 터치 스크린의 제 2 터치 지점에 상기 객체 그룹에 포함되는 적어도 하나의 객체를 표시한다.
본 발명의 제 6 견지에 따르면, 전자 장치는, 터치스크린과, 적어도 하나의 프로세서와, 메모리 및, 상기 메모리에 저장되며, 상기 하나 이상의 프로세서에 의해 구동되는 프로그램을 포함하며, 상기 프로그램은, 제 1 터치가 유지된 상태에서 제 1 편집 이벤트가 발생한 경우, 제 1 터치를 통해 객체를 터치하였는지 확인하고, 상기 제 1 터치를 통해 객체를 터치한 경우, 상기 제 1 터치 지점의 객체를 잘라내기한다.
상술한 바와 같이 터치 스크린을 구비하는 전자 장치에서 스포이드와 같이 표시부에 표시된 표시 정보를 편집함으로써, 표시 정보를 손쉽게 편집할 수 있으며, 스포이드 효과에 따른 사용자의 감성적인 흥미를 유발시킬 수 있는 이점이 있다.
도 1은 본 발명에 따른 전자 장치의 블록 구성을 도시하는 도면,
도 2는 본 발명의 실시 예에 따른 프로세서의 상세 블록 구성을 도시하는 도면,
도 3은 본 발명의 실시 예에 따른 전자 장치에서 표시 정보를 편집하기 위한 절차를 도시하는 도면,
도 4는 본 발명의 제 1 실시 예에 따른 전자 장치에서 스포이드 편집 방식을 이용하여 표시 정보를 편집하기 위한 절차를 도시하는 도면,
도 5는 본 발명의 제 2 실시 예에 따른 전자 장치에서 스포이드 편집 방식을 이용하여 표시 정보를 편집하기 위한 절차를 도시하는 도면,
도 6은 본 발명의 제 3 실시 예에 따른 전자 장치에서 스포이드 편집 방식을 이용하여 표시 정보를 편집하기 위한 절차를 도시하는 도면,
도 7은 본 발명의 제 1 실시 예에 따른 전자 장치에서 스포이드 편집 방식을 이용하여 다수 개의 표시 정보를 편집하기 위한 절차를 도시하는 도면,
도 8은 본 발명의 제 2 실시 예에 따른 전자 장치에서 스포이드 편집 방식을 이용하여 다수 개의 표시 정보를 편집하기 위한 절차를 도시하는 도면,
도 9는 본 발명의 제 1 실시 예에 따른 전자 장치에서 스포이드 편집 방식을 이용하여 표시 정보를 선택적으로 편집하기 위한 절차를 도시하는 도면,
도 10은 본 발명의 제 2 실시 예에 따른 전자 장치에서 스포이드 편집 방식을 이용하여 표시 정보를 선택적으로 편집하기 위한 절차를 도시하는 도면,
도 11a 내지 도 11g은 본 발명의 실시 예에 따른 전자 장치에서 터치 펜을 이용하여 아이콘을 편집하기 위한 화면 구성을 도시하는 도면,
도 12a 내지 도 12e는 본 발명의 실시 예에 따른 전자 장치에서 손 터치를 이용하여 아이콘을 편집하기 위한 화면 구성을 도시하는 도면,
도 13a 내지 도 13g은 본 발명의 실시 예에 따른 전자 장치에서 터치 펜을 이용하여 텍스트를 편집하기 위한 화면 구성을 도시하는 도면,
도 14a 내지 도 14e는 본 발명의 실시 예에 따른 전자 장치에서 손 터치를 이용하여 텍스트를 편집하기 위한 화면 구성을 도시하는 도면,
도 15a 내지 도 15g은 본 발명의 실시 예에 따른 전자 장치에서 터치 펜을 이용하여 재생 목록을 편집하기 위한 화면 구성을 도시하는 도면,
도 16a 내지 도 16e는 본 발명의 실시 예에 따른 전자 장치에서 손 터치를 이용하여 재생 목록을 편집하기 위한 화면 구성을 도시하는 도면,
도 17a 내지 도 17h는 본 발명의 실시 예에 따른 전자 장치에서 터치 펜을 이용하여 다수 개의 아이콘들을 편집하기 위한 화면 구성을 도시하는 도면,
도 17a 내지 도 17f는 본 발명의 실시 예에 따른 전자 장치에서 손 터치를 이용하여 다수 개의 아이콘들을 편집하기 위한 화면 구성을 도시하는 도면, 및
도 19a 내지 도 19c는 본 발명의 실시 예에 따른 전자 장치에서 다수 개의 편집 목록을 표시하기 위한 화면 구성을 도시하는 도면.
이하 본 발명의 바람직한 실시 예를 첨부된 도면을 참조하여 상세히 설명한다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
이하 본 발명은 터치 스크린을 구비하는 전자 장치에서 표시 정보를 편집하기 위한 기술에 대해 설명한다. 여기서, 표시 정보는 전자 장치에서 서비스를 제공하기 위해 표시부에 표시한 정보로 전자 장치와 사용자와의 그래픽을 이용한 인터페이스를 위해 표시부에 표시된 화면을 구성하는 객체(object)를 포함한다.
이하 설명에서 전자 장치는 터치 스크린을 구비하는 이동통신단말기, PDA(Personal Digital Assistant), 랩탑(Laptop), 스마트폰(Smart Phone), 넷북(Netbook), 텔레비전(Television), 휴대 인터넷 장치(MID: Mobile Internet Device), 울트라 모바일 PC(UMPC: Ultra Mobile PC), 태블릿 PC(Tablet Personal Computer), 네비게이션 및 MP3 등을 포함한다.
이하 설명에서 전자 장치는 스포이드 편집 방식에 따라 객체를 편집한다. 즉, 전자 장치는 스포이드 편집 방식을 이용하여 객체에 대한 복사, 이동, 잘라내기, 붙여넣기, 삭제 등과 같은 편집을 수행할 수 있다. 이하 설명에서 전자 장치는 스포이드 편집 방식에 따라 객체에 대한 잘라내기 및 붙여넣기 편집을 수행하는 것으로 가정한다. 하지만, 전자 장치는 스포이드 편집 방식을 통해 이동 및 복사 등과 같은 편집 방식을 동일하게 제공할 수도 있다. 여기서, 스포이드 편집 방식은, 스포이드가 액체를 빨아들이듯이 터치 펜 또는 손가락에 의해 터치된 객체가 터치 펜 또는 손가락으로 빨려들어가고, 스포이드가 액체를 방출하듯이 터치 펜 또는 손가락으로 터치한 지점에 이전에 빨려들어간 객체가 방출되어 표시되는 편집 방식을 나타낸다.
도 1은 본 발명에 따른 전자 장치의 블록 구성을 도시하고 있다.
도 1에 도시된 바와 같이 전자 장치(100)는 메모리(110), 프로세서 유닛(processor unit)(120), 오디오 처리부(130), 입출력 제어부(140), 터치스크린(150) 및 입력 장치(160)를 포함한다. 여기서, 메모리(110)는 다수 개 존재할 수도 있다.
각 구성요소에 대해 살펴보면 다음과 같다.
메모리(110)는 전자장치(100)의 동작을 제어하기 위한 프로그램을 저장하는 프로그램 저장부(111) 및 프로그램 수행 중에 발생되는 데이터를 저장하는 데이터 저장부(112)를 포함한다. 예를 들어, 데이터 저장부(112)는 객체 편집 프로그램(114)에 의해 잘라내기한 객체를 저장한다. 만일, 삭제 이벤트가 발생하는 경우, 데이터 저장부(112)는 잘라내기를 통해 저장한 객체 정보를 삭제할 수도 있다.
프로그램 저장부(111)는 그래픽 사용자 인터페이스(GUI: Graphic User Interface) 프로그램(113), 객체 편집 프로그램(114) 및 적어도 하나의 응용프로그램(115)을 포함한다. 여기서, 프로그램 저장부(111)에 포함되는 프로그램은 명령어들의 집합으로 명령어 세트(instruction set)로 표현할 수도 있다.
GUI 프로그램(113)은 표시부(152) 상에 그래픽으로 사용자 인터페이스를 제공하기 위한 적어도 하나의 소프트웨어 구성요소를 포함한다. 예를 들어, GUI 프로그램(113)은 프로세서(122)에 의해 구동되는 응용프로그램 정보를 표시부(152)에 표시하는 명령어를 포함한다. 다른 예를 들어, GUI 프로그램(113)은 객체 편집 프로그램(114)에 의해 편집되는 객체에 대한 스포이드 효과를 나타내는 명령어를 포함한다. 구체적으로, 터치 펜 또는 손가락에 의해 터치된 객체에 대한 잘라내기를 수행하는 경우, GUI 프로그램(113)은 스포이드가 액체를 빨아들이듯이 터치 펜 또는 손가락으로 객체가 빨려들어가는 효과를 나타내도록 제어한다. 또한, GUI 프로그램(113)은 스포이드가 액체를 방출하듯이 터치 펜 또는 손가락으로 터치한 지점에 이전에 빨아들인 객체를 표시하는 효과를 나타내도록 제어한다.
객체 편집 프로그램(114)은 터치 입력부(154)를 통해 감지된 터치 정보와 편집 이벤트 발생 정보를 고려하여 객체를 편집하기 위한 적어도 하나의 소프트웨어 구성 요소를 포함한다. 예를 들어, 객체에 대한 제 1 터치가 유지된 상태에서 잘라내기 이벤트가 발생한 경우, 객체 편집 프로그램(114)은 제 1 터치 지점의 객체를 잘라내기하도록 제어한다. 이후, 제 2 터치가 감지된 경우, 객체 편집 프로그램(114)은 잘라내기한 객체를 제 2 터치 지점에 붙여넣기하도록 제어한다. 이때, 객체 편집 프로그램(114)은 제 2 터치가 유지된 상태에서 붙여넣기 이벤트가 발생한 경우, 잘라내기한 객체를 제 2 터치 지점에 붙여넣기하도록 제어할 수도 있다. 여기서, 객체 편집 프로그램(114)은 터치 펜의 버튼 입력, 전자 장치의 하드웨어 버튼 입력, 아이콘 선택, 전자 장치의 모션 감지, 사용자 제스쳐 감지 중 적어도 하나의 입력방식을 이용하여 잘라내기 이벤트 및 붙여넣기 이벤트 발생을 감지한다. 또한, 잘라내기 이벤트 및 붙여넣기 이벤트는 동일한 입력 방식에 의해 발생되거나, 다른 입력 방식에 의해 발생될 수도 있다.
다른 예를 들어, 객체 그룹에 포함되는 객체 중 적어도 하나의 객체에 대한 제 1 터치가 유지된 상태에서 잘라내기 이벤트가 발생한 경우, 객체 편집 프로그램(114)은 객체 그룹에 포함되는 객체를 잘라내기하도록 제어한다. 이후, 제 2 터치가 감지된 경우, 객체 편집 프로그램(114)은 잘라내기한 객체 그룹의 객체를 제 2 터치 지점에 붙여넣기하도록 제어한다. 이때, 객체 편집 프로그램(114)은 제 2 터치가 유지된 상태에서 붙여넣기 이벤트가 발생한 경우, 잘라내기한 객체를 제 2 터치 지점에 붙여넣기하도록 제어할 수도 있다.
또 다른 예를 들어, 객체 편집 프로그램(114)은 터치 입력부(154)를 통해 감지된 터치가 유지된 상태에서 편집 이벤트가 발생한 경우, 객체에 대한 터치가 발생하였는지 확인한다. 즉, 객체 편집 프로그램(114)은 객체 인식 영역과 터치 지점을 비교하여 객체에 대한 터치가 발생하였는지 확인한다. 만일, 객체에 대한 터치가 발생한 경우, 객체 편집 프로그램(114)은 터치 지점의 객체를 잘라내기하도록 제어한다. 한편, 객체에 대한 터치가 발생하지 않은 경우, 객체 편집 프로그램(114)은 터치 지점에 이전에 잘라내기된 객체를 붙여넣기하도록 제어한다. 이때, 객체 편집 프로그램(114)은 터치 방식에 따라 객체 인식 영역을 다르게 인식할 수 있다. 예를 들어, 객체 편집 프로그램(114)은 터치 펜에 의한 터치가 감지된 경우, 손에 의한 터치가 감지될 때보다 객체 인식 영역을 좁게 인식할 수 있다.
추가적으로, 다수 개의 객체들을 잘라내기한 경우, 객체 편집 프로그램(114)은 잘라내기한 다수 개의 객체들 중 사용자에 의해 선택된 적어도 하나의 객체만을 붙여넣기 하도록 제어할 수도 있다.
응용프로그램(115)은 전자장치(100)에 설치된 적어도 하나의 응용 프로그램에 대한 소프트웨어 구성 요소를 포함한다.
프로세서 유닛(120)은 메모리 인터페이스(121), 적어도 하나의 프로세서(processor)(122) 및 주변 장치 인터페이스(123)를 포함한다. 여기서, 프로세서 유닛(120)에 포함되는 메모리 인터페이스(121), 적어도 하나의 프로세서(122) 및 주변 인터페이스(123)는 적어도 하나의 집적화된 회로로 집적화되거나 별개의 구성 요소로 구현될 수 있다.
메모리 인터페이스(121)는 프로세서(122) 또는 주변 장치 인터페이스(123)와 같은 구성요소의 메모리(110) 접근을 제어한다.
주변 장치 인터페이스(123)는 전자장치(100)의 입출력 주변 장치와 프로세서(122) 및 메모리 인터페이스(121)의 연결을 제어한다.
프로세서(122)는 적어도 하나의 소프트웨어 프로그램을 사용하여 전자장치(100)가 다양한 멀티미디어 서비스를 제공하도록 제어한다. 이때, 프로세서(122)는 메모리(110)에 저장되어 있는 적어도 하나의 프로그램을 실행하여 해당 프로그램에 대응하는 서비스를 제공하도록 제어한다. 예를 들어, 프로세서(122)는 터치 입력부(154)를 통해 감지된 터치 정보와 편집 이벤트 발생 정보를 고려하여 객체를 편집하기 위해 하기 도 2에 도시된 바와 같이 구성될 수 있다.
오디오 처리부(130)는 스피커(131) 및 마이크로폰(132)을 통해 사용자와 전자 장치(100) 사이의 오디오 인터페이스를 제공한다. 예를 들어, 스포이드 편집 방식에 따라 객체를 잘라내기 하는 경우, 오디오 처리부(130)는 스피커(131)를 통해 객체가 빨려들어가는 듯한 소리를 발생시킨다. 다른 예를 들어, 스포이드 편집 방식에 따라 객체를 붙여넣기 하는 경우, 오디오 처리부(130)는 스피커(131)를 통해 객체가 방출되는 듯한 소리를 발생시킬 수도 있다.
입출력 제어부(140)는 터치 스크린(150) 및 입력 장치(160) 등의 입출력 장치와 주변 장치 인터페이스(123) 사이에 인터페이스를 제공한다.
터치스크린(150)은 정보의 출력 및 정보의 입력을 수행하는 입출력 장치로, 표시부(152)와 터치 입력부(154)를 포함한다.
표시부(152)는 전자장치(100)의 상태 정보, 사용자가 입력하는 문자, 동화상(moving picture) 및 정화상(still picture) 등을 표시한다. 예를 들어, 표시부(152)는 프로세서(122)에 의해 구동되는 응용프로그램 정보를 표시한다. 다른 예를 들어, 객체 편집 프로그램(114)에 의해 객체에 대한 잘라내기를 수행하는 경우, 표시부(152)는 스포이드가 액체를 빨아들이듯이 객체를 터치한 터치 펜 또는 손가락으로 해당 객체가 빨려들어가는 듯한 애니메이션 효과를 나타낸다. 또 다른 예를 들어, 객체 편집 프로그램(114)에 의해 객체에 대한 붙여넣기를 수행하는 경우, 표시부(152)는 스포이드가 액체를 방출하듯이 터치 펜 또는 손가락으로부터 객체가 방출되는 듯한 애니메이션 효과를 나타낼 수도 있다.
터치 입력부(154)는 터치 패널을 통해 감지된 터치 정보를 입출력 제어부(140)를 통해 프로세서 유닛(120)으로 제공한다. 이때, 터치 입력부(154)는 터치 펜 또는 손가락에 의한 터치 정보를 입출력 제어부(140)를 통해 프로세서 유닛(120)으로 제공한다.
입력 장치(160)는 사용자의 선택에 의해 발생하는 입력 데이터를 입출력 제어부(140)를 통해 프로세서 유닛(120)으로 제공한다. 예를 들어, 입력 장치(160)는 전자장치(100)의 제어를 위한 제어 버튼만을 포함하여 구성된다. 다른 예를 들어, 입력 장치(160)는 사용자로부터 입력 데이터를 제공받기 위한 키패드로 구성될 수도 있다.
미 도시되었지만, 전자 장치(100)는 음성 통신 및 데이터 통신을 위한 통신 기능을 수행하는 통신 시스템을 더 포함할 수도 있다. 이때, 통신 시스템은 서로 다른 통신 네트워크를 지원하는 다수 개의 통신 서브 모듈들로 구분될 수도 있다. 예를 들어, 통신 네트워크는 이들에 한정하지는 않지만, GSM(Global System for Mobile Communication) 네트워크, EDGE(Enhanced Data GSM Environment) 네트워크, CDMA(Code Division Multiple Access) 네트워크, W-CDMA(W-Code Division Multiple Access) 네트워크, LTE(Long Term Evolution) 네트워크, OFDMA(Orthogonal Frequency Division Multiple Access) 네트워크, 무선랜, Bluetooth 네트워크 및 NFC(Near Field Communication) 등을 포함한다.
도 2는 본 발명의 실시 예에 따른 프로세서의 상세 블록 구성을 도시하고 있다.
도 2에 도시된 바와 같이 프로세서(122)는 객체 편집 제어부(200) 및 표시 제어부(210)를 포함한다.
객체 편집 제어부(200)는 프로그램 저장부(111)에 저장된 객체 편집 프로그램(114)를 실행하여 객체를 편집한다. 예를 들어, 객체에 대한 제 1 터치가 유지된 상태에서 잘라내기 이벤트가 발생한 경우, 객체 편집 제어부(200)는 제 1 터치 지점의 객체를 잘라내기한다. 이후, 제 2 터치가 감지되는 경우, 객체 편집 제어부(200)는 잘라내기한 객체를 제 2 터치 지점에 붙여넣기 한다. 이때, 객체 편집 제어부(200)는 제 2 터치가 유지된 상태에서 붙여넣기 이벤트가 발생한 경우, 잘라내기한 객체를 제 2 터치 지점에 붙여넣기 할 수도 있다. 여기서, 객체 편집 제어부(200)는 터치 펜의 버튼 입력, 전자 장치의 하드웨어 버튼 입력, 아이콘 선택, 전자 장치의 모션 감지, 사용자 제스쳐 감지 중 적어도 하나의 입력방식을 이용하여 잘라내기 이벤트 및 붙여넣기 이벤트의 발생을 감지한다. 이때, 잘라내기 이벤트 및 붙여넣기 이벤트는 동일한 입력방식에 의해 발생되거나, 다른 입력 방식에 의해 발생될 수도 있다.
다른 예를 들어, 객체 그룹에 포함되는 객체 중 적어도 하나의 객체에 대한 제 1 터치가 유지된 상태에서 잘라내기 이벤트가 발생한 경우, 객체 편집 제어부(200)는 객체 그룹에 포함되는 객체를 잘라내기 한다. 이후, 제 2 터치가 감지된 경우, 객체 편집 제어부(200)는 잘라내기한 객체 그룹의 객체를 제 2 터치 지점에 붙여넣기 한다. 이때, 객체 편집 제어부(200)는 제 2 터치가 유지된 상태에서 붙여넣기 이벤트가 발생한 경우, 잘라내기한 객체를 제 2 터치 지점에 붙여넣기 할 수도 있다.
또 다른 예를 들어, 객체 편집 제어부(200)는 터치 입력부(154)를 통해 감지된 터치가 유지된 상태에서 편집 이벤트가 발생한 경우, 객체에 대한 터치가 발생하였는지 확인한다. 이때, 객체 편집 제어부(200)는 객체 인식 영역과 터치 지점을 비교하여 객체에 대한 터치가 발생하였는지 확인한다. 만일, 객체에 대한 터치가 발생한 경우, 객체 편집 제어부(200)는 터치 지점의 객체를 잘라내기 한다. 한편, 객체에 대한 터치가 발생하지 않은 경우, 객체 편집 제어부(200)는 터치 지점에 이전에 잘라내기한 객체를 붙여넣기 한다. 이때, 객체 편집 제어부(200)는 터치 방식에 따라 객체 인식 영역을 다르게 인식할 수 있다. 예를 들어, 터치 펜에 의한 터치가 감지된 경우, 객체 편집 제어부(200)는 손에 의한 터치가 감지될 때보다 객체 인식 영역을 좁게 인식한다.
추가적으로, 다수 개의 객체들을 잘라내기한 경우, 객체 편집 제어부(200)는 잘라내기한 다수 개의 객체들 중 사용자에 의해 선택된 적어도 하나의 객체만을 붙여넣기하도록 제어할 수도 있다.
표시 제어부(210)는 프로그램 저장부(111)에 저장된 GUI 프로그램(113)을 실행하여 표시부(152) 상에 그래픽으로 사용자 인터페이스를 표시하도록 제어한다. 예를 들어, 표시 제어부(210)는 프로세서(122)에 의해 구동되는 응용프로그램 정보를 표시부(152)에 표시하도록 제어한다. 다른 예를 들어, 객체 편집 제어부(200)에서 객체에 대한 잘라내기를 수행하는 경우, 표시 제어부(210)는 스포이드가 액체를 빨아들이듯이 객체를 터치한 터치 펜 또는 손가락으로 해당 객체가 빨려들어가는 듯한 애니메이션 효과를 나타내도록 제어한다. 또 다른 예를 들어, 객체 편집 제어부(200)에서 객체에 대한 붙여넣기를 수행하는 경우, 표시 제어부(210)는 스포이드가 액체를 방출하듯이 터치 펜 또는 손가락으로부터 객체가 방출되는 듯한 애니메이션 효과를 나타내도록 제어할 수도 있다.
미 도시되었지만, 프로세서(122)는 스포이드 편집 방식에 따른 효과음을 발생시키도록 제어하는 오디오 제어부를 더 포함할 수도 있다. 예를 들어, 객체 편집 제어부(200)에서 객체를 잘라내기 하는 경우, 오디오 제어부는 스피커(131)를 통해 객체가 빨려들어가는 듯한 소리를 발생하도록 제어한다. 다른 예를 들어, 객체 편집 제어부(200)에서 객체를 붙여넣기 하는 경우, 오디오 제어부는 스피커(131)를 통해 객체가 방출되는 듯한 소리를 발생하도록 제어할 수도 있다.
상술한 바와 같이 전자 장치는 터치 정보 및 편집 이벤트 발생 정보를 고려하여 객체를 편집한다. 이에 따라, 전자 장치는 객체 편집 기능과 터치 정보를 고려하여 발생할 수 있는 별도의 다른 서비스와 구분하기 위해 객체 편집 모드로 전환한 이후 터치 정보와 편집 이벤트 발생 정보를 고려하여 객체를 편집할 수도 있다. 여기서, 전자 장치는 터치 펜의 버튼 입력, 전자 장치의 하드웨어 버튼 입력, 아이콘 선택, 전자 장치의 모션 감지, 사용자 제스쳐 감지 중 적어도 하나의 입력 방식을 이용하여 객체 편집 모드로 진입할 수 있다.
상술한 실시 예에서 객체 편집 제어부(200)는 제 1 터치 지점의 객체를 잘라내기한 후, 제 2 터치 지점에 잘라내기한 객체를 붙여넣기 한다. 이때, 객체 편집 제어부(200)는 제 2 터치 지점의 객체 존재 여부를 고려하여 잘라내기한 객체를 붙여넣기 한다. 예를 들어, 제 2 터치 지점에 다른 객체가 존재하는 경우, 객체 편집 제어부(200)는 제 2 터치 지점에 존재하는 다른 객체의 위치를 변경하여 잘라내기한 객체를 제 2 터치 지점에 붙여넣기한다. 다른 예를 들어 객체 편집 제어부(200)는 잘라내기한 객체의 붙여 넣기 위치를 다른 객체가 존재하지 않는 지점으로 변경하여 붙여넣기할 수도 있다.
상술한 실시 예에서 전자 장치는 프로그램 저장부(111)에 저장된 객체 편집 프로그램(114)을 실행하는 프로세서(122)를 이용하여 스포이드 편집 방식에 따라 객체를 편집한다.
다른 실시 예에서 전자 장치는 객체 편집 프로그램(114)을 포함하는 별도의 객체 편집부를 포함하여 스포이드 편집 방식에 따라 객체를 편집할 수도 있다.
도 3은 본 발명의 실시 예에 따른 전자 장치에서 표시 정보를 편집하기 위한 절차를 도시하고 있다.
도 3을 참조하면, 전자 장치는 301단계에서 제 1 객체에 대한 제 1 터치가 유지된 상태에서 제 1 편집 이벤트가 발생한 경우, 303단계로 진행하여 제 1 객체를 저장한다. 이때, 전자 장치는 스포이드 편집 방식에 따라 제 1 객체를 터치한 터치 펜 또는 손가락으로 제 1 객체가 빨려들어가는 애니메이션 편집 효과를 발생시킨다. 여기서, 전자 장치는 터치 펜의 버튼 입력 정보, 전자 장치의 하드웨어 버튼 입력 정보, 아이콘 선택 정보, 전자 장치의 모션 감지 정보, 사용자 제스쳐 감지 정보 중 적어도 하나의 정보를 고려하여 제 1 편집 이벤트의 발생을 감지한다.
이후, 전자 장치는 305단계로 진행하여 제 2 터치가 감지되는 경우, 307단계로 진행하여 제 2 터치 지점에 303단계에서 저장한 제 1 객체를 표시한다. 예를 들어, 전자 장치는 스포이트 편집 방식에 따라 터치 펜 또는 손가락으로부터 제 1 객체가 방출되는 듯한 애니메이션 효과를 발생시켜 제 2 터치 지점에 제 1 객체를 표시한다.
이후, 전자 장치는 본 알고리즘을 종료한다.
도 4는 본 발명의 제 1 실시 예에 따른 전자 장치에서 스포이드 편집 방식을 이용하여 표시 정보를 편집하기 위한 절차를 도시하고 있다.
도 4를 참조하면 전자 장치는 401단계에서 제 1 객체에 대한 제 1 터치가 감지되는지 확인한다. 예를 들어, 전자 장치는 터치 입력부(154)를 통해 제 1 객체에 대한 제 1 터치가 감지되는지 확인한다.
제 1 객체에 대한 제 1 터치가 감지된 경우, 전자 장치는 403단계로 진행하여 제 1 터치가 유지된 상태에서 제 1 편집 이벤트가 발생하는지 확인한다. 예를 들어, 전자 장치는 제 1 터치가 유지된 상태에서 터치 펜의 버튼 입력 정보, 전자 장치의 하드웨어 버튼 입력 정보, 아이콘 선택 정보, 전자 장치의 모션 감지 정보, 사용자 제스쳐 감지 정보 중 적어도 하나의 정보를 고려하여 잘라내기 이벤트가 발생하는지 확인한다.
제 1 편집 이벤트가 발생하지 않은 경우, 전자 장치는 405단계로 진행하여 제 1 터치가 해제되는지 확인한다.
제 1 터치가 해제된 경우, 전자 장치는 제 1 객체에 대한 편집을 수행하지 않는 것으로 인식한다. 이에 따라, 전자 장치는 본 알고리즘을 종료한다.
한편, 제 1 터치가 해제되지 않은 경우, 전자 장치는 403단계로 진행하여 제 1 터치가 유지된 상태에서 제 1 편집 이벤트가 발생하는지 확인한다.
한편, 403단계에서 제 1 터치가 유지된 상태에서 제 1 편집 이벤트가 발생한 경우, 전자 장치는 407단계로 진행하여 제 1 터치 지점의 제 1 객체를 잘라내기 한다. 이때, 전자 장치는 스포이드 편집 방식에 따라 제 1 객체를 터치한 터치 펜 또는 손가락으로 제 1 객체가 빨려들어가는 듯한 애니메이션 효과를 발생시킨다. 추가적으로, 전자 장치는 스포이드 편집 방식에 따라 제 1 객체가 빨려들어가는 듯한 소리를 발생시킬 수도 있다. 여기서, 전자 장치는 잘라내기한 제 1 객체를 데이터 저장부(112)에 저장한다.
이후, 전자 장치는 409단계로 진행하여 제 2 터치가 감지되는지 확인한다. 예를 들어, 전자 장치는 터치 입력부(154)를 통해 제 2 터치가 감지되는지 확인한다.
제 2 터치가 감지된 경우, 전자 장치는 411단계로 진행하여 제 2 터치 지점에 407단계에서 잘라내기한 제 1 객체를 붙여넣기한다. 예를 들어, 전자 장치는 스포이트 편집 방식에 따라 제 2 터치 지점을 터치한 터치 펜 또는 손가락으로부터 제 1 객체가 방출되는 듯한 애니메이션 효과를 발생시켜 제 2 터치 지점에 제 1 객체를 표시한다. 추가적으로, 전자 장치는 스포이드 편집 방식에 따라 제 1 객체가 방출되는 듯한 소리를 발생시킬 수도 있다.
이후, 전자 장치는 본 알고리즘을 종료한다.
상술한 바와 같이 전자 장치는 제 2 터치 지점에 잘라내기한 제 1 객체를 붙여넣기한다. 이때, 전자 장치는 제 1 객체에 대한 잘라내기 정보를 삭제한다. 다른 예를 들어, 전자 장치는 제 1 객체에 대한 취소 이벤트가 발생하기 이전까지 제 1 객체에 대한 잘라내기 정보를 저장할 수도 있다. 여기서, 전자 장치는 화면에 터치되지 않은 터치 펜으로부터 버튼 입력 정보를 제공받는 경우, 취소 이벤트가 발생한 것으로 인식할 수 있다. 또 다른 예를 들어, 전자 장치는 제 1 객체에 대한 붙여넣기를 수행한 후 기준 시간 동안 제 1 객체에 대한 잘라내기 정보를 저장할 수도 있다.
추가적으로, 전자 장치는 제 2 터치 지점의 객체 존재 여부를 고려하여 제 1 객체를 붙여넣기 한다. 예를 들어, 제 2 터치 지점에 다른 객체가 존재하는 경우, 전자 장치는 제 2 터치 지점에 존재하는 다른 객체의 위치를 변경하여 제 1 객체를 제 2 터치 지점에 붙여넣기 한다. 다른 예를 들어 전자 장치는 제 1 객체의 붙여 넣기 위치를 다른 객체가 존재하지 않는 지점으로 변경하여 붙여넣기 할 수도 있다.
도 5는 본 발명의 제 2 실시 예에 따른 전자 장치에서 스포이드 편집 방식을 이용하여 표시 정보를 편집하기 위한 절차를 도시하고 있다.
도 5를 참조하면 전자 장치는 501단계에서 제 1 객체에 대한 제 1 터치가 감지되는지 확인한다. 예를 들어, 전자 장치는 터치 입력부(154)를 통해 제 1 객체에 대한 제 1 터치가 감지되는지 확인한다.
제 1 객체에 대한 제 1 터치가 감지된 경우, 전자 장치는 503단계로 진행하여 제 1 터치가 유지된 상태에서 제 1 편집 이벤트가 발생하는지 확인한다. 예를 들어, 전자 장치는 제 1 터치가 유지된 상태에서 터치 펜의 버튼 입력 정보, 전자 장치의 하드웨어 버튼 입력 정보, 아이콘 선택 정보, 전자 장치의 모션 감지 정보, 사용자 제스쳐 감지 정보 중 적어도 하나의 정보를 고려하여 잘라내기 이벤트가 발생하는지 확인한다.
제 1 편집 이벤트가 발생하지 않은 경우, 전자 장치는 505단계로 진행하여 제 1 터치가 해제되는지 확인한다.
제 1 터치가 해제된 경우, 전자 장치는 제 1 객체에 대한 편집을 수행하지 않는 것으로 인식한다. 이에 따라, 전자 장치는 본 알고리즘을 종료한다.
한편, 제 1 터치가 해제되지 않은 경우, 전자 장치는 503단계로 진행하여 제 1 터치가 유지된 상태에서 제 1 편집 이벤트가 발생하는지 확인한다.
한편, 503단계에서 제 1 터치가 유지된 상태에서 제 1 편집 이벤트가 발생한 경우, 전자 장치는 507단계로 진행하여 제 1 터치 지점의 제 1 객체를 잘라내기 한다. 이때, 전자 장치는 스포이드 편집 방식에 따라 제 1 객체를 터치한 터치 펜 또는 손가락으로 제 1 객체가 빨려들어가는 듯한 애니메이션 효과를 발생시킨다. 추가적으로, 전자 장치는 스포이드 편집 방식에 따라 제 1 객체가 빨려들어가는 듯한 소리를 발생시킬 수도 있다. 여기서, 전자 장치는 잘라내기한 제 1 객체를 데이터 저장부(112)에 저장한다.
이후, 전자 장치는 509단계로 진행하여 제 2 터치가 감지되는지 확인한다. 예를 들어, 전자 장치는 터치 입력부(154)를 통해 제 2 터치가 감지되는지 확인한다.
제 2 터치가 감지된 경우, 전자 장치는 511단계로 진행하여 제 2 터치가 유지된 상태에서 제 2 편집 이벤트가 발생하는지 확인한다. 예를 들어, 전자 장치는 제 2 터치가 유지된 상태에서 터치 펜의 버튼 입력 정보, 전자 장치의 하드웨어 버튼 입력 정보, 아이콘 선택 정보, 전자 장치의 모션 감지 정보, 사용자 제스쳐 감지 정보 중 적어도 하나의 정보를 고려하여 붙여넣기 이벤트가 발생하는지 확인한다.
제 2 편집 이벤트가 발생하지 않은 경우, 전자 장치는 513단계로 진행하여 제 2 터치가 해제되는지 확인한다.
제 2 터치가 해제된 경우, 전자 장치는 제 1 객체에 대한 편집을 수행하지 않는 것으로 인식한다. 이에 따라, 전자 장치는 본 알고리즘을 종료한다. 이때, 전자 장치는 잘라내기한 제 1 객체를 잘라내기 이벤트 발생 전으로 복원할 수도 있다.
한편, 제 2 터치가 해제되지 않은 경우, 전자 장치는 511단계로 진행하여 제 2 터치가 유지된 상태에서 제 2 편집 이벤트가 발생하는지 확인한다.
한편, 511단계에서 제 2 터치가 유지된 상태에서 제 2 편집 이벤트가 발생한 경우, 전자 장치는 515단계로 진행하여 제 2 터치 지점에 507단계에서 잘라내기한 제 1 객체를 붙여넣기한다. 예를 들어, 전자 장치는 스포이트 편집 방식에 따라 제 2 터치 지점을 터치한 터치 펜 또는 손가락으로부터 제 1 객체가 방출되는 듯한 애니메이션 효과를 발생시켜 제 2 터치 지점에 제 1 객체를 표시한다. 추가적으로, 전자 장치는 스포이드 편집 방식에 따라 제 1 객체가 방출되는 듯한 소리를 발생시킬 수도 있다.
이후, 전자 장치는 본 알고리즘을 종료한다.
상술한 바와 같이 전자 장치는 제 2 터치 지점에 잘라내기한 제 1 객체를 붙여넣기한다. 이때, 전자 장치는 제 1 객체에 대한 잘라내기 정보를 삭제한다. 다른 예를 들어, 전자 장치는 제 1 객체에 대한 취소 이벤트가 발생하기 이전까지 제 1 객체에 대한 잘라내기 정보를 저장할 수도 있다. 여기서, 전자 장치는 화면을 터치되지 않은 터치 펜의 버튼 입력 정보를 고려하여 취소 이벤트를 확인할 수 있다. 또 다른 예를 들어, 전자 장치는 제 1 객체에 대한 붙여넣기를 수행한 후 기준 시간 동안 제 1 객체에 대한 잘라내기 정보를 저장할 수도 있다.
추가적으로, 전자 장치는 제 2 터치 지점의 객체 존재 여부를 고려하여 제 1 객체를 붙여넣기 한다. 예를 들어, 제 2 터치 지점에 다른 객체가 존재하는 경우, 전자 장치는 제 2 터치 지점에 존재하는 다른 객체의 위치를 변경하여 제 1 객체를 제 2 터치 지점에 붙여넣기 한다. 다른 예를 들어 전자 장치는 제 1 객체의 붙여 넣기 위치를 다른 객체가 존재하지 않는 지점으로 변경하여 붙여넣기 할 수도 있다.
도 6은 본 발명의 제 3 실시 예에 따른 전자 장치에서 스포이드 편집 방식을 이용하여 표시 정보를 편집하기 위한 절차를 도시하고 있다.
도 6을 참조하면 전자 장치는 601단계에서 터치가 감지되는지 확인한다. 예를 들어, 전자 장치는 터치 입력부(154)를 통해 터치가 감지되는지 확인한다.
터치가 감지된 경우, 전자 장치는 603단계로 진행하여 터치가 유지된 상태에서 편집 이벤트가 발생하는지 확인한다. 예를 들어, 전자 장치는 터치가 유지된 상태에서 터치 펜의 버튼 입력 정보, 전자 장치의 하드웨어 버튼 입력 정보, 아이콘 선택 정보, 전자 장치의 모션 감지 정보, 사용자 제스쳐 감지 정보 중 적어도 하나의 정보를 고려하여 편집 이벤트가 발생하는지 확인한다.
편집 이벤트가 발생하지 않은 경우, 전자 장치는 605단계로 진행하여 터치가 해제되는지 확인한다.
터치가 해제된 경우, 전자 장치는 객체 편집을 수행하지 않는 것으로 인식한다. 이에 따라, 전자 장치는 본 알고리즘을 종료한다.
한편, 터치가 해제되지 않은 경우, 전자 장치는 603단계로 진행하여 터치가 유지된 상태에서 편집 이벤트가 발생하는지 확인한다.
한편, 603단계에서 터치가 유지된 상태에서 편집 이벤트가 발생한 경우, 전자 장치는 607단계로 진행하여 601단계에서 감지한 터치 지점에 객체가 존재하는지 확인한다. 예를 들어, 전자 장치는 객체 인식 영역과 터치 지점을 비교하여 객체에 대한 터치가 발생하였는지 확인한다. 이때, 전자 장치는 터치 방식에 따라 객체 인식 영역을 다르게 인식할 수 있다. 구체적으로, 터치 펜에 의한 터치가 감지된 경우, 전자 장치는 터치 펜을 이용하여 손 터치에 비해 세밀한 터치를 수행할 수 있는 것으로 인식한다. 이에 따라, 전자 장치는 손에 의한 터치가 감지될 때보다 객체 인식 영역을 좁게 인식할 수 있다. 여기서, 객체 인식 영역은 터치 정보를 고려하여 해당 객체를 인식할 수 있는 영역을 나타낸다.
607단계에서 객체에 대한 터치가 발생한 경우, 전자 장치는 609단계로 진행하여 터치 지점의 객체를 잘라내기한다. 이때, 전자 장치는 스포이드 편집 방식에 따라 터치 펜 또는 손가락에 의해 터치된 객체가 터치 펜 또는 손가락으로 빨려들어가는 듯한 애니메이션 효과를 발생시킨다. 추가적으로, 전자 장치는 스포이드 편집 방식에 따라 객체가 빨려들어가는 듯한 소리를 발생시킬 수도 있다. 여기서, 전자 장치는 잘라내기한 제 1 객체를 데이터 저장부(112)에 저장한다.
한편, 607단계에서 객체에 대한 터치가 발생하지 않은 경우, 전자 장치는 611단계로 진행하여 터치 지점에 이전에 잘라내기된 객체를 붙여넣기 한다. 예를 들어, 전자 장치는 스포이트 편집 방식에 따라 터치 지점을 터치한 터치 펜 또는 손가락으로부터 이전에 잘라내기된 객체가 방출되는 듯한 애니메이션 효과를 발생시켜 터치 지점에 객체를 표시한다. 추가적으로, 전자 장치는 스포이드 편집 방식에 따라 객체가 방출되는 듯한 소리를 발생시킬 수도 있다.
이후, 전자 장치는 본 알고리즘을 종료한다.
상술한 바와 같이 전자 장치는 객체가 존재하지 않는 터치 지점에 잘라내기한 객체를 붙여넣기 한다. 이때, 전자 장치는 객체에 대한 잘라내기 정보를 삭제한다. 다른 예를 들어, 전자 장치는 객체에 대한 취소 이벤트가 발생하기 이전까지 객체에 대한 잘라내기 정보를 저장할 수도 있다. 여기서, 전자 장치는 화면을 터치되지 않은 터치 펜의 버튼 입력 정보를 고려하여 취소 이벤트를 확인할 수 있다.
도 3 내지 도 6에 도시된 바와 같이 전자 장치는 터치 입력부(154)를 통해 감지된 터치 정보와 편집 이벤트 발생 정보를 고려하여 터치된 객체를 편집한다. 예를 들어, 도 11a에 도시된 바와 같이 터치 펜에 의한 "Flickr" 아이콘의 터치(1101)가 유지된 상태에서 터치 펜의 버튼 입력(1103)이 감지된 경우, 전자 장치는 "Flickr" 아이콘을 잘라내기 한다. 이때, 전자 장치는 도 11b에 도시된 바와 같이 스포이드가 액체를 빨아들이듯이 터치 펜으로 "Flickr" 아이콘이 빨려들어가는 애니메이션 효과로 "Flickr" 아이콘을 잘라내기 한다. 추가적으로, 전자 장치는 스포이드를 이용하여 액체를 빨아들이는 동작과 유사하게 터치 펜의 버튼 입력(1103)이 감지된 후 버튼 입력 해제되는 시점에 스포이드 효과를 이용하여 "Flickr" 아이콘을 잘라내기할 수도 있다.
"Flickr" 아이콘을 잘라내기한 경우, 전자 장치는 도 11c에 도시된 바와 같이 표시부(152)에 표시된 아이콘들을 재정렬한다. 추가적으로, 전자 장치는 도 11c에 도시된 바와 같이 잘라내기한 아이콘의 존재 여부를 나타내는 알림 아이콘(1111)을 표시한다. 이때, 알림 아이콘(1111)은 잘라내기한 아이콘의 개수를 함께 나타낼 수도 있다.
"Flickr" 아이콘을 잘라내기한 후, 도 11d에 도시된 바와 같이 제 2 터치(1121)가 감지된 경우, 전자 장치는 도 11g에 도시된 바와 같이 잘라내기한 "Flickr" 아이콘을 제 2 터치 지점에 붙여넣기 한다. 이때, 전자 장치는 도 11f에 도시된 바와 같이 스포이드가 액체를 방출하듯이 터치 펜에서 "Flickr" 아이콘이 방출되는 애니메이션 효과로 "Flickr" 아이콘을 제 2 터치 지점에 붙여넣기 한다.
추가적으로, 전자 장치는 "Flickr" 아이콘을 잘라내기한 후, 도 11e에 도시된 바와 같이 제 2 터치(1131)가 유지된 상태에서 터치 펜의 버튼 입력(1133)이 감지된 경우, 잘라내기한 "Flickr" 아이콘을 제 2 터치 지점에 붙여넣기할 수도 있다. 이때, 전자 장치는 도 11f에 도시된 바와 같이 스포이드가 액체를 방출하듯이 터치 펜에서 "Flickr" 아이콘이 방출되는 애니메이션 효과로 "Flickr" 아이콘을 제 2 터치 지점에 붙여넣기 한다.
다른 예를 들어, 도 12a에 도시된 바와 같이 사용자의 손가락에 의한 "Flickr" 아이콘의 터치(1201)가 유지된 상태에서 전자 장치의 하드웨어 버튼(예: 볼륨 버튼) 입력(1203)이 감지된 경우, 전자 장치는 "Flickr" 아이콘을 잘라내기 한다. 이때, 전자 장치는 도 12b에 도시된 바와 같이 스포이드가 액체를 빨아들이듯이 손가락으로 "Flickr" 아이콘이 빨려들어가는 애니메이션 효과로 "Flickr" 아이콘을 잘라내기 한다. "Flickr" 아이콘을 잘라내기한 경우, 전자 장치는 도 11c에 도시된 바와 같이 표시부(152)에 표시된 아이콘들을 재정렬한다. 또한, 전자 장치는 도 11c에 도시된 바와 같이 잘라내기한 아이콘의 존재 여부를 나타내는 알림 아이콘(1111)을 표시한다.
"Flickr" 아이콘을 잘라내기한 후, 도 12c에 도시된 바와 같이 제 2 터치(1211)가 감지된 경우, 전자 장치는 잘라내기한 "Flickr" 아이콘을 제 2 터치 지점에 붙여넣기 한다. 이때, 전자 장치는 도 12e에 도시된 바와 같이 스포이드가 액체를 방출하듯이 손가락에서 "Flickr" 아이콘이 방출되는 애니메이션 효과로 "Flickr" 아이콘을 제 2 터치 지점에 붙여넣기 한다.
추가적으로, 전자 장치는 "Flickr" 아이콘을 잘라내기한 후, 도 12d에 도시된 바와 같이 제 2 터치(1221)가 유지된 상태에서 전자 장치의 하드웨어 버튼 입력(1223)이 감지된 경우, 잘라내기한 "Flickr" 아이콘을 제 2 터치 지점에 붙여넣기할 수도 있다. 이때, 전자 장치는 도 12e에 도시된 바와 같이 스포이드가 액체를 방출하듯이 손가락에서 "Flickr" 아이콘이 방출되는 애니메이션 효과로 "Flickr" 아이콘을 제 2 터치 지점에 붙여넣기 한다.
상술한 실시 예에서 전자 장치는 스포이드 편집 방식에 따라 아이콘을 편집한다.
다른 실시 예에서 전자 장치는 도 13a 내지 도 13g 또는 도 14a 내지 도 14e에 도시된 바와 같이 스포이드 편집 방식에 따라 텍스트를 편집할 수도 있다. 예를 들어, 도 13a에 도시된 바와 같이 터치 펜에 의한 "wonderful" 단어의 터치(1301)가 유지된 상태에서 터치 펜의 버튼 입력(1303)이 감지된 경우, 전자 장치는 "wonderful" 단어를 잘라내기 한다. 이때, 전자 장치는 도 13b에 도시된 바와 같이 스포이드가 액체를 빨아들이듯이 터치 펜으로 "wonderful" 단어가 빨려들어가는 애니메이션 효과로 "wonderful" 단어를 잘라내기 한다. 이 경우, 전자 장치는 잘라내기하기 위한 텍스트 영역을 자동으로 설정하거나, 사용자의 입력 정보에 따라 결정할 수도 있다. 예를 들어, 전자 장치는 터치 펜에 의한 터치(1301)가 유지된 상태에서 터치 펜의 버튼 입력(1303)이 감지된 경우, 터치 지점 및 텍스트의 띄어쓰기 지점을 고려하여 잘라내기하기 위한 텍스트 영역을 자동으로 설정한다. 이때, 전자 장치는 도 13a에 도시된 텍스트 영역 변경 바(1305)에 대한 입력 정보를 고려하여 텍스트 영역의 크기를 변경할 수도 있다. 추가적으로, 전자 장치는 스포이드를 이용하여 액체를 빨아들이는 동작과 유사하게 터치 펜의 버튼 입력(1303)이 감지된 후 버튼 입력 해제되는 시점에 스포이드 효과를 이용하여 "wonderful" 단어를 잘라내기할 수도 있다.
"wonderful" 단어를 잘라내기한 경우, 전자 장치는 도 13c에 도시된 바와 같이 표시부(152)에 표시된 텍스트를 재정렬한다. 추가적으로, 전자 장치는 도 13c에 도시된 바와 같이 잘라내기한 텍스트의 존재 여부를 나타내는 알림 아이콘(1311)을 표시한다. 이때, 알림 아이콘(1311)은 잘라내기한 텍스트의 개수를 함께 나타낼 수도 있다.
"wonderful" 단어를 잘라내기한 후, 도 13d에 도시된 바와 같이 제 2 터치(1321)가 감지된 경우, 전자 장치는 도 13g에 도시된 바와 같이 잘라내기한 "wonderful" 단어를 제 2 터치 지점에 붙여넣기 한다. 이때, 전자 장치는 도 13f에 도시된 바와 같이 스포이드가 액체를 방출하듯이 터치 펜에서 "wonderful" 단어가 방출되는 애니메이션 효과로 "wonderful" 단어를 제 2 터치 지점에 붙여넣기 한다.
추가적으로, 전자 장치는 "wonderful" 단어를 잘라내기한 후, 도 13e에 도시된 바와 같이 제 2 터치(1331)가 유지된 상태에서 터치 펜의 버튼 입력(1333)이 감지된 경우, 잘라내기한 "wonderful" 단어를 제 2 터치 지점에 붙여넣기할 수도 있다. 이때, 전자 장치는 도 13f에 도시된 바와 같이 스포이드가 액체를 방출하듯이 터치 펜에서 "wonderful" 단어가 방출되는 애니메이션 효과로 "wonderful" 단어를 제 2 터치 지점에 붙여넣기 한다.
다른 예를 들어, 도 14a에 도시된 바와 같이 사용자의 손가락에 의한 "wonderful" 단어의 터치(1401)가 유지된 상태에서 전자 장치의 하드웨어 버튼 입력(1403)이 감지된 경우, 전자 장치는 "wonderful" 단어를 잘라내기 한다. 이때, 전자 장치는 도 14b에 도시된 바와 같이 스포이드가 액체를 빨아들이듯이 손가락으로 "wonderful" 단어가 빨려들어가는 애니메이션 효과로 "wonderful" 단어를 잘라내기 한다. 이 경우, 전자 장치는 잘라내기하기 위한 텍스트 영역을 자동으로 설정하거나, 사용자의 입력 정보에 따라 결정할 수도 있다. 예를 들어, 전자 장치는 손가락에 의한 터치(1401)가 유지된 상태에서 터치 펜의 버튼 입력(1403)이 감지된 경우, 터치 지점 및 텍스트의 띄어쓰기 지점을 고려하여 잘라내기하기 위한 텍스트 영역을 자동으로 설정한다. 이때, 전자 장치는 도 14a에 도시된 같이 텍스트 영역 변경 바(1405)에 대한 입력 정보를 고려하여 텍스트 영역의 크기를 변경할 수도 있다.
추가적으로, "wonderful" 단어를 잘라내기한 경우, 전자 장치는 도 13c에 도시된 바와 같이 표시부(152)에 표시된 텍스트의 배열을 재정렬한다. 또한, 전자 장치는 도 13c에 도시된 바와 같이 잘라내기한 텍스트의 존재 여부를 나타내는 알림 아이콘(1311)을 표시한다.
"wonderful" 단어를 잘라내기한 후, 도 14c에 도시된 바와 같이 제 2 터치(1411)가 감지된 경우, 전자 장치는 잘라내기한 "wonderful" 단어를 제 2 터치 지점에 붙여넣기 한다. 이때, 전자 장치는 도 14e에 도시된 바와 같이 스포이드가 액체를 방출하듯이 손가락에서 "wonderful" 단어가 방출되는 애니메이션 효과로 "wonderful" 단어를 붙여넣기 한다.
추가적으로, 전자 장치는 "wonderful" 단어를 잘라내기한 후, 도 14d에 도시된 바와 같이 제 2 터치(1421)가 유지된 상태에서 전자 장치의 하드웨어 버튼 입력(1423)이 감지된 경우, 잘라내기한 "wonderful" 단어를 제 2 터치 지점에 붙여넣기할 수도 있다. 이때, 전자 장치는 도 14e에 도시된 바와 같이 스포이드가 액체를 방출하듯이 손가락에서 "wonderful" 단어가 방출되는 애니메이션 효과로 "wonderful" 단어를 붙여넣기 한다.
상술한 실시 예에서 전자 장치는 스포이드 편집 방식에 따라 텍스트를 편집한다.
다른 실시 예에서 전자 장치는 도 15a 내지 도 15g 및 도 16a 내지 도 16e에 도시된 바와 같이 스포이드 편집 방식에 따라 재생 목록을 편집할 수도 있다. 예를 들어, 도 15a에 도시된 바와 같이 터치 펜에 의한 "노래 3" 목록의 터치(1501)가 유지된 상태에서 터치 펜의 버튼 입력(1503)이 감지된 경우, 전자 장치는 "노래 3" 목록을 잘라내기한다. 이때, 전자 장치는 도 15b에 도시된 바와 같이 스포이드가 액체를 빨아들이듯이 터치 펜으로 "노래 3" 목록이 빨려들어가는 애니메이션 효과로 "노래 3" 목록을 잘라내기 한다. 추가적으로, 전자 장치는 스포이드를 이용하여 액체를 빨아들이는 동작과 유사하게 터치 펜의 버튼 입력(1503)이 감지된 후 버튼 입력 해제되는 시점에 스포이드 효과를 이용하여 "노래 3" 목록을 잘라내기할 수도 있다.
"노래 3" 목록을 잘라내기한 경우, 전자 장치는 도 15c에 도시된 바와 같이 표시부(152)에 표시된 재생 목록을 재정렬한다. 추가적으로, 전자 장치는 도 15c에 도시된 바와 같이 잘라내기한 재생 목록의 존재 여부를 나타내는 알림 아이콘(1511)을 표시한다. 이때, 알림 아이콘(1511)은 잘라내기한 재생 목록의 개수를 함께 나타낼 수도 있다.
"노래 3" 목록을 잘라내기한 후, 도 15d에 도시된 바와 같이 제 2 터치(1521)가 감지된 경우, 전자 장치는 도 15g에 도시된 바와 같이 잘라내기한 "노래 3" 목록을 제 2 터치 지점에 붙여넣기 한다. 이때, 전자 장치는 도 15f에 도시된 바와 같이 스포이드가 액체를 방출하듯이 터치 펜에서 "노래 3" 목록이 방출되는 애니메이션 효과로 "노래 3" 목록을 제 2 터치 지점에 붙여넣기 한다.
추가적으로, 전자 장치는 "노래 3" 목록을 잘라내기한 후, 도 15e에 도시된 바와 같이 제 2 터치(1531)가 유지된 상태에서 터치 펜의 버튼 입력(1533)이 감지된 경우, 잘라내기한 "노래 3" 목록을 제 2 터치 지점에 붙여넣기할 수도 있다. 이때, 전자 장치는 도 15f에 도시된 바와 같이 스포이드가 액체를 방출하듯이 터치 펜에서 "노래 3" 목록이 방출되는 애니메이션 효과로 "노래 3" 목록을 제 2 터치 지점에 붙여넣기 한다.
다른 예를 들어, 도 16a에 도시된 바와 같이 사용자의 손가락에 의한 "노래 3" 목록의 터치(1601)가 유지된 상태에서 전자 장치의 하드웨어 버튼 입력(1603)이 감지된 경우, 전자 장치는 "노래 3" 목록에 대한 잘라내기를 수행한다. 이때, 전자 장치는 도 16b에 도시된 바와 같이 스포이드가 액체를 빨아들이듯이 손가락으로 "노래 3" 목록이 빨려들어가는 애니메이션 효과로 "노래 3" 목록을 잘라내기 한다. "노래 3" 목록을 잘라내기한 경우, 전자 장치는 도 15c에 도시된 바와 같이 표시부(152)에 표시된 재생 목록을 재정렬한다. 또한, 전자 장치는 도 15c에 도시된 바와 같이 잘라내기한 재생 목록의 존재 여부를 나타내는 알림 아이콘(1511)을 표시한다.
"노래 3" 목록을 잘라내기한 후, 도 16c에 도시된 바와 같이 제 2 터치(1611)가 감지된 경우, 전자 장치는 잘라내기한 "노래 3" 목록을 제 2 터치 지점에 붙여넣기 한다. 이때, 전자 장치는 도 16e에 도시된 바와 같이 스포이드가 액체를 방출하듯이 손가락에서 "노래 3" 목록이 방출되는 애니메이션 효과로 "노래 3" 목록을 제 2 터치 지점에 붙여넣기 한다.
추가적으로, 전자 장치는 "노래 3" 목록을 잘라내기한 후, 도 16d에 도시된 바와 같이 제 2 터치(1621)가 유지된 상태에서 전자 장치의 하드웨어 버튼 입력(1623)이 감지된 경우, 잘라내기한 "노래 3" 목록을 제 2 터치 지점에 붙여넣기할 수도 있다. 이때, 전자 장치는 도 16e에 도시된 바와 같이 스포이드가 액체를 방출하듯이 손가락에서 "노래 3" 목록이 방출되는 애니메이션 효과로 "노래 3" 목록을 제 2 터치 지점에 붙여넣기 한다.
상술한 도 11c, 도 13c 및 도 15c에 도시된 바와 같이 전자 장치는 적어도 하나의 객체를 잘라내기한 경우, 표시부(152)에 표시된 객체들을 재정렬한다. 다른 실시 예에서, 전자 장치는 적어도 하나의 객체를 잘라내기한 경우, 표시부(152)에 표시된 객체들을 재정렬하지 않을 수도 있다. 즉, 전자 장치는 잘라내기한 객체 영역을 빈 공간으로 남겨둘 수도 있다.
도 7은 본 발명의 제 1 실시 예에 따른 전자 장치에서 스포이드 편집 방식을 이용하여 다수 개의 표시 정보를 편집하기 위한 절차를 도시하고 있다.
도 7을 참조하면 전자 장치는 701단계에서 객체 그룹을 설정한다. 예를 들어, 전자 장치는 터치 입력부(154)를 통해 감지한 멀티 터치된 지점들을 고려하여 설정한 객체 선택 영역에 포함되는 적어도 하나의 객체를 객체 그룹으로 인식한다. 다른 예를 들어, 전자 장치는 터치 입력부(154)를 통해 감지한 터치 지점 및 드레그 정보를 고려하여 설정한 객체 선택 영역에 포함되는 적어도 하나의 객체를 객체 그룹으로 인식할 수도 있다. 또 다른 예를 들어, 전자 장치는 터치 입력부(154)를 통해 연속적으로 감지한 터치된 지점들을 고려하여 설정한 객체 선택 영역에 포함되는 적어도 하나의 객체를 객체 그룹(1301)으로 인식할 수도 있다. 또 다른 예를 들어, 전자 장치는 객체 선택 이벤트가 감지되는 경우, 객체 선택 모드로 전환한다. 이때, 전자 장치는 객체 선택 모드에서 선택된 적어도 하나의 객체를 객체 그룹으로 인식할 수도 있다.
객체 그룹을 설정한 후 전자 장치는 703단계로 진행하여 객체 그룹에 포함되는 적어도 하나의 객체 중 적어도 하나의 객체에 대한 터치가 감지되는지 확인한다.
객체 그룹에 포함되는 객체에 대한 터치가 감지된 경우, 전자 장치는 705단계로 진행하여 객체 그룹에 포함되는 객체에 대한 터치가 유지된 상태에서 편집 이벤트가 발생하는지 확인한다. 여기서, 전자 장치는 터치 펜의 버튼 입력 정보, 전자 장치의 하드웨어 버튼 입력 정보, 아이콘 선택 정보, 전자 장치의 모션 감지 정보, 사용자 제스쳐 감지 정보 중 적어도 하나의 정보를 고려하여 잘라내기 이벤트가 발생하는지 확인한다.
편집 이벤트가 발생하지 않은 경우, 전자 장치는 707단계로 진행하여 객체 그룹에 포함되는 객체에 대한 터치가 해제되는지 확인한다.
객체 그룹에 포함되는 객체에 대한 터치가 해제된 경우, 전자 장치는 객체 그룹에 대한 편집을 수행하지 않는 것으로 인식한다. 이에 따라, 전자 장치는 본 알고리즘을 종료한다.
한편, 객체 그룹에 포함되는 객체에 대한 터치가 해제되지 않은 경우, 전자 장치는 705단계로 진행하여 객체 그룹에 포함되는 객체에 대한 터치가 유지된 상태에서 편집 이벤트가 발생하는지 확인한다.
한편, 705단계에서 객체 그룹에 포함되는 객체에 대한 터치가 유지된 상태에서 편집 이벤트가 발생한 경우, 전자 장치는 709단계로 진행하여 객체 그룹에 포함되는 객체를 잘라내기 한다. 이때, 전자 장치는 스포이드 편집 방식에 따라 객체 그룹에 포함되는 객체들이 터치 펜 또는 손가락으로 빨려들어가는 듯한 애니메이션 효과를 발생시킨다. 추가적으로, 전자 장치는 스포이드 편집 방식에 따라 객체 그룹에 포함되는 객체들이 터치 펜 또는 손가락으로 빨려들어가는 듯한 소리를 발생시킬 수도 있다. 여기서, 전자 장치는 잘라내기한 객체 정보를 데이터 저장부(112)에 저장한다.
이후, 전자 장치는 711단계로 진행하여 제 2 터치가 감지되는지 확인한다. 예를 들어, 전자 장치는 터치 입력부(154)를 통해 제 2 터치가 감지되는지 확인한다.
제 2 터치가 감지된 경우, 전자 장치는 713단계로 진행하여 제 2 터치 지점에 객체 그룹에 포함되는 객체를 붙여넣기한다. 예를 들어, 전자 장치는 스포이트 편집 방식에 따라 제 2 터치 지점을 터치한 터치 펜 또는 손가락으로부터 객체 그룹에 포함되는 객체들이 방출되는 듯한 애니메이션 효과를 발생시켜 제 2 터치 지점에 객체 그룹에 포함되는 객체들을 표시한다. 추가적으로, 전자 장치는 스포이드 편집 방식에 따라 객체 그룹에 포함되는 객체들이 방출되는 듯한 소리를 발생시킬 수도 있다.
이후, 전자 장치는 본 알고리즘을 종료한다.
상술한 바와 같이 전자 장치는 제 2 터치 지점에 잘라내기한 객체 그룹의 객체들을 붙여넣기한다. 이때, 전자 장치는 제 2 터치 지점의 객체 존재 여부를 고려하여 잘라내기한 객체 그룹의 객체들을 붙여넣기 한다. 예를 들어, 제 2 터치 지점에 다른 객체가 존재하는 경우, 전자 장치는 제 2 터치 지점에 존재하는 다른 객체의 위치를 변경하여 잘라내기한 객체 그룹의 객체들을 제 2 터치 지점에 붙여넣기 한다. 다른 예를 들어 전자 장치는 잘라내기한 객체 그룹의 객체들의 붙여 넣기 위치를 다른 객체가 존재하지 않는 지점으로 변경하여 붙여넣기 할 수도 있다.
도 8은 본 발명의 제 2 실시 예에 따른 전자 장치에서 스포이드 편집 방식을 이용하여 다수 개의 표시 정보를 편집하기 위한 절차를 도시하고 있다.
도 8을 참조하면 전자 장치는 801단계에서 객체 그룹을 설정한다. 예를 들어, 전자 장치는 터치 입력부(154)를 통해 감지한 멀티 터치된 지점들을 고려하여 설정한 객체 선택 영역에 포함되는 적어도 하나의 객체를 객체 그룹으로 인식한다. 다른 예를 들어, 전자 장치는 터치 입력부(154)를 통해 감지한 터치 지점 및 드레그 정보를 고려하여 설정한 객체 선택 영역에 포함되는 적어도 하나의 객체를 객체 그룹으로 인식할 수도 있다. 또 다른 예를 들어, 전자 장치는 터치 입력부(154)를 통해 연속적으로 감지한 터치된 지점들을 고려하여 설정한 객체 선택 영역에 포함되는 적어도 하나의 객체를 객체 그룹으로 인식할 수도 있다. 또 다른 예를 들어, 전자 장치는 객체 선택 이벤트가 감지되는 경우, 객체 선택 모드로 전환한다. 이때, 전자 장치는 객체 선택 모드에서 선택된 적어도 하나의 객체를 객체 그룹으로 인식할 수도 있다.
객체 그룹을 설정한 후 전자 장치는 803단계로 진행하여 객체 그룹에 포함되는 적어도 하나의 객체 중 적어도 하나의 객체에 대한 터치가 감지되는지 확인한다.
객체 그룹에 포함되는 객체에 대한 터치가 감지된 경우, 전자 장치는 805단계로 진행하여 객체 그룹에 포함되는 객체에 대한 터치가 유지된 상태에서 편집 이벤트가 발생하는지 확인한다. 예를 들어, 전자 장치는 객체 그룹에 포함되는 객체에 대한 터치가 유지된 상태에서 터치 펜의 버튼 입력 정보, 전자 장치의 하드웨어 버튼 입력 정보, 아이콘 선택 정보, 전자 장치의 모션 감지 정보, 사용자 제스쳐 감지 정보 중 적어도 하나의 정보를 고려하여 잘라내기 이벤트가 발생하는지 확인한다.
편집 이벤트가 발생하지 않은 경우, 전자 장치는 807단계로 진행하여 객체 그룹에 포함되는 객체에 대한 터치가 해제되는지 확인한다.
객체 그룹에 포함되는 객체에 대한 터치가 해제된 경우, 전자 장치는 객체 그룹에 대한 편집을 수행하지 않는 것으로 인식한다. 이에 따라, 전자 장치는 본 알고리즘을 종료한다.
한편, 객체 그룹에 포함되는 객체에 대한 터치가 해제되지 않은 경우, 전자 장치는 805단계로 진행하여 객체 그룹에 포함되는 객체에 대한 터치가 유지된 상태에서 편집 이벤트가 발생하는지 확인한다.
한편, 805단계에서 객체 그룹에 포함되는 객체에 대한 터치가 유지된 상태에서 편집 이벤트가 발생한 경우, 전자 장치는 809단계로 진행하여 객체 그룹에 포함되는 객체를 잘라내기 한다. 이때, 전자 장치는 스포이드 편집 방식에 따라 객체 그룹에 포함되는 객체들이 터치 펜 또는 손가락으로 빨려들어가는 듯한 애니메이션 효과를 발생시킨다. 추가적으로, 전자 장치는 스포이드 편집 방식에 따라 객체 그룹에 포함되는 객체들이 터치 펜 또는 손가락으로 빨려들어가는 듯한 소리를 발생시킬 수도 있다. 여기서, 전자 장치는 잘라내기한 객체 정보를 데이터 저장부(112)에 저장한다.
이후, 전자 장치는 811단계로 진행하여 제 2 터치가 감지되는지 확인한다. 예를 들어, 전자 장치는 터치 입력부(154)를 통해 제 2 터치가 감지되는지 확인한다.
제 2 터치가 감지된 경우, 전자 장치는 813단계로 진행하여 제 2 터치가 유지된 상태에서 제 2 편집 이벤트가 발생하는지 확인한다. 여기서, 전자 장치는 터치 펜의 버튼 입력 정보, 전자 장치의 하드웨어 버튼 입력 정보, 아이콘 선택 정보, 전자 장치의 모션 감지 정보, 사용자 제스쳐 감지 정보 중 적어도 하나의 정보를 고려하여 붙여넣기 이벤트가 발생하는지 확인한다.
제 2 편집 이벤트가 발생하지 않은 경우, 전자 장치는 815단계로 진행하여 제 2 터치가 해제되는지 확인한다.
제 2 터치가 해제된 경우, 전자 장치는 객체 그룹에 대한 편집을 수행하지 않는 것으로 인식한다. 이에 따라, 전자 장치는 본 알고리즘을 종료한다. 이때, 전자 장치는 잘라내기한 객체 그룹을 잘라내기 이벤트 발생 전으로 복원할 수도 있다.
한편, 제 2 터치가 해제되지 않은 경우, 전자 장치는 813단계로 진행하여 제 2 터치가 유지된 상태에서 제 2 편집 이벤트가 발생하는지 확인한다.
한편, 813단계에서 제 2 터치가 유지된 상태에서 제 2 편집 이벤트가 발생한 경우, 전자 장치는 815단계로 진행하여 제 2 터치 지점에 객체 그룹에 포함되는 객체를 붙여넣기한다. 예를 들어, 전자 장치는 스포이트 편집 방식에 따라 제 2 터치 지점을 터치한 터치 펜 또는 손가락으로부터 객체 그룹에 포함되는 객체들이 방출되는 듯한 애니메이션 효과를 발생시켜 제 2 터치 지점에 객체 그룹에 포함되는 객체들을 표시한다. 추가적으로, 전자 장치는 스포이드 편집 방식에 따라 객체 그룹에 포함되는 객체들이 방출되는 듯한 소리를 발생시킬 수도 있다.
이후, 전자 장치는 본 알고리즘을 종료한다.
상술한 바와 같이 전자 장치는 터치 입력부(154)를 통해 감지된 터치 정보와 편집 이벤트 발생 정보를 고려하여 객체 그룹에 포함되는 적어도 하나의 객체를 편집한다. 예를 들어, 전자 장치는 도 17a에 도시된 와 같이 터치 입력부(154)를 통해 연속적으로 감지된 터치 지점들을 고려하여 객체 그룹(1701)을 설정한다. 이후, 도 17b에 도시된 바와 같이 터치 펜에 의한 객체 그룹에 포함되는 "Flickr" 아이콘의 터치(1711)가 유지된 상태에서 터치 펜의 버튼 입력(1713)이 감지된 경우, 전자 장치는 객체 그룹에 포함되는 "Picasa" 아이콘, "FC2"아이콘, "Flickr"아이콘, "Line pix"아이콘, "Microsoft"아이콘 및 "MySpace"아이콘을 잘라내기 한다. 이때, 전자 장치는 도 17c에 도시된 바와 같이 스포이드가 액체를 빨아들이듯이 터치 펜으로 객체 그룹에 포함되는 객체들이 빨려들어가는 애니메이션 효과로 객체들을 잘라내기 한다. 추가적으로, 전자 장치는 스포이드를 이용하여 액체를 빨아들이는 동작과 유사하게 터치 펜의 버튼 입력(1713)이 감지된 후 버튼 입력 해제되는 시점에 스포이드 효과를 이용하여 객체 그룹에 포함되는 객체들 잘라내기할 수도 있다.
객체 그룹을 잘라내기한 경우, 전자 장치는 도 17d에 도시된 바와 같이 표시부(152)에 표시된 객체를 재정렬한다. 추가적으로, 전자 장치는 도 17d에 도시된 바와 같이 잘라내기한 객체의 존재 여부를 나타내는 알림 아이콘(1721)을 표시한다. 이때, 알림 아이콘(1721)은 잘라내기한 객체의 개수를 함께 나타낼 수도 있다.
객체 그룹을 잘라내기한 후, 도 17e에 도시된 바와 같이 제 2 터치(1731)가 감지된 경우, 전자 장치는 도 17h에 도시된 바와 같이 잘라내기한 객체 그룹에 포함되는 객체들을 제 2 터치 지점에 붙여넣기 한다. 이때, 전자 장치는 도 17g에 도시된 바와 같이 스포이드가 액체를 방출하듯이 터치 펜에서 객체 그룹에 포함되는 객체들이 방출되는 애니메이션 효과로 객체들을 제 2 터치 지점에 붙여넣기 한다.
추가적으로, 전자 장치는 객체 그룹을 잘라내기한 후, 도 17f에 도시된 바와 같이 제 2 터치(1741)가 유지된 상태에서 터치 펜의 버튼 입력(1743)이 감지된 경우, 잘라내기한 객체 그룹에 포함되는 객체들을 제 2 터치 지점에 붙여넣기할 수도 있다. 이때, 전자 장치는 도 17g에 도시된 바와 같이 스포이드가 액체를 방출하듯이 터치 펜에서 객체 그룹에 포함되는 객체들이 방출되는 애니메이션 효과로 객체들을 제 2 터치 지점에 붙여넣기 한다.
다른 예를 들어, 전자 장치는 도 18a에 도시된 와 같이 터치 입력부(154)를 통해 연속적으로 감지된 터치 지점들을 고려하여 객체 그룹(1801)을 설정한다. 이후, 도 18b에 도시된 바와 같이 사용자의 손가락에 의한 객체 그룹에 포함되는 "Flickr" 아이콘의 터치(1811)가 유지된 상태에서 전자 장치의 하드웨어 버튼 입력(1813)이 감지된 경우, 전자 장치는 객체 그룹에 포함되는 "Picasa" 아이콘, "FC2"아이콘, "Flickr"아이콘, "Line pix"아이콘, "Microsoft"아이콘 및 "MySpace"아이콘을 잘라내기 한다. 이때, 전자 장치는 도 18c에 도시된 바와 같이 스포이드가 액체를 빨아들이듯이 손가락으로 객체 그룹에 포함되는 객체들이 빨려들어가는 애니메이션 효과로 객체들을 잘라내기 한다. 객체 그룹을 잘라내기한 경우, 전자 장치는 도 17d에 도시된 바와 같이 표시부(152)에 표시된 객체를 재정렬한다. 또한, 전자 장치는 도 17d에 도시된 바와 같이 잘라내기한 객체의 존재 여부를 나타내는 알림 아이콘(1721)을 표시한다. 이때, 알림 아이콘(1721)은 잘라내기한 객체의 개수를 함께 나타낼 수도 있다.
객체 그룹을 잘라내기한 후, 도 18d에 도시된 바와 같이 제 2 터치(1821)가 감지된 경우, 전자 장치는 잘라내기한 객체 그룹에 포함되는 객체들을 제 2 터치 지점에 붙여넣기 한다. 이때, 전자 장치는 도 18f에 도시된 바와 같이 스포이드가 액체를 방출하듯이 손가락에서 객체 그룹에 포함되는 객체들이 방출되는 애니메이션 효과로 객체들을 제 2 터치 지점에 붙여넣기 한다.
추가적으로, 전자 장치는 객체 그룹을 잘라내기한 후, 도 18e에 도시된 바와 같이 제 2 터치(1831)가 유지된 상태에서 전자 장치의 하드웨어 버튼 입력(1833)이 감지된 경우, 잘라내기한 객체 그룹에 포함되는 객체들을 제 2 터치 지점에 붙여넣기할 수도 있다. 이때, 전자 장치는 도 18f에 도시된 바와 같이 스포이드가 액체를 방출하듯이 손가락에서 객체 그룹에 포함되는 객체들이 방출되는 애니메이션 효과로 객체들을 제 2 터치 지점에 붙여넣기 한다.
도 9는 본 발명의 제 1 실시 예에 따른 전자 장치에서 스포이드 편집 방식을 이용하여 표시 정보를 선택적으로 편집하기 위한 절차를 도시하고 있다.
도 9를 참조하면 전자 장치는 901단계에서 객체에 대한 잘라내기 이벤트를 수행한다. 예를 들어, 전자 장치는 도 3 내지 도 6에 도시된 바와 같이 터치 펜 또는 손가락에 의해 객체의 터치가 유지된 상태에서 잘라내기 이벤트가 발생한 경우, 터치된 객체를 잘라내기 한다. 다른 예를 들어, 전자 장치는 도 7 내지 도 8에 도시된 바와 같이 터치 펜 또는 손가락에 의해 객체 그룹에 포함되는 객체의 터치가 유지된 상태에서 잘라내기 이벤트가 발생한 경우, 객체 그룹에 포함되는 객체들을 잘라내기 한다.
객체에 대한 잘라내기 이벤트를 수행하는 경우, 전자 장치는 903단계로 진행하여 객체에 대한 잘라내기 정보를 표시부(152)에 표시한다. 예를 들어, 전자 장치는 도 11c, 도 13c, 도 15c 및 도 17c에 도시된 바와 같이 알림 아이콘을 이용하여 잘라내기된 객체의 존재 여부 및 잘라내기된 객체의 개수를 표시한다. 만일, 알림 아이콘에 대한 선택이 감지된 경우, 전자 장치는 잘라내기된 객체 목록을 표시부(152)에 표시한다. 다른 예를 들어, 전자 장치는 알림 바(notification bar)가 실행되는 경우, 도 19a에 도시된 바와 같이 알림 바에 잘라내기된 객체 목록(1901)을 표시할 수도 있다. 또 다른 예를 들어, 전자 장치는 잘라내기된 객체가 존재하는 경우, 도 19b에 도시된 바와 같이 별도의 팝업 창(1911)을 이용하여 잘라내기된 객체 목록을 표시할 수도 있다. 또 다른 예를 들어, 전자 장치는 도 19c에 도시된 바와 같이 표시부(152)의 일부 영역을 잘라내기된 객체 목록을 표시하기 위한 영역(1921)으로 설정하여 잘라내기된 객체 목록을 표시할 수도 있다.
잘라내기 정보를 표시부(152)에 표시한 후, 전자 장치는 905단계로 진행하여 붙여넣기 이벤트를 수행할 객체 목록을 결정한다. 예를 들어, 전자 장치는 잘라내기한 적어도 하나의 객체 중 붙여넣기할 적어도 하나의 객체를 선택한다.
이후, 전자 장치는 907단계로 진행하여 터치가 감지되는지 확인한다.
터치가 감지된 경우, 전자 장치는 909단계로 진행하여 터치 지점에 905단계에서 붙여넣기 이벤트를 수행할 객체 목록에 포함되는 객체를 붙여넣기한다. 예를 들어, 전자 장치는 스포이트 편집 방식에 따라 터치 지점을 터치한 터치 펜 또는 손가락으로부터 객체 목록에 포함되는 객체들이 방출되는 듯한 애니메이션 효과를 발생시켜 터치 지점에 객체 목록에 포함되는 객체들을 표시한다. 추가적으로, 전자 장치는 스포이드 편집 방식에 따라 객체 목록에 포함되는 객체들이 방출되는 듯한 소리를 발생시킬 수도 있다.
이후, 전자 장치는 본 알고리즘을 종료한다.
도 10은 본 발명의 제 2 실시 예에 따른 전자 장치에서 스포이드 편집 방식을 이용하여 표시 정보를 선택적으로 편집하기 위한 절차를 도시하고 있다.
도 10을 참조하면 전자 장치는 1001단계에서 객체에 대한 잘라내기 이벤트를 수행한다. 예를 들어, 전자 장치는 도 3 내지 도 6에 도시된 바와 같이 터치 펜 또는 손가락에 의해 객체의 터치가 유지된 상태에서 잘라내기 이벤트가 발생한 경우, 터치된 객체를 잘라내기 한다. 다른 예를 들어, 전자 장치는 도 7 내지 도 8에 도시된 바와 같이 터치 펜 또는 손가락에 의해 객체 그룹에 포함되는 객체의 터치가 유지된 상태에서 잘라내기 이벤트가 발생한 경우, 객체 그룹에 포함되는 객체들을 잘라내기 한다.
객체에 대한 잘라내기 이벤트를 수행하는 경우, 전자 장치는 1003단계로 진행하여 객체에 대한 잘라내기 정보를 표시부(152)에 표시한다. 예를 들어, 전자 장치는 도 11c, 도 13c, 도 15c 및 도 17c에 도시된 바와 같이 알림 아이콘을 이용하여 잘라내기된 객체의 존재 여부 및 잘라내기된 객체의 개수를 표시한다. 만일, 알림 아이콘에 대한 선택이 감지된 경우, 전자 장치는 잘라내기된 객체 목록을 표시부(152)에 표시한다. 다른 예를 들어, 전자 장치는 알림 바(notification bar)가 실행되는 경우, 도 19a에 도시된 바와 같이 알림 바에 잘라내기된 객체 목록(1901)을 표시할 수도 있다. 또 다른 예를 들어, 전자 장치는 잘라내기된 객체가 존재하는 경우, 도 19b에 도시된 바와 같이 별도의 팝업 창(1911)을 이용하여 잘라내기된 객체 목록을 표시할 수도 있다. 또 다른 예를 들어, 전자 장치는 도 19c에 도시된 바와 같이 표시부(152)의 일부 영역을 잘라내기된 객체 목록을 표시하기 위한 영역(1921)으로 설정하여 잘라내기된 객체 목록을 표시할 수도 있다.
잘라내기 정보를 표시부(152)에 표시한 후, 전자 장치는 1005단계로 진행하여 붙여넣기 이벤트를 수행할 객체 목록을 결정한다. 예를 들어, 전자 장치는 잘라내기한 적어도 하나의 객체 중 붙여넣기할 적어도 하나의 객체를 선택한다.
이후, 전자 장치는 1007단계로 진행하여 터치가 감지되는지 확인한다.
터치가 감지된 경우, 전자 장치는 1009단계로 진행하여 터치가 유지된 상태에서 편집 이벤트가 발생하는지 확인한다. 여기서, 전자 장치는 터치 펜의 버튼 입력 정보, 전자 장치의 하드웨어 버튼 입력 정보, 아이콘 선택 정보, 전자 장치의 모션 감지 정보, 사용자 제스쳐 감지 정보 중 적어도 하나의 정보를 고려하여 붙여넣기 이벤트가 발생하는지 확인한다.
편집 이벤트가 발생하지 않은 경우, 전자 장치는 1011단계로 진행하여 터치가 해제되는지 확인한다.
터치가 해제된 경우, 전자 장치는 객체에 대한 편집을 수행하지 않는 것으로 인식한다. 이에 따라, 전자 장치는 본 알고리즘을 종료한다. 이때, 전자 장치는 잘라내기한 객체를 잘라내기 이벤트 발생 전으로 복원할 수도 있다.
한편, 터치가 해제되지 않은 경우, 전자 장치는 1009단계로 진행하여 터치가 유지된 상태에서 편집 이벤트가 발생하는지 확인한다.
한편, 1009단계에서 터치가 유지된 상태에서 편집 이벤트가 발생한 경우, 전자 장치는 1013단계로 진행하여 터치 지점에 1005단계에서 붙여넣기 이벤트를 수행할 객체 목록에 포함되는 객체를 붙여넣기한다. 예를 들어, 전자 장치는 스포이트 편집 방식에 따라 터치 지점을 터치한 터치 펜 또는 손가락으로부터 객체 목록에 포함되는 객체들이 방출되는 듯한 애니메이션 효과를 발생시켜 터치 지점에 객체 목록에 포함되는 객체들을 표시한다. 추가적으로, 전자 장치는 스포이드 편집 방식에 따라 객체 목록에 포함되는 객체들이 방출되는 듯한 소리를 발생시킬 수도 있다.
이후, 전자 장치는 본 알고리즘을 종료한다.
상술한 실시 예에서 전자 장치는 객체를 터치한 터치 펜 또는 손가락으로 해당 객체가 빨려들어가는 듯한 애니메이션 효과를 발생시킨다. 이때, 전자 장치는 객체는 터치 지점을 고려하여 빨려들어가는 지점이 달라질 수 있다.
한편 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능하다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.

Claims (46)

  1. 전자 장치에서 표시부에 표시된 객체를 편집하기 위한 방법에 있어서,
    제 1 터치가 유지된 상태에서 제 1 편집 이벤트가 발생한 경우, 제 1 터치 지점의 객체를 저장하는 과정과, 및
    제 2 터치가 감지되는 경우, 제 2 터치 지점에 상기 제 1 터치 지점의 객체를 표시하는 과정을 포함하는 방법.
  2. 제 1항에 있어서,
    상기 객체는, 응용프로그램 메뉴, 아이콘, 위젯, 텍스트, 재생 목록 중 적어도 하나를 포함하는 방법.
  3. 제 1항에 있어서,
    상기 객체를 저장하는 과정 후, 표시부에 표시된 상기 제 1 터치 지점의 객체의 표시를 제거하는 과정을 더 포함하는 방법.
  4. 제 3항에 있어서,
    상기 객체의 표시를 제거하는 과정은,
    상기 표시부에 표시된 상기 제 1 터치 지점의 객체의 표시를 스포이드 편집 방식에 따라 제거하는 과정을 더 포함하는 방법.
  5. 제 3항에 있어서,
    상기 객체의 표시를 제거한 후, 상기 객체의 표시 제거 정보를 상기 표시부에 표시하는 과정을 더 포함하는 방법.
  6. 제 1항에 있어서,
    상기 제 1 편집 이벤트는, 터치 펜의 버튼 입력 정보, 하드웨어 버튼 입력 정보, 편집 아이콘 선택 정보, 전자 장치의 모션 정보 및 사용자의 제스쳐 정보 중 적어도 하나의 정보를 고려하여 발생 여부를 확인하는 방법.
  7. 제 1항에 있어서,
    상기 제 1 터치 지점의 객체를 표시하는 과정은,
    상기 제 2 터치가 감지되는 경우, 상기 제 2 터치가 유지된 상태에서 제 2 편집 이벤트가 발생하는지 확인하는 과정과,
    상기 제 2 터치가 유지된 상태에서 제 2 편집 이벤트가 발생한 경우, 상기 제 2 터치 지점에 상기 제 1 터치 지점의 객체를 표시하는 과정을 포함하는 방법.
  8. 제 7항에 있어서,
    상기 제 2 편집 이벤트는, 터치 펜의 버튼 입력 정보, 하드웨어 버튼 입력 정보, 편집 아이콘 선택 정보, 전자 장치의 모션 정보 및 사용자의 제스쳐 정보 중 적어도 하나의 정보를 고려하여 발생 여부를 확인하는 방법.
  9. 제 1항에 있어서,
    상기 제 1 터치 지점의 객체를 표시하는 과정은,
    상기 제 1 터치 지점의 객체를 스포이드 편집 방식에 따라 상기 제 2 터치 지점에 표시하는 과정을 포함하는 방법.
  10. 제 1항에 있어서,
    상기 제 1 터치 지점의 객체를 표시한 후, 상기 저장한 제 1 터치 지점의 객체 정보를 삭제하는 과정을 더 포함하는 방법.
  11. 전자 장치에서 표시부에 표시된 객체를 편집하기 위한 방법에 있어서,
    표시부에 표시된 다수 개의 객체 중 적어도 하나의 객체를 포함하는 객체 그룹을 결정하는 과정과,
    상기 객체 그룹에 포함되는 객체 중 적어도 하나의 객체에 대한 제 1 터치가 유지된 상태에서 제 1 편집 이벤트가 발생한 경우, 상기 객체 그룹에 포함되는 적어도 하나의 객체를 저장하는 과정과, 및
    제 2 터치가 감지되는 경우, 제 2 터치 지점에 상기 객체 그룹에 포함되는 적어도 하나의 객체를 표시하는 과정을 포함하는 방법.
  12. 제 11항에 있어서,
    상기 객체는, 응용프로그램 메뉴, 아이콘, 위젯, 텍스트, 재생 목록 중 적어도 하나를 포함하는 방법.
  13. 제 11항에 있어서,
    상기 객체를 저장하는 과정 후, 표시부에 표시된 상기 객체 그룹에 포함된 적어도 하나의 객체의 표시를 스포이드 편집 방식에 따라 제거하는 과정을 더 포함하는 방법.
  14. 제 11항에 있어서,
    상기 제 1 편집 이벤트는, 터치 펜의 버튼 입력 정보, 하드웨어 버튼 입력 정보, 편집 아이콘 선택 정보, 전자 장치의 모션 정보 및 사용자의 제스쳐 정보 중 적어도 하나의 정보를 고려하여 발생 여부를 확인하는 방법.
  15. 제 11항에 있어서,
    상기 적어도 하나의 객체를 표시하는 과정은,
    상기 제 2 터치가 감지되는 경우, 상기 제 2 터치가 유지된 상태에서 제 2 편집 이벤트가 발생하는지 확인하는 과정과,
    상기 제 2 터치가 유지된 상태에서 제 2 편집 이벤트가 발생한 경우, 상기 제 2 터치 지점에 상기 객체 그룹에 포함되는 적어도 하나의 객체를 표시하는 과정을 포함하는 방법.
  16. 제 15항에 있어서,
    상기 제 2 편집 이벤트는, 터치 펜의 버튼 입력 정보, 하드웨어 버튼 입력 정보, 편집 아이콘 선택 정보, 전자 장치의 모션 정보 및 사용자의 제스쳐 정보 중 적어도 하나의 정보를 고려하여 발생 여부를 확인하는 방법.
  17. 제 11항에 있어서,
    상기 적어도 하나의 객체를 표시하는 과정은,
    상기 객체 그룹에 포함되는 적어도 하나의 객체를 스포이드 편집 방식에 따라 상기 제 2 터치 지점에 표시하는 과정을 포함하는 방법.
  18. 전자 장치에서 표시부에 표시된 객체를 편집하기 위한 방법에 있어서,
    제 1 터치가 유지된 상태에서 제 1 편집 이벤트가 발생한 경우, 제 1 터치를 통해 객체를 터치하였는지 확인하는 과정과, 및
    상기 제 1 터치를 통해 객체를 터치한 경우, 상기 제 1 터치 지점의 객체를 잘라내기하는 과정을 포함하는 방법.
  19. 제 18항에 있어서,
    상기 객체는, 응용프로그램 메뉴, 아이콘, 위젯, 텍스트, 재생 목록 중 적어도 하나를 포함하는 방법.
  20. 제 18항에 있어서,
    상기 잘라내기하는 과정은,
    상기 표시부에 표시된 상기 제 1 터치 지점의 객체의 표시를 스포이드 편집 방식에 따라 제거하는 과정과,
    상기 제 1 터치 지점의 객체 정보를 저장하는 과정을 포함하는 방법.
  21. 제 18항에 있어서,
    상기 편집 이벤트는, 터치 펜의 버튼 입력 정보, 하드웨어 버튼 입력 정보, 편집 아이콘 선택 정보, 전자 장치의 모션 정보 및 사용자의 제스쳐 정보 중 적어도 하나의 정보를 고려하여 발생 여부를 확인하는 방법.
  22. 제 18항에 있어서,
    상기 제 1 터치를 통해 객체를 터치하지 않은 경우, 이전에 잘라내기한 적어도 하나의 객체를 상기 제 1 터치 지점에 표시하는 과정을 더 포함하는 방법.
  23. 제 22항에 있어서,
    상기 제 1 터치 지점에 표시하는 과정은,
    상기 이전에 잘라내기한 적어도 하나의 객체를 스포이드 편집 방식에 따라 상기 제 1 터치 지점에 표시하는 과정을 포함하는 방법.
  24. 전자 장치에 있어서,
    터치스크린과,
    적어도 하나의 프로세서와,
    메모리 및,
    상기 메모리에 저장되며, 상기 하나 이상의 프로세서에 의해 구동되는 프로그램을 포함하며,
    상기 프로그램은,
    제 1 터치가 유지된 상태에서 제 1 편집 이벤트가 발생한 경우, 제 1 터치 지점의 객체를 저장하고,
    제 2 터치가 감지되는 경우, 상기 터치스크린의 제 2 터치 지점에 상기 제 1 터치 지점의 객체를 표시하는 장치.
  25. 제 24항에 있어서,
    상기 객체는, 응용프로그램 메뉴, 아이콘, 위젯, 텍스트, 재생 목록 중 적어도 하나를 포함하는 장치.
  26. 제 24항에 있어서,
    상기 프로그램은, 객체를 저장한 후, 상기 터치스크린에 표시된 상기 제 1 터치 지점의 객체의 표시를 제거하는 장치.
  27. 제 26항에 있어서,
    상기 터치스크린은, 상기 제 1 터치 지점의 객체의 표시를 스포이드 편집 방식에 따라 제거하는 장치.
  28. 제 26항에 있어서,
    상기 프로그램은, 상기 객체의 표시를 제거한 후, 상기 객체의 표시 제거 정보를 상기 터치스크린에 표시하는 장치.
  29. 제 24항에 있어서,
    상기 제 1 편집 이벤트는, 터치 펜의 버튼 입력 정보, 하드웨어 버튼 입력 정보, 편집 아이콘 선택 정보, 전자 장치의 모션 정보 및 사용자의 제스쳐 정보 중 적어도 하나의 정보를 고려하여 발생 여부를 확인하는 장치.
  30. 제 24항에 있어서,
    상기 프로그램은,
    상기 제 2 터치가 감지되는 경우, 상기 제 2 터치가 유지된 상태에서 제 2 편집 이벤트가 발생하는지 확인하고,
    상기 제 2 터치가 유지된 상태에서 제 2 편집 이벤트가 발생한 경우, 상기 터치스크린의 제 2 터치 지점에 상기 제 1 터치 지점의 객체를 표시하는 장치.
  31. 제 30항에 있어서,
    상기 제 2 편집 이벤트는, 터치 펜의 버튼 입력 정보, 하드웨어 버튼 입력 정보, 편집 아이콘 선택 정보, 전자 장치의 모션 정보 및 사용자의 제스쳐 정보 중 적어도 하나의 정보를 고려하여 발생 여부를 확인하는 장치.
  32. 제 24항에 있어서,
    상기 터치스크린은, 상기 제 1 터치 지점의 객체를 스포이드 편집 방식에 따라 상기 터치스크린의 제 2 터치 지점에 표시하는 장치.
  33. 제 24항에 있어서,
    상기 프로그램은,
    상기 제 1 터치 지점의 객체를 표시한 후, 상기 저장한 제 1 터치 지점의 객체 정보를 삭제하는 장치.
  34. 전자 장치에 있어서,
    터치스크린과,
    적어도 하나의 프로세서와,
    메모리 및,
    상기 메모리에 저장되며, 상기 하나 이상의 프로세서에 의해 구동되는 프로그램을 포함하며,
    상기 프로그램은,
    상기 터치스크린에 표시된 다수 개의 객체 중 적어도 하나의 객체를 포함하는 객체 그룹을 결정하고,
    상기 객체 그룹에 포함되는 객체 중 적어도 하나의 객체에 대한 제 1 터치가 유지된 상태에서 제 1 편집 이벤트가 발생한 경우, 상기 객체 그룹에 포함되는 적어도 하나의 객체를 저장하고,
    제 2 터치가 감지되는 경우, 상기 터치 스크린의 제 2 터치 지점에 상기 객체 그룹에 포함되는 적어도 하나의 객체를 표시하는 장치.
  35. 제 34항에 있어서,
    상기 객체는, 응용프로그램 메뉴, 아이콘, 위젯, 텍스트, 재생 목록 중 적어도 하나를 포함하는 장치.
  36. 제 34항에 있어서,
    상기 프로그램은, 객체를 저장한 후, 상기 터치스크린에 표시된 상기 객체 그룹에 포함된 적어도 하나의 객체의 표시를 스포이드 편집 방식에 따라 제거하는 장치.
  37. 제 34항에 있어서,
    상기 제 1 편집 이벤트는, 터치 펜의 버튼 입력 정보, 하드웨어 버튼 입력 정보, 편집 아이콘 선택 정보, 전자 장치의 모션 정보 및 사용자의 제스쳐 정보 중 적어도 하나의 정보를 고려하여 발생 여부를 확인하는 장치.
  38. 제 34항에 있어서,
    상기 프로그램은,
    상기 제 2 터치가 감지되는 경우, 상기 제 2 터치가 유지된 상태에서 제 2 편집 이벤트가 발생하는지 확인하고,
    상기 제 2 터치가 유지된 상태에서 제 2 편집 이벤트가 발생한 경우, 상기 터치스크린의 제 2 터치 지점에 상기 객체 그룹에 포함되는 적어도 하나의 객체를 표시하는 장치.
  39. 제 38항에 있어서,
    상기 제 2 편집 이벤트는, 터치 펜의 버튼 입력 정보, 하드웨어 버튼 입력 정보, 편집 아이콘 선택 정보, 전자 장치의 모션 정보 및 사용자의 제스쳐 정보 중 적어도 하나의 정보를 고려하여 발생 여부를 확인하는 장치.
  40. 제 34항에 있어서,
    상기 터치스크린은, 상기 객체 그룹에 포함되는 적어도 하나의 객체를 스포이드 편집 방식에 따라 상기 제 2 터치 지점에 표시하는 장치.
  41. 전자 장치에 있어서,
    터치스크린과,
    적어도 하나의 프로세서와,
    메모리 및,
    상기 메모리에 저장되며, 상기 하나 이상의 프로세서에 의해 구동되는 프로그램을 포함하며,
    상기 프로그램은,
    제 1 터치가 유지된 상태에서 제 1 편집 이벤트가 발생한 경우, 제 1 터치를 통해 객체를 터치하였는지 확인하고,
    상기 제 1 터치를 통해 객체를 터치한 경우, 상기 제 1 터치 지점의 객체를 잘라내기하는 장치.
  42. 제 41항에 있어서,
    상기 객체는, 응용프로그램 메뉴, 아이콘, 위젯, 텍스트, 재생 목록 중 적어도 하나를 포함하는 장치.
  43. 제 41항에 있어서,
    상기 터치스크린은, 상기 제 1 터치를 통해 객체를 터치한 경우, 상기 제 1 터치 지점의 객체의 표시를 스포이드 편집 방식에 따라 제거하는 장치.
  44. 제 41항에 있어서,
    상기 편집 이벤트는, 터치 펜의 버튼 입력 정보, 하드웨어 버튼 입력 정보, 편집 아이콘 선택 정보, 전자 장치의 모션 정보 및 사용자의 제스쳐 정보 중 적어도 하나의 정보를 고려하여 발생 여부를 확인하는 장치.
  45. 제 41항에 있어서,
    상기 프로그램은, 상기 제 1 터치를 통해 객체를 터치하지 않은 경우, 이전에 잘라내기한 적어도 하나의 객체를 상기 터치스크린의 제 1 터치 지점에 표시하는 장치.
  46. 제 45항에 있어서,
    상기 터치 스크린은, 상기 이전에 잘라내기한 적어도 하나의 객체를 스포이드 편집 방식에 따라 상기 제 1 터치 지점에 표시하는 장치.
KR1020120101927A 2012-09-14 2012-09-14 표시 정보를 편집하기 위한 방법 및 그 전자 장치 KR102096581B1 (ko)

Priority Applications (8)

Application Number Priority Date Filing Date Title
KR1020120101927A KR102096581B1 (ko) 2012-09-14 2012-09-14 표시 정보를 편집하기 위한 방법 및 그 전자 장치
US14/016,799 US10095401B2 (en) 2012-09-14 2013-09-03 Method for editing display information and electronic device thereof
CN201811188345.9A CN109240593B (zh) 2012-09-14 2013-09-13 用于编辑显示信息的方法及其电子装置
PCT/KR2013/008320 WO2014042470A1 (en) 2012-09-14 2013-09-13 Method for editing display information and electronic device thereof
EP13184460.7A EP2708999A3 (en) 2012-09-14 2013-09-13 Method for editing display information and electronic device thereof
CN201380048127.4A CN104641342B (zh) 2012-09-14 2013-09-13 用于编辑显示信息的方法及其电子装置
AU2013316279A AU2013316279A1 (en) 2012-09-14 2013-09-13 Method for editing display information and electronic device thereof
US16/155,499 US20190042070A1 (en) 2012-09-14 2018-10-09 Method for editing display information and electronic device thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120101927A KR102096581B1 (ko) 2012-09-14 2012-09-14 표시 정보를 편집하기 위한 방법 및 그 전자 장치

Publications (2)

Publication Number Publication Date
KR20140035581A true KR20140035581A (ko) 2014-03-24
KR102096581B1 KR102096581B1 (ko) 2020-05-29

Family

ID=49231254

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120101927A KR102096581B1 (ko) 2012-09-14 2012-09-14 표시 정보를 편집하기 위한 방법 및 그 전자 장치

Country Status (6)

Country Link
US (2) US10095401B2 (ko)
EP (1) EP2708999A3 (ko)
KR (1) KR102096581B1 (ko)
CN (2) CN104641342B (ko)
AU (1) AU2013316279A1 (ko)
WO (1) WO2014042470A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10976895B2 (en) 2016-09-23 2021-04-13 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
WO2021206336A1 (ko) * 2020-04-06 2021-10-14 삼성전자 주식회사 에어 제스처에 의한 편집 기능을 제공하기 위한 전자 장치, 그 동작 방법 및 저장 매체

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101531169B1 (ko) * 2013-09-23 2015-06-24 삼성전자주식회사 사용자 단말에서 3차원 객체를 그리는 방법 및 이를 수행하는 사용자 단말
US10656788B1 (en) * 2014-08-29 2020-05-19 Open Invention Network Llc Dynamic document updating application interface and corresponding control functions

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004054753A (ja) * 2002-07-23 2004-02-19 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
KR20100027866A (ko) * 2008-09-03 2010-03-11 엘지전자 주식회사 이동 단말기 및 그의 객체 선택과 실행 방법
KR20100041107A (ko) * 2008-10-13 2010-04-22 삼성전자주식회사 멀티터치를 이용한 오브젝트 관리 방법 및 장치
US20120180002A1 (en) * 2011-01-07 2012-07-12 Microsoft Corporation Natural input for spreadsheet actions

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3007232B2 (ja) 1992-10-19 2000-02-07 富士通株式会社 描画処理装置及び方法
US6081818A (en) * 1996-12-11 2000-06-27 International Business Machines Corporation Cut object dynamic display and method of displaying cut objects
US6545669B1 (en) * 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
JP2003177864A (ja) 2001-12-13 2003-06-27 Fuji Photo Film Co Ltd 情報端末システム
US7185291B2 (en) * 2003-03-04 2007-02-27 Institute For Information Industry Computer with a touch screen
US7565619B2 (en) * 2004-08-26 2009-07-21 Microsoft Corporation System and method for automatic item relocating in a user interface layout
CN100395691C (zh) * 2005-09-14 2008-06-18 王学永 便于移动的数字存储手写笔
US8643605B2 (en) 2005-11-21 2014-02-04 Core Wireless Licensing S.A.R.L Gesture based document editor
US8212820B2 (en) * 2006-05-04 2012-07-03 Nintendo Co., Ltd. Virtual suction tool
KR20080019742A (ko) 2006-08-29 2008-03-05 주식회사 대우일렉트로닉스 데이터 입출력 기능을 가지는 스타일러스 펜 및 운용 방법
US7934156B2 (en) 2006-09-06 2011-04-26 Apple Inc. Deletion gestures on a portable multifunction device
CN101535940B (zh) 2006-09-06 2013-06-12 苹果公司 用于即时消息传送的便携式电子设备
CN101315586B (zh) * 2008-07-21 2013-01-09 常州迪锐特电子科技有限公司 一种用于交互式电子白板的电子笔及其交互控制方法
DE112008004156B4 (de) 2008-12-15 2021-06-24 Hewlett-Packard Development Company, L.P. System und verfahren für einen gestenbasierten editiermodus und computerlesbares medium hierfür
JP2010256969A (ja) 2009-04-21 2010-11-11 Sharp Corp ユーザインターフェイス装置、およびユーザインターフェイス装置の制御方法
CN102299990A (zh) * 2010-06-22 2011-12-28 希姆通信息技术(上海)有限公司 手势控制的手机
US20120166944A1 (en) 2010-12-23 2012-06-28 Stephen Hayden Cotterill Device, Method, and Graphical User Interface for Switching Between Two User Interfaces
EP3734404A1 (en) 2011-02-10 2020-11-04 Samsung Electronics Co., Ltd. Portable device comprising a touch-screen display, and method for controlling same
US20130132878A1 (en) * 2011-09-02 2013-05-23 Adobe Systems Incorporated Touch enabled device drop zone
CN102314318A (zh) * 2011-09-13 2012-01-11 深圳市同洲电子股份有限公司 应用于触摸屏终端的字符输入方法、装置及触摸屏终端
EP2764427B1 (en) 2011-10-06 2020-07-29 Sony Corporation Method and electronic device for manipulating a first or a second user interface object
US9164599B2 (en) * 2012-08-10 2015-10-20 Adobe Systems Incorporated Multifunctional stylus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004054753A (ja) * 2002-07-23 2004-02-19 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
KR20100027866A (ko) * 2008-09-03 2010-03-11 엘지전자 주식회사 이동 단말기 및 그의 객체 선택과 실행 방법
KR20100041107A (ko) * 2008-10-13 2010-04-22 삼성전자주식회사 멀티터치를 이용한 오브젝트 관리 방법 및 장치
US20120180002A1 (en) * 2011-01-07 2012-07-12 Microsoft Corporation Natural input for spreadsheet actions

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10976895B2 (en) 2016-09-23 2021-04-13 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
WO2021206336A1 (ko) * 2020-04-06 2021-10-14 삼성전자 주식회사 에어 제스처에 의한 편집 기능을 제공하기 위한 전자 장치, 그 동작 방법 및 저장 매체

Also Published As

Publication number Publication date
CN104641342B (zh) 2018-11-09
KR102096581B1 (ko) 2020-05-29
CN109240593B (zh) 2021-10-26
CN109240593A (zh) 2019-01-18
US20190042070A1 (en) 2019-02-07
AU2013316279A1 (en) 2015-01-29
US20140078083A1 (en) 2014-03-20
CN104641342A (zh) 2015-05-20
WO2014042470A1 (en) 2014-03-20
US10095401B2 (en) 2018-10-09
EP2708999A3 (en) 2017-09-20
EP2708999A2 (en) 2014-03-19

Similar Documents

Publication Publication Date Title
KR101640463B1 (ko) 휴대 단말기의 운용 방법 및 이를 지원하는 휴대 단말기
US9239625B2 (en) Mobile terminal and control method thereof
US9851898B2 (en) Method for changing display range and electronic device thereof
US8650507B2 (en) Selecting of text using gestures
CN105068723B (zh) 一种信息处理方法及电子设备
KR102069862B1 (ko) 가상 키패드 제어 방법 및 그 전자 장치
EP2728457A2 (en) Display method and electronic device using the same
KR102061776B1 (ko) 객체 위치를 변경하기 위한 방법 및 그 전자 장치
AU2014254654A1 (en) Method for adjusting display area and electronic device thereof
KR20120068266A (ko) 이동 단말기 및 그 디스플레이 제어 방법
AU2011204097A1 (en) Method and apparatus for setting section of a multimedia file in mobile device
AU2012354514A1 (en) Method and apparatus for managing message
US20130215059A1 (en) Apparatus and method for controlling an object in an electronic device with touch screen
KR20140040401A (ko) 한 손 제어 모드를 제공하기 위한 방법 및 그 전자장치
KR102157332B1 (ko) 전자 장치에서 줌 기능을 제어하기 위한 방법 및 장치
KR20140097810A (ko) 화면 구성 방법 및 그 전자 장치
US20190042070A1 (en) Method for editing display information and electronic device thereof
EP2811391A1 (en) Method for transforming an object based on motion, gestures or breath input and electronic device thereof
KR20140107909A (ko) 가상 키패드 제어 방법 및 그 전자 장치
KR20150067117A (ko) 이동 단말기 및 그것의 제어 방법
KR101729109B1 (ko) 이동 단말기 및 그의 아이콘 충돌 제어방법
KR102144587B1 (ko) 전자 장치에서 표시 정보를 편집하기 위한 장치 및 방법
KR101750868B1 (ko) 이동통신 단말기의 사용자 인터페이스 제공 방법 및 그 이동통신 단말기
KR20130028573A (ko) 이동 단말기 및 그것의 제어 방법
WO2015141091A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)