KR20150009199A - 객체 편집을 위한 전자 장치 및 방법 - Google Patents

객체 편집을 위한 전자 장치 및 방법 Download PDF

Info

Publication number
KR20150009199A
KR20150009199A KR1020130083357A KR20130083357A KR20150009199A KR 20150009199 A KR20150009199 A KR 20150009199A KR 1020130083357 A KR1020130083357 A KR 1020130083357A KR 20130083357 A KR20130083357 A KR 20130083357A KR 20150009199 A KR20150009199 A KR 20150009199A
Authority
KR
South Korea
Prior art keywords
editing
input
electronic device
object editing
motion
Prior art date
Application number
KR1020130083357A
Other languages
English (en)
Inventor
이정우
장금주
황형석
최숙경
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130083357A priority Critical patent/KR20150009199A/ko
Priority to EP14175867.2A priority patent/EP2827256A3/en
Priority to US14/333,379 priority patent/US10055395B2/en
Publication of KR20150009199A publication Critical patent/KR20150009199A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/177Editing, e.g. inserting or deleting of tables; using ruled lines
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 개시의 다양한 실시 예는 전자 장치에서 객체를 편집하기 위한 장치 및 방법에 관한 것이다. 객체 편집 방법은, 표시부에 표시된 하나 이상의 객체에 대한 하나 이상의 편집 기준을 결정하는 동작과, 모션 입력을 감지하는 동작과, 상기 하나 이상의 편집 기준, 상기 모션 입력의 특성 중 하나 이상에 기반하여 상기 하나 이상의 객체를 편집하는 동작을 포함할 수 있다.

Description

객체 편집을 위한 전자 장치 및 방법{ELECTRONIC DEVICE AND METHOD FOR PROCESSING OBJECT}
본 개시의 다양한 실시 예는 전자 장치에 관한 것으로서, 상세하게는, 전자 장치에서 객체를 편집하기 위한 장치 및 방법에 관한 것이다.
휴대용 전자 장치를 이용한 멀티미디어 서비스의 사용이 증가하면서 휴대용 전자 장치에서 처리해야 하는 정보량 및 표시해야 하는 정보량이 증가하고 있다. 이에 따라, 공간 활용도를 개선하여 표시부의 크기를 증가시킬 수 있는 터치스크린을 구비한 휴대용 전자 장치에 대한 관심이 증가하고 있다.
터치스크린은 정보의 입력과 표시를 하나의 스크린에서 수행하는 입출력 장치이다. 이에 따라, 터치스크린을 사용하는 경우, 휴대용 전자 장치는 키패드와 같은 별도의 입력 장치를 제거하여 표시 면적을 증가시킬 수 있다.
상술한 바와 같이 휴대용 전자 장치는 터치 스크린을 이용하여 표시 면적을 증가시킬 수 있지만, 휴대성을 위해 고정식 전자 장치보다 작은 표시 면적의 표시부를 포함할 수 있다. 이에 따라, 사용자는 표시 면적의 한계로 인해 휴대용 전자 장치의 표시 영역에 표시된 객체에 대한 편집 효과를 제공하는데 불편함을 느낄 수 있다.
본 개시의 다양한 실시 예는 전자 장치에서 표시 영역에 표시된 객체를 편집하기 위한 장치 및 방법을 제공하고자 한다.
본 개시의 다양한 실시 예는 전자 장치에서 모션 입력 특성을 기반하여 표시 영역에 표시된 객체를 편집하기 위한 장치 및 방법을 제공하고자 한다.
본 개시의 다양한 실시 예에 따르면, 전자 장치에서 객체를 편집하기 위한 방법은, 표시부에 표시된 하나 이상의 객체에 대한 하나 이상의 편집 기준을 결정하는 동작과, 모션 입력을 감지하는 동작과, 상기 하나 이상의 편집 기준, 상기 모션 입력의 특성 중 하나 이상에 기반하여 상기 하나 이상의 객체를 편집하는 동작을 포함할 수 있다.
본 개시의 다양한 실시 예에 따르면, 전자 장치는, 하나 이상의 객체를 표시하는 표시부와, 모션 입력을 감지하는 모션 센서와, 상기 표시부에 표시된 하나 이상의 객체에 대한 하나 이상의 편집 기준을 결정하고, 상기 모션 센서를 통해 감지한 모션 입력의 특성, 상기 하나 이상의 편집 기준 중 하나 이상에 기반하여 상기 표시부에 표시된 하나 이상의 객체를 편집하는 프로세서를 포함할 수 있다.
상술한 바와 같이 모션 센서를 구비하는 전자 장치에서 객체 편집 기준 및 모션 센서를 통해 획득한 모션 입력 특성을 기반하여 표시 영역에 표시된 객체를 편집함으로써, 사용자가 표시 영역에 표시된 객체를 손쉽게 편집할 수 있다.
도 1은 본 개시의 다양한 실시 예에 따른 전자 장치의 블록 구성을 도시한다.
도 2는 본 개시의 다양한 실시 예에 따른 프로세서의 상세 블록 구성을 도시한다.
도 3은 본 개시의 다양한 실시 예에 따른 전자 장치에서 객체를 편집하기 위한 절차를 도시한다.
도 4는 본 개시의 다양한 실시 예에 따른 전자 장치에서 객체를 편집하기 위한 절차를 도시한다.
도 5a 내지 도 5c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 객체 편집 기준을 기반하여 객체를 편집하기 위한 화면 구성을 도시한다.
도 6a 내지 도 6c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 객체 편집 기준을 기반하여 텍스트를 편집하기 위한 화면 구성을 도시한다.
도 7a 내지 도 7c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 다수 개의 객체 편집 기준들을 기반하여 텍스트를 편집하기 위한 화면 구성을 도시한다.
도 8a 내지 도 8c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 다수 개의 객체 편집 기준들을 기반하여 텍스트를 편집하기 위한 화면 구성을 도시한다.
도 9a 내지 도 9c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 다수 개의 객체 편집 기준들을 기반하여 텍스트를 편집하기 위한 화면 구성을 도시한다.
도 10a 내지 도 10c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 다수 개의 객체 편집 기준들을 기반하여 텍스트를 편집하기 위한 화면 구성을 도시한다.
도 11a 내지 도 11c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 다수 개의 객체 편집 기준들을 기반하여 텍스트를 편집하기 위한 화면 구성을 도시한다.
도 12는 본 개시의 다양한 실시 예에 따른 전자 장치에서 객체를 편집하기 위한 절차를 도시한다.
도 13a 내지 도 13c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 객체 편집 기준을 기반하여 텍스트를 편집하기 위한 화면 구성을 도시한다.
도 14a 내지 도 14c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 객체 편집 기준들을 기반하여 텍스트를 편집하기 위한 화면 구성을 도시한다.
도 15a 내지 도 15c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 객체 편집 기준들을 기반하여 텍스트를 편집하기 위한 화면 구성을 도시한다.
도 16a 내지 도 16c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 객체 편집 기준들을 기반하여 특정 영역을 편집하기 위한 화면 구성을 도시한다.
도 17a 내지 도 17d는 본 개시의 다양한 실시 예에 따른 전자 장치에서 객체 편집 기준들을 기반하여 이미지를 편집하기 위한 화면 구성을 도시한다.
도 18a 내지 도 18c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 다수 개의 객체 편집 기준들을 기반하여 텍스트를 편집하기 위한 화면 구성을 도시한다.
도 19a 내지 도 19c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 다수 개의 객체 편집 기준들을 기반하여 텍스트를 편집하기 위한 화면 구성을 도시한다.
이하 본 개시의 다양한 실시 예를 첨부된 도면을 참조하여 상세히 설명한다. 그리고, 본 개시의 다양한 실시 예를 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다. 그리고 후술되는 용어들은 본 개시의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
이하 설명은 본 개시의 다양한 실시 예에 따라 전자 장치에서 객체를 편집하기 위한 기술에 대해 설명할 수 있다. 여기서, 객체는 전자 장치에 표시되는 정보로 문단, 단락, 문장과 같이 구분되는 텍스트, 표, 이미지 중 하나 이상을 포함할 수 있다.
본 개시에 따른 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 장신구(accessory), 전자 앱세서리(appcessory), 카메라(camera), 웨어러블 장치(wearable device), 전자 시계(electronic clock), 손목 시계(wrist watch), 냉장고, 에어컨, 청소기, 인공 지능 로봇, TV, DVD(digital video disk) 플레이어, 오디오, 오븐, 전자레인지, 세탁기, 전자 팔찌, 전자 목걸이, 공기 청정기, 전자 액자, 의료기기(예를 들면, MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver),EDR(event data recorder), FDR(flight data recorder), 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 전자 사전, 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(electronic equipment for ship, 예를 들면, 선박용 항법 장치, 자이로콤파스), 항공 전자기기(avionics), 보안 기기, 전자 의복, 전자 키, 캠코더(camcorder), 게임 콘솔(game consoles), HMD(head-mounted display), 평판표시장치(flat panel display device), 전자 앨범, 전자장치를 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device) 또는 프로젝터(projector) 와 같은 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 본 개시에 따른 전자장치는 상술한 기기들에 한정되지 않음은 당업자에게 자명하다.
도 1은 본 개시의 다양한 실시 예에 따른 전자 장치의 블록 구성을 도시하고 있다.
도 1을 참조하면 전자 장치(100)는 메모리(110), 프로세서(120), 모션 센서(130), 오디오 처리부(140), 입출력 제어부(150), 표시부(160), 입력 장치(170)를 포함할 수 있다. 여기서, 메모리(110), 프로세서(120) 중 적어도 하나는 다수 개 존재할 수도 있다.
메모리(110)는 전자 장치(100)의 구동에 의해 발생하는 데이터를 저장하는 데이터 저장부(111) 및 전자 장치(100)의 동작을 제어하기 위한 하나 이상의 프로그램을 저장하는 프로그램 저장부(112)를 포함할 수 있다.
데이터 저장부(111)는 모션 센서(130)를 통해 감지한 모션 입력의 특성에 매핑된 편집 종류를 저장할 수 있다.
프로그램 저장부(112)는 그래픽 사용자 인터페이스(GUI: Graphic User Interface) 프로그램(113), 편집 프로그램(114) 및 적어도 하나의 응용프로그램(115)을 포함할 수 있다. 여기서, 프로그램 저장부(112)에 포함되는 프로그램은 명령어들의 집합으로 명령어 세트(instruction set)로 표현할 수도 있다.
GUI 프로그램(113)은 표시부(160)에 그래픽으로 사용자 인터페이스를 제공하기 위한 적어도 하나의 소프트웨어 구성요소를 포함할 수 있다. GUI 프로그램(113)은 프로세서(120)에 의해 구동되는 응용프로그램 정보를 표시부(160)에 표시하도록 제어할 수 있다. 예를 들어, GUI 프로그램(113)은 편집 프로그램(114)의 객체 편집 정보에 기반하여 표시부(160)의 객체 표시를 변경하도록 제어할 수 있다.
편집 프로그램(114)은 표시부(160)에 표시된 객체를 편집하기 위한 적어도 하나의 소프트웨어 구성 요소를 포함할 수 있다. 편집 프로그램(114)은 입력부(170)로부터 제공받은 입력 정보에 따라 객체 편집 기준과 모션 센서(130)로부터 제공받은 모션 입력의 특성에 기반하여 하나 이상의 객체를 편집할 수 있다.
예를 들어, 편집 프로그램(114)은 도 5a 내지 도 5c, 도 6a 내지 도 6c, 도 14a 내지 도 14c를 참조하여 입력부(170)로부터 제공받은 입력 정보에 따른 객체 편집 기준과 모션 센서(130)로부터 제공받은 모션 입력의 특성에 기반하여 객체 편집 기준이 설정된 텍스트를 편집할 수 있다.
다른 예를 들어, 편집 프로그램(114)은 도 7a 내지 도 7c, 도 8a 내지 도 8c, 도 9a 내지 도 9c, 도 10a 내지 도 10c, 도 11a 내지 도 11c, 도 18a 내지 도 18c, 도 19a 내지 도 19c를 참조하여 입력부(170)로부터 제공받은 입력 정보에 따른 다수 개의 객체 편집 기준들과 모션 센서(130)로부터 제공받은 모션 입력의 특성에 기반하여 객체 편집 기준이 설정된 텍스트를 편집할 수 있다.
또 다른 예를 들어, 편집 프로그램(114)은 도 13a 내지 도 13c, 도 15a 내지 도 15c를 참조하여 입력부(170)로부터 제공받은 입력 정보에 따른 객체 편집 기준과 모션 센서(130)로부터 제공받은 모션 입력의 특성에 기반하여 입력부(170)로부터 제공받은 입력 정보에 의해 선택된 텍스트를 편집할 수 있다.
또 다른 예를 들어, 편집 프로그램(114)은 도 16a 내지 도 16c를 참조하여 입력부(170)로부터 제공받은 입력 정보에 따른 객체 편집 기준과 모션 센서(130)로부터 제공받은 모션 입력의 특성에 기반하여 입력부(170)로부터 제공받은 입력 정보에 의해 선택된 영역을 편집할 수 있다.
또 다른 예를 들어, 편집 프로그램(114)은 도 17a 내지 도 17c를 참조하여 입력부(170)로부터 제공받은 입력 정보에 따른 객체 편집 기준과 모션 센서(130)로부터 제공받은 모션 입력의 특성에 기반하여 객체 편집 기준이 설정된 이미지를 편집할 수 있다.
편집 프로그램(114)은 객체 편집 기준의 구성 정보, 모션 센서(130)로부터 제공받은 모션 입력의 특성 중 하나 이상을 이용하여 객체에 대한 편집 종류를 결정할 수 있다. 여기서, 객체 편집 기준의 구성 정보는 객체 편집 기준의 개수, 객체 편집 기준의 위치 중 하나 이상을 포함할 수 있다. 모션 입력의 특성은 모션 입력의 종류, 모션 입력의 방향, 모션 입력의 세기 중 하나 이상을 포함할 수 있다.
응용프로그램(115)은 전자 장치(100)에 설치된 적어도 하나의 응용 프로그램에 대한 소프트웨어 구성 요소를 포함할 수 있다.
프로세서(120)는 메모리(110)에 저장되어 있는 적어도 하나의 프로그램을 사용하여 전자장치(100)가 다양한 멀티미디어 서비스를 제공하도록 제어할 수 있다. 프로세서(120)는 프로그램 저장부(112)에 저장된 편집 프로그램(114)을 실행하여 표시부(160)에 표시된 객체를 편집할 수 있다. 예컨대, 프로세서(120)는 편집 프로그램(114)을 실행하여 입력부(170)로부터 제공받은 입력 정보에 따라 객체 편집 기준과 모션 센서(130)로부터 제공받은 모션 입력의 특성에 따라 하나 이상의 객체를 편집할 수 있다. 예를 들어, 프로세서(120)는 도 5a 내지 도 5c, 도 6a 내지 도 6c, 도 14a 내지 도 14c를 참조하여 입력부(170)로부터 제공받은 입력 정보에 따른 객체 편집 기준과 모션 센서(130)로부터 제공받은 모션 입력의 특성에 따라 객체 편집 기준이 설정된 텍스트를 편집할 수 있다. 다른 예를 들어, 프로세서(120)는 도 7a 내지 도 7c, 도 8a 내지 도 8c, 도 9a 내지 도 9c, 도 10a 내지 도 10c, 도 11a 내지 도 11c, 도 18a 내지 도 18c, 도 19a 내지 도 19c를 참조하여 입력부(170)로부터 제공받은 입력 정보에 따른 다수 개의 객체 편집 기준들과 모션 센서(130)로부터 제공받은 모션 입력의 특성에 따라 객체 편집 기준이 설정된 텍스트를 편집할 수 있다. 또 다른 예를 들어, 프로세서(120)는 도 13a 내지 도 13c, 도 15a 내지 도 15c를 참조하여 입력부(170)로부터 제공받은 입력 정보에 따른 객체 편집 기준과 모션 센서(130)로부터 제공받은 모션 입력의 특성에 따라 입력부(170)로부터 제공받은 입력 정보에 의해 선택된 텍스트를 편집할 수 있다. 또 다른 예를 들어, 프로세서(120)는 도 16a 내지 도 16c를 참조하여 입력부(170)로부터 제공받은 입력 정보에 따른 객체 편집 기준과 모션 센서(130)로부터 제공받은 모션 입력의 특성에 따라 입력부(170)로부터 제공받은 입력 정보에 의해 선택된 영역을 편집할 수 있다. 또 다른 예를 들어, 프로세서(120)는 도 17a 내지 도 17c를 참조하여 입력부(170)로부터 제공받은 입력 정보에 따른 객체 편집 기준과 모션 센서(130)로부터 제공받은 모션 입력의 특성에 따라 객체 편집 기준이 설정된 이미지를 편집할 수 있다.
프로세서(120)는 객체 편집 기준의 구성 정보, 모션 센서(130)로부터 제공받은 모션 입력의 특성 중 하나 이상을 이용하여 객체를 편집하는데 사용되는 편집 종류를 결정할 수 있다. 여기서, 객체 편집 기준의 구성 정보는 객체 편집 기준의 개수, 객체 편집 기준의 위치 중 하나 이상을 포함할 수 있다. 모션 입력의 특성은 모션 입력의 종류, 모션 입력의 방향, 모션 입력의 세기 중 하나 이상을 포함할 수 있다.
모션 센서(130)는 물리량을 계측하거나 전자장치의 작동 상태를 감지하여 사용자의 모션 입력을 인식할 수 있다. 예를 들어, 모션 센서(130)는 하나 이상의 카메라, 제스처 센서, 자이로 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 생체 센서, 지자기 센서, 또는 초음파 센서를 포함할 수 있다. 모션 센서(130)는 모션 센서(130)에 포함되는 하나 이상의 센서들을 제어하기 위한 제어회로를 더 포함할 수 있다.
오디오 처리부(140)는 스피커(141) 및 마이크로폰(142)을 통해 사용자와 전자 장치(100) 사이의 오디오 인터페이스를 제공할 수 있다.
입출력 제어부(150)는 표시부(160) 및 입력 장치(170) 등의 입출력 장치와 프로세서(120) 사이에 인터페이스를 제공할 수 있다.
표시부(160)는 전자 장치(100)의 상태 정보, 사용자가 입력하는 문자, 동화상(moving picture) 및/또는 정화상(still picture) 등을 표시할 수 있다. 예를 들어, 표시부(160)는 프로세서(120)에 의해 구동되는 응용프로그램 정보를 표시할 수 있다.
입력 장치(170)는 사용자의 선택에 의해 발생하는 입력 데이터를 입출력 제어부(150)를 통해 프로세서(120)로 제공할 수 있다. 예를 들어, 입력 장치(170)는 적어도 하나의 하드웨어 버튼을 포함하는 키패드, 터치 정보를 감지하는 터치 패드 중 하나 이상을 포함할 수 있다.
미 도시되었지만, 전자 장치(100)는 음성 통신, 데이터 통신 중 적어도 하나의 통신 기능을 수행할 수 있는 통신 시스템을 더 포함할 수 있다. 예를 들어, 통신 시스템은 근거리 통신 프로토콜(예: Wifi(wireless fidelity), BT(Bluetooth), NFC(near field communication) 또는 네트워크 통신(예: Internet, LAN(local area network), WAN(wire area network), telecommunication network, cellular network, satellite network 또는 POTS(plain old telephone service))를 지원할 수 있다.
상술한 실시 예에서 프로세서(120)는 하나의 모듈 내에서 프로그램 저장부(112)에 저장된 소프트웨어 구성 요소들을 실행하여 표시부(160)에 표시된 객체를 편집할 수 있다.
다른 실시 예에서, 프로세서(120)는 하기 도 2에 도시된 바와 같이 표시부(160)에 표시된 객체를 편집하기 위한 구성 요소를 별개의 모듈들로 포함하도록 구성될 수 있다.
도 2는 본 개시의 다양한 실시 예에 따른 프로세서의 상세 블록 구성을 도시하고 있다.
도 2를 참조하면 프로세서(120)는 응용프로그램 구동부(200), 편집 제어부(210), 표시 제어부(220)를 포함할 수 있다.
응용 프로그램 구동부(200)는 프로그램 저장부(112)에 저장된 적어도 하나의 응용프로그램(115)을 실행하여 해당 응용프로그램에 따른 서비스를 제공할 수 있다. 예를 들어, 응용 프로그램 구동부(200)는 텍스트 입력을 위한 응용 프로그램에 따른 서비스를 제공할 수 있다. 다른 예를 들어, 응용 프로그램 구동부(200)는 이미지 편집을 위한 응용 프로그램에 따른 서비스를 제공할 수 있다.
편집 제어부(210)는 표시부(160)에 표시된 객체를 편집할 수 있다. 예컨대, 편집 제어부(210)는 프로그램 저장부(112)에 저장된 편집 프로그램(114)을 실행하여 표시부(160)에 표시된 객체를 편집할 수 있다. 이때, 편집 제어부(210)는 응용프로그램 구동부(200)에 따른 서비스를 위해 표시부(160)에 표시된 객체를 입력부(170)로부터 제공받은 입력 정보에 따라 객체 편집 기준과 모션 센서(130)로부터 제공받은 모션 입력의 특성에 따라 편집할 수 있다.
예를 들어, 편집 제어부(210)는 도 5a 내지 도 5c, 도 6a 내지 도 6c, 도 14a 내지 도 14c를 참조하여 입력부(170)로부터 제공받은 입력 정보에 따른 객체 편집 기준과 모션 센서(130)로부터 제공받은 모션 입력의 특성에 따라 객체 편집 기준이 설정된 텍스트를 편집할 수 있다.
다른 예를 들어, 편집 제어부(210)는 도 7a 내지 도 7c, 도 8a 내지 도 8c, 도 9a 내지 도 9c, 도 10a 내지 도 10c, 도 11a 내지 도 11c, 도 18a 내지 도 18c, 도 19a 내지 도 19c를 참조하여 입력부(170)로부터 제공받은 입력 정보에 따른 다수 개의 객체 편집 기준들과 모션 센서(130)로부터 제공받은 모션 입력의 특성에 따라 객체 편집 기준이 설정된 텍스트를 편집할 수 있다.
또 다른 예를 들어, 편집 제어부(210)는 도 13a 내지 도 13c, 도 15a 내지 도 15c를 참조하여 입력부(170)로부터 제공받은 입력 정보에 따른 객체 편집 기준과 모션 센서(130)로부터 제공받은 모션 입력의 특성에 따라 입력부(170)로부터 제공받은 입력 정보에 의해 선택된 텍스트를 편집할 수 있다.
또 다른 예를 들어, 편집 제어부(210)는 도 16a 내지 도 16c를 참조하여 입력부(170)로부터 제공받은 입력 정보에 따른 객체 편집 기준과 모션 센서(130)로부터 제공받은 모션 입력의 특성에 따라 입력부(170)로부터 제공받은 입력 정보에 의해 선택된 영역을 편집할 수 있다.
또 다른 예를 들어, 편집 제어부(210)는 도 17a 내지 도 17c를 참조하여 입력부(170)로부터 제공받은 입력 정보에 따른 객체 편집 기준과 모션 센서(130)로부터 제공받은 모션 입력의 특성에 따라 객체 편집 기준이 설정된 이미지를 편집할 수 있다.
편집 제어부(210)는 객체 편집 기준의 구성 정보, 모션 센서(130)로부터 제공받은 모션 입력의 특성 중 하나 이상을 이용하여 객체에 대한 편집 종류를 결정할 수 있다. 여기서, 객체 편집 기준의 구성 정보는 객체 편집 기준의 개수, 객체 편집 기준의 위치 중 하나 이상을 포함할 수 있다. 모션 입력의 특성은 모션 입력의 종류, 모션 입력의 방향, 모션 입력의 세기 중 하나 이상을 포함할 수 있다.
표시 제어부(220)는 표시부(160) 상에 그래픽으로 사용자 인터페이스를 제공할 수 있다. 이때, 표시 제어부(220)는 프로그램 저장부(112)에 저장된 GUI 프로그램(113)을 실행하여 표시부(160) 상에 그래픽으로 사용자 인터페이스를 제공할 수 있다. 표시 제어부(220)는 응용 프로그램 구동부(200)에 의해 구동되는 응용프로그램 정보를 표시부(160)에 표시하도록 제어할 수 있다. 예를 들어, 표시 제어부(220)는 편집 제어부(210)에 의한 객체 편집 정보에 따라 표시부(160)의 객체 표시를 변경하도록 제어할 수 있다.
도 3은 본 개시의 다양한 실시 예에 따른 전자 장치에서 객체를 편집하기 위한 절차를 도시한다.
도 3을 참조하면 전자 장치는 301 동작에서 표시부(160)에 표시된 하나 이상의 객체를 편집하기 위한 객체 편집 기준을 결정할 수 있다. 예를 들어, 전자 장치는 표시부(160)에 표시된 하나 이상의 객체에 대한 터치 정보를 기반하여 하나 이상의 객체 편집 기준을 결정할 수 있다. 다른 예를 들어, 전자 장치는 표시부(160)에 표시된 하나 이상의 객체에 대한 호버링 정보를 기반하여 하나 이상의 객체 편집 기준을 결정할 수도 있다. 여기서, 객체 편집 기준은 객체를 편집하기 위한 기준 길이 이상의 기준 선을 포함할 수 있다.
전자 장치는 303 동작에서 모션 입력을 감지할 수 있다. 예를 들어, 301 동작에서 객체 편집 기준을 결정한 경우, 전자 장치는 동작 모드를 객체 편집 모드로 전환할 수 있다. 전자 장치는 객체 편집 모드 동안 모션 센서(130)를 통해 사용자의 제스쳐, 전자 장치(100)의 움직임과 같은 모션 입력이 감지되는지 확인할 수 있다. 미 도시되었지만, 객체 편집 모드로 전환한 후, 기준 시간 동안 모션 입력을 감지하지 못한 경우, 전자 장치는 객체 편집 모드를 종료할 수도 있다.
전자 장치는 305 동작에서 객체 편집 기준 및 모션 입력의 특성에 기반하여 하나 이상의 객체를 편집할 수 있다. 예를 들어, 전자 장치는 303 동작에서 감지한 모션 입력에 매핑된 편집 종류 및 객체 편집 기준에 기반하여 객체 편집 기준이 설정된 하나 이상의 객체를 편집할 수 있다. 다른 예를 들어, 전자 장치는 303 동작에서 감지한 모션 입력에 매핑된 편집 종류 및 객체 편집 기준에 기반하여 입력부(170)로부터 제공받은 입력 정보에 따라 선택된 하나 이상의 객체를 편집할 수 있다.
상술한 실시 예에서 전자 장치는 입력 장치(170)를 통해 감지함 입력 정보에 따라 객체 편집 기준을 결정할 수 있다. 이때, 전자 장치는 입력 장치(170)를 통해 감지함 입력 정보에 따라 객체 편집 기준의 위치를 변경할 수도 있다.
도 4는 본 개시의 다양한 실시 예에 따른 전자 장치에서 객체를 편집하기 위한 절차를 도시한다.
도 4를 참조하면 전자 장치는 401 동작에서 표시부(160)에 표시된 하나 이상의 객체를 편집하기 위한 객체 편집 기준을 결정할 수 있다. 예를 들어, 전자 장치는 표시부(160)에 표시된 하나 이상의 객체에 대한 터치 정보를 기반하여 하나 이상의 객체 편집 기준을 결정할 수 있다. 다른 예를 들어, 전자 장치는 표시부(160)에 표시된 하나 이상의 객체에 대한 호버링 정보를 기반하여 하나 이상의 객체 편집 기준을 결정할 수도 있다. 여기서, 객체 편집 기준은 객체를 편집하기 위한 기준 길이 이상의 기준 선을 포함할 수 있다.
전자 장치는 403 동작에서 모션 입력이 감지되는지 확인할 수 있다. 예를 들어, 401 동작에서 객체 편집 기준을 결정한 경우, 전자 장치는 동작 모드를 객체 편집 모드로 전환하여 모션 센서(130)를 통해 사용자의 제스쳐, 전자 장치(100)의 움직임과 같은 모션 입력이 감지되는지 확인할 수 있다.
모션 입력이 감지되지 않는 경우, 전자 장치는 기준 시간 동안 지속적으로 모션 입력이 감지되는지 확인할 수 있다. 미 도시되었지만, 객체 편집 모드로 전환한 후, 기준 시간 동안 모션 입력을 감지하지 못한 경우, 전자 장치는 객체 편집 모드를 종료할 수도 있다.
모션 입력을 감지한 경우, 전자 장치는 405 동작에서 객체 편집 기준을 기반하여 객체 편집 영역을 결정할 수 있다. 예를 들어, 전자 장치는 객체 편집 기준이 설정된 하나 이상의 객체를 객체 편집 영역으로 결정할 수 있다. 다른 예를 들어, 전자 장치는 객체 편집 기준이 설정되는 시점에 커서가 위치한 하나 이상의 객체를 객체 편집 영역으로 결정할 수 있다.
전자 장치는 407 동작에서 객체 편집 기준의 구성 정보, 모션 입력의 특성 중 하나 이상을 이용하여 편집 종류를 결정할 수 있다. 예를 들어, 전자 장치는 데이터 저장부(111)에서 객체 편집 기준의 구성 정보 및 모션 입력에 매핑된 편집 종류를 확인할 수 있다.
전자 장치는 409 동작에서 객체 편집 기준 및 모션 입력의 특성에 기반하여 객체 편집 영역에 포함되는 하나 이상의 객체를 편집할 수 있다. 전자 장치는 407 동작에서 감지한 모션 입력에 매핑된 편집 종류 및 객체 편집 기준에 기반하여 객체 편집 영역에 포함되는 하나 이상의 객체를 편집할 수 있다. 예를 들어, 전자 장치는 도 5a 내지 도 5c, 도 6a 내지 도 6c를 참조하여 모션 입력에 매핑된 편집 종류 및 객체 편집 기준에 기반하여 객체 편집 기준이 설정된 텍스트를 편집할 수 있다. 다른 예를 들어, 전자 장치는 도 7a 내지 도 7c, 도 8a 내지 도 8c, 도 9a 내지 도 9c, 도 10a 내지 도 10c, 도 11a 내지 도 11c를 참조하여 모션 입력에 매핑된 편집 종류 및 객체 편집 기준에 기반하여 객체 편집 기준이 설정된 텍스트를 편집할 수 있다.
상술한 실시 예에서 전자 장치는 입력부(170)를 통해 감지한 입력 정보에 따라 객체 편집 기준을 설정하는 경우, 객체 편집 모드로 전환할 수 있다.
다른 실시 예에서 전자 장치는 객체 편집 이벤트에 따라 객체 편집 모드로 전환한 후, 입력부(170)를 통해 감지한 입력 정보에 따라 객체 편집 기준을 설정할 수 있다. 예를 들어, 전자 장치는 객체 편집 아이콘, 객체 편집 메뉴, 객체 편집 제스쳐 중 하나 이상을 이용하여 객체 편집 이벤트가 발생하는지 감지할 수 있다.
도 5a 내지 도 5c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 객체 편집 기준을 기반하여 객체를 편집하기 위한 화면 구성을 도시한다.
도 5a를 참조하면, 전자 장치(100)는 표시부(160)에 텍스트를 표시할 수 있다. 전자 장치(100)는 입력부(170)로부터 제공받은 입력 정보에 따라 표시부(160)에 표시된 텍스트의 일부 영역(502)에 객체 편집 기준(500)을 설정할 수 있다. 여기서, 객체 편집 기준(500)이 설정된 텍스트의 일부 영역(502)을 객체 편집 영역이라 칭할 수 있다.
모션 센서(130)를 통해 도 5b와 같은 에어 제스쳐(510)의 모션 입력을 감지한 경우, 전자 장치(100)는 객체 편집 기준(500) 및 에어 제스쳐(510)의 특성에 기반하여 객체 편집 영역(502)에 포함되는 텍스트를 편집할 수 있다. 예를 들어, 하나의 객체 편집 기준(500)과 에어 제스쳐(510)에 "들여 쓰기"가 매핑된 것으로 가정하는 경우, 전자 장치(100)는 도 5c와 같이 객체 편집 영역(502)에 포함되는 텍스트를 객체 편집 기준(500)으로 "들여 쓰기"할 수 있다(520).
도 6a 내지 도 6c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 객체 편집 기준을 기반하여 텍스트를 편집하기 위한 화면 구성을 도시한다.
도 6a를 참조하면, 전자 장치(100)는 표시부(160)에 텍스트를 표시할 수 있다. 전자 장치(100)는 입력부(170)로부터 제공받은 입력 정보에 따라 표시부(160)에 표시된 텍스트의 적어도 일부 영역(602)에 객체 편집 기준(600)을 설정할 수 있다. 여기서, 객체 편집 기준(600)이 설정된 텍스트의 적어도 일부 영역(602)을 객체 편집 영역이라 칭할 수 있다.
모션 센서(130)를 통해 도 6b와 같은 에어 제스쳐(610)의 모션 입력을 감지한 경우, 전자 장치(100)는 객체 편집 기준(600) 및 에어 제스쳐(610)에 기반하여 객체 편집 영역(602)에 포함되는 텍스트를 편집할 수 있다. 예를 들어, 하나의 객체 편집 기준(600)과 에어 제스쳐(610)에 "들여 쓰기"가 매핑된 것으로 가정하는 경우, 전자 장치(100)는 도 6c와 같이 객체 편집 기준(600)이 설정된 객체 편집 영역(602)에 포함되는 텍스트를 객체 편집 기준(600)으로 "들여 쓰기"할 수 있다(620).
도 7a 내지 도 7c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 다수 개의 객체 편집 기준들을 기반하여 텍스트를 편집하기 위한 화면 구성을 도시한다.
도 7a를 참조하면, 전자 장치(100)는 표시부(160)에 텍스트를 표시할 수 있다. 전자 장치(100)는 입력부(170)로부터 제공받은 입력 정보에 따라 표시부(160)에 표시된 텍스트의 일부 영역(704)에 동일한 객체 편집 영역에 다수 개의 객체 편집 기준들(700, 702)이 겹치지 않도록 설정할 수 있다. 여기서, 객체 편집 기준(700, 702)이 설정된 텍스트의 일부 영역(704)을 객체 편집 영역이라 칭할 수 있다.
모션 센서(130)를 통해 도 7b와 같은 에어 제스쳐(710)의 모션 입력을 감지한 경우, 전자 장치(100)는 객체 편집 기준들(700, 702)의 구성 정보 및 에어 제스쳐(710)에 기반하여 객체 편집 영역(704)에 포함되는 텍스트를 편집할 수 있다. 예를 들어, 동일한 객체 편집 영역에 중첩되지 않도록 설정된 두 개의 객체 편집 기준(700, 702)과 에어 제스쳐(710)에 "내어 쓰기" 및 "들여 쓰기"가 매핑된 것으로 가정하는 경우, 전자 장치(100)는 도 7c와 같이 제 1 객체 편집 기준(700)으로 객체 편집 영역(704)에 포함되는 텍스트를 "내어 쓰기"하고, "내어 쓰기"한 객체 편집 영역(704)의 텍스트를 제 2 객체 편집 기준(702)으로 "들여 쓰기"할 수 있다(720).
도 8a 내지 도 8c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 다수 개의 객체 편집 기준들을 기반하여 텍스트를 편집하기 위한 화면 구성을 도시한다.
도 8a를 참조하면, 전자 장치(100)는 표시부(160)에 텍스트를 표시할 수 있다. 전자 장치(100)는 입력부(170)로부터 제공받은 입력 정보에 따라 표시부(160)에 표시된 텍스트의 서로 다른 영역에 다수 개의 객체 편집 기준들(800, 802, 804)을 설정할 수 있다. 여기서, 객체 편집 기준(800, 802, 804)이 설정된 텍스트의 일부 영역을 객체 편집 영역이라 칭할 수 있다.
모션 센서(130)를 통해 도 8b와 같은 에어 제스쳐(810)의 모션 입력을 감지한 경우, 전자 장치(100)는 객체 편집 기준들(800, 802, 804)의 구성 정보 및 에어 제스쳐(810)에 기반하여 각각의 객체 편집 기준(800 또는 802 또는 804)이 설정된 객체 편집 영역의 텍스트를 편집할 수 있다. 예를 들어, 전자 장치(100)는 표시부(160)에 다수 개의 객체 편집 기준들(800, 802, 804)이 설정되었지만, 각각의 객체 편집 기준(800 또는 802 또는 804)이 서로 다른 객체 표시 영역에 설정된 경우, 각각의 객체 표시 영역을 기준으로 도 5a와 같이 하나의 객체 편집 기준(800 또는 802 또는 804)이 설정된 것으로 인식할 수 있다. 이에 따라, 하나의 객체 편집 기준(800 또는 802 또는 804)과 에어 제스쳐(810)에 "들여 쓰기"가 매핑된 것으로 가정하는 경우, 전자 장치(100)는 도 8c와 같이 제 1 객체 편집 기준(800)이 설정된 제 1 객체 표시 영역(820)에 포함되는 텍스트를 제 1 객체 편집 기준(800)으로 "들여 쓰기"할 수 있다. 전자 장치(100)는 도 8c와 같이 제 2 객체 편집 기준(802)이 설정된 제 2 객체 표시 영역(830)에 포함되는 텍스트를 제 2 객체 편집 기준(802)으로 "들여 쓰기"하고, 제 3 객체 편집 기준(804)이 설정된 제 3 객체 표시 영역(840)의 텍스트를 제 3 객체 편집 기준(804)으로 "들여 쓰기"할 수 있다.
도 9a 내지 도 9c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 다수 개의 객체 편집 기준들을 기반하여 텍스트를 편집하기 위한 화면 구성을 도시한다.
도 9a를 참조하면, 전자 장치(100)는 표시부(160)에 텍스트를 표시할 수 있다. 전자 장치(100)는 입력부(170)로부터 제공받은 입력 정보에 따라 표시부(160)에 표시된 텍스트에서 서로 다른 영역에 다수 개의 객체 편집 기준들(900, 902, 904)을 일렬로 설정할 수 있다. 여기서, 객체 편집 기준(900, 902, 904)이 설정된 텍스트의 일부 영역을 객체 편집 영역이라 칭할 수 있다.
모션 센서(130)를 통해 도 9b와 같은 에어 제스쳐(910)의 모션 입력을 감지한 경우, 전자 장치(100)는 객체 편집 기준들(900, 902, 904)의 구성 정보 및 에어 제스쳐(910)에 기반하여 각각의 객체 편집 기준(900 또는 902 또는 904)이 설정된 객체 표시 영역들에 포함되는 텍스트를 편집할 수 있다. 예를 들어, 전자 장치(100)는 표시부(160)에 다수 개의 객체 편집 기준들(900, 902, 904)이 설정되었지만, 각각의 객체 편집 기준(900 또는 902 또는 904)이 서로 다른 객체 표시 영역에 설정된 경우, 객체 편집 영역을 기준으로 도 5a와 같이 하나의 객체 편집 기준(900 또는 902 또는 904)이 설정된 것으로 인식할 수 있다. 이에 따라, 하나의 객체 편집 기준(900 또는 902 또는 904)과 에어 제스쳐(910)에 "들여 쓰기"가 매핑된 것으로 가정하는 경우, 전자 장치(100)는 도 9c와 같이 제 1 객체 편집 기준(900)이 설정된 제 1 객체 표시 영역(920)에 포함되는 텍스트를 제 1 객체 편집 기준(900)으로 "들여 쓰기"할 수 있다. 전자 장치(100)는 도 9c와 같이 제 2 객체 편집 기준(902)이 설정된 제 2 객체 표시 영역(930)에 포함되는 텍스트를 제 2 객체 편집 기준(902)으로 "들여 쓰기"하고, 제 3 객체 편집 기준(904)이 설정된 제 3 객체 표시 영역(940)에 포함되는 텍스트를 제 3 객체 편집 기준(904)으로 "들여 쓰기"할 수 있다.
상술한 실시 예에서 서로 다른 객체 편집 영역에 객체 편집 기준이 설정된 경우, 전자 장치는 객체 편집 영역을 기준으로 하나의 객체 편집 기준이 설정된 것으로 인식할 수 있다.
다른 실시 예에서 표시부(160)에 표시된 하나 이상의 객체에 다수 개의 객체 편집 영역들이 설정된 경우, 전자 장치는 각각의 객체 편집 영역이 설정된 객체 표시 영역에 서로 다른 편집 효과를 적용할 수 있다.
도 10a 내지 도 10c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 다수 개의 객체 편집 기준들을 기반하여 텍스트를 편집하기 위한 화면 구성을 도시한다.
도 10a를 참조하면, 전자 장치(100)는 표시부(160)에 텍스트를 표시할 수 있다. 전자 장치(100)는 입력부(170)로부터 제공받은 입력 정보에 따라 표시부(160)에 표시된 텍스트에서 서로 다른 영역에 다수 개의 객체 편집 기준들(1000, 1002, 1004)이 일렬로 설정할 수 있다. 여기서, 객체 편집 기준(1000, 1002, 1004)이 설정된 텍스트의 일부 영역을 객체 편집 영역이라 칭할 수 있다.
모션 센서(130)를 통해 도 10b와 같은 에어 제스쳐(1010)의 모션 입력을 감지한 경우, 전자 장치(100)는 객체 편집 기준들(1000, 1002, 1004)의 구성 정보 및 에어 제스쳐(1010)에 기반하여 각각의 객체 편집 기준(1000 또는 1002 또는 1004)이 설정된 객체 표시 영역에 포함되는 텍스트를 편집할 수 있다. 예를 들어, 일렬로 설정된 다수 개의 객체 편집 기준들(1000, 1002, 1004)과 에어 제스쳐(1010)에 "들여 쓰기"가 매핑된 것으로 가정하는 경우, 전자 장치(100)는 도 10c와 같이 제 1 객체 편집 기준(1000)이 설정된 제 1 객체 편집 영역(1020)에 포함되는 텍스트를 제 1 객체 편집 기준(1000)으로 "들여 쓰기"할 수 있다. 전자 장치(100)는 도 10c와 같이 제 2 객체 편집 기준(1002)이 설정된 제 2 객체 편집 영역(1030)을 제 2 객체 편집 기준(1002)과 기 설정된 제 1 기준 간격을 기반하여 "들여 쓰기"하고, 제 3 객체 편집 기준(1004)이 설정된 제 3 객체 편집 영역(1040)을 제 3 객체 편집 기준(1004)과 기 설정된 제 2 기준 간격에 기반하여 "들여 쓰기"할 수 있다. 이때, 전자 장치(100)는 들여 쓰기 간격에 따라 각각의 문장에 "글머리 기호" 또는 "번호 매기기" 정보를 추가할 수도 있다. 여기서, 제 1 기준 간격은 제 2 기준 간격은 서로 다른 길이를 포함할 수 있다.
상술한 실시 예에서 전자 장치는 하위 객체 편집 기준이 설정된 객체 편집 영역을 상위 객체 편집 기준이 설정된 객체 편집 영역보다 기준 간격만큼 더 "들여쓰기" 할 수 있다.
다른 실시 예에서 전자 장치는 상위 객체 편집 기준이 설정된 객체 편집 영역을 하위 객체 편집 기준이 설정된 객체 편집 영역보다 기준 간격만큼 더 "들여쓰기" 할 수도 있다.
도 11a 내지 도 11c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 다수 개의 객체 편집 기준들을 기반하여 텍스트를 편집하기 위한 화면 구성을 도시한다.
도 11a를 참조하면, 전자 장치(100)는 표시부(160)에 텍스트를 표시할 수 있다. 전자 장치(100)는 입력부(170)로부터 제공받은 입력 정보에 따라 표시부(160)에 표시된 텍스트에서 서로 다른 영역에 다수 개의 객체 편집 기준들(1100, 1102, 1104)을 서로 다른 간격으로 설정할 수 있다. 여기서, 객체 편집 기준(1100, 1102, 1104)이 설정된 텍스트의 일부 영역을 객체 편집 영역이라 칭할 수 있다.
모션 센서(130)를 통해 도 11b와 같은 에어 제스쳐(1110)의 모션 입력을 감지한 경우, 전자 장치(100)는 객체 편집 기준들(1100, 1102, 1104)의 구성 정보 및 에어 제스쳐(1110)에 기반하여 각각의 객체 편집 기준(1100 또는 1102 또는 1104)이 설정된 객체 표시 영역에 포함되는 텍스트를 편집할 수 있다. 예를 들어, 서로 다른 간격으로 설정된 다수 개의 객체 편집 기준들(1100, 1102, 1104)과 에어 제스쳐(1110)에 "들여 쓰기"가 매핑된 것으로 가정하는 경우, 전자 장치(100)는 도 11c와 같이 제 1 객체 편집 기준(1100)이 설정된 제 1 객체 편집 영역(1120)에 포함되는 텍스트를 제 1 객체 편집 기준(1100)으로 "들여 쓰기"할 수 있다. 전자 장치(100)는 도 10c와 같이 제 2 객체 편집 기준(1102)이 설정된 제 2 객체 편집 영역(1130)을 제 2 객체 편집 기준(1102)으로 "들여 쓰기"하고, 제 3 객체 편집 기준(1104)이 설정된 제 3 객체 편집 영역(1140)을 제 3 객체 편집 기준(1104)으로 "들여 쓰기"할 수 있다. 이때, 전자 장치(100)는 들여 쓰기 간격에 따라 각각의 문장에 "글머리 기호" 또는 "번호 매기기" 정보를 추가할 수도 있다.
도 12는 본 개시의 다양한 실시 예에 따른 전자 장치에서 객체를 편집하기 위한 절차를 도시한다.
도 12를 참조하면 전자 장치는 1201 동작에서 표시부(160)에 표시된 하나 이상의 객체를 편집하기 위한 객체 편집 영역을 결정할 수 있다. 예를 들어, 전자 장치는 입력부(170)를 통해 감지한 입력 정보에 기반하여 객체 편집 영역을 결정할 수 있다. 다른 예를 들어, 전자 장치는 표시부(160)에 표시된 하나 이상의 객체 중 커서가 위치한 하나 이상의 객체를 객체 편집 영역으로 결정할 수 잇다.
전자 장치는 1203 동작에서 객체 편집 영역에 포함되는 하나 이상의 객체에 대한 객체 편집 기준을 결정할 수 있다. 예를 들어, 전자 장치는 표시부(160)에 표시된 하나 이상의 객체에 대한 터치 정보를 기반하여 하나 이상의 객체 편집 기준을 결정할 수 있다. 다른 예를 들어, 전자 장치는 표시부(160)에 표시된 하나 이상의 객체에 대한 호버링 정보를 기반하여 하나 이상의 객체 편집 기준을 결정할 수도 있다. 여기서, 객체 편집 기준은 객체를 편집하기 위한 기준 길이 이상의 기준 선을 포함할 수 있다.
전자 장치는 1205 동작에서 모션 입력이 감지되는지 확인할 수 있다. 예를 들어, 전자 장치는 동작 모드를 모션 센서(130)를 통해 사용자의 제스쳐, 전자 장치(100)의 움직임과 같은 모션 입력이 감지되는지 확인할 수 있다.
모션 입력이 감지되지 않는 경우, 전자 장치는 기준 시간 동안 지속적으로 모션 입력이 감지되는지 확인할 수 있다.
모션 입력을 감지한 경우, 전자 장치는 1207 동작에서 객체 편집 기준의 구성 정보, 모션 입력의 특성 중 하나 이상을 이용하여 편집 종류를 결정할 수 있다. 예를 들어, 전자 장치는 데이터 저장부(111)에서 객체 편집 기준의 구성 정보 및 모션 입력에 매핑된 편집 종류를 확인할 수 있다.
전자 장치는 1209 동작에서 객체 편집 기준 및 모션 입력의 특성에 기반하여 객체 편집 영역에 포함되는 하나 이상의 객체를 편집할 수 있다. 전자 장치는 1207 동작에서 감지한 모션 입력에 매핑된 편집 종류 및 객체 편집 기준에 기반하여 객체 편집 영역에 포함되는 하나 이상의 객체를 편집할 수 있다. 예를 들어, 전자 장치는 도 13a 내지 도 13c를 참조하여 모션 입력에 매핑된 편집 종류 및 객체 편집 기준에 기반하여 객체 편집 기준이 설정된 텍스트를 편집할 수 있다.
상술한 실시 예에서 전자 장치는 객체 편집 이벤트에 따라 객체 편집 모드로 전환한 후, 객체 편집 영역을 설정할 수 있다. 예를 들어, 전자 장치는 객체 편집 아이콘, 객체 편집 메뉴, 객체 편집 제스쳐 중 하나 이상을 이용하여 객체 편집 이벤트가 발생하는지 감지할 수 있다.
도 13a 내지 도 13c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 객체 편집 기준을 기반하여 텍스트를 편집하기 위한 화면 구성을 도시한다.
도 13a를 참조하면, 전자 장치(100)는 표시부(160)에 텍스트를 표시할 수 있다. 전자 장치(100)는 입력부(170)로부터 제공받은 입력 정보에 따라 표시부(160)에 표시된 텍스트에 객체 편집 기준(1310)을 설정할 수 있다. 전자 장치(100)는 커서(1300)가 위치한 단락을 객체 편집 영역(1302)으로 결정할 수 있다.
모션 센서(130)를 통해 도 13b와 같은 에어 제스쳐(1320)의 모션 입력을 감지한 경우, 전자 장치(100)는 객체 편집 기준(1310) 및 에어 제스쳐(1320)의 특성에 기반하여 객체 편집 영역(1302)에 포함되는 텍스트를 편집할 수 있다. 예를 들어, 하나의 객체 편집 기준(1310)과 에어 제스쳐(1320)에 "들여 쓰기"가 매핑된 것으로 가정하는 경우, 전자 장치(100)는 도 13c와 같이 객체 편집 영역(1302)에 포함되는 텍스트를 객체 편집 기준(1310)으로 "들여 쓰기"할 수 있다(1330).
상술한 실시 예에서 전자 장치는 객체 표시 기준 및 모션 입력 특성에 따라 표시부(160)에 표시된 텍스트를 편집할 수 있다.
다른 실시 예에서 전자 장치는 하기 도 14a 내지 도 14c, 도 15a 내지 도 15c, 도 16a 내지 도 16c을 참조하면 <표>의 형식으로 표시되는 객체를 객체 표시 기준 및 모션 입력 특성에 따라 편집할 수 있다.
도 14a 내지 도 14c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 객체 편집 기준들을 기반하여 텍스트를 편집하기 위한 화면 구성을 도시한다.
도 14a를 참조하면, 전자 장치(100)는 표시부(160)에 <표>의 형식으로 구성되는 하나 이상의 객체를 표시할 수 있다. 전자 장치(100)는 입력부(170)로부터 제공받은 입력 정보에 따라 표시부(160)에 표시된 객체의 일부 영역(1402)에 객체 편집 기준(1400)을 설정할 수 있다. 여기서, 객체 편집 기준(1400)이 설정된 일부 영역(1402)을 객체 편집 영역이라 칭할 수 있다.
모션 센서(130)를 통해 도 14b와 같은 에어 제스쳐(1410)의 모션 입력을 감지한 경우, 전자 장치(100)는 객체 편집 기준(1400) 및 에어 제스쳐(1410)의 특성에 기반하여 객체 편집 영역(1402)에 포함되는 텍스트를 편집할 수 있다. 예를 들어, 하나의 객체 편집 기준(1400)과 에어 제스쳐(1410)에 "들여 쓰기"가 매핑된 것으로 가정하는 경우, 전자 장치(100)는 도 14c와 같이 객체 편집 영역(1402)에 포함되는 텍스트를 객체 편집 기준(1400)으로 "들여 쓰기"할 수 있다(1420).
도 15a 내지 도 15c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 객체 편집 기준들을 기반하여 텍스트를 편집하기 위한 화면 구성을 도시한다.
도 15a를 참조하면, 전자 장치(100)는 표시부(160)에 <표>의 형식으로 구성되는 하나 이상의 객체를 표시할 수 있다. 전자 장치(100)는 입력부(170)로부터 제공받은 입력 정보에 따라 표시부(160)에 표시된 객체의 일부 영역에 객체 편집 기준(1510)을 설정할 수 있다. 전자 장치(100)는 커서(1500)가 위치한 <표>의 필드(1502)를 객체 편집 영역으로 결정할 수 있다.
모션 센서(130)를 통해 도 15b와 같은 에어 제스쳐(1520)의 모션 입력을 감지한 경우, 전자 장치(100)는 객체 편집 기준(1510) 및 에어 제스쳐(1520)의 특성에 기반하여 객체 편집 영역(1502)에 포함되는 텍스트를 편집할 수 있다. 예를 들어, 하나의 객체 편집 기준(1510)과 에어 제스쳐(1520)에 "들여 쓰기"가 매핑된 것으로 가정하는 경우, 전자 장치(100)는 도 15c와 같이 객체 편집 영역(1502)에 포함되는 텍스트를 객체 편집 기준(1510)으로 "들여 쓰기"할 수 있다(1530).
도 16a 내지 도 16c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 객체 편집 기준들을 기반하여 특정 영역을 편집하기 위한 화면 구성을 도시한다.
도 16a를 참조하면, 전자 장치(100)는 표시부(160)에 <표>의 형식으로 구성되는 하나 이상의 객체를 표시할 수 있다. 전자 장치(100)는 입력부(170)로부터 제공받은 입력 정보에 따라 표시부(160)에 표시된 객체의 일부 영역을 객체 편집 영역(1600)으로 결정할 수 있다. 또한, 전자 장치(100)는 입력부(170)로부터 제공받은 입력 정보에 따라 객체 편집 영역(1600)에 대한 객체 편집 기준(1610)을 설정할 수 있다.
모션 센서(130)를 통해 도 16b와 같은 에어 제스쳐(1620)의 모션 입력을 감지한 경우, 전자 장치(100)는 객체 편집 기준(1610) 및 에어 제스쳐(1620)의 특성에 기반하여 객체 편집 영역(1600)에 포함되는 텍스트를 편집할 수 있다. 예를 들어, 하나의 객체 편집 기준(1610)과 에어 제스쳐(1620)에 "들여 쓰기"가 매핑된 것으로 가정하는 경우, 전자 장치(100)는 도 16c와 같이 객체 편집 영역(1600)의 위치를 객체 편집 기준(1610)으로 변경할 수 있다(1630).
도 17a 내지 도 17d는 본 개시의 다양한 실시 예에 따른 전자 장치에서 객체 편집 기준들을 기반하여 이미지를 편집하기 위한 화면 구성을 도시한다.
도 17a를 참조하면, 전자 장치(100)는 표시부(160)에 하나 이상의 이미지를 표시할 수 있다. 전자 장치(100)는 입력부(170)로부터 제공받은 입력 정보에 따라 표시부(160)에 표시된 이미지들을 정렬하기 위한 객체 편집 기준(1700)을 설정할 수 있다.
모션 센서(130)를 통해 도 17b와 같은 에어 제스쳐(1710)의 모션 입력을 감지한 경우, 전자 장치(100)는 에어 제스쳐(1710)의 특성에 기반하여 표시부(160)에 표시된 이미지들을 객체 편집 기준(1700)으로 정렬할 수 있다. 예를 들어, 전자 장치(100)는 도 17c와 같이 에어 제스쳐(1710)의 특성에 기반하여 표시부(160)에 표시된 이미지들을 객체 편집 기준(1700)으로 정렬할 수 있다(1720). 표시부(160)에 표시된 이미지들을 객체 편집 기준(1700)으로 정렬한 후, 에어 제스쳐(1710)의 모션 입력을 다시 감지한 경우, 전자 장치(100)는 도 17d와 같이 에어 제스쳐(1710)의 특성에 기반하여 표시부(160)에 표시된 이미지들의 중심을 객체 편집 기준(1700)으로 정렬할 수 있다(1730). 다른 예를 들어, 전자 장치(100)는 도 17d와 같이 에어 제스쳐(1710)의 특성에 기반하여 표시부(160)에 표시된 이미지들의 중심을 객체 편집 기준(1700)으로 정렬할 수 있다(1730).
상술한 실시 예에서 전자 장치는 표시부(160)에 표시된 이미지들을 객체 편집 기준(1700)으로 정렬할 수 있다.
다른 실시 예에서 전자 장치는 표시부(160)에 표시된 이미지들 중 입력부(170)를 통해 감지한 입력 정보에 따라 선택된 하나 이상의 이미지들을 객체 편집 기준(1700)으로 정렬할 수도 있다.
전자 장치(100)는 도 18a 내지 도 18c 및 도 19a 내지 도 19c를 참조하여 발표(presentation)을 위한 문서를 객체 편집 기준과 모션 입력의 특성에 기반하여 객체를 편집할 수 있다.
도 18a 내지 도 18c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 다수 개의 객체 편집 기준들을 기반하여 텍스트를 편집하기 위한 화면 구성을 도시한다.
도 18a를 참조하면, 전자 장치(100)는 표시부(160)에 텍스트를 표시할 수 있다. 전자 장치(100)는 입력부(170)로부터 제공받은 입력 정보에 따라 표시부(160)에 표시된 텍스트에서 서로 다른 영역에 다수 개의 객체 편집 기준들(1800, 1802, 1804)을 서로 다른 간격으로 설정할 수 있다. 여기서, 객체 편집 기준(1800, 1802, 1804)이 설정된 텍스트의 일부 영역을 객체 편집 영역이라 칭할 수 있다.
모션 센서(130)를 통해 도 18b와 같은 에어 제스쳐(1810)의 모션 입력을 감지한 경우, 전자 장치(100)는 객체 편집 기준들(1800, 1802, 1804)의 구성 정보 및 에어 제스쳐(1810)에 기반하여 각각의 객체 편집 기준(1800 또는 1802 또는 1804)이 설정된 객체 표시 영역에 포함되는 텍스트를 편집할 수 있다. 예를 들어, 서로 다른 간격으로 설정된 다수 개의 객체 편집 기준들(1800, 1802, 1804)과 에어 제스쳐(1810)에 "들여 쓰기"가 매핑된 것으로 가정하는 경우, 전자 장치(100)는 도 18c와 같이 제 1 객체 편집 기준(1800)이 설정된 제 1 객체 편집 영역(1820)에 포함되는 텍스트를 제 1 객체 편집 기준(1800)으로 "들여 쓰기"할 수 있다. 전자 장치(100)는 도 18c와 같이 제 2 객체 편집 기준(1802)이 설정된 제 2 객체 편집 영역(1830)을 제 2 객체 편집 기준(1802)으로 "들여 쓰기"하고, 제 3 객체 편집 기준(1804)이 설정된 제 3 객체 편집 영역(1840)을 제 3 객체 편집 기준(1804)으로 "들여 쓰기"할 수 있다. 이때, 전자 장치(100)는 들여 쓰기 간격에 따라 각각의 문장에 "글머리 기호" 또는 "번호 매기기" 정보를 추가할 수도 있다.
도 19a 내지 도 19c는 본 개시의 다양한 실시 예에 따른 전자 장치에서 다수 개의 객체 편집 기준들을 기반하여 텍스트를 편집하기 위한 화면 구성을 도시한다.
도 19a를 참조하면, 전자 장치(100)는 표시부(160)에 텍스트를 표시할 수 있다. 전자 장치(100)는 입력부(170)로부터 제공받은 입력 정보에 따라 표시부(160)에 표시된 텍스트에서 서로 다른 영역에 다수 개의 객체 편집 기준들(1900, 1902, 1904)이 일렬로 설정할 수 있다. 여기서, 객체 편집 기준(1900, 1902, 1904)이 설정된 텍스트의 일부 영역을 객체 편집 영역이라 칭할 수 있다.
모션 센서(130)를 통해 도 19b와 같은 에어 제스쳐(1910)의 모션 입력을 감지한 경우, 전자 장치(100)는 객체 편집 기준들(1900, 1902, 1904)의 구성 정보 및 에어 제스쳐(1910)에 기반하여 각각의 객체 편집 기준(1900 또는 1902 또는 1904)이 설정된 객체 표시 영역에 포함되는 텍스트를 편집할 수 있다. 예를 들어, 일렬로 설정된 다수 개의 객체 편집 기준들(1900, 1902, 1904)과 에어 제스쳐(1910)에 "들여 쓰기"가 매핑된 것으로 가정하는 경우, 전자 장치(100)는 도 19c와 같이 제 1 객체 편집 기준(1900)이 설정된 제 1 객체 편집 영역(1920)에 포함되는 텍스트를 제 1 객체 편집 기준(1900)으로 "들여 쓰기"할 수 있다. 전자 장치(100)는 도 19c와 같이 제 2 객체 편집 기준(1902)이 설정된 제 2 객체 편집 영역(1930)을 제 2 객체 편집 기준(1902)과 기 설정된 제 1 기준 간격을 기반하여 "들여 쓰기"하고, 제 3 객체 편집 기준(1004)이 설정된 제 3 객체 편집 영역(1040)을 제 3 객체 편집 기준(1004)과 기 설정된 제 2 기준 간격에 기반하여 "들여 쓰기"할 수 있다. 이때, 전자 장치(100)는 들여 쓰기 간격에 따라 각각의 문장에 "글머리 기호" 또는 "번호 매기기" 정보를 추가할 수도 있다.
상술한 실시 예에서 전자 장치는 객체 편집 기준의 구성 정보와 모션 입력의 특성 중 하나 이상을 이용하여 결정한 객체 편집 종류와 객체 편집 기준에 기반하여 표시부(160)에 표시된 하나 이상의 객체를 편집할 수 있다.
다른 실시 예에서 전자 장치는 객체 편집 기준이 설정되지 않은 경우, 모션 입력의 특성에 따른 편집 종류에 기반하여 표시부(160)에 표시된 하나 이상의 객체를 편집할 수 있다. 예를 들어, 객체 편집 기준이 설정되지 않은 상태에서 에어 제스쳐의 모션 입력을 감지한 경우, 전자 장치는 에어 제스쳐의 특성에 따른 편집 종류를 결정할 수 있다. 에어 제스쳐에 "들여 쓰기"가 매핑된 것으로 가정하는 경우, 전자 장치는 표시부(160)에 표시된 텍스트의 적어도 일부 영역에 포함되는 텍스트를 전자 장치에서 기 설정된 기준 간격만큼 "들여 쓰기"할 수 있다.
한편 본 개시의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 개시의 범위에서 벗어나지 않는 한도 내에서 전자 장치의 동작 순서가 변경 또는 병합되거나 재사용 가능하며 생략 등과 같이 여러 가지 변형이 가능하다. 그러므로 본 개시의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.

Claims (20)

  1. 전자 장치에서 객체를 편집하기 위한 방법에 있어서,
    표시부에 표시된 하나 이상의 객체에 대한 하나 이상의 편집 기준을 결정하는 동작;
    모션 입력을 감지하는 동작; 및
    상기 하나 이상의 편집 기준, 상기 모션 입력의 특성 중 하나 이상에 기반하여 상기 하나 이상의 객체를 편집하는 동작을 포함하는 방법.
  2. 제 1항에 있어서,
    상기 편집 기준을 결정하는 동작은,
    입력부를 통해 감지한 사용자의 입력 정보에 따라 하나 이상의 직선 형태의 편집 기준을 결정하는 동작을 포함하는 방법.
  3. 제 1항에 있어서,
    상기 편집 기준을 결정하는 동작은,
    상기 표시부에 텍스트가 표시된 경우, 입력부를 통해 감지한 사용자의 입력 정보에 따라 텍스트의 방향과 수직인 직선 형태 하나 이상의 편집 기준을 결정하는 동작을 포함하는 방법.
  4. 제 1항에 있어서,
    상기 객체를 편집하는 동작은,
    하나 이상의 편집 영역을 결정하는 동작;
    상기 하나 이상의 편집 기준의 구성 정보와 상기 모션 입력의 특성 중 하나 이상에 기반하여 편집 종류를 결정하는 동작; 및
    상기 하나 이상의 편집 기준에 기반하여 상기 하나 이상의 편집 영역을 상기 편집 종류에 따라 편집하는 동작을 포함하는 방법.
  5. 제 4항에 있어서,
    상기 편집 기준의 구성 정보는, 편집 기준의 개수, 객체 편집 기준의 위치 중 하나 이상을 포함하는 방법.
  6. 제 4항에 있어서,
    상기 편집 영역을 결정하는 동작은,
    커서가 위치한 하나 이상의 객체를 편집 영역으로 결정하는 동작을 포함하는 방법.
  7. 제 4항에 있어서,
    상기 편집 영역을 결정하는 동작은,
    상기 하나 이상의 편집 기준이 설정된 하나 이상의 객체를 편집 영역으로 결정하는 동작을 포함하는 방법.
  8. 제 1항에 있어서,
    상기 모션 입력의 특성은, 모션 입력의 종류, 모션 입력의 방향, 모션 입력의 세기 중 하나 이상을 포함하는 방법.
  9. 제 8항에 있어서,
    상기 모션 입력의 종류는, 사용자의 제스쳐, 전자 장치의 움직임 중 하나 이상을 포함하는 방법.
  10. 제 1항에 있어서,
    상기 객체를 편집하는 동작은,
    상기 표시부에 텍스트가 표시된 경우, 하나 이상의 편집 영역을 결정하는 동작;
    상기 하나 이상의 편집 기준의 구성 정보와 상기 모션 입력의 특성 중 하나 이상에 기반하여 편집 종류를 결정하는 동작; 및
    들여 쓰기가 상기 편집 종류로 결정된 경우, 상기 하나 이상의 편집 영역에 포함되는 텍스트를 상기 하나 이상의 편집 기준으로 들여 쓰기하는 동작을 포함하는 방법.
  11. 전자 장치에 있어서,
    하나 이상의 객체를 표시하는 표시부;
    모션 입력을 감지하는 모션 센서; 및
    상기 표시부에 표시된 하나 이상의 객체에 대한 하나 이상의 편집 기준을 결정하고, 상기 모션 센서를 통해 감지한 모션 입력의 특성, 상기 하나 이상의 편집 기준 중 하나 이상에 기반하여 상기 표시부에 표시된 하나 이상의 객체를 편집하는 프로세서를 포함하는 장치.
  12. 제 11항에 있어서,
    상기 모션 센서는, 하나 이상의 카메라, 제스처 센서, 자이로 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 생체 센서, 지자기 센서, 또는 초음파 센서 중 하나 이상을 포함하는 장치.
  13. 제 11항에 있어서,
    사용자 입력을 감지하는 입력부를 더 포함하며,
    상기 프로세서는, 상기 입력부를 통해 감지한 사용자의 입력 정보에 따라 하나 이상의 직선 형태의 편집 기준을 결정하는 장치.
  14. 제 11항에 있어서,
    사용자 입력을 감지하는 입력부를 더 포함하며,
    상기 프로세서는, 상기 표시부에 텍스트가 표시된 경우, 입력부를 통해 감지한 사용자의 입력 정보에 따라 텍스트의 방향과 수직인 직선 형태 하나 이상의 편집 기준을 결정하는 장치.
  15. 제 11항에 있어서,
    상기 프로세서는, 하나 이상의 편집 영역을 결정하고, 상기 하나 이상의 편집 기준의 구성 정보와 상기 모션 입력의 특성 중 하나 이상에 기반하여 편집 종류를 결정하고, 상기 하나 이상의 편집 기준에 기반하여 상기 하나 이상의 편집 영역을 상기 편집 종류에 따라 편집하는 장치.
  16. 제 15항에 있어서,
    상기 편집 기준의 구성 정보는, 편집 기준의 개수, 객체 편집 기준의 위치 중 하나 이상을 포함하는 장치.
  17. 제 15항에 있어서,
    상기 프로세서는, 커서가 위치한 하나 이상의 객체를 편집 영역으로 결정하는 장치.
  18. 제 15항에 있어서,
    상기 프로세서는, 상기 하나 이상의 편집 기준이 설정된 하나 이상의 객체를 편집 영역으로 결정하는 장치.
  19. 제 11항에 있어서,
    상기 모션 입력의 특성은, 모션 입력의 종류, 모션 입력의 방향, 모션 입력의 세기 중 하나 이상을 포함하며,
    상기 모션 입력의 종류는, 사용자의 제스쳐, 전자 장치의 움직임 중 하나 이상을 포함하는 장치.
  20. 제 8항에 있어서,
    메모리를 더 포함하며,
    상기 메모리는, 상기 프로세서에 의해 구동되는 하나 이상의 프로그램을 포함하는 장치.
KR1020130083357A 2013-07-16 2013-07-16 객체 편집을 위한 전자 장치 및 방법 KR20150009199A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020130083357A KR20150009199A (ko) 2013-07-16 2013-07-16 객체 편집을 위한 전자 장치 및 방법
EP14175867.2A EP2827256A3 (en) 2013-07-16 2014-07-04 Method for editing object and electronic device therefor
US14/333,379 US10055395B2 (en) 2013-07-16 2014-07-16 Method for editing object with motion input and electronic device thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130083357A KR20150009199A (ko) 2013-07-16 2013-07-16 객체 편집을 위한 전자 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20150009199A true KR20150009199A (ko) 2015-01-26

Family

ID=51263190

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130083357A KR20150009199A (ko) 2013-07-16 2013-07-16 객체 편집을 위한 전자 장치 및 방법

Country Status (3)

Country Link
US (1) US10055395B2 (ko)
EP (1) EP2827256A3 (ko)
KR (1) KR20150009199A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190087423A (ko) * 2016-11-25 2019-07-24 소니 주식회사 표시 제어 장치, 표시 제어 방법 및 컴퓨터 프로그램

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6805552B2 (ja) * 2016-05-26 2020-12-23 コニカミノルタ株式会社 情報処理装置及びプログラム
US11275889B2 (en) 2019-04-04 2022-03-15 International Business Machines Corporation Artificial intelligence for interactive preparation of electronic documents

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5523775A (en) * 1992-05-26 1996-06-04 Apple Computer, Inc. Method for selecting objects on a computer display
DE69428675T2 (de) * 1993-12-30 2002-05-08 Xerox Corp Apparat und Verfahren zur Unterstützung einer impliziten Strukturation von Freiform-Listen, Übersichten, Texten, Tabellen und Diagrammen in einem auf Handzeichen basierenden Eingabesystem und Editiersystem
US6112216A (en) * 1997-12-19 2000-08-29 Microsoft Corporation Method and system for editing a table in a document
US7254787B2 (en) * 2001-02-15 2007-08-07 Denny Jaeger Method for formatting text by hand drawn inputs
US7360157B1 (en) 2003-09-19 2008-04-15 Microsoft Corporation Aligning content in an electronic document
US20140002377A1 (en) * 2012-07-02 2014-01-02 Microsoft Corporation Manipulating content on a canvas with touch gestures

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190087423A (ko) * 2016-11-25 2019-07-24 소니 주식회사 표시 제어 장치, 표시 제어 방법 및 컴퓨터 프로그램

Also Published As

Publication number Publication date
US10055395B2 (en) 2018-08-21
EP2827256A3 (en) 2015-04-08
EP2827256A2 (en) 2015-01-21
US20150026569A1 (en) 2015-01-22

Similar Documents

Publication Publication Date Title
CN108027650B (zh) 用于测量显示器之间的角度的方法和使用该方法的电子设备
US9727156B2 (en) Method for recognizing biometrics information and electronic device thereof
KR102348947B1 (ko) 전자장치의 화면 표시 제어 방법 및 장치
EP2983076B1 (en) Electronic device and method of controlling display thereof
US9460535B2 (en) Information processing device, information processing method, and program
US20120281129A1 (en) Camera control
KR102145515B1 (ko) 화면 제어 방법 및 그 전자 장치
CN115798384A (zh) 增强显示旋转
US20160026327A1 (en) Electronic device and method for controlling output thereof
KR102124191B1 (ko) 메시지 처리 방법 및 그 전자 장치
US9426606B2 (en) Electronic apparatus and method of pairing in electronic apparatus
EP3651008B1 (en) Method for displaying and an electronic device thereof
US20150063785A1 (en) Method of overlappingly displaying visual object on video, storage medium, and electronic device
EP3032394A1 (en) Method and apparatus for inputting information by using on-screen keyboard
KR102192159B1 (ko) 디스플레이 방법 및 그 방법을 처리하는 전자 장치
US9575620B2 (en) Method, apparatus and computer program product for graphically enhancing the user interface of a device
US20150138192A1 (en) Method for processing 3d object and electronic device thereof
EP2811391A1 (en) Method for transforming an object based on motion, gestures or breath input and electronic device thereof
US20150042584A1 (en) Electronic device and method for editing object using touch input
KR102310106B1 (ko) 서비스 화면을 표시하기 위한 전자 장치 및 방법
KR20150009199A (ko) 객체 편집을 위한 전자 장치 및 방법
CN107111930B (zh) 显示装置及其控制方法
CN111010528A (zh) 视频通话方法、移动终端及计算机可读存储介质
US20160253088A1 (en) Display control apparatus and display control method
KR102176681B1 (ko) 객체 표시를 위한 전자 장치 및 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right