KR102050355B1 - Apparatus and method for processing a document in terminal equipment - Google Patents

Apparatus and method for processing a document in terminal equipment Download PDF

Info

Publication number
KR102050355B1
KR102050355B1 KR1020120067236A KR20120067236A KR102050355B1 KR 102050355 B1 KR102050355 B1 KR 102050355B1 KR 1020120067236 A KR1020120067236 A KR 1020120067236A KR 20120067236 A KR20120067236 A KR 20120067236A KR 102050355 B1 KR102050355 B1 KR 102050355B1
Authority
KR
South Korea
Prior art keywords
text
image
document
touch
touch input
Prior art date
Application number
KR1020120067236A
Other languages
Korean (ko)
Other versions
KR20140008538A (en
Inventor
이준호
김기선
김동전
윤진나
신승혁
신종균
김현정
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR1020120067236A priority Critical patent/KR102050355B1/en
Publication of KR20140008538A publication Critical patent/KR20140008538A/en
Application granted granted Critical
Publication of KR102050355B1 publication Critical patent/KR102050355B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. short messaging services [SMS] or e-mails
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

휴대단말기의 문서작성방법은, 터치입력의 위치를 감지하는 과정과, 터치위치가 텍스트모드 선택이면 키패드를 표시하며 키패드의 터치입력에 따른 텍스트를 표시하는 텍스트처리과정과, 터치위치가 문서작성영역이면 터치입력을 이미지로 표시하는 이미지처리과정과, 텍스트 및 이미지를 결합하여 문서를 생성하는 과정으로 이루어진다.The document writing method of the mobile terminal includes a process of detecting a position of a touch input, a text processing process of displaying a keypad when the touch position is selected as a text mode, and displaying a text according to the touch input of the keypad, and a touch position is a document creation area. The image processing process includes displaying a touch input as an image, and generating a document by combining text and an image.

Figure R1020120067236
Figure R1020120067236

Description

휴대단말기의 문서처리 장치 및 방법{APPARATUS AND METHOD FOR PROCESSING A DOCUMENT IN TERMINAL EQUIPMENT}Apparatus and method for document processing of a mobile terminal {APPARATUS AND METHOD FOR PROCESSING A DOCUMENT IN TERMINAL EQUIPMENT}

본 발명은 휴대단말기의 문서처리장치 및 방법에 관한 것으로, 특히 텍스트와 이미지가 결합된 문서를 작성할 수 있는 장치 및 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a document processing apparatus and method for a mobile terminal, and more particularly, to an apparatus and method for creating a document combining text and images.

일반적으로 현재의 휴대단말기는 터치패널(touch panel)을 구비하며, 동작 제어 및 데이터 입력을 터치패널을 통해 수행하고 있다. 이때 상기 터치패널은 사용자의 손가락 터치를 감지하는 정전용량 방식 및 저항막 방식을 주로 사용하고 있다. 이때 상기 터치패널을 사용하는 장치를 이용하여 데이터를 입력하는 경우, 데이터를 입력하기 위한 키패드(한글, 영문, 숫자 등의 키패드)를 표시하고, 키패드 상의 문자 영역을 터치하면 단말장치를 터치 위치를 인식하여 입력 데이터를 판정하는 방법을 사용하고 있다. In general, current portable terminals include a touch panel, and operation control and data input are performed through the touch panel. In this case, the touch panel mainly uses a capacitive method and a resistive film method for detecting a user's finger touch. In this case, when inputting data using a device using the touch panel, a keypad (keyboards such as Korean, English, and numbers) for inputting data is displayed, and when the character area on the keypad is touched, the terminal is touched. A method of recognizing and determining input data is used.

또한 현재의 휴대단말기는 필기체 입력이나 선 등의 그림 입력 등을 정교하게 입력하기 위한 펜을 사용하는 장치들이 개발되고 있다. 예를들면 Wacom 사의 EMR (Electro Magnetic Resonance) 기술은 LCD 아래에 EMR 센서패드를 추가하여 FPCB 와 EMR 전용 펜 간의 공진을 통해 펜 입력을 감지할 수 있다. In addition, devices using a pen for precisely inputting a handwriting input or a picture input such as a line have been developed. Wacom's Electro Magnetic Resonance (EMR) technology, for example, adds an EMR sensor pad below the LCD to detect pen input through resonance between the FPCB and the EMR-only pen.

또한 휴대단말기에서 문서작성은 터치패널에 키패드를 표시하고, 키패드의 터치 입력으로부터 텍스트를 작성할 수 있다. 그러나 문서를 작성하는 경우, 표나 그림 등을 작성하여 텍스트에 결합하여야 하는 필요성이 대두되고 있다. 예를들어 이메일등을 이용하여 약속시간 및 장소등의 스케듈 정보를 전송하는 경우, 약속에 대한 텍스트 정보 및 위치에 대한 간략한 약도를 첨부하여 전송하는 경우가 있다. 이런 경우 일반적으로 텍스트 정보에 이미지 파일을 첨부 파일로 링크시켜 전송하는 것이 일반적이다. 이런 경우 착신측에서 텍스트 정보 및 이미지파일을 각각 별도로 표시하여 확인하여야 하는 불편함이 있었다. 또한 텍스트 입력모드 및 펜 입력모드를 구비하는 휴대단말기의 경우, 사용자가 펜 또는 텍스트모드를 선택하여야 한다. In addition, in the mobile terminal, document preparation can display a keypad on a touch panel and create text from touch input of the keypad. However, when writing a document, the necessity of creating a table or picture and combining it with text is emerging. For example, when sending schedule information such as an appointment time and a place using an e-mail, a text message about an appointment and a brief map of a location may be attached. In this case, it is common to transmit an image file as an attachment to the text information. In this case, there was an inconvenience in that the called party must separately check the text information and the image file. In addition, in the case of a mobile terminal having a text input mode and a pen input mode, the user must select a pen or text mode.

본 발명은 휴대단말기에서 텍스트에 이미지를 결합하여 문서를 작성할 수 있는 장치 및 방법을 제안한다. 이를 위하여 휴대단말기는 문석작성 중에 터치되는 위치를 감지하여 입력모드를 결정하고, 해당 입력모드에 작성되는 텍스트 및/또는 이미지를 결합하여 문서로 작성할 수 있는 장치 및 방법을 제안한다. The present invention proposes an apparatus and method for creating a document by combining an image with text in a mobile terminal. To this end, the portable terminal detects a touched position during writing of a stone to determine an input mode, and proposes an apparatus and method for combining a text and / or an image created in the input mode into a document.

본 발명의 실시예에 따른 휴대단말기의 문서작성방법은, 터치 위치를 감지하는 과정과, 상기 터치 위치가 텍스트모드 선택 영역이면 키패드를 표시하며, 상기 키패드의 터치입력에 따른 텍스트를 표시하는 텍스트처리과정과, 상기 터치 위치가 문서작성영역이면 상기 터치입력을 이미지로 표시하는 이미지처리과정과, 상기 텍스트 및 이미지를 결합하여 문서를 생성하는 과정으로 이루어짐을 특징으로 한다.According to an aspect of the present invention, there is provided a method of creating a document of a mobile terminal, the process of detecting a touch position, and displaying a keypad if the touch position is a text mode selection area, and displaying text according to a touch input of the keypad. A process of displaying the touch input as an image and generating a document by combining the text and the image if the touch position is a document creation area.

또한 본 발명의 실시예에 따른 휴대단말기의 이메일 전송방법은, 이메일 입력창의 터치 위치를 감지하는 과정과, 상기 터치 위치가 텍스트 선택이면 키패드를 표시하며, 상기 키패드의 터치입력에 따른 텍스트를 표시하는 텍스트처리과정과, 상기 터치위치가 이메일 본문영역이면 상기 터치입력을 이미지로 표시하는 이미지처리과정과, 상기 전송요구시 텍스트 및 이미지를 결합된 이메일 본문을 전송하는 과정으로 이루어짐을 특징으로 한다.In addition, the e-mail transmission method of the mobile terminal according to an embodiment of the present invention, the process of detecting the touch position of the e-mail input window, and if the touch position is a text selection to display a keypad, and to display the text according to the touch input of the keypad A text processing step, an image processing step of displaying the touch input as an image when the touch position is an email body area, and transmitting an email body combined with text and an image when the transmission request is made.

그리고 본 발명의 실시예에 휴대단말기는, 손가락 및 펜터치 입력을 감지하는 터치패널과, 문서입력창을 표시하며, 작성되는 문서를 표시하는 표시부와, 작성된 문서를 저장하는 저장부와, 상기 터치패널의 터치위치를 감지하며, 상기 터치위치가 텍스트모드 선택이면 상기 문서입력창에 키패드를 표시하고, 상기 키패드의 터치입력에 따른 텍스트를 표시하며, 상기 터치위치가 문서작성영역이면 상기 터치입력을 이미지로 표시하며, 상기 텍스트 및 이미지를 결합하여 문서를 생성하는 제어부로 구성된 것을 특징으로 한다.According to an embodiment of the present invention, the portable terminal includes a touch panel for sensing a finger and pen touch input, a display unit for displaying a document input window, displaying a document to be created, a storage unit for storing the created document, and the touch. A touch position of the panel is sensed, and if the touch position is a text mode selection, a keypad is displayed on the document input window, text according to a touch input of the keypad is displayed, and if the touch position is a document writing area, the touch input is displayed. It is displayed as an image, characterized in that composed of a control unit for generating a document by combining the text and the image.

휴대단말기에서 문서를 작성할 때 터치되는 위치에 따라 텍스트 또는 이미지 작성모드를 자동으로 설정할 수 있으며, 설정된 모드에서 입력되는 텍스트와 이미지를 결합하여 문서로 작성할 수 있는 이점이 있다. When creating a document in a mobile terminal, the text or image creation mode can be automatically set according to the touched position, and the text and image input in the set mode can be combined to create a document.

도 1은 본 발명의 실시예에 따른 휴대단말기의 구성을 도시하는 도면
도 2는 본 발명의 실시예에 따른 휴대단말기에서 텍스트 및 이미지를 결합하여 문서를 작성하는 절차를 도시하는 흐름도
도 3a - 도 3d는 도 2와 같은 절차에 의해 문서를 작성하는 예를 설명하기 위한 도면
도 4는 본 발명의 실시예에 따라 이메일 문서 작성 절차를 도시하는 흐름도
도 5a - 도 5d는 도 4와 같이 이메일 문서를 작성하는 절차를 설명하기 위한 도면
도 6은 상기 도 4와 같은 절차를 수행하면서 작성된 문서의 예를 도시하는 도면
1 is a diagram showing the configuration of a portable terminal according to an embodiment of the present invention.
2 is a flowchart illustrating a procedure of creating a document by combining text and an image in a mobile terminal according to an embodiment of the present invention.
3A to 3D are diagrams for explaining an example of creating a document by the same procedure as in FIG.
4 is a flowchart illustrating an e-mail document creation procedure according to an embodiment of the present invention.
5A through 5D are diagrams for explaining a procedure of creating an email document as shown in FIG.
6 is a diagram showing an example of a document created while performing the same procedure as in FIG.

이하, 본 발명의 바람직한 실시 예들의 상세한 설명이 첨부된 도면을 참조하여 상세히 설명한다. 도면들 중 동일한 구성들은 가능한 한 어느 곳에서든지 동일한 부호들을 나타내고 있음을 유의하여야 한다.Hereinafter, with reference to the accompanying drawings a detailed description of preferred embodiments of the present invention will be described in detail. It should be noted that the same components in the figures represent the same numerals wherever possible.

본 발명은 이미지 및 텍스트 입력이 가능한 터치패널을 구비하는 휴대단말기에서 문서 작성시 텍스트에 이미지를 결합하여 하나의 문서로 작성할 수 있는 장치 및 방법을 제안한다. 이를 위하여 따른 휴대단말기는 터치패널의 터치 위치를 감지하고, 감지된 위치에 따라 텍스트 또는 이미지 입력모드를 자동으로 설정하고, 설정된 모드에서 입력되는 텍스트 및 이미지들을 결합하여 하나의 문서로 작성한다. The present invention proposes an apparatus and method for combining a text into an image and creating a document in a portable terminal having a touch panel capable of inputting an image and text. To this end, the portable terminal detects a touch position of the touch panel, automatically sets a text or image input mode according to the detected position, and combines text and images input in the set mode into a single document.

도 1은 본 발명의 실시예에 따른 휴대단말기의 구성을 도시하는 도면이다. 여기서 상기 휴대단말기는 스마트 폰을 포함하는 휴대전화기, MP3단말기, 타블렛, 랩탑 컴퓨터 등의 다양한 디지털 기기들이 될 수 있다. 1 is a view showing the configuration of a mobile terminal according to an embodiment of the present invention. The portable terminal may be various digital devices such as a mobile phone, an MP3 terminal, a tablet, a laptop computer including a smart phone, and the like.

상기 도 1을 참조하면, 통신부120은 기지국 또는 다른 장치와 무선 통신 기능을 수행한다. 여기서 상기 통신부120은 송신신호의 주파수를 상승변환(frequency up converter) 및 전력증폭하는 송신부와, 수신신호를 저잡음 증폭 및 주파수를 하강변환(frequency down converter)하는 수신부 등으로 구성된 RF통신부가 될 수 있다. 또한 상기 통신부120은 변조부 및 복조부를 구비할 수 있다. 여기서 변조부는 송신신호를 변조하여 송신부에 전달하며, 복조부는 수신부를 통해 수신되는 신호를 복조한다. 이런 경우, 상기 변복조부는 LTE, WCDMA, GSM 등이 될 수 있으며, 또한 WIFI, WIBRO 등이 될 수 있다. 상기 통신부120은 공중 무선통신망 및/또는 인터넷 망에 접속되어 단말장치와 해당 망간의 무선 통신 기능을 수행할 수 있다. 본 발명의 실시예에서 상기 통신부120은 LTE 기지국과 통신할 수 있는 LTE 통신부 및 WIFI 통신부를 구비할 수 있다. Referring to FIG. 1, the communication unit 120 performs a wireless communication function with a base station or another device. Here, the communication unit 120 may be an RF communication unit including a transmitter for frequency up converter and power amplification of a transmission signal, a receiver for low noise amplification and a frequency down converter of a received signal, and the like. . In addition, the communication unit 120 may include a modulator and a demodulator. Here, the modulator modulates the transmission signal and transmits it to the transmitter, and the demodulator demodulates the signal received through the receiver. In this case, the modulation and demodulation unit may be LTE, WCDMA, GSM, or the like, and may also be WIFI, WIBRO, or the like. The communication unit 120 may be connected to a public wireless communication network and / or an internet network to perform a wireless communication function between a terminal device and a corresponding network. In an embodiment of the present invention, the communication unit 120 may include an LTE communication unit and a WIFI communication unit capable of communicating with an LTE base station.

제어부100은 휴대단말기의 전반적인 동작을 제어하며, 본 발명의 실시예에 따라 문서 작성모드시 터치되는 터치패널의 위치를 분석하여 입력모드를 결정하고, 결정된 모드에서 입력되는 텍스트 및 이미지들을 결합하여 하나의 문서로 생성하는 기능을 제어한다. 상기 제어부100은 단말장치의 어플리케이션을 수행하는 어플리케이션 처리부(application processor) 및 통신처리부(communication processor)를 구비할 수 있으며, 상기 통신처리부를 구비하는 경우 상기 송신 및 수신신호를 변조 및 복조하는 모뎀은 통신처리부에 구비될 수 있다. The control unit 100 controls the overall operation of the mobile terminal, and determines the input mode by analyzing the position of the touch panel touched in the document creation mode according to an embodiment of the present invention, combining the text and images input in the determined mode one Controls the ability to create documents. The controller 100 may include an application processor and a communication processor for executing an application of a terminal device. When the communication processor is provided, a modem for modulating and demodulating the transmitted and received signals may be used for communication. It may be provided in the processing unit.

저장부110은 단말장치의 동작 프로그램 및 본 발명의 실시예에 따른 프로그램을 저장하는 프로그램 메모리와, 단말기의 동작을 위한 테이블들 및 프로그램 수행 중에 발생되는 데이터를 저장하는 데이터 메모리를 구비할 수 있다. The storage unit 110 may include a program memory for storing an operation program of the terminal device and a program according to an exemplary embodiment of the present invention, and tables for operating the terminal and a data memory for storing data generated during program execution.

표시부130은 상기 제어부100의 제어하에 실행중인 어플리케이션의 정보를 표시한다. 상기 표시부130은 LCD 또는 OLED가 될 수 있다. 터치패널140은 감압식, 정전식 및/또는 전자기 유도식 방식으로 구현할 될 수 있으며, 사용자의 터치(이하 손가락 터치라고 가정한다) 및/또는 펜 터치 입력을 감지하여 상기 제어부100에 출력한다. 여기서 상기 터치패널140은 정전식 및 전자기 유도식 패널로 구성되는 것으로 가정한다. 이런 경우 상기 터치패널140의 상기 정전식 패널은 사용자의 손가락 터치 입력을 감지하며, 상기 전자기유도식 패널은 펜터치 입력을 감지할 수 있다. 여기서 상기 표시부130 및 터치패널140은 일체형의 터치스크린으로 구성할 수 있다. The display unit 130 displays information of an application running under the control of the controller 100. The display unit 130 may be an LCD or an OLED. The touch panel 140 may be implemented in a pressure-sensitive, capacitive, and / or electromagnetic inductive method, and detects a user's touch (hereinafter, referred to as a finger touch) and / or a pen touch input and outputs the same to the controller 100. Here, it is assumed that the touch panel 140 is composed of a capacitive and electromagnetic inductive panel. In this case, the capacitive panel of the touch panel 140 may detect a user's finger touch input, and the electromagnetic panel may detect a pen touch input. The display unit 130 and the touch panel 140 may be configured as an integrated touch screen.

본 발명의 실시예에서 상기 제어부100은 문서작성모드시 상기 표시부130에 문서입력창을 표시한다. 이때 문서 입력창은 텍스트모드 선택영역, 펜모드 선택영역, 그리고 문서작성영역 등을 포함할 수 있다. 여기서 상기 문서작성모드는 이메일작성, 메모(펜 메모 포함), 일정 등 텍스트 입력을 하는 모든 어플리케이션들에서 수행될 수 있다. 상기 제어부100은 문서작성모드시 텍스트와 이미지로 구성되는 문서를 작성할 수 있다. In an embodiment of the present invention, the control unit 100 displays a document input window on the display unit 130 in the document creation mode. In this case, the document input window may include a text mode selection area, a pen mode selection area, and a document creation area. The document writing mode may be performed in all applications for text input such as email writing, memo (including pen memo), and schedule. The controller 100 may create a document composed of text and an image in a document creation mode.

사용자가 상기 문서 입력창에서 텍스트모드를 선택할 수 있는 아이템(이하 텍스트모드 선택영역이라 칭함)을 터치하면, 상기 제어부100은 터치패널140을 통해 이를 감지하고 상기 표시부130에 텍스트를 입력할 수 있는 키패드를 표시한다. 그리고 상기 키패드를 터치하면, 상기 제어부100은 표시부130의 문서작성영역에 터치패널140을 통해 감지되는 텍스트를 표시한다. 상기와 같은 상태에서 사용자가 문서작성영역을 터치하면 상기 제어부100은 이미지 모드로 천이하며, 사용자의 터치에 의해 생성되는 이미지를 표시부130에 표시한다. 상기와 같은 과정을 반복하면서 사용자는 텍스트 및 이미지로 구성되는 문서를 작성할 수 있다.When the user touches an item capable of selecting a text mode in the document input window (hereinafter referred to as a text mode selection area), the controller 100 senses this through the touch panel 140 and a keypad for inputting text into the display unit 130. Is displayed. When the keypad is touched, the controller 100 displays text detected through the touch panel 140 in the document preparation area of the display 130. When the user touches the document creation area in the above state, the controller 100 transitions to the image mode, and displays the image generated by the user's touch on the display unit 130. While repeating the above process, the user can create a document consisting of text and images.

먼저 상기 터치패널140이 정전식 터치패널 및 전자기유도식 패널들을 각각 구비하는 경우, 상기 제어부100은 손가락 터치시 상기 정전식 터치패널에 의해 손가락터치를 감지할 수 있으며, 이런 경우 상기 제어부100은 상기 손가락 터치에 따라 포커스 이동이나 커서를 이동시킬 수 있다. 또한 상기 펜 터치시 상기 제어부100은 전자기 유도식 터치패널에 의해 펜터치를 감지할 수 있으며, 이런 경우 상기 제어부100은 이미지 모드로 전환되어 펜터치 이동에 따른 이미지를 생성할 수 있다. First, when the touch panel 140 includes the capacitive touch panel and the electromagnetic induction panel, respectively, the control unit 100 may detect a finger touch by the capacitive touch panel when the finger touches the touch panel. You can move the focus or move the cursor according to your finger touch. In addition, when the pen is touched, the controller 100 may detect a pen touch by an electromagnetic induction touch panel. In this case, the controller 100 may be switched to an image mode to generate an image according to a pen touch movement.

이때 사용자가 작성된 문서의 텍스트를 수정하고자 하는 경우, 수정하고자 하는 위치를 손가락으로 터치하면, 상기 제어부100은 터치패널140(여기서 정전식 터치패널)을 통해 감지된는 손가락 터치 위치에 커서를 이동시킬 수 있다. 이때 텍스트 문서작성모드이면 표시되는 키패드를 통해 수정 또는 추가 등의 텍스트 편집을 수행할 수 있다. 그러나 이미지모드인 경우, 사용자는 상기 텍스트모드 선택영역을 터치할 수 있으며, 이런 경우 상기 제어부100은 상기 표시부130에 표시하고, 상기 표시되는 키패드를 통해 텍스트를 입력하여 편집할 수 있다. In this case, when the user wants to correct the text of the written document, if the user touches a position to be modified with a finger, the controller 100 may move the cursor to a finger touch position detected through the touch panel 140 (here, the capacitive touch panel). have. In this case, the text editing mode can be edited or added through the keypad displayed. However, in the image mode, the user may touch the text mode selection area. In this case, the control unit 100 may display the display unit 130 and input and edit text through the displayed keypad.

두번째로 상기 터치패널이 손가락 터치 및 펜터치를 하나의 터치패널을 이용하는 경우(이런 경우 상기 펜은 전자기 유도식 펜이 아닌 경우가 될 수 있음), 상기 제어부100은 터치가 발생되는 경우 해당 위치에 커서를 이동시킨다. 이후 사용자가 상기 텍스트모드 선택영역을 터치하면, 상기 제어부100은 이를 감지하고 텍스트 모드를 수행할 수 있도록 상기 표시부130에 키패드를 표시한다. 그리고 사용자에 의해 키패드 터치가 감지되면 상기 제어부100은 터치패널140을 통해 이를 감지하고, 커서 위치의 텍스트를 편집한다. 그러나 상기 터치 후 이동이 발생되면, 상기 제어부100은 이미지모드로 전환되어 상기 터치 이동에 따른 이미지를 행성할 수 있다. Secondly, when the touch panel uses a finger touch and a pen touch using a single touch panel (in this case, the pen may not be an electromagnetic induction pen), the control unit 100 is located at a corresponding position when a touch is generated. Move the cursor. Thereafter, when the user touches the text mode selection area, the controller 100 senses this and displays a keypad on the display unit 130 to perform the text mode. When the keypad touch is detected by the user, the controller 100 detects the touch through the touch panel 140 and edits the text at the cursor position. However, when the movement after the touch occurs, the control unit 100 may be switched to the image mode to planet the image according to the touch movement.

이하의 설명에서 상기 터치패널140이 정전식 및 전자기 유도식 터치패널로 구성된 경우를 가정하여 설명하기로 한다.In the following description, it is assumed that the touch panel 140 is composed of a capacitive and electromagnetic inductive touch panel.

본 발명의 실시예에 따라 작성되는 문서는 텍스트 및 이미지 파일이 결합된 문서가 될 수 있다. 이런 경우 상기 텍스트와 이미지 파일은 SGML(The Standard Gernal Mark-Up Language), HTML(Hypertext Mark-Up Language), XML(Extensible Mark-Up Language) 구조로 결합할 수 있다. 그리고 상기 텍스트 및 이미지 파일을 결합한 문서를 전송할 때, 수신측에서 이를 편집할 수 있도록 상기 마크 업(Mark-Up) 정보를 함께 전송할 수 있다. 여기서 상기 마크업 정보는 레이아웃 명령(layout command), 시각적 특성(visual characteristics), 문서간의 링크(link)를 문자 기반으로 표현할 수 있도록 하는 정보를 의미한다. 예를들면 이메일로 전송하기 위해 작성된 텍스트 및 이미지 결합파일을 전송할 때, 수신측에서 이를 편집할 수 있도록 파일과 함께 html 주석 태그(tag) 등의 형태 또는 메터 데이터를 함께 생성하여 전송할 수 있으며, 이때의 정보는 마크업 정보가 될 수 있다.A document created according to an embodiment of the present invention may be a document in which text and image files are combined. In this case, the text and image files may be combined in the Standard Gernal Mark-Up Language (SGML), Hypertext Mark-Up Language (HTML), and Extensible Mark-Up Language (XML) structures. When transmitting a document combining the text and image files, the mark-up information may be transmitted together so that the receiver can edit the document. In this case, the markup information refers to information for displaying a layout command, visual characteristics, and links between documents on a character basis. For example, when sending a text and image combination file created for e-mail, the file can be created and transmitted together with the file in the form of html comment tags or metric data so that the recipient can edit it. The information of may be markup information.

도 2는 본 발명의 실시예에 따른 휴대단말기에서 텍스트 및 이미지를 결합하여 문서를 작성하는 절차를 도시하는 흐름도이다. 도 3a - 도 3d는 도 2와 같은 절차에 의해 문서를 작성하는 예를 설명하기 위한 도면이다. 이하의 설명에서는 펜터치 입력 감지시 이미지 모드를 수행하며, 손가락 터치는 커서이동 또는 텍스트 편집 모드를 수행하는 것으로 가정하여 설명한다.2 is a flowchart illustrating a procedure of creating a document by combining text and an image in a mobile terminal according to an embodiment of the present invention. 3A to 3D are diagrams for explaining an example of creating a document by the same procedure as in FIG. In the following description, it is assumed that a pen touch input is sensed and an image mode is performed, and a finger touch performs a cursor movement or a text editing mode.

상기 도 2 - 도 3d를 참조하면, 휴대단말기에서 문서작성모드가 선택되면 상기 제어부100은 211단계에서 이를 감지하고, 표시부130에 문서를 작성하기 위한 입력창을 표시한다. 이때 문서작성모드에서 상기 제어부100은 텍스트 및 이미지를 입력할 수 있으며, 또한 입력되는 텍스트 및 이미지를 링크시켜 하나의 문서로 생성할 수 있다. 이때 상기 문서 입력창은 도 3a와 같은 구성을 가질 수 있으며, 상기 문서입력창에서 참조번호 311은 텍스트모드를 설정하는 아이템이며, 참조번호 313은 펜모드를 설정하는 아이템이고, 참조번호 315는 작성되는 문서를 표시하는 영역이 될 수 있다. 본 발명의 실시예에서 상기 참조번호 315는 문서작성영역이라 칭한다. 2 to 3D, when the document creation mode is selected in the mobile terminal, the control unit 100 detects it in step 211 and displays an input window for creating a document on the display unit 130. In this case, the control unit 100 may input text and an image in a document preparation mode, and may generate a single document by linking the input text and the image. In this case, the document input window may have a configuration as shown in FIG. 3A. In the document input window, reference numeral 311 denotes an item for setting a text mode, reference numeral 313 denotes an item for setting a pen mode, and reference numeral 315 is written. It may be an area for displaying a document to be displayed. In an embodiment of the present invention, the reference numeral 315 is called a document preparation area.

상기 도 3a와 같은 문서 입력창이 표시되는 상태에서 상기 제어부100은 212단계에서 문서작성 종료 명령이 발생되었는가 검사한다. 이때 상기 문서작성 종료 명령이 발생되지 않은 경우, 상기 제어부100은 213단계에서 상기 터치패널140을 통해 터치입력이 감지되는가를 검사한다. 이때 상기 터치 입력이 발생되면, 상기 제어부100은 215단계에서 터치 입력의 위치를 분석하여 터치 입력이 문서작성영역315 내에서 발생되었는가를 검사한다. 이때 상기 제어부100은 215단계에서 문서작성영역315에 펜터치 입력이 발생되었는가를 검사하는 과정이 될 수 있다. 이때 상기 문서작성영역315에서 펜터치입력이 발생되면, 상기 제어부100은 215단계에서 이를 감지하고, 217단계에서 터치입력을 표시한다. 즉, 본 발명의 실시예에서는 상기 문서작성영역315 내에서 터치입력이 감지되면 이후 터치 입력을 이미지로 상기 표시부130에 표시한다. 이때 상기 터치입력은 펜 또는 손가락 등으로 발생할 수 있으며, 여기서는 펜 터치가 될 수 있다. 상기와 같은 상태에서 터치입력 종료 요구가 발생되면, 상기 제어부100은 219단계에서 이를 감지하고 221단계에서 상기 터치입력에 의해 생성되는 이미지를 문서에 링크시킨다. 여기서 상기 터치입력 종료는 사용자가 상기 텍스트가 작성된 영역을 터치하거나, 상기 도 3a의 텍스트모드 선택영역 311을 터치하여 텍스트모드를 선택하거나 또는 문서 작성모드를 종료하는 경우가 될 수 있다. 여기서 상기 텍스트가 작성된 영역을 터치하는 경우, 상기 제어부100은 텍스트 편집을 위한 터치입력으로 감지하며, 이런 경우 상기 터치 위치에 커서를 이동시켜 표시할 수 있다. 또한 상기 텍스트모드 선택영역 311을 터치한 경우에는 상기 제어부100은 커서가 텍스트 영역에 위치되는 경우에는 편집모드로 동작할 수 있도록 키패드를 표시하며, 그렇지 않은 경우에는 작성된 이미지 위치 다음에 커서를 이동시키고 키패드를 표시하여 텍스트 작성을 할 수 있도록 한다. 이때의 터치는 손가락 터치로 수행할 수 있다. 이때 상기 이미지 이전에 생성된 텍스트가 존재하는 경우, 상기 제어부100은 상기 텍스트 종료 위치, 상기 생성된 이미지 위치 정보 등을 포함하는 링크정보를 생성하여 상기 이미지를 텍스트에 결합할 수 있다. 이후 상기 제어부100은 되돌아간다. In the state where the document input window as shown in FIG. 3A is displayed, the controller 100 checks whether a document creation end command is generated in step 212. In this case, if the command to terminate the document creation is not generated, the controller 100 determines whether a touch input is sensed through the touch panel 140 in step 213. In this case, when the touch input is generated, the controller 100 analyzes the position of the touch input in step 215 to check whether the touch input is generated within the document writing area 315. In this case, the controller 100 may determine whether a pen touch input is generated in the document creation area 315 in step 215. In this case, when a pen touch input is generated in the document creation area 315, the controller 100 detects it in step 215 and displays a touch input in step 217. That is, in the embodiment of the present invention, if a touch input is detected in the document creation area 315, the touch input is displayed on the display unit 130 as an image. In this case, the touch input may be generated by a pen or a finger, and the like, and may be a pen touch. When the touch input termination request is generated in the above state, the controller 100 detects this in step 219 and links the image generated by the touch input to the document in step 221. In this case, the end of the touch input may be a case in which the user touches an area in which the text is written, selects a text mode by touching the text mode selection area 311 of FIG. 3A, or ends the document writing mode. In this case, when the area in which the text is written is touched, the controller 100 detects it as a touch input for text editing, and in this case, moves the cursor to the touch position to display it. In addition, when the text mode selection area 311 is touched, the controller 100 displays a keypad to operate in the edit mode when the cursor is located in the text area. Otherwise, the controller 100 moves the cursor after the created image position. Display the keypad so you can write text. In this case, the touch may be performed by a finger touch. In this case, when the text generated before the image exists, the controller 100 may generate link information including the text end position, the generated image position information, and combine the image with the text. After that, the control unit 100 returns.

그러나 상기 터치입력이 상기 문서작성 영역 내에서 발생된 것이 아니면, 상기 제어부100은 215단계에서 이를 감지하고 231단계에서 텍스트모드를 선택하는 입력인가를 검사한다. 여기서 상기 텍스트모드는 도 3a에 도시된 바와 같은 텍스트 아이템311을 선택하여 수행할 수 있다. 이때 상기 텍스트모드가 선택되면, 상기 제어부100은 231단계에서 이를 감지하고 233단계에서 상기 문서작성영역315에 키패드를 표시하며, 사용자에 의해 터치되는 키패드의 입력을 상기 터치패널을 통해 감지하여 상기 표시부130에 텍스트로 표시한다. 즉, 텍스트모드가 선택되면, 상기 제어부100은 상기 문서입력창에 키패드를 표시하고, 키패드 상의 터치입력을 분석하여 이를 텍스트로 표시한다. 이때 상기 텍스트는 이미지 파일 앞 또는 뒤에 작성될 수 있으며, 또한 텍스트 작성 후 상기한 바와 같은 방법으로 커서를 이동시키면서 텍스트를 편집할 수 있다. 그리고 상기 233단계를 수행하는 과정에서 이텍스트 종료 요청(예를들면 문서작성 종료, 이미지 모드로 전환 요청 등)이 발생되면, 상기 제어부100은 이를 감지하고 상기 212단계로 되돌아간다.However, if the touch input is not generated in the document creation area, the controller 100 detects it in step 215 and checks whether the input mode is selected in step 231. The text mode may be performed by selecting the text item 311 as shown in FIG. 3A. In this case, when the text mode is selected, the control unit 100 detects this in step 231 and displays a keypad in the document creation area 315 in step 233, and detects an input of a keypad touched by a user through the touch panel. Text 130. That is, when the text mode is selected, the controller 100 displays a keypad on the document input window, analyzes the touch input on the keypad, and displays it as text. In this case, the text may be written before or after the image file, and after the text is written, the text may be edited while moving the cursor as described above. If a text termination request (eg, document creation termination, switch to image mode request, etc.) occurs in the process of performing step 233, the controller 100 detects this and returns to step 212.

그리고 펜 아이템313이 선택되면 상기 제어부100은 231단계에서 이를 감지하고 241단계에서 펜 입력에 따른 이미지를 생성하여 표시한다. 이때 상기 펜모드에서의 동작은 상기 217단계 - 221단계와 동일한 수순으로 진행할 수 있다. When the pen item 313 is selected, the controller 100 detects this in step 231 and generates and displays an image according to a pen input in step 241. In this case, the operation in the pen mode may proceed in the same procedure as in steps 217 to 221.

상기와 같은 절차를 수행하면서 문서를 작성한 후 사용자가 문서 작성 종료를 선택하면, 상기 제어부100은 212단계에서 이를 감지하고, 251단계에서 작성된 문서가 있는가 검사한다. 이때 작성된 문서가 있으면, 상기 제어부100은 253단계에서 상기 작성된 텍스트 및/또는 이미지들을 하나의 문서로 처리하여 저장부110에 저장하고 문서 작성절차를 종료한다. 즉, 상기 제어부100은 문서작성 종료시 텍스트에 이미지를 결합 또는 텍스트에 이미지의 정보를 링크시켜 텍스트 및 이미지로 구성되는 문서를 생성 및 저장한다. 상기한 바와 같이 텍스트 모드 및/또는 이미지 모드를 선택하면서 문서를 작성하는 경우, 상기 제어부100은 텍스트 및 이미지를 각각 생성할 수 있으며, 상기 생성된 텍스트 및 이미지를 하나의 문서로 생성되어 저장부110에 저장할 수 있다. If the user selects the end of document creation after creating a document while performing the above procedure, the control unit 100 detects this in step 212 and checks whether there is a document created in step 251. In this case, if there is a written document, the controller 100 processes the created text and / or images as a single document in step 253 and stores it in the storage 110 and ends the document creation procedure. That is, the controller 100 generates and stores a document composed of the text and the image by combining the image to the text or linking the information of the image to the text at the end of document creation. When creating a document while selecting a text mode and / or an image mode as described above, the controller 100 may generate text and an image, respectively, and the generated text and image are generated as one document and stored in the storage 110. Can be stored in

예를들면, 도 3a와 같은 문서 입력창에서 텍스트 아이템311을 선택하면 상기 제어부100은 231단계에서 텍스트 모드임을 감지하고 터치패널140에 텍스트를 입력하기 위한 키패드321을 표시한다. 그리고 사용자가 키패드321에 터치입력을 발생하면, 상기 제어부100은 233단계에서 터치패널140을 통해 감지되는 키패드321의 입력을 분석하여 331과 같이 문서작성영역에 텍스트를 표시한다. 상기와 같이 텍스트모드를 수행하는 상태에서 사용자가 문서작성영역315 내의 임의 위치에서 터치입력341을 발생하면, 상기 제어부100은 215단계에서 문서작성영역315 내에 터치입력341이 작성되었음을 감지하고 도 3c와 같이 표시부130에 표시되는 문서작성영역315에서 키패드321의 표시를 제거한다. 이후 사용자가 터치입력을 발생하면, 상기 제어부100은 217단계에서 터치입력을 표시하며, 이때 상기 터치입력은 도 3c와 같이 텍스트가 표시되는 영역331에 이어 333과 같이 표시된다. 이때 상기 터치입력은 이미지가 될 수 있으며, 터치입력에 의해 생성되는 이미지를 333과 같이 표시부130에 표시한다. For example, when the text item 311 is selected in the document input window as shown in FIG. 3A, the controller 100 detects that the text mode is in step 231 and displays a keypad 321 for inputting text on the touch panel 140. When the user generates a touch input to the keypad 321, the controller 100 analyzes the input of the keypad 321 sensed through the touch panel 140 in step 233 and displays text in the document preparation area as shown in 331. When the user generates the touch input 341 at any position in the document composition area 315 in the text mode as described above, the control unit 100 detects that the touch input 341 has been created in the document composition area 315 in step 215, and FIG. In the same manner, the display of the keypad 321 is removed from the document creation area 315 displayed on the display unit 130. When the user generates a touch input, the control unit 100 displays the touch input in step 217, where the touch input is displayed as 333 following the area 331 where text is displayed as shown in FIG. 3C. In this case, the touch input may be an image, and the image generated by the touch input is displayed on the display unit 130 as shown in 333.

상기와 같이 이미지 입력을 표시하는 상태에서 사용자가 터치입력을 종료하면, 상기 제어부100은 219단계에서 이를 감지하고 생성된 이미지를 텍스트에 링크(결합)시킨다. 여기서 상기 터치입력의 종료는 문서작성모드의 종료나 또는 입력모드의 전환(예를들면 텍스트모드로 전환) 등이 될 수 있다. 또한 상기 텍스트와 이미지의 결합 방법은 텍스트에 이미지를 결합시킬 수 있으며, 텍스트에 이미지의 정보를 링크시키고 이미지를 별도로 저장하는 방법을 사용할 수 있다.When the user ends the touch input in the state of displaying the image input as described above, the control unit 100 detects it in step 219 and links (combines) the generated image to the text. In this case, the end of the touch input may be the end of the document writing mode or the switching of the input mode (for example, the text mode). In addition, the method of combining the text and the image may combine the image with the text, and may use a method of linking information of the image to the text and storing the image separately.

도 3d는 펜을 이용하여 이미지를 생성한 후 다시 텍스트모드로 전환한 예이다. 이런 경우 작성된 이미지가 텍스트에 링크되며, 텍스트모드 전환에 의해 상기 제어부100은 키패드321을 표시한다. 이때 키패드321의 표시에 의해 텍스트 및 이미지를 표시하는 문서작성영역315의 영역이 작아지게 되며, 이런 경우 작성된 텍스트 및 이미지를 스크롤하여 이후 작성되는 텍스트가 표시될 수 있도록 한다. 이후 입력되는 텍스트는 참조번호 335와 같이 이전에 작성된 이미지333에 연결되어 표시되며, 문서 작성 완료시 상기 제어부100은 텍스트331, 이미지333 및 텍스트335로 구성되는 문서를 생성할 수 있다.3D is an example of switching to text mode after generating an image using a pen. In this case, the created image is linked to the text, and the control unit 100 displays the keypad 321 by switching the text mode. At this time, the area of the document creation area 315 displaying text and images is reduced by the display of the keypad 321. In this case, the text to be created can be displayed by scrolling the created text and image. Thereafter, the input text is displayed in connection with the previously created image 333 as shown by reference numeral 335. When the document is completed, the control unit 100 may generate a document consisting of text 331, image 333, and text 335.

본 발명의 실시예에서 상기 문서는 다양한 어플리케이션들에서 작성될 수 있다. 예를들면 상기 문서는 다이어리(캘린더), 이메일 등이 될 수 있다. 도 4는 본 발명의 실시예에 따라 이메일 문서 작성 절차를 도시하는 흐름도이고, 도 5a - 도 5d는 도 4와 같이 이메일 문서를 작성하는 절차를 설명하기 위한 도면이며, 도 6은 상기 도 4와 같은 절차를 수행하면서 작성된 문서의 예를 도시하는 도면이다.In an embodiment of the present invention, the document may be created in various applications. For example, the document may be a diary (calendar), an email or the like. 4 is a flowchart illustrating an e-mail document creation procedure according to an embodiment of the present invention. FIGS. 5A to 5D are views for explaining a procedure of creating an e-mail document as shown in FIG. 4, and FIG. It is a figure which shows the example of the document created while performing the same procedure.

상기 도 4 - 도 6을 참조하면, 휴대단말기에서 이메일 어플리케이션이 선택되면 상기 제어부100은 411단계에서 이를 감지하고, 표시부130에 이메일 문서를 작성하기 위한 입력창을 표시한다. 상기 이메일은 텍스트 및 이미지로 본문을 구성할 수 있으며, 또한 상기 본문과 함께 파일을 첨부하여 전송할 수 있다. 이때 이메일의 본문은 텍스트로 작성하고, 이미지가 포함된 이메일의 전송이 필요한 경우에는 이미지를 첨부파일로 전송하는 방법이 일반적이었다. 그러나 본 발명의 실시예에서는 이메일의 본문을 작성할 때 텍스트 및 이미지를 결합시킬 수 있다. 즉, 제어부100은 텍스트 및 이미지를 결합하여 이메일의 본문을 작성할 수 있다. 4 to 6, when an e-mail application is selected in the mobile terminal, the control unit 100 detects it in step 411 and displays an input window for creating an e-mail document on the display unit 130. The e-mail may be composed of a text and an image, and may also be transmitted by attaching a file together with the text. At this time, the body of the e-mail was written in text, and when the e-mail containing the image was required to transmit the image as an attachment. However, in the embodiment of the present invention, text and images can be combined when composing a body of an email. That is, the controller 100 may combine the text and the image to create a body of the email.

이후 상기 제어부100은 412단계에서 문서작성 종료 명령이 발생되었는가 검사한다. 이때 상기 문서작성 종료 명령이 발생되지 않은 경우, 상기 제어부100은 413단계에서 상기 터치패널140을 통해 터치입력이 감지되는가를 검사한다. 이때 상기 이메일 입력창이 표시되는 상태에서 터치 입력이 발생되면, 상기 제어부100은 413단계에서 이를 감지하고, 415단계에서 터치 위치를 확인한다. 이후 상기 제어부100은 417단계에서 터치 위치를 분석하여 터치 입력이 이메일 본문영역 내에서 발생되었는가를 검사한다. 이때 상기 이메일 본문 영역에서 터치입력이 발생되면, 상기 제어부100은 417단계에서 이를 감지하고, 419단계에서 터치입력을 표시한다. 즉, 이메일 본문영역 내에서 터치입력이 감지되면, 상기 제어부100은 이미지 작성으로 감지하고 터치 입력을 상기 표시부130에 표시한다. 이때 상기 터치입력은 펜 또는 손가락 등으로 발생할 수 있으며, 이때 상기 터치입력은 펜터치입력이 될 수 있다. 상기 제어부100은 터치패널140을 통해 감지되는 터치입력을 이미지로 표시한다. 상기와 같은 상태에서 터치입력 종료 요구가 발생되면, 상기 제어부100은 421단계에서 이를 감지하고 423단계에서 상기 터치입력에 의해 생성되는 이미지를 문서에 링크시킨다. 여기서 상기 터치입력 종료는 기 작성된 텍스트영역이 터치되거나, 사용자가 텍스트모드를 선택하거나 또는 이메일 작성을 종료 또는 전송하는 경우가 될 수 있다. 이때 상기 이미지 이전에 생성된 텍스트가 존재하는 경우, 상기 제어부100은 상기 텍스트 종료 위치, 상기 생성된 이미지 위치 정보 등을 포함하는 링크정보를 생성하여 상기 이미지를 텍스트에 결합할 수 있다. 이때 상기 텍스트에 이미지를 결합하는 방법은 HTML(HyperText Markup Language)형태로 링크시킬 수 있다. In step 412, the control unit 100 checks whether a document creation end command has occurred. In this case, if the document creation end command is not generated, the controller 100 determines whether a touch input is sensed through the touch panel 140 in step 413. In this case, when a touch input occurs while the e-mail input window is displayed, the controller 100 detects this in step 413 and checks the touch position in step 415. In step 417, the controller 100 analyzes the touch position to check whether the touch input is generated within the email body region. If a touch input is generated in the email body region, the controller 100 detects it in step 417 and displays the touch input in step 419. That is, when a touch input is detected in the email body region, the controller 100 detects the image by creating the image and displays the touch input on the display unit 130. In this case, the touch input may be generated by a pen or a finger, and the touch input may be a pen touch input. The controller 100 displays a touch input detected through the touch panel 140 as an image. When the touch input termination request is generated in the above state, the controller 100 detects this in step 421 and links the image generated by the touch input to the document in step 423. In this case, the end of the touch input may be a case in which a pre-written text area is touched, a user selects a text mode, or ends or transmits an e-mail. In this case, when the text generated before the image exists, the controller 100 may generate link information including the text end position, the generated image position information, and combine the image with the text. At this time, the method of combining the image with the text may be linked in the form of HyperText Markup Language (HTML).

그러나 상기 터치입력이 상기 문서작성 영역 내에서 발생된 것이 아니면, 상기 제어부100은 417단계에서 이를 감지하고 431단계에서 텍스트모드를 선택하는 입력인가를 검사한다. 여기서 상기 텍스트모드의 선택 방법은 텍스트모드 선택영역을 선택한 경우, 또는 작성된 텍스트를 편집하기 위해 커서를 이동하기 위한 터치입력을 발생한 후 텍스트모드 선택 영역을 터치한 경우(즉, 텍스트 편집모드를 선택한 경우)가 될 수 있다.However, if the touch input is not generated within the document creation area, the controller 100 detects the touch input in step 417 and checks whether it is an input for selecting a text mode in step 431. Herein, the text mode selection method includes selecting a text mode selection area, or touching a text mode selection area after generating a touch input for moving a cursor to edit the created text (that is, selecting a text editing mode). Can be

이때 상기 텍스트모드가 선택되면, 상기 제어부100은 431단계에서 이를 감지하고 433단계에서 상기 이메일 본문영역에 키패드를 표시하며, 사용자에 의해 터치되는 키패드의 입력을 상기 터치패널을 통해 감지하여 상기 표시부130에 텍스트로 표시한다. 즉, 텍스트모드가 선택되면, 상기 제어부100은 상기 입력창에 키패드를 표시하고, 키패드 상의 터치입력을 분석하여 이를 텍스트로 표시한다. 이때 상기 텍스트는 이미지 파일 앞 또는 뒤에 작성될 수 있으며, 또한 텍스트 작성 후 상기한 바와 같은 방법으로 커서를 이동시키면서 텍스트를 편집할 수 있다. 그리고 상기 233단계를 수행하는 과정에서 이텍스트 종료 요청(예를들면 문서작성 종료, 이미지 모드로 전환 요청 등)이 발생되면, 상기 제어부100은 이를 감지하고 상기 212단계로 되돌아간다.In this case, when the text mode is selected, the control unit 100 detects this in step 431 and displays the keypad in the e-mail body region in step 433, and detects the input of the keypad touched by the user through the touch panel. In the text. That is, when a text mode is selected, the controller 100 displays a keypad on the input window, analyzes a touch input on the keypad, and displays it as text. In this case, the text may be written before or after the image file, and after the text is written, the text may be edited while moving the cursor as described above. If a text termination request (eg, document creation termination, switch to image mode request, etc.) occurs in the process of performing step 233, the controller 100 detects this and returns to step 212.

그리고 펜 입력모드가 선택되면 상기 제어부100은 431단계에서 이를 감지하고 441단계에서 펜 입력에 따른 이미지를 생성하여 표시한다. 이때 상기 펜모드에서의 동작은 상기 419단계 - 423단계와 동일한 수순으로 진행할 수 있다. 또한 상기 펜입력모드에서 작성되는 이미지가 텍스트인 경우, 문자인식모듈을 구동하여 텍스트로 변환하여 저장할 수도 있다. When the pen input mode is selected, the controller 100 detects this in step 431 and generates and displays an image according to the pen input in step 441. In this case, the operation in the pen mode may proceed in the same procedure as in steps 419 to 423. In addition, when the image created in the pen input mode is text, the text recognition module may be driven and converted into text.

상기와 같은 절차를 수행하면서 문서를 작성한 후 사용자가 이메일 작성 종료를 선택하면, 상기 제어부100은 412단계에서 이를 감지하고, 451단계에서 작성된 이메일이 있는가 검사한다. 이때 작성된 이메일이 있으면, 상기 제어부100은 453단계에서 상기 작성된 텍스트 및/또는 이미지들을 하나의 문서로 처리한다. 이때 상기 이메일 종료는 전송 요청이 될 수 있으며, 이런 경우 상기 제어부100은 453단계에서 이메일 작성 절차를 종료하고, 작성된 이메일 본문을 전송할 수 있다. 이때 사이 이메일 본문은 상기한 바와 같이 텍스트 및 이미지로 구성될 수 있다. 이때 상기 HTML 구조로 텍스트 및 이미지 파일을 결합한 문서를 전송할 때, 수신측에서 이를 편집할 수 있도록 상기 마크 업(Mark-Up) 정보를 함께 전송할 수 있다. 여기서 상기 마크업 정보는 레이아웃 명령, 시각적 특성, 문서간의 링크 정보를 포함할 수 있다. 따라서 본 발명의 실시예에서 상기 텍스트 및 이미지가 결합된 파일을 전송할 때, 수신측에서 이를 편집할 수 있도록 파일과 함께 html 주석 태그(tag) 등의 형태 또는 메터 데이터를 함께 생성하여 전송할 수 있으며, 이때의 정보는 마크업 정보가 될 수 있다.If the user selects the end of the e-mail creation after creating the document while performing the above procedure, the control unit 100 detects this in step 412 and checks whether there is an e-mail written in step 451. If there is an e-mail written at this time, the controller 100 processes the created text and / or images as one document in step 453. In this case, the email termination may be a transmission request. In this case, the controller 100 may terminate the email writing procedure in step 453 and transmit the created email body. At this time, the e-mail body may be composed of a text and an image as described above. In this case, when transmitting a document combining text and image files in the HTML structure, the mark-up information may be transmitted together so that the receiving side can edit the document. The markup information may include a layout command, visual characteristics, and link information between documents. Accordingly, in the embodiment of the present invention, when transmitting the file combined with the text and the image, a form or metric data such as html annotation tag and the like may be generated and transmitted together with the file so that the receiving side can edit the file. The information at this time may be markup information.

본 발명의 실시예에 따른 이메일 작성 방법을 살펴보면, 이메일 모드시 상기 제어부100은 도 5a와 같은 이메일 입력창을 표시부130에 표시한다. 그리고 상기 도 3a와 같이 표시되는 이메일 입력창에서 텍스트 아이템511을 선택하면 상기 제어부100은 431단계에서 텍스트 모드임을 감지하고 터치패널140에 텍스트를 입력하기 위한 키패드521을 표시한다. 그리고 사용자가 키패드521에 터치입력을 발생하면, 상기 제어부100은 433단계에서 터치패널140을 통해 감지되는 키패드521의 입력을 분석하여 531과 같이 이메일 본문영역에 텍스트를 표시한다. 상기와 같이 텍스트모드를 수행하는 상태에서 사용자가 이메일 본문 영역315 내의 임의 위치에서 도 5b의 533과 같이 터치입력533을 발생하면, 상기 제어부100은 417단계에서 이를 감지하고 도 5c와 같이 표시부130에 표시되는 이메일 본문영역515에서 키패드521의 표시를 제거한다. 이후 사용자가 터치입력을 발생하면, 상기 제어부100은 419단계에서 터치입력을 표시하며, 이때 상기 터치입력은 도 5c와 같이 텍스트가 표시되는 영역531에 이어 533과 같이 표시된다. 이때 상기 터치입력은 이미지가 될 수 있으며, 터치입력에 의해 생성되는 이미지를 533과 같이 표시부130에 표시한다. Looking at the method for creating an email according to an embodiment of the present invention, in the email mode, the controller 100 displays an email input window as shown in FIG. 5A on the display 130. When the text item 511 is selected in the e-mail input window displayed as shown in FIG. 3A, the controller 100 detects that the text mode is in step 431 and displays a keypad 521 for inputting text on the touch panel 140. When the user generates a touch input to the keypad 521, the controller 100 analyzes the input of the keypad 521 sensed through the touch panel 140 in step 433 and displays text in the email body region as shown in 531. If the user generates a touch input 533 as shown in 533 of FIG. 5B in a state in which the text mode is performed as described above, the control unit 100 detects this in step 417 and displays the display unit 130 as shown in FIG. 5C. The display of the keypad 521 is removed from the displayed e-mail body area 515. Thereafter, when the user generates a touch input, the controller 100 displays the touch input in step 419. In this case, the touch input is displayed as shown in FIG. 5C following the region 531 where text is displayed. In this case, the touch input may be an image, and the image generated by the touch input is displayed on the display 130 as shown in 533.

상기와 같이 이미지 입력을 표시하는 상태에서 사용자가 터치입력을 종료하면, 상기 제어부100은 421단계에서 이를 감지하고 423단계에서 생성된 이미지를 텍스트에 링크(결합)시킨다. 여기서 상기 터치입력의 종료는 입력모드의 전환(예를들면 텍스트모드로 전환), 이메일 본문 작성 종료 또는 이메일 전송 등이 될 수 있다. 또한 상기 텍스트와 이미지의 결합 방법은 텍스트에 이미지를 결합시킬 수 있으며, 텍스트에 이미지의 정보를 링크시키고 이미지를 별도로 저장하는 방법을 사용할 수 있다. 본 발명의 실시예에서는 상기한 바와 HTML 방법으로 링크시킬 수 있다.When the user finishes the touch input in the state of displaying the image input as described above, the control unit 100 detects this in step 421 and links (combines) the image generated in step 423 to the text. In this case, the end of the touch input may be a change of an input mode (for example, a text mode), an end of an e-mail body writing, or an e-mail transmission. In addition, the method of combining the text and the image may combine the image with the text, and may use a method of linking information of the image to the text and storing the image separately. In an embodiment of the present invention, the above-described link can be made using the HTML method.

도 5d는 펜을 이용하여 이미지를 생성한 후 다시 텍스트모드로 전환한 예이다. 이런 경우 작성된 이미지535는 이미지 작성된 텍스트531에 링크되며, 텍스트모드 전환에 의해 상기 제어부100은 키패드521을 표시한다. 이때 키패드521의 표시에 의해 텍스트 및 이미지를 표시하는 이메일 본문영역515이 작아지게 되며, 이런 경우 작성된 텍스트531 및 이미지535를 스크롤하여 이후 작성되는 텍스트537이 표시될 수 있도록 한다. 5D is an example of switching to text mode after generating an image using a pen. In this case, the created image 535 is linked to the image created text 531, and the controller 100 displays the keypad 521 by switching to the text mode. At this time, the e-mail body area 515 displaying the text and the image is reduced by the display of the keypad 521. In this case, the created text 531 and the image 535 may be scrolled to display the text 537 to be created later.

도 6은 상기 도 4와 같은 절차를 수행하는 제어부100이 도 5a - 도 5d와 같이 입력되는 텍스트 및 이미지들을 처리하여 작성된 이메일 본문의 예를 도시하고 있다. 상기 도 6은 약속시간 및 장소를 알려주기 위한 이메일 작성 예로써, 약속시간 등에 대한 정보는 텍스트로 입력하고 약속장소는 맵 형태의 이미지로 입력한 예가 될 수 있다. 이런 경우 텍스트 입력은 텍스트 아이템을 선택하여 수행하고, 이미지 입력은 작성되는 문서를 표시하는 영역의 임의위치에 터치하므로 수행할 수 있다. 따라서 텍스트 및 이미지로 결합되는 문서를 작성하는 경우, 펜 등을 문서 작성영역에 터치하는 시점에서 0은 이미지 작성모드로 천이되며, 또한 작성되는 이미지를 기 작성된 텍스트 및/또는 이미지에 결합시킬 수 있다.
FIG. 6 illustrates an example of an e-mail body generated by the controller 100 processing the text and images input as shown in FIGS. 5A to 5D by performing the procedure of FIG. 4. 6 is an example of creating an e-mail for notifying an appointment time and a place. For example, information about an appointment time may be input in text, and an appointment place may be input in a map image. In this case, text input may be performed by selecting a text item, and image input may be performed by touching an arbitrary position of an area displaying a document to be created. Therefore, when creating a document combined with text and an image, when the pen or the like is touched on the document creation area, 0 is shifted to the image creation mode, and the created image can be combined with the previously created text and / or image. .

본 명세서와 도면에 개시 된 본 발명의 실시예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.Embodiments of the present invention disclosed in the specification and drawings are only specific examples to easily explain the technical contents of the present invention and aid the understanding of the present invention, and are not intended to limit the scope of the present invention. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention can be carried out in addition to the embodiments disclosed herein.

Claims (21)

휴대단말기의 문서작성방법에 있어서,
텍스트모드 선택 아이템, 펜선택 아이템, 및 문서작성영역을 포함하는 문서 입력창을 표시하는 과정과,
터치 위치를 감지하는 과정과,
상기 감지한 터치 위치가 상기 텍스트모드 선택 아이템이면, 문서작성모드를 텍스트 모드로 전환하여 상기 문서작성영역에 키패드를 표시하고, 사용자에 의해 터치되는 상기 키패드의 제1 터치입력에 따른 텍스트를 상기 문서작성영역에 표시하는 텍스트처리과정과,
상기 문서작성영역 내 또는 상기 펜선택 아이템을 선택하는 제2 터치입력이 감지되면, 상기 문서작성모드를 이미지 모드로 전환하여 상기 키패드의 표시를 제거하고, 상기 문서작성영역에 제3 터치입력이 발생하면 상기 제3 터치입력에 의해 생성되는 이미지를 상기 문서작성영역에 표시하는 이미지처리과정과,
상기 텍스트 및 상기 이미지를 결합하여 문서를 생성하는 과정으로 이루어짐을 특징으로 하는 문서작성방법.
In the document creation method of a mobile terminal,
Displaying a document input window including a text mode selection item, a pen selection item, and a document creation area;
Detecting the touch position,
If the detected touch position is the text mode selection item, switch the document creation mode to the text mode to display a keypad in the document creation area, and display the text according to the first touch input of the keypad touched by a user. Text processing to be displayed in the composition area;
When a second touch input for selecting the pen selection item or in the document writing area is detected, the display of the keypad is removed by switching the document writing mode to the image mode and a third touch input is generated in the document writing area. An image processing step of displaying an image generated by the third touch input in the document preparation area;
And generating a document by combining the text and the image.
삭제delete 제1항에 있어서, 상기 이미지처리과정은,
상기 문서작성영역 내에서 감지되는 상기 제3 터치입력을 이미지로 표시하는 과정과,
상기 이미지모드 종료시 기 작성된 텍스트 및/또는 이미지에 상기 이미지를 결합시키는 과정으로 이루어짐을 특징으로 하는 문서작성방법.
The method of claim 1, wherein the image processing process,
Displaying the third touch input detected in the document creation area as an image;
And combining the image with a text and / or an image previously prepared at the end of the image mode.
제3항에 있어서, 상기 이미지처리과정에서 상기 문서작성영역 내의 상기 제2 터치입력 또는 상기 제3 터치입력은 펜터치 입력인 것을 특징으로 하는 문서작성방법.The method of claim 3, wherein the second touch input or the third touch input in the document preparation area is a pen touch input during the image processing. 제1항에 있어서, 상기 텍스트처리과정은
상기 문서작성영역의 일부에 상기 키패드를 표시하고, 상기 문서작성영역의 다른 일부에 상기 키패드를 통해 입력되는 텍스트를 표시하는 과정으로 이루어짐을 특징으로 하는 문서작성방법.
The method of claim 1, wherein the text processing process
And displaying the keypad on a part of the document preparation area and displaying the text input through the keypad on another part of the document preparation area.
제1항에 있어서, 상기 텍스트처리과정은
기 작성된 텍스트영역에 손가락 터치 발생시, 상기 손가락 터치 발생 위치에 커서를 위치시키는 과정을 더 구비함을 특징으로 하는 문서작성방법.
The method of claim 1, wherein the text processing process
And when a finger touch occurs in a pre-written text area, positioning a cursor at the finger touch occurrence position.
휴대단말기의 이메일 전송방법에 있어서,
텍스트모드 선택 아이템, 펜선택 아이템, 및 이메일 본문영역을 포함하는 이메일 입력창을 표시하는 과정과,
상기 이메일 입력창의 터치 위치를 감지하는 과정과,
상기 감지한 터치 위치가 상기 텍스트모드 선택 아이템이면, 이메일 모드를 텍스트 모드로 전환하여 상기 이메일 본문영역에 키패드를 표시하고, 사용자에 의해 터치되는 상기 키패드의 제1 터치입력에 따른 텍스트를 상기 이메일 본문영역에 표시하는 텍스트처리과정과,
상기 이메일 본문영역 내 또는 상기 펜선택 아이템을 선택하는 제2 터치입력이 감지되면, 상기 이메일 모드를 이미지 모드로 전환하여 상기 키패드의 표시를 제거하고, 상기 이메일 본문영역에 제3 터치입력이 발생하면 상기 제3 터치입력에 의해 생성되는 이미지를 상기 이메일 본문영역에 표시하는 이미지처리과정과,
전송요구시 텍스트 및 이미지를 결합된 이메일 본문을 전송하는 과정으로 이루어짐을 특징으로 하는 이메일 전송방법.
In the e-mail transmission method of the mobile terminal,
Displaying an email input window including a text mode selection item, a pen selection item, and an email body area;
Detecting a touch position of the email input window;
If the detected touch position is the text mode selection item, the e-mail mode is changed to a text mode to display a keypad in the e-mail body region, and the text according to the first touch input of the keypad touched by a user is displayed in the e-mail body. Text processing in the area,
When a second touch input for selecting the pen selection item in the email body region or the pen is detected, switching the email mode to an image mode removes the display of the keypad, and when a third touch input occurs in the email body region. An image processing process of displaying an image generated by the third touch input in the email body region;
E-mail transmission method comprising the step of transmitting the body of the e-mail combining the text and the image when the transfer request.
삭제delete 제7항에 있어서, 상기 이미지처리과정이,
상기 이메일 본문영역에서 감지되는 상기 제3 터치입력을 이미지로 표시하는 과정과,
상기 이미지모드 종료시 기 작성된 텍스트 및/또는 이미지에 상기 이미지를 결합시키는 과정으로 이루어짐을 특징으로 하는 이메일 전송방법.
The method of claim 7, wherein the image processing process,
Displaying the third touch input detected in the email body region as an image;
And combining the image with a text and / or an image previously prepared at the end of the image mode.
제9항에 있어서, 상기 텍스트와 이미지는 HTML 파일로 결합하는 것을 특징으로 하는 이메일 전송방법. 10. The method of claim 9, wherein the text and the image are combined into an HTML file. 제10항에 있어서, 상기 전송되는 텍스트 및 이미지 결합파일은 상기 텍스트 및 이미지의 링크 정보를 포함하는 것을 특징으로 하는 이메일 전송방법. The method of claim 10, wherein the transmitted text and image combined file comprises link information of the text and image. 제9항에 있어서, 상기 이미지처리과정에서 상기 이메일 본문영역의 상기 제2 터치입력 또는 상기 제3 터치입력은 펜터치 입력인 것을 특징으로 하는 이메일 전송방법. The method of claim 9, wherein the second touch input or the third touch input of the email body region is a pen touch input in the image processing. 제7항에 있어서, 상기 텍스트처리과정은
상기 이메일 본문영역의 일부에 키패드를 표시하고, 상기 이메일 본문영역의 다른 일부에 상기 키패드를 통해 입력되는 텍스트를 표시하는 과정으로 이루어짐을 특징으로 하는 이메일 전송방법.
The method of claim 7, wherein the text processing process
And displaying a keypad on a portion of the email body region and displaying text input through the keypad on another portion of the email body region.
제7항에 있어서, 상기 텍스트처리과정은
기작성된 텍스트영역에 손가락 터치 감지시 상기 손가락 터치 위치에 커서를 위치시키는 과정을 더 구비함을 특징으로 하는 이메일 전송방법.
The method of claim 7, wherein the text processing process
And placing a cursor at the finger touch position when a finger touch is detected in a written text area.
휴대단말기에 있어서,
손가락 및 펜터치 입력을 감지하는 터치패널과,
텍스트모드 선택 아이템, 펜선택 아이템, 및 문서작성영역을 포함하는 문서 입력창을 표시하며, 작성되는 문서를 표시하는 표시부와,
작성된 문서를 저장하는 저장부와,
상기 터치패널의 터치 위치를 감지하고, 상기 터치 위치가 상기 텍스트모드 선택 아이템이면, 문서작성모드를 텍스트 모드로 전환하여 상기 문서작성영역에 키패드를 표시하고, 사용자에 의해 터치되는 상기 키패드의 제1 터치입력에 따른 텍스트를 상기 문서작성영역에 표시하고, 상기 문서작성영역 내 또는 상기 펜선택 아이템을 선택하는 제2 터치입력이 감지되면, 상기 문서작성모드를 이미지 모드로 전환하여 상기 키패드의 표시를 제거하고, 상기 문서작성영역에 제3 터치입력이 발생하면 상기 제3 터치입력에 의해 생성되는 이미지를 상기 문서작성영역에 표시하며, 상기 텍스트 및 이미지를 결합하여 문서를 생성하는 제어부로 구성된 것을 특징으로 하는 휴대단말기.
In a mobile terminal,
A touch panel for sensing finger and pen touch input,
A display unit which displays a document input window including a text mode selection item, a pen selection item, and a document creation area, and displays a document to be created;
A storage unit for storing the created document,
When the touch position of the touch panel is sensed, and the touch position is the text mode selection item, a keypad is displayed in the document creation area by switching a document creation mode to a text mode, and the first touch of the keypad touched by a user. When the second touch input for displaying the text according to the touch input in the document writing area and selecting the pen selection item in the document writing area or the pen selection item is detected, the display of the keypad is changed by switching the document writing mode to the image mode. And a controller configured to display an image generated by the third touch input in the document creation area and to generate a document by combining the text and the image when a third touch input occurs in the document creation area. Handheld terminal.
제15항에 있어서, 상기 제어부는 상기 문서작성영역 내에서 감지되는 상기 제3 터치입력을 이미지로 표시하며, 상기 이미지모드 종료시 기 작성된 텍스트 및/또는 이미지에 상기 이미지를 결합시키는 것을 특징으로 하는 휴대단말기.The portable device of claim 15, wherein the controller is further configured to display the third touch input detected in the document creation area as an image, and to combine the image with text and / or an image previously created at the end of the image mode. terminal. 제16항에 있어서,상기 제어부는 텍스트와 이미지를 HTML 파일로 결합하는 것을 특징으로 하는 휴대단말기. The mobile terminal of claim 16, wherein the controller combines text and an image into an HTML file. 제16항에 있어서, 상기 문서작성영역 내의 상기 제2 터치입력 또는 상기 제3 터치입력은 펜터치 입력인 것을 특징으로 하는 휴대단말기.The mobile terminal of claim 16, wherein the second touch input or the third touch input in the document creation area is a pen touch input. 제15항에 있어서, 상기 제어부는
상기 문서작성영역의 일부에 상기 키패드를 표시하고, 상기 문서작성영역의 다른 일부에 상기 키패드를 통해 입력되는 텍스트를 표시하는 것을 특징으로 하는 휴대단말기.
The method of claim 15, wherein the control unit
And displaying the keypad on a part of the document preparation area, and displaying text input through the keypad on another part of the document preparation area.
제15항에 있어서, 상기 제어부는 기 작성된 텍스트영역에 손가락 터치 발생시, 상기 손가락 터치 발생 위치에 커서를 위치시키는 것을 특징으로 하는 휴대단말기.The mobile terminal of claim 15, wherein the control unit places a cursor at the finger touch generation position when a finger touch occurs in a pre-written text area. 삭제delete
KR1020120067236A 2012-06-22 2012-06-22 Apparatus and method for processing a document in terminal equipment KR102050355B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120067236A KR102050355B1 (en) 2012-06-22 2012-06-22 Apparatus and method for processing a document in terminal equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120067236A KR102050355B1 (en) 2012-06-22 2012-06-22 Apparatus and method for processing a document in terminal equipment

Publications (2)

Publication Number Publication Date
KR20140008538A KR20140008538A (en) 2014-01-22
KR102050355B1 true KR102050355B1 (en) 2019-11-29

Family

ID=50142249

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120067236A KR102050355B1 (en) 2012-06-22 2012-06-22 Apparatus and method for processing a document in terminal equipment

Country Status (1)

Country Link
KR (1) KR102050355B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102305184B1 (en) * 2019-07-04 2021-09-27 주식회사 포시에스 Method and apparatus for displaying electronic documents by input mode transfer

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110078560A1 (en) * 2009-09-25 2011-03-31 Christopher Douglas Weeldreyer Device, Method, and Graphical User Interface for Displaying Emphasis Animations for an Electronic Document in a Presentation Mode

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110015811A (en) * 2009-08-10 2011-02-17 삼성전자주식회사 Method for displaying letter in terminal with touch screen and apparatus thereof
KR101634386B1 (en) * 2009-11-17 2016-06-28 엘지전자 주식회사 Method for displaying contents and mobile terminal thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110078560A1 (en) * 2009-09-25 2011-03-31 Christopher Douglas Weeldreyer Device, Method, and Graphical User Interface for Displaying Emphasis Animations for an Electronic Document in a Presentation Mode

Also Published As

Publication number Publication date
KR20140008538A (en) 2014-01-22

Similar Documents

Publication Publication Date Title
US20230251735A1 (en) Apparatus and method for processing split view in portable device
KR102068604B1 (en) Apparatus and method for recognizing a character in terminal equipment
US8948819B2 (en) Mobile terminal
EP2565770B1 (en) A portable apparatus and an input method of a portable apparatus
JP6368455B2 (en) Apparatus, method, and program
EP2770422A2 (en) Method for providing a feedback in response to a user input and a terminal implementing the same
US8963864B2 (en) Mobile terminal and editing controlling method
JP2009524873A (en) Portable device capable of inputting and transmitting information using electronic pen, and information inputting and transmitting method using electronic pen
US20130169570A1 (en) Electronic equipment, storage medium and deletion controlling method
KR102143997B1 (en) Apparatus and method for processing an information list in electronic device
CN108646994B (en) Information processing method and device, mobile terminal and storage medium
KR20150098424A (en) Method and apparatus for processing input of electronic device
EP2704408B1 (en) Method and apparatus for processing user input
US9024900B2 (en) Electronic device and method of controlling same
KR102050355B1 (en) Apparatus and method for processing a document in terminal equipment
US9894497B2 (en) Method and apparatus for processing memo while performing audio communication in mobile terminal
KR101457801B1 (en) A transfer method of the memo using the mobile device in connection with touch memo pad and touch memo pad for inputting a memo
KR102157078B1 (en) Method and apparatus for creating electronic documents in the mobile terminal
JP2002312115A (en) Portable terminal device
US20150046803A1 (en) Electronic device and method for editing document thereof
KR20190134580A (en) Apparatus and method for processing an applications of mobile terminal
KR20140074856A (en) Apparatus and method for operating clipboard of electronic device
KR101584545B1 (en) Mobile terminal and method for controlling the same
KR20140047941A (en) Apparatus and method for processing note information in portable device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant