KR20140092459A - Method for exchanging data between memo layer and application and electronic apparatus having the same - Google Patents

Method for exchanging data between memo layer and application and electronic apparatus having the same Download PDF

Info

Publication number
KR20140092459A
KR20140092459A KR1020120156753A KR20120156753A KR20140092459A KR 20140092459 A KR20140092459 A KR 20140092459A KR 1020120156753 A KR1020120156753 A KR 1020120156753A KR 20120156753 A KR20120156753 A KR 20120156753A KR 20140092459 A KR20140092459 A KR 20140092459A
Authority
KR
South Korea
Prior art keywords
application
memo layer
memo
displayed
pen
Prior art date
Application number
KR1020120156753A
Other languages
Korean (ko)
Inventor
김화경
김성수
배주윤
전진하
차상옥
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120156753A priority Critical patent/KR20140092459A/en
Priority to US13/940,933 priority patent/US9110587B2/en
Priority to PCT/KR2013/006280 priority patent/WO2014010998A1/en
Priority to EP13816763.0A priority patent/EP2872981A4/en
Publication of KR20140092459A publication Critical patent/KR20140092459A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1431Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using a single graphics controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention provides a method and an electronic device for implementing natural conversation-type feedbacks. According to the present invention, in a terminal supporting a memo function using a touch panel, an application supporting the memo function is linked with another application so that written text images of the application supporting the memo function and feedbacks of the other application can be exchanged.

Description

메모 레이어와 어플리케이션 사이에 데이터를 주고 받는 방법 및 이를 구비한 전자장치{METHOD FOR EXCHANGING DATA BETWEEN MEMO LAYER AND APPLICATION AND ELECTRONIC APPARATUS HAVING THE SAME}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for exchanging data between a memo layer and an application,

본 발명은 터치 기능을 포함한 단말기에 관한 것으로, 더욱 상세하게는 터치 패널을 이용하여 메모 기능이 지원되는 메모 레이어가 상기 메모 레이어의 하위에서 이미 실행중인 어플리케이션과 연계되고, 상기 메모 레이어와 상기 어플리케이션 사이에 데이터를 주고 받는 방법 및 장치에 관한 것이다.The present invention relates to a terminal including a touch function, and more particularly, to a terminal including a touch function, a memo layer supporting a memo function using a touch panel is associated with an application already executed under the memo layer, And more particularly, to a method and an apparatus for exchanging data with a mobile terminal.

최근 휴대용 전자 기기가 늘어나면서 직관적인 입/출력이 가능한 사용자 인터페이스 (UI: User Interface)의 요구가 증대하고 있다. 예컨대 키보드, 키 패드, 마우스 등의 별도 구성을 이용하여 정보를 입력하는 전통적인 UI 방식에서 손가락이나 전자 전자 펜 등을 이용하여 화면을 직접 터치하거나 음성을 이용하여 정보를 입력하는 직관적 UI 방식으로 점차 진화하고 있다.2. Description of the Related Art [0002] With the recent increase in portable electronic devices, a demand for a user interface (UI) capable of intuitive input / output is increasing. For example, in the conventional UI method of inputting information using a separate constitution such as a keyboard, a keypad, and a mouse, the UI is gradually evolved into an intuitive UI method of directly touching the screen using a finger or an electronic pen or inputting information using voice .

뿐만 아니라, UI 기술은 사용자의 편의를 고려할 뿐만 아니라 직관적이면서 인간 중심의 개발이 이루어지고 있다. 그 대표적인 UI 기술로 사용자가 음성으로 휴대용 전자 기기와 대화하고, 이를 통해 원하는 정보를 입력하거나 원하는 정보를 얻는 것이 가능하게 되었다.In addition, UI technology is not only convenient for users but also intuitive and human-centered. The representative UI technology enables a user to talk with a portable electronic device by voice, thereby inputting desired information or obtaining desired information.

그리고 대표적인 사용자의 휴대용 전자 기기인 스마트 폰에는 다양한 어플리케이션을 설치하고, 상기 설치한 어플리케이션을 통해 새로운 기능을 이용할 수 있는 것이 일반적이다.In general, a smartphone, which is a portable electronic device of a typical user, can install various applications and use new functions through the installed applications.

하지만 스마트 폰에 설치된 어플리케이션은 단독으로 구동하는 것이 일반적임에 따라, 복수의 어플리케이션이 연동하여 새로운 기능 또는 결과를 사용자에게 제공하는 것이 일반적이지는 않았다.However, since an application installed in a smart phone is generally operated by itself, it is not common that a plurality of applications are linked to provide a new function or a result to a user.

예컨대 스케줄 관리를 지원하는 어플리케이션에서 직관적 UI를 지원하는 단말기이라 하더라도, 해당 어플리케이션에서 지원하는 UI만을 이용하여 정보를 입력할 수 있다.For example, even in a terminal supporting an intuitive UI in an application supporting schedule management, information can be input using only the UI supported by the application.

또한, 터치 패널을 이용하여 메모 기능을 지원하는 단말기에서 사용자가 손가락, 전자 펜 등의 입력 수단을 이용하여 정보를 메모하는 용도로만 주로 활용할 뿐 메모 내용을 다른 어플리케이션에 연계하여 활용하는 방안을 마련하고 있지 않다.In addition, a method of using a memo content in connection with other applications is provided in a terminal that supports a memo function by using a touch panel, but is mainly utilized only for the purpose of memoing information by means of input means such as a finger or an electronic pen It is not.

또한, 단말기에서 사용자의 손가락 등의 터치 이외에 스타일러스 펜과 같은 전자 펜을 이용하여 입력 수단이 제공되고 있다. 사용자는 상기 전자 펜 입력 수단을 이용하여 보다 세밀한 터치 등을 이용할 수 있다. 하지만 단말기를 운용함에 있어서 손가락으로 처리 가능한 기능들이 잘 지원되고 있기 때문에 특별한 경우를 제외하고 전자 펜 입력 수단을 이용하는 사례가 드물다.In addition, the terminal is provided with an input means using an electronic pen such as a stylus pen in addition to the touch of the user's finger or the like. The user can use a more detailed touch or the like by using the electronic pen input means. However, there are few cases in which the electronic pen input means is used except for special cases because the functions that can be handled by the finger are well supported in operating the terminal.

또한 펜 입력 수단은 단순히 표시부에 출력된 특정 영역을 터치 하는 수준에 머물고 있어, 상기 펜 입력 수단을 기반으로 단말기의 다양한 기능 운용이 요구된다. Further, since the pen input means remains at a level of simply touching a specific area displayed on the display unit, various functions of the terminal are required to be operated based on the pen input means.

따라서, 본 발명의 목적은 터치 패널을 이용하여 메모 기능을 지원하는 단말기에서 메모 기능이 지원되는 어플리케이션이 다른 어플리케이션과 연계되고 상기 다른 어플리케이션으로부터 피드백을 제공받는 방법 및 장치를 제공하는데 있다.SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a method and apparatus in which an application that supports a memo function in a terminal supporting a memo function using a touch panel is linked to another application and receives feedback from the other application.

본 발명의 실시예에 따른 터치스크린을 포함하는 전자장치의 어플리케이션 제어 방법은 어플리케이션이 실행되어 상기 터치스크린에 표시되고, 상기 어플리케이션 실행중에 상기 터치스크린에서 미리 결정된 제스처가 검출되고, 필기 인식이 되고 상기 어플리케이션에 중첩되어 표시되며, 상기 어플리케이션에게 제공 할 데이터가 표시되는 필기 입력 영역과 상기 어플리케이션으로부터 제공받은 데이터가 표시되는 표시 영역을 포함하는 메모 레이어가 표시되고, 상기 메모 레이어의 상기 필기 입력 영역에 필기 이미지를 입력 받아 상기 필기 입력 영역에 표시되고, 상기 입력된 필기 이미지가 인식되고 미리 설정된 데이터와 비교하고, 상기 비교 결과에 따라, 상기 어플리케이션으로부터 피드백이 상기 메모 레이어의 상기 표시 영역에 표시된다. A method of controlling an application of an electronic device including a touch screen according to an exemplary embodiment of the present invention includes displaying an application on the touch screen, displaying a predetermined gesture on the touch screen during execution of the application, A memo layer including a handwriting input area for displaying data to be provided to the application and a display area for displaying data provided from the application is displayed superimposed on the application, An input image is displayed on the handwriting input area, the input handwriting image is recognized and compared with preset data, and feedback from the application is displayed in the display area of the memo layer according to the comparison result.

일측에 따르면, 상기 필기 이미지와 상기 피드백은 복수로 구성될 수 있으며, 상기 필기 입력 영역에 나타나는 상기 필기 이미지들에 대응되는 상기 피드백들이 각각 서로 다른 상기 표시 영역에 표시될 수 있다.According to one aspect, the handwritten image and the feedback may be composed of a plurality of, and the feedback corresponding to the handwritten images appearing in the handwriting input area may be displayed in different display areas, respectively.

일측에 따르면, 상기 메모 레이어는 반투명으로 형성되어 상기 어플리케이션이 실행 중인 화면 위에 오버 랩되어 표시되면, 상기 어플리케이션이 상기 메모 레이어를 통하여 나타날 수 있다. According to one aspect, when the memo layer is formed in a semi-transparent state and overlapped on the screen in which the application is running, the application may be displayed through the memo layer.

일측에 따르면, 상기 메모 레이어는 복수로 구성될 수 있고, 상기 어플리케이션으로부터 수신되는 피드백에 따라서 상기 복수의 메모 레이어가 다중 레이어로 겹쳐서 나타날 수 있다. According to one aspect, the memo layer may be composed of a plurality of memo layers, and the plurality of memo layers may overlap and appear in multiple layers according to feedback received from the application.

일측에 따르면, 상기 피드백은 복수로 구성될 수 있으며, 상기 메모 레이어의 일부 영역에 나타날 수 있다. According to one aspect, the feedback may be composed of a plurality, and may appear in a part of the memo layer.

일측에 따르면, 상기 복수의 피드백은 상기 어플리케이션을 실행하는 명령어로 형성될 수 있고, 상기 복수의 피드백이 나타난 일부 영역이 선택되면, 상기 선택된 일부 영역에 있는 상기 복수의 명령어가 실행될 수 있다. According to one aspect, the plurality of feedbacks may be formed by an instruction that executes the application, and when a partial region in which the plurality of feedbacks is displayed is selected, the plurality of instructions in the selected partial region may be executed.

일측에 따르면, 상기 어플리케이션 대신 다른 어플리케이션이 실행되는 경우, 상기 다른 어플리케이션과 연동된 다른 메모 레이어가 실행될 수 있다. According to one aspect, when another application is executed instead of the application, another memo layer linked with the other application can be executed.

일측에 따르면, 상기 다른 메모 레이어에 나타나는 상기 피드백은 상기 다른 어플리케이션의 기능에 따라서 다르게 표시될 수 있다. According to one aspect, the feedback displayed on the other memo layer may be displayed differently depending on the function of the other application.

일측에 따르면, 상기 필기 이미지와 상기 피드백은 상기 메모 레이어의 일부 영역에 순차적으로 나타날 수 있다. According to one aspect, the handwritten image and the feedback may appear sequentially in some areas of the memo layer.

일측에 따르면, 상기 필기 이미지와 상기 피드백은 대화형일 수 있다. According to one aspect, the handwritten image and the feedback may be interactive.

일측에 따르면, 상기 필기 이미지 또는 상기 피드백은 문자, 피드백, 이미지, 패턴, 숫자, 특수문자, 이메일 주소 중 적어도 하나일 수 있다. According to one aspect, the handwritten image or feedback may be at least one of a character, a feedback, an image, a pattern, a number, a special character, or an email address.

본 발명의 다른 실시예에 따른 터치스크린을 포함하는 전자장치는 어플리케이션이 실행되어 상기 터치스크린에 표시되고, 필기 인식이 되고 상기 어플리케이션에 중첩되어 표시되며 상기 어플리케이션에게 제공 할 데이터가 표시되는 필기 입력 영역과, 상기 어플리케이션으로부터 제공받은 데이터가 표시되는 표시 영역을 포함하는 메모 레이어를 표시하고, 상기 메모 레이어의 상기 필기 입력 영역에 필기 이미지를 입력 받아 상기 필기 입력 영역에 표시하고, 상기 어플리케이션 실행중에 상기 터치스크린에서 미리 결정된 제스처를 검출하고, 상기 입력된 필기 이미지가 인식되고 미리 설정된 데이터와 비교하며, 상기 비교 결과에 따라, 상기 어플리케이션으로부터 피드백이 상기 메모 레이어의 상기 표시 영역에 나타난다. An electronic device including a touch screen according to another embodiment of the present invention includes a handwriting input area for displaying an application to be displayed on the touch screen, A memo layer including a display area in which data provided from the application is displayed; a handwritten image is input to the handwriting input area of the memo layer and displayed in the handwriting input area; Detecting a predetermined gesture on the screen, comparing the input handwritten image with recognized and pre-set data, and providing feedback from the application to the display area of the memo layer according to the comparison result.

일측에 따르면, 상기 필기 이미지와 상기 피드백은 복수로 구성될 수 있으며, 상기 필기 입력 영역에 나타나는 상기 필기 이미지들에 대응되는 상기 피드백들이 각각 서로 다른 상기 표시 영역에 표시될 수 있다. According to one aspect, the handwritten image and the feedback may be composed of a plurality of, and the feedback corresponding to the handwritten images appearing in the handwriting input area may be displayed in different display areas, respectively.

일측에 따르면, 상기 피드백은 복수로 구성될 수 있으며, 상기 메모 레이어의 일부 영역에 나타날 수 있다. According to one aspect, the feedback may be composed of a plurality, and may appear in a part of the memo layer.

일측에 따르면, 상기 복수의 피드백은 상기 어플리케이션을 실행하는 명령어로 형성될 수 있고, 상기 복수의 피드백이 나타난 일부 영역이 선택되면, 상기 선택된 일부 영역에 있는 상기 복수의 명령어가 실행될 수 있다. According to one aspect, the plurality of feedbacks may be formed by an instruction that executes the application, and when a partial region in which the plurality of feedbacks is displayed is selected, the plurality of instructions in the selected partial region may be executed.

일측에 따르면, 상기 어플리케이션 대신 다른 어플리케이션이 실행되는 경우, 상기 다른 어플리케이션과 연동된 다른 메모 레이어가 실행될 수 있다. According to one aspect, when another application is executed instead of the application, another memo layer linked with the other application can be executed.

일측에 따르면, 상기 다른 메모 레이어에 나타나는 상기 피드백은 상기 다른 어플리케이션의 기능에 따라서 다르게 표시될 수 있다.According to one aspect, the feedback displayed on the other memo layer may be displayed differently depending on the function of the other application.

터치 패널을 이용하여 메모 기능을 지원하는 단말기에서, 메모 기능 어플리케이션과 다른 어플리케이션이 서로 연계되어 상기 메모 기능 어플리케이션의 필기 이미지와 상기 다른 어플리케이션의 피드백을 서로 주고 받아 자연스런 대화형 피드백이 나타나는 전자 장치의 구성이 제공된다.In a terminal supporting a memo function using a touch panel, a memo function application and another application are linked to each other to receive a handwritten image of the memo function application and feedback of the other application, / RTI >

도 1은 본 발명의 실시 예에 따른 전자 장치의 구성을 개략적으로 나타낸 도면이다.
도 2는 본 발명의 실시 예에 따른 전자 장치의 어플리케이션 제어를 지원하기 위한 단말기(100)의 구성을 보다 상세히 나타낸 도면이다.
도 3는 본 발명의 제어부(160) 구성을 보다 상세히 나타낸 도면이다.
도 4는 본 발명의 실시 예에 따른 단말기에서 필기 기반 NLI 기술을 지원하기 위한 명령 처리부(167)의 구성 예를 보이고 있다.
도 5은 본 발명의 실시 예에 따른 구동 엔진을 이용하여 어플리케이션과 메모 레이어가 제어되는 도면이다.
도 6은 본 발명의 실시 예에 따른 어플리케이션과 메모 레이어의 상호관계를 설명하기 위한 순서도이다.
도 7은 본 발명의 실시 예에 따른 하위 어플리케이션과 메모 레이어 사이의 문답을 설명하기 위한 도면이다.
도 8은 본 발명의 다른 실시 예에 따른 하위 어플리케이션과 메모 레이어 사이의 문답을 설명하기 위한 도면이다.
도 9는 본 발명의 또 다른 실시 예에 따른 하위 어플리케이션과 메모 레이어를 이용하여 복수의 사용자에게 메시지를 보내는 방법을 설명하기 위한 도면이다.
도 10은 도 9의 응용 예로써, 메모 레이어를 이용하여 송신인의 정보를 변경하는 방법을 설명하기 위한 도면이다.
도 11은 메모 레이어를 이용하여 이모티콘 이미지를 호출하는 방법을 설명하기 위한 도면이다.
도 12는 메일 보내기를 실행할 때 메일의 일부분이 빈상태인 경우 메모 레이어가 필요한 항목에 대해서 피드백을 주는 방법을 설명하기 위한 도면이다.
도 13은 메모 레이어를 이용한 웹페이지 북마크 등록 방법을 나타낸 도면이다.
도 14는 메모 레이어를 이용한 웹페이지를 다른 사용자와 공유하는 방법을 나타낸 도면이다.
도 15는 메모 레이어를 이용하여 파일들이 저장된 마이폴더에서 정렬하는 방법을 나타낸 도면이다.
도 16은 메모 레이어를 이용하여 그림파일이 저장된 갤러리에서 정렬하는 방법을 나타낸 도면이다.
도 17은 메모 레이어를 이용하여 알람을 세팅하는 방법을 나타낸 도면이다.
도 18은 메모 레이어를 이용하여 계정을 등록하는 방법을 나타낸 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS Fig. 1 is a schematic view showing the configuration of an electronic device according to an embodiment of the present invention; Fig.
2 is a detailed diagram illustrating the configuration of a terminal 100 for supporting application control of an electronic device according to an embodiment of the present invention.
3 is a detailed block diagram of the controller 160 of the present invention.
FIG. 4 illustrates an exemplary configuration of a command processing unit 167 for supporting handwritten NLI technology in a terminal according to an embodiment of the present invention.
5 is a diagram illustrating an application and a memo layer being controlled using a driving engine according to an embodiment of the present invention.
6 is a flowchart for explaining a correlation between an application and a memo layer according to an embodiment of the present invention.
7 is a diagram for explaining a dialog between a sub-application and a memo layer according to an embodiment of the present invention.
8 is a diagram for explaining a dialog between a sub-application and a memo layer according to another embodiment of the present invention.
9 is a view for explaining a method of sending a message to a plurality of users using a sub-application and a memo layer according to another embodiment of the present invention.
10 is a diagram for explaining a method of changing information of a sender using a memo layer as an application example of Fig.
11 is a diagram for explaining a method of calling an emoticon image using a memo layer.
12 is a diagram for explaining a method of giving feedback to an item in which the memo layer is required when a part of the mail is empty when executing mail sending.
13 is a diagram showing a method of registering a web page bookmark using a memo layer.
14 is a diagram illustrating a method of sharing a web page using a memo layer with another user.
15 is a diagram illustrating a method of sorting files in a My Folder using a memo layer.
16 is a diagram illustrating a method of arranging images in a gallery in which picture files are stored using a memo layer.
17 is a diagram showing a method of setting an alarm using a memo layer.
18 is a diagram illustrating a method of registering an account using a memo layer.

이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 실시예를 상세하게 설명한다. 도면에서 동일한 참조번호 또는 부호는 동일한 구성 요소 또는 부품를 지칭하며, 각 도면에서 구성 요소의 크기나 두께는 도시의 편의를 위해 과장되어 있을 수 있다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals or signs refer to the same components or parts, and the sizes and thicknesses of components in the drawings may be exaggerated for convenience of illustration.

실시 예를 설명함에 있어서 본 발명이 속하는 기술분야에 익히 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 또한, 실질적으로 동일한 구성과 기능을 가진 구성 요소들에 대해서는 상세한 설명을 생략하도록 한다.In the following description of the embodiments of the present invention, descriptions of techniques which are well known in the technical field of the present invention and are not directly related to the present invention will be omitted. In addition, detailed description of components having substantially the same configuration and function will be omitted.

마찬가지의 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 따라서 본 발명은 첨부한 도면에 그려진 상대적인 크기나 간격에 의해 제한되어지지 않는다.For the same reason, some of the elements in the accompanying drawings are exaggerated, omitted, or schematically shown, and the size of each element does not entirely reflect the actual size. Accordingly, the present invention is not limited by the relative size or spacing depicted in the accompanying drawings.

후술될 본 발명의 실시 예에서는 단말기에 자연어 인터페이스 (NLI: Natural Language Interaction)로 필기 기반의 UI 기술 (이하 "필기 기반 NLI 기술"이라 칭함)을 적용하여, 상기 필기 기반 NLI 기술이 적용된 단말기에서 메모 기능을 이용하여 사용자와의 문답 절차를 수행하는 것이 가능하도록 한다. In the embodiment of the present invention described below, a handwriting-based UI technique (hereinafter referred to as "handwriting-based NLI technique") is applied to a terminal as a natural language interface (NLI) Function to enable the user to perform the dialogue procedure with the user.

상기 NLI 기술은 이해와 생성 능력을 보통 포함하는데, 이런 기능은 입력한 것을 컴퓨터가 이해하고, 사람이 이해하기 쉽게 텍스트를 표시할 수 있게 해준다.The NLI technology usually includes comprehension and generation capabilities, which allow the computer to understand what is entered and display text for human comprehension.

이와 같이 인간과 전자 기기 간에 자연어로 대화를 하게 해주는 자연 언어 이해의 한 응용이라 할 수 있다.Thus, it is an application of natural language understanding that enables conversation between human and electronic devices in natural language.

예컨대 단말기에서 필기 기반 NLI 기술을 이용하여 사용자에 의해 입력되는 명령을 수행하거나 상기 입력된 명령을 수행하기 위해 필요한 정보를 문답 절차를 통해 사용자로부터 획득한다.For example, the terminal performs a command input by the user using the handwritten NLI technology or acquires information necessary for performing the input command from the user through a dialogue procedure.

이와 같이 본 발명에서 필기 기반 NLI 기술을 단말기에 적용하기 위해 바람직하기로는, 메모 모드와 명령 처리 모드 상호 간의 전환이 필기 기반 NLI 기술을 통해 유기적으로 수행될 수 있어야 할 것이다. 상기 메모 모드는 단말기에서 구동중인 어플리케이션에 의해 지원되는 화면 상에서 손가락, 전자 펜 등의 입력 수단을 이용한 메모를 지원하는 상태를 포함한다. 또한, 상기 명령 처리 모드는 메모 모드를 통해 입력된 메모 내용을 현재 구동되고 있는 어플리케이션에 따른 정보와 연동하여 처리하는 동작을 지원한다.As described above, in order to apply the handwriting-based NLI technology to the terminal as described above, it is desirable that the switching between the memo mode and the command processing mode be organically performed through the handwritten NLI technology. The memo mode includes a state of supporting a memo using an input means such as a finger or an electronic pen on a screen supported by an application running on the terminal. In addition, the command processing mode supports an operation of processing the memo contents inputted through the memo mode in association with the information according to the currently running application.

한편 상기 메모 모드와 명령 처리 모드 상호 간의 전환 방법의 일 예로 전자 펜에 구비된 버튼의 눌림, 즉 하드웨어적인 신호의 발생에 의한 모드 전환이 가능할 수 있다.Meanwhile, as an example of a method of switching between the memo mode and the command processing mode, it is possible to switch a mode by pressing a button provided on the electronic pen, that is, by generating a hardware signal.

이하 설명에서는 전자 펜을 메모 기능을 지원하기 위한 대표적인 입력 수단으로써 설명할 것이다. 하지만 하기에서의 설명에 따른 본 발명이 입력 수단으로 전자 펜을 사용하는 단말기에만 적용 가능한 것은 아니다.In the following description, the electronic pen will be described as typical input means for supporting the memo function. However, the present invention according to the following description is not applicable to a terminal using an electronic pen as an input means.

다시 말해, 본 발명에서 제안하고 있는 모든 실시 예들은 터치 패널 상에서 정보의 입력이 가능한 어떠한 수단이라도 입력 수단으로 사용될 수 있음은 자명하다.In other words, it is apparent that all of the embodiments proposed in the present invention can be used as input means by any means capable of inputting information on the touch panel.

그리고 본 발명에서 필기 기반 NLI 기술을 이용하여 단말기가 사용자와의 문답에 의해 원하는 정보를 입력 받고, 이를 처리한 결과를 사용자에게 제공하기 위해서는 사전에 상호 약속에 의한 정보를 공유하는 것이 바람직하다.In the present invention, it is preferable that the terminal share information with each other in advance in order to receive the desired information through the dialog with the user using the handwritten NLI technology and to provide the result of the processing to the user.

예컨대 동작 모드의 전환을 요청하기 위해 기호, 패턴, 문자, 이들의 조합 중 적어도 하나를 사용할 것을 약속하거나 동작 인식 기능을 통해 하나의 동작을 사용할 것을 약속할 수 있다. 이때 요청될 대표적인 동작 모드의 전환은 메모 모드에서 명령 처리 모드 또는 명령 처리 모드에서 메모 모드로의 전환이 될 수 있다.For example, it may be promised to use at least one of a symbol, a pattern, a character, a combination thereof to request switching of the operation mode, or it may be promised to use one operation through the operation recognition function. The switching of the typical operation mode to be requested at this time may be a transition from the command processing mode in the memo mode or the memo mode in the command processing mode.

한편 상기 기호, 패턴, 문자, 이들의 조합 등에 상응한 입력 정보를 약속할 시에 사용자의 메모 패턴 등을 분석하고, 상기 분석한 결과를 고려하여 결정하는 것이 바람직할 수 있다. 이는 사용자가 원하는 정보를 직관적으로 입력할 수 있는 편리함을 제공할 것이다.On the other hand, it may be desirable to analyze the memo pattern of the user when promising the input information corresponding to the symbols, patterns, characters, combinations thereof, etc., and to determine the result based on the analyzed result. This will provide the user with the convenience of intuitively entering the desired information.

후술될 본 발명에 따른 상세한 설명에서는 다양한 어플리케이션이 구동된 상황에서 필기 기반 NLI 기술을 적용하여 메모 기능을 통해 상기 구동중인 어플리케이션을 제어하고, 그 결과를 출력하는 시나리오들을 서로 다른 실시 예로써 상세히 설명할 것이다.In the following detailed description of the present invention, scenarios for controlling the running application through a memo function by applying handwritten NLI technology in a situation where various applications are driven and outputting the results are described in detail as different embodiments will be.

도 1은 본 발명의 실시 예에 따른 전자 장치의 구성을 개략적으로 나타낸 도면이다.BRIEF DESCRIPTION OF THE DRAWINGS Fig. 1 is a schematic view showing the configuration of an electronic device according to an embodiment of the present invention; Fig.

도 1을 참조하면, 본 발명의 전자 장치(10)은 단말기(100)와 전자 펜(200)을 포함할 수 있다.Referring to FIG. 1, an electronic device 10 of the present invention may include a terminal 100 and an electronic pen 200.

이와 같은 구성을 가지는 본 발명의 전자 장치(10)는 전자 펜(200)을 파지한 상태에서 단말기(100)의 표시부(140) 상에 특정 입력 동작을 수행할 때, 전자 펜(200)의 펜 상태 및 전자 펜(200)의 제스처 인식을 기반으로 특정 펜 기능 명령어에 해당하는 사용자 기능이 수행되도록 지원할 수 있다.The electronic device 10 of the present invention having the above-described structure is configured such that when performing a specific input operation on the display unit 140 of the terminal 100 while holding the electronic pen 200, And a gesture recognition of the electronic pen 200. The user function corresponding to the specific pen function command can be performed based on the gesture recognition of the electronic pen 200. [

추가로 본 발명의 전자 장치(10)는 전자 펜(200)의 펜 상태 및 전자 펜(200)의 제스처 인식 값과 함께 현재 실행되고 있는 응용 프로그램의 종류 정보를 기반으로 특정 펜 기능 명령어에 해당하는 사용자 기능이 수행되도록 지원할 수 있다.In addition, the electronic device 10 of the present invention may be configured to determine whether or not a pen corresponding to a specific pen function command is selected based on the pen state of the electronic pen 200 and the gesture recognition value of the electronic pen 200, User functions can be supported to be performed.

이에 따라, 본 발명의 전자 장치(10)는 사용자가 전자 펜(200)을 이용하여 단말기의 다양한 입력 동작을 보다 간단하고 빠르게 수행할 수 있도록 지원할 수 있다.Accordingly, the electronic device 10 of the present invention can support a user to perform various input operations of the terminal more easily and quickly using the electronic pen 200. [

단말기(100)는 기능 운용에 따른 화면을 출력하는 표시 패널(미표시)과, 전자 펜(200) 운용을 위한 펜 인식 패널(미표시)을 포함할 수 있다.The terminal 100 may include a display panel (not shown) for outputting a screen according to the function operation and a pen recognition panel (not shown) for operating the electronic pen 200.

또한 단말기(100)는 접촉 터치 이벤트 지원을 위한 터치 패널을 더 포함할 수 있으며, 상기 표시 패널 및 상기 펜 인식 패널을 구동하기 위한 구동 모듈과 전원부 및 기타 단말기를 구성하는 다양한 요소들을 실장하는 수납부를 더 포함할 수 있다.In addition, the terminal 100 may further include a touch panel for supporting a touch event, and includes a drive module for driving the display panel and the pen recognition panel, a power source, and a storage unit for mounting various elements constituting the terminal .

상술한 단말기(100)는 상기 펜 인식 패널에서 수집되는 펜 터치 이벤트에 해당하는 제스처를 인식하여 제스처 정보를 수집하고, 또한 전자 펜(200)으로부터 전달되는 펜 상태 정보를 수집할 수 있다. 그리고 단말기(100)는 수집되는 제스처 정보와 펜 상태 정보를 기반으로 사전 정의된 특정 펜 기능 명령어에 해당하는 사용자 기능 운용을 지원한다. 이때, 단말기(100)는 현재 활성화된 적어도 하나의 응용 프로그램 종류에 따라 사전 정의된 다른 명령어에 해당하는 사용자 기능 운용을 지원할 수도 있다. The terminal 100 may collect gesture information by recognizing a gesture corresponding to a pen touch event collected from the pen recognition panel and collect pen state information transmitted from the electronic pen 200. [ The terminal 100 supports the user function operation corresponding to the specific pen function command predefined based on the collected gesture information and the pen status information. At this time, the terminal 100 may support a user function operation corresponding to another predefined command according to at least one application program type currently activated.

단말기(100)의 세부 구성 및 기능 운용에 대해서는 후술하는 도면을 참조하여 보다 상세히 설명하기로 한다.The detailed configuration and functioning of the terminal 100 will be described in more detail with reference to the following drawings.

전자 펜(200)은 펜대(220)와 펜대(220) 끝에 배치된 펜촉(210)으로 구성될 수 있다. 또한, 전자 펜(200)은 펜촉(210)에 인접된 영역의 펜대(220) 내부에 배치되는 코일(230) 및 코일(230)에 의해 발생하는 전자기 유도 값을 변경할 수 있는 버튼(240)을 더 포함하여 구성될 수 있다. 이와 같은 구성을 가지는 본 발명의 전자 펜(200)은 정전유도 방식을 지원하는 구성으로서 상기 코일(230)에 의하여 펜 인식 패널(143)의 일정 지점에 자기장이 형성되며, 단말기(100)가 해당 자기장 위치를 검출하여 터치 지점을 인식하도록 지원할 수 있다. The electronic pen 200 may be composed of a pen base 220 and a pen tip 210 disposed at the end of the pen base 220. The electronic pen 200 further includes a coil 230 disposed inside the pen 220 of the area adjacent to the pen tip 210 and a button 240 for changing the electromagnetic induction value generated by the coil 230 And the like. The electronic pen 200 according to the present invention having such a configuration supports the electrostatic induction method, and a magnetic field is formed at a certain point of the pen recognition panel 143 by the coil 230, It is possible to detect the magnetic field position and to recognize the touch point.

여기서, 펜촉(210)은 상기 표시 패널 또는 상기 표시 패널 상부에 터치 패널이 배치된 경우 터치 패널에 접촉되는 구성으로 전자 펜(200)이 표시부(140) 상에 특정 지점을 지시하는 것을 보여주기 위한 구성이 될 수 있다.Here, the pen point 210 is configured to contact the touch panel when the touch panel is disposed on the display panel or the display panel, and to indicate that the electronic pen 200 indicates a specific point on the display unit 140 . ≪ / RTI >

이러한 펜촉(210)은 펜대(220)의 끝단에 배치되며 코일(230)이 펜촉(210)으로부터 일정 거리 이격된 위치에 배치되기 때문에 전자 펜(200)을 파지한 상태에서 글쓰기 등의 입력 작업을 하게 되는 경우 펜촉(210) 접촉 지점과 코일(230)에 의한 자기장 형성 지점 간의 거리 보상이 수행될 수 있다.Since the pen tip 210 is disposed at the end of the pen base 220 and the coil 230 is disposed at a position spaced apart from the pen point 210 by a predetermined distance, an input operation such as writing is performed while gripping the electronic pen 200 The distance compensation between the contact point of the pen tip 210 and the magnetic field forming point by the coil 230 can be performed.

사용자는 상술한 거리 보상에 따라 펜촉(210)을 표시 패널(141)의 일정 지점을 지시하면서 글쓰기 또는 그림 그리기 작업, 아이템의 선택과 배치 등의 입력 동작을 수행할 수 있다. 특히 사용자는 펜촉(210)을 상기 표시 패널에 접촉한 상태에서 특정 제스처 입력을 수행할 수 있다.The user can perform an input operation such as writing or drawing operation, item selection and placement, etc., while pointing the pen tip 210 at a certain point on the display panel 141 according to the distance compensation described above. Particularly, the user can perform a specific gesture input while the pen tip 210 is in contact with the display panel.

상술한 전자 펜(200)은 상기 펜 인식 패널에 일정 거리 이내로 접근하게 되면, 코일(230)에 의한 자기장을 상기 펜 인식 패널 일정 지점에 발생시킬 수 있다.When the electronic pen 200 approaches the pen recognition panel within a predetermined distance, a magnetic field generated by the coil 230 can be generated at a predetermined position of the pen recognition panel.

이를 위하여 단말기(100)는 상기 펜 인식 패널에 형성되는 자기장 스캔 작업을 실시간 또는 일정 주기로 수행할 수 있다. 또한 전자 펜(200) 운용 모드 활성화 시점에 상기 펜 인식 패널 활성화가 수행될 수도 있다.To this end, the terminal 100 may perform a magnetic field scan operation on the pen recognition panel in real time or at regular intervals. Also, the activation of the pen recognition panel may be performed at the time of activation of the electronic pen 200 operation mode.

특히, 전자 펜(200)이 상기 펜 인식 패널에 접근하는 근접 거리에 따라 상기 펜 인식 패널은 해당 펜 상태를 다르게 인식할 수 있다. 즉, 상기 펜 인식 패널은 상기 표시 패널로부터 또는 상기 펜 인식 패널로부터 제1의 일정 거리 이내에 위치하는 경우 전자 펜(200)을 접촉 상태로 인식할 수 있다.In particular, the pen recognition panel may recognize the pen state differently depending on a proximity distance at which the electronic pen 200 approaches the pen recognition panel. That is, when the pen recognition panel is positioned within a first predetermined distance from the display panel or the pen recognition panel, the electronic pen 200 can be recognized as a contact state.

또한 상기 펜 인식 패널은 전자 펜(200)이 상기 제1의 일정 거리 이상과 제2의 일정 거리 이하의 범위에 배치된 경우 전자 펜(200)을 호버링(Hovering) 상태로 인식할 수 있다. 추가로 전자 펜(200)이 상기 펜 인식 패널로부터 제2의 일정 거리 이상의 범위에서 인식 가능 범주 이내에 위치하는 경우 에어(air) 상태로 인식할 수 있다. 이와 같이 단말기(100)의 상기 펜 인식 패널은 전자 펜(200)과의 이격 거리에 따라 다양한 펜 상태 정보를 제공할 수 있다.In addition, the pen recognition panel may recognize the electronic pen 200 as a hovering state when the electronic pen 200 is disposed within a range of the first predetermined distance or more and a second predetermined distance or less. In addition, when the electronic pen 200 is positioned within a recognizable range within a range of the second predetermined distance or more from the pen recognition panel, it can be recognized as an air state. As described above, the pen recognition panel of the terminal 100 can provide various pen status information according to the distance from the electronic pen 200. [

한편, 전자 펜(200)에 마련된 버튼(240)은 사용자에 의하여 눌려질 수 있으며, 버튼(240)이 눌려짐에 따라 특정 신호 값이 전자 펜(200)에서 발생하여 상기 펜 인식 패널에 전달될 수 있다.Meanwhile, the button 240 provided on the electronic pen 200 can be pressed by the user. As the button 240 is pressed, a specific signal value is generated in the electronic pen 200 and transmitted to the pen recognition panel .

이를 위하여, 버튼(240)의 인접된 영역에는 특정 커패시터나 추가 코일 또는 정전 유도에 변화를 줄 수 있는 특정 소자가 배치될 수 있고, 버튼(240) 터치 또는 눌림에 따라 해당 소자가 상기 코일(230)에 연결됨으로써 상기 펜 인식 패널에서 유도되는 전자기 유도 값을 변화시켜 전자 펜(200)의 버튼(240) 눌림을 인식하도록 설계될 수 있다.To this end, a specific device capable of changing a specific capacitor, additional coil or electrostatic induction may be disposed in an adjacent area of the button 240, and the corresponding device may be mounted on the coil 230 To change the electromagnetic induction value induced in the pen recognition panel to recognize the depression of the button 240 of the electronic pen 200. [

또는 버튼(240) 눌림에 해당하는 무선 신호를 발생시키고, 발생된 무선 신호를 단말기(100)의 별도 영역에 마련된 수신기에 전달하도록 설계될 수 있으며, 단말기(100)는 수신된 무선 신호에 따라 전자 펜(200)의 버튼(240) 눌림을 인식할 수 있다.Or the button 240 may be generated and the generated radio signal may be transmitted to a receiver provided in a separate area of the terminal 100. The terminal 100 may be designed to transmit the radio signal It is possible to recognize that the button 240 of the pen 200 is pressed.

상술한 바와 같이 단말기(100)는 상술한 전자 펜(200)의 배치 상태에 따라 다양한 펜 상태 정보를 수집할 수 있다. 즉, 단말기(100)는 전자 펜(200)이 접촉 상태인지 또는 호버링 상태인지에 대한 정보, 전자 펜(200)의 버튼(240)이 눌려졌는지 또는 초기 상태를 유지하는지에 대한 정보 등을 수신할 수 있다.As described above, the terminal 100 can collect various pen state information according to the arrangement state of the electronic pen 200 described above. That is, the terminal 100 receives information on whether the electronic pen 200 is in a contact state or a hovering state, information on whether the button 240 of the electronic pen 200 is pressed or maintained, .

단말기(100)는 전자 펜(200)이 제공하는 펜 상태 정보와 전자 펜(200)의 코일(230)에 의하여 입력되는 제스처 입력 동작에 해당하는 제스처 인식 정보를 기반으로 특정 펜 기능 명령어를 생성하고, 해당 명령어에 해당하는 기능 수행을 지원할 수 있다.The terminal 100 generates a specific pen function command based on the pen state information provided by the electronic pen 200 and the gesture recognition information corresponding to the gesture input operation input by the coil 230 of the electronic pen 200 , It can support function execution corresponding to the command.

이상에서 설명한 바와 같이, 본 발명의 전자 장치(10)는 단말기(100)와 전자 펜(200)를 포함할 수 있다. 그리고 전자 장치(100)는 전자 펜(200)의 배치 상태 및 전자 펜(200)의 특정 입력 상태 등을 포함하는 펜 상태 정보 및 제스처 입력 동작에 따른 다양한 제스처 인식 정보를 처리할 수 있다.As described above, the electronic device 10 of the present invention can include the terminal 100 and the electronic pen 200. The electronic device 100 may process pen status information including the arrangement state of the electronic pen 200 and a specific input state of the electronic pen 200, and various gesture recognition information according to the gesture input operation.

전자 장치(100)는 단말기(100), 또는 전자 펜(200)에서 제공하는 다양한 기능 제어를 위한 명령어들을 보다 용이하고 빠르게 생성 및 운용할 수 있도록 처리할 수 있다.The electronic device 100 can process instructions for various functions provided by the terminal 100 or the electronic pen 200 so that the commands can be generated and operated more easily and quickly.

그리고 본 발명의 전자 장치(10)는 복합 제스처 인식 정보를 토대로 특정 펜 상태에서 단말기(100)의 특정 기능 운용을 보다 빠르게 수행할 수 있도록 지원할 수 있다. 또는 본 발명의 전자 장치(10)는 일정한 펜 상태와는 독립적으로 복합 제스처 인식을 수행하고 그에 따른 기능 수행을 지원할 수도 있다.In addition, the electronic device 10 of the present invention can support the specific function of the terminal 100 more quickly in a specific pen state based on the compound gesture recognition information. Alternatively, the electronic device 10 of the present invention may perform compound gesture recognition independently of a constant pen state and support the performance of the function.

도 2는 본 발명의 실시 예에 따른 전자 장치의 어플리케이션 제어를 지원하기 위한 단말기(100)의 구성을 보다 상세히 나타낸 도면이다.2 is a detailed diagram illustrating the configuration of a terminal 100 for supporting application control of an electronic device according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 단말기(100)는 통신부(110), 입력부(120), 오디오 처리부(130), 표시 패널(141), 펜 인식 패널(143), 터치 패널(145), 저장부(150)및 제어부(160)의 구성을 포함할 수 있다. 여기서 본 발명의 단말기(100)는 터치 패널(145)의 구성을 포함하는 형태로 도시하였으나 본 발명이 이에 한정되는 것은 아니다.2, the terminal 100 of the present invention includes a communication unit 110, an input unit 120, an audio processing unit 130, a display panel 141, a pen recognition panel 143, a touch panel 145, Unit 150 and a controller 160. The controller 150 may be a microprocessor. Here, the terminal 100 of the present invention includes the touch panel 145, but the present invention is not limited thereto.

즉, 본 발명의 단말기(100)는 앞서 도 1에서 설명한 바와 같이 터치 패널(145)이 제거된 형태로 제공될 수도 있다. 이 경우 단말기(100)는 전자 펜(200)과 펜 인식 패널(143)만을 이용하여 단말기(100) 운용을 위한 입력 신호 생성을 수행하거나 상기 입력부(120)나 통신부(110) 등을 기반으로 입력 신호를 수신할 수 있을 것이다.That is, the terminal 100 of the present invention may be provided in a form in which the touch panel 145 is removed as described above with reference to FIG. In this case, the terminal 100 generates an input signal for operating the terminal 100 using only the electronic pen 200 and the pen recognition panel 143, or inputs the input signal based on the input unit 120, the communication unit 110, Lt; / RTI > signal.

상술한 구성을 가지는 본 발명의 단말기(100)는 펜 인식 패널(143)을 기반으로 전자 펜(200)의 펜 상태 정보 및 제스처 입력 동작에 해당하는 제스처 인식 정보를 수집할 수 있다. 그리고 단말기(100)는 수집된 펜 상태 정보 및 제스처 인식 정보에 매칭되는 사전 정의된 특정 펜 기능 명령어를 확인하고 해당 펜 기능 명령어에 따른 단말기 기능 지원을 수행할 수 있다.The terminal 100 of the present invention having the above-described configuration can collect the pen status information of the electronic pen 200 and the gesture recognition information corresponding to the gesture input operation based on the pen recognition panel 143. The terminal 100 can confirm predetermined pen function commands corresponding to the collected pen state information and gesture recognition information, and perform terminal function support according to the pen function commands.

또한 단말기(100)는 펜 상태 정보 및 제스처 인식 정보뿐만 아니라 현재 활성화되고 있는 응용 프로그램의 기능 종류에 대한 정보를 수집하고, 상기 펜 상태 정보, 제스처 인식 정보 및 기능 종류 정보에 매핑되는 사전 정의된 펜 기능 명령어를 생성하도록 지원할 수도 있다.In addition, the terminal 100 collects information on the function type of the currently active application program as well as the pen status information and the gesture recognition information, and stores the pen status information, the gesture recognition information, Or to generate functional instructions.

또는 단말기(100)는 제스처 인식 정보가 복합 제스처 인식 정보인 경우, 복합 제스처 인식 정보에 따른 특정 단말기 기능을 수행하도록 지원할 수 있다.Alternatively, the terminal 100 may support performing a specific terminal function according to the compound gesture recognition information when the gesture recognition information is compound gesture recognition information.

이를 위하여 펜 인식 패널(143)은 단말기(100)의 일정 위치에 배치되어 특정 이벤트 발생에 따라, 또는 디폴트로 활성화 상태를 가질 수 있다. 펜 인식 패널(143)은 표시 패널(141)의 하부에 일정 면적, 예를 들면 표시 패널(141)의 표시 영역을 커버할 수 있는 면적을 가지며 마련될 수 있다. 그리고 펜 인식 패널(143)은 전자 펜(200)의 접근에 따른, 또는 전자 펜(200) 조작에 따른 펜 상태 정보를 수신하고 이를 제어부(160)에 전달할 수 있다. 또한, 펜 인식 패널(143)은 전자 펜(200)의 제스처 동작에 따른 제스처 인식 정보를 수신하고 이를 제어부(160)에 전달할 수 있다. To this end, the pen recognition panel 143 may be disposed at a predetermined position of the terminal 100 and may have an active state according to a specific event or by default. The pen recognition panel 143 may be provided under the display panel 141 with a predetermined area, for example, an area capable of covering the display area of the display panel 141. The pen recognition panel 143 may receive the pen status information according to the approach of the electronic pen 200 or the operation of the electronic pen 200 and may transmit the pen status information to the control unit 160. In addition, the pen recognition panel 143 may receive the gesture recognition information according to the gesture operation of the electronic pen 200 and may transmit the gesture recognition information to the controller 160.

이러한 펜 인식 패널(143)은 앞서 설명한 바와 같이 코일(230)을 가진 전자 펜(200)과의 전자기 유도 방식에 따라 전자 펜(200)의 위치 값을 수신할 수 있도록 마련될 수 있다. 펜 인식 패널(143)은 전자 펜(200)의 접근 간격에 따라 각각 해당 간격에 해당하는 전자기 유도 값을 수집하고 이를 제어부(160)에 전달할 수 있다. 이때 전달되는 전자기 유도 값은 펜 상태 정보는 전자 펜(200)이 펜 인식 패널(143)로부터 또는 표시 패널(141)이나 터치 패널(145)로부터 일정 간격 이격된 상태인 호버링 상태인지 또는 표시 패널(141)이나 터치 패널(145)에 일정 간격 인접된 접촉 상태인지에 해당하는 정보에 해당할 수 있다. The pen recognition panel 143 may be provided to receive the position value of the electronic pen 200 according to the electromagnetic induction method with the electronic pen 200 having the coil 230 as described above. The pen recognition panel 143 may collect the electromagnetic induction values corresponding to the intervals according to the access intervals of the electronic pen 200, and may transmit the electromagnetic induction values to the controller 160. The electromagnetic induction value transmitted at this time indicates whether the electronic pen 200 is in a hovering state in which the electronic pen 200 is spaced apart from the pen recognition panel 143 or the display panel 141 or the touch panel 145, 141 or the touch panel 145. The touch panel 145 may be in contact with the touch panel 145 at a predetermined interval.

한편, 전자 펜(200)에 마련된 버튼(240)의 설계 형태에 따라 단말기(100)가 수집하는 펜 상태 정보는 다르게 구현될 수 있다. 즉, 버튼(240)이 앞서 설명하는 바와 같이 코일(230)에 의해 형성되는 전자기 유도 값을 변경하는 구조로 마련되는 경우 버튼(240) 입력 여부에 대한 펜 상태 정보는 펜 인식 패널(143)이 수신하고 제어부(160)에 전달할 수 있다. 예를 들어, 전자기 유도 값을 변경하는 구조로서 버튼(240)에 선택적으로 연결되는 커패시터, 별도의 코일 등이 될 수 있으며, 설계자의 의도에 따라 펜 인식 패널(143) 상에서의 다양한 형태의 전자기 유도 값을 변경할 수 있는 특정 소자가 적용될 수 있다.Meanwhile, the pen state information collected by the terminal 100 according to the design of the button 240 provided in the electronic pen 200 may be implemented differently. That is, if the button 240 is provided with a structure for changing the electromagnetic induction value formed by the coil 230 as described above, the pen state information about whether or not the button 240 is input is determined by the pen recognition panel 143 And can transmit the information to the control unit 160. For example, it may be a capacitor selectively connected to the button 240 as a structure for changing the electromagnetic induction value, a separate coil, or the like, and may be used for various types of electromagnetic induction Certain devices that can change the value can be applied.

한편, 버튼(240)이 별도의 무선 신호 전송 구조로 마련되는 경우 단말기(100)는 버튼(240) 입력에 따른 무선 신호를 수신할 수 있는 수신 장치를 더 포함할 수 있으며, 제어부(160)는 해당 수신 장치가 수신하는 무선 신호를 기준으로 버튼(240) 입력 여부를 판단할 수 있다.If the button 240 is provided with a separate wireless signal transmission structure, the terminal 100 may further include a receiving device capable of receiving a radio signal corresponding to the input of the button 240, It is possible to determine whether or not the button 240 is input based on the radio signal received by the receiving apparatus.

터치 패널(145)은 표시 패널(141)의 상부 또는 하부에 배치될 수 있으며, 터치 물체의 터치에 의한 정전용량의 변화 또는 저항이나 전압의 변화에 따른 터치 위치 및 터치 상태에 관한 정보를 제어부(160)에 전달할 수 있다.The touch panel 145 may be disposed at an upper portion or a lower portion of the display panel 141. The touch panel 145 may include information about a touch position and a touch state according to a change in capacitance due to a touch of a touch object, 160).

터치 패널(145)은 표시 패널(141)의 적어도 일부 영역에 마련될 수 있으며, 설계 방식에 따라 펜 인식 패널(143)이 활성화되는 시점에 비활성화될 수 있다. 즉, 본 발명의 터치 패널(145)은 펜 상태 정보 및 제스처 인식 정보 또는 펜 상태 정보와 제스처 인식 정보 및 기능 종류 정보, 또는 복합 제스처 인식 정보 등 펜 인식 패널(143)을 기반으로 명령어 생성 기능을 지원하는 동안 비활성화 상태를 가질 수 있다.The touch panel 145 may be provided in at least a part of the display panel 141 and may be deactivated at the time when the pen recognition panel 143 is activated according to the designing method. That is, the touch panel 145 according to the present invention can generate a command generation function based on the pen recognition panel 143 such as the pen status information and the gesture recognition information, the pen status information, the gesture recognition information, the function type information, You can have an inactive state while supporting it.

표시 패널(141)은 단말기(100) 운용과 관련된 다양한 화면을 출력하는 구성이다. 예를 들어, 표시 패널(141)은 단말기(100)의 기능 운용 지원을 위한 초기 대기 화면이나 메뉴 화면, 기능 선택에 따라 파일 검색 화면, 파일 재생 화면, 방송 수신 화면, 파일 편집 화면, 웹 페이지 접속 화면, 메모 작성 화면, 전자책 열람 화면, 채팅 화면, 이메일이나 메시지 작성 및 수신 화면 등 다양한 화면을 해당 기능 활성화에 따라 제공할 수 있다.The display panel 141 is configured to output various screens related to the operation of the terminal 100. For example, the display panel 141 displays an initial idle screen or a menu screen for supporting the function of the terminal 100, a file search screen, a file playback screen, a broadcast reception screen, a file edit screen, Various screens such as a screen, a memo creation screen, an e-book reading screen, a chat screen, an e-mail or a message creation and reception screen can be provided according to the function activation.

상술한 표시 패널(141)이 제공하는 화면들은 각각 특정 기능 종류에 대한 정보를 가질 수 있으며, 이 기능 종류 정보는 제어부(160)에 전달될 수 있다. Each of the screens provided by the display panel 141 may have information on a specific function type, and the function type information may be transmitted to the controller 160. [

표시 패널(141)의 각 기능이 활성화되는 경우 사전 설정에 따라 펜 인식 패널(143)이 활성화될 수 있다. 한편, 펜 인식 패널(143)을 통해 입력되는 제스처 인식 정보는 그에 대응하는 형태로 표시 패널(141)에 출력될 수 있다. 예를 들어, 제스처 인식 정보가 특정 문양에 대응하는 제스처인 경우, 표시 패널(141)에는 해당 문양에 대응하는 이미지가 출력될 수 있다.When each function of the display panel 141 is activated, the pen recognition panel 143 can be activated according to a preset setting. On the other hand, the gesture recognition information input through the pen recognition panel 143 may be output to the display panel 141 in a form corresponding thereto. For example, when the gesture recognition information is a gesture corresponding to a specific pattern, an image corresponding to the pattern may be output to the display panel 141. [

사용자는 이 문양을 확인하면서 자신이 어떠한 제스처를 입력하는지를 확인할 수 있다. The user can check the gesture and check which gesture he or she is entering.

특히, 본 발명의 제스처 입력은 입력 시작 시점과 입력 완료 시점을 전자 펜(200)의 펜 상태 정보 변화를 기준으로 확인할 수 있다. 즉, 제스처 입력은 전자 펜(200)이 접촉 상태 또는 호버링 상태 중 적어도 하나의 상태에서 시작할 수 있으며, 입력 완료 시점은 접촉 상태 또는 호버링 상태 중 어느 하나가 해제되는 경우가 될 수 있다.In particular, the gesture input of the present invention can confirm the input start time and the input completion time based on the change of the pen state information of the electronic pen 200. That is, the gesture input may start at least one of the contact state or the hovering state of the electronic pen 200, and the input completion time may be a state where either the contact state or the hovering state is released.

이에 따라 사용자는 전자 펜(200)을 이용하여 표시 패널(141) 상에 또는 표시 패널(141)로부터 일정 간격 이격된 상태에서 제스처 입력 동작을 수행할 수 있다. 예를 들어, 단말기(100)는 전자 펜(200)이 접촉 상태의 범위에서 움직이는 경우 제스처 입력으로 인식하여 움직임에 따른 제스처 인식을 수행할 수 있다. Accordingly, the user can perform the gesture input operation on the display panel 141 using the electronic pen 200 or while being spaced apart from the display panel 141 by a predetermined distance. For example, when the electronic pen 200 moves in a range of a contact state, the terminal 100 recognizes the input as a gesture input and performs gesture recognition according to the movement.

그리고 단말기(100)는 전자 펜(200)이 호버링으로 인식되는 범위 내에 있는 경우 움직임에 따른 제스처 입력은 인식하지 않지만 계속적으로 제스처 입력을 위한 유효 동작으로 인식할 수 있다.When the electronic pen 200 is within the range where the electronic pen 200 is recognized as hovering, the terminal 100 does not recognize the gesture input according to the motion, but can recognize the valid motion as the gesture input continuously.

이에 따라 사용자는 실제 제스처 입력을 위한 동작을 수행하기 위해서 전자 펜(200)으로 표시 패널(141)을 접촉하여 움직임을 수행하고, 표시 패널(141)로부터 전자 펜(200)을 이격하고 다시 접촉하여 움직이는 방식으로 복합적인 제스처 입력을 수행할 수 있다.Accordingly, the user touches and moves the display panel 141 with the electronic pen 200 to perform an operation for inputting the actual gesture, separates the electronic pen 200 from the display panel 141, You can perform complex gesture input in a moving manner.

저장부(150)는 본 발명의 단말기(100) 운용에 필요한 다양한 프로그램과 데이터를 저장할 수 있는 구성이다. 예를 들어, 저장부(150)는 단말기(100) 운용에 필요한 운용 체제 등을 저장할 수 있으며, 기타 앞서 설명한 표시 패널(141) 상에 출력되는 화면 지원을 위한 기능 프로그램들을 저장할 수 있다.The storage unit 150 is a configuration capable of storing various programs and data necessary for the operation of the terminal 100 of the present invention. For example, the storage unit 150 may store an operating system necessary for the operation of the terminal 100, and may store functional programs for supporting a screen displayed on the display panel 141 described above.

특히, 저장부(150)는 본 발명의 펜 기능 운용을 지원하기 위한 펜 기능 운용 프로그램(151)을 저장하며, 펜 기능 운용 프로그램(151) 지원을 위한 펜 기능 테이블(153)을 저장할 수 있다.In particular, the storage unit 150 may store the pen function operation program 151 for supporting the pen function operation of the present invention, and may store the pen function table 153 for supporting the pen function operation program 151. [

펜 기능 운용 프로그램(151)은 본 발명의 펜 기능 운용을 지원하기 위한 다양한 루틴들을 포함할 수 있다. 예를 들어, 펜 기능 운용 프로그램(151)은 펜 인식 패널(143) 활성화 조건을 확인하는 루틴, 펜 인식 패널(143) 활성화 시 전자 펜(200)의 펜 상태 정보를 수집하는 루틴, 전자 펜(200)의 움직임에 따른 제스처를 인식하여 제스처 인식 정보를 수집하는 루틴을 포함할 수 있다.The pen function operating program 151 may include various routines for supporting the pen function operation of the present invention. For example, the pen function operating program 151 may include a routine for confirming an activation condition of the pen recognition panel 143, a routine for collecting pen status information of the electronic pen 200 upon activation of the pen recognition panel 143, 200), and collect gesture recognition information.

그리고 펜 기능 운용 프로그램(151)은 수집된 펜 상태 정보와 제스처 인식 정보를 기반으로 특정 펜 기능 명령어를 생성하는 루틴, 해당 펜 기능 명령어에 따른 기능을 수행하는 루틴을 포함할 수 있다.The pen function operating program 151 may include a routine for generating a specific pen function command based on the collected pen state information and the gesture recognition information, and a routine for performing a function according to the pen function command.

또한, 펜 기능 운용 프로그램(151)은 현재 활성화 상태인 기능의 종류 정보를 수집하는 루틴을 더 포함하고, 수집된 기능의 종류 정보와 펜 상태 정보 및 제스처 인식 정보에 매핑되는 펜 기능 명령어를 생성하는 루틴, 해당 펜 기능 명령어에 따른 기능을 수행하는 루틴을 더 포함할 수 있다.The pen function operating program 151 further includes a routine for collecting the type information of the currently activated function and generates a pen function command that is mapped to the acquired type information of the function, pen state information, and gesture recognition information Routine, and a routine for performing a function according to the corresponding pen function command.

또한, 펜 기능 운용 프로그램(151)은 입력되는 제스처 입력 동작이 복합 제스처 인식 정보를 위한 입력 동작인 경우 입력 동작을 각각 구분하여 각각의 서브 제스처 인식 정보로 구분하여 인식하는 루틴, 구분된 서브 제스처 인식 정보들을 기반으로 특정 펜 기능 명령어를 생성하는 루틴, 생성된 펜 기능 명령어에 따른 기능을 수행하는 루틴을 포함할 수 있다.In addition, the pen function operating program 151 may include a routine for recognizing the input gesture input operation as an input operation for the compound gesture recognition information and separately recognizing the input operation as separate sub gesture recognition information, a divided sub gesture recognition A routine for generating a specific pen function command based on the information, and a routine for performing a function according to the generated pen function command.

상술한 설명에서 펜 기능 명령어를 생성하는 루틴은 저장부(150)에 저장된 펜 기능 테이블(153)을 참조하여 명령어를 생성할 수 있는 구성이다. 펜 기능 테이블(153)은 설계자에 의하여 또는 프로그램 개발자에 의하여 전자 펜(200)에 의한 입력 동작에 해당하는 특정 단말기 기능 운용이 매핑된 펜 기능 명령어를 포함한 테이블이 될 수 있다.In the above description, the routine for generating the pen function command is a configuration capable of generating an instruction with reference to the pen function table 153 stored in the storage unit 150. [ The pen function table 153 may be a table including a pen function instruction to which a specific terminal function operation corresponding to an input operation by the electronic pen 200 is mapped by a designer or by a program developer.

특히, 펜 기능 테이블(153)은 펜 상태 정보 및 기능의 종류 정보에 따라 입력되는 제스처 인식 정보를 각각의 펜 기능 명령어에 매핑함으로써 동일한 제스처 인식 정보라 하더라도 펜 상태 정보 및 기능의 종류에 따라 다르게 동작하도록 설정될 수 있다.Particularly, the pen function table 153 maps the gesture recognition information input according to the pen status information and the function type information to each pen function command, so that even if the gesture recognition information is the same gesture recognition information, . ≪ / RTI >

또한, 펜 기능 테이블(153)은 펜 상태 정보 및 제스처 인식 정보에 특정 단말기 기능 운용에 해당하는 펜 기능 명령어들이 정의된 정보들을 포함할 수 있다. In addition, the pen function table 153 may include information in which pen function commands corresponding to a specific terminal function operation are defined in the pen state information and the gesture recognition information.

펜 상태 정보와 제스처 인식 정보만으로 구성된 펜 기능 테이블(153)은 현재 활성화된 기능의 종류에 관계없이 펜 상태 정보와 제스처 인식 정보만을 토대로 특정 기능 운용을 수행하도록 지원할 수 있다. 한편 펜 기능 테이블(153)은 복합 제스처 인식 정보와, 복합 제스처 인식 정보에 매핑되는 펜 기능 명령어들을 포함할 수 있다.The pen function table 153 including only the pen state information and the gesture recognition information can support the specific function operation based only on the pen state information and the gesture recognition information regardless of the type of the currently activated function. Meanwhile, the pen function table 153 may include compound gesture recognition information and pen function instructions that are mapped to compound gesture recognition information.

복합 제스처 인식 정보로 구성된 펜 기능 테이블(153)은 펜 상태 정보나 현재 제공되는 기능의 종류에 관계없이 입력되는 복합 제스처 인식 정보만을 기반으로 특정 단말기 기능 지원을 수행하도록 지원할 수 있다. The pen function table 153 configured by the compound gesture recognition information can support the specific terminal function support based only on the input compound gesture recognition information regardless of the pen state information or the type of the function currently provided.

이상에서 설명한 바와 같이 펜 기능 테이블(153)은 펜 상태 정보와 기능의 종류 정보 및 제스처 인식 정보에 매핑되는 펜 기능 명령어들을 포함하는 제1 펜 기능 테이블, 펜 상태 정보와 제스처 인식 정보에 매핑되는 펜 기능 명령어들을 포함하는 제2 펜 기능 테이블, 복합 제스처 인식 정보에 매핑되는 펜 기능 명령어들을 포함하는 제3 펜 기능 테이블 중 적어도 하나를 포함할 수 있다.As described above, the pen function table 153 includes a first pen function table including pen state information, function type information, and pen function commands mapped to gesture recognition information, a pen state information and a pen mapped to the gesture recognition information A second pen function table including function commands, and a third pen function table including pen function commands mapped to compound gesture recognition information.

각각의 펜 기능 명령어들을 포함하는 펜 기능 테이블(153)은 사용자 설정이나 실행되고 있는 응용 프로그램의 종류에 따라 선택적으로 또는 자동으로 적용될 수 있다. 예를 들어, 사용자는 상기 제1 펜 기능 테이블을 이용할지, 또는 상기 제2 펜 기능 테이블을 이용할지를 설정할 수 있다.The pen function table 153 including the respective pen function commands can be selectively or automatically applied according to the user setting or the type of the application program being executed. For example, the user can set whether to use the first pen function table or the second pen function table.

그러면 단말기(100)는 상기 설정에 따라 특정 펜 기능 테이블을 기반으로 입력 동작에 해당하는 제스처 인식 처리를 지원할 수 있다. Then, the terminal 100 can support the gesture recognition process corresponding to the input operation based on the specific pen function table according to the setting.

또한, 단말기(100)는 설계 방식에 따라, 또는 사용자 설정에 따라 제1 응용 프로그램이 활성화된 경우에는 상기 제2 펜 기능 테이블을 적용하도록 지원할 수 있고, 제2 응용 프로그램이 활성화된 경우에는 상기 제3 펜 기능 테이블을 적용하도록 지원할 수 있으며, 제3 응용 프로그램이 활성화된 경우에는 상기 제1 펜 기능 테이블을 적용하도록 지원할 수 있다. 이와 같이 본 발명의 펜 기능 테이블(153)은 활성화되고 있는 기능의 종류에 따라 다양하게 적용될 수 있다.In addition, the terminal 100 can support applying the second pen function table according to a design method or when a first application program is activated according to a user setting, and when the second application program is activated, 3 pen function table, and may support applying the first pen function table when the third application program is activated. As described above, the pen function table 153 of the present invention can be variously applied according to the type of function being activated.

한편, 통신부(110)는 단말기(100)가 통신 기능을 지원하는 경우 포함될 수 있는 구성이다. 특히, 단말기(100)가 이동통신 기능을 지원하는 경우 통신부(110)는 이동통신 모듈로 구성될 수 있다.Meanwhile, the communication unit 110 may be included when the terminal 100 supports a communication function. In particular, when the terminal 100 supports the mobile communication function, the communication unit 110 may be configured as a mobile communication module.

통신부(110)는 통신 기능이 요구되는 단말기 기능은, 예를 들면 채팅 기능, 메시지 송수신 기능, 통화 기능 등을 수행할 수 있으며, 통신부(110)가 운용되는 과정에서 전자 펜(200)으로부터 제스처 인식 정보가 수집되면 제어부(160)의 제어에 따라 제스처 인식 정보에 해당하는 펜 기능 명령어 수행을 지원할 수 있다.The communication unit 110 may perform a chat function, a message transmission / reception function, a call function, and the like, for example, as a terminal function for which a communication function is required. In the course of operation of the communication unit 110, When the information is collected, the control unit 160 may support execution of the pen function command corresponding to the gesture recognition information.

이러한 통신부(110)는 단말기(100)의 통신 기능을 지원하면서 본 발명의 펜 기능 테이블(153) 갱신 정보를 외부로부터 수신하고, 이를 제어부(160)에 전달할 수 있다.The communication unit 110 may receive the update information of the pen function table 153 of the present invention from an external device while supporting the communication function of the terminal 100 and may transmit the updated information to the control unit 160.

앞서 설명한, 펜 기능 테이블(153)은 실행되는 응용 프로그램에 의한 단말기 기능 종류에 따라 다르게 설정될 수 있음을 설명하였다. 결과적으로 단말기(100)가 새로운 기능을 설치하는 경우 전자 펜(200) 운용과 관련된 새로운 설정이 요구될 수 있다.The pen function table 153 described above can be set differently according to the terminal function type by the executed application program. As a result, when the terminal 100 installs a new function, a new setting related to the operation of the electronic pen 200 may be required.

통신부(110)는 새로운 기능을 위한 또는 이전에 설치된 기능을 위한 펜 기능 테이블(153)이 제공되는 경우 디폴트로, 또는 사용자 요청에 따라 해당 펜 기능 테이블(153)에 대한 정보 수신을 지원할 수 있다. The communication unit 110 can support reception of information on the pen function table 153 by default or upon a user request when the pen function table 153 for a new function or a previously installed function is provided.

입력부(120)는 사이드 키나 별도로 마련된 터치 패드 등으로 구성될 수 있다. 또한 입력부(120)는 단말기(100)의 턴-온 또는 턴-오프 수행을 위한 버튼 키, 단말기(100)가 지원하는 기본 화면으로의 복귀를 지원하는 홈키 등을 포함할 수 있다.The input unit 120 may include a side key or a separate touch pad. Also, the input unit 120 may include a button key for performing turn-on or turn-off of the terminal 100, a home key for supporting return to the basic screen supported by the terminal 100, and the like.

또한, 입력부(120)는 본 발명의 펜 기능 운용 모드 설정을 위한 입력 신호를 사용자 제어에 따라 생성하고 이를 제어부(160)에 전달할 수 있다.In addition, the input unit 120 may generate an input signal for setting the pen function operation mode of the present invention according to the user's control, and may transmit the input signal to the controller 160.

즉, 입력부(120)는 별도 제스처 인식 기능 수행 없이 펜의 위치 인식과 해당 펜 위치에 따라 기능을 수행하는 기본 펜 기능 운용 모드 및 앞서 설명한 다양한 펜 기능 테이블(153) 중 어느 하나를 기반으로 하는 펜 기능 운용 모드 중 어느 하나를 설정하기 위한 입력 신호를 생성할 수 있다.That is, the input unit 120 may include a basic pen function operation mode for performing a function according to the position of the pen, a pen position, and a pen function table 153, which are based on any one of the above- An input signal for setting any one of the function operation modes can be generated.

해당 입력 신호에 따라 단말기(100)는 특정 펜 기능 테이블(153)을 호출하고, 이를 기반으로 펜 기능 운용을 지원할 수 있다.The terminal 100 calls the specific pen function table 153 according to the input signal and can support the pen function operation based on the specific pen function table 153. [

상기 오디오 처리부(130)는 단말기(100)의 오디오 신호 출력을 위한 스피커(SPK) 및 오디오 신호 수집을 위한 마이크(MIC) 중 적어도 하나를 포함하는 구성이다.The audio processing unit 130 includes at least one of a speaker SPK for outputting audio signals of the terminal 100 and a microphone MIC for collecting audio signals.

이러한 오디오 처리부(130)는 본 발명의 펜 기능 운용 모드 설정을 안내하는 안내음이나 효과음을 설정에 따라 출력할 수 있다. 그리고 오디오 처리부(130)는 펜 인식 패널(143)에서 특정 제스처 동작에 따른 제스처 인식 정보가 수집되면 제스처 인식 정보에 해당하는 안내음이나 기능 수행에 따른 효과음을 출력하도록 지원한다. The audio processing unit 130 may output a guidance sound or an effect sound to guide the pen operation mode setting according to the present invention. When the gesture recognition information according to the specific gesture operation is collected in the pen recognition panel 143, the audio processing unit 130 supports the guidance sound corresponding to the gesture recognition information or the effect sound according to the performance of the function.

오디오 처리부(130)는 제스처 입력 동작 시 실시간으로 입력되는 제스처에 대한 효과음 출력을 지원할 수 있다. 추가로 오디오 처리부(130)는 진동 모듈을 제어하여 제스처 입력 동작에 대응하는 진동 모듈의 진동 크기 조절을 제어할 수 있다.The audio processing unit 130 may support output of sound effects for a gesture input in real time during a gesture input operation. In addition, the audio processing unit 130 may control the vibration module to control the vibration amplitude adjustment of the vibration module corresponding to the gesture input operation.

이때, 오디오 처리부(130)는 입력되는 제스처 입력 동작에 따라 진동 크기를 다르게 할 수 있다. 즉, 오디오 처리부(130)는 수행해야 할 제스처 인식 정보들이 다른 경우 각각의 제스처 인식 정보에 해당하는 진동 크기를 가지도록 제어할 수 있다.At this time, the audio processor 130 may vary the magnitude of the vibration according to the input gesture input operation. That is, the audio processing unit 130 can control the gesture recognition information to be performed so that the gesture recognition information has a vibration magnitude corresponding to each gesture recognition information.

오디오 처리부(130)는 효과음 출력 과정에서도 제스처 인식 정보의 종류에 따라 효과음의 크기나 종류를 다르게 수행할 수 있다. 예를 들어, 오디오 처리부(130)는 현재 수행되고 있는 기능과 관련된 제스처 인식 정보가 수집되면 일정 크기를 가지는 진동이나 효과음 출력을 지원하며, 다른 기능 호출을 위한 제스처 인식 정보가 수집되면 상대적으로 큰 크기의 진동이나 효과음 출력을 지원할 수 있다.The audio processing unit 130 may perform the magnitude or type of the effect sound differently according to the type of the gesture recognition information even in the process of outputting the sound effect. For example, when the gesture recognition information related to the currently performed function is collected, the audio processing unit 130 supports vibration and sound output having a predetermined size, and when the gesture recognition information for calling another function is collected, Can support vibration or sound output of the sound.

상기 제어부(160)는 본 발명의 실시 예에 따른 펜 기능 운용 또는 복수의 프로그램 간에 상호작용을 지원하기 위한 다양한 구성들을 포함할 수 있으며, 이 구성들을 기반으로 상기 펜 기능 운용 또는 상기 상호작용을 위한 신호 처리와 데이터 처리 및 기능 운용을 제어할 수 있다. 이를 위하여 제어부(160)는 도 3에 도시된 바와 같은 구성을 포함할 수 있다.The controller 160 may include various components for supporting a pen function operation or an interaction between a plurality of programs according to an embodiment of the present invention. Signal processing, data processing, and function operation can be controlled. For this, the control unit 160 may include a configuration as shown in FIG.

도 3는 본 발명의 제어부(160) 구성을 보다 상세히 나타낸 도면이다.3 is a detailed block diagram of the controller 160 of the present invention.

도 3를 참조하면, 본 발명의 제어부(160)는 기능 종류 확인부(161), 펜 상태 확인부(163), 제스처 인식부(165), 명령어 처리부(167) 및 기능 수행부(169)의 구성을 포함할 수 있다.3, the control unit 160 includes a function type checking unit 161, a pen status checking unit 163, a gesture recognizing unit 165, a command processing unit 167, and a function performing unit 169 Configuration.

기능 종류 확인부(161)는 단말기(100)에서 현재 활성화되고 있는 사용자 기능의 종류를 확인하는 구성이다. 특히, 기능 종류 확인부(161)는 현재 표시 패널(141) 상에 출력되고 있는 화면과 관련된 기능의 종류 정보를 수집한다.The function type checking unit 161 confirms the type of the user function currently being activated in the terminal 100. [ In particular, the function type identifying unit 161 collects the type information of the function related to the screen currently being displayed on the display panel 141. [

즉, 멀티태스킹 기능 지원 단말기(100)의 경우 다수개의 응용 프로그램 활성화에 따라 복수개의 기능이 활성화될 수 있다. 이 경우 기능 종류 확인부(161)는 현재 표시 패널(141) 상에 출력된 화면과 관련된 기능의 종류 정보만을 수집하고 이를 명령어 처리부(167)에 제공할 수 있다.That is, in the case of the multitasking function supporting terminal 100, a plurality of functions can be activated according to activation of a plurality of application programs. In this case, the function type determination unit 161 may collect only the type information of the function related to the screen currently displayed on the display panel 141 and provide the information to the command processing unit 167. [

이 과정에서, 기능 종류 확인부(161)는 표시 패널(141) 상에 출력된 화면이 복수개인 경우 최 상위 레이어에 출력된 화면과 관련된 기능의 종류 정보를 수집할 수 있다.In this process, if there are a plurality of screens output on the display panel 141, the function type identifying unit 161 can collect the type information of the function related to the screen output to the uppermost layer.

펜 상태 확인부(163)는 전자 펜(200)의 위치와 버튼(240) 눌림 등에 해당하는 정보를 수집하는 구성이다. 앞서 설명한 바와 같이, 펜 상태 확인부(163)는 펜 인식 패널(143)을 스캔하여 입력되는 전자기 유도 값의 변화를 검출하고 이를 기반으로 전자 펜(200)이 호버링 상태인지, 접촉 상태인지, 버튼 눌림 상태인지 눌림 해제 상태인지 등을 확인하고 그에 대응하는 펜 상태 정보 수집을 수행할 수 있다. 수집된 펜 상태 정보는 명령어 처리부(167)에 제공될 수 있다.The pen status confirmation unit 163 is a configuration for collecting information corresponding to the position of the electronic pen 200, the depression of the button 240, and the like. As described above, the pen state confirmation unit 163 detects a change in the electromagnetic induction value input by scanning the pen recognition panel 143, and determines whether the electronic pen 200 is in a hovering state, a contact state, It is possible to confirm whether the pressed state is the pressed state or not, and perform pen state information collection corresponding thereto. The collected pen status information may be provided to the command processing unit 167. [

제스처 인식부(165)는 전자 펜(200)의 움직임에 따른 제스처를 인식하는 구성이다. 이러한 제스처 인식부(165)는 전자 펜(200)이 호버링 상태 또는 접촉 상태에 관계없이 전자 펜(200)의 움직임에 따른 제스처 동작에 대한 인식을 수행하고, 그에 따른 제스처 인식 정보를 명령어 처리부(167)에 전달할 수 있다. The gesture recognition unit 165 recognizes the gesture according to the movement of the electronic pen 200. [ The gesture recognizing unit 165 recognizes the gesture operation according to the movement of the electronic pen 200 regardless of the hovering state or the contact state of the electronic pen 200 and outputs the gesture recognition information to the command processing unit 167 ).

한편, 제스처 인식부(165)가 제공하는 제스처 인식 정보는 하나의 오브젝트로 인식되는 단일 제스처 인식 정보와 복수개의 오브젝트로 인식되는 복합 제스처 인식 정보를 포함할 수 있다. 이에 대한 구분은 제스처 입력 동작 과정에 대한 정의로 결정될 수 있다. The gesture recognition information provided by the gesture recognition unit 165 may include single gesture recognition information recognized as one object and composite gesture recognition information recognized as a plurality of objects. The distinction can be determined by the definition of the gesture input operation process.

예를 들어, 접촉 상태 유지 또는 호버링 상태 유지 상태에서 지속적으로 발생하는 움직임에 해당하는 입력 동작은 단일 제스처 인식 정보를 생성할 수 있다.For example, an input action corresponding to a motion that is continuously occurring in a contact state maintaining state or a hovering state holding state can generate single gesture recognition information.

또한, 접속 상태 및 호버링 상태가 변경되면서 발생하는 움직임에 해당하는 입력 동작은 복합 제스처 인식 정보를 생성할 수 있다. 또는, 호버링 상태가 에어 상태로 변경되면서 움직임이 발생하는 경우 제스처 인식부(165)는 복합 제스처 인식 정보로 인식할 수 있다.In addition, the input operation corresponding to the motion generated when the connection state and the hovering state are changed can generate composite gesture recognition information. Alternatively, when the hovering state is changed to the air state and the movement occurs, the gesture recognition unit 165 can recognize the composite gesture recognition information.

또는, 제스처 인식부(165)는 전자 펜(200)이 펜 인식 패널(143)로부터 인식 가능한 범위를 벗어나는 경계를 기준으로 복수개의 제스처 동작이 발생하는 경우를 복합 제스처 인식을 위한 동작으로 판단할 수 있다.Alternatively, the gesture recognition unit 165 can determine that a plurality of gesture motions are generated based on a boundary where the electronic pen 200 is out of the recognizable range from the pen recognition panel 143, as an operation for recognizing the complex gesture have.

전자 펜(200)이 펜 인식 패널(143)로부터 벗어난 경계 기준의 제스처 인식의 경우 제스처 인식부(165)는 별도 제스처 입력을 위한 버튼 맵을 출력함으로써 사용자가 제스처 입력 완료를 지정할 수 있도록 지원할 수 있다.The gesture recognition unit 165 may output a button map for inputting a separate gesture so that the user can designate completion of the gesture input when the electronic pen 200 is recognized as a boundary based on the deviation from the pen recognition panel 143 .

명령어 처리부(167)는 설정 모드에 따라 기능 종류 확인부(161)로부터 전달되는 기능 종류 정보, 펜 상태 확인부(163)로부터 전달되는 펜 상태 정보, 제스처 인식부(165)로부터 전달되는 제스처 인식 정보 중 적어도 하나를 이용하여 펜 기능 명령어를 생성하는 구성이다.The command processing unit 167 receives the function type information transmitted from the function type identifying unit 161, the pen state information transmitted from the pen state checking unit 163, the gesture recognition information transmitted from the gesture recognizing unit 165, The pen function command is generated by using at least one of the pen function commands.

이 과정에서 명령어 처리부(167)는 다양한 펜 기능 명령어들을 정의한 펜 기능 테이블(153)을 참조할 수 있다.In this process, the command processing unit 167 can refer to the pen function table 153 that defines various pen function commands.

특히, 명령어 처리부(167)는 설정에 따라 또는 현재 활성화되고 있는 기능 종류에 따라 앞서 설명한 바와 같이 기능 종류 정보와 펜 상태 정보 및 제스처 인식 정보에 해당하는 상기 제1 펜 기능 테이블을 참조하거나, 펜 상태 정보 및 제스처 인식 정보 기반의 상기 제2 펜 기능 테이블을 참조하거나, 제스처 인식 정보 기반의 상기 제3 펜 기능 테이블을 참조할 수 있다.In particular, the command processing unit 167 refers to the first pen function table corresponding to the function type information, the pen state information, and the gesture recognition information as described above according to the setting or the function type currently being activated, The second pen function table based on information and gesture recognition information may be referred to, or the third pen function table based on gesture recognition information may be referred to.

명령어 처리부(167)가 생성한 펜 기능 명령어는 기능 수행부(169)에 전달될 수 있다.The pen function command generated by the command processing unit 167 may be transmitted to the function execution unit 169.

기능 수행부(169)는 명령어 처리부(167)가 생성하여 전달한 펜 기능 명령어에 해당하는 기능 운용을 제어하는 구성이다. 이러한 기능 수행부(169)는 현재 활성화되고 있는 기능과 관련된 특정 기능 운용을 지원하거나, 새로운 기능을 호출하거나, 특정 기능 등을 종료하도록 지원할 수 있다. The function performing unit 169 controls the function operation corresponding to the pen function command generated and transmitted by the command processing unit 167. [ The function execution unit 169 can support a specific function operation related to a currently activated function, call a new function, or terminate a specific function or the like.

도 4는 본 발명의 실시 예에 따른 단말기에서 필기 기반 NLI 기술을 지원하기 위한 명령 처리부(167)의 구성 예를 보이고 있다. FIG. 4 illustrates an exemplary configuration of a command processing unit 167 for supporting handwritten NLI technology in a terminal according to an embodiment of the present invention.

도 4를 참조하면, 필기 기반 NLI 기술을 지원하는 명령 처리부(167)는 인지 엔진 (Recognition Engine)(410)과 NLI 엔진 (NLI Engine)(420)을 포함할 수 있다. Referring to FIG. 4, an instruction processing unit 167 supporting a handwriting-based NLI technique may include a recognition engine 410 and an NLI engine 420.

인지 엔진(410)은 인지 관리 모듈 (Recognition Manager Module)(412), 원격 인지 의뢰 모듈 (Remote Recognition Client Module)(414), 지역 인지 모듈 (Local Recognition Module)(416)을 포함할 수 있다. 지역 인지 모듈(416)은 필기 인지 블록 (Handwriting Recognition Block), 광 문자 인지 블록 (Optical Character Recognition Block), 동작 인지 블록 (Object Recognition Block)으로 구성될 수 있다.The cognitive engine 410 may include a Recognition Manager Module 412, a Remote Recognition Client Module 414 and a Local Recognition Module 416. The area recognition module 416 may include a handwriting recognition block, an optical character recognition block, and an operation recognition block.

NLI 엔진(420)은 대화 모듈 (Dialog Module)(422)과 지능 모듈 (Intelligence Module)(424)을 포함한다.The NLI engine 420 includes a dialog module 422 and an intelligence module 424.

대화 모듈(422)은 대화 흐름을 제어하기 위한 대화 관리 블록 및 사용자의 의도를 파악하기 위한 자연어 이해 블록으로 구성된다.The dialog module 422 is composed of a dialog management block for controlling the conversation flow and a natural language understanding block for grasping the intention of the user.

지능 모듈(424)은 사용자 선호도를 반영하기 위한 사용자 모델링 블록, 일반 상식을 반영하기 위한 상식 추론 블록 및 사용자 상황을 반영하기 위한 컨텐츠 관리 블록으로 구성된다.The intelligence module 424 includes a user modeling block for reflecting the user's preference, a common reasoning block for reflecting common sense, and a content management block for reflecting the user's situation.

인지 엔진(410)은 전자 펜(200) 등의 입력 수단에 상응한 그리기 엔진 (Drawing Engine)(미도시)과 카메라 등의 지능 입력 플랫폼 (Intelligent Input Platform)(미도시)에 의한 정보를 입력으로 할 수 있다. The recognition engine 410 inputs information by a drawing engine (not shown) corresponding to input means such as the electronic pen 200 and an intelligent input platform (not shown) such as a camera can do.

지능 입력 플랫폼은 OCR(Optical character reader) 등과 같은 광학식 문자 인식기 등이 될 수 있으며, 인쇄된 문자 또는 사람이 손으로 쓴 문자나 숫자 또는 다른 기호의 형태를 갖는 정보를 읽어 인지 엔진(210)으로 제공할 수 있다.The intelligent input platform may be an optical character recognizer such as an optical character reader (OCR) or the like, and may read information having a printed character or a letter, a number, or other symbol in the form of a hand written by a person, can do.

그리기 엔진은 손가락, 물체, 전자 펜(200)등 다양한 각종 입력 수단에 의한 입력을 받기 위한 구성요소로서, 필기 (Handwriting) 이미지 (Image), 동작 (Object) 등에 의한 정보를 입력으로 할 수 있다.The drawing engine is a component for receiving input by various input means such as a finger, an object, and an electronic pen 200, and can input information by a handwriting image and an object.

인지 엔진(410)로 입력되는 정보는 문자 외에도 선, 기호, 패턴 및 이들이 조합된 형태로 입력될 수 있다.Information input to the cognitive engine 410 may be input in lines, symbols, patterns, and combinations thereof in addition to characters.

인지 엔진(410)은 정보로 입력된 문자, 선, 기호, 패턴, 도형, 이들의 조합 등으로부터 현재 표시된 메모 내용 중 사용자에 의해 선택된 영역의 메모 내용을 인식하거나 사용자에 의해 지시된 명령어를 인식한다.The recognition engine 410 recognizes the memo contents of the area selected by the user among the memo contents currently displayed from the characters, lines, symbols, patterns, figures, combinations thereof, etc. inputted as information or recognizes the command instructed by the user .

인지 엔진(410)은 상술한 바에 의해 얻은 인식 결과 (Recognized Result)를 출력할 수 있다. The recognition engine 410 can output the recognition result obtained by the above-described method.

이를 위해 인지 엔진(410)는 입력 정보로부터 인식 결과를 출력하기 위한 전반적인 제어를 처리하는 인지 관리 모듈(412), 원격 인지 의뢰 모듈(414) 및 입력 정보를 인지하기 위한 지역 인지 모듈(416)을 포함할 수 있다. 지역 인지 모듈(416)은 필기를 기반으로 입력되는 정보를 인지하는 필기 인지 블록과, 입력되는 광학식 신호로부터 정보를 인지하는 광 문자 인지 블록 및 입력되는 동작 등으로부터 정보를 인지하는 동작 인지 블록을 적어도 포함할 수 있다. For this, the recognition engine 410 includes a cognition management module 412, a remote recognition request module 414, and a local recognition module 416 for recognizing input information, which processes overall control for outputting recognition results from the input information . The area recognition module 416 includes a handwriting recognition block for recognizing information input based on the handwriting, a light character recognition block for recognizing information from the input optical signal, and an operation recognition block for recognizing information from the input operation, .

필기 인지 블록은 필기를 기반으로 입력되는 정보를 인지한다. 예를 들면, 필기 인지 블록은 전자 펜(200)에 의해 필기된 내용을 인식한다. The handwriting recognition block recognizes information inputted based on handwriting. For example, the handwriting recognition block recognizes the contents written by the electronic pen 200.

광 문자 인지 블록은 광 감지 모듈(미도시)에 의해 감지된 광신호를 입력받아 광문자를 인지하고, 인지 결과 광문자 인식 결과값을 출력한다. 동작 인지 블록은 동작 감지 모듈(미도시)에 의해 감지된 동작 감지 신호를 입력받아 동작을 인식하고, 동작 인식 결과값을 출력한다.The optical character recognition block recognizes the optical character by receiving the optical signal sensed by the optical sensing module (not shown), and outputs the recognition result optical character recognition result value. The motion recognition block receives the motion detection signal detected by the motion detection module (not shown), recognizes the motion, and outputs the motion recognition result value.

필기 인지 블록, 광 문자 인지 블록 및 동작 인지 블록에 의해 인지된 인식 결과는 NLI 엔진(420)으로 제공될 수 있다.The recognition result recognized by the handwriting recognition block, the optical character recognition block, and the motion recognition block may be provided to the NLI engine 420.

NLI 엔진(420)은 인지 엔진(410)으로부터 제공되는 인지 결과에 대한 분석 등의 처리를 통해 사용자의 의도를 파악할 수 있다. 즉, NLI 엔진(420)은 인지 엔진(410)으로부터 제공되는 인지 결과로부터 사용자가 입력하고자 하는 정보를 파악할 수 있다.The NLI engine 420 can grasp the intention of the user through processing such as analysis of the recognition result provided from the recognition engine 410. [ That is, the NLI engine 420 can grasp the information that the user desires to input from the recognition result provided from the recognition engine 410.

NLI 엔진(420)은 필기 기반 NLI 기술을 이용하여 사용자와의 문답에 의한 대화를 수행하여 충분한 정보를 수집하고, 상기 수집한 정보를 기반으로 사용자의 의도를 파악할 수 있다.The NLI engine 420 can collect the sufficient information by performing dialogue dialogue with the user using the handwritten NLI technology, and can grasp the intention of the user based on the collected information.

이를 위해 NLI 엔진(420)을 구성하는 대화 모듈(422)은 사용자와의 대화를 위한 질문을 구성하고, 상기 구성한 질문을 사용자에게 전달하여 사용자로부터의 답변, 또는 피드백을 수신하기 위한 문답의 흐름을 제어할 수 있다.To this end, the dialog module 422 constituting the NLI engine 420 constructs a question for a conversation with a user, transmits the question to the user, and provides a flow of a dialog for receiving an answer or feedback from the user Can be controlled.

대화 모듈(422)은 문답을 통해 획득한 정보를 관리할 수 있다(대화 관리 블록). 또한, 대화 모듈(422)은 상기 관리되고 있는 정보를 고려하여 최초 제공된 명령에 대한 자연어 처리를 통해 사용자의 의도를 이해한다(자연어 이해 블록).The dialog module 422 can manage the information obtained through the dialog (dialog management block). In addition, the conversation module 422 understands the intention of the user through the natural language processing of the command that is initially provided in consideration of the managed information (natural language understanding block).

NLI 엔진(420)을 구성하는 지능 모듈(424)은 자연어 처리를 통해 사용자의 의도를 파악하기 위해 참조될 정보를 생성할 수 있고, 이를 대화 모듈(422)로 제공할 수 있다. 예컨대, 지능 모듈(424)은 메모 시에 사용자의 습관 등을 분석하여 사용자의 선호도를 반영하는 정보를 모델링(사용자 모델링 블록)하거나 일반적인 상식을 반영하기 위한 정보를 추론(상식 추론 블록)하거나 현재 사용자의 상황을 고려하는 정보를 관리(컨텍스트 관리 블록) 할 수 있다.The intelligent module 424 constituting the NLI engine 420 may generate information to be referred to in order to grasp the intention of the user through natural language processing and may provide it to the dialog module 422. [ For example, the intelligent module 424 may analyze the habits of the user in the memo to memorize information (user modeling block) reflecting the user's preference or infer information (common sense inference block) (Context management block).

따라서, NLI 엔진(420)을 구성하는 대화 모듈(422)은 지능 모듈(424)로부터 제공되는 정보의 도움을 받아 사용자와의 문답 절차에 따른 대화의 흐름을 제어할 수 있다.Accordingly, the dialog module 422 constituting the NLI engine 420 can control the dialogue flow according to the dialog procedure with the user, with the help of the information provided from the intelligence module 424.

도 5은 본 발명의 실시 예에 따른 구동 엔진을 이용하여 어플리케이션과 메모 레이어가 제어되는 도면이다.5 is a diagram illustrating an application and a memo layer being controlled using a driving engine according to an embodiment of the present invention.

예컨대, 도 5에서 보이고 있는 구성은 단말기(100)에서 실행 중인 특정 어플리케이션의 화면 위에 메모 레이어를 오버 랩 (overlap)하여 표시하고, 상기 표시된 메모 레이어에 필기되는 내용에 의해 사용자의 의도를 파악하여 상기 실행 중인 특정 어플리케이션의 동작을 제어할 수 있다.For example, the configuration shown in FIG. 5 overlaps and displays a memo layer on the screen of a specific application running on the terminal 100, grasps the intention of the user according to the content written on the memo layer displayed, It is possible to control the operation of a specific application being executed.

상기 메모 레이어는 터치 패널을 이용하여 메모 기능이 가능한 어플리케이션을 나타낸다.The memo layer indicates an application capable of memo function using the touch panel.

이때, 상기 단말기에서 실행 중인 특정 어플리케이션을 '하위 어플리케이션' 이라는 용어를 사용하여 지칭하도록 한다.At this time, the specific application being executed in the terminal is referred to as a 'sub-application'.

단말기(100)는 상기 하위 어플리케이션 실행 중 메모 기능을 지원하는 어플리케이션이 실행되면 상기 하위 어플리케이션의 실행에 따른 화면 위에 메모 레이어를 오버 랩하여 표시한다. 도 5을 참조하면, 단말기(100)는 어플리케이션 구동엔진(510) 및 메모 레이어 구동 엔진(520)을 포함할 수 있다. When the application supporting the memo function is executed during execution of the sub-application, the terminal 100 overlaps and displays the memo layer on the screen according to the execution of the sub-application. Referring to FIG. 5, the terminal 100 may include an application driving engine 510 and a memo layer driving engine 520.

어플리케이션 구동 엔진(510)은 사용자에 의해 요청된 어플리케이션을 실행시키고, 상기 사용자의 의도를 인지하여 실행 중인 어플리케이션을 제어하는 전반적인 동작을 수행할 수 있다.The application driving engine 510 may execute an application requested by a user and perform an overall operation of controlling an application being executed by recognizing the intention of the user.

특히, 어플리케이션 구동 엔진(510)은 사용자에 의해 메모 레이어가 호출된 후, 상기 호출된 메모 레이어를 통해 사용자에 의해 필기되는 내용에 따른 동작 명령이 제공될 시, 이에 따라 상기 실행 중인 어플리케이션의 동작을 제어할 수 있다. In particular, after the memo layer is called by the user, the application driving engine 510, when an operation command according to the contents written by the user is provided through the memo layer being called, Can be controlled.

이를 위해 어플리케이션 구동 엔진(510)은 실행 중인 어플리케이션의 기능 메뉴를 고려하여 현 시점에서 상기 실행 중인 어플리케이션의 동작을 제어하기 위해 요구되는 정보가 어떠한 것인지를 안내하기 위해 소정의 정보를 메모 레이어 구동 엔진(520)으로 제공할 수 있다. To this end, the application driving engine 510 receives predetermined information from the memo layer driving engine (for example, a memory card) to guide the information required to control the operation of the running application at the present time 520).

상기 소정의 정보는 상기 어플리케이션의 종류, 상기 어플리케이션을 기반으로 현재 실행 중인 기능 메뉴 중 적어도 하나를 포함할 수 있다.The predetermined information may include at least one of a type of the application and a function menu currently being executed based on the application.

이 경우 상기 어플리케이션 구동 엔진(510)은 현재 실행 중인 어플리케이션의 동작을 제어하기 위해 실행중인 어플리케이션에 대해 보다 정확한 정보를 제공받을 수 있다.In this case, the application driving engine 510 may be provided with more accurate information on the application being executed in order to control the operation of the application currently being executed.

메모 레이어 구동 엔진(520)은 메모 기능을 지원하는 어플리케이션의 실행을 요청하기 위해 사전에 약속된 형식에 따른 입력이 사용자에 의해 이루어지는 지를 지속적으로 감시할 수 있다.The memo layer driving engine 520 may continuously monitor whether or not the input according to the predetermined format is performed by the user in order to request execution of the application supporting the memo function.

상기 사전에 약속된 형식은 터치 이벤트를 나타낼 수 있다. 예컨대, 상기 사전에 약속된 형식은 상기 어플리케이션이 실행 중인 화면 위에서 사용자가 화면을 터치 드래그(touch drag)하는 것이 될 수 있다. 터치 드래그는 사용자가 손가락이나 터치 도구를 화면에 터치한 후 터치를 유지한 상태에서 손가락이나 터치 도구를 화면 내의 다른 위치로 이동시키는 동작을 의미한다. The previously promised format may represent a touch event. For example, the previously promised format may be a user's touch dragging the screen on the screen on which the application is running. The touch drag means an operation of moving a finger or a touch tool to another position in the screen while the user holds the touch after touching the finger or the touch tool on the screen.

이때, 상기 터치 드래그는 화면의 좌측에서 우측 방향 또는 그 반대 방향으로 이루어지거나, 화면의 하측에서 상측 방향 또는 그 반대 방향으로 이루어질 수 있다.At this time, the touch drag may be performed from the left side to the right side of the screen or vice versa, or may be from the lower side to the upper side of the screen or vice versa.

상기 터치 드래그를 위해서는 인식이 가능한 어떠한 도구라도 이용될 수 있다. 대표적으로는 사용자의 손가락 또는 전자 펜(200) 등이 될 것이다.Any tool capable of recognizing the touch drag can be used. Typically, it will be a user's finger or electronic pen 200 or the like.

메모 레이어 구동 엔진(520)은 사용자에 의해 메모 기능을 위한 어플리케이션의 실행이 요청될 시, 사용자에 의한 메모가 가능한 메모 레이어를 호출할 수 있다. 메모 레이어 구동 엔진(520)은 상기 호출한 메모 레이어를 상기 어플리케이션의 실행에 따른 화면 위에 오버 랩하여 표시할 수 있다. When the memo layer driving engine 520 requests execution of an application for a memo function by a user, the memo layer driving engine 520 may call a memo layer capable of memo by the user. The memo layer driving engine 520 can display the called memo layer by overlapping on the screen according to the execution of the application.

이때, 상기 메모 레어어는 상기 어플리케이션의 실행 화면 위에 오버랩된 상태에서도 상기 어플리케이션의 실행 화면이 보일 수 있는 투명도를 가지는 것이 바람직하다. 이때 투명도는 투명한 상태에서 불투명한 상태까지 얼마나 투명한지를 나타내는 정도로서, 조절 가능하다. At this time, it is preferable that the memorizer has transparency such that the execution screen of the application can be seen even when the application is overlapped on the execution screen of the application. At this time, transparency is an extent to which transparency is transparent from the transparent state to the opaque state, and is adjustable.

그리고 화면 상에서 상기 메모 레이어가 오버 랩되는 영역은 사용자의 요구에 따라 설정될 수 있다. 즉, 메모 레이어는 설정에 의해 전체 화면에 오버 랩되거나 일부 화면에만 오버 랩될 수도 있다. 또한, 일부 화면에만 오버 랩되도록 메모 레이어가 표시된 후, 사용자가 메모 레이어의 외곽 선 또는 꼭지점을 선택하여 드래그함으로써, 그 크기를 변화시킬 수도 있다.The area where the memo layer is overlapped on the screen can be set according to the request of the user. That is, the memo layer may be overlaid on the entire screen or may be overlapped on only some screens depending on the setting. In addition, after the memo layer is displayed so as to overlap only some screens, the user can change the size by selecting and dragging the outline or vertex of the memo layer.

상술한 바와 같이 메모 레이어 구동 엔진(520)은 어플리케이션이 실행되고 있는 중에 사용자의 요청에 의해 메모가 가능한 메모 레이어를 화면에 표시하기 위한 전반적인 동작을 제어할 수 있다.As described above, the memo layer driving engine 520 can control an overall operation for displaying a memo layer on the screen, which can be memoed by a user's request while the application is being executed.

만약, 어플리케이션 구동 엔진(510)로부터 상기 어플리케이션의 제어를 위해 필요한 정보가 무엇인지를 안내하는 정보가 제공될 시, 메모 레이어 구동 엔진(520)은 화면에 표시되는 메모 레이어에 '사용자에 의한 입력이 요구되는 정보를 안내하는 메시지'를 함께 표시할 수 있다.If the information providing guidance for the information required for controlling the application is provided from the application driving engine 510, the memo layer driving engine 520 displays 'input by the user' in the memo layer displayed on the screen A message that guides the requested information " can be displayed together.

일 예로, 현재 음악 재생 어플리케이션이 실행 중이라면, 메모 레이어에 '재생할 노래를 적어 주세요'라는 메시지를 표시하거나 '검색할 아티스트를 적어주세요'라는 메시지를 표시할 수 있다.For example, if the current music playback application is running, you can display the message 'Please write a song to play' in the note layer or 'Please write artist to search'.

메모 레이어 구동 엔진(520)은 메모 레이어를 화면에 표시한 후, 사용자에 의해 필기되는 내용을 기반으로 상기 사용자의 의도를 인지할 수 있다. 이때 사용자에 의해 필기되는 내용은 미리 정해진 필기 내용이 될 수 있고, 메모 레이어 구동 엔진(520)은 필기 내용을 인식하여 사용자의 의도를 인지할 수 있다. 그리고 메모 레이어 구동 엔진(520)은 인지한 사용자의 의도에 의해 어플리케이션이 구동될 수 있도록 관련 제어 정보를 어플리케이션 구동 엔진(510)에게 제공할 수 있다.The memo layer driving engine 520 may display the memo layer on the screen and recognize the intention of the user based on the content written by the user. At this time, the contents written by the user may be predetermined writing contents, and the memo layer driving engine 520 may recognize the writing contents and recognize the intention of the user. The memo layer driving engine 520 may provide relevant control information to the application driving engine 510 so that the application can be driven by the perceived user's intention.

메모 레이어 구동엔진(520)은 상기 사용자의 의도를 파악하기 위하여 어플리케이션 구동엔진(510)에 계속적으로 관련 정보를 제공할 수 있다.The memo layer driving engine 520 may continuously provide relevant information to the application driving engine 510 to grasp the intention of the user.

메모 레이어 구동 엔진(520)은 사용자가 필기에 의한 내용 입력이 완료되었음을 인지할 수 있도록, 상기 화면에 표시된 메뉴 계층에 입력 메뉴 버튼을 추가로 표시할 수 있다.The memo layer driving engine 520 may additionally display an input menu button on the menu layer displayed on the screen so that the user can recognize that the content input by handwriting is completed.

이 경우, 메모 레이어 구동 엔진(520)은 사용자에 의해 상기 입력 메뉴 버튼이 눌려질 시, 상기 메모 레이어에 필기된 내용을 기반으로 상기 사용자의 의도를 인지하기 위한 동작을 개시할 수 있다.In this case, when the input menu button is pressed by the user, the memo layer driving engine 520 may start an operation for recognizing the intention of the user based on the contents written on the memo layer.

도 6은 본 발명의 실시 예에 따른 어플리케이션과 메모 레이어의 상호관계를 설명하기 위한 순서도이다.6 is a flowchart for explaining a correlation between an application and a memo layer according to an embodiment of the present invention.

610 단계에서, 제어부(160)는 사용자의 요청에 의해 특정 어플리케이션, 즉 하위 어플리케이션이 실행될 수 있다. 상기 하위 어플리케이션이 실행된 후, 제어부(160)는 상기 실행 중인 하위 어플리케이션에 대한 전반적인 동작을 제어할 수 있다. 그리고 상기 하위 어플리케이션을 제어하는 어플리케이션 구동엔진(510)은 상기 하위 어플리케이션의 동작에 따른 상황을 단말기(100)의 화면으로 표시하여 사용자가 상기 하위 어플리케이션의 동작 상태를 확인할 수 있도록 할 수 있다.In step 610, the control unit 160 may execute a specific application, that is, a sub-application, at the request of the user. After the sub-application is executed, the controller 160 may control the overall operation of the sub-application being executed. The application driving engine 510 that controls the sub-application may display a state of the operation of the sub-application on the screen of the terminal 100 so that the user can check the operation state of the sub-application.

620 단계에서, 제어부(160)는 하위 어플리케이션이 실행되고 있는 상태에서 사용자에 의해 메모 레이어가 호출되는 지를 지속적으로 감시할 수 있다.In step 620, the control unit 160 may continuously monitor whether the memo layer is called by the user while the sub-application is being executed.

예컨대, 단말기(100)는 상기 하위 어플리케이션이 실행 중인 화면 위에서 사용자가 화면을 터치 드래그하는 것에 의해 상기 메모 레이어를 호출할 수 있다.For example, the terminal 100 can call the memo layer by touching and dragging the screen on the screen on which the sub-application is running.

이때, 상기 터치 드래그는 화면의 좌측에서 우측 방향 또는 그 반대 방향으로 이루어지거나, 화면의 하측에서 상측 방향 또는 그 반대 방향으로 이루어질 수 있다. 상기 터치 드래그를 위해서는 인식이 가능한 어떠한 도구라도 이용될 수 있다. At this time, the touch drag may be performed from the left side to the right side of the screen or vice versa, or may be from the lower side to the upper side of the screen or vice versa. Any tool capable of recognizing the touch drag can be used.

610 단계와 620 단계 사이에, 메모 레이어는 상기 하위 어플리케이션에서 정보를 전달받아, 상기 메모 레이어에 입력되는 문자의 종류가 어떤 패턴인지 파악하고, 이를 상기 메모 레이어의 상단 영역에 나타낼 수 있다. 상기 메모 레이어의 상단 영역에 나타나는 데이터는 상기 하위 어플리케이션의 종류, 또는 기능에 따라서 다르게 나타날 수 있다.Between steps 610 and 620, the memo layer receives the information from the lower application, recognizes the type of the character input to the memo layer, and displays the pattern in the upper area of the memo layer. The data displayed in the upper area of the memo layer may appear differently depending on the type or function of the lower application.

사용자는 상기 메모 레이어의 상단 영역에 나타나는 데이터를 통하여 상기 메모 레이어에 입력되는 내용의 종류를 파악할 수 있다.The user can recognize the type of contents input to the memo layer through data appearing in the upper area of the memo layer.

예를 들면, 상기 하위 어플리케이션이 노래에 관련된 프로그램인 경우, 상기 메모 레이어의 상단에 디스플레이 되는 이름은 노래 제목을 적어 주세요라고 나타날 수 있다.For example, if the sub-application is a program related to a song, the name displayed at the top of the memo layer may indicate that the song title should be written.

또한, 상기 하위 어플리케이션이 메일에 관련된 프로그램인 경우, 상기 메모 레이어의 상단에 디스플레이 되는 이름은 메일을 보낸 상대방의 이름을 적어 주세요라고 나타날 수 있다.Also, if the sub-application is a program related to mail, the name displayed at the top of the memo layer may indicate that the name of the sender of the mail should be written.

상기 이름은 설정을 통하여, 또는 상기 하위 어플리케이션의 종류에 따라서 다르게 나타나게 할 수 있다. 또한, 상기 하위 어플리케이션의 종류에 무관하게 일정하게 나타나게 할 수도 있다.The name may be displayed differently depending on the setting or the type of the sub-application. Also, it may be displayed constantly regardless of the type of the sub-application.

630 단계에서, 상기 메모 레이어를 제어하는 메모 레이어 엔진(520)은 상기 메모 레이어에 필기 이미지가 입력되는지 계속적으로 감시할 수 있다.In step 630, the memo layer engine 520 that controls the memo layer continuously monitors whether the memo image is input to the memo layer.

640 단계에서, 입력부(120)을 통해 필기 이미지가 입력되면 메모 레이어는 상기 입력된 필기 이미지를 인식하고 상기 입력된 필기 이미지의 정보를 상기 하위 어플리케이션에 전달할 수 있다.In step 640, when a handwritten image is inputted through the input unit 120, the memo layer recognizes the handwritten image input and can pass the inputted handwritten image information to the lower application.

650 단계에서, 하위 어플리케이션 구동엔진(510)은 하위 어플리케이션을 통해 수신된 상기 필기 이미지의 정보를 이미 저장부(150)에 저장되어 미리 설정된 데이터들과 비교할 수 있다.In step 650, the lower application driving engine 510 may compare the handwritten image information received through the lower application with the preset data stored in the storage unit 150. [

상기 메모 레이어가 상기 하위 어플리케이션에게 보내는 필기 이미지는 사용자가 자연스럽게 대화하듯이 나타날 수 있는 피드백일 수 있다.The handwritten image sent by the memo layer to the sub-application may be a feedback that may appear as if the user naturally spoke.

상기 미리 설정된 데이터들은 상기 메모 레이어와 상기 하위 어플리케이션과의 사이에 서로 주고 받는 피드백이 자연스러운 피드백이 될 수 있도록 구성될 수 있다. 그리고, NLI엔진(420)의 대화모듈을 통하여 자연스러운 피드백이 될 수 있도록 상기 미리 설정된 데이터들과 상기 입력된 필기 이미지와 서로 비교하여 서로 연관성이 높인지를 검토할 수 있고, 상기 미리 설정된 데이터들에서 상기 입력된 필기 이미지와 연관성이 높은 피드백을 찾아 상기 메모 레이어로 전송할 수 있다.The preset data may be configured so that the feedback received and received between the memo layer and the sub-application becomes natural feedback. The pre-set data and the input handwritten image may be compared with each other so as to be natural feedback through the dialog module of the NLI engine 420, It is possible to search for a feedback having high relevance to the input handwritten image and transmit the feedback to the memo layer.

660 단계에서, 상기 하위 어플리케이션에서 상기 입력된 필기 이미지에 대응되는 피드백을 상기 미리 설정된 데이터들로부터 찾은 경우, 상기 하위 어플리케이션을 통하여 상기 메모 레이어로 상기 대응되는 피드백이 전송될 수 있다.In step 660, if the feedback corresponding to the input handwritten image is found from the preset data in the sub-application, the corresponding feedback may be transmitted to the memo layer through the sub-application.

상기 대응되는 피드백이 상기 이미 저장된 데이터들로부터 못 찾은 경우, 단말기(100)의 표시부(140)을 통하여 상기 대응되는 피드백이 없으니 필기 이미지를 다시 입력하라는 피드백이 나타날 수 있다.If the corresponding feedback can not be found from the already stored data, feedback may appear to re-enter the handwritten image since there is no corresponding feedback through the display 140 of the terminal 100.

또한, 제어부(160)는 사용자가 입력한 필기 이미지가 오류가 있음을 인지하고 상기 피드백으로 오류 메시지를 상기 메모 레이어에 보낼 수 있다.Also, the control unit 160 may recognize that the handwriting image inputted by the user has an error, and send an error message to the memo layer with the feedback.

또한, 상기 메모 레이어에 다른 필기 이미지가 입력될 수 있으므로, 제어부(160)는 상기 메모 레이어를 입력부(120)에 다른 필기 이미지가 다시 입력되기를 기다리는 대기 모드(665)로 전환할 수 있다.In addition, since another handwritten image can be input to the memo layer, the controller 160 can switch the memo layer to the stand-by mode 665 waiting for another handwritten image to be input to the input unit 120 again.

필기 이미지 대기(665) 상태는 상기 다른 필기 이미지가 입력부(120)을 통하여 입력될 때가지 일시 정지 상태를 나타낼 수 있다.The handwriting image waiting state 665 may indicate a pause state until the other handwriting image is input through the input unit 120. [

670 단계에서, 메모 레이어 구동엔진(520)은 상기 대응되는 피드백이 수신되면, 상기 수신된 피드백을 상기 메모 레이어에 표시할 수 있다. 이때 메모 레이어는 복수로 구성될 수 있고, 어플리케이션으로부터 수신되는 피드백에 따라서 복수의 메모 레이어가 다중 레이어로 겹쳐서 표시될 수 있다.In operation 670, when the corresponding feedback is received, the memo layer driving engine 520 may display the received feedback on the memo layer. At this time, the memo layer may be composed of a plurality of memo layers, and a plurality of memo layers may be superimposed and displayed in multiple layers according to the feedback received from the application.

제어부(160)는 특정한 신호가 수신될 때까지 상기 610 단계에서 670 단계를 계속적으로 반복 수행할 수 있다.The control unit 160 may repeat the steps 610 through 670 until a specific signal is received.

상기 특정한 신호는 상기 메모 레이어가 종료 또는 비활성화되거나 또는 상기 대응되는 필기 이미지가 실행되는 신호일 수 있다.The particular signal may be a signal where the memo layer is terminated or deactivated or the corresponding handwriting image is executed.

또한, 상기 특정한 신호는 다른 메모 레이어가 실행되거나 다른 하위 어플리케이션이 실행되는 신호일 수 있다.In addition, the specific signal may be a signal in which another memo layer is executed or another sub-application is executed.

따라서 상기 특정한 신호는 상기 610 단계에서 670 단계에서 이용되는 문자나 제스쳐를 제외한 다른 신호를 나타낼 수 있다.
Accordingly, the specific signal may represent a signal other than the character or gesture used in step 610 in step 610.

도 7은 본 발명의 실시 예에 따른 하위 어플리케이션과 메모 레이어 사이의 문답을 설명하기 위한 도면이다.7 is a diagram for explaining a dialog between a sub-application and a memo layer according to an embodiment of the present invention.

710 화면에서와 같이, 디스플레이 화면(711)에서 연락처(contacts) 관련 아이콘(712)이 선택되면, 상기 아이콘(711)에 해당하는 어플리케이션(721)이 실행되어 720 화면과 같이 연락처 어플리케이션 화면(720)이 표시될 수 있다. When the contact related icon 712 is selected on the display screen 711 as shown in 710, the application 721 corresponding to the icon 711 is executed to display the contact application screen 720 as shown in 720, Can be displayed.

720 화면에서 어플리케이션(721)이 실행된 상태에서 사용자의 제스쳐가 상기 어플리케이션(721) 상에 입력되면, 730 화면에서와 같이 메모 레이어(731)가 상기 어플리케이션(721) 위에 오버레이되어 표시될 수 있다.720, when the user's gesture is input on the application 721, the memo layer 731 may be overlaid on the application 721 as shown in the screen 730. FIG.

여기서, 어플리케이션(721)은 메모 레이어(731)의 하위에 나타날 수 있어 하위 어플리케이션이라 할 수 있다.Here, the application 721 may appear below the memo layer 731 and may be called a lower application.

730 화면에서와 같이, 메모 레이어(731)에 필기 이미지(732)가 입력되는 경우, 제어부(160)는 수신된 필기 이미지(732)를 표시부(140)의 일정 영역에 표시할 수 있다. The control unit 160 may display the received handwritten image 732 on a predetermined area of the display unit 140 when the handwritten image 732 is input to the memo layer 731. [

제어부(160)의 NLI 엔진(420)은 사용자와의 문답 절차를 이용하여 필기 이미지(732)를 요청하는 질문을 화면에 표시할 수 있다. 예컨대, NLI 엔진(420)은 화면 상에 "Merge with google account"라고 표시하여 사용자가 응답으로 필기 이미지(732)를 입력할 수 있도록 유도할 수 있다.The NLI engine 420 of the control unit 160 may display a question on the screen requesting the handwritten image 732 using the dialog procedure with the user. For example, the NLI engine 420 may display "Merge with google account" on the screen to prompt the user to input the handwritten image 732 in response.

사용자가 응답으로, 메모 기능을 이용하여 "Yes"라고 메모할 시, NLI 엔진(420)은 상기 사용자의 입력에 의해 실행하라는 사용자의 의도를 인지할 수 있다.When the user makes a note of "Yes" in response to the memo function, the NLI engine 420 can recognize the intention of the user to execute by the input of the user.

720 화면에서, 어플리케이션(721)에 나타난 복수의 정보를 다른 계정과 연계하여 상기 정보를 서로 공유할 수 있다.In the screen 720, a plurality of pieces of information displayed in the application 721 can be linked to other accounts and the information can be shared with each other.

우선, 어플리케이션(721)에 나타난 상기 복수의 정보 중 임의의 정보를 선택하여 메모 레이어(731)을 실행시킬 수 있다. 그러면, 상기 선택된 임의의 정보가 상기 다른 계정과 연계될 대상이 될 수 있다.First, the memo layer 731 can be selected by selecting any of the plurality of pieces of information shown in the application 721. [ Then, the selected arbitrary information may be an object to be associated with the other account.

또한, 어플리케이션(721)에 나타난 정보의 선택 없이 메모 레이어(731)을 실행시키면, 상기 복수의 정보가 다른 계정과 연계될 대상이 될 수 있다.In addition, if the memo layer 731 is executed without selecting the information displayed in the application 721, the plurality of pieces of information can be objects to be linked with other accounts.

메로 레이어(731)에 Merge라고 입력하면, 메모 레이어(731)은 상기 Merge의 정보를 어플리케이션(721)에 보낼 수 있다.If Merge is input to the mero layer 731, the memo layer 731 can send the Merge information to the application 721. [

어플리케이션(721)은 수신된 상기 정보를 이미 설정된 데이터와 비교하여 피드백(733)이 될 수 있는 데이터를 서치할 수 있다.The application 721 can compare the received information with the already set data to search for data that can become the feedback 733. [

상기 서치된 피드백(733)은 메모 레이어(731)을 통하여 표시될 수 있다. 상기 필기 이미지(732)는 문자, 피드백, 이미지, 패턴, 숫자, 특수문자, 이메일 주소 들 중 적어도 하나일 수도 있다.The search feedback 733 may be displayed through the memo layer 731. [ The handwritten image 732 may be at least one of letters, feedback, images, patterns, numbers, special characters, email addresses.

또한, 문자 수신 기능이 펜 기능 운용을 지원하도록 설계된 경우, 펜을 이용한 필기 이미지(732) 입력을 수행할 수 있다. 이때, 단말기(100)는 메모 레이어(731)에 필기 이미지(732)가 표시 유지된 상태에서 전자 펜(200)으로부터 입력되는 제스처 입력 동작에 해당하는 정보를 인식할 수 있다.In addition, when the character receiving function is designed to support pen function operation, a handwritten image 732 input using the pen can be performed. At this time, the terminal 100 can recognize the information corresponding to the gesture input operation input from the electronic pen 200 in a state in which the handwriting image 732 is displayed on the memo layer 731.

만약, 상기 일정 시간이 경과하면 필기 이미지(732)가 사라지도록 설정될 수도 있다. 메모 레이어(731)에서, 필기 이미지(732)가 사라진 경우에는 전자 펜(200)에 의한 입력 기능이 지원되지 않도록 설계될 수 있다. 이에 따라, 단말기(100)는 펜 기능 운용 지원 등의 목적으로 상기 필기 이미지 표시 대기 시간을 조정할 수 있도록 지원할 수 있다.If the predetermined time elapses, the handwritten image 732 may be set to disappear. In the memo layer 731, when the handwritten image 732 disappears, the input function by the electronic pen 200 can be designed not to be supported. Accordingly, the terminal 100 can support the handwriting image display waiting time for the purpose of supporting the pen function operation or the like.

이를 위하여 단말기(100)는 상기 필기 이미지 표시 대기 시간을 조정할 수 있는 메뉴 화면을 제공할 수 있다. 사용자는 상기 표시 대기 시간 조정 메뉴 화면을 이용하여 상기 필기 이미지의 표시 대기 시간을 자신의 기호에 맞게 또는 자신의 답장 기입 능력에 대응하도록 임의 조정할 수 있다. 별도 임의 조정이 없는 경우 단말기(100)는 사전 설정된 방식에 따라 상기 필기 이미지의 표시 대기 시간을 정의할 수 있다.For this, the terminal 100 may provide a menu screen for adjusting the handwriting image display waiting time. The user can arbitrarily adjust the display waiting time of the handwritten image according to his or her preference using the display wait time adjustment menu screen so as to correspond to his or her reply writing ability. The terminal 100 may define the display waiting time of the handwritten image according to a predetermined method.

제어부(160)를 이용하여, 메모 레이어(731)는 입수된 필기 이미지(732)를 수신하고 필기 이미지(732)을 하위 어플리케이션(721)에 전송할 수 있다.Using the control unit 160, the memo layer 731 can receive the handwritten image 732 obtained and transmit the handwritten image 732 to the sub-application 721. [

하위 어플리케이션(721)은 NLI 엔진(22)과 하위 어플리케이션 엔진(510)을 이용하여 입수된 필기 이미지(732)를 미리 설정된 데이터와 비교하여 상기 필기 이미지(732)에 적합한 피드백(733)을 선별할 수 있다.The sub application 721 compares the handwritten image 732 acquired using the NLI engine 22 and the sub application engine 510 with preset data and selects a feedback 733 suitable for the handwriting image 732 .

상기 피드백(733)은 문자, 피드백, 이미지, 패턴, 숫자, 특수문자, 이메일 주소 중 적어도 하나일 수 있다.The feedback 733 may be at least one of a character, a feedback, an image, a pattern, a number, a special character, and an e-mail address.

피드백(733)이 선별된 경우, 적합한 피드백(733)은 메모 레이어(731)에 디스플레이될 수 있도록, 하위 어플리케이션(721)을 통하여 메모 레이어(731)로 전송될 수 있다.When the feedback 733 is selected, the appropriate feedback 733 may be transmitted to the memo layer 731 via the sub-application 721 so that it can be displayed on the memo layer 731. [

피드백(733)이 메모 레이어(731)에 표시되면서, 표시됨을 사용자에게 알려주기 위해서 오디오 처리부(130)를 통해 오디오 신호가 출력될 수 있다.The feedback signal 733 is displayed on the memo layer 731 and an audio signal may be output through the audio processing unit 130 to inform the user that the display 733 is displayed.

또한, 필기 이미지(732)가 메모 레이어(731)에 입력되고 필기 이미지(732)의 데이터가 하위 어플리케이션(721)로 전송될 때 오디오 처리부(130)을 통해 오디오 신호가 출력될 수 있다.An audio signal may be output through the audio processing unit 130 when a handwritten image 732 is input to the memo layer 731 and data of the handwritten image 732 is transmitted to the lower application 721. [

사용자는 적합한 피드백(733)을 읽고 추가 질문이 필요한 경우, 메모 레이어(731) 상에 필기 이미지(734)를 다시 기재할 수 있다.The user may read the appropriate feedback 733 and rewrite the handwritten image 734 on the memo layer 731 if additional questions are needed.

메모 레이어(731)는 다시 필기 이미지(734)가 감지되면, 감지된 필기 이미지(734)를 하위 어플리케이션(721)에 전송할 수 있다.The memo layer 731 may transmit the sensed handwritten image 734 to the lower application 721 when the handwritten image 734 is detected again.

하위 어플리케이션(721)는 수신된 필기 이미지(734)가 실행 명령을 나타내는지, 또는 추가 답변(피드백)이 필요한 상황인지 미리 설정된 데이터와 비교하여 판단할 수 있다.The sub-application 721 can compare the received handwritten image 734 with preset data to determine whether it represents an execution command or a situation in which an additional answer (feedback) is required.

상기 수신된 필기 이미지(734)가 실행 명령을 나타내는 경우, 제어부(160)는 상기 실행 명령에 따라서 프로그램을 실행시킬 수 있다.When the received handwritten image 734 indicates an execution command, the control unit 160 can execute the program according to the execution command.

추가 답변이 필요한 상황이 판단된 경우, 하위 어플리케이션(721)은 메모 레이어(731)에 다른 추가 답변을 전송할 수 있고, 상기 추가 답변은 메모 레이어(731) 상에 나타날 수 있다.If it is determined that a situation requires a further answer, the sub-application 721 may send another additional answer to the memo layer 731, and the additional answer may appear on the memo layer 731.

또한, 하위 어플리케이션(721)는 수신된 필기 이미지(734)와 실행 버튼(735)의 신호가 같이 수신되면 입수된 필기 이미지(734)와 미리 설정된 데이터와 비교하는 단계를 건너뛰어 곧바로 실행 명령의 프로그램을 실행되도록 할 수 있다. The sub-application 721 also skips the step of comparing the received handwritten image 734 with the preset data when the received handwritten image 734 and the signal of the execute button 735 are received together, Can be executed.

제어부(160)는 하위 어플리케이션(721)에서 전송된 피드백(733)가 표시되는 동안 또는 필기 이미지(732)가 표시되는 시점으로부터 일정 시간 이내에 메모 레이어(731)의 일부 영역에 기입된 필기 이미지(734)를 답장으로서 인식할 수 있다. The control unit 160 displays the handwritten image 734 written in the partial area of the memo layer 731 within a certain time period while the feedback 733 transmitted from the lower application 721 is displayed or the handwritten image 732 is displayed, ) Can be recognized as a reply.

상기 피드백(733)는 메모 레이어(731)에 입력되는 상기 필기 이미지(732)에 따라서 변경될 수 있다.The feedback 733 may be changed according to the handwritten image 732 input to the memo layer 731. [

도 6의 610 단계와 620 단계 사이에서 설명한 내용과 참조하면, 메모 레이어(731)의 일부 영역(738)에는 메모 레이어(731)와 연계된 하위 어플리케이션(721)의 기능이 무엇인지 알려주는 피드백이 표시될 수 있다.Referring to the description between steps 610 and 620 of FIG. 6, a feedback signal indicating what the function of the lower application 721 associated with the memo layer 731 is in the partial area 738 of the memo layer 731 Can be displayed.

또한, 일부 영역(738)에는 사용자가 입력할 필기 이미지가 무엇인지를 암시할 수 있는 피드백이 표시될 수 있다.In some areas 738, feedback may be displayed to indicate what the handwritten image is to be input by the user.

메모 레이어(731)의 다른 일부 영역(739)에는 메모 레이어(731)과 연계된 하위 어플리케이션(721)이 무엇인지를 나타내는 아이콘이 표ㅣ될 수 있다.An icon indicating what the sub-application 721 associated with the memo layer 731 may be displayed in another area 739 of the memo layer 731. [

일부 영역(739) 또는 다른 일부 영역(730)에 표시되는 피드백 또는 아이콘을 참조하여, 사용자는 메모 레이어(731)의 일부 영역에 적절한 필기 이미지를 입력할 수 있다.The user can input a suitable handwriting image in a partial area of the memo layer 731 by referring to the feedback or icon displayed in some area 739 or some other area 730. [

단말기(100)는 답장 기입을 위한 제스처 입력 동작에 해당하는 제스처 인식 정보가 수집되면, 수집된 제스처 인식 정보를 수신된 필기 이미지에 대응하는 정보로서 처리할 수 있다.When the gesture recognition information corresponding to the gesture input operation for reply writing is collected, the terminal 100 may process the collected gesture recognition information as information corresponding to the received handwriting image.

이를 보다 상세히 설명하면, 단말기(100)는 사용자의 답장 입력이 완료되면 백그라운드 프로세싱을 통하여 수신 필기 이미지에 대응하는 기능을 활성화할 수 있다.To be more specific, the terminal 100 may activate the function corresponding to the received handwriting image through background processing when the input of the user's reply is completed.

즉, 단말기(100)는 수신 필기 이미지의 기능이 문자 메시지를 보내는 기능인 경우, 문자 메시지 기능을 활성화하기 위해 문자 메시지 어플리케이션을 실행할 수 있으며, 수신 문자의 송신자 정보를 자동 추출함과 아울러 기입된 제스처 인식 정보를 포함하는 문자를 작성하여 자동 송신하도록 제어할 수 있다.That is, when the function of the received handwritten image is to send a text message, the terminal 100 can execute the text message application to activate the text message function, automatically extract the sender information of the received character, It is possible to create and automatically transmit a character including information.

한편, 상기 답장 입력이 완료되는 시점은 전자 펜(200)이 표시부(140)로부터 일정 거리 이격되어 인식이 불가능한 경우이거나, 사전 정의된 특정 제스처 예를 들면 마침표에 해당하는 정보가 입력되는 시점이 될 수 있다.Meanwhile, the completion of the reply input may be a time when the electronic pen 200 is distanced from the display unit 140 by a predetermined distance, or a predetermined predefined gesture, for example, information corresponding to a period is input .

또는, 단말기(100)는 답장 입력이 시작되면 답장 완료를 위한 실행버튼(735)에 나타날 수 있으며, 사용자는 해당 실행버튼(735) 선택을 통하여 답장 입력 완료를 수행할 수 있다.Alternatively, the terminal 100 may be displayed on the execution button 735 for the completion of the reply when the reply input starts, and the user may perform the completion of the reply input through the selection of the corresponding execution button 735.

730 화면에서 필기 이미지 입력이 완료되면 단말기(100)의 화면은 720 화면으로 자동 복귀하거나, 송수신된 필기 이미지 이력을 확인할 수 있도록 슬립 상태를 해제하고 필기 이미지 송수신 이력 화면이 나타날 수 있다. When the handwriting image input is completed on the 730 screen, the screen of the terminal 100 may automatically return to the 720 screen, or the sleep state may be released so that the handwritten image transmission history screen may be displayed.

730 화면은 송수신되는 필기 이미지의 특성에 따라 달라질 수 있다. 즉, 730 화면은 필기 이미지 송수신 화면이 될 수도 있으며, 또한 채팅방 화면이 될 수도 있다.730 screen may vary depending on characteristics of handwritten images transmitted and received. That is, the 730 screen may be a handwritten image transmission / reception screen, or may be a chat room screen.

730 화면에서 메모 레이어(731)가 반투명으로 형성될 수 있어, 메모 레이어(731)의 아래에 위치한 하위 어플리케이션(721)이 반투명으로 메모 레이어(731)에 비추어 나타날 수 있다.The memo layer 731 may be formed in a semi-transparent state on the screen 730 and the sub-application 721 located below the memo layer 731 may appear in a semitransparent manner on the memo layer 731. [

메모 레이어(731)의 투명도 설정을 통하여 상기 반투명은 변경될 수 있다. 그래서 메모 레이어(731)의 투명도가 변경 가능하여 상기 비춰지는 하위 어플리케이션(721)의 명암이 달라질 수 있다.The translucency can be changed through transparency setting of the memo layer 731. [ Therefore, the transparency of the memo layer 731 can be changed, and the contrast of the displayed lower application 721 can be changed.

730 화면에서 메모 레이어(731)가 실행중인 상태에서 다른 메모 레이어를 실행시킬 수 있다. 상기 다른 메모 레이어는 메모 레이어(731)와 연계된 어플리케이션과 연동되거나, 다른 어플리케이션과 연동할 수 있다.It is possible to execute another memo layer while the memo layer 731 is being executed in the 730 screen. The other memo layer may be interlocked with an application associated with the memo layer 731, or may interwork with another application.

상기 다른 메모 레이어는 메모 레이어(731)과 같은 기능을 수행할 수 있다.The other memo layer may perform the same function as the memo layer 731.

또한, 상기 다른 메모 레이어는 메모 레이어(731)과 연동하여 서로 데이터를 주고 받을 수도 있다. 상기 주고 받은 데이터는 하위 어플리케이션(721)으로 보내질 수 있다.In addition, the other memo layers may exchange data with the memo layer 731 in cooperation with each other. The received data may be sent to the sub-application 721.

하위 어플리케이션(721)은 수신된 상기 데이터를 이미 저장된 데이터와 비교하여 적절한 피드백을 선택할 수 있다.The sub-application 721 may compare the received data with already stored data to select appropriate feedback.

상기 선택된 피드백은 메모 레이어(731)의 상에, 또는 상기 다른 메모 레이어의 상에 표시될 수 있다.The selected feedback may be displayed on the memo layer 731 or on the other memo layer.

상기 피드백이 메모 레이어(731)의 상에 표시될 때, 상기 다른 메모 레이어가 메모 레이어(731) 위에 오버레이되어 표시될 수 있다. 또한, 상기 다른 메모 레이어가 표시될 때 상기 다른 메모 레이어가 반투명으로 구성되어 상기 다른 메모 레이어를 통하여 메모 레이어(731)가 표시될 수 있다.When the feedback is displayed on the memo layer 731, the other memo layer may be displayed overlaid on the memo layer 731. In addition, when the other memo layer is displayed, the memo layer is semi-transparent and the memo layer 731 can be displayed through the other memo layer.

도 8은 본 발명의 다른 실시 예에 따른 하위 어플리케이션과 메모 레이어 사이의 문답을 설명하기 위한 도면이다.8 is a diagram for explaining a dialog between a sub-application and a memo layer according to another embodiment of the present invention.

도 8은 하위 어플리케이션과 메모 레이어에 입력되는 피드백의 종류에 따라 메모 레이어 상에 나타나는 답변들이 서로 다른 실시 예들이다. FIG. 8 shows an example in which responses appearing on the memo layer are different depending on the type of feedback input to the sub-application and the memo layer.

810 화면에서, 도 7과 같이 연락 목록의 아이콘(811)이 선택되어 상기 연락 목록에 해당하는 하위 어플리케이션(812)이 실행되어 표시되고, 상기 하위 어플리케이션(812) 위에 겹쳐서 메모 레이어(813)가 표시될 수 있다.The icon 811 of the contact list is selected as shown in FIG. 7 on the screen 810, the lower application 812 corresponding to the contact list is executed and displayed, and the memo layer 813 is displayed over the lower application 812 .

메모 레이어(813) 상에 입력되는 문자(815)에 따라서 상기 문자(815)에 적합한 대응 답변인 피드백(817)이 메모 레이어(813) 상에 표시될 수 있다.A feedback 817 corresponding to the character 815 can be displayed on the memo layer 813 according to the character 815 input on the memo layer 813. [

820 화면과 830 화면에서, 810 화면의 하위 어플리케이션은 같으나, 메모 레이어(813)에 입력되는 문자(815)가 다른 문자들(825, 835)이 입력될 수 있다.In the 820 screen and the 830 screen, other characters 825 and 835 may be input to the character 815 input to the memo layer 813, although the sub application of the 810 screen is the same.

이때, 입력된 문자들(825, 835)에 따라서 메모 레이어(813) 상에 나타나는 답변의 피드백들(827, 837)이 서로 다르게 표시될 수 있다.At this time, the feedbacks 827 and 837 of the answers appearing on the memo layer 813 may be displayed differently according to the input characters 825 and 835.

이는 제어부(160)가 하위 어플리케이션에 수신되는 문자를 미리 설정된 데이터와 비교하여 상기 문자와 대응되는 적절한 답변을 찾아 메모 레이어(813) 상에 상기 피드백을 표시하기 때문이다.This is because the controller 160 compares the characters received in the lower application with preset data, finds an appropriate answer corresponding to the character, and displays the feedback on the memo layer 813.

840 화면은 810의 하위 어플리케이션과 다른 어플리케이션이 실행된 경우이다.The 840 screen is when the 810 sub-application and other applications are running.

840 화면에 나타난 상기 다른 어플리케이션은 음악에 관련된 어플리케이션이다.840 The other application shown on the screen is an application related to music.

상기 다른 어플리케이션의 위에 메모 레이어(841)가 실행되어 표시될 수 있고, 메모 레이어(841)의 일부 영역에, 예를 들면 맨 상단에 상기 다른 어플리케이션이 무엇인지 알 수 있는 테스트, 또는 아이콘이 표시될 수 있다.A memo layer 841 may be displayed on top of the other application and a test or icon may be displayed on a part of the memo layer 841, for example, .

메모 레이어(841) 상에 문자(842)가 입력되면, 메모 레이어(841)는 문자(842)를 상기 다른 어플리케이션에 전송할 수 있다. 상기 다른 어플리케이션은 수신된 문자의 정보를 미리 설정된 테스트와 비교하여 적절한 피드백을 선택할 수 있다.When a character 842 is input on the memo layer 841, the memo layer 841 can transmit the character 842 to the other application. The other application may compare the information of the received character with a preset test to select appropriate feedback.

상기 선택된 피드백(843)은 메모 레이어(841)의 상에 나타나도록 제어부(160)는 제어할 수 있다.The controller 160 may control the selected feedback 843 to appear on the memo layer 841.

사용자는 단말기의 화면에 나타난 메모 레이어(841)을 통하여 선택된 피드백(843)을 읽고 추가 답변이 필요한 경우 다른 문자(844)를 메모 레이어(841)에 입력할 수 있다.The user can read the selected feedback 843 through the memo layer 841 displayed on the screen of the terminal and input another character 844 to the memo layer 841 when an additional answer is required.

또한, 메모 레이어(841)은 입력된 다른 문자(844)을 상기 다른 어플리케이션으로 전송할 수 있고, 상기 다른 어플리케이션은 수신된 다른 문자의 정보를 미리 설정된 테스트와 비교하여 다른 적절한 피드백을 찾을 수 있다.In addition, the memo layer 841 can transmit the input other characters 844 to the other application, and the other application can compare the information of other received characters with the preset test to find other appropriate feedback.

상기 다른 적절한 피드백(845)은 메모 레이서(841)의 상에 나타나도록 제어부(160)는 제어할 수 있다.The controller 160 may control the other appropriate feedback 845 to appear on the memorizer 841.

사용자는 다른 적절한 피드백(845)에 답변으로 또 다른 문자(846)을 메모 레이어(841)에 기재할 수 있다.The user may write another character 846 in the memo layer 841 in response to another appropriate feedback 845. [

또는, 사용자는 다른 적절한 피드백(845)에서 일부의 피드백을 그대로 또 다른 문자(846)으로 입력할 수 있다.Alternatively, the user may enter some of the feedback as is in another character 846 in another appropriate feedback 845.

또는, 다른 적절한 피드백(845)에서 일부의 피드백이 선택될 수 있도록 제스쳐가 메모 레이어(841)에 입력될 수 있다.Alternatively, a gesture may be input to the memo layer 841 such that some feedback may be selected in other appropriate feedback 845.

메모 레이어(841)는 상기 제스쳐에 의해 다른 적절한 피드백(845) 중 일부 피드백이 선택되면 상기 선택된 피드백의 정보를 상기 다른 어플리케이션에 전송할 수 있다. 상기 다른 어플리케이션은 수신된 상기 선택된 피드백의 정보에 따라서 실행을 수행할 수 있다.The memo layer 841 may transmit the selected feedback information to the other application if some of the other suitable feedback 845 is selected by the gesture. The other application can perform execution according to the received feedback information.

예를 들면, 다른 적절한 피드백(845)인 삭제? 플레이? 반복플레이? 중 플레이가 선택되면 이미 입력된 문자(844)인 서쪽하늘의 노래가 플레이 된다.For example, another suitable feedback 845, delete? play? Repeat play? When the middle play is selected, the song of the west sky, which is already inputted character 844, is played.

상기 선택의 방법은 다른 적절한 피드백(845)에서 일부 문자를 터치하거나, 상기 일부 문자 상에 제스쳐를 하거나, 상기 일부 문자가 말해지거나 등 다양한 방법에 의해 이루어질 수 있다.The method of selection may be accomplished in a variety of ways, such as by touching some characters in other appropriate feedback 845, gesturing on some of the characters, or saying some of the characters.

도 9에서 도 16까지는 도 7의 실시 예를 활용한 다양한 응용 예를 나타낸다.9 through 16 illustrate various applications using the embodiment of FIG.

도 9는 본 발명의 또 다른 실시 예에 따른 하위 어플리케이션과 메모 레이어를 이용하여 복수의 사용자에게 메시지를 보내는 방법을 설명하기 위한 도면이다.9 is a view for explaining a method of sending a message to a plurality of users using a sub-application and a memo layer according to another embodiment of the present invention.

910 화면에서 메시지 관련 어플리케이션이 실행되고, 메모 레이어(911)가 상기 메시지 관련 어플리케이션 위에 겹쳐서 표시될 수 있다.A message related application is executed in the 910 screen, and a memo layer 911 can be displayed overlaid on the message related application.

메모 레이어(911) 상에 문자(912)가 입력되면, 상기 메시지 관련 어플리케이션으로부터 피드백인 답변(913)이 메모 레이어(911) 상에 나타날 수 있다. 여기서, 문자(912)는 실행 명령어와 수신인이 포함될 수 있다.When a character 912 is input on the memo layer 911, a reply 913, which is a feedback from the message related application, may appear on the memo layer 911. [ Here, the character 912 may include an execution command and a recipient.

예를 들면, Replay Angela and 김성수의 문자(912)에서 상기 실행 명령어는 Replay를 상기 수신인은 Angela and 김성수를 나타낸다.For example, in the character 912 of Replay Angela and Kim Sung Soo, the execution command indicates Replay, and the recipient indicates Angela and Kim Sung Soo.

상기 실행 명령어는 상기 실행 명령어 뒤에 나오는 상기 수신인에게 메시지를 보내라는 명령어를 나타낼 수 있다.The execution command may indicate an instruction to send a message to the recipient following the execution command.

답변(913)이 메모 레이어(911) 상에 나타난 이후, 사용자는 상기 수신인에게 보낼 메시지(914)를 메모 레이어(911)의 일부 영역에 입력할 수 있다.After the answer 913 appears on the memo layer 911, the user can input a message 914 to be sent to the recipient in a partial area of the memo layer 911. [

입력된 메시지(914)는 메모 레이어(911)를 통하여 상기 메시지 관련 어플리케이션에게 보내질 수 있다.The input message 914 may be sent to the message related application via the memo layer 911. [

상기 입력된 메시지(914)를 상기 수신인에게 전송하기 위해서, 상기 메시지 관련 어플리케이션은 상기 수신인의 정보를 저장부(150)에서 이미 저장된 데이터로부터 획득할 수 있다. 상기 메시지 관련 어플리케이션은 상기 획득된 수신인의 정보를 이용하여 메시지(914)를 상기 수신인한테 전송할 수 있다.In order to transmit the input message 914 to the recipient, the message related application may obtain the recipient's information from the data already stored in the storage unit 150. [ The message-related application may transmit the message 914 to the recipient using the acquired information of the recipient.

상기 메시지 관련 어플리케이션을 통하여 곧바로 메시지(914)가 상기 수신인에게 전송되거나, 920 화면과 같이 메시지 입력 화면(921)이 디스플레이되어 메시지(914)의 사용자가 확인할 수 있다. 상기 사용자는 메시지 입력창(922)를 통하여 보내질 메시지(914)을 수정하거나 추가할 수 있다.A message 914 may be directly transmitted to the recipient through the message related application or a message input screen 921 may be displayed as in the 920 screen so that the user of the message 914 can confirm the message. The user may modify or add a message 914 to be sent via the message input window 922. [

상기 사용자는 메시지 입력창(922)의 내용을 확인하고 수정 사항이 없는 경우, 또는 메시지(914)를 수정한 경우 보내기 버튼을 이용하여 상기 수신인에게 메시지 입력창(922)에 나타난 메시지를 보낼 수 있다.The user can check the contents of the message input window 922 and send the message displayed in the message input window 922 to the recipient using the send button when there is no modification or modification of the message 914 .

도 10은 도 9의 응용 예로써, 메모 레이어를 이용하여 송신인의 정보를 변경하는 방법을 설명하기 위한 도면이다.10 is a diagram for explaining a method of changing information of a sender using a memo layer as an application example of Fig.

1010 화면은 920 화면에서 메모 레이어(1011)을 실행시켜 메시지 입력 화면(921)의 위에 겹쳐서 표시될 수 있다.The 1010 screen may be displayed over the message input screen 921 by executing the memo layer 1011 on the 920 screen.

메모 레이어(1011) 상에 송신인의 정보를 수정하기 위해서 피드백(1012)이 입력도면, 제어부(160)는 메모 레이어(1011)을 통하여 상기 피드백(1012)를 수신하고 이미 저장된 데이터와 비교하여 적절한 답변의 피드백(1013)을 찾아 메모 레이어(1011) 상에 나타날 수 있도록 하위 어플리케이션을 제어할 수 있다.A feedback 1012 is input to modify the sender's information on the memo layer 1011 and the control 160 receives the feedback 1012 via the memo layer 1011 and compares it with previously stored data It is possible to control the sub-application so that it can be displayed on the memo layer 1011 by searching for the feedback 1013 of the answer.

답변의 피드백(1013)이 메모 레이어(1011)에 나타나면, 사용자는 송신인 정보의 수정 내용(1014)을 메모 레이어(1011)의 일부 영역에 입력할 수 있다.When the feedback 1013 of the answer appears in the memo layer 1011, the user can input the modification content 1014 of the sender information to a partial area of the memo layer 1011. [

상기 송신인 정보의 수정 내용(1014) 입력이 완료되면, 상기 사용자는 실행버튼(1015)를 선택하여 수정 내용(1014)가 하위 어플리케이션으로 보내질 수 있도록 할 수 있다.When inputting the modification content 1014 of the sender information is completed, the user can select the execution button 1015 to allow the modification content 1014 to be sent to the sub-application.

1020 화면에서 상기 입력된 수정 내용(1014)이 디스플레이의 일부 영역인 송신인 정보 입력창(1021)에 나타날 수 있다.In the screen 1020, the input modification information 1014 may be displayed in the transmission information input window 1021, which is a part of the display.

송신인 정보 입력창(1021)에 수정 내용(1014)이 나타나면, 메모 레이어(1011)가 사라질 수도 있다.When the modification content 1014 appears in the sender information input window 1021, the memo layer 1011 may disappear.

송신인 정보 입력창(1021)은 송신인 정보를 수정하기 전에는 1020 화면에 나타나지 않고 수정된 경우에만 나타날 수 있다.The sender information input window 1021 can be displayed only when the sender information is not displayed on the screen 1020 before being modified.

또는, 1010 화면과는 달리 송신인 정보가 화면의 일부 영역에 항상 나타날 수도 있다.Alternatively, unlike the 1010 screen, the sender information may always appear in a part of the screen.

도 10은 송신인 정보 수정하는 방법에 관해서 설명하였으나, 수신인 정보 또는 다른 정보 수정을 위한 방법으로 응용될 수도 있다.Although FIG. 10 has been described with respect to a method for correcting sender information, it may be applied as a method for correcting recipient information or other information.

도 11은 메모 레이어를 이용하여 이모티콘 이미지를 호출하는 방법을 설명하기 위한 도면이다.11 is a diagram for explaining a method of calling an emoticon image using a memo layer.

도 11을 참조하면, 메시지 작성중 이모티콘 이미지가 필요한 경우가 발생한다. 이때, 이모티콘 메뉴를 호출하여 필요한 이미지를 선택하기 위해서 여러 단계의 입력이 필요하거나 복잡한 선택 과정이 필요하게 된다면 비효율적일 수 있다.Referring to FIG. 11, there is a case where an emoticon image is needed during message creation. At this time, it may be inefficient if multiple steps are required to call the emoticon menu to select the required image, or if a complex selection process is required.

상기 복잡성을 단순화하기 위해서, 메모 레이어(1101)를 이용할 수 있다.In order to simplify the complexity, a memo layer 1101 can be used.

예를 들면, 메시지 작성 도중 화면에 제스쳐를 입력하여 메모 레이어(1101)을 호출하고, 메모 레이어(1101) 상에 이모티콘 호출명(1102)을 입력할 수 있다. 그리고 제어부(160)는 하위 어플리케이션으로부터 이모티콘 이미지들(1103)을 서치하여 메모 레이어(1101) 상에 나타낼 수 있다.For example, a gesture may be entered on the screen during message creation to invoke the memo layer 1101, and the emoticon call name 1102 may be entered on the memo layer 1101. The control unit 160 can search the emoticon images 1103 from the lower application and display them on the memo layer 1101. [

이모티콘 이미지들(1103) 중 하나가 선택되면, 상기 선택된 이미지 정보가 하위 어플리케이션에 전달될 수 있다.If one of the emoticons images 1103 is selected, the selected image information may be delivered to the lower application.

또한, 이모티콘 이미지들(1103) 중 하나가 선택되고 실행버튼(1104)가 선택되면, 상기 선택된 이모티콘 이미지 정보가 하위 어플리케이션에 전달될 수 있다.Also, when one of the emoticon images 1103 is selected and the execution button 1104 is selected, the selected emoticon image information can be delivered to the lower application.

상기 선택된 이모티콘 이미지는 작성중인 상기 메시지의 일부분에 삽입될 수 있다.The selected emoticon image may be inserted into a portion of the message being created.

도 11은 메시지 작성 도중에 이모티콘 이미지를 선택하는 예를 들어 설명하였으나, 카카오톡 등 다양한 메시지 관련 어플리케이션에서 응용될 수 있다.11 illustrates an example of selecting an emoticon image during message creation, it can be applied to various message related applications such as a kakao chat.

도 12는 메일 보내기를 실행할 때 메일의 일부분이 빈상태인 경우 예컨대 메일을 보내기 위해 입력이 필요한 입력 항목들 중 일부 입력 항목에 대한 내용이 입력되지 않은 상태인 경우, 메모 레이어가 입력이 필요한 항목에 대해서 피드백을 주는 방법을 설명하기 위한 도면이다.FIG. 12 is a diagram illustrating an example in which when a part of a mail is empty when a mail is sent, for example, in a state in which a content of some input items among input items requiring input for sending a mail is not inputted, Fig. 2 is a diagram for explaining a method of giving feedback to a user.

1210 화면에서 메일 보내기가 실행 될 때, 메일 어플리케이션과 연동된 메모 레이어(1221)는 상기 메일 어플리케이션 상에 입력된 내용을 검토할 수 있다.1210 When the mail sending is executed on the screen, the memo layer 1221 interlocked with the mail application can review the contents inputted on the mail application.

1210 화면에서 메일 보내기가 실행 될 때, 메모 레이어(1221)가 상기 내용을 검토하여 주제(Subject)가 입력되는 영역, 또는 본문(Body)이 입력되는 영역에 데이터가 없는 빈상태인 경우 즉, 입력되는 영역에 입력이 없는 경우, 1220 화면과 같이 메모 레이어(1221)가 표시되고, 메모 레이어(1221) 상에 경고성 피드백을 나타낼 수 있다. 예컨대 경고성 피드백은 Send this msg without text?이 될 수 있다.When the mail sending is executed on the screen 1210, the memo layer 1221 examines the contents and if the area where the subject is inputted or the area where the body (body) is input is empty, that is, The memo layer 1221 is displayed as shown on the screen 1220 and the warning feedback can be displayed on the memo layer 1221. [ For example, the warning feedback can be Send this msg without text?

사용자는 상기 주제의 입력 영역, 또는 상기 본문의 입력 영역에 입력할 입력 내용에 해당하는 필기 이미지를 메모 레이어(1221)에서 입력할 수 있다. 이때 메모 레이어(1221)는 상기 주제의 입력 영역, 또는 상기 본문의 입력 영역에 상기 필기 이미지가 있는지 확인하고, 없는 경우 상기 필기 이미지를 메일 어플리케이션으로 전달할 수 있다. The user can input a handwritten image corresponding to the input content to be input in the input area of the subject or the input area of the body in the memo layer 1221. [ At this time, the memo layer 1221 checks whether the handwritten image exists in the input area of the subject or the input area of the body, and if not, the handwritten image can be transferred to the mail application.

메모 레이어(1221)는 상기 입력된 필기 이미지를 상기 메일 어플리케이션으로 보내고, 상기 메일 어플리케이션은 수신된 상기 필기 이미지를 추가하여 상기 메일을 보낼 수 있다.The memo layer 1221 sends the input handwritten image to the mail application, and the mail application can send the mail by adding the handwritten image received.

또한, 상기 사용자는 상기 주제 입력 영역, 또는 상기 본문 입력 영역에 추가할 내용이 없는 경우, 메모 레이어(1221)의 일부 영역에 필요 없다는 의사 표시인 no, X 등 문자 또는 기호를 입력할 수 있다.In addition, if the user does not have a content to be added to the topic input area or the body input area, the user can input characters or symbols such as no and X, which are pseudo marks that are not needed in a part of the memo layer 1221.

메모 레이어(1221)는 상기 필요 없다는 의사를 수신한 경우, 메모 레이어(1221)는 상기 메일 어플리케이션을 통하여 상기 입력 영역이 빈상태로상기 메일을 보낼 수 있다.When the memo layer 1221 receives a request that the unnecessary information is not needed, the memo layer 1221 can send the mail through the mail application with the input area being empty.

도 13은 메모 레이어를 이용한 웹페이지 북마크 등록 방법을 나타낸 도면이다.13 is a diagram showing a method of registering a web page bookmark using a memo layer.

1310 화면에서 웹페이지(1311)에서 사이트를 서치하면서, 상기 사이트를 북마크하기 위해서 메모 레이어(1312) 실행 시켜 상기 웹페이지(1311) 위에 겹쳐서 표시되도록 할 수 있다.A memo layer 1312 may be executed to bookmark the site while the web page 1311 searches for the site on the screen 1310 and displayed on the web page 1311 in a superimposed manner.

메모 레이어(1312) 상에 북마크 명령어(1314)를 입력하면, 메모 레이어(1312)는 북마크 명령어(1314)를 북마크 어플리케이션으로 보낼 수 있다.When the bookmark command 1314 is input on the memo layer 1312, the memo layer 1312 can send the bookmark command 1314 to the bookmark application.

상기 북마크 어플리케이션은 수신된 북마크 명령어(1314)에 따라서 웹페이지(1311)을 나타내는 인터넷 주소(1313)을 북마크할 수 있다.The bookmark application may bookmark an Internet address 1313 representing the web page 1311 according to the received bookmark command 1314. [

상기 북마크 어플리케이션은 메모 레이어(1312) 상에 북마크의 주소가 맞는지, 또는 북마크의 이름은 무엇으로 할 것인지에 대한 질문(1315)의 답변(1316)를 보낼 수 있다. The bookmark application may send an answer 1316 of a question 1315 as to whether the address of the bookmark is correct on the memo layer 1312 or what the name of the bookmark is to be made.

또한, 상기 북마크 어플리케이션은 북마크 이름(1316)의 정보를 수신한 이후 어느 폴더로 저장할지에 대해서 물어보는 질문의 답변(1317)을 메모 레이어(1312) 상으로 보낼 수 있다.The bookmark application may also send a question answer 1317 to the memo layer 1312 asking which folder to store after receiving the bookmark name 1316 information.

사용자는 상기 질문의 답변(1317)을 본 이후 답변으로 저장할 폴더의 이름(1317)에 대한 정보를 메모 레이어(1312)의 일부 영역에 입력할 수 있다.The user can input information on the name 1317 of the folder to be stored as the answer in the partial area of the memo layer 1312 after viewing the answer 1317 of the question.

상기 폴더의 이름(1318)이 메모 레이어(1312)에 입력된 후 일정 시간이 경과하면 상기 북마크 어플리케이션은 인터넷 주소(1313)를 상기 이름(1318)의 폴더에 북마크 할 수 있다.The bookmark application can bookmark the Internet address 1313 to the folder of the name 1318 when a predetermined time elapses after the name 1318 of the folder is input to the memo layer 1312. [

또한, 상기 폴더의 이름(1318)이 메모 레이어(1312)의 일부 영역에 입력되고 실행버튼(1319)이 선택된 경우, 상기 북마크 어플리케이션은 인터넷 주소(1313)를 상기 이름(1318)의 폴더에 북마크 할 수 있다.If the name 1318 of the folder is input to a partial area of the memo layer 1312 and the execution button 1319 is selected, the bookmark application may bookmark the Internet address 1313 to the folder of the name 1318 .

1320 화면은 1310 화면에서 실행한 북마크 명령에 따라서 인터넷 주소(1313)가 북마크된 결과(1321)를 나타낸다.The 1320 screen shows a result (1321) in which the Internet address 1313 is bookmarked according to the bookmark command executed on the 1310 screen.

사용자는 1320 화면을 통하여 원하는 인터넷 주소(1313)가 제대로 북마크 되었는지 확인할 수 있고, 오류가 있는 경우 다시 메모 레이어(1312)를 실행시켜 북마크를 재실행할 수도 있다.The user can check whether the desired Internet address 1313 is properly bookmarked on the screen 1320. If there is an error, the user can execute the memo layer 1312 again to re-execute the bookmark.

도 14은 메모 레이어를 이용한 웹페이지를 다른 사용자와 공유하는 방법을 나타낸 도면이다.14 is a diagram illustrating a method of sharing a web page using a memo layer with another user.

1410 화면에서 사용자가 웹페이지(1411)를 서치하다가 다른 사용자와 웹페이지(1411)를 서로 공유하고 싶을 때, 상기 사용자는 메모 레이어(1412)를 실행시켜 웹페이지(1411) 위에 겹쳐서 표시되도록 할 수 있다.When the user wants to share the web page 1411 with another user while searching the web page 1411 on the screen 1410, the user can execute the memo layer 1412 to be displayed on the web page 1411 in a superimposed manner have.

사용자는 메모 레이어(1412)의 일부 영역에 공유의 명령어(1412) 예컨대 Share Page를 입력할 수 있다. 메모 레이어(1412)는 공유의 명령어(1412)의 정보를 공유 어플리케이션에 보낼 수 있다.The user may enter a share command 1412, e.g., Share Page, in a portion of the memo layer 1412. [ The memo layer 1412 may send the information of the sharing command 1412 to the sharing application.

상기 공유 어플리케이션은 수신된 공유의 명령어(1412)의 정보에 기초하여, 상기 웹페이지(1411)가 공유될 수 있는 앱들의 정보(1414)를 메모 레이어(1412) 상에 보낼 수 있다.The shared application may send information 1414 of the apps to which the web page 1411 may be shared on the memo layer 1412 based on information of the received sharing command 1412. [

상기 사용자는 앱들의 정보(1414) 중 상기 앱들의 앞에 기재된 번호를 선택할 수 있다.The user can select the number of apps 1414 listed in front of the apps.

상기 번호가 메모 레이어(1412)에 입력된 후 일정 시간이 경과하면 상기 번호에 해당하는 공유 어플리케이션이 실행될 수 있다.The shared application corresponding to the number may be executed when a predetermined time elapses after the number is input to the memo layer 1412. [

또한, 상기 번호가 메모 레이어(1412)의 일부 영역에 입력되고 실행버튼(1318)이 선택된 경우, 상기 번호에 해당하는 공유 어플리케이션이 실행될 수 있다.Also, when the number is input to a partial area of the memo layer 1412 and the execution button 1318 is selected, the shared application corresponding to the number can be executed.

1410 화면에서 사용자는 상기 번호를 선택하여 메모 레이어(1412)의 일부 영역에 입력하였으나, 1420 화면은 상기 번호를 선택하는 방법 대신, 화면 스크롤의 기능(1421)을 통하여 원하는 앱을 터치로 선택하고 실행시킬 수 있다.
The user selects the number on the screen 1410 and inputs the selected number to a partial area of the memo layer 1412. However, instead of selecting the number on the screen 1420, the user can touch the desired application through the screen scroll function 1421, .

도 15은 메모 레이어를 이용하여 파일들이 저장된 마이폴더에서 정렬하는 방법을 나타낸 도면이다.15 is a diagram illustrating a method of sorting files in a My Folder using a memo layer.

마이 폴더 어플리케이션(1501)이 실행된 상태에서 메모 레이어(1502)가 실행되어 겹쳐서 표시될 수 있다.The memo layer 1502 may be executed in a state where the My Folder application 1501 is executed and overlapped and displayed.

정렬의 명령어(1503) 예컨대 list by를 메모 레이어(1502)의 일부 영역에 입력하면, 메모 레이어(1502)와 연계된 마이 폴더 어플리케이션(1501)은 상기 정렬의 명령어(1503)의 정보를 수신할 수 있다.When the sorting command 1503, for example, list by, is input to a partial area of the memo layer 1502, the My Folder application 1501 associated with the memo layer 1502 can receive the information of the sort command 1503 have.

상기 수신된 정보에 따라, 마이 폴더 어플리케이션(1501)은 메모 레이어(1502)의 상에 정렬의 옵션(1504)를 보낼 수 있다.In accordance with the received information, the My Folder application 1501 may send an option 1504 of sorting on the memo layer 1502.

상기 정렬의 옵션(1504) 중 적어도 하나가 선택되면 예컨대 Type이 입력되면 상기 마이 폴더에 저장된 상기 파일들이 선택된 옵션에 따라서 정렬될 수 있다.If at least one of the sorting options 1504 is selected, for example, when the Type is input, the files stored in the My Folder may be sorted according to the selected option.

상기 정렬의 옵션(1504) 중 적어도 하나가 선택되고 일정 시간이 경과하면 상기 선택된 옵션에 따라서 상기 파일들이 정렬될 수 있다.At least one of the sorting options 1504 is selected and the files can be sorted according to the selected option when a certain time has elapsed.

또한, 상기 정렬의 옵션(1504) 중 적어도 하나가 선택되고 실행버튼(1506)이 선택된 경우, 상기 선택된 옵션에 따라서 상기 파일들이 정렬될 수 있다.Also, if at least one of the sorting options 1504 is selected and the execute button 1506 is selected, the files may be sorted according to the selected option.

도 16은 메모 레이어를 이용하여 그림파일이 저장된 갤러리에서 정렬하는 방법을 나타낸 도면이다.16 is a diagram illustrating a method of arranging images in a gallery in which picture files are stored using a memo layer.

갤러리 어플리케이션(1601)이 실행된 상태에서 메모 레이어(1602)가 실행되어 겹쳐서 표시될 수 있다.The memo layer 1602 may be executed in a state in which the gallery application 1601 is executed and overlapped and displayed.

정렬의 명령어(1603) 예컨대 view by를 메모 레이어(1502)의 일부 영역에 입력하면, 메모 레이어(1602)와 연계된 갤러리 어플리케이션(1601)은 상기 정렬의 명령어(1603)의 정보를 수신할 수 있다.When the sorting command 1603, for example, view by is input to a partial area of the memo layer 1502, the gallery application 1601 associated with the memo layer 1602 can receive the information of the sort command 1603 .

상기 수신된 정보에 따라, 갤러리 어플리케이션(1601)은 메모 레이어(1602)의 상에 정렬의 옵션(1604)를 보낼 수 있다.Depending on the received information, the gallery application 1601 may send an option 1604 of sorting on the memo layer 1602.

상기 정렬의 옵션(1604) 중 적어도 하나 예컨대 3이 선택되면 상기 갤러리에 저장된 상기 그림파일들이 선택된 옵션에 따라서 정렬될 수 있다.If at least one of the sort options 1604 is selected, for example, 3, the picture files stored in the gallery can be sorted according to the selected option.

상기 정렬의 옵션(1604) 중 적어도 하나가 선택되고 일정 시간이 경과하면 상기 선택된 옵션에 따라서 상기 그림파일들이 정렬될 수 있다.At least one of the sorting options 1604 is selected and the picture files may be sorted according to the selected option when a predetermined time has elapsed.

또한, 상기 정렬의 옵션(1604) 중 적어도 하나가 선택되고 실행버튼(1606)이 선택된 경우, 상기 선택된 옵션에 따라서 상기 그림파일들이 정렬될 수 있다.Also, if at least one of the sorting options 1604 is selected and the execute button 1606 is selected, the picture files may be sorted according to the selected option.

메모 레이어(1602)가 반투명으로 형성되어 메모 레이어(1602)의 아래에 위치한 갤러리 어플리케이션(1601)이 반투명으로 메모 레이어(1602)에 비추어 나타날 수 있다.The memo layer 1602 is formed in a translucent manner so that the gallery application 1601 located below the memo layer 1602 can appear in a semitransparent manner in the memo layer 1602. [

도 17은 메모 레이어를 이용하여 알람을 세팅하는 방법을 나타낸 도면이다.17 is a diagram showing a method of setting an alarm using a memo layer.

알람 어플리케이션(1701)이 실행된 상태에서 메모 레이어(1702)가 실행되어 겹쳐서 표시될수 있다.The memo layer 1702 may be executed in a state in which the alarm application 1701 is executed and overlapped and displayed.

세팅의 명령어(1703) 예컨대 Alarm set 8:00 PM을 메모 레이어(1702)의 일부 영역에 입력하면, 메모 레이어(1702)와 연계된 알람 어플리케이션(1701)은 상기 세팅의 명령어(1703)의 정보를 수신할 수 있다.The alarm application 1701 associated with the memo layer 1702 sets the information of the command 1703 of the setting in the memo layer 1702 .

상기 수신된 정보에 따라, 알람 어플리케이션(1701)은 메모 레이어(1702)의 상에 세팅된 정보(1704)를 보낼 수 있다.According to the received information, the alarm application 1701 may send the set information 1704 on the memo layer 1702. [

그래서 사용자는 상기 세팅된 정보(1704)를 확인 할 수 있다.Thus, the user can confirm the set information 1704.

만약 세팅된 정보(1704)에 오류가 있는 경우, 메모 레이어(1702)는 메모 레이어(1702)의 일부 영역에 세팅의 명령어(1703)을 재입력될 수 있게 오류 메시지를 나타날 수 있다.If there is an error in the set information 1704, the memo layer 1702 may display an error message so that the setting command 1703 can be reentered in a part of the memo layer 1702. [

예를 들면, 메모 레이어(1702)의 일부 영역에 상기 입력된 세팅된 정보(1704)는 오류가 있으니 재입력을 요청하는 피드백을 나타낼 수 있다.For example, the input set information 1704 in some areas of the memo layer 1702 may indicate feedback requesting re-entry because of an error.

도 18은 메모 레이어를 이용하여 계정을 등록하는 방법을 나타낸 도면이다.18 is a diagram illustrating a method of registering an account using a memo layer.

계정 어플리케이션(1801)이 실행된 상태에서 메모 레이어(1802)가 실행되어 겹쳐서 표시될 수 있다.The memo layer 1802 may be executed while the accounting application 1801 is executed, so that the memo layer 1802 may be overlaid.

등록의 명령어(1803)을 메모 레이어(1802)의 일부 영역에 입력하면, 메모 레이어(1802)와 연계된 계정 어플리케이션(1801)은 상기 등록의 명령어(1803)의 정보를 수신할 수 있다.The account application 1801 associated with the memo layer 1802 can receive the information of the register command 1803 when the register command 1803 is input to a partial area of the memo layer 1802. [

상기 등록의 명령어(1803)은 웹페이지의 정보 예컨대 Twitter일 수 있다.The command 1803 of the registration may be information of a web page, for example, Twitter.

계정 어플리케이션(1801)이 실행되고 메모 레이어(1802)가 계정 어플리케이션(1801)의 위에 겹쳐서 실행된 경우, 메모 레이어(1802)의 일부 영역에 등록하고 싶은 웹의 정보가 입력되면 계정 어플리케이션(1801)은 상기 웹에 등록 될 수 있는 과정을 실행할 수 있다.When the account application 1801 is executed and the memo layer 1802 is overlaid on the account application 1801 and the information of the web to be registered is input in a partial area of the memo layer 1802, It is possible to execute a process that can be registered in the web.

상기 수신된 등록의 명령어(1803)에 따라, 계정 어플리케이션(1801)은 메모 레이어(1802)의 상에 등록에 필요한 추가 질문의 답변(1804)을 보낼 수 있다.According to the received registration command 1803, the account application 1801 may send an answer 1804 of an additional question required for registration on the memo layer 1802.

추가 질문의 답변(1804)에 따른 추가 정보(1805)가 메모 레이어(1802)의 일부 영역에 입력될 수 있다.Additional information 1805 according to the answer 1804 of the additional question may be input to a partial area of the memo layer 1802. [

계정 어플리케이션(1801)은 메모 레이어(1802)를 통해 수신된 상기 입력된 추가 정보(1805)를 검토하여 입력된 추가 정보(1805) 외에 다른 추가 정보가 필요하지 않다고 판단할 수 있다.The account application 1801 may review the input additional information 1805 received through the memo layer 1802 and determine that additional information other than the input additional information 1805 is not needed.

상기 다른 추가 정보가 필요 없다고 판단된 경우, 계정 어플리케이션(1801)은 메모 레이어(1802) 상에 등록이 완료되었다는 문자(1806)의 정보를 보낼 수 있다. If it is determined that the additional information is not needed, the account application 1801 may send the information of the character 1806 indicating that the registration is completed on the memo layer 1802.

본 발명의 다른 실시 예에 따른 단말기(100)에서 특정 어플리케이션이 실행되고 있는 상황에서 메모 레이어을 이용하여 실행 중인 특정 어플리케이션이 제어될 수 있다.The specific application being executed can be controlled using the memo layer in a state where the specific application is being executed in the terminal 100 according to another embodiment of the present invention.

예를 들면, 단말기(100)는 하위 어플리케이션으로 음악 재생 어플리케이션이 실행되고 있는 상황에서 메모 레이어의 호출이 사용자에 의해 이루어지는 지를 감시할 수 있다.For example, the terminal 100 can monitor whether or not the memo layer is called by the user while the music playback application is being executed as a sub-application.

단말기(100)는 사용자에 의해 메모 레이어가 호출될 시, 제목 (title)과 입력 메뉴 버튼이 세팅된 상기 메뉴 레이어가 화면에 활성화될 수 있다. 즉, 제목 (title)과 입력 메뉴 버튼이 세팅된 메뉴 레이어을 음악 재생 어플리케이션이 실행 중인 화면에 오버 랩되도록 표시될 수 있다. 예를 들면, 메모 레이어의 제목으로 "재생할 노래를 적어주세요!"라고 표시될 수 있다.When the memo layer is called by the user, the terminal 100 can activate the menu layer having a title and an input menu button set on the screen. That is, the menu layer in which the title and the input menu button are set can be displayed so as to overlap with the screen in which the music playback application is running. For example, the note layer title might say, "Please write a song to play!"

단말기(100)는 사용자가 메모 레이어에 원하는 내용 (예컨대 "나혼자")을 필기하고, 표시된 입력 메뉴 버튼이 눌려지는지를 감시할 수 있다.The terminal 100 can write a desired content (for example, "me ") in the memo layer and monitor whether the displayed input menu button is pressed.

단말기(100)는 사용자에 의해 신호, 예를 들면 입력 표시 버튼이 눌려짐을 감지할 시, 상기 메모 레이어에 사용자가 필기한 내용이 "나혼자"라는 것을 인지한 후, 상기 인지한 "나혼자"라는 텍스트를 현재 실행 중인 음악 재생 어플리케이션으로 제공할 수 있다.When the terminal 100 detects that a signal, for example, an input display button, is pressed by the user, the terminal 100 recognizes that the content written by the user is " To the currently running music playback application.

상기 음악 재생 어플리케이션은 제공받은 "나혼자"라는 제목을 가지는 노래를 검색하고, 상기 검색에 의해 확인된 노래를 재생할 수 있다. 이때 상기 노래를 검색할 범위는 사용자의 설정에 의해 지정될 수 있다. 예컨대, 단말기(100)에 저장된 노래를 검색 대상으로 하거나 음악 서비스를 제공하는 웹 사이트를 검색 대상으로 설정할 수 있다.The music playback application can search for a song titled "I do not care" and reproduce the song identified by the search. At this time, the range to search for the song may be designated by the setting of the user. For example, a search target may be a song that is stored in the terminal 100, or a web site that provides a music service.

상기 웹 사이트를 검색 대상으로 설정하기 위해서는 해당 웹 사이트의 인증을 위한 정보 등이 단말기에 의해 관리되거나 사용자에 의해 입력될 필요가 있다.In order to set the web site as a search target, information for authentication of the web site or the like needs to be managed by a terminal or input by a user.

만약, 상기 검색된 결과가 복수인 경우에는 상기 검색 결과에 해당하는 복수의 노래를 순차적으로 재생하거나 사용자에 의해 재생할 노래가 선택될 수 있도록 할 수 있다. 일 예로 사용자에 의해 재생할 노래가 선택되도록 하기 위해서는 검색된 결과를 리스트의 형식으로 화면에 표시하는 것이 바람직할 것이다.If the search result is a plurality of search results, a plurality of songs corresponding to the search result may be sequentially reproduced or a song to be reproduced by the user may be selected. For example, in order to select a song to be played by a user, it is desirable to display the searched result in the form of a list on the screen.

또한, 단말기(100)는 상기 수신된 "나혼자"라는 필기 이미지가 이미 설정된 데이터에서 찾을 수 없는 경우, 피드백을 메모 레이어에 보내어 상기 피드백이 화면에 나타날 수 있도록 할 수 있다.In addition, when the handwritten image of the received "heartbeat" can not be found in the already set data, the terminal 100 can send feedback to the memo layer so that the feedback can be displayed on the screen.

상기 사용자는 상기 피드백에 대응되는 다시 다른 필기 이미지를 상기 메모 레이어의 일부 영역에 입력할 수 있다.The user can input another handwritten image corresponding to the feedback to a partial area of the memo layer.

단말기(100)의 제어부(160)는 상기 다른 필기 이미지를 인지한 후 상기 다른 필기 이미지의 정보를 상기 음악 재생 어플리케이션에 보내어 상기 다른 필기 이미지의 명령어가 실행될 수 있도록 제어할 수 있다.The control unit 160 of the terminal 100 may recognize the other handwritten image and then send the information of the other handwritten image to the music reproduction application to control the instruction of the other handwritten image to be executed.

본 발명의 다른 실시 예에 따른 단말기(100)에서 채팅 메시지 어플리케이션이 실행되고 있는 상황에서 메모 레이어을 이용하여 실행 중인 특정 어플리케이션이 제어될 수 있다.The specific application being executed can be controlled using the memo layer in a state where the chat message application is executed in the terminal 100 according to another embodiment of the present invention.

단말기(100)의 제어부(160)는 채팅 메시지 기능을 백그라운드 프로세싱으로 활성화하도록 제어할 수 있다. 그리고 제어부(160)는 메시지가 화면에 출력되고 있는 동안 입력된 제스처 인식 정보를 수신된 채팅 메시지에 대한 응답 메시지로 자동 전송하도록 제어할 수 있다.The controller 160 of the terminal 100 may control the chat message function to activate as background processing. The control unit 160 may control the automatic transmission of the gesture recognition information input while the message is being output to the screen, as a response message to the received chat message.

이 과정에서 제어부(160)는 수신된 채팅 메시지를 포함하는 채팅방을 개설하거나 수신된 채팅 메시지의 송신자와 관련하여 사전 개설한 채팅방에 해당 수신 메시지와 응답 메시지를 기입하도록 제어할 수 있다.In this process, the control unit 160 can control to open a chat room including the received chat message, or to write the received message and the response message in the chat room opened in advance in association with the sender of the received chat message.

제어부(160)는 이메일의 경우에도 문자 메시지 서비스에서와 같이 동일하게 적용하여 답장 이메일을 송신하도록 지원할 수 있다. 즉, 수신된 이메일 메시지에 대한 즉각적인 답장 전송이 요구되는 경우, 제어부(160)는 메시지에 표시된 이메일의 송신자 이메일 정보를 추출하고, 사용자가 입력한 제스처 인식 정보를 이메일의 내용 정보로 포함하여 해당 송신자에게 전송하도록 제어할 수 있다.The control unit 160 can support sending of reply e-mails in the same manner as in the text message service even in the case of e-mail. That is, when prompt reply transmission to the received e-mail message is required, the control unit 160 extracts the sender e-mail information of the e-mail displayed in the message, and includes gesture recognition information input by the user as contents information of the e-mail, As shown in FIG.

이상에서 설명한 바와 같이, 본 발명의 실시 예에 따른 전자 장치 및 전자 장치의 운용 방법은 전자 펜(200)을 이용하는 환경에서 사용자가 보다 다양하면서도 편리한 기능 운용을 수행할 수 있도록 전자 펜(200)과 매핑되는 펜 기능 테이블(미도시)을 지원할 수 있다.As described above, the method for operating the electronic device and the electronic device according to the embodiment of the present invention can be applied to the electronic pen 200 and the electronic pen 200 so that the user can perform more various and convenient function operations in an environment using the electronic pen 200 (Not shown) to be mapped.

이에 따라 사용자는 현재 활성화되고 있는 기능의 종류 정보, 전자 펜 상태 정보 및 제스처 인식 정보 중 적어도 하나를 서로 연관시켜 또는 각각 독립적으로 운용하여 보다 다양한 기능 운용을 수행할 수 있다.Accordingly, the user can perform at least one of the type of the function currently being activated, the electronic pen state information, and the gesture recognition information by associating them with each other or independently operating the functions.

한편, 상술한 단말기(100)는 그 제공 형태에 따라 다양한 추가 모듈을 더 포함할 수 있다. 즉, 단말기(100)는 통신 단말기인 경우 근거리 통신을 위한 근거리통신모듈, 단말기(100)의 유선통신방식 또는 무선통신방식에 의한 데이터 송수신을 위한 인터페이스, 인터넷 네트워크와 통신하여 인터넷 기능을 수행하는 인터넷통신모듈 및 디지털 방송 수신과 재생 기능을 수행하는 디지털방송모듈 등과 같이 상기에서 언급되지 않은 구성들을 더 포함할 수도 있다.Meanwhile, the terminal 100 may further include various additional modules according to the provided mode. That is, the terminal 100 includes a short-range communication module for short-range communication, a wired communication method for the short-range communication or an interface for data transmission / reception using the wireless communication method, an Internet A communication module, and a digital broadcasting module that performs digital broadcasting reception and reproduction functions.

이러한 구성 요소들은 디지털 기기의 컨버전스(convergence) 추세에 따라 변형이 매우 다양하여 모두 열거할 수는 없으나, 상기 언급된 구성 요소들과 동등한 수준의 구성 요소가 상기 디바이스에 추가로 더 포함되어 구성될 수 있다.These components can not be enumerated because of a wide variety of variations depending on the convergence trend of the digital device, but it is also possible that components having the same level as the above-mentioned components are further included in the device have.

또한, 본 발명의 단말기(100)는 그 제공 형태에 따라 상기한 구성에서 특정 구성들이 제외되거나 다른 구성으로 대체될 수도 있음은 물론이다.Also, it is needless to say that the terminal 100 of the present invention may be excluded from the specific configurations in the above configuration or may be replaced with other configurations in accordance with the provision mode thereof.

이는 본 기술분야의 통상의 지식을 가진 자에겐 쉽게 이해될 수 있을 것이다.Which will be readily apparent to those skilled in the art.

또한, 본 발명의 실시 예에 따른 단말기(100)는 다양한 통신 시스템들에 대응되는 통신 프로토콜들(communication protocols)에 의거하여 동작하는 모든 이동통신 단말기들(mobile communication terminals)을 비롯하여, PMP(Portable Multimedia Player), 디지털방송 플레이어, PDA(Personal Digital Assistant), 음악 재생기(예컨대, MP3 플레이어), 휴대게임단말, 스마트 폰(Smart Phone), 노트북(Notebook) 및 핸드헬드 PC 등 모든 정보통신기기와 멀티미디어기기 및 그에 대한 응용기기를 포함할 수 있다. In addition, the terminal 100 according to the embodiment of the present invention may include all mobile communication terminals operating based on communication protocols corresponding to various communication systems, a PMP (Portable Multimedia) Player, a digital broadcasting player, a PDA (Personal Digital Assistant), a music player (for example, an MP3 player), a portable game terminal, a smart phone, a notebook, a handheld PC, And an application device therefor.

한편, 본 명세서와 도면을 통해 본 발명의 바람직한 실시 예들에 대하여 설명하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것일 뿐, 본 발명의 범위를 한정하고자 하는 것은 아니다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. , And are not intended to limit the scope of the present invention.

여기에 개시된 실시 예외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention may be practiced without departing from the scope of the invention disclosed herein.

100 : 단말기 110 : 통신부
120 : 입력부 140 : 표시부
160 : 제어부 200 : 전자 펜
510 : 하위 어플리케이션 구동 엔진 520 : 메모 레이어 구동 엔진
100: terminal 110:
120: input unit 140:
160: control unit 200: electronic pen
510: Lower application drive engine 520: Memo layer drive engine

Claims (17)

터치스크린을 포함하는 전자장치의 어플리케이션 제어 방법에 있어서,
어플리케이션이 실행되어 상기 터치스크린에 표시되는 단계;
상기 어플리케이션 실행 중에 상기 터치스크린에서 미리 결정된 제스처가 검출되는 단계;
상기 제스처에 의해 상기 어플리케이션에 중첩되어 표시되며,
상기 어플리케이션에게 제공 할 데이터가 표시되는 필기 입력 영역과,
상기 어플리케이션으로부터 제공받은 데이터가 표시되는 표시 영역을 포함하는 메모 레이어가 표시되는 단계;
상기 메모 레이어의 상기 필기 입력 영역에 필기 이미지를 입력 받는 단계;
상기 입력된 필기 이미지가 인식되고 미리 설정된 데이터와 비교하는 단계;
상기 비교 결과에 따라, 상기 어플리케이션으로부터 피드백이 상기 메모 레이어의 상기 표시 영역에 표시되는 단계를 포함하는 전자장치의 어플리케이션 제어 방법.
A method of controlling an application of an electronic device including a touch screen,
The application being executed and displayed on the touch screen;
Detecting a predetermined gesture on the touch screen during execution of the application;
Wherein the gesture is superimposed on the application,
A handwriting input area for displaying data to be provided to the application;
Displaying a memo layer including a display area on which data provided from the application is displayed;
Receiving a handwriting image in the handwriting input area of the memo layer;
Comparing the input handwritten image with recognized data;
And displaying feedback from the application on the display area of the memo layer according to the result of the comparison.
제1항에 있어서,
상기 필기 이미지와 상기 피드백은 복수로 구성될 수 있으며, 상기 필기 입력 영역에 나타나는 상기 필기 이미지들에 대응되는 상기 피드백들이 각각 서로 다른 상기 표시 영역에 표시되는 특징을 포함하는 전자장치의 어플리케이션 제어 방법.
The method according to claim 1,
Wherein the handwritten image and the feedback can be composed of a plurality of features and the feedback corresponding to the handwritten images appearing in the handwriting input area are displayed in the different display areas respectively.
제1항에 있어서,
상기 메모 레이어는 반투명으로 형성되어 상기 어플리케이션이 실행 중인 화면 위에 오버 랩되어 표시되면, 상기 어플리케이션이 상기 메모 레이어를 통하여 나타나는 특징을 포함하는 전자장치의 어플리케이션 제어 방법.
The method according to claim 1,
Wherein the memo layer is semitransparent and is displayed overlaid on a screen in which the application is running, the application includes a feature displayed through the memo layer.
제1항에 있어서,
상기 메모 레이어는 복수로 구성될 수 있고, 상기 어플리케이션으로부터 수신되는 피드백에 따라서 상기 복수의 메모 레이어가 다중 레이어로 겹쳐서 표시되는 특징을 포함하는 전자장치의 어플리케이션 제어 방법
The method according to claim 1,
Wherein the memo layer comprises a plurality of memo layers, the memo layers being characterized in that the plurality of memo layers are superimposed and displayed in multiple layers in accordance with feedback received from the application
제1항에 있어서
상기 피드백은 복수로 구성될 수 있으며, 상기 메모 레이어의 일부 영역에 나타나는 특징을 포함하는 전자장치의 어플리케이션 제어 방법.
The method of claim 1, wherein
Wherein the feedback can be composed of a plurality of features and includes a feature appearing in a partial area of the memo layer.
제5항에 있어서,
상기 복수의 피드백은 상기 어플리케이션을 실행하는 명령어로 형성될 수 있고, 상기 복수의 피드백이 나타난 일부 영역이 선택되면, 상기 선택된 일부 영역에 있는 상기 복수의 명령어가 실행되는 특징을 포함하는 전자장치의 어플리케이션 제어 방법.
6. The method of claim 5,
The plurality of feedbacks may be formed by an instruction for executing the application, and when a partial region in which the plurality of feedbacks is displayed is selected, the plurality of instructions in the selected partial region are executed, Control method.
제1항에 있어서,
상기 어플리케이션 대신 다른 어플리케이션이 실행되는 경우,
상기 다른 어플리케이션과 연동된 다른 메모 레이어가 실행되는 특징을 포함하는 전자장치의 어플리케이션 제어 방법.
The method according to claim 1,
When another application is executed instead of the application,
And another memo layer linked with the other application is executed.
제7항에 있어서,
상기 다른 메모 레이어에 나타나는 상기 피드백은 상기 다른 어플리케이션의 기능에 따라서 다르게 표시되는 특징을 포함하는 전자장치의 어플리케이션 제어 방법.
8. The method of claim 7,
Wherein the feedback displayed on the different memo layer is differently displayed according to a function of the another application.
제1항에 있어서,
상기 필기 이미지와 상기 피드백은 상기 메모 레이어의 일부 영역에 순차적으로 나타나는 특징을 포함하는 전자장치의 어플리케이션 제어 방법.
The method according to claim 1,
Wherein the handwritten image and the feedback are sequentially displayed on a partial area of the memo layer.
제1항에 있어서,
상기 필기 이미지와 상기 피드백은 대화형인 전자장치의 어플리케이션 제어 방법.
The method according to claim 1,
Wherein the handwritten image and the feedback are interactive.
제1항에 있어서,
상기 필기 이미지 또는 상기 피드백은 문자, 피드백, 이미지, 패턴, 숫자, 특수문자, 이메일 주소 중 적어도 하나인 전자장치의 어플리케이션 제어 방법.
The method according to claim 1,
Wherein the handwritten image or the feedback is at least one of a character, a feedback, an image, a pattern, a number, a special character, and an email address.
터치스크린을 포함하는 전자장치에 있어서,
어플리케이션이 실행되어 상기 터치스크린에 표시되고,
필기 인식이 되고, 상기 어플리케이션에 중첩되어 표시되며
상기 어플리케이션에게 제공 할 데이터가 표시되는 필기 입력 영역과,
상기 어플리케이션으로부터 제공받은 데이터가 표시되는 표시 영역을 포함하는 메모 레이어를 표시하고,
상기 메모 레이어의 상기 필기 입력 영역에 필기 이미지를 입력 받아 상기 필기 입력 영역에 표시하는 표시부;
상기 어플리케이션 실행중에 상기 터치스크린에서 미리 결정된 제스처를 검출하고,
상기 입력된 필기 이미지가 인식되고 미리 설정된 데이터와 비교하며,
상기 비교 결과에 따라, 상기 어플리케이션으로부터 피드백이 상기 메모 레이어의 상기 표시 영역에 나타나도록 제어하는 제어부를 포함하는 전자장치.
An electronic device comprising a touch screen,
An application is executed and displayed on the touch screen,
Handwriting recognition, overlapped and displayed in the application
A handwriting input area for displaying data to be provided to the application;
A memo layer including a display area in which data provided from the application is displayed,
A display unit for receiving a handwritten image in the handwriting input area of the memo layer and displaying the handwritten image in the handwriting input area;
Detecting a predetermined gesture on the touch screen during execution of the application,
The input handwritten image is recognized and compared with preset data,
And a control section for controlling the feedback from the application to appear in the display area of the memo layer according to the comparison result.
제12항에 있어서,
상기 필기 이미지와 상기 피드백은 복수로 구성될 수 있으며, 상기 필기 입력 영역에 나타나는 상기 필기 이미지들에 대응되는 상기 피드백들이 각각 서로 다른 상기 표시 영역에 표시되는 표시부를 포함하는 전자장치.
13. The method of claim 12,
Wherein the handwritten image and the feedback can be composed of a plurality of, and the feedback corresponding to the handwritten images appearing in the handwriting input area are displayed in different display areas, respectively.
제12항에 있어서
상기 피드백은 복수로 구성될 수 있으며, 상기 메모 레이어의 일부 영역에 나타나도록 제어하는 제어부를 포함하는 전자장치.
The method of claim 12, wherein
Wherein the feedback can be composed of a plurality of controls, and controls to appear in a part of the memo layer.
제14항에 있어서,
상기 복수의 피드백은 상기 어플리케이션을 실행하는 명령어로 형성될 수 있고, 상기 복수의 피드백이 나타난 일부 영역이 선택되면, 상기 선택된 일부 영역에 있는 상기 복수의 명령어가 실행되도록 제어하는 제어부를 포함하는 전자장치.
15. The method of claim 14,
Wherein the plurality of feedbacks may be formed of an instruction for executing the application and a control unit for controlling the plurality of instructions in the selected partial area to be executed when a partial area in which the plurality of feedbacks is displayed is selected, .
제12항에 있어서,
상기 어플리케이션 대신 다른 어플리케이션이 실행되는 경우,
상기 다른 어플리케이션과 연동된 다른 메모 레이어가 실행을 제어하는 제어부를 포함하는 전자장치.
13. The method of claim 12,
When another application is executed instead of the application,
And a control section for controlling execution of another memo layer interlocked with the other application.
제16항에 있어서,
상기 다른 메모 레이어에 나타나는 상기 피드백은 상기 다른 어플리케이션의 기능에 따라서 다르게 표시되도록 제어하는 제어부를 포함하는 전자장치.

17. The method of claim 16,
And the control unit controls the feedback displayed on the different memo layer to be displayed differently according to the function of the other application.

KR1020120156753A 2012-07-13 2012-12-28 Method for exchanging data between memo layer and application and electronic apparatus having the same KR20140092459A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020120156753A KR20140092459A (en) 2012-12-28 2012-12-28 Method for exchanging data between memo layer and application and electronic apparatus having the same
US13/940,933 US9110587B2 (en) 2012-07-13 2013-07-12 Method for transmitting and receiving data between memo layer and application and electronic device using the same
PCT/KR2013/006280 WO2014010998A1 (en) 2012-07-13 2013-07-12 Method for transmitting and receiving data between memo layer and application and electronic device using the same
EP13816763.0A EP2872981A4 (en) 2012-07-13 2013-07-12 Method for transmitting and receiving data between memo layer and application and electronic device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120156753A KR20140092459A (en) 2012-12-28 2012-12-28 Method for exchanging data between memo layer and application and electronic apparatus having the same

Publications (1)

Publication Number Publication Date
KR20140092459A true KR20140092459A (en) 2014-07-24

Family

ID=51739094

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120156753A KR20140092459A (en) 2012-07-13 2012-12-28 Method for exchanging data between memo layer and application and electronic apparatus having the same

Country Status (1)

Country Link
KR (1) KR20140092459A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170111250A (en) * 2016-03-25 2017-10-12 삼성전자주식회사 Method for Outputting Screen and the Electronic Device supporting the same
WO2020180167A1 (en) * 2019-03-07 2020-09-10 삼성전자 주식회사 Electronic device and method for controlling application thereof
KR20220085647A (en) * 2020-12-15 2022-06-22 장기원 Method For Controlling Mobile Terminal

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170111250A (en) * 2016-03-25 2017-10-12 삼성전자주식회사 Method for Outputting Screen and the Electronic Device supporting the same
WO2020180167A1 (en) * 2019-03-07 2020-09-10 삼성전자 주식회사 Electronic device and method for controlling application thereof
KR20220085647A (en) * 2020-12-15 2022-06-22 장기원 Method For Controlling Mobile Terminal

Similar Documents

Publication Publication Date Title
JP6263177B2 (en) User terminal user interface device and method
US9110587B2 (en) Method for transmitting and receiving data between memo layer and application and electronic device using the same
KR102084041B1 (en) Operation Method And System for function of Stylus pen
RU2650029C2 (en) Method and apparatus for controlling application by handwriting image recognition
RU2669087C2 (en) Method and device for controlling tactile feedback of input tool for mobile communication terminal
KR102040857B1 (en) Function Operation Method For Electronic Device including a Pen recognition panel And Electronic Device supporting the same
US9898111B2 (en) Touch sensitive device and method of touch-based manipulation for contents
US20180364895A1 (en) User interface apparatus in a user terminal and method for supporting the same
KR20140117137A (en) Portable apparatus using touch pen and mehtod for controlling application using the portable apparatus
CN102968206A (en) A portable apparatus and an input method of a portable apparatus
EP2891041B1 (en) User interface apparatus in a user terminal and method for supporting the same
US20140015780A1 (en) User interface apparatus and method for user terminal
KR20150027885A (en) Operating Method for Electronic Handwriting and Electronic Device supporting the same
KR20140092459A (en) Method for exchanging data between memo layer and application and electronic apparatus having the same
KR20140030398A (en) Operating method for command pad and electronic device supporting the same
KR20190125269A (en) Function Operation Method For Electronic Device including a Pen recognition panel And Electronic Device supporting the same
Solorzano Mobile Multimodal Interaction: An Investigation and Implementation of Context-dependent Adaptation
KR20140026719A (en) Operation method for user function and electronic device supporting the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application