KR101544213B1 - Portable terminal and using method of effect emoticon in it - Google Patents

Portable terminal and using method of effect emoticon in it Download PDF

Info

Publication number
KR101544213B1
KR101544213B1 KR1020090012827A KR20090012827A KR101544213B1 KR 101544213 B1 KR101544213 B1 KR 101544213B1 KR 1020090012827 A KR1020090012827 A KR 1020090012827A KR 20090012827 A KR20090012827 A KR 20090012827A KR 101544213 B1 KR101544213 B1 KR 101544213B1
Authority
KR
South Korea
Prior art keywords
effect
emoticons
item
mobile terminal
emoticon
Prior art date
Application number
KR1020090012827A
Other languages
Korean (ko)
Other versions
KR20100093750A (en
Inventor
김종환
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020090012827A priority Critical patent/KR101544213B1/en
Publication of KR20100093750A publication Critical patent/KR20100093750A/en
Application granted granted Critical
Publication of KR101544213B1 publication Critical patent/KR101544213B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/18Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals

Abstract

본 발명은, 아이템과, 상기 아이템의 표현 방법 또는 진동 패턴을 구비하는 효과 이모티콘을 저장하는 메모리; 상기 효과 이모티콘을 생성 또는 사용하는 제어부; 상기 효과 이모티콘을 표현하는 출력부; 및 상기 효과 이모티콘의 생성 또는 사용에 대한 사용자 지시를 접수받는 사용자 입력부를 포함하는 이동 단말기 및 상기 효과 이모티콘의 생성/사용 방법에 관한 것이다.The present invention relates to a memory for storing an effect emoticons having an item, a method of expressing the item, or a vibration pattern; A control unit for generating or using the effect emoticons; An output unit expressing the effect emoticons; And a user input unit receiving a user instruction for creating or using the effect emoticons, and a method for creating / using the effect emoticons.

Description

이동 단말기 및 효과 이모티콘 사용 방법{PORTABLE TERMINAL AND USING METHOD OF EFFECT EMOTICON IN IT}[0001] DESCRIPTION [0002] PORTABLE TERMINAL AND USING METHOD OF EFFECT EMOTICON IN IT [

본 발명은 메시지나 멀티미디어 콘텐츠 등 아이템에 대한 표현 방법과 진동 패턴을 포함하는 효과 이모티콘을 사용하는 이동 단말기에 관한 것이다.The present invention relates to a mobile terminal using effect emoticons including a presentation method for items such as messages and multimedia contents and a vibration pattern.

일반적으로, 이동 단말기는 휴대가 가능하면서 음성 및 영상 통화 기능, 정보를 입·출력하는 기능 및 데이터를 저장할 수 있는 기능 등을 하나 이상 갖춘 휴대용 기기이다.2. Description of the Related Art Generally, a mobile terminal is a portable device that is portable and has one or more functions of voice and video communication, information input / output, and data storage.

이러한 이동 단말기는 각 개인이 직접 휴대하며, 피호출되는 경우, 착신 상태를 알리기 위하여 착신벨 소리 신호를 발생하고, 착신벨 소리 신호는 경보신호로 비교적 레벨이 크므로 주위의 관심을 집중시킨다. Each mobile terminal carries the mobile terminal directly. When the mobile terminal is paged, the mobile terminal generates a ringing tone signal to inform the call reception state. The ringing tone signal is relatively high in level because it is an alarm signal.

따라서 착신벨 소리 신호는, 회의장소, 극장, 사무실 등과 같이 정숙을 필요로 하는 장소와 많은 사람이 모이는 공공장소, 대중장소 등에서는 공중질서 유지 및 옆 사람에게 피해를 주지 않도록 하기 위하여 사용이 제한되므로, 중요한 피호 출 상태를 확인하지 못하여 기회손실이 발생하는 등의 문제가 있다. 상기 문제를 해결하기 위하여, 이러한 장소에서 사용되는 개인통신용 이동 단말기는 소정의 진동을 착신벨 신호 대신 사용하도록 구현하였다.Accordingly, the use of the incoming ringing tone signal is restricted in order to maintain the public order and to prevent harm to a neighboring place, such as meeting place, theater, office, etc., public places where many people gather, , There is a problem that opportunity loss is caused due to failure to confirm an important state of appeal. In order to solve the above problem, the personal communication mobile terminal used in such a place has implemented a predetermined vibration instead of the incoming call bell signal.

그리고, 이동 단말기는 기능이 다양화됨에 따라 예를 들어 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복잡한 기능들을 갖추고 있으며, 종합적인 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. As the functions of the mobile terminal are diversified, for example, the mobile terminal has complicated functions such as photographing and photographing of a moving picture, reproduction of music or video file, reception of a game and broadcasting, and the like in the form of a multimedia player .

이러한 멀티 미디어 기기에는 복잡한 기능을 구현하기 위해 하드웨어 또는 소프트웨어의 면에서 새로운 다양한 시도들이 적용되고 있다. 사용자가 쉽고 편리하게 기능을 검색하거나 선택하기 위한 유저 인터페이스(User Interface) 환경이 제공되고 있으며, 예컨대, 디스플레이 장치와 포인팅 장치를 하나로 결합한 터치 스크린이 적용되고 있다.In order to implement complex functions in multimedia devices, various new attempts have been made in terms of hardware or software. For example, a touch screen that combines a display device and a pointing device is applied to a user interface (UI) environment in which a user can easily and conveniently search for or select a function.

한편, 이동 단말기가 발생시키는 진동의 경우에도 종래의 소음 방지용의 한정적인 목적에서 탈피하여, 진동 패턴 등에 의한 촉각을 이용한 새로운 정보 전달 방법들이 사용자에 편의성 및 심미감을 증대시키는데 이용될 수 있다. On the other hand, even in the case of the vibration generated by the mobile terminal, new information transmission methods using the tactile sense by the vibration pattern or the like can be used to increase the convenience and aesthetics to the user, by moving away from the limited purpose of the conventional noise prevention.

또한, 사용자는 멀티미디어 콘텐츠나 메시지 등을 기존의 방법대로 재생하기 보다는 자신이 원하는 특수 효과를 부여하기를 원할 수 있다. In addition, the user may want to give the special effect desired by himself / herself rather than reproducing the multimedia contents or the message according to the conventional method.

본 발명은, 메시지나 멀티미디어 콘텐츠 등 아이템에 대한 표현 방법과 진동 패턴을 포함하는 효과 이모티콘을 사용하는 이동 단말기를 제공하기 위한 것이다.An object of the present invention is to provide a mobile terminal that uses an effect emoticons including a presentation method and vibration pattern for an item such as a message or a multimedia content.

또는 본 발명은, 메시지나 멀티미디어 콘텐츠 등 아이템에 사용자가 원하는 부가 효과를 부여할 수 있는 이동 단말기를 제공하기 위한 것이다.Alternatively, the present invention provides a mobile terminal capable of giving a desired additional effect to an item such as a message or a multimedia content.

상기 목적을 달성하기 위한 본 발명의 일 측면에 따른 이동 단말기는, 아이템과, 상기 아이템의 표현 방법 또는 진동 패턴을 구비하는 효과 이모티콘을 저장하는 메모리; 상기 효과 이모티콘을 생성 또는 사용하는 제어부; 상기 효과 이모티콘을 표현하는 출력부; 및 상기 효과 이모티콘의 생성 또는 사용에 대한 사용자 지시를 접수받는 사용자 입력부를 포함할 수 있다.According to an aspect of the present invention, there is provided a mobile terminal including: a memory for storing an effect emoticons having items, a method of expressing the items, or vibration patterns; A control unit for generating or using the effect emoticons; An output unit expressing the effect emoticons; And a user input unit for receiving a user instruction for creation or use of the effect emoticons.

여기서, 상기 제어부는, 상기 저장부에 저장된 효과 이모티콘을 이용하여, 상기 이동 단말기의 각 기능 또는 상기 메모리에 저장된 콘텐츠에, 부가 효과를 부여할 수 있다.Here, the control unit may add an additional effect to each function of the mobile terminal or contents stored in the memory, using the emotion emoticon stored in the storage unit.

여기서, 상기 제어부는, 상기 이동 단말기의 각 기능 또는 콘텐츠에, 상기 메모리에 저장된 효과 이모티콘을 첨부할 수 있다.Here, the control unit may attach the effect emoticons stored in the memory to each function or content of the mobile terminal.

여기서, 상기 제어부는, 상기 효과 이모티콘이 첨부된 콘텐츠에 대한 재생 지시를 접수하면, 상기 첨부된 효과 이모티콘을 표현한 후, 상기 콘텐츠를 재생할 수 있다. 또는, 상기 효과 이모티콘이 첨부된 기능에 대한 수행 지시를 접수하면, 상기 첨부된 효과 이모티콘을 표현한 후, 상기 기능을 수행할 수 있다.Here, the controller may reproduce the contents after expressing the attached effect emoticons upon receipt of a reproduction instruction for the contents attached with the effect emoticons. Alternatively, upon receiving an instruction to perform the function to which the effect emoticons are attached, the function may be performed after expressing the attached effect emoticons.

여기서, 상기 제어부는, 인디케이터 영역의 각 아이템에, 상기 효과 이모티콘을 첨부하고, 상기 효과 이모티콘이 첨부된 아이템에 관련된 이벤트가 발생하면, 상기 효과 이모티콘을 표현할 수 있다.Here, the controller may attach the effect emoticons to each item of the indicator region, and when the event related to the item to which the effect emoticons are attached, expresses the emotion emoticon.

여기서, 상기 이동 단말기는, 상기 효과 이모티콘을 구성하는 진동 패턴에 따라 상기 이동 단말기를 진동시키기 위한 진동 발생부를 더 포함할 수 있다.Here, the mobile terminal may further include a vibration generator for vibrating the mobile terminal according to a vibration pattern constituting the effect emoticons.

여기서, 상기 이동 단말기는, 상기 효과 이모티콘을 구성하는 상기 아이템의 표현 방법에 따라 디스플레이하는 디스플레이부를 더 포함할 수 있다.Here, the mobile terminal may further include a display unit for displaying the item according to a method of expressing the item constituting the effect emoticons.

여기서, 상기 제어부는, 사용자의 지시에 따라, 선택된 아이템에, 선택된 표현 방법 및/또는 진동 패턴을 첨부하여 효과 이모티콘을 생성하고, 이 경우 상기 저장부는, 각 효과 이모티콘을 생성하는데 선택 가능한 표현 방법들 및/또는 선택가능한 진동 패턴들을 저장할 수 있다.Here, the control unit generates an effect emoticons by attaching a selected expression method and / or a vibration pattern to a selected item according to an instruction of a user. In this case, the storage unit may store a plurality of emoticons And / or selectable vibration patterns.

여기서, 상기 이동 단말기는, 데이터 통신 채널을 형성하는 무선 통신부를 더 포함하며, 상기 제어부는, 상기 데이터 통신 채널을 통해 효과 이모티콘을 전송받으면, 사용자의 설정에 따라 상기 효과 이모티콘의 표현 여부를 결정할 수 있다.Here, the mobile terminal may further include a wireless communication unit for forming a data communication channel, and upon receiving the effect emoticons through the data communication channel, the control unit may determine whether or not the effect emoticons are displayed according to a setting of the user have.

상기 목적을 달성하기 위한 본 발명의 다른 측면에 따른 이동 단말기에서 사용할 수 있는 효과 이모티콘의 생성 방법은, 아이템을 선택하는 단계; 상기 아이템에 대한 표현 방법 및 상기 아이템이 표현될 때 출력되는 진동 패턴을 선택하는 단계; 및 상기 아이템과, 상기 표현 방법 또는 진동 패턴을 저장하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method of generating an effect emoticons for use in a mobile terminal, the method comprising: selecting an item; Selecting a vibration pattern to be output when the item is expressed; And storing the item, the representation method or the vibration pattern.

여기서, 상기 표현 방법 또는 진동 패턴을 선택하는 단계는, 상기 아이템이 디스플레이되는 표현 방법을 선택하는 단계; 및 상기 아이템이 상기 표현 방법에 따라 실행될 때, 이동 단말기에서 생성하는 진동 패턴을 선택하는 단계를 포함할 수 있다.Here, the selecting method or the vibration pattern may include: selecting a presentation method in which the item is displayed; And selecting the vibration pattern to be generated in the mobile terminal when the item is executed according to the expression method.

여기서, 상기 효과 이모티콘의 생성 방법은, 상기 선택된 아이템의 종류에 따라 부여될 수 있는 표현 방법들을 판단하는 단계를 더 포함할 수 있다.Here, the method of generating emoticon may further include determining expression methods that can be given according to the type of the selected item.

상기 목적을 달성하기 위한 본 발명의 또 다른 측면에 따른 이동 단말기에서 효과 이모티콘의 사용 방법은, 효과 이모티콘이 첨부된 이동 단말기의 기능의 수행 지시 또는 효과 이모티콘이 첨부된 콘텐츠의 재생 지시를 접수하는 단계; 상기 수행 지시 또는 재생 지시의 대상에 첨부된 효과 이모티콘을 표현하는 단계; 및 상기 수행 지시에 따른 기능을 수행하거나, 재생 지시에 따라 상기 콘텐츠를 재생하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method of using an effect emoticons in a mobile terminal, the method comprising: receiving an instruction to perform a function of a mobile terminal to which an effect emoticon is attached, ; Expressing an effect emoticon attached to an object of the performance instruction or reproduction instruction; And performing a function according to the performance instruction or reproducing the content according to a playback instruction.

여기서, 상기 효과 이모티콘을 표현하는 단계는, 상기 효과 이모티콘을 구성하는 아이템을, 상기 효과 이모티콘을 구성하는 표현 방법에 따라 디스플레이할 수 있다.Here, the step of expressing the effect emoticons may display the items constituting the effect emoticons according to a presentation method constituting the effect emoticons.

여기서, 상기 효과 이모티콘을 표현하는 단계는, 상기 효과 이모티콘을 구성하는 아이템을 디스플레이하면서, 상기 효과 이모티콘을 구성하는 진동 패턴에 따라 상기 이동 단말기를 진동시킬 수 있다.Here, the step of expressing the effect emoticons may vibrate the mobile terminal according to a vibration pattern constituting the effect emoticons while displaying the items constituting the effect emoticons.

상기 구성에 따른 본 발명의 이동 단말기는, 이동 단말기 사용자의 정서적 만족도 및/또는 편의성을 높이는 이점이 있다.The mobile terminal according to the present invention has the advantage of improving the emotional satisfaction and / or convenience of the mobile terminal user.

예컨대, 본 발명의 이동 단말기는, 메시지나 멀티미디어 콘텐츠 등 아이템에 대한 표현 방법과 진동 패턴을 포함하는 효과 이모티콘을 사용하여, 사용자의 정서적 만족도를 높일 수 있다.For example, the mobile terminal of the present invention can enhance emotional satisfaction of a user by using effect emoticons including a presentation method for a message and multimedia contents and a vibration pattern.

예컨대, 본 발명의 이동 단말기는, 메시지나 멀티미디어 콘텐츠 등 아이템에 사용자가 원하는 효과를 편리하게 부여하여, 사용자 편의성을 높일 수 있다.For example, the mobile terminal of the present invention can conveniently provide an effect desired by a user to an item such as a message or a multimedia content, thereby enhancing user convenience.

이하, 본 발명과 관련된 이동 단말기에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. Hereinafter, a mobile terminal related to the present invention will be described in detail with reference to the drawings. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.

본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 포함될 수 있다. 그러나, 본 명세서에 기재된 실시예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.The mobile terminal described in this specification may include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), navigation and the like. However, it will be understood by those skilled in the art that the configuration according to the embodiments described herein may be applied to a fixed terminal such as a digital TV, a desktop computer, and the like, unless the configuration is applicable only to a mobile terminal.

도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.1 is a block diagram of a mobile terminal according to an embodiment of the present invention.

상기 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기가 구현될 수도 있다.The mobile terminal 100 includes a wireless communication unit 110, an audio / video input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, a memory 160, A controller 170, a controller 180, a power supply 190, and the like. The components shown in FIG. 1 are not essential, and a mobile terminal having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.The wireless communication unit 110 may include one or more modules for enabling wireless communication between the mobile terminal 100 and the wireless communication system or between the mobile terminal 100 and the network in which the mobile terminal 100 is located. For example, the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short range communication module 114, and a location information module 115 .

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The broadcast receiving module 111 receives broadcast signals and / or broadcast-related information from an external broadcast management server through a broadcast channel.

상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may refer to a server for generating and transmitting broadcast signals and / or broadcast related information, or a server for receiving broadcast signals and / or broadcast related information generated by the broadcast management server and transmitting the generated broadcast signals and / or broadcast related information. The broadcast signal may include a TV broadcast signal, a radio broadcast signal, a data broadcast signal, and a broadcast signal in which a data broadcast signal is combined with a TV broadcast signal or a radio broadcast signal.

상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.The broadcast-related information may refer to a broadcast channel, a broadcast program, or information related to a broadcast service provider. The broadcast-related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112.

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast-related information may exist in various forms. For example, an EPG (Electronic Program Guide) of DMB (Digital Multimedia Broadcasting) or an ESG (Electronic Service Guide) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈(111)은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.For example, the broadcast receiving module 111 may be a Digital Multimedia Broadcasting-Terrestrial (DMB-T), a Digital Multimedia Broadcasting-Satellite (DMB-S), a Media Forward Link Only And a Digital Broadcasting System (ISDB-T) (Integrated Services Digital Broadcast-Terrestrial). Of course, the broadcast receiving module 111 may be adapted to other broadcasting systems as well as the digital broadcasting system described above.

방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메 모리(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory 160.

이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module 112 transmits and receives radio signals to at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data depending on a voice call signal, a video call signal or a text / multimedia message transmission / reception.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet module 113 is a module for wireless Internet access, and may be built in or externally attached to the mobile terminal 100. WLAN (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access) and the like can be used as wireless Internet technologies.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module 114 refers to a module for short-range communication. Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee, and the like can be used as a short range communication technology.

위치정보 모듈(115)은 이동 단말기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.The position information module 115 is a module for obtaining the position of the mobile terminal, and a representative example thereof is a Global Position System (GPS) module.

도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디 스플레이부(151)에 표시될 수 있다.Referring to FIG. 1, an A / V (Audio / Video) input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. The camera 121 processes image frames such as still images or moving images obtained by the image sensor in the video communication mode or the photographing mode. The processed image frame can be displayed on the display unit 151. [

카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. [ Two or more cameras 121 may be provided depending on the use environment.

마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives an external sound signal through a microphone in a communication mode, a recording mode, a voice recognition mode, or the like, and processes it as electrical voice data. The processed voice data can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 when the voice data is in the call mode, and output. Various noise reduction algorithms may be implemented in the microphone 122 to remove noise generated in receiving an external sound signal.

사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치(dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. The user input unit 130 generates input data for a user to control the operation of the terminal. The user input unit 130 may include a key pad dome switch, a touch pad (static / static), a jog wheel, a jog switch, and the like.

센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서(141)를 포함할 수 있다. The sensing unit 140 senses the current state of the mobile terminal 100 such as the open / close state of the mobile terminal 100, the position of the mobile terminal 100, the presence or absence of user contact, the orientation of the mobile terminal, And generates a sensing signal for controlling the operation of the mobile terminal 100. For example, when the mobile terminal 100 is in the form of a slide phone, it is possible to sense whether the slide phone is opened or closed. It is also possible to sense whether the power supply unit 190 is powered on, whether the interface unit 170 is connected to an external device, and the like. Meanwhile, the sensing unit 140 may include a proximity sensor 141.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153), 및 햅틱 모듈(154) 등이 포함될 수 있다.The output unit 150 is for generating output related to the visual, auditory or tactile sense and includes a display unit 151, an audio output module 152, an alarm unit 153, and a haptic module 154 .

디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The display unit 151 displays (outputs) information processed by the mobile terminal 100. For example, when the mobile terminal is in the call mode, a UI (User Interface) or a GUI (Graphic User Interface) associated with a call is displayed. When the mobile terminal 100 is in the video communication mode or the photographing mode, the photographed and / or received video or UI and GUI are displayed.

디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit 151 may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display display, and a 3D display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This can be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED) and the like. The rear structure of the display unit 151 may also be of a light transmission type. With this structure, the user can see an object located behind the terminal body through the area occupied by the display unit 151 of the terminal body.

이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)가 2개 이상 존재할 수 있다. 예를 들어, 이동 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. There may be two or more display units 151 according to the embodiment of the mobile terminal 100. For example, in the mobile terminal 100, a plurality of display portions may be spaced apart from one another or may be disposed integrally with each other, or may be disposed on different surfaces.

디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.(Hereinafter, referred to as a 'touch screen') in which a display unit 151 and a sensor for sensing a touch operation (hereinafter, referred to as 'touch sensor') form a mutual layer structure, It can also be used as an input device. The touch sensor may have the form of, for example, a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the display unit 151 or a capacitance generated in a specific portion of the display unit 151 into an electrical input signal. The touch sensor can be configured to detect not only the position and area to be touched but also the pressure at the time of touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the controller 180. Thus, the control unit 180 can know which area of the display unit 151 is touched or the like.

도 1을 참조하면, 상기 터치스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. Referring to FIG. 1, a proximity sensor 141 may be disposed in an inner region of the mobile terminal or in the vicinity of the touch screen, which is surrounded by the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or a nearby object without mechanical contact using the force of an electromagnetic field or infrared rays. The proximity sensor has a longer life span than the contact sensor and its utilization is also high.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. And to detect the proximity of the pointer by the change of the electric field along the proximity of the pointer when the touch screen is electrostatic. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, the act of recognizing that the pointer is positioned on the touch screen while the pointer is not in contact with the touch screen is referred to as "proximity touch" The act of actually touching the pointer on the screen is called "contact touch. &Quot; The position where the pointer is proximately touched on the touch screen means a position where the pointer is vertically corresponding to the touch screen when the pointer is touched.

상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (e.g., a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, and the like). Information corresponding to the detected proximity touch operation and the proximity touch pattern may be output on the touch screen.

음향 출력 모듈(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The audio output module 152 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception mode, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, The sound output module 152 also outputs sound signals related to functions (e.g., call signal reception sound, message reception sound, etc.) performed in the mobile terminal 100. [ The audio output module 152 may include a receiver, a speaker, a buzzer, and the like.

알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151,152)은 알람부(153)의 일부로 분류될 수도 있다.The alarm unit 153 outputs a signal for notifying the occurrence of an event of the mobile terminal 100. Examples of events that occur in the mobile terminal include call signal reception, message reception, key signal input, touch input, and the like. The alarm unit 153 may output a signal for notifying the occurrence of an event in a form other than the video signal or the audio signal, for example, vibration. The video signal or the audio signal may be output through the display unit 151 or the audio output module 152 so that they may be classified as a part of the alarm unit 153.

햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. The haptic module 154 generates various tactile effects that the user can feel. A typical example of the haptic effect generated by the haptic module 154 is vibration. The intensity and pattern of the vibration generated by the hit module 154 can be controlled. For example, different vibrations may be synthesized and output or sequentially output.

햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. In addition to the vibration, the haptic module 154 may include a pin arrangement vertically moving with respect to the contact skin surface, a spraying force or suction force of the air through the injection port or the suction port, a touch on the skin surface, contact with an electrode, And various tactile effects such as an effect of reproducing a cold sensation using an endothermic or exothermic element can be generated.

햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 이동 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 154 can be implemented not only to transmit the tactile effect through the direct contact but also to allow the user to feel the tactile effect through the muscular sensation of the finger or arm. At least two haptic modules 154 may be provided according to the configuration of the mobile terminal 100.

메모리(160)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/ 출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(160)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory 160 may store a program for the operation of the controller 180 and temporarily store input / output data (e.g., a phone book, a message, a still image, a moving picture, etc.). The memory 160 may store data on vibration and sound of various patterns outputted when a touch is input on the touch screen.

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), a RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM A disk, and / or an optical disk. The mobile terminal 100 may operate in association with a web storage that performs a storage function of the memory 160 on the Internet.

인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달하거나, 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The interface unit 170 serves as a path for communication with all external devices connected to the mobile terminal 100. The interface unit 170 receives data from an external device or supplies power to each component in the mobile terminal 100 or transmits data to the external device. For example, a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / O port, A video input / output (I / O) port, an earphone port, and the like may be included in the interface unit 170.

식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저 장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다. The identification module is a chip storing various information for authenticating the use right of the mobile terminal 100 and includes a user identification module (UIM), a subscriber identity module (SIM), a universal user authentication module A Universal Subscriber Identity Module (USIM), and the like. Devices with identification modules (hereinafter referred to as "identification devices") can be manufactured in a smart card format. Accordingly, the identification device can be connected to the terminal 100 through the port.

상기 인터페이스부는 이동단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.When the mobile terminal 100 is connected to an external cradle, the interface unit may be a path through which power from the cradle is supplied to the mobile terminal 100, or various command signals input by the user to the cradle may be transmitted It can be a passage to be transmitted to the terminal. The various command signals or the power source input from the cradle may be operated as a signal for recognizing that the mobile terminal is correctly mounted on the cradle.

제어부(controller, 180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The controller 180 typically controls the overall operation of the mobile terminal. For example, voice communication, data communication, video communication, and the like. The control unit 180 may include a multimedia module 181 for multimedia playback. The multimedia module 181 may be implemented in the control unit 180 or may be implemented separately from the control unit 180. [

상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. The controller 180 may perform a pattern recognition process for recognizing handwriting input or drawing input performed on the touch screen as characters and images, respectively.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power necessary for operation of the respective components.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of a processor, controllers, micro-controllers, microprocessors, and other electronic units for performing other functions. In some cases, The embodiments described may be implemented by the control unit 180 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.According to a software implementation, embodiments such as the procedures and functions described herein may be implemented with separate software modules. Each of the software modules may perform one or more of the functions and operations described herein. Software code can be implemented in a software application written in a suitable programming language. The software code is stored in the memory 160 and can be executed by the control unit 180. [

이하, 도 1의 구성요소들 중 본 발명의 사상의 구현에 관련된 것들을 설명하 겠다.Hereinafter, one of the components of FIG. 1 will be described in connection with the implementation of the idea of the present invention.

상기 헵틱 모듈(154)은, 이동 단말기를 기계적으로 진동시키기 위한 진동 소자로 구현될 수 있는데, 상기 진동 소자는 시판되고 있는 다양한 제품들 중 이동 단말기에 내장하기에 적합한 크기 및 성능을 가지는 것으로 선택될 수 있다.The haptic module 154 may be implemented as a vibrating element for mechanically vibrating a mobile terminal, which vibrator is selected to have a size and performance suitable for being embedded in a mobile terminal among various commercially available products .

구현에 따라 상기 진동 소자는 구동을 위한 전력으로서 단순한 턴온 전위를 입력받을 수도 있고, 클럭 형태의 신호를 입력받을 수 있다. 전자의 경우, 구현이 용이하여 비용 등을 절감할 수 있으나, 상기 진동 발생부가 생성할 수 있는 진동 패턴들의 개수가 작아져, 복잡한 정보를 전달하기 어려운 단점이 있다. 후자의 경우, 구현이 복잡하고 고가의 부품이 요구되나, 상기 진동 발생부가 생성할 수 있는 진동 패턴의 개수가 많아서 보다 복잡한 정보의 전달이 가능하다는 장점이 있다. 또한, 후자의 경우에는 상기 클럭의 주파수를 조절하여 상기 진동 소자의 진동 주파수를 조절할 수도 있다.According to the embodiment, the oscillation element can receive a simple turn-on potential as a power for driving, and can input a clock-shaped signal. In the former case, it is easy to implement and can reduce costs, but the number of vibration patterns that can be generated by the vibration generating unit is reduced, and it is difficult to transmit complex information. In the latter case, a complicated and expensive component is required, but the number of vibration patterns that can be generated by the vibration generating unit is large, so that it is possible to transmit more complex information. In the latter case, the frequency of the clock may be adjusted to adjust the oscillation frequency of the oscillation element.

구현에 따라 상기 진동 소자를 2개 이상 구비할 수도 있다. 진동 소자를 2개 이상 구비하면, 다양한 적용이 가능한데, 예컨대, 고유 진동 주파수가 다른 진동 소자를 2개 이상 구비하여, 사용자로 하여금 주파수 차이로 응답의 차이를 감별하도록 구현할 수 있고, 또는 진동 방향 및/또는 위치가 다른 진동 소자를 2개 이상 구비하여, 사용자가 이동 단말기를 쥐었을 때 느껴지는 진동 방향 및/또는 진동 위치로 응답의 차이를 감별하도록 구현할 수 있다. At least two or more vibration elements may be provided according to the implementation. For example, two or more vibration elements having different natural vibration frequencies may be provided so that the user can differentiate the difference in response by the frequency difference, / Or two or more vibrating elements having different positions may be provided so as to discriminate the difference in response to the vibration direction and / or vibration position felt when the user holds the mobile terminal.

상기 제어부(180)는 일반적인 이동 단말기의 경우와 같이, 무선 통신망을 이용한 통화 기능 외에 부가 기능으로서, 문자 메시지를 수/발신하는 프로그램, 사진 이나 동영상 등 멀티미디어 데이터를 재생하는 프로그램 등을 사용자의 지시에 따라 실행할 수 있다.The control unit 180 may be a program for receiving / sending a text message, a program for reproducing multimedia data such as a picture or a moving picture, etc., in addition to a call function using a wireless communication network, as in the case of a general mobile terminal Can be executed accordingly.

상기 제어부(180)가 수행하는 알고리즘 및/또는 실행하는 프로그램의 변경에 의해, 본 실시예에 대한 다양한 구현예들을 달성할 수 있다.Various implementations of the present embodiment can be achieved by changing the algorithm executed by the controller 180 and / or the program executed.

예컨대, 상기 제어부(180)는 사용자의 지시에 따라 메시지나 메모리(160)에 저장된 멀티미디어 콘텐츠 등에 본 발명의 사상에 따른 효과 이모티콘을 첨부하고, 상기 효과 이모티콘을 상기 무선 통신부(110)를 통해 상기 상대방의 단말기로 전송할 수 있다.For example, the control unit 180 attaches an effect emoticons according to the spirit of the present invention to a message or a multimedia content stored in the memory 160 according to an instruction of a user, and transmits the effect emoticons to the counterpart Lt; / RTI >

상기 센싱부(140)는 움직임 감지 장치를 더 포함하고, 상기 제어부(180)는 상기 움직임 감지 장치로 입력되는 이동 단말기의 움직임 패턴에 따른 진동 패턴을 작성할 수 있다.The sensing unit 140 may further include a motion sensing device, and the controller 180 may generate a vibration pattern corresponding to a movement pattern of the mobile terminal input to the motion sensing device.

상기 센싱부(140)는 터치스크린 등과 같은 포인팅 접수 장치를 더 포함하고, 상기 제어부(180)는 상기 포인팅 접수 장치로 입력되는 사용자의 포인팅 패턴에 따라 진동 패턴을 작성할 수 있다.The sensing unit 140 may further include a pointing receiving device such as a touch screen, and the controller 180 may generate a vibration pattern according to a pointing pattern input by the pointing receiving device.

이하, 도 2 및 3을 참조하여 이동 단말기의 Hereinafter, with reference to FIGS. 2 and 3, 디스플레이부(도 1의 151)와The display unit (151 in Fig. 1) 터치 패드의 서로 연관된 작동 방식에 대하여 살펴본다. Let's look at how the touch pads work together.

도 2 및 3은 본 발명과 관련된 이동 단말기의 일 작동 상태를 설명하기 위한 이동 단말기의 정면도들이다.2 and 3 are front views of a mobile terminal for explaining one operation state of the mobile terminal according to the present invention.

디스플레이부(151)에는On the display unit 151, 다양한 종류의 시각 정보들이 표시될 수 있다. 이들 정보들은 문자, 숫자, 기호, 그래픽, 또는 아이콘 등의 형태로 표시될 수 있다. Various kinds of visual information can be displayed. These pieces of information can be displayed in the form of letters, numbers, symbols, graphics, or icons.

이러한 정보의 입력을 위하여 상기 문자, 숫자, 기호, 그래픽 또는 To input such information, the letters, numbers, symbols, graphics, 아이콘 들Icons 중 적어도 하나는 일정한 배열을 이루어 표시됨으로써 키패드의 형태로 구현될 수 있다. 이러한 키패드는 소위 '소프트키'라 불릴 수 있다.  May be realized in the form of a keypad by being displayed in a predetermined arrangement. Such a keypad may be called a so-called " soft key ".

도 2는 단말기 2, 바디의Of the body 전면을 통해 소프트키에 가해진 터치를 입력받는 것을 나타내고 있다.  And receives a touch applied to the soft key through the front side.

디스플레이부(151)는The display unit 151 displays 전체 영역으로 작동되거나, 복수의 영역들로 나뉘어져 작동될 수 있다. 후자의 경우, 상기 복수의 영역들은 서로 연관되게 작동되도록 구성될 수 있다. It can be operated as a whole area or divided into a plurality of areas and operated. In the latter case, the plurality of areas can be configured to operate in association with each other.

예를 들어, E.g, 디스플레이부(151)의The display unit 151 상부와 하부에는 출력창(151a)과 입력창(151b)이 각각 표시된다. 출력창(151a)과 입력창(151b)은 각각 정보의 출력 또는 입력을 위해 할당되는 영역이다. 입력창(151b)에는 전화 번호 등의 입력을 위한 숫자가 표시된 소프트키(151c)가 출력된다. 소프트키(151c)가  And an output window 151a and an input window 151b are displayed on the upper and lower sides, respectively. The output window 151a and the input window 151b are areas allocated for outputting or inputting information, respectively. In the input window 151b, a soft key 151c in which a number for inputting a telephone number or the like is displayed is output. If the softkey 151c 터치되면When it touches , , 터치된Touched 소프트키에 대응되는 숫자 등이 출력창(151a)에 표시된다. 제1조작 유닛(131)이 조작되면 출력창(151a)에 표시된 전화번호에 대한 호 연결이 시도된다. And the number corresponding to the soft key are displayed on the output window 151a. When the first operation unit 131 is operated, call connection to the telephone number displayed on the output window 151a is attempted.

도 3은 단말기 3, 바디의Of the body 후면을 통하여 소프트키에 가해진 터치를 입력받는 것을 나타낸다. 도 2가 단말기  Indicates that a touch is applied to the soft key through the rear surface. 2, 바디를Body 세로로  Vertically 배치시킨Placed 경우( Occation( portraitportrait )라면, 도 3은 단말기 3, 바디를Body 가로로  Horizontally 배치시킨Placed 경우( Occation( landscapelandscape )를 나타낸다. ). 디스플레이부(151)는The display unit 151 displays 단말기  terminal 바디의Of the body 배치 방향에 따라 출력 화면이 변환되도록 구성될 수 있다. And the output screen is converted according to the placement direction.

도 3은 이동 단말기에서 텍스트 입력 FIG. 3 is a flow chart 모드가Mode is 작동되는 것을 나타낸다.  . 디스 플레이부(151)에는On the display unit 151, 출력창(151 Output window 151 a'a ' )과 입력창(151) And an input window 151 b'b ' )이 표시된다. 입력창(151) Is displayed. Input window 151 b'b ' )에는 문자, 기호, 숫자들 중 적어도 하나가 표시된 소프트키(151) Includes a soft key 151 (at least one of letters, symbols, and numbers) c'c ' )들이 복수로 배열될 수 있다. 소프트키(151Can be arranged in plural. Soft keys 151 c'c ' )들은 ) 쿼티(QWERTY)키의Of the QWERTY key 형태로 배열될 수 있다. . ≪ / RTI >

터치 패드를 통하여 Through the touchpad 소프트키(151c')들이Soft keys 151c ' 터치 되면,  When touched, 터치된Touched 소프트키에 대응되는 문자, 숫자, 기호 등이 출력창(151 The letters, numbers, symbols corresponding to the soft keys are displayed in the output window 151 a'a ' )에 표시되게 된다. 이와 같이, 터치 패드를 통한 터치 입력은 ). As described above, the touch input through the touch pad 디스플레이부(151)을The display unit 151 통한 터치 입력에 비하여 터치시 소프트키(151 Compared with the touch input via the touch key 151 c')가c ') 손가락에 의해 가려지는 것을 방지할 수 있는 이점이 있다.  There is an advantage that it can be prevented from being blocked by the finger. 디스disrespect 플레이부(Play part ( 151)와151) and 터치 패드가 투명하게 형성되는 경우에는, 단말기  When the touch pad is formed to be transparent, 바디의Of the body 후면에 위치한 손가락들을 육안으로 확인할 수 있으므로,  Since the fingers located on the back can be visually confirmed, 보다 정확한More accurate 터치 입력이  Touch input 가능하Possible 다.All.

이상의 ideal 실시예들에In embodiments 개시된 입력 방식뿐만 아니라,  In addition to the disclosed input method, 디스플레이부Display portion (151) 또는 터치 패드는 (151) or the touch pad 스크롤(scroll)에On the scroll 의해 터치 입력받도록 구성될 수 있다. 사용자는  And receives the touch input. The user 디스플레이부Display portion (151) 또는 터치 패드를 (151) or the touch pad 스크롤scroll 함으로써  by doing 디스플레이부(151)에On the display unit 151 표시된 개체, 예를 들어 아이콘 등에 위치한 커서 또는 포인터를 이동시킬 수 있다. 나아가, 손가락을  A cursor or a pointer located on the displayed object, for example, an icon or the like, can be moved. Further, 디스플레이부Display portion (151) 또는 터치 패드 상에서 이동시키는 경우, 손가락이 움직이는 경로가 (151) or the touch pad, the path along which the finger moves 디스플레이부(151)에On the display unit 151 시각적으로 표시될 수도 있다. 이는  It may be displayed visually. this is 디스플레이부(151)에On the display unit 151 표시되는 이미지를 편집함에 유용할 것이다. It will be useful for editing the displayed image.

디스플레이부Display portion (151)(터치 스크린) 및 터치 패드가 일정 시간 범위 내에서 함께 (Touch screen) 151 and the touch pad are operated together within a predetermined time range 터치되는Touched 경우에 대응하여, 단말기의 일 기능이 실행될 수도 있다. 함께 터치되 In response to the case, one function of the terminal may be executed. Touch together The 경우로는, 사용자가 엄지 및 검지를 이용하여 단말기  In the case where the user uses the thumb and index, 바디를Body 집는( House ( clampingclamping ) 경 우가 있을 수 있다. ) There may be cases. 상기 일The above- 기능은, 예를 들어,  The function, for example, 디스플레이부Display portion (151) 또는 터치 패드에 대한 활성화 또는 비활성화 등이 있을 수 있다.(151) or activation or deactivation of the touch pad.

도 4는 본 발명의 일 실시예에 따른 효과 이모티콘의 데이터 구조를 도시한 것이다. FIG. 4 shows a data structure of an effect emoticons according to an embodiment of the present invention.

도시한 효과 이모티콘은, 아이템, 표현 방법 및 진동 패턴으로 이루어질 수 있다. 추가적으로, 각 효과 이모티콘을 식별하기 위하여, 상기 효과 이모티콘은, 사용자가 호칭할 수 있는 명칭 및/또는 효과 이모티콘으로서 저장되는 파일명을 더 포함할 수 있다. The illustrated effect emoticons may be composed of items, expression methods, and vibration patterns. Additionally, in order to identify each effect emoticons, the effect emoticons may further include file names stored as names and / or effect emoticons that the user may call.

상기 아이템으로서, 문자, 이모티콘, 이미지, 플래시, 사진, 동영상, MP3/음성/사운드 등 오디오 데이터, 문서, 링크, URL, 전화번호부상 아이템, 메시지, 메모, 일정 아이템, 이동 단말기의 발광 장치(LED/LCD백라이트/카메라 플래시 등) 중 어느 하나가 될 수 있다. As the items, audio data such as characters, emoticons, images, flashes, pictures, moving pictures, MP3s / voice / sounds, documents, links, URLs, phone number floating items, messages, memos, / LCD backlight / camera flash, etc.).

상기 표현 방법은, 상기 아이템이 이동 단말기의 해당 구성요소(예 : LCD, LED 등)에서 표현되는 방법을 지정할 수 있다.The presentation method may specify how the item is represented in a corresponding component (e.g., LCD, LED, etc.) of the mobile terminal.

상기 진동 패턴은, 효과 이모티콘의 표현 방법에 따라 상기 효과 이모티콘의 아이템이 표현될 때, 이동 단말기를 진동하는 패턴을 지정할 수 있다.The vibration pattern can designate a pattern for vibrating the mobile terminal when the item of the effect emoticons is represented according to a method of expressing the effect emoticons.

상기 효과 이모티콘은 그 자체만으로 실행될 수 있고, 또는 다른 아이템에 첨부되는 방식으로 실행될 수 있다. 효과 이모티콘이 첨부될 수 있는 아이템의 대부분은, 효과 이모티콘을 구성하는 아이템이 될 수 있다. 이하에서는, 혼란을 방지 하기 위해, 효과 이모티콘이 첨부되는 아이템은, '대상'이라 칭하겠다.The effect emoticons can be executed on their own, or in a manner attached to other items. Most of the items to which the effect emoticons can be attached can be the items that make up the effect emoticons. Hereinafter, in order to prevent confusion, the item to which the effect emoticons are attached will be referred to as " object ".

효과 이모티콘의 실행 과정에 대하여 살펴보겠다.Let's take a look at the implementation process of the emoticon.

이동 단말기의 제어부는, 사용자로부터 효과 이모티콘이 첨부된 대상의 실행 지시를 접수하면, 우선, 효과 이모티콘을 표현하는 절차를 수행한다. 상기 절차는 효과 이모티콘의 표현을 위한 전용 어플리케이션의 실행에 따라 수행될 수 있다.When the control unit of the mobile terminal receives the execution instruction of the object to which the effect emoticons are attached from the user, the control unit first performs a procedure of expressing the effect emoticons. The above procedure can be performed according to the execution of a dedicated application for expression of effect emoticons.

예컨대, 디스플레이에 디스플레이할 수 있는 종류의 효과 이모티콘을 표현하는 방법은 하기와 같다.For example, a method of expressing an effect emoticon of a kind that can be displayed on a display is as follows.

상기 제어부는, 효과 이모티콘을 표현하기 위해, 우선, 표현하려는 효과 이모티콘의 아이템 데이터를 로딩한다. 다음 상기 효과 이모티콘의 표현 방법에 따라 상기 아이템이 화면상에 표현되도록 디스플레이부를 제어한다. In order to express the effect emoticons, the control unit first loads the item data of the effect emoticons to be displayed. Next, the display unit is controlled so that the item is displayed on the screen according to the expression method of the effect emoticons.

예컨대, 상기 표현 방법에 따라 각 시각에서의 상기 아이템이 화면상에 존재하는 모습들을 포함하는 디스플레이용 이미지 데이터(예: 디스플레이 프레임 데이터)를 작성할 수 있다.For example, display image data (e.g., display frame data) including images in which the item at each time is present on the screen can be created according to the expression method.

도 5에서는, 효과 이모티콘의 아이템 데이터를 로딩하고(S20), 효과 이모티콘의 표현 방법을 독출한(S30) 후의 효과 이모티콘의 표현 과정을 도시한다. FIG. 5 shows a process of loading effect emoticons after loading the item data of the effect emoticons (S20) and reading the method of expressing the effect emoticons (S30).

도시한 바와 같이, 각 단위 시간을 위한 디스플레이 프레임 데이터를 작성할 때, 해당 단위 시간에 대한 표현 방법에 부합하도록, 상기 디스플레이 프레임 데이터에 아이템 이미지를 포함시킨다(S40). 다음, 효과 이모티콘에 대한 표현 시간이 경과하였는가를 판단하고(S50), 표현 시간이 경과하였으면 효과 이모티콘의 표현을 종료하고(S70), 경과하지 않으면 다음 단위 시간에 대한 상기 디스플레이 프레임 데이터에, 단위 시간에 대한 표현 방법에 부합하도록, 아이템 이미지를 포함시킨다(S60).As shown in the figure, when creating the display frame data for each unit time, the item image is included in the display frame data so as to conform to the expression method for the unit time (S40). Next, it is determined whether or not the expression time for the effect emoticons has elapsed (S50). If the expression time has elapsed, the expression of the effect emoticons is terminated (S70). If not, The item image is included so as to conform to the expression method for the item image (S60).

상기 효과 이모티콘의 저장 및 전송 형태는 다음과 같다.The storage and transmission modes of the effect emoticons are as follows.

본 발명의 사상에 따른 효과 이모티콘도 일반적인 멀티미디어 콘텐츠처럼 도 1의 메모리(160)에 소정의 저장 영역을 할당받아 저장될 수 있다.The effect emoticons according to the present invention may be stored in the memory 160 of FIG. 1 as a general multimedia content.

효과 이모티콘은 별도로 저장될 수 있고, 또는 자신을 첨부하고 있는 대상과 함께 저장될 수 있다. 전자의 형태는, 효과 이모티콘을 사용하기 위한 이동 단말기에서 적용하기 유리하며, 후자의 형태는 효과 이모티콘이 첨부된 대상을 전송받은 이동 단말기에서 적용하기 유리하다.The effect emoticons can be stored separately, or they can be stored with the object to which they are attached. The former type is advantageous to be applied to the mobile terminal for using the effect emoticons, and the latter form is advantageous to be applied to the mobile terminal to which the subject having the effect emoticons are transmitted.

각 효과 이모티콘을 구성하는 아이템을 저장하는 영역에는, 상기 아이템 데이터 자체를 저장하거나, 또는 상기 아이템이 저장된 영역을 가리키는 포인터나 상기 아이템의 파일명을 저장할 수 있다. 한편, 상기 아이템이 단일 문자나 짧은 어구인 경우, 항상 ASCI 코드 등의 형태로 직접 저장될 수 있다.In an area for storing items constituting each effect emoticons, the item data itself may be stored, or a pointer indicating an area where the item is stored or a file name of the item may be stored. On the other hand, if the item is a single character or a short phrase, it can always be stored directly in the form of an ASCI code or the like.

각 효과 이모티콘을 구성하는 아이템의 표현 방법을 저장하는 영역에는, 각 표현 방법에 대한 식별자나, 이를 구체적으로 나타내는 특수 코드가 기록될 수 있다. 이는 이동 단말기가 아이템의 표현 방법에 대한 정보들을 미리 보유하고 있는 경우에 유용하다.In the area for storing the expression method of the items constituting each effect emoticon, an identifier for each expression method and a special code for specifically describing the expression method may be recorded. This is useful when the mobile terminal already has information on how to represent the item.

상기 진동 패턴을 저장하는 영역에는, 이동 단말기 메모리(160)의 진동 정보 저장 영역상의 진동 패턴을 가리키는 포인터나 식별자가 기록되거나, 진동 패턴 자체가 이미지나 특수 코드로 표현되어 기록될 수 있다. 예컨대, 진동 패턴은 가로축이 시간, 세로축이 진동의 세기인 좌표상 그래프의 형태로 지정될 수 있다.In the area for storing the vibration pattern, a pointer or an identifier indicating a vibration pattern on the vibration information storage area of the mobile terminal memory 160 may be recorded, or the vibration pattern itself may be expressed by an image or a special code and recorded. For example, the vibration pattern may be specified in the form of a graph on the coordinate axis, where the abscissa is time and the ordinate is the intensity of vibration.

본 발명에 따른 효과 이모티콘은, 대상 데이터와 함께 상기 저장 형태의 데이터 그대로 전송하려는 상대방 이동 단말기로 전송될 수 있다. 그런데, 전송하려는 효과 이모티콘의 아이템은 아이템 데이터 자체가 전송되는 것이 바람직하나, 경우에 따라서는 식별자가 전송될 수 있다. 예컨대, 동일 기종의 이동 단말기에 공통적으로 저장하고 있는 아이템인 경우, 별도의 아이템 데이터를 전송하지 않고, 식별자를 전송할 수 있다. The effect emoticons according to the present invention may be transmitted to the counterpart mobile terminal to transmit the data of the storage form together with the object data. However, the item of the effect emoticons to be transmitted is preferably transmitted as item data itself, but in some cases, the identifier may be transmitted. For example, in the case of an item commonly stored in a mobile terminal of the same model, an identifier can be transmitted without transmitting separate item data.

도 6은 본 발명의 일 실시예에 따른 이동 단말기에서의, 효과 이모티콘 및 효과 이모티콘이 첨부된 콘텐츠 등의 저장 구조를 도시한 것이다.FIG. 6 illustrates a storage structure of contents and the like, to which effect emoticons and effect emoticons are attached, in a mobile terminal according to an embodiment of the present invention.

도시한 바와 같이 이동 단말기의 메모리(160)에는, TXT 및/또는 MMS 메시지들을 저장하는 메시지 저장 영역(161); 아이콘 파일들을 저장하는 아이콘 저장 영역(162); 이미지 파일들을 저장하는 이미지 저장 영역(163); 동영상 파일들을 저장하는 동영상 저장 영역(164); 효과 이모티콘을 구성하는 표현 방법에 대한 정보들을 저장하는 표현 방법 저장 영역(166); 효과 이모티콘을 구성하는 진동 패턴들을 저장하는 진동 정보 저장 영역(167); 효과 이모티콘을 구성하는 아이템의 종류 따라 부여될 수 있는 표현 방법들을 나타내는 아이템 종류 - 표현 방법 매칭 마스크(165); 및 생성된 효과 이모티콘들을 저장하는 효과 이모티콘 저장 영역(168)이 형성될 수 있다.As shown, the memory 160 of the mobile terminal includes a message storage area 161 for storing TXT and / or MMS messages; An icon storage area 162 for storing icon files; An image storage area 163 for storing image files; A moving picture storage area 164 for storing moving picture files; A presentation method storage area 166 for storing information on the presentation method of the effect emoticons; A vibration information storage area 167 for storing vibration patterns constituting the effect emoticons; An item type-expression method matching mask 165 that indicates expression methods that can be given according to the type of the item constituting the effect emoticons; And an effect emoticons storage area 168 for storing the generated effect emoticons.

상기 메시지 저장 영역(161), 아이콘 저장 영역(162), 이미지 저장 영역(163), 동영상 저장 영역(164)들에 저장된 각 아이템들은 본 발명의 사상에 따른 효과 이모티콘을 구성하는데 사용될 수 있다. 그 저장 영역을 도시하지는 않았지만, 다른 종류의 멀티미디어 콘텐츠도 본 발명의 사상에 따른 효과 이모티콘을 구성하는데 사용될 수 있음은 물론이다.The items stored in the message storage area 161, the icon storage area 162, the image storage area 163, and the moving picture storage area 164 may be used to construct an effect emoticons according to the spirit of the present invention. Although not shown, other types of multimedia content may also be used to construct effect emoticons according to the teachings of the present invention.

상기 4 저장 영역들은 일반적인 이동 단말기의 경우와 유사하게 형성될 수 있다.The four storage areas may be formed similar to the case of a general mobile terminal.

상기 4 저장 영역들에 저장된 각 대상들은, 효과 이모티콘을 구성하는 요소가 될 수 있으며, 또한, 생성된 효과 이모티콘이 첨부될 수 있다. 예컨대, 도면에서는, m2.msg 메시지, i2.ico 아이콘, sky.jpg 파일, me.jpg 파일, movie3.mpg 파일에, 효과 이모티콘이 첨부되어 있음을 알 수 있다. Each object stored in the four storage areas may be an element constituting the effect emoticons, and the created effect emoticons may be attached. For example, in the drawing, it can be seen that an effect emoticon is attached to the m2.msg message, the i2.ico icon, the sky.jpg file, the me.jpg file, and the movie3.mpg file.

효과 이모티콘을 생성하기 위해 아이템을 선택하는데, 선택된 아이템에 이미 다른 효과 이모티콘이 첨부되어 있을 수 있다. 이 경우, 생성되는 효과 이모티콘에는 선택된 원래의 아이템만이 이용되고, 기 첨부된 효과 이모티콘 관련 정보는 무시될 수 있다.An item is selected to create an effect emoticon, which may already have another effect emoticon attached to the selected item. In this case, only the original item selected is used in the generated effect emoticons, and information on the effect emoticons attached thereto may be ignored.

상기 표현 방법 저장 영역(166)에는, 효과 이모티콘에 구비된 아이템을 표현하는 방법에 관한 식별자가 저장될 수 있다. 상기 아이템을 표현하는 방법으로서, 특히 디스플레이 상에서 표현되는 방법이 유용하게 적용될 수 있으나, 이에 한정하지는 않는다. 또한, 상기 표현 방법 저장 영역(166)에, 해당 표현 방법을 수행하기 위한 구체적인 (이동 단말기의) 명령어 코드들의 스트림이 기록될 수 있다.In the expression method storage area 166, an identifier related to a method of expressing an item included in the effect emoticons may be stored. As a method for expressing the item, a method represented in particular on a display may be usefully applied, but is not limited thereto. Also, in the expression method storage area 166, a specific stream of the instruction codes (of the mobile terminal) for performing the expression method may be recorded.

상기 표현 방법으로서, 실행, 확대, 축소, 회전, 무작위 이동 디스플레이, 강조 디스플레이, 하이라이트 디스플레이, 깜빡이기, 날라오기(좌/우로 이동하면서 디스플레이), 블라인드 디스플레이 등 중 어느 하나가 될 수 있다.The expression method may be any one of execution, enlargement, reduction, rotation, random movement display, highlight display, highlight display, blinking, flying (display moving left / right), blind display and the like.

상기 진동 정보 저장 영역(167)에는, 효과 이모티콘에 구비된 진동 패턴을 기록할 수 있다.In the vibration information storage area 167, a vibration pattern included in the effect emoticons can be recorded.

구현에 따라 상기 '아이템 종류 - 표현 방법' 매칭 마스크(165) 대신 상기 '아이템 종류 - 표현 방법'에 대한 매칭 정보를 가진 테이블 등 다른 데이터 구조를 이용할 수 있다. A different data structure such as a table having matching information for the 'item type-expression method' may be used instead of the 'item type-expression method' matching mask 165 according to the implementation.

상기 표현 방법 저장 영역(166)에, 각 표현 방법들에 대하여, 적용 가능한 아이템 종류를 기록하는 경우, 상기 아이템 종류 - 표현 방법 매칭 마스크(165)는 생략될 수 있다. In the case where the applicable item type is recorded for each representation method in the expression method storage area 166, the item type-expression method matching mask 165 may be omitted.

상기 효과 이모티콘 저장 영역(168)에는, 본 발명의 사상에 따라 생성된 효과 이모티콘들이 저장될 수 있다.In the effect emoticons storage area 168, effect emoticons generated according to the ideas of the present invention may be stored.

도 7은 상기 '아이템 종류 - 표현 방법' 매칭 마스크(165)의 일 실시예를 도시한다.FIG. 7 illustrates one embodiment of the 'Item Type-Expression Method' matching mask 165.

도시한 표에서, 가로축에는 아이템 종류가, 세로축에는 표현 방법들이 위치한다. 그리고, 각 아이템 종류와 각 표현 방법이 만나는 교차 영역에는, 해당 아이템 종류를 해당 표현 방법으로 표현할 수 있는 지를 o/x로 기재한다. In the table shown, the horizontal axis represents the item type and the vertical axis represents the representation methods. In the intersection area where each item type and each expression method meet, it is expressed as o / x whether the corresponding item type can be expressed by the corresponding expression method.

본 실시예의 이동 단말기는, 효과 이모티콘을 구성할 아이템을 선택한 후, 상기 '아이템 종류 - 표현 방법' 매칭 마스크(165)를 이용하여, 선택된 아이템에 부여할 수 있는 표현 방법들을 판단할 수 있다.The mobile terminal of this embodiment can determine the presentation methods that can be given to the selected item using the 'item type-expression method' matching mask 165 after selecting the item to configure the effect emoticons.

도 8은 본 발명의 일 실시예에 따른 효과 이모티콘의 생성 방법을 도시한다. 여기서, 효과 이모티콘은 이동 단말기에서 사용되기 위한 것이다. FIG. 8 illustrates a method of generating an effect emoticons according to an embodiment of the present invention. Here, the effect emoticons are intended to be used in a mobile terminal.

도시한 효과 이모티콘의 생성 방법은, 아이템을 선택하는 단계(S110); 상기 선택된 아이템의 종류에 따라 부여될 수 있는 표현 방법들을 판단하는 단계(S120); 상기 부여될 수 있는 표현 방법들을 사용자에게 통보하는 단계(S130); 사용자의 지시에 따라, 상기 아이템이 디스플레이되는 표현 방법을 선택하는 단계(S140); 상기 아이템이 상기 표현 방법에 따라 표현될 때, 이동 단말기에서 출력하도록 부여될 수 있는 진동 패턴들을 사용자에게 통보하는 단계(S150); 사용자의 지시에 따라, 상기 진동 패턴을 선택하는 단계(S160); 및 상기 아이템에 대한 정보와, 상기 아이템에 부여할 표현 방법에 대한 정보 또는 진동 패턴을 저장하는 단계(S170)를 포함할 수 있다.The method of generating an emotion icon includes: selecting an item (S110); Determining (S120) expression methods that can be assigned according to the type of the selected item; (S130) notifying the user of the presentation methods that can be given; Selecting an expression method in which the item is displayed according to a user's instruction (S140); When the item is represented according to the presentation method, notifying a user of vibration patterns that can be given to output from the mobile terminal (S150); Selecting the vibration pattern according to a user's instruction (S160); And storing information about the item, information on a presentation method to be imparted to the item, or a vibration pattern (S170).

도시한 효과 이모티콘의 생성 방법은, 사용자의 지시에 대한, 도 1의 이동 단말기의 제어부(180)의 통제 하에서 수행될 수 있으며, 수행 결과, 도 6의 효과 이모티콘 저장 영역(168)에는 생성된 효과 이모티콘이 저장될 수 있다.The generated emoticon may be performed under the control of the control unit 180 of the mobile terminal of FIG. 1 with respect to the user's instruction. As a result, the effect emoticon storage area 168 of FIG. Emoticons can be stored.

이하, 이동 단말기의 디스플레이 화면을 참조하여, 본 발명의 사상에 따른 효과 이모티콘의 사용 방법의 실시예들을 살펴보겠다.Hereinafter, embodiments of a method of using an effect emoticons according to the present invention will be described with reference to a display screen of a mobile terminal.

도 9는 이동 단말기에서 본 발명의 사상에 따른 효과 이모티콘을 관리하는 디스플레이 화면들이다.9 is a display screen for managing effect emoticons according to an embodiment of the present invention in a mobile terminal.

도시한 바와 같이, 효과 이모티콘의 관리 기능의 하나로서, 저장된 효과 이모티콘들에 대한 리스트를 디스플레이할 수 있다. As shown in the figure, as one of the management functions of the effect emoticons, it is possible to display a list of the stored effect emoticons.

도시한 효과 이모티콘 리스트 화면에서 메뉴 버튼(B1)을 누르면, 효과 이모티콘의 추가, 삭제, 편집, 이름 수정, 전체 삭제, 전체 선택 등의 기능을 수행할 수 있다.If you press the menu button (B1) on the illustrated emoticon list screen, you can add, delete, edit, rename, delete all, and select all of the emoticon.

상기 효과 이모티콘 리스트 화면에서 사용자가 하나의 효과 이모티콘을 터치하면, 터치에 따라 선택된 효과 이모티콘을 구성하는 아이템, 표현 방법 및 진동 패턴이 디스플레이된다. When the user touches one effect emoticons on the effect emoticons list screen, an item, a presentation method, and a vibration pattern constituting the selected emoticon are displayed according to the touch.

도면에서는 터치 스크린에 대한 터치 동작으로 효과 이모티콘을 선택하였지만, 화살표 키를 이용해 커서를 이동시키고 확인키를 눌러 선택할 수도 있다. 이와 같은 특정 항목의 선택 방법은 다른 도면 및/또는 다른 기능에 대해서도 마찬가지이다.In the drawing, the effect emoticon is selected by the touch operation on the touch screen, but the cursor can be moved by using the arrow keys and the user can select the emoticon by pressing the OK key. Such a method of selecting a specific item is the same for other drawings and / or other functions.

상기 아이템, 표현 방법 및 진동 패턴의 디스플레이 화면에서, 선택된 효과 이모티콘을 편집할 수 있다. 상기 효과 이모티콘의 편집을 위해서, 사용자가 도시한 아이템 영역(AI), 표현 방법 영역(AC), 진동 정보 영역(AB)을 터치할 수 있다.The selected effect emoticons can be edited on the display screen of the item, the expression method and the vibration pattern. In order to edit the effect emoticons, the user can touch the item area AI, the expression method area AC, and the vibration information area AB shown by the user.

도 10는 이동 단말기에서 본 발명의 사상에 따른 효과 이모티콘의 그룹들을 관리하는 디스플레이 화면들이다.10 is a display screen for managing groups of effect emoticons according to an embodiment of the present invention in a mobile terminal.

도시한 바와 같이, 관리/사용의 편의를 위해 효과 이모티콘들을 그룹핑하고, 각 그룹에 대한 리스트 화면이 제공될 수 있다. As shown in the figure, for convenience of management / use, effect emoticons are grouped and a list screen for each group can be provided.

상기 그룹 리스트 화면에서 메뉴 버튼(B2)을 누르면, 효과 이모티콘 그룹의 추가, 삭제, 편집, 이름 수정, 전체 삭제, 전체 선택 등의 기능을 수행할 수 있다.When the menu button B2 is pressed on the group list screen, functions such as addition, deletion, editing, name modification, deletion, and selection of effect emoticons can be performed.

상기 그룹 리스트 화면에서 하나의 효과 이모티콘을 터치하면, 선택된 그룹에 속한 효과 이모티콘들로 이루어진 리스트를 디스플레이할 수 있다. When one effect emoticons are touched on the group list screen, a list of effect emoticons belonging to the selected group can be displayed.

상기 효과 이모티콘 리스트 화면에서 하나의 효과 이모티콘을 터치하면, 터치에 따라 선택된 효과 이모티콘을 구성하는 아이템, 표현 방법 및 진동 패턴을 나타내는 효과 이모티콘에 대한 상세보기/편집 화면을 디스플레이한다. When one effect emoticon is touched on the effect emoticons list screen, a detailed view / edit screen for the emoticon indicating the items, the expression method, and the vibration pattern constituting the selected emoticon is displayed according to the touch.

도 11은 효과 이모티콘에 대한 상세보기/편집 화면에서 아이템을 선택하는 것을 도시하는 디스플레이 화면이다.11 is a display screen showing selection of an item in the detailed view / edit screen for the effect emoticons.

도시한 바와 같이, 상세보기/편집 화면에서 아이템 영역(AI1)을 터치하면, 효과 이모티콘을 구성할 아이템의 종류를 선택하는 팝업 화면(P1)을 디스플레이할 수 있다.As shown in the figure, when the item area AI1 is touched on the detail view / edit screen, a pop-up screen P1 for selecting the type of item to constitute the emotion emoticon can be displayed.

상기 아이템의 종류들로서, 문자, 아이콘, 이미지, 플래시, 사진, 동영상, MP3/음성/사운드 등 오디오 데이터, 문서, 링크, URL, 전화번호부상 아이템, 메시지, 메모, 일정 아이템, LED/LCD백라이트/카메라 플래시 등 램프, 미지정 중 어느 하나가 될 수 있다. 상기 문자는 숫자, 한글, 영문, 단어, 구, 문장, 단일 음절, 단일 자모를 포함할 수 있다. As for the types of the items, there are various types of items such as letters, icons, images, flashes, pictures, movies, audio data such as MP3s, voice / sounds, documents, links, URLs, Camera flash, lamp, or unspecified. The letters may include numbers, Hangul, English, words, phrases, sentences, single syllables, and single syllables.

상기 팝업 화면(P1)에서, 사용자가 하나를 선택(터치)하면, 선택된 종류의 아이템들로 이루어진 리스트 화면(미도시)을 디스플레이할 수 있다. 사용자는 상기 리스트 화면에서 최종적으로 효과 이모티콘을 구성할 아이템을 선택할 수 있다.On the pop-up screen P1, when a user selects (touches) one, a list screen (not shown) made up of the selected kind of items can be displayed. The user can finally select an item to constitute an effect emoticons on the list screen.

도 12는 효과 이모티콘에 대한 상세보기/편집 화면에서 표현 방법을 선택하는 것을 도시하는 디스플레이 화면이다.FIG. 12 is a display screen showing selection of the expression method in the detail view / edit screen for the effect emoticons.

도시한 바와 같이, 상세보기/편집 화면에서 표현 방법 영역(AC1)을 터치하면, 효과 이모티콘을 구성할 표현 방법을 선택하는 팝업 화면(P2)을 디스플레이할 수 있다.As shown in the drawing, when the expression method area AC1 is touched on the detail view / edit screen, a pop-up screen P2 for selecting the expression method for composing the effect emoticons can be displayed.

도시한 표현 방법들 중 '실행'은, 효과 이모티콘이 첨부된 대상의 실행을 지시받으면, 효과 이모티콘의 아이템을 표현한 후, 상기 대상을 실행하는 것이다.Among the illustrated methods of expression, 'execution' is to execute the object after expressing the item of the effect emoticons when the execution of the object to which the effect emoticons are attached is instructed.

'확대'는 효과 이모티콘이 첨부된 대상의 실행을 지시받으면, 효과 이모티콘의 아이템을 점점 확대하여 표현한 후, 상기 대상을 실행하는 것이다.When enlargement is instructed to execute the object to which the effect emoticons are attached, the enlarged items are gradually enlarged and displayed, and then the object is executed.

'축소'는 효과 이모티콘이 첨부된 대상의 실행을 지시받으면, 상기 효과 이모티콘의 아이템을 점점 축소하여 표현한 후, 상기 대상을 실행하는 것이다.When 'reduction' is instructed to execute an object to which the effect emoticons are attached, the items of the effect emoticons are gradually reduced, and then the object is executed.

'회전'은 효과 이모티콘이 첨부된 대상의 실행을 지시받으면, 상기 효과 이모티콘의 아이템을 회전시키면서 표현한 후, 상기 대상을 실행하는 것이다.'Rotation' is an instruction to execute an object to which the effect emoticons are attached, and after rotating the items of the emotion emoticon, the object is executed.

'무작위 이동'은, 효과 이모티콘이 첨부된 대상의 실행을 지시받으면, 상기 효과 이모티콘의 아이템을 무작위 이동시키면서 표현한 후, 상기 대상을 실행하는 것이다.When the execution of the object to which the effect emoticons are attached is instructed, the 'random move' is performed by randomly moving the items of the effect emoticons and then executing the object.

'강조'는, 효과 이모티콘이 첨부된 대상의 실행을 지시받으면, 상기 효과 이모티콘의 아이템을 강조하여 표현한 후, 상기 대상을 실행하는 것이다.When emphasis is instructed to execute an object to which the effect emoticons are attached, the emphasis emphasizes the items of the effect emoticons and then executes the objects.

'하이라이트'는 효과 이모티콘이 첨부된 대상의 실행을 지시받으면, 상기 효과 이모티콘의 아이템을 하이라이트하여 표현한 후, 상기 대상을 실행하는 것이다.'Highlight' is to highlight an item of the emotion emoticon and execute the object when the execution of the object to which the effect emoticon is attached is instructed.

'깜빡이기'는, 효과 이모티콘이 첨부된 대상의 실행을 지시받으면, 효과 이모티콘의 아이템을 깜빡이면서 표현한 후, 상기 대상을 실행하는 것이다.'Blink' means that when the execution of the object to which the effect emoticons are attached is instructed, the items of the effect emoticons are blinked, and then the object is executed.

'날라오기'는, 효과 이모티콘이 첨부된 대상의 실행을 지시받으면, 효과 이모티콘의 아이템인 문자를 구성하는 각 자모나 음절들이, 좌측의 것부터 하나씩 추가되는 형태로 표현한 후, 상기 대상을 실행하는 것이다.When the execution of the object to which the effect emoticons are attached is instructed, each character or syllable constituting the character, which is an item of the emoticon of the effect, is expressed in the form of being added one by one from the left side, and then the target is executed .

'블라인드'는, 효과 이모티콘이 첨부된 대상의 실행을 지시받으면, 상기 효과 이모티콘의 아이템을 블라인드 효과를 부여한 상태로 표현한 후 상기 대상을 실행하는 것이다.The 'blind', when instructed to execute the object to which the effect emoticons are attached, expresses the items of the effect emoticons in a state in which the blind effect is given, and then executes the object.

'임의궤적'은 효과 이모티콘이 첨부된 대상의 실행을 지시받으면, 사용자가 인가하는 임의 궤적(예: 터치패턴)에 따라 효과 이모티콘의 아이템을 이동시켜 표현한 후, 상기 대상을 실행하는 것이다.The 'arbitrary trajectory', when instructed to execute the object to which the effect emoticons are attached, moves and expresses the items of the effect emoticons according to an arbitrary locus (for example, a touch pattern) that the user applies and then executes the object.

'근접패턴'은, 효과 이모티콘이 첨부된 대상의 실행을 지시받으면, 사용자가 인가하는 근접패턴에 따라 효과 이모티콘의 아이템을 이동시켜 표현한 후, 상기 대상을 실행하는 것이다.When the execution of the object to which the effect emoticons are attached is instructed, the 'proximity pattern' moves the items of the emotion emoticon according to the proximity pattern applied by the user and expresses the items, and then executes the object.

'음성패턴'은, 효과 이모티콘이 첨부된 대상의 실행을 지시받으면, 외부에서 인가되는 음성패턴에 따라 효과 이모티콘의 아이템을 위치조절하여 표현한 후, 상기 대상을 실행하는 것이다.The 'voice pattern', when instructed to execute the object to which the effect emoticons are attached, adjusts the position of the item of the emotion emoticon according to the externally applied voice pattern, and then executes the object.

도 13은 효과 이모티콘에 대한 상세보기/편집 화면에서 표현 방법으로서 '임의궤적'을 선택하는 경우를 도시하는 디스플레이 화면이다.FIG. 13 is a display screen showing a case where 'random trajectory' is selected as an expression method in the detailed view / edit screen for effect emoticons.

도시한 바와 같이, 상세보기/편집 화면에서 표현 방법 영역(AC1)을 터치하고, 표현 방법 선택을 위한 팝업 화면(P2)에서 '임의궤적'을 터치하면, '임의궤적'을 입력하기 위한 팝업 화면이 디스플레이된다.As shown in the figure, when the expression method area AC1 is touched on the detail view / edit screen and the 'random trajectory' is touched on the popup screen P2 for selecting the expression method, a popup screen Is displayed.

해당 효과 이모티콘의 표현 작업이 수행되면, 상기 효과 이모티콘의 아이템은 상기 입력된 '임의궤적'에 따라 이동하면서 표현된다. When the effect emoticons are represented, the items of the emoticons are displayed while moving according to the inputted 'random trajectory'.

도 14은 효과 이모티콘에 대한 상세보기/편집 화면에서 진동 패턴을 선택하는 것을 도시하는 디스플레이 화면이다.Fig. 14 is a display screen showing selection of a vibration pattern in the detail view / edit screen for the effect emoticons.

사용자가 도시한 화면의 진동 패턴 영역(AB1)을 터치하면, 새로운 진동 패턴의 입력 화면이 디스플레이되거나, 기 생성되어 저장된 진동 패턴들 중 하나를 불러오기 위한 화면이 디스플레이될 수 있다. When the user touches the vibration pattern area AB1 of the screen shown in the figure, a new vibration pattern input screen is displayed or a screen for recalling one of the previously generated vibration patterns can be displayed.

도면의 둘째 화면에서는 새로운 진동 패턴의 '직접 입력'과 '리스트에서 선택' 중 하나를 선택하기 위한 메뉴로 이루어진 팝업창(P3)이 디스플레이된다. 이 후, 사용자가 '리스트에서 선택'메뉴를 선택하면, 셋째 화면에 도시한 바와 같이, 저장된 리스트상의 진동 패턴들의 시각적 형태가 하나씩 디스플레이된다.In the second screen of the drawing, a pop-up window P3 consisting of a menu for selecting one of the 'direct input' and the 'select from list' of the new vibration pattern is displayed. Thereafter, when the user selects the 'select from list' menu, the visual form of the vibration patterns on the stored list is displayed one by one, as shown in the third screen.

한편, 사용자가 새로운 진동 패턴을 편집하는 방법은 하기와 같다.On the other hand, a method of editing a new vibration pattern by the user is as follows.

도 15a는 터치 스크린을 이용한 진동 패턴 편집 방법의 일례를 도시한다. 도시한 바와 같이 먼저 0초에서 1초 사이의 진동 패턴을 터치 스크린으로 그려서 새로운 진동 패턴을 작성할 수 있다. 도면에서는 0초 ~ 1초 사이의 진동 패턴을 작성하는 것을 설명하였지만, 구현에 따라 1초 이상의 진동 패턴을 작성할 수 있다. 15A shows an example of a vibration pattern editing method using a touch screen. As shown in the figure, a new vibration pattern can be created by drawing a vibration pattern between 0 second and 1 second on the touch screen. In the drawings, a description has been given of the creation of a vibration pattern between 0 second and 1 second. However, a vibration pattern of 1 second or more can be created in accordance with the implementation.

도 15b는 사용자가 이동 단말기에 인가하는 움직임 패턴을 이용한 진동 패턴 편집 방법의 일례를 도시한다.15B shows an example of a vibration pattern editing method using a movement pattern that a user applies to a mobile terminal.

이동 단말기의 제어부는, 이동 단말기에 설치된 움직임 감지부를 통해, 사용자가 이동 단말기를 흔드는 동작의 강도를 파악할 수 있다. 상기 제어부는 시간의 흐름에 따라 상기 흔드는 동작의 강도를 연속적으로 파악하여, 연속적인 흔드는 동작의 강도 패턴을 진동 패턴으로서 저장할 수 있다.The control unit of the mobile terminal can determine the strength of the operation of shaking the mobile terminal by the motion detection unit installed in the mobile terminal. The controller can continuously grasp the intensity of the shaking motion over time and store the intensity pattern of the continuous shaking motion as a vibration pattern.

인체 구조상 사용자가 인가하는 움직임의 패턴은 도시한 바와 같은 다소 불규칙한 (시간축에 대한) 사인파 형태를 가지는데, 상기 사인파 형태의 포락선(envelope)을 진동 패턴으로 취하는 것이 바람직하다.The motion pattern applied by the user in the human body structure has a somewhat irregular sinusoidal shape (as shown in the time axis) as shown in the figure, and it is preferable that the envelope of the sine wave shape is taken as a vibration pattern.

도 16 내지 18은 본 발명의 사상에 따른 효과 이모티콘을 첨부하기 위한 화면을 실행하는 방법들을 도시한다.16 to 18 show methods for executing a screen for attaching an effect emoticons according to an embodiment of the present invention.

도 16은 일반적인 방법으로 이동 단말기의 각 기능 수행 화면에 구비된 효과이모티콘 첨부 버튼(B3)을 눌러서, 효과 이모티콘을 첨부할 수 있는 화면(둘째 화면)을 디스플레이하는 것을 도시한다. 상기 효과 이모티콘을 첨부할 수 있는 화면의 하단 영역에, 가로 방향으로 효과 이모티콘들이 나열되는 효과 이모티콘 리스트(AL)가 디스플레이된다.FIG. 16 shows a screen (second screen) on which an effect emoticon can be attached by pressing an effect emoticon attaching button B3 provided on each function performing screen of the mobile terminal by a general method. An effect emoticons list (AL) in which effect emoticons are arranged in the horizontal direction is displayed in the lower area of the screen to which the effect emoticons can be attached.

한편, 해당 어플리케이션에서 제공하는 메뉴에서도 효과 이모티콘을 관리하기 위한 메뉴 항목들을 가질 수 있다.On the other hand, the menu provided by the application can also have menu items for managing the effect emoticons.

도 17은 통화 등 작업 수행 중 소정 조건이 부합되면, 효과 이모티콘을 첨부할 수 있는 화면을 디스플레이하는 것을 도시한다. 예컨대, 음성/영상 통화시 통화음이 소정의 수준보다 높아지면, 효과 이모티콘을 첨부할 수 있도록 효과 이모티콘 리스트(AL)를 디스플레이할 수 있다.FIG. 17 illustrates displaying a screen to which an effect emoticon can be attached when a predetermined condition is satisfied during a call or the like. For example, when a call sound during a voice / video call is higher than a predetermined level, an effect emoticons list (AL) can be displayed so that an effect emoticon can be attached.

도 18은 이동 단말기가 움직임 감지 수단(예 : 자이로 센서)을 구비한 경우, 움직임 패턴을 인가하여, 효과 이모티콘을 첨부할 수 있도록 효과 이모티콘 리스트(AL)를 디스플레이하는 것을 도시한다. FIG. 18 shows displaying an effect emoticons list AL by attaching an effect emoticon by applying a movement pattern when the mobile terminal has a motion sensing means (for example, a gyro sensor).

도 19a 내지 19d는 첨부가능한 효과 이모티콘들이 디스플레이된 화면에서, 원하는 효과 이모티콘을 선택하여 첨부하는 방법들을 도시한 것이다.FIGS. 19A through 19D illustrate methods of selecting and attaching desired effect emoticons on a screen in which attachable effect emoticons are displayed.

도 19a에 도시한 바와 같이, 효과 이모티콘 리스트(AL1)의 각 효과 이모티콘에 대하여 서로 다른 숫자키를 할당하고, 사용자가 한 숫자키를 누르면, 할당된 효 과 이모티콘이 실행 중이던 작업 상 적절한 대상에 첨부된다. 도면에서는 각 효과 이모티콘에 할당된 숫자키를 나타내는 표식(MN)을 표현하였다.As shown in FIG. 19A, different numeric keys are assigned to the respective emoticons of the effect emoticons AL1, and when the user presses a numeric key, the assigned emoticon is attached to an appropriate object in the job in which the emoticon is being executed do. In the drawing, a marking (MN) representing a numeric key assigned to each effect emoticon is represented.

도면에서는 영상 통화 중이므로, 눌러진 숫자키에 할당된 효과 이모티콘이 영상 통화의 상대방 단말기로 전송된다. 이는 터치 스크린을 구비하지 않은 이동 단말기에서 유용하다. In the drawing, the emoticon assigned to the pressed numeric key is transmitted to the partner terminal of the video call because the user is in a video call. This is useful in a mobile terminal without a touch screen.

또는, 도 19b에 도시한 바와 같이, 효과 이모티콘 리스트(AL2) 상에 디스플레이된 효과 이모티콘들 중 하나를 터치(또는 더블 터치)하면, 효과 이모티콘이 실행 중이던 작업 상 적절한 대상에 첨부된다.(도면에서는 영상 통화의 상대방 단말기로 전송)Alternatively, as shown in FIG. 19B, when one of the effect emoticons displayed on the effect emoticons list AL2 is touched (or double-touched), the effect emoticons are attached to an appropriate object on the basis of the work being executed To the other terminal of the video call)

또는, 도 19c에 도시한 바와 같이, 드래그 앤 드롭을 이용하여, 효과 이모티콘 리스트(AL3)의 특정 효과 이모티콘을 원하는 대상에 첨부할 수 있다.Alternatively, as shown in FIG. 19C, a specific effect emoticon of the effect emoticons list AL3 can be attached to a desired object by using drag and drop.

또는, 도 19d에 도시한 바와 같이, 음성 인식 기능을 이용할 수 있다. 예컨대, 사용자가 메신저 기능을 이용하던 중 'first effect'를 외치면, 이에 대하여 음성 인식을 수행한 이동 단말기는, 하단의 효과 이모티콘 리스트(AL4)에 디스플레이된 효과 이모티콘들 중 맨 좌측 효과 이모티콘을 메신저상 상대방 단말기로 전송할 수 있다. 도면에서과 같이 음성을 사용하지 않는 메신저와 같은 기능에 유용하다. 메신저 수행 중 상기 효과 이모티콘 리스트(AL4)를 디스플레이할 것을 지시하기 위해서, 사용자는 'effect list'를 외쳐, 음성 명령할 수 있다.Alternatively, as shown in Fig. 19D, the voice recognition function can be used. For example, when the user shouts 'first effect' while using the messenger function, the mobile terminal that has performed the voice recognition for the user can select the leftmost effect emoticons among the effect emoticons displayed on the bottom effect emoticons list (AL4) To the other terminal. It is useful for functions like voice messaging messenger as shown in the figure. In order to instruct to display the effect emoticons list AL4 during messenger execution, the user can utter an 'effect list' and voice command.

도 20은 첨부가능한 효과 이모티콘들을 디스플레이한 화면에서, 효과 이모티콘에 대한 미리보기 기능을 도시한 것이다.FIG. 20 shows a preview function for effect emoticons on a screen displaying affirmative effect emoticons.

도시한 바와 같이, 사용자가 특정 효과 이모티콘을 근접 터치(또는, 1회 터치)하면, 축소된 영역(도면에서는 효과 이모티콘이 위치한 지점의 부근 영역(AR))에서 효과 이모티콘이 실행되는 모습을 표현할 수 있다. 이때, 효과 이모티콘에 구비된 진동 패턴도 함께 출력될 수 있다.As shown in the figure, when the user touches a specific effect emoticon proximately (or touches one time), the user can express how the effect emoticons are executed in the reduced area (the area AR near the point where the effect emoticons are located in the drawing) have. At this time, the vibration pattern provided in the effect emoticons can also be outputted together.

또는, 상기 미리보기가 시작된 후 소정 시간(0.5초 ~ 1초와 같은 미리보기 인식을 위한 최소 시간인 것이 바람직하다)이 경과하면, 상기 효과 이모티콘을 구성하는 아이템, 표현 방법 및 진동 패턴에 대한 정보를 팝업창(PW)으로 디스플레이할 수 있다.Alternatively, when a predetermined time (preferably a minimum time for preview recognition such as 0.5 seconds to 1 second) elapses after the preview starts, information on items, expression methods, and vibration patterns constituting the effect emoticons Can be displayed in a pop-up window (PW).

또는, 상기 미리보기시, 미리보기가 수행 중인 영역의 아랫부분에 '전송'버튼을 디스플레이할 수 있고, 영상으로 드래그 앤 드롭이 가능함을 나타내는 비쥬얼 큐(visual cue, MD)를 디스플레이할 수 있다.Alternatively, at the time of previewing, a 'visual' cue (MD) can be displayed, which displays a 'transfer' button at the lower part of the preview area and indicates that drag and drop is possible to an image.

한편, 영상 통화 수행 중 상대방 화면에 대하여 효과 이모티콘을 첨부하는 방법으로서, 도 21a 및 21b의 방법이 수행될 수 있다. 즉, 도시한 경우, 효과 이모티콘이 첨부되는 대상은, 영상 통화 기능 자체가 된다.21A and 21B may be performed as a method of attaching an effect emoticon to the other party's screen during the video call. That is, in the case shown, the object to which the effect emoticons are attached becomes the video call function itself.

사용자가 영상 통화 중 효과 이모티콘 첨부 메뉴를 실행하면, 도시한 바와 같이, 화면의 하단부에 첨부할 수 있는 효과 이모티콘들로 이루어진 효과 이모티콘 리스트(AL)가 디스플레이될 수 있다.When the user executes the menu for attaching the effect emoticons during the video call, an effect emoticons list AL composed of effect emoticons that can be attached to the lower end of the screen can be displayed.

이용가능한 효과 이모티콘의 개수가 디스플레이할 수 있는 개수보다 많은 경우, 좌우 방향키(KA)를 이용하여, 상기 효과 이모티콘 리스트(AL)에 디스플레이된 효과 이모티콘들을 다른 것들로 변경할 수 있다.If the number of available effect emoticons is larger than the number that can be displayed, the effect emoticons displayed in the effect emoticons list AL can be changed to other ones using the left and right direction keys KA.

상기 영상 통화 중 상기 효과 이모티콘 리스트(AL)를 디스플레이하기 위해, 예컨대, 영상 통화 수행 중 사용자는 '효과 이모티콘 첨부'를 지시하는 버튼을 누르거나, '영상 통화 수행 중 '효과 이모티콘 첨부'로 설정된 움직임 패턴을 이동 단말기에 인가할 수 있다.For example, in order to display the effect emoticons list AL during the video call, the user may press a button for instructing 'attach an effect emoticon' The pattern can be applied to the mobile terminal.

다음, 도 21a에 도시한 바와 같이, 사용자가 화면 하단의 효과 이모티콘들 중 하나를, 영상 통화의 상대방 화면 영역으로 드래그 앤 드롭하거나, 또는, 도 21b에 도시한 바와 같이, 사용자가 상기 효과 이모티콘들 중 하나를 지정하고 '전송' 버튼을 누르면, 영상 통화의 상대방 화면에 효과 이모티콘이 첨부된다. 여기서, 상기 '전송'버튼은 물리적 키일 수도 있고, 가상 버튼일 수도 있다.Next, as shown in FIG. 21A, the user drags and drops one of the effect emoticons at the bottom of the screen into the opposite screen region of the video call, or the user moves the effect emoticons And press the 'Transfer' button, the emoticon is attached to the other party's screen of the video call. Here, the 'transfer' button may be a physical key or a virtual button.

본 발명의 사상에 따른 효과 이모티콘이 다른 대상에 첨부된 상태에서 실행된다. 그러나, 다른 구현에서는, 본 발명의 사상에 따른 효과 이모티콘은 그 자체만으로 실행될 수 있다.And an effect emoticon according to an aspect of the present invention is attached to another object. However, in other implementations, the effect emoticons according to the principles of the present invention may be implemented by themselves.

상기 효과 이모티콘의 자체 실행은, 어느 한 이동 단말기에서 음성/영상통화/메신저 수행 중인 상대방 이동 단말기로, 효과 이모티콘을 전송하였을 때, 이를 전송받은 상대방 이동 단말기에서, 발생될 수 있다.The self-execution of the effect emoticons can be generated in the other mobile terminal when the effect emoticons are transmitted from the mobile terminal to the counterpart mobile terminal performing voice / video call / messenger.

예컨대, 사진 파일(아이템)과 확대(표현 방법)와 진동 패턴으로 이루어진 효 과 이모티콘 자체를 실행하면, 상기 사진 파일의 이미지가 점점 확대되면서 상기 진동 패턴을 출력할 수 있다.For example, when the effect emoticon itself consisting of a photo file (item), an enlargement (expression method) and a vibration pattern is executed, the image of the photo file is gradually enlarged and the vibration pattern can be output.

영상 통화 기능에서 본 발명의 사상에 따른 효과 이모티콘을 사용하였을 때, 도 22는 효과 이모티콘을 사용한 이동 단말기의 화면을 도시하고, 도 23은 상대방 이동 단말기의 화면을 도시한다.FIG. 22 shows the screen of the mobile terminal using the emotion emoticon, and FIG. 23 shows the screen of the counterpart mobile terminal when the emoticon according to the present invention is used in the video call function.

도 22의 첫째 화면에 도시한 바와 같이, 사용자가 영상 통화 수행 중 상대방 화면(AO)에 대하여 효과 이모티콘을 첨부하면, 이를 수행한 이동 단말기의 상대방 화면(AO)에서, 효과 이모티콘이 실행된다. 즉, 상기 첨부된 효과 이모티콘의 표현 방법에 따라 상기 아이템이 디스플레이되며, 첨부된 효과 이모티콘의 진동 패턴이 출력된다. As shown in the first screen of FIG. 22, when the user attaches an effect emoticons to the other party's screen AO during the video call, the effect emoticons are executed on the partner's screen AO of the mobile terminal. That is, the item is displayed according to the expression method of the attached effect emoticons, and the vibration pattern of the attached effect emoticons is output.

도 22에서는 표현 방법으로서 '확대'가 지정되어 있어, 도 22의 둘째/셋째 화면에서 효과 이모티콘의 아이콘이 점점 크게 디스플레이된다.In Fig. 22, "enlargement" is designated as the expression method, and the icon of the emotion icon of the effect emoticon is displayed increasingly larger on the second / third screen of Fig.

도 23은 상기 도 22의 이동 단말기와 영상 통화 중인 상대방 단말기의 화면을 도시한 것으로, 상기 상대방 단말기에서는 상대방 화면(AO2)을 크게 디스플레이하고, 자기 화면(AS)을 작게 디스플레이하고 있다. 도 22의 이동 단말기의 효과 이모티콘 첨부 동작에 따라, 상기 첨부하는 효과 이모티콘을 전송받은 도 23의 이동 단말기는, 자기 화면(AS)에 상기 효과 이모티콘을 실행시킨다.FIG. 23 shows a screen of a counterpart terminal in a video call with the mobile terminal of FIG. 22, in which the counterpart screen AO2 is displayed largely and the self-screen AS is displayed small. The mobile terminal of FIG. 23 having received the effect emoticons attached thereto according to the effect emoticon attaching operation of the mobile terminal of FIG. 22 executes the effect emoticons on the self view AS.

도 24는 다자간 영상 통화 수행중 효과 이모티콘을 사용하는 것을 도시한다.24 illustrates the use of effect emoticons during a multiparty video call.

이동 단말기의 다자간 영상 통화 수행 화면에서, 효과 이모티콘 버튼을 작동시키면, 둘째 화면에 도시한 바와 같이, 화면의 하단에 첨부가능한 효과 이모티콘들로 이루어진 효과 이모티콘 리스트(AL7)가 디스플레이된다.When the effect emoticon button is activated on the multi-screen video call execution screen of the mobile terminal, an effect emoticons list AL7 composed of effect emoticons attachable to the lower end of the screen is displayed as shown in the second screen.

셋째 화면에 도시한 바와 같이, 상기 효과 이모티콘들이 디스플레이된 화면에서, 사용자가 하나의 효과 이모티콘을 선택하여, 소정의 동작(예 : 더블 터치, 흔들기 등)을 가하면, 다자간 영상 통화를 수행하는 모든 상대방 단말기로 상기 선택된 효과 이모티콘이 전송될 수 있다.As shown in the third screen, when a user selects one effect emoticons and applies a predetermined action (e.g., double touch, shake, etc.) on the screen on which the effect emoticons are displayed, The selected effect emoticons may be transmitted to the terminal.

또는, 도 25에 도시한 바와 같이, 상기 화면에서 사용자가 하나의 효과 이모티콘을 선택하여, 어느 한 영상 통화창(AW)으로 드래그 앤 드롭하면, 상기 영상 통화창의 상대방 단말기로만 상기 선택된 효과 이모티콘이 전송될 수 있다.Alternatively, as shown in FIG. 25, when a user selects one effect emoticons and drags and drops them into a video call window AW, the selected emoticon is transmitted only to the partner terminal of the video call window .

도 26은 본 발명의 사상에 따른 효과 이모티콘을 전송받은 이동 단말기에서, 전송받은 효과 이모티콘에 대한 처리 방법을 도시한다.FIG. 26 shows a processing method for the effect emoticons transmitted in the mobile terminal having received the emoticons according to an embodiment of the present invention.

도시한 바와 같이, 효과 이모티콘을 전송받은(S1010) 이동 단말기는, 현재 이동 단말기가 사용자 설정에 의해 전송받은 효과 이모티콘의 실행이 차단되어 있는가를 검사하고(S1020), 차단된 경우 전송받은 효과 이모티콘을 무시하고(S1030), 차단되지 않은 경우 메인 화면에 대하여 전송받은 효과 이모티콘을 실행한다(S1040).As shown in the figure, the mobile terminal having received the emoticon (S1010) checks whether the execution of the emoticon transmitted by the user is currently blocked (S1020). If the emoticon is blocked, the mobile terminal ignores the transmitted emoticon (S1030). If not blocked, the emoticon transmitted to the main screen is executed (S1040).

도 27은 효과 이모티콘의 실행 중 사용자가 소정의 움짐임 패턴을 인가하여, 효과 이모티콘의 실행을 중단하는 것을 도시한다. FIG. 27 shows that, during the execution of the effect emoticons, the user applies a predetermined motive pattern to stop execution of the effect emoticons.

즉, 도시한 이동 단말기가 영상 통화 중 상대방이 첨부한 효과 이모티콘을 수신하여 이를 실행하는 도중에, 사용자가 상기 효과 이모티콘의 실행을 종료하기 원하여, 이동 단말기를 툭툭 치면, 자이로 센서 등으로 이를 접수한 이동 단말기는 효과 이모티콘의 실행을 중단할 수 있다. 도시한 이동 단말기의 경우, 툭툭 치는 동작이 효과 이모티콘의 실행 중단에 대한 지시로 미리 설정되어 있다.That is, when the illustrated mobile terminal receives the effect emoticon attached to the other party during the video call and executes the effect emoticon, the user wants to end the execution of the effect emoticon, and when the mobile terminal taps the mobile terminal, The mobile terminal can stop execution of the effect emoticons. In the case of the illustrated mobile terminal, the tapping operation is preset in response to the interruption of execution of the effect emoticons.

도 28은 2개 이상의 효과 이모티콘을 전송받았을 때 처리 방법을 도시한 것이다. 도시한 바와 같이, 이동 단말기는 2개 이상의 효과 이모티콘을 전송받으면, 하나씩 순차적으로 실행할 것을 디폴트로 설정할 수 있다. 28 shows a processing method when two or more effect emoticons are received. As shown in the figure, when the mobile terminal receives two or more effect emoticons, the mobile terminal can set to be executed sequentially one by one as a default.

한편, 사용자의 지시에 따라 2개 이상의 효과 이모티콘의 처리 방법을 설정할 수 있다. 예컨대, 2개 이상의 효과 이모티콘의 순차 실행, 동시 실행, 임의적으로(random) 선택된 것만을 실행, 반투명으로 동시 실행 등의 실행 방법을 미리 지정할 수 있다.On the other hand, a processing method of two or more effect emoticons can be set according to an instruction of the user. For example, execution methods such as sequential execution of two or more effect emoticons, simultaneous execution, execution only of randomly selected, and simultaneous execution of semitransparent emotion can be specified in advance.

도 29는 효과 이모티콘이 설정된 대상(콘텐츠)을 실행하는 모습을 도시한 디스플레이 화면이다.29 is a display screen showing a state in which an effect emoticon executes an object (content) set therein.

도시한 사진 파일에 대한 리스트 화면에서, 효과 이모티콘이 첨부된 사진 파일은 별표가 붙은 형태로 디스플레이될 수 있다. 도면에서 첨부된 효과 이모티콘은, 아이템 이미지와, 표현 방법과, 진동 패턴으로 구성된다. On the list screen of the illustrated photo file, the photo file with the effect emoticons attached thereto can be displayed in the form of an asterisk. In the drawings, the attached effect emoticons are composed of an item image, a presentation method, and a vibration pattern.

상기 리스트 화면에서 사용자가 효과 이모티콘이 첨부된 사진 파일을 실행하면, 도시한 바와 같이, 효과 이모티콘의 아이템 이미지(IM)가, 효과 이모티콘의 표현 방법에 따라 먼저 표현된 후, 해당 사진 파일이 디스플레이될 수 있다. 상기 아이템 이미지(IM)가 디스플레이될 때, 상기 진동 패턴도 출력될 수 있다.When the user executes a picture file attached with the effect emoticons on the list screen, as shown in the figure, the item images IM of the effect emoticons are first displayed according to the expression method of the effect emoticons, and then the corresponding picture files are displayed . When the item image IM is displayed, the vibration pattern can also be output.

도 30은 효과 이모티콘이 설정된 메시지를 실행하는 모습을 도시한 디스플레이 화면이다.30 is a display screen showing a state in which a message in which the effect emoticons are set is executed.

첫째 화면에 도시한 메시지 아이템에 대한 리스트 화면에서, 효과 이모티콘이 첨부된 메시지(ME)는 별표가 붙은 형태로 디스플레이될 수 있다. 도면에서 첨부된 효과 이모티콘은, 아이템 문자("안녕 잘 지내지?")와, 표현 방법으로서 '강조'와, 진동 패턴으로 구성된다. On the list screen for the message item shown on the first screen, the message (ME) to which the effect emoticons are attached can be displayed in the form of an asterisk. In the drawing, the attached effect emoticons are composed of an item character ("How are you?"), "Expression" as an expression method, and a vibration pattern.

상기 리스트 화면에서 사용자가 효과 이모티콘이 첨부된 메시지를 실행하면, 도시한 바와 같이, 효과 이모티콘의 아이템 문자인 "안녕 잘 지내지?"가, 효과 이모티콘의 표현 방법에 따라 먼저 강조된 형태로 표현된 후, 해당 메시지의 내용("난 잘지내 언제한번 만나자. 연락해")이 디스플레이될 수 있다. 상기 아이템 문자가 디스플레이될 때, 상기 진동 패턴도 출력될 수 있다.When the user executes the message with the effect emoticons attached thereto on the list screen, as shown in the figure, the item character of the effect emoticons, "How are you doing well?" Is first expressed in a highlighted form according to the expression method of the effect emoticons, The content of the message ("I'll be fine and see you once, contact me") can be displayed. When the item character is displayed, the vibration pattern can also be output.

도 29 및 도 30에 도시한 바와 같은, 효과 이모티콘이 첨부된 콘텐츠 등 아이템을 실행할 때, 도 31에 도시한 흐름도와 같은 과정이 수행될 수 있다. 즉, 사용자의 조작에 따른 특정 콘텐츠를 실행할 것을 지시받으면(S1110), 상기 특정 콘 텐츠에 효과 이모티콘이 첨부되어 있는가를 검사하고(S1120), 먼저 효과 이모티콘을 표현한 후(S1130), 상기 특정 콘텐츠를 실행한다(S1140).When executing an item such as a content with an effect emoticon attached thereto as shown in Figs. 29 and 30, the same process as the flowchart shown in Fig. 31 can be performed. That is, when it is instructed to execute the specific contents according to the user's operation (S1110), it is checked whether or not the effect emoticons are attached to the specific contents (S1120). After expressing the effect emoticons (S1130) (S1140).

도 32는 이동 단말기의 각 메뉴에 본 발명의 사상에 따른 효과 이모티콘을 첨부하여 사용하는 과정을 도시한 디스플레이 화면이다.FIG. 32 is a display screen showing a process of using an effect emoticon according to an embodiment of the present invention attached to each menu of the mobile terminal.

이동 단말기의 각종 메뉴들을 디스플레이하는 화면에서, 효과 이모티콘 버튼을 누르면, 도 32에 도시한 바와 같이, 화면의 하단에 첨부가능한 효과 이모티콘들이 디스플레이된다.In the screen displaying various menus of the mobile terminal, when the effect emoticon button is pressed, the effect emoticons that can be attached to the bottom of the screen are displayed as shown in Fig.

이후, 상기 화면에서 사용자가 하나의 효과 이모티콘을 선택하여, 특정 메뉴(DM)의 영역으로 드래그 앤 드롭하면, 상기 특정 메뉴(DM)에 상기 선택된 효과 이모티콘이 첨부된다. Thereafter, when the user selects one effect emoticons and drags and drops them to the area of the specific menu DM, the selected emoticons are attached to the specific menu DM.

이후, 사용자가 효과 이모티콘이 첨부된 메뉴를 실행시키면, 효과 이모티콘이 먼저 실행되고 나서 해당 메뉴에 지정된 작업이 수행될 수 있다.Thereafter, when the user executes the menu with the effect emoticons attached thereto, the task designated in the menu may be performed after the effect emoticons are executed first.

예컨대, 이동 단말기의 전자 사전 메뉴(DM)에, 효과 이모티콘이 첨부된 경우, 도 33에 도시한 바와 같이, 전자 사전 메뉴를 실행시키면, 디스플레이 화면에 효과 이모티콘의 아이템(IP)이 표현 방법에 따라 디스플레이된 후, 전자 사전 프로그램이 실행될 수 있다. For example, when an effect emoticon is attached to the electronic dictionary menu DM of the mobile terminal, if the electronic dictionary menu is executed as shown in Fig. 33, the item (IP) of the emotion emoticon is displayed on the display screen After being displayed, the electronic dictionary program can be executed.

여기서, 효과 이모티콘은, 아이콘 아이템과, 무작위 이동의 표현 방법과, 소정의 진동 패턴으로 구성된다. 이에 따라, 전자 사전 메뉴의 실행시(첫째 화면), 해당 아이콘이 소정 시간(전자 사전 프로그램에 대한 로딩시간인 것이 바람직하다) 동안 무작위 이동한 후(둘째 화면), 전자 사전 프로그램이 실행될 수 있다(셋째 화면).Here, the effect emoticons are composed of an icon item, a random motion presentation method, and a predetermined vibration pattern. Accordingly, when the electronic dictionary menu is executed (first screen), the electronic dictionary program can be executed after the icon is randomly moved for a predetermined time (preferably the loading time for the electronic dictionary program) (second screen) Third screen).

한편, 최근 이동 단말기는 사용자가 임의적으로 지정할 수 있는 메뉴로서 '바로가기 메뉴'를 지원한다. 즉, 인터넷 사이트 접속, 지하철노선도의 자주가는 역 설정, 마이메뉴 실행시, 방송시에 선호채널 등 사용자가 자주 사용하는 기능을 상기 '바로가기 메뉴' 아이템으로 지정할 수 있다.Meanwhile, recently, a mobile terminal supports a 'shortcut menu' as a menu that a user can arbitrarily designate. That is, it is possible to designate a function frequently used by the user such as access to an internet site, frequent station setting of a subway map, execution of a My Menu, and a favorite channel at the time of broadcasting as the 'shortcut menu' item.

다른 구현에서는, 상기 바로가기 메뉴를 구성하는 각 아이템에도, 도 32와 유사한 방법으로 효과 이모티콘을 첨부하고, 도 33과 유사한 방법으로 첨부된 효과 이모티콘을 표현할 수 있다.In another embodiment, an effect emoticon attached to each item constituting the shortcut menu may be attached in a manner similar to that shown in Fig. 32, and the effect emoticons attached thereto may be expressed in a manner similar to Fig.

다른 구현에서는, 이동 단말기의 사용자에게 유용한 선택적인 부가 서비스인 위젯에도 본 발명의 사상에 따른 효과 이모티콘을 첨부할 수 있다.In another implementation, an effect emoticon according to the principles of the present invention may be attached to a widget, which is an optional additional service useful for a user of the mobile terminal.

예컨대, 날씨, 주가, GPS 등의 정보를 기반으로 제공되는 위젯들을 구비한 이동 단말기에서, 본 발명의 사상에 따라 각 위젯에 효과 이모티콘을 첨부할 수 있다. 그러면, 상기 이동 단말기는 상기 각 위젯에 사용자가 설정한 이벤트가 발생하면, 효과 이모티콘을 표현한다.For example, in a mobile terminal having widgets provided based on information such as weather, stock price, GPS, etc., an effect emoticons may be attached to each widget according to the idea of the present invention. Then, the mobile terminal displays an effect emoticons when an event set by the user is generated in each of the widgets.

도 34는 이동 단말기의 인디케이터 영역의 각 아이템에 본 발명의 사상에 따른 효과 이모티콘을 첨부하여 사용하는 과정을 도시한 디스플레이 화면이다.FIG. 34 is a display screen showing a process of using an emoticon according to an embodiment of the present invention attached to each item in the indicator area of the mobile terminal.

이동 단말기의 대기 화면과 같이 인디케이터 영역이 디스플레이되는 화면에 서, 효과 이모티콘 버튼을 누르면, 도시한 바와 같이, 화면의 하단에 첨부가능한 효과 이모티콘들로 이루어진 효과 이모티콘 리스트(AL8)가 디스플레이된다.On the screen where the indicator area is displayed, such as the idle screen of the mobile terminal, when the effect emoticon button is pressed, an effect emoticons list AL8 composed of effect emoticons that can be attached to the bottom of the screen are displayed.

상기 화면에서 사용자가 하나의 효과 이모티콘을 선택하여, 인디케이터 영역상의 특정 아이템의 영역으로 드래그 앤 드롭하면, 상기 특정 아이템에 상기 선택된 효과 이모티콘이 첨부된다. 상기 인디케이터 영역의 아이템도 효과 이모티콘이 첨부된 경우, 별표 표시 등의 표식을 부가할 수 있다. 이후, 상기 효과 이모티콘이 첨부된 특정 아이템에 관련된 이벤트가 발생하면, 효과 이모티콘이 실행될 수 있다.When the user selects one effect emoticons on the screen and then drags and drops the selected emoticons to a specific item area on the indicator area, the selected effect emoticons are attached to the specific items. If an emoticon is attached to an item in the indicator area, a marker such as an asterisk may be added. Thereafter, when an event related to the specific item to which the effect emoticons are attached occurs, the effect emoticons can be executed.

상기 인디케이터 영역의 아이템들은 하드웨어와 밀접한 관련성이 있음을 감안하여, 도면에서는 하드웨어적 아이템을 구비하는 효과 이모티콘을 첨부하였다. In view of the fact that the items in the indicator area are closely related to hardware, an emoticon having hardware items is attached thereto.

예컨대, 이동 단말기의 인디케이터 영역의 배터리 아이템(IB)에, 효과 이모티콘이 첨부된 경우, 배터리 잔량 부족 등의 관련 이벤트가 발생하면, 첨부된 효과 이모티콘이 실행된다.For example, when an effect emoticon is attached to the battery item IB in the indicator area of the mobile terminal and a related event such as a battery remaining amount is generated, the attached effect emoticon is executed.

즉, 상기 배터리 아이콘(IB)에 첨부된 효과 이모티콘은, LCD 백라이트 아이템과, 3회 깜빡거림의 표현 방법과 소정의 진동 패턴으로 구성된다.That is, the effect emoticons attached to the battery icon IB are composed of an LCD backlight item, a method of expressing three blinks, and a predetermined vibration pattern.

도 35에 도시한 바와 같이, 배터리 충전량이 소정 수준 이하로 떨어지면 LCD 백라이트가 3회 깜빡이고 상기 소정의 진동 패턴을 출력한다. 이후, 셋째 화면에 도시한 바와 같이, 일반적인 배터리 잔량 부족시 이벤트 처리 절차에 따라, 배터리가 부족함을 팝업창(PW)으로 경고한다.As shown in FIG. 35, when the charged amount of the battery drops below a predetermined level, the LCD backlight flickers three times and outputs the predetermined vibration pattern. Then, as shown in the third screen, a general pop-up window (PW) is warned that the battery is insufficient in accordance with an event processing procedure when the remaining battery level is low.

다른 구현에서는, 이동 단말기의 인디케이터 영역의 안테나 아이템에, 효과 이모티콘이 첨부된 경우, 통화권 이탈 등의 안테나 관련 이벤트가 발생하면, 첨부된 효과 이모티콘이 실행될 수 있다.In another implementation, if an antenna emoticon is attached to an antenna item in an indicator region of the mobile terminal, and an antenna related event such as a communication deviation occurs, the attached effect emoticon can be executed.

이동 단말기의 메신저(예: 인스턴스 메시지) 수행 기능에서 본 발명의 사상에 따른 효과 이모티콘을 사용하였을 때, 도 36은 효과 이모티콘을 사용한 이동 단말기의 화면을 도시하고, 도 37은 상대방 이동 단말기의 화면을 도시한다.FIG. 36 shows a screen of the mobile terminal using the emotion emoticon, and FIG. 37 shows a screen of the counterpart mobile terminal when the effect emoticons according to the idea of the present invention are used in the messenger (e.g., instance message) Respectively.

도 36에서 사용자가 효과 이모티콘 리스트 상 특정 효과 이모티콘을 선택(터치)하고, 전송 버튼(B7)을 누르면, 메신저 창(WM1)에 대하여 효과 이모티콘이 첨부된다.In FIG. 36, when a user selects (touches) a specific effect emoticon on the effect emoticons list and presses the transmission button B7, an effect emoticon is attached to the messenger window WM1.

도시한 바와 같이, 이동 단말기를 이용한 메신저 수행 중 메신저 창(WM1)에 대하여 효과 이모티콘을 첨부하면, 상대방 단말기의 메신저 창(WM2) 상에 상기 첨부된 효과 이모티콘이 표현된다. As shown in the figure, when the effect emoticons are attached to the messenger window WM1 during the messenger operation using the mobile terminal, the attached effect emoticons are displayed on the messenger window WM2 of the other party's terminal.

이때, 첨부된 효과 이모티콘의 표현 방법에 따라 상기 아이템이 디스플레이되며, 첨부된 효과 이모티콘의 진동 패턴이 출력된다.At this time, the item is displayed according to the expression method of the attached effect emoticons, and the vibration pattern of the attached effect emoticons is outputted.

상기 첨부된 효과 이모티콘은, 문자("멋진놈") 아이템과, '날라오기'의 표현 방법과 소정의 진동 패턴으로 구성된다.The attached effect emoticons are composed of a character (a "wonderful man") item, a method of expressing 'flying', and a predetermined vibration pattern.

이에 따라, 첨부된 효과 이모티콘의 아이템인 문자 "멋진놈"이, 메신저상 상대방 단말기의 메신저 창(WM2) 상에서 별도의 팝업창(PP)으로 표현되는데, 맨 좌측 글자부터 한자씩 우측으로 확장되면서 표현된다. 이는 효과 이모티콘을 구성하는 표현 방법인 '날라오기'에 따른 것이다.Accordingly, the character "wonderful man" as an item of the attached effect emoticon is represented by a separate pop-up window (PP) on the messenger window WM2 of the other party's terminal on the messenger, . This is due to the way of expressing the emoticon.

메신저 수행 중 상대방 화면에 대하여 효과 이모티콘을 첨부하는 다른 방법은 상기 영상 통화의 경우와 유사하므로 상세 설명을 생략하겠다.Another method of attaching an effect emoticon to the other party's screen during messenger execution is similar to the case of the video call described above, so a detailed description will be omitted.

문자 메시지 전송 기능에서 본 발명의 사상에 따른 효과 이모티콘을 사용하였을 때, 도 38은 효과 이모티콘을 사용한 이동 단말기의 화면을 도시하고, 도 39는 상대방 이동 단말기의 화면을 도시한다.FIG. 38 shows a screen of a mobile terminal using the emotion emoticon, and FIG. 39 shows a screen of a counterpart mobile terminal when an effect emoticon according to an embodiment of the present invention is used in a text message transmission function.

도 38에서 사용자가 효과 이모티콘 리스트 상 특정 효과 이모티콘을 선택(터치)하고, 첨부 버튼(B8)을 누르면, 메시지 편집창(EW)에 대하여 효과 이모티콘이 첨부된다.In FIG. 38, when the user selects (touches) a specific effect emoticon on the effect emoticons list and presses the attachment button B8, the effect emoticons are attached to the message edit window EW.

도시한 바와 같이, 이동 단말기를 이용한 메시지 작성 중 메시지 편집창(EW)에 대하여 효과 이모티콘을 첨부하고, 이를 상대방 단말기로 전송하면, 상기 상대방 단말기에는 효과 이모티콘이 첨부된 형태로 메시지가 저장된다.As shown in the figure, when an effect emoticon is attached to a message editing window (EW) during message creation using the mobile terminal, and the message is transmitted to the counterpart terminal, a message is stored in the counterpart terminal with an effect emoticon attached thereto.

이후, 상기 상대방 단말기의 사용자가 상기 효과 이모티콘이 첨부된 메시지에 대하여 읽기를 지시하면, 상대방 단말기의 메시지 읽기 화면 상에 상기 첨부된 효과 이모티콘이 표현된다. 이때, 첨부된 효과 이모티콘의 표현 방법에 따라 상기 아이템이 디스플레이되며, 첨부된 효과 이모티콘의 진동 패턴이 출력된다.Thereafter, when the user of the other terminal instructs to read the message with the effect emoticons attached thereto, the attached effect emoticons are displayed on the message reading screen of the counterpart terminal. At this time, the item is displayed according to the expression method of the attached effect emoticons, and the vibration pattern of the attached effect emoticons is outputted.

상기 첨부된 효과 이모티콘은, 문자("멋진놈") 아이템과, '날라오기'의 표현 방법과 소정의 진동 패턴으로 구성된다.The attached effect emoticons are composed of a character (a "wonderful man") item, a method of expressing 'flying', and a predetermined vibration pattern.

이에 따라, 첨부된 효과 이모티콘의 아이템인 문자 "멋진놈"이, 메신저상 상대방 단말기 화면상에서 별도의 팝업창(PP)으로 표현되는데, 맨 좌측 글자부터 한 자씩 우측으로 확장되면서 표현된다. 이는 효과 이모티콘을 구성하는 표현 방법인 '날라오기'에 따른 것이다.Accordingly, the character "wonderful man" as an item of the attached effect emoticon is represented by a separate pop-up window (PP) on the messenger terminal screen. This is due to the way of expressing the emoticon.

메시지 작성 중 효과 이모티콘을 첨부하는 다른 방법은 상기 영상 통화의 경우와 유사하므로 상세 설명을 생략하겠다.Another method of attaching an effect emoticon during message creation is similar to the case of the video call described above, so a detailed description will be omitted.

도 40은 효과 이모티콘이 첨부된 MMS 메시지를 수신받은 이동 단말기의 메시지 보기 화면이다.40 is a message viewing screen of the mobile terminal receiving the MMS message with the effect emoticons attached thereto.

도시한 바와 같이, 효과 이모티콘이 첨부된 MMS 메시지에 대하여 보기를 수행하면, 우선 효과 이모티콘의 아이템이 표현된 후, MMS 메시지를 구성하는 멀티미디어 콘텐츠가 실행될 수 있다.As shown in the figure, when an example of the MMS message with the effect emoticons is displayed, the multimedia contents constituting the MMS message can be executed after the items of the effect emoticons are first displayed.

다른 구현에서는, 본 발명이 사상에 따른 효과 이모티콘을 표현하는 작업을, 이동 단말기의 모드 상태에 따라 다르게 수행할 수 있다.In another implementation, the task of presenting effect emoticons according to the present invention may be performed differently depending on the mode state of the mobile terminal.

예컨대, 일반 모드에서는 상술한 바와 같이 효과 이모티콘을 표현하지만, 절전 모드에서는 효과 이모티콘을 표현할 때 전력 소모가 많은 진동 패턴의 출력을 생략할 수 있다. 한편, 매너 모드에서 효과 이모티콘을 표현할 때는, 아이템의 표현을 생략하거나 또는 진동 패턴의 출력을 생략할 수 있다. For example, in the normal mode, the effect emoticons are expressed as described above. However, in the power saving mode, the output of the vibration patterns having high power consumption can be omitted when expressing the effect emoticons. On the other hand, when an effect emoticon is expressed in the manner mode, the expression of the item may be omitted or the output of the vibration pattern may be omitted.

상기와 같이 설명된 효과 이모티콘을 위한 이동 단말기는 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다 양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The above-described embodiments of the mobile terminal for effect emoticons are not limited to the configuration and method of the above-described embodiments, but the embodiments may be modified so that all or some of the embodiments are selectively As shown in FIG.

또한, 본 발명의 기술사상은 상기 바람직한 실시예에 따라 구체적으로 기술되었으나, 상기한 실시예는 그 설명을 위한 것이며, 그 제한을 위한 것이 아님을 주의하여야 한다. 또한, 본 발명의 기술분야의 통상의 전문가라면 본 발명의 기술사상의 범위에서 다양한 실시예가 가능함을 이해할 수 있을 것이다.In addition, although the technical idea of the present invention has been specifically described according to the above preferred embodiments, it should be noted that the above-mentioned embodiments are intended to be illustrative and not restrictive. In addition, it will be understood by those of ordinary skill in the art that various embodiments are possible within the scope of the technical idea of the present invention.

예컨대, 상기 설명에서는 본 발명의 사상에 따른 효과 이모티콘이 1회 표현되는 것으로 기술하였지만, 구현에 따라, 상기 효과 이모티콘을 표현하는 작업은, 사용자의 설정에 따라 해당 조건이 만족될때 복수회 수행되거나, 또는 주기적으로 수행될 수 있다.For example, in the above description, the effect emoticons according to the principles of the present invention are described once. However, according to the implementation, the task of expressing the effect emoticons may be performed a plurality of times, Or periodically.

예컨대, 상기 설명에서는 효과 이모티콘을 전송받는 상대방 단말기에 대하여 특별한 조건을 부가하지 않았다. 따라서, 상기 상대방 단말기는, 이동 단말기의 이동 통신망 상의 단말기일 수 있고, 이동 통신망과 연결된 유선 통신망 상의 단말기일 수 있고, 또는, 블루투스 통신(또는, zigbee 통신)을 이용한 메시지 전달 서비스나, 인체 통신을 이용한 메시지 전달 서비스 상의 상대방 단말기일 수 있다.For example, in the above description, a special condition is not added to the partner terminal to which the effect emoticons are transmitted. Accordingly, the counterpart terminal may be a terminal on a mobile communication network of the mobile terminal, a terminal on a wired communication network connected to the mobile communication network, or a message transmission service using Bluetooth communication (or zigbee communication) And may be a counterpart terminal on the used message delivery service.

도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도. 1 is a block diagram of a mobile terminal according to an embodiment of the present invention;

도 2 및 3은 본 발명과 관련된 이동 단말기의 일 작동 상태를 설명하기 위한 이동 단말기의 정면도들.2 and 3 are front views of a mobile terminal for explaining one operating state of the mobile terminal according to the present invention.

도 4는 본 발명의 일 실시예에 따른 효과 이모티콘의 데이터 구조를 도시한 표.4 is a table showing a data structure of an effect emoticons according to an embodiment of the present invention.

도 5는 본 발명의 일 실시예에 따른 효과 이모티콘의 표현 과정을 도시한 흐름도.FIG. 5 is a flowchart illustrating a process of expressing an effect emoticons according to an embodiment of the present invention. FIG.

도 6은 본 발명의 일 실시예에 따른 이동 단말기에서의 효과 이모티콘 및 효과 이모티콘이 첨부된 콘텐츠 등의 저장 구조를 도시한 메모리 블록도.FIG. 6 is a block diagram illustrating a storage structure of an effect emoticons and contents attached with effect emoticons in a mobile terminal according to an embodiment of the present invention. FIG.

도 7은 도 6의 '아이템 종류 - 표현 방법' 매칭 마스크의 일 실시예를 도시한 표.FIG. 7 is a table showing an embodiment of the 'item type-expression method' matching mask of FIG. 6;

도 8은 본 발명의 일 실시예에 따른 효과 이모티콘의 생성 방법을 도시한 흐름도. 8 is a flowchart illustrating a method of generating an effect emoticons according to an exemplary embodiment of the present invention.

도 9는 본 발명의 일 실시예에 따른 이동 단말기에서의 효과 이모티콘을 관리하는 디스플레이 화면들.9 is a display screen for managing effect emoticons in a mobile terminal according to an exemplary embodiment of the present invention.

도 10은 본 발명의 일 실시예에 따른 이동 단말기에서의 효과 이모티콘 그룹을 관리하는 디스플레이 화면들.10 is a display screen for managing effect emoticons in a mobile terminal according to an exemplary embodiment of the present invention.

도 11은 도 9의 효과 이모티콘에 대한 상세보기/편집 화면에서 아이템을 선택하는 것을 도시하는 디스플레이 화면들.FIG. 11 is a display screen showing selection of an item in a detailed view / edit screen for the emoticons of FIG. 9; FIG.

도 12는 도 9의 효과 이모티콘에 대한 상세보기/편집 화면에서 표현 방법을 선택하는 것을 도시하는 디스플레이 화면들.FIG. 12 is a display screen illustrating selecting an expression method on a detailed view / edit screen for the emotion of FIG. 9; FIG.

도 13은 효과 이모티콘에 대한 상세보기/편집 화면에서 표현 방법으로서 '임의궤적'을 선택하는 경우를 도시하는 디스플레이 화면들.13 is a display screen showing a case in which 'random trajectory' is selected as an expression method in the detailed view / edit screen for effect emoticons.

도 14은 효과 이모티콘에 대한 상세보기/편집 화면에서 진동 패턴을 선택하는 것을 도시하는 디스플레이 화면들.14 shows display screens illustrating selecting a vibration pattern on a detail view / edit screen for effect emoticons.

도 15a는 터치 스크린을 이용한 진동 패턴 편집 방법의 일례를 도시한 디스플레이 화면.15A is a display screen showing an example of a vibration pattern editing method using a touch screen.

도 15b는 사용자가 이동 단말기에 인가하는 움직임 패턴을 이용한 진동 패턴 편집 방법의 일례를 도시한 개념도.15B is a conceptual diagram showing an example of a vibration pattern editing method using a movement pattern that a user applies to a mobile terminal.

도 16은 이동 단말기의 효과 이모티콘 첨부 버튼을 눌러서, 효과 이모티콘 리스트를 디스플레이하는 것을 도시한 디스플레이 화면들.FIG. 16 is a display screen showing displaying an effect emoticons list by pressing an effect emoticon attachment button of the mobile terminal.

도 17은 통화 등 작업 수행 중 소정 조건이 부합되면, 효과 이모티콘 리스트를 디스플레이하는 것을 도시한 디스플레이 화면들.17 is a display screen showing displaying an effect emoticons list when a predetermined condition is met during a call or the like.

도 18은 지정된 움직임 패턴을 인가받으면, 효과 이모티콘 리스트를 디스플레이하는 것을 도시한 디스플레이 화면들.18 is a display screen showing displaying an effect emoticons list when the specified movement pattern is applied;

도 19a 내지 19d는 첨부가능한 효과 이모티콘들이 디스플레이된 화면에서, 원하는 효과 이모티콘을 선택하여 첨부하는 방법들을 도시한 디스플레이 화면들.Figures 19a-19d show display screens illustrating methods for selecting and attaching a desired effect emoticon on a screen in which attachable effect emoticons are displayed.

도 20은 효과 이모티콘 리스트를 디스플레이한 화면에서, 효과 이모티콘에 대한 미리보기 기능을 도시한 디스플레이 화면들.20 is a display screen showing a preview function for an effect emoticons on a screen displaying an effect emoticons list;

도 21a 및 21b는, 영상 통화 수행 중 상대방 화면에 대하여 효과 이모티콘을 첨부하는 방법들을 도시한 디스플레이 화면들.21A and 21B are display screens illustrating methods of attaching effect emoticons to a partner screen during a video call.

도 22는 영상 통화 수행 중, 본 발명의 일 실시예에 따른 효과 이모티콘을 전송하는 이동 단말기의 디스플레이 화면.22 is a display screen of a mobile terminal for transmitting an effect emoticons according to an embodiment of the present invention during a video call.

도 23은 영상 통화 수행 중, 본 발명의 일 실시예에 따른 효과 이모티콘을 전송받은 이동 단말기의 디스플레이 화면.FIG. 23 is a display screen of a mobile terminal receiving an effect emoticons according to an exemplary embodiment of the present invention during a video call; FIG.

도 24는 다자간 영상 통화 수행중 모든 상대방에게 효과 이모티콘을 전송하는 것을 도시한 디스플레이 화면들.FIG. 24 is a display screen showing that an effect emoticons are transmitted to all the parties during a multi-party video call.

도 25는 다자간 영상 통화 수행중 특정 상대방에게만 효과 이모티콘을 전송하는 것을 도시한 디스플레이 화면.25 is a display screen showing transmission of effect emoticons to only a specific party during a multi-party video call.

도 26은 본 발명의 사상에 따른 효과 이모티콘을 전송받은 이동 단말기에서, 전송받은 효과 이모티콘에 대한 처리 방법을 도시한 흐름도.FIG. 26 is a flowchart illustrating a method of processing an effect emoticons transmitted from a mobile terminal that receives an effect emoticons according to an embodiment of the present invention.

도 27은 효과 이모티콘의 실행 중 사용자가 소정의 움짐임 패턴을 인가하여, 효과 이모티콘의 실행을 중단하는 것을 도시한 디스플레이 화면들. FIG. 27 is a display screen showing that a user applies a predetermined animation pattern during execution of an effect emoticons to stop execution of the effect emoticons.

도 28은 2개 이상의 효과 이모티콘을 전송받았을 때 처리 방법을 도시한 흐름도.28 is a flowchart showing a processing method when two or more effect emoticons are received;

도 29는 효과 이모티콘이 설정된 대상(콘텐츠)을 실행하는 모습을 도시한 디스플레이 화면들.29 is a display screen showing a state in which an effect emoticon executes an object (content) set therein;

도 30은 효과 이모티콘이 설정된 메시지를 실행하는 모습을 도시한 디스플레이 화면들.30 is a display screen showing a state in which a message in which an effect emoticons are set is executed.

도 31은 효과 이모티콘이 첨부된 콘텐츠 등 아이템을 실행할 때의 과정을 도시한 흐름도.31 is a flowchart showing a process of executing an item such as a content attached with an effect emoticons.

도 32는 이동 단말기의 각 메뉴에 본 발명의 사상에 따른 효과 이모티콘을 첨부하여 사용하는 과정을 도시한 디스플레이 화면.32 is a display screen illustrating a process of using an emoticon according to an embodiment of the present invention attached to each menu of the mobile terminal.

도 33은 이동 단말기의 전자 사전 메뉴(DM)에, 효과 이모티콘이 첨부된 경우, 전자 사전 메뉴의 실행시, 효과 이모티콘이 표현된 후, 전자 사전 프로그램이 실행되는 것을 도시한 디스플레이 화면들.FIG. 33 is a display screen showing that an electronic dictionary program is executed after an effect emoticon is displayed when an electronic dictionary menu is executed when an effect emoticon is attached to the electronic dictionary menu DM of the mobile terminal.

도 34는 이동 단말기의 인디케이터 영역의 각 아이템에 본 발명의 사상에 따른 효과 이모티콘을 첨부하여 사용하는 과정을 도시한 디스플레이 화면.34 is a display screen illustrating a process of attaching an effect emoticon according to an embodiment of the present invention to each item in the indicator area of the mobile terminal.

도 35는 배터리 충전량이 소정 수준 이하로 떨어지면 LCD 백라이트 아이템을 구비하는 효과 이모티콘이 표현되는 것을 도시한 디스플레이 화면들.FIG. 35 is a display screen showing that an effect emoticons having an LCD backlight item are expressed when the charged amount of the battery drops below a predetermined level.

도 36은 메신저 기능 수행 중, 본 발명의 일 실시예에 따른 효과 이모티콘을 전송하는 이동 단말기의 디스플레이 화면.FIG. 36 is a display screen of a mobile terminal for transmitting an effect emoticons according to an embodiment of the present invention during execution of a messenger function; FIG.

도 37은 메신저 기능 수행 중, 본 발명의 일 실시예에 따른 효과 이모티콘을 전송받은 이동 단말기의 디스플레이 화면.FIG. 37 is a display screen of a mobile terminal which receives an emotion icon according to an exemplary embodiment of the present invention during execution of a messenger function; FIG.

도 38은 본 발명의 일 실시예에 따른 효과 이모티콘을 첨부하여 문자 메시지를 전송하는 이동 단말기의 디스플레이 화면.38 is a display screen of a mobile terminal for transmitting a text message by attaching an effect emoticons according to an embodiment of the present invention.

도 39는 본 발명의 일 실시예에 따른 효과 이모티콘이 첨부된 문자 메시지를 전송받은 이동 단말기의 디스플레이 화면.39 is a display screen of a mobile terminal to which a text message with an effect emoticone attached thereto is transmitted according to an embodiment of the present invention.

도 40은 효과 이모티콘이 첨부된 MMS 메시지를 수신받은 이동 단말기의 메시 지 보기에 대한 디스플레이 화면들.40 shows display screens for a message view of a mobile terminal receiving an MMS message with an effect emoticone attached thereto.

Claims (16)

아이템과, 상기 아이템의 표현 방법 또는 진동 패턴을 구비하는 효과 이모티콘을 저장하는 저장부; A storage unit for storing an emoticon having an item, a method of expressing the item, or a vibration pattern; 상기 효과 이모티콘을 생성 또는 사용하는 제어부; A control unit for generating or using the effect emoticons; 상기 효과 이모티콘을 표현하는 출력부; 및An output unit expressing the effect emoticons; And 상기 효과 이모티콘의 생성 또는 사용에 대한 사용자 지시를 접수받는 사용자 입력부를 포함하고,And a user input unit for receiving a user instruction for creating or using the effect emoticons, 상기 아이템은,The item may include: 이동 단말기에서 실행되는 기능과 관련하여 사용자에 의하여 조작되도록 제공되는 객체이고,An object provided to be manipulated by a user in relation to a function executed in the mobile terminal, 상기 효과 이모티콘은,The effect emoticons include: 상기 제어부의 제어에 따라 상기 이동 단말기에서 실행되는 기능에 첨부되어, 상기 기능의 실행시, 상기 표현 방법 또는 진동 패턴에 따라 표현되고,Wherein the control unit is attached to a function executed in the mobile terminal and is expressed according to the expression method or the vibration pattern upon execution of the function, 상기 아이템, 상기 표현 방법 및 상기 진동 패턴은,Wherein the item, the expression method, 상기 효과 이모티콘의 생성에 대한 사용자 지시에 따라 개별적으로 설정되어 상기 저장부에 저장되는 이동 단말기.Wherein the emoticons are separately set according to a user's instruction for generation of the emoticon and stored in the storage unit. 제 1 항에 있어서,The method according to claim 1, 상기 제어부는,Wherein, 상기 저장부에 저장된 효과 이모티콘을 이용하여, 상기 이동 단말기에서 실행되는 기능 또는 콘텐츠에, 부가 효과를 부여하는 이동 단말기.And adds an additional effect to a function or content executed in the mobile terminal by using the effect emoticons stored in the storage unit. 삭제delete 삭제delete 제 1 항에 있어서,The method according to claim 1, 상기 제어부는, Wherein, 상기 효과 이모티콘이 첨부된 기능에 대한 실행 지시를 접수하면, 상기 첨부된 효과 이모티콘을 표현한 후, 상기 효과 이모티콘이 첨부된 기능을 실행하는 이동 단말기. And when the execution instruction for the function having the effect emoticons is received, the effect emoticons are attached to the effect emoticons after expressing the attached effect emoticons. 제 1 항에 있어서,The method according to claim 1, 상기 제어부는,Wherein, 인디케이터 영역의 각 아이템에, 상기 효과 이모티콘을 첨부하고,Attaching the effect emoticons to each item of the indicator area, 상기 효과 이모티콘이 첨부된 아이템에 관련된 이벤트가 발생하면, 상기 효과 이모티콘을 표현하는 이동 단말기.And displaying the emoticon when the event related to the item to which the effect emoticons are attached occurs. 제 1 항에 있어서,The method according to claim 1, 상기 효과 이모티콘을 구성하는 진동 패턴에 따라 상기 이동 단말기를 진동시키기 위한 진동 발생부A vibration generator for vibrating the mobile terminal according to a vibration pattern constituting the effect emoticons, 를 더 포함하는 이동 단말기.Further comprising: 제 1 항에 있어서,The method according to claim 1, 상기 효과 이모티콘을 구성하는 상기 아이템의 표현 방법에 따라 디스플레이하는 디스플레이부A display unit for displaying the item according to a method of expressing the item constituting the effect emoticons, 를 더 포함하는 이동 단말기.Further comprising: 제 1 항에 있어서,The method according to claim 1, 상기 제어부는,Wherein, 상기 사용자의 지시에 따라, 선택된 아이템에, 선택된 표현 방법 또는 선택된 진동 패턴을 첨부하여 상기 효과 이모티콘을 생성하고,Generating the emotion emoticon by attaching a selected expression method or a selected vibration pattern to the selected item according to an instruction of the user, 상기 저장부는,Wherein, 각 효과 이모티콘을 생성하는데 선택 가능한 표현 방법들 또는 선택가능한 진동 패턴들을 저장하는 To store selectable presentation methods or selectable vibration patterns to create each effect emoticon 것을 특징으로 하는 이동 단말기.Wherein the mobile terminal is a mobile terminal. 제 1 항에 있어서,The method according to claim 1, 데이터 통신 채널을 형성하는 무선 통신부를 더 포함하며, Further comprising a wireless communication unit forming a data communication channel, 상기 제어부는,Wherein, 상기 데이터 통신 채널을 통해 효과 이모티콘을 전송받으면, 사용자의 설정에 따라 상기 효과 이모티콘의 표현 여부를 결정하는 Upon receipt of the effect emoticons through the data communication channel, it is determined whether or not the effect emoticons are represented according to the setting of the user 것을 특징으로 하는 이동 단말기. Wherein the mobile terminal is a mobile terminal. 아이템을 선택하는 단계;Selecting an item; 상기 아이템에 대한 표현 방법 및 상기 아이템이 표현될 때 출력되는 진동 패턴을 선택하는 단계; 및Selecting a vibration pattern to be output when the item is expressed; And 상기 아이템과, 상기 표현 방법 또는 상기 진동 패턴을 저장하여 효과 이모티콘을 생성하는 단계를 포함하고,Storing the item, the expression method or the vibration pattern to generate an effect emoticons, 상기 아이템은,The item may include: 이동 단말기에서 실행되는 기능과 관련하여 사용자에 의하여 조작되도록 제공되는 객체이고,An object provided to be manipulated by a user in relation to a function executed in the mobile terminal, 상기 효과 이모티콘은,The effect emoticons include: 상기 이동 단말기에서 실행되는 기능에 첨부되어, 상기 기능의 실행시, 상기 표현 방법 또는 진동 패턴에 따라 표현되고,And a control unit, attached to a function executed in the mobile terminal, 상기 아이템, 상기 표현 방법 및 상기 진동 패턴은,Wherein the item, the expression method, 상기 효과 이모티콘의 생성에 대한 사용자 지시에 따라 개별적으로 선택되어 저장되는 이동 단말기에서의 효과 이모티콘의 생성 방법.Wherein the emoticon is selected and stored separately according to a user's instruction to generate the effect emoticons. 제 11 항에 있어서,12. The method of claim 11, 상기 표현 방법 또는 진동 패턴을 선택하는 단계는,Wherein the selecting method or vibration pattern comprises: 상기 아이템이 디스플레이되는 표현 방법을 선택하는 단계; 및Selecting a presentation method in which the item is displayed; And 상기 아이템이 상기 표현 방법에 따라 실행될 때, 이동 단말기에서 생성하는 진동 패턴을 선택하는 단계When the item is executed according to the expression method, selecting a vibration pattern to be generated in the mobile terminal 를 포함하는 효과 이모티콘의 생성 방법./ RTI > 제 12 항에 있어서,13. The method of claim 12, 상기 선택된 아이템의 종류에 따라 부여될 수 있는 표현 방법들을 판단하는 단계Judging expression methods that can be given according to the kind of the selected item 를 더 포함하는 효과 이모티콘의 생성 방법.And generating the emoticon of the effect emoticon. 효과 이모티콘이 첨부된 이동 단말기의 기능의 수행 지시 또는 효과 이모티콘이 첨부된 콘텐츠의 재생 지시를 접수하는 단계; Receiving an instruction to perform a function of a mobile terminal to which an effect emoticon is attached or a reproduction instruction of a content to which an effect emoticon is attached; 상기 수행 지시 또는 재생 지시의 대상에 첨부된 효과 이모티콘을 표현하는 단계; 및Expressing an effect emoticon attached to an object of the performance instruction or reproduction instruction; And 상기 효과 이모티콘이 표현된 후, 상기 수행 지시에 따른 기능을 수행하거나, 재생 지시에 따라 상기 콘텐츠를 재생하는 단계를 포함하고,Performing the function according to the performance instruction after the emoticon of the effect is expressed or reproducing the content according to a reproduction instruction, 상기 효과 이모티콘은,The effect emoticons include: 아이템과 상기 아이템의 표현 방법 또는 진동 패턴을 구비하고,An item, a method of expressing the item, or a vibration pattern, 상기 아이템은,The item may include: 상기 이동 단말기에서 수행되는 기능 또는 상기 콘텐츠와 관련하여 사용자에 의하여 조작되도록 제공되는 객체이고,An object provided to be operated by a user in relation to a function performed in the mobile terminal or the content, 상기 효과 이모티콘은,The effect emoticons include: 상기 이동 단말기에서 수행되는 기능 또는 상기 콘텐츠에 첨부되어, 상기 기능의 수행 또는 상기 콘텐츠의 재생시, 상기 표현 방법 또는 진동 패턴에 따라 표현되고,A function performed on the mobile terminal or attached to the content, wherein, when performing the function or reproducing the content, 상기 아이템, 상기 표현 방법 및 상기 진동 패턴은,Wherein the item, the expression method, 상기 효과 이모티콘의 생성에 대한 사용자 지시에 따라 개별적으로 설정되는 이동 단말기에서의 효과 이모티콘의 사용 방법.Wherein the effect emoticons are individually set according to a user instruction for creation of the effect emoticons. 제 14항에 있어서, 15. The method of claim 14, 상기 효과 이모티콘을 표현하는 단계는,Wherein the step of expressing the effect emoticons comprises: 상기 효과 이모티콘을 구성하는 아이템을, 상기 효과 이모티콘을 구성하는 표현 방법에 따라 디스플레이하는 효과 이모티콘의 사용 방법.And displaying an item constituting the effect emoticons according to a presentation method constituting the effect emoticons. 제 14항에 있어서, 15. The method of claim 14, 상기 효과 이모티콘을 표현하는 단계는,Wherein the step of expressing the effect emoticons comprises: 상기 효과 이모티콘을 구성하는 아이템을 디스플레이하면서, 상기 효과 이모티콘을 구성하는 진동 패턴에 따라 상기 이동 단말기를 진동시키는 효과 이모티콘의 사용 방법.And vibrate the mobile terminal according to a vibration pattern constituting the effect emoticons while displaying the items constituting the effect emoticons.
KR1020090012827A 2009-02-17 2009-02-17 Portable terminal and using method of effect emoticon in it KR101544213B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090012827A KR101544213B1 (en) 2009-02-17 2009-02-17 Portable terminal and using method of effect emoticon in it

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090012827A KR101544213B1 (en) 2009-02-17 2009-02-17 Portable terminal and using method of effect emoticon in it

Publications (2)

Publication Number Publication Date
KR20100093750A KR20100093750A (en) 2010-08-26
KR101544213B1 true KR101544213B1 (en) 2015-08-13

Family

ID=42758015

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090012827A KR101544213B1 (en) 2009-02-17 2009-02-17 Portable terminal and using method of effect emoticon in it

Country Status (1)

Country Link
KR (1) KR101544213B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101971445B1 (en) 2017-11-06 2019-04-23 주식회사 원더풀플랫폼 State-expression-information transmitting system using chatbot

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101496515B1 (en) * 2012-07-03 2015-02-26 김인수 Emotional message service editor method
KR101637208B1 (en) * 2014-05-20 2016-07-11 (주)오픈벡스 System and method for providing motion emoticon, computer program recorded therefor
KR101644405B1 (en) * 2014-11-21 2016-08-10 택추얼센스 주식회사 Method and system for serving emoticons having haptic effects in mobile messenger service based on SNS APPs via on-line network
CN105049318B (en) * 2015-05-22 2019-01-08 腾讯科技(深圳)有限公司 Message method and device, message treatment method and device
KR102238315B1 (en) * 2015-11-30 2021-04-09 주식회사 엘지유플러스 Communication apparatus for transceiving, control method thereof, and recording medium for recording program for executing the control method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101971445B1 (en) 2017-11-06 2019-04-23 주식회사 원더풀플랫폼 State-expression-information transmitting system using chatbot
US11012382B2 (en) 2017-11-06 2021-05-18 1Thefull Platform Limited State display information transmission system using chatbot

Also Published As

Publication number Publication date
KR20100093750A (en) 2010-08-26

Similar Documents

Publication Publication Date Title
KR101451667B1 (en) Terminal and method for controlling the same
KR101911251B1 (en) Terminal and method for controlling the same
KR101588733B1 (en) Mobile terminal
KR101498622B1 (en) Mobile terminal for providing haptic effect and control method thereof
KR101592296B1 (en) Mobile terminal and method for selection and activation object thereof
KR101594361B1 (en) a mobile telecommunication device and a method of schedule management using the same
KR101863926B1 (en) Mobile terminal and method for controlling thereof
KR101674205B1 (en) Method for controlling icon display in mobile terminal and mobile terminal thereof
KR101919796B1 (en) Mobile terminal and method for controlling the same
KR20110125900A (en) Mobile terminal and operating method thereof
KR101554185B1 (en) Mobile terminal and method for handwriting memo thereof
KR20100003588A (en) Mobile terminal and control method thereof
KR20120079271A (en) Mobile terminal and method for controlling thereof
KR20100030968A (en) Terminal and method for displaying menu thereof
KR20120083793A (en) Method for providing user interface using drawn patten and mobile terminal thereof
KR20110093097A (en) Apparatus and method for editing of list in portable terminal
KR20100003589A (en) Mobile terminal and control method thereof
KR101899810B1 (en) Mobile terminal and method for controlling thereof
KR101544213B1 (en) Portable terminal and using method of effect emoticon in it
US11941319B2 (en) Systems, methods, and graphical user interfaces for selecting audio output modes of wearable audio output devices
KR101559772B1 (en) Mobile terminal and Method for controlling in thereof
KR101818114B1 (en) Mobile terminal and method for providing user interface thereof
KR101564267B1 (en) Terminal and method for controlling the same
US11375314B2 (en) Systems, methods, and graphical user interfaces for selecting audio output modes of wearable audio output devices
KR101700759B1 (en) Method for operating 3d characters on mobile terminal

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180724

Year of fee payment: 4