KR20120036211A - Data processing apparatus and method thereof - Google Patents

Data processing apparatus and method thereof Download PDF

Info

Publication number
KR20120036211A
KR20120036211A KR1020100097958A KR20100097958A KR20120036211A KR 20120036211 A KR20120036211 A KR 20120036211A KR 1020100097958 A KR1020100097958 A KR 1020100097958A KR 20100097958 A KR20100097958 A KR 20100097958A KR 20120036211 A KR20120036211 A KR 20120036211A
Authority
KR
South Korea
Prior art keywords
face
images
contact information
image
preset
Prior art date
Application number
KR1020100097958A
Other languages
Korean (ko)
Inventor
이현종
유정학
전기소
오상혁
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020100097958A priority Critical patent/KR20120036211A/en
Publication of KR20120036211A publication Critical patent/KR20120036211A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72484User interfaces specially adapted for cordless or mobile telephones wherein functions are triggered by incoming communication events
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/64Details of telephonic subscriber devices file transfer between terminals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/66Details of telephonic subscriber devices user interface aspects for indicating selection options for a communication line

Abstract

PURPOSE: A data processing device and a method thereof are provided to recognize a face of a photographed image and transmit the photographed image based on contact information corresponding to a preset face. CONSTITUTION: A camera(405) photographs an image. When an event for recognizing a face is generated, a control unit(401) recognizes a face of the photographed image. When the recognized face is matched with a preset face of a contact point direction, the control unit selects contact information corresponding to the preset face. A communication unit(402) transmits the photographed image through a communication network based on the selected contact information.

Description

데이터 처리 장치 및 그 방법{DATA PROCESSING APPARATUS AND METHOD THEREOF}DATA PROCESSING APPARATUS AND METHOD THEREOF

본 명세서는 데이터 처리 장치 및 그 방법에 관한 것이다. The present specification relates to a data processing apparatus and a method thereof.

일반적으로, 종래 기술에 따른 데이터 처리 장치는 사용자가 직접 데이터를 선택하고, 그 선택된 데이터를 사용자에 의해 선택된 연락처 정보를 근거로 전송하였다.In general, a data processing apparatus according to the prior art directly selects data and transmits the selected data based on contact information selected by the user.

본 명세서의 목적은, 영상을 용이하고 편리하게 분류 및 전송할 수 있는 데이터 처리 장치 및 그 방법을 제공하는 데 있다.It is an object of the present specification to provide a data processing apparatus and method for classifying and transmitting an image easily and conveniently.

본 발명의 실시예들에 따른 데이터 처리 장치는, 영상을 촬영하는 카메라와; 얼굴 인식을 위한 이벤트가 발생했을 때 상기 촬영된 영상에 포함된 얼굴을 인식하고, 상기 인식된 얼굴이 연락처 디렉터리에 미리설정된 얼굴과 매칭될 때 상기 미리설정된 얼굴에 대응하는 연락처 정보를 선택하는 제어부와; 상기 선택된 연락처 정보를 근거로 상기 촬영된 영상을 통신망을 통해 전송하는 통신부를 포함할 수 있다.A data processing apparatus according to embodiments of the present invention includes a camera for photographing an image; A controller for recognizing a face included in the captured image when an event for face recognition occurs and selecting contact information corresponding to the preset face when the recognized face matches a face preset in the contact directory; ; The apparatus may include a communication unit configured to transmit the captured image through a communication network based on the selected contact information.

본 발명과 관련된 일 예로서, 상기 제어부는 상기 얼굴 인식을 위한 아이콘 또는 항목이 선택될 때 상기 촬영된 영상에 포함된 얼굴을 인식할 수 있다.As an example related to the present disclosure, the controller may recognize a face included in the captured image when an icon or an item for face recognition is selected.

본 발명과 관련된 일 예로서, 상기 제어부는 상기 얼굴 인식을 위해 미리설정된 사용자 음성이 수신될 때 상기 촬영된 영상에 포함된 얼굴을 인식할 수 있다.As an example related to the present disclosure, the controller may recognize a face included in the captured image when a preset user voice is received for face recognition.

본 발명과 관련된 일 예로서, 상기 연락처 정보는 전화 번호, 이메일 주소, 서버 주소 중에서 어느 하나 이상일 수 있다.As an example related to the present invention, the contact information may be one or more of a telephone number, an email address, and a server address.

본 발명과 관련된 일 예로서, 상기 제어부는 상기 영상을 전송할 때 상기 영상을 이메일, SMS(Short Message Service) 메시지, 개인 서버 중에서 어느 하나 이상으로 전송할 것인지를 문의하는 팝업창을 발생하고, 상기 발생한 팝업창을 표시부에 표시할 수 있다.As an example related to the present invention, the control unit generates a pop-up window for inquiring whether to transmit the video to one or more of an email, a Short Message Service (SMS) message, and a personal server when the image is transmitted, and generates the pop-up window. It can be displayed on the display unit.

본 발명과 관련된 일 예로서, 상기 팝업창은 상기 영상을 상기 연락처 정보에 포함된 이메일로 전송할 것인지를 문의하는 항목과, 상기 영상을 상기 연락처 정보에 포함된 SMS 메시지로 전송할 것인지를 문의하는 항목과, 상기 영상을 상기 연락처 정보에 포함된 개인 서버로 전송할 것인지를 문의하는 항목과, 상기 영상을 전송할지 말지를 문의하는 항목을 포함할 수 있다.As an example related to the present invention, the pop-up window includes an item for inquiring whether to transmit the image to an email included in the contact information, an item for inquiring whether to transmit the image to an SMS message included in the contact information; It may include an item for inquiring whether to transmit the image to a personal server included in the contact information, and an item for inquiring whether to transmit the image.

본 발명의 실시예들에 따른 데이터 처리 장치는, 영상들을 저장하는 저장부와; 얼굴 인식을 위한 이벤트가 발생했을 때 상기 저장된 영상들에 포함된 얼굴을 인식하고, 상기 인식된 얼굴이 연락처 디렉터리에 미리설정된 얼굴과 매칭될 때 상기 미리설정된 얼굴에 따라 상기 영상들을 분류하는 제어부와; 상기 분류된 영상들을 표시하는 표시부를 포함할 수 있다.Data processing apparatus according to embodiments of the present invention, the storage unit for storing the image; A controller configured to recognize a face included in the stored images when an event for face recognition occurs, and classify the images according to the preset face when the recognized face matches a preset face in a contact directory; It may include a display unit for displaying the classified images.

본 발명과 관련된 일 예로서, 상기 제어부는 상기 연락처 디렉터리로부터 상기 미리설정된 얼굴에 대응하는 연락처 정보를 선택하고, 상기 선택된 연락처 정보를 근거로 상기 분류된 영상들을 통신망을 통해 전송할 수 있다.As an example related to the present disclosure, the controller may select contact information corresponding to the preset face from the contact directory, and transmit the classified images through the communication network based on the selected contact information.

본 발명과 관련된 일 예로서, 상기 제어부는 상기 영상들이 저장된 폴더가 선택되었을 때 상기 폴더에 포함된 영상들과 함께 상기 얼굴 인식을 위한 아이콘 또는 버튼을 상기 표시부에 표시할 수 있다.As an example related to the present disclosure, when the folder in which the images are stored is selected, the controller may display an icon or a button for face recognition together with the images included in the folder on the display unit.

본 발명과 관련된 일 예로서, 상기 제어부는 상기 미리설정된 얼굴과 매칭되는 얼굴을 포함하는 영상들을 상기 미리설정된 얼굴에 대응하는 개인 정보와 함께 상기 표시부에 표시할 수 있다.As an example related to the present invention, the controller may display images including a face matching the preset face together with the personal information corresponding to the preset face on the display unit.

본 발명과 관련된 일 예로서, 상기 제어부는 상기 분류된 영상들을 압축하고, 상기 미리설정된 얼굴에 대응하는 연락처 정보를 근거로 상기 압축된 영상을 통신망을 통해 전송할 수 있다.As an example related to the present invention, the controller may compress the classified images and transmit the compressed image through a communication network based on contact information corresponding to the preset face.

본 발명의 실시예들에 따른 데이터 처리 방법은, 카메라를 통해 영상을 촬영하는 단계와; 얼굴 인식을 위한 이벤트가 발생했을 때 상기 촬영된 영상에 포함된 얼굴을 인식하는 단계와; 상기 인식된 얼굴이 연락처 디렉터리에 미리설정된 얼굴과 매칭될 때 상기 미리설정된 얼굴에 대응하는 연락처 정보를 선택하는 단계와; 상기 선택된 연락처 정보를 근거로 상기 촬영된 영상을 통신망을 통해 전송하는 단계를 포함할 수 있다.In accordance with another aspect of the present invention, a data processing method includes: photographing an image through a camera; Recognizing a face included in the captured image when an event for face recognition occurs; Selecting contact information corresponding to the preset face when the recognized face matches the preset face in the contact directory; The method may include transmitting the captured image through a communication network based on the selected contact information.

본 발명의 실시예들에 따른 데이터 처리 방법은, 영상들을 저장부에 저장하는 단계와; 얼굴 인식을 위한 이벤트가 발생했을 때 상기 저장된 영상들에 포함된 얼굴을 인식하는 단계와; 상기 인식된 얼굴이 연락처 디렉터리에 미리설정된 얼굴과 매칭될 때 상기 미리설정된 얼굴에 따라 상기 영상들을 분류하는 단계와; 상기 분류된 영상들을 표시부에 표시하는 단계를 포함할 수 있다.A data processing method according to embodiments of the present invention includes: storing images in a storage unit; Recognizing a face included in the stored images when an event for face recognition occurs; Classifying the images according to the preset face when the recognized face matches the preset face in the contact directory; And displaying the classified images on a display unit.

본 발명의 실시예들에 따른 단말기의 데이터 처리 장치 및 그 방법은, 촬영된 영상에 포함된 얼굴을 인식하고, 그 인식한 얼굴과 매칭되는 미리설정된 얼굴에 대응하는 연락처 정보를 근거로 상기 촬영된 영상을 전송함으로써 사용자가 용이하고 편리하게 촬영된 영상을 전송할 수 있는 효과가 있다. A data processing apparatus and a method of a terminal according to embodiments of the present disclosure recognize a face included in a captured image and capture the captured image based on contact information corresponding to a preset face matching the recognized face. By transmitting an image, the user can easily and conveniently transmit a captured image.

본 발명의 실시예들에 따른 단말기의 데이터 처리 장치 및 그 방법은, 저장된 영상들에 포함된 얼굴을 인식하고, 그 인식한 얼굴과 매칭되는 미리설정된 얼굴에 따라 영상들을 분류하고, 상기 미리설정된 얼굴에 대응하는 연락처 정보를 근거로 상기 분류된 영상들을 전송함으로써 사용자가 용이하고 편리하게 영상들을 분류할 수 있고, 그 분류된 영상들을 전송할 수 있는 효과도 있다. A data processing apparatus and a method of a terminal according to embodiments of the present invention recognize a face included in stored images, classify the images according to a preset face matching the recognized face, and set the preset face. By transmitting the classified images based on contact information corresponding to, the user can easily and conveniently classify the images, and the classified images can be transmitted.

본 발명의 실시예들에 따른 단말기의 데이터 처리 장치 및 그 방법은, 저장된 영상들에 포함된 얼굴을 인식하고, 그 인식한 얼굴과 매칭되는 미리설정된 얼굴에 따라 영상들을 분류 및 압축하고, 상기 미리설정된 얼굴에 대응하는 연락처 정보를 근거로 상기 압축 영상을 전송함으로써 사용자가 용이하고 편리하게 영상들을 분류할 수 있고, 그 분류된 영상들을 전송할 수 있을 뿐만 아니라 전송 데이터의 양도 감소시킬 수 있는 효과도 있다.A data processing apparatus and method of a terminal according to embodiments of the present invention recognize a face included in stored images, classify and compress images according to a preset face matching the recognized face, and By transmitting the compressed image based on the contact information corresponding to the set face, the user can easily and conveniently classify the images, transmit the classified images, and reduce the amount of transmission data. .

도1은 본 발명의 실시예들에 따른 데이터 처리 장치가 적용된 이동 통신 단말기의 구성을 나타낸 구성도이다.
도2는 본 발명의 실시예들에 따른 데이터 처리 장치가 적용된 텔레매틱스 단말기의 구성을 나타낸 구성도이다.
도3은 본 발명의 제1 실시예에 따른 단말기의 데이터 처리 장치를 나타낸 구성도이다.
도 4는 본 발명의 제1 실시예에 따른 단말기의 데이터 처리 방법을 나타낸 흐름도 이다.
도5는 본 발명의 제1 실시예에 따라 촬영된 영상에 포함된 얼굴을 인식하는 방법을 나타낸 예시도 이다.
도6은 본 발명의 제1 실시예에 따른 연락처 디렉터리를 나타낸 예시도 이다.
도7은 본 발명의 제1 실시예에 따른 영상을 전송하는 방법을 나타낸 예시도 이다.
도 8은 본 발명의 제2 실시예에 따른 단말기의 데이터 처리 방법을 나타낸 흐름도 이다.
도9는 본 발명의 제2 실시예에 따라 영상들에 포함된 얼굴을 인식하는 방법을 나타낸 예시도 이다.
도10은 본 발명의 제2 실시예에 따라 분류된 영상들 및 개인 정보를 나타낸 예시도 이다.
도 11은 본 발명의 제3 실시예에 따른 단말기의 데이터 처리 방법을 나타낸 흐름도 이다.
1 is a block diagram showing a configuration of a mobile communication terminal to which a data processing device according to embodiments of the present invention is applied.
2 is a block diagram illustrating a configuration of a telematics terminal to which a data processing apparatus according to embodiments of the present invention is applied.
3 is a block diagram showing a data processing apparatus of a terminal according to the first embodiment of the present invention.
4 is a flowchart illustrating a data processing method of a terminal according to the first embodiment of the present invention.
5 is an exemplary view illustrating a method of recognizing a face included in an image captured according to the first embodiment of the present invention.
6 is an exemplary view showing a contact directory according to the first embodiment of the present invention.
7 is an exemplary view showing a method of transmitting an image according to the first embodiment of the present invention.
8 is a flowchart illustrating a data processing method of a terminal according to a second embodiment of the present invention.
9 is an exemplary view illustrating a method of recognizing a face included in images according to a second embodiment of the present invention.
FIG. 10 is an exemplary diagram illustrating images and personal information classified according to the second embodiment of the present invention. FIG.
11 is a flowchart illustrating a data processing method of a terminal according to a third embodiment of the present invention.

이하에서는, 영상을 용이하고 편리하게 분류 및 전송할 수 있는 데이터 처리 장치 및 그 방법을 도1 내지 도11을 참조하여 설명한다. Hereinafter, a data processing apparatus and a method for easily and conveniently classifying and transmitting an image will be described with reference to FIGS. 1 to 11.

도1은 본 발명의 실시예들에 따른 데이터 처리 장치가 적용된 이동 통신 단말기(100)의 구성을 나타낸 구성도이다. 이동 통신 단말기(이동 전화기)(100)는 다양한 형태로 구현될 수 있다. 예를 들면, 이동 통신 단말기(100)는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 등이 있다. 1 is a block diagram illustrating a configuration of a mobile communication terminal 100 to which a data processing apparatus according to embodiments of the present invention is applied. The mobile communication terminal (mobile phone) 100 may be implemented in various forms. For example, the mobile communication terminal 100 includes a mobile phone, a smart phone, a notebook computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), and the like.

도1에 도시한 바와 같이, 이동 통신 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도1에 도시된 이동 통신 단말기(100)의 구성요소 모두가 필수 구성요소인 것은 아니며, 도1에 도시된 구성요소보다 많은 구성요소에 의해 이동 통신 단말기(100)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 이동 통신 단말기(100)가 구현될 수도 있다.As shown in FIG. 1, the mobile communication terminal 100 includes a wireless communication unit 110, an A / V (Audio / Video) input unit 120, a user input unit 130, a sensing unit 140, and an output unit 150. ), A memory 160, an interface unit 170, a controller 180, a power supply unit 190, and the like. Not all components of the mobile communication terminal 100 shown in FIG. 1 are essential components, and the mobile communication terminal 100 may be implemented by more components than those shown in FIG. The mobile communication terminal 100 may also be implemented by components.

상기 무선 통신부(110)는 이동 통신 단말기(100)와 무선 통신 시스템 간의 무선 통신 또는 이동 통신 단말기(100)와 그 이동 통신 단말기(100)가 위치한 네트워크간의 무선 통신을 수행하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들면, 무선 통신부(110)는 방송 수신 모듈(111), 이동 통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치 정보 모듈(115) 등을 포함할 수 있다.The wireless communication unit 110 includes one or more components for performing wireless communication between the mobile communication terminal 100 and a wireless communication system or wireless communication between the mobile communication terminal 100 and a network in which the mobile communication terminal 100 is located. It may include. For example, the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless internet module 113, a short range communication module 114, a location information module 115, and the like. .

상기 방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 미리 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 이동 통신 단말기(100)에 송신하는 서버를 의미할 수 있다. 상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.The broadcast receiving module 111 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may mean a server that generates and transmits a broadcast signal and / or broadcast related information or a server that receives a pre-generated broadcast signal and / or broadcast related information and transmits the same to the mobile communication terminal 100. . The broadcast related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal.

한편, 상기 방송 관련 정보는, 이동 통신망을 통하여도 제공될 수 있으며, 이러한 경우에는 상기 이동 통신 모듈(112)에 의해 수신될 수 있다. 상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들면, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.Meanwhile, the broadcast related information may be provided through a mobile communication network, and in this case, may be received by the mobile communication module 112. The broadcast related information may exist in various forms. For example, it may exist in the form of Electronic Program Guide (EPG) of Digital Multimedia Broadcasting (DMB) or Electronic Service Guide (ESG) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈(111)은, 각종 방송 시스템을 이용하여 방송 신호를 수신하는데, 특히, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 모든 방송 시스템에 적합하도록 구성된다. 방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.The broadcast receiving module 111 receives broadcasting signals using various broadcasting systems. In particular, the broadcasting receiving module 111 may be a Digital Multimedia Broadcasting-Terrestrial (DMB-T), a Digital Multimedia Broadcasting-Satellite (DMB-S) Only Digital Broadcast-Handheld (DVB-H), Integrated Services Digital Broadcast-Terrestrial (ISDB-T), and the like. Of course, the broadcast receiving module 111 is configured to be suitable for all broadcasting systems that provide broadcasting signals as well as the digital broadcasting system described above. The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory 160.

상기 이동 통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기서, 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 및/또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module 112 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call signal, and / or a text / multimedia message.

상기 무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 의미하는 것으로, 상기 무선 인터넷 모듈(113)은 이동 통신 단말기(100)에 내장되거나 외장될 수 있다. 여기서, 무선 인터넷 기술로는 WLAN(Wireless LAN), 와이 파이(Wi-Fi), 와이브로(Wireless Broadband : Wibro), 와이맥스(World Interoperability for Microwave Access : Wimax), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.The wireless internet module 113 refers to a module for wireless internet access, and the wireless internet module 113 may be built in or external to the mobile communication terminal 100. Here, wireless Internet technologies include wireless LAN (WLAN), Wi-Fi, WiBro, WiMAX, World Interoperability for Microwave Access (WMAX), HSDPA (High Speed Downlink Packet Access), and the like. Can be used.

상기 근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 의미한다. 근거리 통신 기술로서 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short range communication module 114 means a module for short range communication. As a short range communication technology, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like may be used.

상기 위치 정보 모듈(115)은 이동 단말기의 위치(이동 단말기가 차량에 장착되었을 때 차량의 위치 확인 가능)를 확인하거나 얻기 위한 모듈이다. 일례로 GPS(Global Position System) 모듈이 있다. GPS 모듈은 복수 개의 인공위성으로부터 위치 정보를 수신한다. 여기서, 위치 정보는 위도 및 경도로 표시되는 좌표 정보를 포함할 수 있다. 예를 들면, GPS 모듈은, 3개 이상의 위성으로부터 정확한 시간과 거리를 측정하여 3개의 각각 다른 거리를 삼각 방법에 따라서 현 위치를 정확히 계산할 수 있다. 3개의 위성으로부터 거리와 시간 정보를 얻고 1개 위성으로 오차를 수정하는 방법이 사용될 수 있다. 특히, GPS 모듈은 위성으로부터 수신한 위치 정보로부터, 위도, 경도, 고도의 위치뿐만 아니라 3차원의 속도 정보와 함께 정확한 시간까지 얻을 수 있다. 상기 위치 정보 모듈(115)로서 와이파이 위치추적 시스템(Wi-Fi Positioning System) 및/또는 하이브리드 위치추적 시스템(Hybrid Positioning System)이 적용될 수도 있다. The position information module 115 is a module for checking or obtaining the position of the mobile terminal (it is possible to check the position of the vehicle when the mobile terminal is mounted on the vehicle). One example is the Global Position System (GPS) module. The GPS module receives position information from a plurality of satellites. Here, the location information may include coordinate information represented by latitude and longitude. For example, the GPS module can measure the exact time and distance from three or more satellites and accurately calculate the current position by triangulating three different distances. A method of obtaining distance and time information from three satellites and correcting the error with one satellite may be used. In particular, the GPS module can obtain not only the location of latitude, longitude, and altitude but also accurate time together with three-dimensional speed information from the location information received from the satellite. As the location information module 115, a Wi-Fi Positioning System and / or a Hybrid Positioning System may be applied.

상기 A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호를 입력하기 위한 것으로서, 상기 A/V(Audio/Video) 입력부(120)에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 상기 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 상기 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.The A / V input unit 120 is for inputting an audio signal or a video signal, and the A / V input unit 120 includes a camera 121 and a microphone 122. May be included. The camera 121 processes an image frame such as a still image or a video obtained by an image sensor in a video call mode or a photographing mode. The processed image frame may be displayed on the display unit 151.

상기 카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 상기 카메라(121)는 이동 단말기의 구성 형태에 따라 2개 이상이 구성될 수도 있다. The image frame processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. Two or more cameras 121 may be configured according to the configuration of the mobile terminal.

상기 마이크(122)는 통화 모드 또는 녹음 모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 수신하여 전기적인 음성 데이터로 처리한다. 상기 통화 모드일 때, 상기 처리된 음성 데이터는 이동 통신 모듈(112)을 통하여 이동 통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 상기 마이크(122)는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다. The microphone 122 receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, etc., and processes the external sound signal into electrical voice data. In the call mode, the processed voice data may be converted into a form transmittable to the mobile communication base station through the mobile communication module 112 and output. The microphone 122 may implement various noise removing algorithms for removing noise generated in the process of receiving an external sound signal.

상기 사용자 입력부(130)는 사용자가 이동 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. 특히, 터치 패드가 상기 디스플레이부(151)와 상호 레이어 구조를 이룰 경우, 이를 터치 스크린이라 부를 수 있다.The user input unit 130 generates input data for the user to control the operation of the mobile terminal. The user input unit 130 may include a key pad dome switch, a touch pad (static pressure / capacitance), a jog wheel, a jog switch, and the like. In particular, when the touch pad forms a mutual layer structure with the display unit 151, this may be referred to as a touch screen.

상기 센싱부(140)는 이동 통신 단말기(100)의 개폐 상태, 이동 통신 단말기(100)의 위치, 사용자 접촉 유무, 이동 통신 단말기(100)의 방위, 이동 통신 단말기(100)의 가속/감속 등과 같이 이동 통신 단말기(100)의 현 상태를 감지하여 이동 통신 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들면, 이동 통신 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 상기 센싱부(140)는 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등과 관련된 센싱 기능을 담당한다.The sensing unit 140 may be an open / closed state of the mobile communication terminal 100, a location of the mobile communication terminal 100, a user contact presence, a bearing of the mobile communication terminal 100, an acceleration / deceleration of the mobile communication terminal 100, and the like. As described above, the current state of the mobile communication terminal 100 is sensed to generate a sensing signal for controlling the operation of the mobile communication terminal 100. For example, when the mobile communication terminal 100 is in the form of a slide phone, whether the slide phone is opened or closed may be sensed. In addition, the sensing unit 140 is responsible for sensing functions related to whether the power supply unit 190 is supplied with power, whether the interface unit 170 is coupled to an external device, and the like.

상기 인터페이스부(170)는 이동 통신 단말기(100)에 연결되는 모든 외부기기와의 인터페이스 역할을 한다. 예를 들면, 상기 인터페이스부(170)는 유/무선 헤드셋 포트(Headset port), 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등으로 구성될 수 있다. 여기서, 식별 모듈은 이동 통신 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module; 'UIM'), 가입자 인증 모듈(Subscriber Identify Module; 'SIM'), 범용 사용자 인증 모듈(Universal Subscriber Identity Module; 'USIM') 등을 포함할 수 있다. 또한, 상기 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서, 상기 식별 모듈은 포트를 통하여 이동 통신 단말기(100)와 연결될 수 있다. 이와 같은 인터페이스부(170)는 외부 기기로부터 데이터를 수신하거나 전원을 수신하여 이동 통신 단말기(100) 내부의 각 구성 요소에 전달하거나 이동 통신 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다.The interface unit 170 serves as an interface with all external devices connected to the mobile communication terminal 100. For example, the interface unit 170 may include a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device equipped with an identification module, An audio input / output (I / O) port, a video input / output (I / O) port, and an earphone port may be configured. Here, the identification module is a chip that stores a variety of information for authenticating the usage rights of the mobile communication terminal 100, and includes a user identification module (UIM) and a subscriber identify module (SIM). ), A Universal Subscriber Identity Module (“USIM”), and the like. In addition, the device equipped with the identification module (hereinafter, 'identification device') may be manufactured in the form of a smart card. Therefore, the identification module may be connected to the mobile communication terminal 100 through a port. The interface unit 170 receives data from an external device or receives power to transmit the data to each component inside the mobile communication terminal 100 or transmit data within the mobile communication terminal 100 to an external device.

상기 출력부(150)는 오디오 신호 또는 비디오 신호 또는 알람(alarm) 신호의 출력을 위한 것으로서, 상기 출력부(150)에는 디스플레이부(151)과 음향 출력 모듈(152), 알람부(153) 등이 포함될 수 있다.The output unit 150 is for outputting an audio signal, a video signal, or an alarm signal. The output unit 150 includes a display unit 151, an audio output module 152, an alarm unit 153, and the like. This may be included.

상기 디스플레이부(151)는 이동 통신 단말기(100)에서 처리되는 정보를 표시하여 출력한다. 예를 들면, 이동 통신 단말기(100)가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 그리고 이동 통신 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The display unit 151 displays and outputs information processed by the mobile communication terminal 100. For example, when the mobile communication terminal 100 is in a call mode, the mobile terminal 100 displays a user interface (UI) or a graphic user interface (GUI) related to the call. When the mobile communication terminal 100 is in a video call mode or a photographing mode, the mobile communication terminal 100 displays a photographed and / or received image, a UI, or a GUI.

상기 디스플레이부(151)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 그리고 이동 통신 단말기(100)의 구현 형태에 따라 디스플레이부(151)가 2개 이상 존재할 수도 있다. 예를 들면, 이동 통신 단말기(100)에 외부 디스플레이부(도시하지 않음)와 내부 디스플레이부(도시하지 않음)가 동시에 구비될 수 있다.The display unit 151 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, or a three-dimensional display. It may include at least one of (3D display). In addition, two or more display units 151 may exist according to an implementation form of the mobile communication terminal 100. For example, an external display unit (not shown) and an internal display unit (not shown) may be simultaneously provided in the mobile communication terminal 100.

상기 디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 상기 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.When the display unit 151 and a sensor for detecting a touch operation (hereinafter referred to as a touch sensor) form a mutual layer structure (hereinafter referred to as a touch screen), the display unit 151 outputs the touch screen. In addition to the device can also be used as an input device. The touch sensor may have, for example, a form of a touch film, a touch sheet, a touch pad, or the like.

또한, 상기 터치 센서는, 상기 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 상기 터치 센서는, 터치되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. 상기 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기(도시하지 않음)로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)에 전송한다. 이로써, 상기 제어부(180)는, 상기 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.In addition, the touch sensor may be configured to convert a change in pressure applied to a specific portion of the display unit 151 or capacitance generated at a specific portion of the display unit 151 into an electrical input signal. The touch sensor may be configured to detect not only the position and area of the touch but also the pressure at the touch. When there is a touch input to the touch sensor, the corresponding signal (s) is sent to a touch controller (not shown). The touch controller processes the signal (s) and then transmits the corresponding data to the controller 180. As a result, the controller 180 can determine which area of the display unit 151 is touched.

본 발명에서 근접 터치(proximity-touch)는, 포인터(pointer)가 화면에 실제로 터치는 되지 않고, 화면으로부터 소정 거리 떨어져 접근되는 것을 의미한다. Proximity-touch in the present invention means that the pointer is approached a predetermined distance away from the screen without actually touching the screen.

상기 근접 센서(141)는, 터치 스크린에 의해 감싸지는 이동 통신 단말기(100)의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다. 상기 근접 센서(141)는, 소정의 검출 면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 상기 근접 센서(141)는, 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.The proximity sensor 141 may be disposed in the inner region of the mobile communication terminal 100 surrounded by the touch screen or near the touch screen. The proximity sensor 141 refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using mechanical force by using an electromagnetic force or infrared rays. The proximity sensor 141 has a longer life and higher utilization than a contact sensor.

상기 근접 센서(141)의 예로는, 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치 스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor 141 include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. When the touch screen is capacitive, the touch screen is configured to detect the proximity of the pointer by a change in an electric field according to the proximity of the pointer. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치 스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치 스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(Proximity Touch)"라고 칭하고, 상기 터치 스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(Contact Touch)"라고 칭한다. 상기 터치 스크린 상에서 포인터로 근접 터치가 되는 위치는, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, the act of allowing the pointer to be recognized without being in contact with the touch screen so that the pointer is located on the touch screen is referred to as "Proximity Touch", and the touch The act of actually touching the pointer on the screen is called "Contact Touch". The position of the proximity touch with the pointer on the touch screen means a position where the pointer is perpendicular to the touch screen when the pointer is in proximity touch.

또한, 상기 근접 센서(141)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 상기 터치 스크린 상에 출력될 수 있다.In addition, the proximity sensor 141 detects a proximity touch and a proximity touch pattern (for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state). do. Information corresponding to the sensed proximity touch operation and proximity touch pattern may be output on the touch screen.

상기 센싱부(140)는 가속도 센서(142)를 포함할 수 있다. 가속도 센서(142)는 어느 한 방향의 가속도 변화에 대해서 이를 전기 신호로 바꾸어 주는 소자로서, MEMS(micro-electromechanical systems) 기술의 발달과 더불어 널리 사용되고 있다. 가속도 센서(142)에는, 자동차의 에어백 시스템에 내장되어 충돌을 감지하는데 사용하는 큰 값의 가속도를 측정하는 것부터, 사람 손의 미세한 동작을 인식하여 게임 등의 입력 수단으로 사용하는 미세한 값의 가속도를 측정하는 것까지 다양한 종류가 있다. 가속도 센서(142)는 보통 2축이나 3축을 하나의 패키지에실장하여 구성되며, 사용 환경에 따라서는 Z축 한 축만 필요한 경우도 있다. 따라서, 어떤 이유로 Z축 방향 대신 X축 또는 Y축 방향의 가속도 센서를 써야 할 경우에는 별도의 조각 기판을 사용하여 가속도 센서를 주 기판에 세워서 실장할 수도 있다.The sensing unit 140 may include an acceleration sensor 142. The acceleration sensor 142 converts an acceleration signal in one direction into an electrical signal, and is widely used with the development of micro-electromechanical systems (MEMS) technology. The acceleration sensor 142 measures the acceleration of a large value embedded in an airbag system of a vehicle and used to detect a collision, and recognizes the minute movement of a human hand and uses the acceleration of a minute value used as an input means such as a game. There are many different types of measurements. The acceleration sensor 142 is usually configured by mounting two or three axes in one package, and in some cases, only one Z axis is required depending on the use environment. Therefore, when the acceleration sensor in the X-axis direction or the Y-axis direction is used instead of the Z-axis direction for some reason, the acceleration sensor may be mounted on the main substrate by using a separate piece substrate.

상기 음향 출력 모듈(152)은 호 신호 수신, 통화 모드 또는 녹음 모드, 음성 인식 모드, 방송 수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력 모듈(152)은 이동 통신 단말기(100)에서 수행되는 기능(예를 들면, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력 모듈(152)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output module 152 outputs audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. In addition, the sound output module 152 outputs a sound signal related to a function (eg, a call signal reception sound, a message reception sound, etc.) performed in the mobile communication terminal 100. The sound output module 152 may include a speaker, a buzzer, and the like.

상기 알람부(153)는 이동 통신 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력 등이 있다. 상기 알람부(153)는 오디오 신호나 비디오 신호 이외에 다른 형태로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 예를 들면, 진동 형태로 신호를 출력할 수 있다. 호 신호가 수신되거나 메시지가 수신될 때, 이를 알리기 위해 알람부(153)는 진동 수단을 통해 이동 단말기를 진동시킬 수 있다. 또는, 상기 알람부(153)는, 키 신호가 입력된 경우, 그 키 신호 입력에 대한 피드백으로 진동 수단을 통해 이동 통신 단말기(100)를 진동시킬 수 있다. 상기와 같은 진동을 통해 사용자는 이벤트 발생을 인지할 수 있다. 물론 이벤트 발생 알림을 위한 신호는 디스플레이부(151)이나 음성 출력 모듈(152)을 통해서도 출력될 수 있다.The alarm unit 153 outputs a signal for notifying occurrence of an event of the mobile communication terminal 100. Examples of events occurring in the mobile terminal include call signal reception, message reception, and key signal input. The alarm unit 153 may output a signal for notifying occurrence of an event in a form other than an audio signal or a video signal. For example, the signal may be output in the form of vibration. When a call signal is received or a message is received, the alarm unit 153 may vibrate the mobile terminal through a vibration means. Alternatively, when the key signal is input, the alarm unit 153 may vibrate the mobile communication terminal 100 through the vibration means in response to the key signal input. The user can recognize the occurrence of the event through the vibration as described above. Of course, the signal for notification of event occurrence may be output through the display unit 151 or the voice output module 152.

햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. The haptic module 154 generates various tactile effects that the user can feel. Vibration is a representative example of the haptic effect generated by the haptic module 154. The intensity and pattern of vibration generated by the haptic module 154 can be controlled. For example, different vibrations may be synthesized and output or sequentially output.

상기 햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. The haptic module 154, in addition to the vibration, the pin arrangement to move vertically with respect to the contact skin surface, the blowing force or suction force of the air through the injection or inlet, the grazing to the skin surface, the contact of the electrode (eletrode), the stimulation such as electrostatic force Various tactile effects can be produced, such as the effects of the heat-absorbing effect and the effect of reproducing a sense of cold using the elements capable of absorbing heat or heat.

상기 햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 텔레매틱스 단말기의 구성 태양에 따라 2개 이상이 구비될 수 있다. 햅틱 모듈(154)은 차량에서 사용자와의 접촉이 빈번한 곳에 구비될 수 있다. 예를 들어, 조향 휠, 변속 기어 레버, 좌석 시트 등에 구비될 수 있다.The haptic module 154 may not only deliver the haptic effect through direct contact, but may also be implemented to allow the user to feel the haptic effect through a muscle sense such as a finger or an arm. The haptic module 154 may be provided with two or more according to the configuration aspect of the telematics terminal. The haptic module 154 may be provided where the contact with the user is frequent in the vehicle. For example, it may be provided in a steering wheel, a shift gear lever, a seat seat, and the like.

상기 메모리(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 지도 데이터, 폰북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. The memory 160 may store a program for processing and controlling the controller 180 and temporarily stores input / output data (for example, map data, phonebook, message, still image, video, etc.). It can also perform a function for.

상기 메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 이동 통신 단말기(100)는 인터넷(internet)상에서 메모리(150)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영할 수도 있다.The memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory). Random Access Memory (RAM) Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM) magnetic memory, Magnetic It may include a storage medium of at least one type of disk, optical disk. In addition, the mobile communication terminal 100 may operate a web storage that performs a storage function of the memory 150 on the Internet.

상기 인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 인터페이스 역할을 한다. 예를 들면, 상기 인터페이스부(170)는 유/무선 헤드셋 포트(Headset Port), 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(Memory Card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등으로 구성될 수 있다. 여기서, 식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module: UIM), 가입자 인증 모듈(Subscriber Identify Module: SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module: USIM) 등을 포함할 수 있다. 또한, 상기 식별 모듈이 구비된 장치(이하 '식별 장치'라 한다)는, 스마트 카드(Smart Card) 형식으로 제작될 수 있다. 따라서, 상기 식별 모듈은 포트를 통하여 이동 단말기(100)와 연결될 수 있다. 이와 같은 인터페이스부(170)는 외부 기기로부터 데이터를 수신하거나 전원을 수신하여 이동 단말기(100) 내부의 각 구성 요소에 전달하거나 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다.The interface unit 170 serves as an interface with all external devices connected to the mobile terminal 100. For example, the interface unit 170 may include a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device equipped with an identification module, An audio input / output (I / O) port, a video input / output (I / O) port, and an earphone port may be configured. Here, the identification module is a chip that stores various information for authenticating the use authority of the mobile terminal 100, and includes a user identification module (UIM), a subscriber identify module (SIM), and universal user authentication. And a module (Universal Subscriber Identity Module (USIM)). In addition, the device equipped with the identification module (hereinafter referred to as an identification device) may be manufactured in the form of a smart card. Therefore, the identification module may be connected to the mobile terminal 100 through a port. The interface unit 170 may receive data from an external device or receive power and transmit the data to each component inside the mobile terminal 100 or transmit data within the mobile terminal 100 to an external device.

상기 인터페이스부(170)는 이동 단말기(100)가 외부 크래들(Cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동 단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동 단말기(100)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동 단말기(100)가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.The interface unit 170 may be a passage through which power from the cradle is supplied to the mobile terminal 100 when the mobile terminal 100 is connected to an external cradle, or various commands input by the user from the cradle. It may be a passage through which a signal is transmitted to the mobile terminal 100. Various command signals or power input from the cradle may be operated as signals for recognizing that the mobile terminal 100 is correctly mounted on the cradle.

상기 제어부(180)는 통상적으로 이동 통신 단말기(100)의 전반적인 동작을 제어한다. 예를 들면, 상기 제어부(180)는 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 상기 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 상기 멀티미디어 모듈(181)은 상기 제어부(180) 내에 구현될 수도 있고, 상기 제어부(180)와 별도로 구현될 수도 있다.The controller 180 typically controls the overall operation of the mobile communication terminal 100. For example, the controller 180 performs related control and processing for voice call, data communication, video call, and the like. In addition, the controller 180 may include a multimedia module 181 for multimedia playback. The multimedia module 181 may be implemented in the controller 180 or may be implemented separately from the controller 180.

상기 제어부(180)는 터치 스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다.The controller 180 may perform a pattern recognition process for recognizing a writing input or a drawing input performed on a touch screen as text and an image, respectively.

상기 전원 공급부(190)는 상기 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 수신하여 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives an external power source and an internal power source under the control of the controller 180 to supply power for operation of each component.

상기 이동 통신 단말기(100)에 적용된 구성 요소의 기능은 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터로 읽을 수 있는 기록매체 내에서 구현될 수도 있다. 하드웨어적인 구현에 의하면, ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어부(180)에 의해 구현될 수 있다. 소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수도 있다. The functions of the components applied to the mobile communication terminal 100 may be implemented in a computer-readable recording medium using software, hardware, or a combination thereof. Hardware implementations include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPCs), and controllers (FPGAs). It may be implemented using at least one of controllers, micro-controllers, microprocessors, electrical units for performing functions, etc. In some cases such embodiments are implemented by the controller 180. In a software implementation, embodiments such as a procedure or function may be implemented with a separate software module that performs at least one function or operation Software code may be written in a software application written in a suitable programming language. Software code is also stored in the memory 160 and controlled. It may be executed by the unit 180.

상기 음성 인식 모듈(182)은 사용자에 의해 발성된 음성을 인식하고, 그 인식된 음성 신호에 따라 해당 기능을 수행한다.The voice recognition module 182 recognizes the voice spoken by the user and performs a corresponding function according to the recognized voice signal.

상기 이동 통신 단말기(100)에 적용된 내비게이션 세션(session)(300)은 지도 데이터 상에 주행 경로를 표시한다.The navigation session 300 applied to the mobile communication terminal 100 displays a driving route on map data.

한편, 본 발명의 실시예들에 따른 이동 통신 단말기(100)에 적용된 데이터 처리 장치는, 영상을 촬영하는 카메라와; 얼굴 인식을 위한 이벤트가 발생했을 때 상기 촬영된 영상에 포함된 얼굴을 인식하고, 상기 인식된 얼굴이 연락처 디렉터리에 미리설정된 얼굴과 매칭될 때 상기 미리설정된 얼굴에 대응하는 연락처 정보를 선택하는 제어부와; 상기 선택된 연락처 정보를 근거로 상기 촬영된 영상을 통신망을 통해 전송하는 통신부를 포함할 수 있다.On the other hand, the data processing apparatus applied to the mobile communication terminal 100 according to the embodiments of the present invention, the camera to take an image; A controller for recognizing a face included in the captured image when an event for face recognition occurs and selecting contact information corresponding to the preset face when the recognized face matches a face preset in the contact directory; ; The apparatus may include a communication unit configured to transmit the captured image through a communication network based on the selected contact information.

본 발명의 실시예들에 따른 이동 통신 단말기(100)에 적용된 데이터 처리 장치의 구성 요소에 대한 상세한 설명은 도3 내지 도11을 참조하여 설명한다.Detailed description of the components of the data processing apparatus applied to the mobile communication terminal 100 according to the embodiments of the present invention will be described with reference to FIGS. 3 to 11.

이하에서는, 본 발명의 실시예들에 따른 데이터 처리 장치가 적용된 텔레매틱스 단말기(200)의 구성을 도2를 참조하여 설명한다.Hereinafter, the configuration of the telematics terminal 200 to which the data processing apparatus according to the embodiments of the present invention is applied will be described with reference to FIG. 2.

도2는 본 발명의 실시예들에 따른 데이터 처리 장치가 적용된 텔레매틱스 단말기(200)의 구성을 나타낸 구성도이다.2 is a block diagram showing the configuration of a telematics terminal 200 to which a data processing apparatus according to embodiments of the present invention is applied.

도2에 도시한 바와 같이, 텔레매틱스 단말기(200)는 텔레매틱스 단말기(200)를 전체적으로 제어하는 제어부(예를 들면, 중앙 처리 장치, CPU)(212)와, 각종 정보를 저장하는 메모리(213)와, 각종 키 신호를 제어하는 키 제어부(211)와, LCD(liquid crystal display)를 제어하는 LCD 제어부(214)를 내장한 메인 보드(210)로 구성된다.As shown in FIG. 2, the telematics terminal 200 includes a control unit (for example, a central processing unit, a CPU) 212 for controlling the telematics terminal 200 as a whole, a memory 213 for storing various kinds of information, and The main board 210 includes a key controller 211 for controlling various key signals and an LCD controller 214 for controlling a liquid crystal display (LCD).

상기 메모리(213)는 길 안내 정보를 디지털 지도상에 표시하기 위한 지도 정보(지도 데이터)를 저장한다. 또한, 상기 메모리(213)는 차량이 현재 주행하는 도로 상황에 따른 교통 정보를 입력할 수 있도록 하는 교통 정보 수집 제어 알고리즘 및 상기 알고리즘의 제어를 위한 정보를 저장한다.The memory 213 stores map information (map data) for displaying road guidance information on a digital map. In addition, the memory 213 stores a traffic information collection control algorithm for inputting traffic information according to a road situation in which the vehicle is currently driving, and information for controlling the algorithm.

상기 메인 보드(210)는 고유의 기기번호가 부여되어 차량에 내장된 이동 통신 단말기인 CDMA(code division multiple access) 모듈(206), 차량의 위치 안내, 출발지부터 목적지까지의 주행 경로 추적 등을 위한 GPS 신호를 수신하거나 사용자에 의해서 수집된 교통정보를 GPS(Global Positioning System) 신호로 송신하는 GPS 모듈(207), CD(compact disk)에 기록된 신호를 재생하기 위한 CD 데크(CD Deck)(208), 자이로 센서(gyro sensor)(209) 등으로 구성된다. 상기 CDMA 모듈(206), GPS 모듈(207)은 안테나(204, 205)를 통해서 신호를 송신/수신한다. The main board 210 is assigned with a unique device number for a code division multiple access (CDMA) module 206, which is a mobile communication terminal embedded in a vehicle, for locating a vehicle, tracking a driving route from a starting point to a destination, and the like. GPS module 207 for receiving a GPS signal or transmitting traffic information collected by a user as a GPS (Global Positioning System) signal, a CD deck (CD Deck) 208 for reproducing a signal recorded on a compact disk (CD) ), A gyro sensor 209 and the like. The CDMA module 206 and the GPS module 207 transmit / receive signals through the antennas 204 and 205.

또한, 방송 수신 모듈(222)은 상기 메인 보드(210)에 연결되고, 안테나(223)를 통해서 방송 신호를 수신한다. 상기 메인보드(210)에는 인터페이스 보드(203)를 통해서 상기 LCD 제어부(214)의 제어를 받는 표시부(LCD)(201)와, 키 제어부(211)의 제어를 받는 프론트 보드(202)와 차량의 내부 및/또는 외부를 촬영하는 카메라(227)가 연결된다. 상기 표시부(201)는, 각종 비디오 신호, 문자 신호를 표시하고, 상기 프론트 보드(202)는 각종 키 신호 입력을 위한 버튼을 구비하고, 사용자 선택이 이루어진 버튼에 해당하는 키 신호를 메인 보드(210)에 제공한다. 또한, 상기 표시부(201)는 도2의 근접 센서 및 터치 센서(터치 스크린)을 포함한다.In addition, the broadcast receiving module 222 is connected to the main board 210 and receives a broadcast signal through the antenna 223. The main board 210 includes a display unit (201) under the control of the LCD control unit 214 through the interface board 203, a front board 202 under the control of the key control unit 211, and a vehicle. The camera 227 for capturing the inside and / or the outside is connected. The display unit 201 displays various video signals and text signals, and the front board 202 is provided with buttons for inputting various key signals, and the main board 210 provides a key signal corresponding to a user-selected button. To provide. In addition, the display unit 201 includes a proximity sensor and a touch sensor (touch screen) of FIG. 2.

상기 프론트 보드(202)는 교통정보를 직접 입력하기 위한 메뉴 키를 구비하며, 상기 메뉴 키는 키 제어부(211)의 제어를 받도록 구성될 수 있다.The front board 202 may include a menu key for directly inputting traffic information, and the menu key may be configured to be controlled by the key controller 211.

상기 오디오 보드(217)는 상기 메인 보드(210)와 연결되고, 각종 오디오 신호를 처리한다. 상기 오디오 보드(217)는 오디오 보드(217)의 제어를 위한 마이크로컴퓨터(219), 라디오 신호를 수신하는 튜너(218), 상기 마이크로컴퓨터(219)에 전원을 공급하는 전원부(216), 각종 음성 신호를 처리하는 신호 처리부(215)로 구성된다.The audio board 217 is connected to the main board 210 and processes various audio signals. The audio board 217 includes a microcomputer 219 for controlling the audio board 217, a tuner 218 for receiving a radio signal, a power supply unit 216 for supplying power to the microcomputer 219, and various voices. It consists of a signal processor 215 for processing a signal.

또한, 상기 오디오 보드(217)는 라디오 신호를 수신하기 위한 라디오 안테나(220)와, 오디오 테이프를 재생하기 위한 테이프 데크(221)로 구성된다. 상기 오디오 보드(217)는 상기 오디오 보드(217)에서 신호 처리된 음성 신호를 출력하기 위한 음성 출력부(예를 들면, 앰프)(226)를 더 구성할 수도 있다. In addition, the audio board 217 is composed of a radio antenna 220 for receiving a radio signal, and a tape deck 221 for reproducing an audio tape. The audio board 217 may further configure a voice output unit (for example, an amplifier) 226 for outputting a voice signal processed by the audio board 217.

상기 음성 출력부(앰프)(226)는 차량 인터페이스(224)에 연결된다. 즉, 상기 오디오 보드(217)와 메인 보드(210)는 상기 차량 인터페이스(224)에 연결된다. 상기 차량 인터페이스(224)는 음성 신호를 입력하는 핸즈프리(225a), 탑승자 안전을 위한 에어백(225b), 차량의 속도를 검출하기 위한 속도 센서(225c) 등이 연결될 수도 있다. 상기 속도 센서(225c)는 차량 속도를 산출하고, 그 산출된 차량 속도 정보를 상기 중앙 처리 장치(212)에 제공한다. The voice output unit (amplifier) 226 is connected to the vehicle interface 224. That is, the audio board 217 and the main board 210 are connected to the vehicle interface 224. The vehicle interface 224 may be connected to a hands-free 225a for inputting a voice signal, an airbag 225b for occupant safety, a speed sensor 225c for detecting the speed of the vehicle, and the like. The speed sensor 225c calculates a vehicle speed and provides the calculated vehicle speed information to the central processing unit 212.

상기 텔레매틱스 단말기(200)에 적용된 내비게이션 세션(300)은, 지도 데이터 및 차량 현재 위치 정보를 근거로 길 안내 정보를 발생하고, 그 발생된 길 안내 정보를 사용자에게 통지한다. The navigation session 300 applied to the telematics terminal 200 generates road guide information based on map data and vehicle current location information, and notifies the user of the generated road guide information.

상기 표시부(201)는 근접 센서를 통해 표시창 내에서 근접 터치를 감지한다. 예를 들면, 상기 표시부(201)는 포인터(예를 들면, 손가락 또는 스타일러스 팬(stylus pen))가 근접 터치될 때 그 근접 터치의 위치를 검출하고, 그 검출된 위치에 대응하는 위치 정보를 상기 제어부(212)에 출력한다.The display unit 201 detects a proximity touch in the display window through a proximity sensor. For example, the display unit 201 detects the position of the proximity touch when the pointer (for example, a finger or a stylus pen) is in close proximity, and displays the position information corresponding to the detected position. Output to the control unit 212.

음성 인식 장치(또는 음성 인식 모듈)(301)는 사용자에 의해 발성된 음성을 인식하고, 그 인식된 음성 신호에 따라 해당 기능을 수행한다.The voice recognition device (or voice recognition module) 301 recognizes a voice spoken by the user and performs a corresponding function according to the recognized voice signal.

상기 텔레매틱스 단말기(200)에 적용된 내비게이션 세션(session)(300)은, 지도 데이터 상에 현재 위치 및 주행 경로를 표시한다. The navigation session 300 applied to the telematics terminal 200 displays a current location and a driving route on map data.

한편, 본 발명의 실시예들에 따른 텔레매틱스 단말기(200)에 적용된 데이터 처리 장치는, 영상을 촬영하는 카메라와; 얼굴 인식을 위한 이벤트가 발생했을 때 상기 촬영된 영상에 포함된 얼굴을 인식하고, 상기 인식된 얼굴이 연락처 디렉터리에 미리설정된 얼굴과 매칭될 때 상기 미리설정된 얼굴에 대응하는 연락처 정보를 선택하는 제어부와; 상기 선택된 연락처 정보를 근거로 상기 촬영된 영상을 통신망을 통해 전송하는 통신부를 포함할 수 있다.On the other hand, the data processing apparatus applied to the telematics terminal 200 according to the embodiments of the present invention, a camera for taking an image; A controller for recognizing a face included in the captured image when an event for face recognition occurs and selecting contact information corresponding to the preset face when the recognized face matches a face preset in the contact directory; ; The apparatus may include a communication unit configured to transmit the captured image through a communication network based on the selected contact information.

본 발명의 실시예들에 따른 텔레매틱스 단말기(200)에 적용된 데이터 처리 장치의 구성 요소에 대한 상세한 설명은 도3 내지 도11을 참조하여 설명한다.Detailed description of the components of the data processing apparatus applied to the telematics terminal 200 according to the embodiments of the present invention will be described with reference to FIGS. 3 to 11.

이하에서는, 본 발명의 제1 실시예에 따른 데이터 처리 장치 및 그 방법을 도3 내지 도7를 참조하여 설명한다. 본 발명의 실시예들에 따른 데이터 처리 장치 및 그 방법은 이동 통신 단말기(100), 상기 텔레매틱스 단말기(200), 내비게이션 장치와 같은 이동 단말기에 적용될 뿐만 아니라, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 텔레비전, 영상 기기 등과 같은 단말기에도 적용될 수도 있다. Hereinafter, a data processing apparatus and a method thereof according to a first embodiment of the present invention will be described with reference to FIGS. The data processing apparatus and the method according to the embodiments of the present invention are not only applied to a mobile terminal such as the mobile communication terminal 100, the telematics terminal 200, a navigation device, but also a smart phone and a laptop computer ( It may also be applied to terminals such as notebook computers (PDAs), personal digital assistants (PDAs), portable multimedia players (PMPs), televisions, and video devices.

도3은 본 발명의 제1 실시예에 따른 단말기의 데이터 처리 장치를 나타낸 구성도이다. 3 is a block diagram showing a data processing apparatus of a terminal according to the first embodiment of the present invention.

도3에 도시한 바와 같이, 본 발명의 제1 실시예에 따른 단말기의 데이터 처리 장치는, 영상(사진 또는 이미지)을 촬영하는 카메라(405)와; 얼굴 인식을 위한 이벤트가 발생했을 때 상기 촬영된 영상에 포함된 얼굴을 인식하고, 상기 인식된 얼굴이 저장부(404)에 저장된 연락처 디렉터리에 미리설정된 얼굴과 매칭될 때 상기 미리설정된 얼굴에 대응하는 연락처 정보를 선택하는 제어부(401)와; 상기 선택된 연락처 정보를 근거로 상기 촬영된 영상을 통신망을 통해 해당 단말기(또는 서버)(500)에 전송하는 통신부(402)로 구성된다.As shown in Fig. 3, the data processing apparatus of the terminal according to the first embodiment of the present invention includes a camera 405 for capturing an image (photograph or image); Recognizes a face included in the captured image when an event for face recognition occurs, and corresponds to the preset face when the recognized face matches a preset face in a contact directory stored in the storage unit 404. A control unit 401 for selecting contact information; The communication unit 402 is configured to transmit the captured image to the corresponding terminal (or server) 500 through the communication network based on the selected contact information.

본 발명의 제1 실시예에 따른 단말기에 적용된 표시부(403)는 상기 촬영된 영상을 화면상에 표시한다.The display unit 403 applied to the terminal according to the first embodiment of the present invention displays the captured image on the screen.

도 4는 본 발명의 제1 실시예에 따른 단말기의 데이터 처리 방법을 나타낸 흐름도 이다. 4 is a flowchart illustrating a data processing method of a terminal according to the first embodiment of the present invention.

먼저, 상기 카메라(405)는 사용자의 요구에 따라 영상(사진 또는 이미지)을 촬영한다.First, the camera 405 captures an image (photo or image) according to a user's request.

상기 표시부(403)는 상기 촬영된 영상을 화면상에 표시한다.The display unit 403 displays the captured image on a screen.

상기 제어부(401)는 얼굴 인식을 위한 이벤트가 발생했는지를 판단한다(S11). 예를 들면, 상기 제어부(401)는 상기 영상이 촬영되면 그 촬영된 영상을 상기 표시부(403)에 표시하고, 상기 표시부(403)에 표시된 영상에 얼굴 인식을 위한 아이콘(또는 항목) 또는 버튼을 표시한다. 이때, 상기 제어부(401)는 상기 얼굴 인식을 위한 아이콘(또는 항목) 또는 버튼이 사용자에 의해 선택되었는지를 판단함으로써 상기 얼굴 인식을 위한 이벤트가 발생했는지를 판단할 수 있다. 또한, 상기 제어부(401)는 상기 얼굴 인식을 위해 미리설정된 사용자 음성(예를 들면, 사용자가 "얼굴 인식"이라고 발화함)이 마이크(도시하지 않음)를 통해 수신되면 상기 얼굴 인식을 위한 이벤트가 발생한 것으로 간주할 수도 있다.The controller 401 determines whether an event for face recognition has occurred (S11). For example, when the image is captured, the controller 401 displays the captured image on the display unit 403, and displays an icon (or item) or button for face recognition on the image displayed on the display unit 403. Display. In this case, the controller 401 may determine whether an event for face recognition has occurred by determining whether an icon (or item) or a button for face recognition is selected by a user. In addition, the controller 401 is configured to receive an event for face recognition when a predetermined user voice (eg, the user speaks "face recognition") is received through a microphone (not shown) for the face recognition. It may be considered to have occurred.

상기 제어부(401)는 상기 얼굴 인식을 위한 이벤트가 발생했을 때 상기 촬영된 영상에 포함된 얼굴을 인식한다(S12). The controller 401 recognizes a face included in the captured image when an event for face recognition occurs (S12).

도5는 본 발명의 제1 실시예에 따라 촬영된 영상에 포함된 얼굴을 인식하는 방법을 나타낸 예시도 이다.5 is an exemplary view illustrating a method of recognizing a face included in an image captured according to the first embodiment of the present invention.

도5에 도시한 바와 같이, 상기 제어부(401)는 상기 얼굴 인식을 위한 아이콘 또는 버튼(51)이 사용자에 의해 선택될 때 상기 촬영된 영상(50)에 포함된 얼굴(52)을 인식한다. 여기서, 상기 얼굴을 인식하는 기술 자체는 이미 공지된 기술이므로, 이에 대한 상세한 설명은 생략한다.As shown in FIG. 5, the controller 401 recognizes the face 52 included in the captured image 50 when the icon or button 51 for face recognition is selected by the user. Here, since the technology for recognizing the face itself is a known technique, a detailed description thereof will be omitted.

상기 제어부(401)는 상기 인식된 얼굴과 상기 저장부(404)에 미리 저장된 연락처 디렉터리에 미리설정된 얼굴을 서로 비교함으로써 상기 인식된 얼굴이 상기 미리설정된 얼굴과 매칭되는지를 판단한다(S13).The controller 401 determines whether the recognized face matches the preset face by comparing the recognized face with a face preset in the contact directory previously stored in the storage 404 (S13).

도6은 본 발명의 제1 실시예에 따른 연락처 디렉터리를 나타낸 예시도 이다.6 is an exemplary view showing a contact directory according to the first embodiment of the present invention.

도6에 도시한 바와 같이, 상기 저장부(404)는 이름(예를 들면, 친구 이름, 부모 이름, 회사 동료 이름 등)(60-1), 전화 번호(60-2), 이메일 주소(60-3), 서버 주소(예를 들면, 트위터 주소)(60-4), 얼굴 이미지(60-5) 등을 갖는 각 개인 정보를 포함하는 연락처 디렉터리를 미리 저장한다. 상기 제어부(401)는 상기 인식된 얼굴(52)과 상기 저장부(404)에 미리 저장된 연락처 디렉터리에 미리설정된 얼굴(얼굴 이미지)(60-5)을 서로 비교함으로써 상기 인식된 얼굴(52)이 상기 미리설정된 얼굴(60-5)과 매칭되는지를 판단한다. As shown in Fig. 6, the storage unit 404 includes a name (e.g., a friend's name, a parent's name, a company's colleague's name, etc.) 60-1, a telephone number 60-2, an e-mail address 60 -3) in advance, a contact directory containing respective personal information having a server address (e.g., Twitter address) 60-4, face image 60-5, and the like. The controller 401 compares the recognized face 52 with a face (face image) 60-5 preset in a contact directory stored in the storage 404. It is determined whether it matches with the preset face 60-5.

상기 제어부(401)는 상기 인식된 얼굴(52)이 상기 미리설정된 얼굴(60-5)과 매칭될 때 상기 미리설정된 얼굴(60-5)에 대응하는 연락처 정보(예를 들면, 전화 번호(60-2), 이메일 주소(60-3), 서버 주소(예를 들면, 트위터 주소(http://www.twitter.com/XXXX))(60-4))를 선택한다. The controller 401 may be configured to store contact information corresponding to the preset face 60-5 when the recognized face 52 matches the preset face 60-5, for example, a phone number 60. -2), an e-mail address 60-3, a server address (e.g., Twitter address (http://www.twitter.com/XXXX)) 60-4) is selected.

상기 통신부(402)는 상기 선택된 연락처 정보를 근거로 상기 촬영된 영상을 통신망을 통해 해당 단말기(또는 서버)(500)에 전송한다(S14). 예를 들면, 상기 통신부(402)는, 상기 제어부(401)의 제어 하에, 상기 전화 번호에 대응하는 단말기에 SMS(Short Message Service) 메시지(또는 MMS(Multimedia Messagin Service))를 통해 상기 영상을 전송한다. 상기 통신부(402)는, 상기 제어부(401)의 제어 하에, 상기 이메일 주소에 대응하는 서버 또는 단말기에 상기 영상을 전송한다. 상기 통신부(402)는, 상기 제어부(401)의 제어 하에, 상기 서버 주소(예를 들면, 트위터 주소(http://www.twitter.com/XXXX))(60-4))에 대응하는 서버에 상기 영상을 전송한다. The communication unit 402 transmits the captured image to the corresponding terminal (or server) 500 through the communication network based on the selected contact information (S14). For example, the communication unit 402 transmits the image through a short message service (SMS) message (or multimedia messaging service) to a terminal corresponding to the telephone number under the control of the control unit 401. do. The communication unit 402 transmits the image to a server or a terminal corresponding to the e-mail address under the control of the control unit 401. The communication unit 402, under the control of the control unit 401, corresponds to a server address (e.g., Twitter address (http://www.twitter.com/XXXX)) 60-4). Send the video to.

도7은 본 발명의 제1 실시예에 따른 영상을 전송하는 방법을 나타낸 예시도 이다.7 is an exemplary view showing a method of transmitting an image according to the first embodiment of the present invention.

도7에 도시한 바와 같이, 상기 제어부(401)는 상기 영상을 전송할 때 상기 영상을 메일, SMS 메시지, 개인 서버 중에서 어느 하나 이상으로 전송할 것인지를 문의하는 팝업창(70)을 발생하고, 그 발생한 팝업창(70)을 상기 표시부(403)에 표시할 수 있다. 상기 팝업창(70)은 상기 영상(50)을 상기 연락처 정보에 포함된 메일로 전송할 것인지를 문의하는 항목(70-1)과, 상기 영상(50)을 상기 연락처 정보에 포함된 SMS 메시지로 전송할 것인지를 문의하는 항목(70-2)과, 상기 영상(50)을 상기 연락처 정보에 포함된 개인 서버로 전송할 것인지를 문의하는 항목(70-3)과, 상기 영상(50)을 전송할지 말지를 문의하는 항목(70-4)을 포함할 수 있다. As shown in FIG. 7, the control unit 401 generates a pop-up window 70 for inquiring whether to transmit the video to one or more of a mail, an SMS message, and a personal server. 70 may be displayed on the display unit 403. The pop-up window 70 asks whether to send the image 50 to the mail included in the contact information 70-1, and whether to send the image 50 as an SMS message included in the contact information. An item 70-2 for inquiring about the item, an item 70-3 for inquiring whether to transmit the image 50 to the personal server included in the contact information, and an inquiry whether to transmit the image 50 or not. It may include the item 70-4.

상기 제어부(401)는 상기 메일, SMS 메시지, 개인 서버 중에서 어느 하나 이상이 선택된 후 사진 전송 아이콘 또는 항목(71)이 사용자에 의해 선택될 때 상기 영상(50)을 상기 연락처 정보에 대응하는 단말기 또는 서버에 전송할 수 있다. 또한, 상기 제어부(401)는 상기 미리설정된 얼굴에 해당하는 이름 또는 개인 정보(연락처 정보 포함)를 상기 영상(50)과 함께 전송할 수도 있다.The controller 401 may be configured to display the image 50 corresponding to the contact information when the picture transmission icon or the item 71 is selected by the user after at least one of the mail, the SMS message, and the personal server is selected. You can send it to the server. In addition, the controller 401 may transmit a name or personal information (including contact information) corresponding to the preset face together with the image 50.

따라서, 본 발명의 제1 실시예에 따른 단말기의 데이터 처리 장치 및 그 방법은, 촬영된 영상에 포함된 얼굴을 인식하고, 그 인식한 얼굴과 매칭되는 미리설정된 얼굴에 대응하는 연락처 정보를 근거로 상기 촬영된 영상을 전송함으로써 사용자가 용이하고 편리하게 촬영된 영상을 전송할 수 있다. Therefore, the data processing apparatus and method of the terminal according to the first embodiment of the present invention, based on the contact information corresponding to the predetermined face that recognizes the face included in the captured image, and matches the recognized face By transmitting the photographed image, the user can transmit the photographed image easily and conveniently.

이하에서는, 본 발명의 제2 실시예에 따른 데이터 처리 장치 및 그 방법을 도3 및 도 8 내지 도10을 참조하여 설명한다. 본 발명의 실시예들에 따른 데이터 처리 장치 및 그 방법은 이동 통신 단말기(100), 상기 텔레매틱스 단말기(200), 내비게이션 장치와 같은 이동 단말기에 적용될 뿐만 아니라, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 텔레비전, 영상 기기 등과 같은 단말기에도 적용될 수도 있다. Hereinafter, a data processing apparatus and a method thereof according to a second embodiment of the present invention will be described with reference to FIGS. 3 and 8 to 10. The data processing apparatus and the method according to the embodiments of the present invention are not only applied to a mobile terminal such as the mobile communication terminal 100, the telematics terminal 200, a navigation device, but also a smart phone and a laptop computer ( It may also be applied to terminals such as notebook computers (PDAs), personal digital assistants (PDAs), portable multimedia players (PMPs), televisions, and video devices.

도 8은 본 발명의 제2 실시예에 따른 단말기의 데이터 처리 방법을 나타낸 흐름도 이다. 8 is a flowchart illustrating a data processing method of a terminal according to a second embodiment of the present invention.

먼저, 상기 제어부(401)는 얼굴 인식을 위한 이벤트가 발생했는지를 판단한다(S21). 예를 들면, 상기 제어부(401)는 상기 얼굴 인식을 위한 아이콘(또는 항목) 또는 버튼이 사용자에 의해 선택되었는지를 판단함으로써 상기 얼굴 인식을 위한 이벤트가 발생했는지를 판단할 수 있다. 또한, 상기 제어부(401)는 상기 얼굴 인식을 위해 미리설정된 사용자 음성(예를 들면, 사용자가 "얼굴 인식"이라고 발화함)이 마이크(도시하지 않음)를 통해 수신되면 상기 얼굴 인식을 위한 이벤트가 발생한 것으로 간주할 수도 있다.First, the controller 401 determines whether an event for face recognition has occurred (S21). For example, the controller 401 may determine whether an event for face recognition has occurred by determining whether an icon (or item) or a button for face recognition is selected by a user. In addition, the controller 401 is configured to receive an event for face recognition when a predetermined user voice (eg, the user speaks "face recognition") is received through a microphone (not shown) for the face recognition. It may be considered to have occurred.

상기 제어부(401)는 상기 얼굴 인식을 위한 이벤트가 발생했을 때 상기 저장부(404)에 저장된 영상들(이전에 촬영된 사진들)에 포함된 얼굴을 인식한다(S22). When the event for face recognition occurs, the controller 401 recognizes a face included in images (previously taken pictures) stored in the storage unit 404 (S22).

도9는 본 발명의 제2 실시예에 따라 영상들에 포함된 얼굴을 인식하는 방법을 나타낸 예시도 이다.9 is an exemplary view illustrating a method of recognizing a face included in images according to a second embodiment of the present invention.

도9에 도시한 바와 같이, 상기 제어부(401)는 상기 저장부(404)에 저장된 영상들(이전에 촬영된 사진들)이 저장된 폴더가 사용자에 의해 선택되었을 때 상기 폴더에 포함된 영상들(사진들)(90)과 함께 상기 얼굴 인식을 위한 아이콘 또는 버튼(91)을 상기 표시부(403)에 표시한다. 상기 제어부(401)는 상기 얼굴 인식을 위한 아이콘 또는 버튼(91)이 사용자에 의해 선택될 때 상기 영상들(90)에 포함된 얼굴을 인식한다. 여기서, 상기 얼굴을 인식하는 기술 자체는 이미 공지된 기술이므로, 이에 대한 상세한 설명은 생략한다.As illustrated in FIG. 9, the control unit 401 is configured to display images included in the folder when a folder in which images (previously photographed) stored in the storage unit 404 is selected by the user is selected. And the icon or button 91 for face recognition together with the pictures 90 on the display unit 403. The controller 401 recognizes a face included in the images 90 when the icon or button 91 for face recognition is selected by the user. Here, since the technology for recognizing the face itself is a known technique, a detailed description thereof will be omitted.

상기 제어부(401)는 상기 인식된 얼굴과 상기 저장부(404)에 미리 저장된 연락처 디렉터리에 미리설정된 얼굴을 서로 비교함으로써 상기 인식된 얼굴이 상기 미리설정된 얼굴과 매칭되는지를 판단한다(S23).The controller 401 determines whether the recognized face matches the preset face by comparing the recognized face with a face preset in the contact directory previously stored in the storage 404 (S23).

상기 제어부(401)는 상기 인식된 얼굴이 상기 미리설정된 얼굴과 매칭될 때 상기 미리설정된 얼굴에 따라 영상들을 분류(sorting)한다(S24). 예를 들면, 상기 제어부(401)는 제1 미리설정된 얼굴과 매칭되는 얼굴을 포함하는 영상들(사진들)을 제1 영역에 표시하고, 제2 미리설정된 얼굴과 매칭되는 얼굴을 포함하는 영상들(사진들)을 제2 영역에 표시함으로써 상기 미리설정된 얼굴에 따라 영상들을 분류할 수 있다. The controller 401 sorts images according to the preset face when the recognized face matches the preset face (S24). For example, the controller 401 displays images (photos) including a face that matches a first preset face in a first area, and includes images that include a face that matches a second preset face. By displaying (pictures) in the second area, images can be classified according to the preset face.

또한, 상기 제어부(401)는 상기 미리설정된 얼굴에 대응하는 개인 정보(연락처 정보 포함)를 상기 분류된 영상들과 함께 표시할 수도 있다. 예를 들면, 상기 제어부(401)는 상기 제1 미리설정된 얼굴에 대응하는 개인 정보를 상기 제1 영역에 표시하고, 상기 제2 미리설정된 얼굴에 대응하는 개인 정보를 상기 제2 영역에 표시할 수도 있다.In addition, the controller 401 may display personal information (including contact information) corresponding to the preset face together with the classified images. For example, the controller 401 may display personal information corresponding to the first preset face in the first area and display personal information corresponding to the second preset face in the second area. have.

도10은 본 발명의 제2 실시예에 따라 분류된 영상들 및 개인 정보를 나타낸 예시도 이다.FIG. 10 is an exemplary diagram illustrating images and personal information classified according to the second embodiment of the present invention. FIG.

도10에 도시한 바와 같이, 상기 제어부(401)는 제1 미리설정된 얼굴(60-5)과 매칭되는 얼굴을 포함하는 영상들(사진 1, 사진 2, 사진 3)(100-2)을 제1 영역에 표시하고, 상기 제2 미리설정된 얼굴(60-6)과 매칭되는 얼굴을 포함하는 영상들(사진5, 사진 6, 사진 7, 사진 8)을 제2 영역에 표시함으로써 상기 미리설정된 얼굴에 따라 영상들을 분류할 수 있다. 이때, 상기 제어부(401)는 상기 제1 미리설정된 얼굴에 대응하는 개인 정보(예를 들면, 이름, 전화 번호, 이메일 주소, 서버 주소, 미리설정된 얼굴 이미지)(100-1)를 상기 제1 영역에 표시하고, 상기 제2 미리설정된 얼굴에 대응하는 개인 정보(예를 들면, 이름, 전화 번호, 이메일 주소, 서버 주소, 미리설정된 얼굴 이미지)를 상기 제2 영역에 표시할 수도 있다. As shown in FIG. 10, the controller 401 removes images (photo 1, photo 2, and photo 3) 100-2 including a face matching the first preset face 60-5. The preset face is displayed by displaying images (photo 5, photo 6, photo 7, photo 8) including the face displayed on the first area and matching the second preset face 60-6 on the second area. Images can be classified according to In this case, the controller 401 may be configured to store personal information (eg, a name, a phone number, an e-mail address, a server address, and a preset face image) 100-1 corresponding to the first preset face in the first area. The personal information (eg, name, phone number, email address, server address, preset face image) corresponding to the second preset face may be displayed on the second area.

상기 제어부(401)는 상기 개인 정보에 포함된 연락처 정보를 근거로 상기 분류된 영상들을 상기 통신부(402)를 통해 해당 단말기(또는 서버)(500)에 전송한다(S25). 예를 들면, 상기 통신부(402)는, 상기 제어부(401)의 제어 하에, 상기 전화 번호에 대응하는 단말기에 SMS(Short Message Service) 메시지를 통해 상기 분류된 영상(들)을 전송한다. 상기 통신부(402)는, 상기 제어부(401)의 제어 하에, 상기 이메일 주소에 대응하는 서버 또는 단말기에 상기 분류된 영상(들)을 전송한다. 상기 통신부(402)는, 상기 제어부(401)의 제어 하에, 상기 서버 주소(예를 들면, 트위터 주소(http://www.twitter.com/XXXX))(60-4))에 대응하는 서버에 상기 분류된 영상(들)을 전송한다. 여기서, 상기 제어부(401)는 상기 제1 영역 및 제2 영역에 각각 표시된 사진 전송 아이콘 또는 버튼(100-3)이 사용자에 의해 선택되었을 때 상기 분류된 영상(들)을 전송할 수도 있다. The control unit 401 transmits the classified images to the corresponding terminal (or server) 500 through the communication unit 402 based on the contact information included in the personal information (S25). For example, the communication unit 402 transmits the classified image (s) through a short message service (SMS) message to a terminal corresponding to the telephone number under the control of the control unit 401. The communication unit 402 transmits the classified image (s) to a server or a terminal corresponding to the e-mail address under the control of the control unit 401. The communication unit 402, under the control of the control unit 401, corresponds to a server address (e.g., Twitter address (http://www.twitter.com/XXXX)) 60-4). The classified image (s) is transmitted to. Here, the controller 401 may transmit the classified image (s) when the photo transmission icon or button 100-3 displayed in the first area and the second area is selected by the user, respectively.

따라서, 본 발명의 제2 실시예에 따른 단말기의 데이터 처리 장치 및 그 방법은, 저장된 영상들에 포함된 얼굴을 인식하고, 그 인식한 얼굴과 매칭되는 미리설정된 얼굴에 따라 영상들을 분류하고, 상기 미리설정된 얼굴에 대응하는 연락처 정보를 근거로 상기 분류된 영상들을 전송함으로써 사용자가 용이하고 편리하게 영상들을 분류할 수 있고, 그 분류된 영상들을 전송할 수 있다. Therefore, the data processing apparatus and method of the terminal according to the second embodiment of the present invention, recognizes the face included in the stored images, classifies the images according to a predetermined face matching the recognized face, By transmitting the classified images based on contact information corresponding to a preset face, a user may easily and conveniently classify the images and transmit the classified images.

이하에서는, 본 발명의 제3 실시예에 따른 데이터 처리 장치 및 그 방법을 도3 및 도 11을 참조하여 설명한다. 본 발명의 실시예들에 따른 데이터 처리 장치 및 그 방법은 이동 통신 단말기(100), 상기 텔레매틱스 단말기(200), 내비게이션 장치와 같은 이동 단말기에 적용될 뿐만 아니라, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 텔레비전, 영상 기기 등과 같은 단말기에도 적용될 수도 있다. Hereinafter, a data processing apparatus and a method thereof according to a third embodiment of the present invention will be described with reference to FIGS. 3 and 11. The data processing apparatus and the method according to the embodiments of the present invention are not only applied to a mobile terminal such as the mobile communication terminal 100, the telematics terminal 200, a navigation device, but also a smart phone and a laptop computer ( It may also be applied to terminals such as notebook computers (PDAs), personal digital assistants (PDAs), portable multimedia players (PMPs), televisions, and video devices.

도 11은 본 발명의 제3 실시예에 따른 단말기의 데이터 처리 방법을 나타낸 흐름도 이다. 11 is a flowchart illustrating a data processing method of a terminal according to a third embodiment of the present invention.

먼저, 상기 제어부(401)는 얼굴 인식을 위한 이벤트가 발생했는지를 판단한다(S31). 예를 들면, 상기 제어부(401)는 상기 얼굴 인식을 위한 아이콘(또는 항목) 또는 버튼이 사용자에 의해 선택되었는지를 판단함으로써 상기 얼굴 인식을 위한 이벤트가 발생했는지를 판단할 수 있다. 또한, 상기 제어부(401)는 상기 얼굴 인식을 위해 미리설정된 사용자 음성(예를 들면, 사용자가 "얼굴 인식"이라고 발화함)이 마이크(도시하지 않음)를 통해 수신되면 상기 얼굴 인식을 위한 이벤트가 발생한 것으로 간주할 수도 있다.First, the controller 401 determines whether an event for face recognition has occurred (S31). For example, the controller 401 may determine whether an event for face recognition has occurred by determining whether an icon (or item) or a button for face recognition is selected by a user. In addition, the controller 401 is configured to receive an event for face recognition when a predetermined user voice (eg, the user speaks "face recognition") is received through a microphone (not shown) for the face recognition. It may be considered to have occurred.

상기 제어부(401)는 상기 얼굴 인식을 위한 이벤트가 발생했을 때 상기 저장부(404)에 저장된 영상들(이전에 촬영된 사진들)에 포함된 얼굴을 인식한다(S32). 예를 들면, 상기 제어부(401)는 상기 저장부(404)에 저장된 영상들(이전에 촬영된 사진들)이 저장된 폴더가 사용자에 의해 선택되었을 때 상기 폴더에 포함된 영상들(사진들)(90)과 함께 상기 얼굴 인식을 위한 아이콘 또는 버튼(91)을 상기 표시부(403)에 표시한다. 상기 제어부(401)는 상기 얼굴 인식을 위한 아이콘 또는 버튼(91)이 사용자에 의해 선택될 때 상기 영상들(90)에 포함된 얼굴을 인식한다. 여기서, 상기 얼굴을 인식하는 기술 자체는 이미 공지된 기술이므로, 이에 대한 상세한 설명은 생략한다.When an event for face recognition occurs, the controller 401 recognizes a face included in images (previously taken pictures) stored in the storage unit 404 (S32). For example, the controller 401 may be configured to display images (pictures) included in the folder when a folder in which images (pictures previously taken) stored in the storage 404 is selected by the user ( In addition, an icon or button 91 for face recognition is displayed on the display unit 403. The controller 401 recognizes a face included in the images 90 when the icon or button 91 for face recognition is selected by the user. Here, since the technology for recognizing the face itself is a known technique, a detailed description thereof will be omitted.

상기 제어부(401)는 상기 인식된 얼굴과 상기 저장부(404)에 미리 저장된 연락처 디렉터리에 미리설정된 얼굴을 서로 비교함으로써 상기 인식된 얼굴이 상기 미리설정된 얼굴과 매칭되는지를 판단한다(S33).The controller 401 compares the recognized face with a face preset in the contact directory previously stored in the storage 404 to determine whether the recognized face matches the preset face (S33).

상기 제어부(401)는 상기 인식된 얼굴이 상기 미리설정된 얼굴과 매칭될 때 상기 미리설정된 얼굴에 따라 영상들을 분류한다(S34). 예를 들면, 상기 제어부(401)는 제1 미리설정된 얼굴과 매칭되는 얼굴을 포함하는 영상들(사진들)을 제1 영역에 표시하고, 제2 미리설정된 얼굴과 매칭되는 얼굴을 포함하는 영상들(사진들)을 제2 영역에 표시함으로써 상기 미리설정된 얼굴에 따라 영상들을 분류할 수 있다. The controller 401 classifies the images according to the preset face when the recognized face matches the preset face (S34). For example, the controller 401 displays images (photos) including a face that matches a first preset face in a first area, and includes images that include a face that matches a second preset face. By displaying (pictures) in the second area, images can be classified according to the preset face.

또한, 상기 제어부(401)는 상기 미리설정된 얼굴에 대응하는 개인 정보(연락처 정보 포함)를 상기 분류된 영상들과 함께 표시할 수도 있다. 예를 들면, 상기 제어부(401)는 상기 제1 미리설정된 얼굴에 대응하는 개인 정보를 상기 제1 영역에 표시하고, 상기 제2 미리설정된 얼굴에 대응하는 개인 정보를 상기 제2 영역에 표시할 수도 있다.In addition, the controller 401 may display personal information (including contact information) corresponding to the preset face together with the classified images. For example, the controller 401 may display personal information corresponding to the first preset face in the first area and display personal information corresponding to the second preset face in the second area. have.

상기 제어부(401)는 상기 분류된 영상들을 전송하기 위한 이벤트가 발생했을 때 전송할 데이터의 양을 줄이기 위해 상기 분류된 영상들을 압축한다(S35). 예를 들면, 상기 제어부(401)는 상기 분류된 영상들을 전송하기 위한 아이콘 또는 버튼이 사용자에 의해 선택될 때 상기 분류된 영상들을 압축한다.The controller 401 compresses the classified images to reduce the amount of data to be transmitted when an event for transmitting the classified images occurs (S35). For example, the controller 401 compresses the classified images when an icon or a button for transmitting the classified images is selected by the user.

상기 제어부(401)는 상기 개인 정보에 포함된 연락처 정보를 근거로 상기 압축된 영상을 상기 통신부(402)를 통해 해당 단말기(또는 서버)(500)에 전송한다(S36). 예를 들면, 상기 통신부(402)는, 상기 제어부(401)의 제어 하에, 상기 전화 번호에 대응하는 단말기에 SMS(Short Message Service) 메시지를 통해 상기 압축된 영상을 전송한다. 상기 통신부(402)는, 상기 제어부(401)의 제어 하에, 상기 이메일 주소에 대응하는 서버 또는 단말기에 상기 압축된 영상을 전송한다. 상기 통신부(402)는, 상기 제어부(401)의 제어 하에, 상기 서버 주소(예를 들면, 트위터 주소(http://www.twitter.com/XXXX))(60-4))에 대응하는 서버에 상기 압축된 영상을 전송한다. The control unit 401 transmits the compressed image to the corresponding terminal (or server) 500 through the communication unit 402 based on the contact information included in the personal information (S36). For example, the communication unit 402 transmits the compressed image through a short message service (SMS) message to a terminal corresponding to the phone number under the control of the control unit 401. The communication unit 402 transmits the compressed image to a server or a terminal corresponding to the e-mail address under the control of the control unit 401. The communication unit 402, under the control of the control unit 401, corresponds to a server address (e.g., Twitter address (http://www.twitter.com/XXXX)) 60-4). The compressed image is transmitted to the.

따라서, 본 발명의 제3 실시예에 따른 단말기의 데이터 처리 장치 및 그 방법은, 저장된 영상들에 포함된 얼굴을 인식하고, 그 인식한 얼굴과 매칭되는 미리설정된 얼굴에 따라 영상들을 분류 및 압축하고, 상기 미리설정된 얼굴에 대응하는 연락처 정보를 근거로 상기 압축 영상을 전송함으로써 사용자가 용이하고 편리하게 영상들을 분류할 수 있고, 그 분류된 영상들을 전송할 수 있을 뿐만 아니라 전송 데이터의 양도 감소시킬 수 있다. Accordingly, the data processing apparatus and method of the terminal according to the third embodiment of the present invention recognize a face included in the stored images, classify and compress the images according to a preset face matching the recognized face. By transmitting the compressed image based on contact information corresponding to the preset face, a user can easily and conveniently classify the images, transmit the classified images, and reduce the amount of transmission data. .

이상에서 설명한 바와 같이, 본 발명의 실시예들에 따른 단말기의 데이터 처리 장치 및 그 방법은, 촬영된 영상에 포함된 얼굴을 인식하고, 그 인식한 얼굴과 매칭되는 미리설정된 얼굴에 대응하는 연락처 정보를 근거로 상기 촬영된 영상을 전송함으로써 사용자가 용이하고 편리하게 촬영된 영상을 전송할 수 있다. As described above, the data processing apparatus and method of the terminal according to the embodiments of the present invention, recognizes a face included in the captured image, contact information corresponding to the preset face matching the recognized face By transmitting the photographed image on the basis of the user, the user can transmit the photographed image easily and conveniently.

본 발명의 실시예들에 따른 단말기의 데이터 처리 장치 및 그 방법은, 저장된 영상들에 포함된 얼굴을 인식하고, 그 인식한 얼굴과 매칭되는 미리설정된 얼굴에 따라 영상들을 분류하고, 상기 미리설정된 얼굴에 대응하는 연락처 정보를 근거로 상기 분류된 영상들을 전송함으로써 사용자가 용이하고 편리하게 영상들을 분류할 수 있고, 그 분류된 영상들을 전송할 수 있다. A data processing apparatus and a method of a terminal according to embodiments of the present invention recognize a face included in stored images, classify the images according to a preset face matching the recognized face, and set the preset face. By transmitting the classified images based on contact information corresponding to, the user may easily and conveniently classify the images and transmit the classified images.

본 발명의 실시예들에 따른 단말기의 데이터 처리 장치 및 그 방법은, 저장된 영상들에 포함된 얼굴을 인식하고, 그 인식한 얼굴과 매칭되는 미리설정된 얼굴에 따라 영상들을 분류 및 압축하고, 상기 미리설정된 얼굴에 대응하는 연락처 정보를 근거로 상기 압축 영상을 전송함으로써 사용자가 용이하고 편리하게 영상들을 분류할 수 있고, 그 분류된 영상들을 전송할 수 있을 뿐만 아니라 전송 데이터의 양도 감소시킬 수 있다.A data processing apparatus and method of a terminal according to embodiments of the present invention recognize a face included in stored images, classify and compress images according to a preset face matching the recognized face, and By transmitting the compressed image based on contact information corresponding to the set face, the user can easily and conveniently classify the images, transmit the classified images, and reduce the amount of transmission data.

본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.

401: 제어부 402: 통신부
403: 표시부 404: 저장부
405: 카메라
401: control unit 402: communication unit
403: display unit 404: storage unit
405: camera

Claims (22)

영상을 촬영하는 카메라와;
얼굴 인식을 위한 이벤트가 발생했을 때 상기 촬영된 영상에 포함된 얼굴을 인식하고, 상기 인식된 얼굴이 연락처 디렉터리에 미리설정된 얼굴과 매칭될 때 상기 미리설정된 얼굴에 대응하는 연락처 정보를 선택하는 제어부와;
상기 선택된 연락처 정보를 근거로 상기 촬영된 영상을 통신망을 통해 전송하는 통신부를 포함하는 것을 특징으로 하는 데이터 처리 장치.
A camera for taking an image;
A controller for recognizing a face included in the captured image when an event for face recognition occurs and selecting contact information corresponding to the preset face when the recognized face matches a face preset in the contact directory; ;
And a communication unit which transmits the captured image through a communication network based on the selected contact information.
제1항에 있어서, 상기 제어부는,
상기 얼굴 인식을 위한 아이콘 또는 항목이 선택될 때 상기 촬영된 영상에 포함된 얼굴을 인식하는 것을 특징으로 하는 데이터 처리 장치.
The apparatus of claim 1,
And a face included in the captured image when the icon or item for face recognition is selected.
제1항에 있어서, 상기 제어부는,
상기 얼굴 인식을 위해 미리설정된 사용자 음성이 수신될 때 상기 촬영된 영상에 포함된 얼굴을 인식하는 것을 특징으로 하는 데이터 처리 장치.
The apparatus of claim 1,
And a face included in the photographed image when a preset user voice is received for face recognition.
제1항에 있어서, 상기 연락처 정보는,
전화 번호, 이메일 주소, 서버 주소 중에서 어느 하나 이상인 것을 특징으로 하는 데이터 처리 장치.
The method of claim 1, wherein the contact information,
And at least one of a telephone number, an e-mail address, and a server address.
제1항에 있어서, 상기 제어부는,
상기 영상을 전송할 때 상기 영상을 이메일, SMS(Short Message Service) 메시지, MMS(Multimedia Messagin Service), 개인 서버 중에서 어느 하나 이상으로 전송할 것인지를 문의하는 팝업창을 발생하고, 상기 발생한 팝업창을 표시부에 표시하는 것을 특징으로 하는 데이터 처리 장치.
The apparatus of claim 1,
Generating a pop-up window for inquiring whether to transmit the video to an e-mail, a short message service (SMS) message, a multimedia messaging service (MMS), or a personal server; and displaying the generated pop-up window on a display unit. A data processing device, characterized in that.
제5항에 있어서, 상기 팝업창은,
상기 영상을 상기 연락처 정보에 포함된 이메일로 전송할 것인지를 문의하는 항목과, 상기 영상을 상기 연락처 정보에 포함된 SMS 메시지로 전송할 것인지를 문의하는 항목과, 상기 영상을 상기 연락처 정보에 포함된 개인 서버로 전송할 것인지를 문의하는 항목과, 상기 영상을 전송할지 말지를 문의하는 항목을 포함하는 것을 특징으로 하는 데이터 처리 장치.
The method of claim 5, wherein the pop-up window,
An item for inquiring whether to transmit the image to an email included in the contact information, an item for inquiring whether to transmit the image in an SMS message included in the contact information, and a personal server including the image to the contact information; And an item for inquiring whether to transmit or not, and an item for inquiring whether or not to transmit the image.
영상들을 저장하는 저장부와;
얼굴 인식을 위한 이벤트가 발생했을 때 상기 저장된 영상들에 포함된 얼굴을 인식하고, 상기 인식된 얼굴이 연락처 디렉터리에 미리설정된 얼굴과 매칭될 때 상기 미리설정된 얼굴에 따라 상기 영상들을 분류하는 제어부와;
상기 분류된 영상들을 표시하는 표시부를 포함하는 것을 특징으로 하는 데이터 처리 장치.
A storage unit for storing images;
A controller configured to recognize a face included in the stored images when an event for face recognition occurs, and classify the images according to the preset face when the recognized face matches a preset face in a contact directory;
And a display unit for displaying the classified images.
제7항에 있어서, 상기 제어부는,
상기 연락처 디렉터리로부터 상기 미리설정된 얼굴에 대응하는 연락처 정보를 선택하고, 상기 선택된 연락처 정보를 근거로 상기 분류된 영상들을 통신망을 통해 전송하는 것을 특징으로 하는 데이터 처리 장치.
The method of claim 7, wherein the control unit,
Selecting contact information corresponding to the preset face from the contact directory, and transmitting the classified images through a communication network based on the selected contact information.
제7항에 있어서, 상기 제어부는,
상기 영상들이 저장된 폴더가 선택되었을 때 상기 폴더에 포함된 영상들과 함께 상기 얼굴 인식을 위한 아이콘 또는 버튼을 상기 표시부에 표시하는 것을 특징으로 하는 데이터 처리 장치.
The method of claim 7, wherein the control unit,
And when the folder storing the images is selected, an icon or a button for face recognition is displayed on the display unit together with the images included in the folder.
제7항에 있어서, 상기 제어부는,
상기 미리설정된 얼굴과 매칭되는 얼굴을 포함하는 영상들을 상기 미리설정된 얼굴에 대응하는 개인 정보와 함께 상기 표시부에 표시하는 것을 특징으로 하는 데이터 처리 장치.
The method of claim 7, wherein the control unit,
And displaying images including a face matching the preset face along with the personal information corresponding to the preset face.
제7항에 있어서, 상기 제어부는,
상기 분류된 영상들을 압축하고, 상기 미리설정된 얼굴에 대응하는 연락처 정보를 근거로 상기 압축된 영상을 통신망을 통해 전송하는 것을 특징으로 하는 데이터 처리 장치.
The method of claim 7, wherein the control unit,
And compressing the classified images and transmitting the compressed images through a communication network based on contact information corresponding to the preset face.
카메라를 통해 영상을 촬영하는 단계와;
얼굴 인식을 위한 이벤트가 발생했을 때 상기 촬영된 영상에 포함된 얼굴을 인식하는 단계와;
상기 인식된 얼굴이 연락처 디렉터리에 미리설정된 얼굴과 매칭될 때 상기 미리설정된 얼굴에 대응하는 연락처 정보를 선택하는 단계와;
상기 선택된 연락처 정보를 근거로 상기 촬영된 영상을 통신망을 통해 전송하는 단계를 포함하는 것을 특징으로 하는 데이터 처리 방법.
Photographing an image through a camera;
Recognizing a face included in the captured image when an event for face recognition occurs;
Selecting contact information corresponding to the preset face when the recognized face matches the preset face in the contact directory;
And transmitting the captured image through a communication network based on the selected contact information.
제12항에 있어서, 상기 얼굴을 인식하는 단계는,
상기 얼굴 인식을 위한 아이콘 또는 항목이 선택될 때 상기 촬영된 영상에 포함된 얼굴을 인식하는 단계인 것을 특징으로 하는 데이터 처리 방법.
The method of claim 12, wherein recognizing the face comprises:
And recognizing a face included in the captured image when the icon or item for face recognition is selected.
제12항에 있어서, 상기 얼굴을 인식하는 단계는,
상기 얼굴 인식을 위해 미리설정된 사용자 음성이 수신될 때 상기 촬영된 영상에 포함된 얼굴을 인식하는 단계인 것을 특징으로 하는 데이터 처리 방법.
The method of claim 12, wherein recognizing the face comprises:
And recognizing a face included in the captured image when a predetermined user voice is received for face recognition.
제12항에 있어서, 상기 연락처 정보는,
전화 번호, 이메일 주소, 서버 주소 중에서 어느 하나 이상인 것을 특징으로 하는 데이터 처리 방법.
The method of claim 12, wherein the contact information,
A data processing method comprising at least one of a telephone number, an email address, and a server address.
제12항에 있어서,
상기 영상을 전송할 때 상기 영상을 이메일, SMS(Short Message Service) 메시지, 개인 서버 중에서 어느 하나 이상으로 전송할 것인지를 문의하는 팝업창을 발생하는 단계와;
상기 발생한 팝업창을 표시부에 표시하는 단계를 더 포함하는 것을 특징으로 하는 데이터 처리 방법.
The method of claim 12,
Generating a pop-up window for inquiring whether to transmit the video to one or more of an email, a Short Message Service (SMS) message, and a personal server when the video is transmitted;
And displaying the generated pop-up window on a display unit.
제16항에 있어서, 상기 팝업창은,
상기 영상을 상기 연락처 정보에 포함된 이메일로 전송할 것인지를 문의하는 항목과, 상기 영상을 상기 연락처 정보에 포함된 SMS 메시지로 전송할 것인지를 문의하는 항목과, 상기 영상을 상기 연락처 정보에 포함된 개인 서버로 전송할 것인지를 문의하는 항목과, 상기 영상을 전송할지 말지를 문의하는 항목을 포함하는 것을 특징으로 하는 데이터 처리 방법.
The method of claim 16, wherein the pop-up window,
An item for inquiring whether to transmit the image to an email included in the contact information, an item for inquiring whether to transmit the image in an SMS message included in the contact information, and a personal server including the image to the contact information And an item for inquiring whether to transmit or not, and an item for inquiring whether or not to transmit the video.
영상들을 저장부에 저장하는 단계와;
얼굴 인식을 위한 이벤트가 발생했을 때 상기 저장된 영상들에 포함된 얼굴을 인식하는 단계와;
상기 인식된 얼굴이 연락처 디렉터리에 미리설정된 얼굴과 매칭될 때 상기 미리설정된 얼굴에 따라 상기 영상들을 분류하는 단계와;
상기 분류된 영상들을 표시부에 표시하는 단계를 포함하는 것을 특징으로 하는 데이터 처리 방법.
Storing the images in a storage unit;
Recognizing a face included in the stored images when an event for face recognition occurs;
Classifying the images according to the preset face when the recognized face matches the preset face in the contact directory;
And displaying the classified images on a display unit.
제18항에 있어서,
상기 연락처 디렉터리로부터 상기 미리설정된 얼굴에 대응하는 연락처 정보를 선택하는 단계와;
상기 선택된 연락처 정보를 근거로 상기 분류된 영상들을 통신망을 통해 전송하는 단계를 더 포함하는 것을 특징으로 하는 데이터 처리 방법.
The method of claim 18,
Selecting contact information corresponding to the preset face from the contact directory;
And transmitting the classified images through a communication network based on the selected contact information.
제18항에 있어서,
상기 영상들이 저장된 폴더가 선택되었을 때 상기 폴더에 포함된 영상들과 함께 상기 얼굴 인식을 위한 아이콘 또는 버튼을 상기 표시부에 표시하는 단계를 더 포함하는 것을 특징으로 하는 데이터 처리 방법.
The method of claim 18,
And displaying an icon or a button for face recognition together with the images included in the folder when the folder in which the images are stored is selected, on the display unit.
제18항에 있어서, 상기 영상들을 표시하는 단계는,
상기 미리설정된 얼굴과 매칭되는 얼굴을 포함하는 영상들을 상기 미리설정된 얼굴에 대응하는 개인 정보와 함께 상기 표시부에 표시하는 단계인 것을 특징으로 하는 데이터 처리 방법.
The method of claim 18, wherein displaying the images comprises:
And displaying the images including a face matching the preset face together with the personal information corresponding to the preset face on the display unit.
제18항에 있어서,
상기 분류된 영상들을 압축하는 단계와;
상기 미리설정된 얼굴에 대응하는 연락처 정보를 근거로 상기 압축된 영상을 통신망을 통해 전송하는 단계를 더 포함하는 것을 특징으로 하는 데이터 처리 방법.
The method of claim 18,
Compressing the classified images;
And transmitting the compressed image through a communication network based on contact information corresponding to the preset face.
KR1020100097958A 2010-10-07 2010-10-07 Data processing apparatus and method thereof KR20120036211A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100097958A KR20120036211A (en) 2010-10-07 2010-10-07 Data processing apparatus and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100097958A KR20120036211A (en) 2010-10-07 2010-10-07 Data processing apparatus and method thereof

Publications (1)

Publication Number Publication Date
KR20120036211A true KR20120036211A (en) 2012-04-17

Family

ID=46137918

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100097958A KR20120036211A (en) 2010-10-07 2010-10-07 Data processing apparatus and method thereof

Country Status (1)

Country Link
KR (1) KR20120036211A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014123306A1 (en) * 2013-02-06 2014-08-14 Lg Electronics Inc. Mobile terminal and control method thereof
WO2015016430A1 (en) * 2013-07-31 2015-02-05 Lg Electronics Inc. Mobile device and method of controlling therefor

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014123306A1 (en) * 2013-02-06 2014-08-14 Lg Electronics Inc. Mobile terminal and control method thereof
US9479625B2 (en) 2013-02-06 2016-10-25 Lg Electronics Inc. Mobile terminal and control method thereof
WO2015016430A1 (en) * 2013-07-31 2015-02-05 Lg Electronics Inc. Mobile device and method of controlling therefor
KR20150015619A (en) * 2013-07-31 2015-02-11 엘지전자 주식회사 A mobile device and method of controlling thereof
US9158342B2 (en) 2013-07-31 2015-10-13 Lg Electronics Inc. Mobile device and method of controlling therefor

Similar Documents

Publication Publication Date Title
KR101641513B1 (en) Image photographing apparatus of mobile terminal and method thereof
KR101688155B1 (en) Information processing apparatus and method thereof
US9344618B2 (en) Electronic device and method of operating the same
KR20100115211A (en) Method for displaying image for mobile terminal and apparatus thereof
KR20120003323A (en) Mobile terminal and method for displaying data using augmented reality thereof
KR101651033B1 (en) Terminal and operating method thereof
KR20120005324A (en) Electronic device controlling apparatus for mobile terminal and method thereof
KR20120078396A (en) Mobile terminal and method for searching location information using touch pattern recognition thereof
KR20110133713A (en) Mobile terminal and method for controlling the same
KR101752411B1 (en) Mobile terminal system and control method thereof
KR20110004706A (en) Emergency handling apparatus for mobile terminal and method thereof
KR101734285B1 (en) Video processing apparatus of mobile terminal and method thereof
KR20110125725A (en) Electronic device and contents sharing method for electronic device
KR20120010917A (en) Information controlling apparatus for mobile terminal and method thereof
KR101695690B1 (en) Communication connecting apparatus and method thereof
KR20120036211A (en) Data processing apparatus and method thereof
KR101748665B1 (en) Information displaying apparatus and method thereof
KR101667722B1 (en) Information displaying apparatus and method thereof
KR101698092B1 (en) Information managing apparatus and method thereof
KR20120038309A (en) Message transmitting apparatus of mobile terminal and method thereof
KR101585472B1 (en) Data processing apparatus and method thereof
KR20120002259A (en) Mobile vehicle controlling apparatus and method thereof
KR101729578B1 (en) Information providing apparatus and method thereof
KR20110132154A (en) Information providing apparatus and method thereof
KR20120014434A (en) Information controlling apparatus and method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application