KR20100000936A - Method and mobile communication terminal for processing individual information - Google Patents

Method and mobile communication terminal for processing individual information Download PDF

Info

Publication number
KR20100000936A
KR20100000936A KR1020080060621A KR20080060621A KR20100000936A KR 20100000936 A KR20100000936 A KR 20100000936A KR 1020080060621 A KR1020080060621 A KR 1020080060621A KR 20080060621 A KR20080060621 A KR 20080060621A KR 20100000936 A KR20100000936 A KR 20100000936A
Authority
KR
South Korea
Prior art keywords
person information
face
image
mobile communication
communication terminal
Prior art date
Application number
KR1020080060621A
Other languages
Korean (ko)
Inventor
최영민
Original Assignee
주식회사 케이티테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티테크 filed Critical 주식회사 케이티테크
Priority to KR1020080060621A priority Critical patent/KR20100000936A/en
Publication of KR20100000936A publication Critical patent/KR20100000936A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/38Displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Abstract

PURPOSE: A method and a mobile communication terminal for processing individual information are provided to detect a face element from a photographed image, thereby storing individual information corresponding to the face element. CONSTITUTION: A controller(120) identifies a face element from an output image. The controller shows identification marking of a face for the coordinates of the face element. The controller activates an individual information input menu corresponding to the face element. A storage unit(130) stores the input individual information within a data file of an image.

Description

인물정보 처리방법 및 이를 수행하는 이동통신단말{Method and mobile communication terminal for processing individual information}Person information processing method and mobile communication terminal performing the same {Method and mobile communication terminal for processing individual information}

본 발명은 인물정보 처리방법 및 이를 수행하는 이동통신단말에 관한 것으로서, 좀 더 상세하게는 이미지상의 얼굴을 식별하여 식별된 얼굴의 좌표에 상응하는 인물정보를 저장하고 이를 이용하는 인물정보 처리방법 및 이를 수행하는 이동통신단말 에 관한 것이다.The present invention relates to a person information processing method and a mobile communication terminal performing the same, and more particularly, a person information processing method using the same and storing the person information corresponding to the coordinates of the identified face by identifying the face on the image and the same. It relates to a mobile communication terminal to perform.

최근 이동통신단말은 통화기능을 위한 통신기기로써의 본연의 기능뿐 만 아니라 미디어 재생기, 카메라, 사전, 일정표 등 다양한 부가 기능을 갖추어 보급되고 있다. 즉, 이동통신단말의 사용자들은 이동통신단말을 이용하여 은행, 쇼핑, 사진촬영, 일정관리까지 할 수 있으며, 이를 위하여 이동통신단말에는 카메라, 스마트 카드 등 다양한 모듈들이 탑재되고 있다.Recently, mobile communication terminals have been spread with various additional functions such as media players, cameras, dictionaries, calendars, as well as their original functions as communication devices for call functions. That is, users of the mobile communication terminal can use the mobile communication terminal for banking, shopping, taking pictures, and even schedule management. For this purpose, various modules such as a camera and a smart card are mounted in the mobile communication terminal.

이 중에서도 카메라 모듈의 성능은 이동통신단말의 구입시 가장 중요한 고려사항이 될 정도로 사용자들의 카메라 모듈에 대한 성능향상은 날로 커져가고 있다.Among them, the performance of the camera module is increasing day by day so that the performance of the camera module becomes the most important consideration when purchasing a mobile communication terminal.

실제로 이동통신단말에 포함되는 카메라 모듈은 사용자가 별도의 디지털 카메라를 구입할 필요가 없을 정도로 그 기능이 향상되고 있으며, 사용자들은 이동통신단말에 포함된 카메라 모듈을 이용하여 자신의 사진이나 지인들을 촬영하는 경우가 많다.In fact, the camera module included in the mobile communication terminal is improved so that the user does not need to purchase a separate digital camera, and users can take pictures or acquaintances by using the camera module included in the mobile communication terminal. There are many cases.

그럼에도 불구하고 카메라 모듈과 이동통신단말과의 연동기능은 매우 부족한 것이 사실이다. 즉, 이동통신단말에 포함되는 카메라 모듈은 화소수, 손떨림 보정 기능등 카메라 본연의 기능부분에서만 발전이 이루어 지고 있으며, 이동통신단말에 포함되는 카메라 모듈이라는 특성이 반영되고 있지 않다.Nevertheless, it is true that the interworking function between the camera module and the mobile communication terminal is very insufficient. That is, the camera module included in the mobile communication terminal is developed only in the camera's original functional parts such as the number of pixels and the image stabilization function, and the characteristics of the camera module included in the mobile communication terminal are not reflected.

예를 들어, 이동통신단말은 지인들의 전화번호, 주소, 이메일 주소 등을 폰북(Phonebook)에 저장하고 있으며, 단축키를 통하여 지인들에게 간단히 음성통화 또는 문자메시지 등을 전송할 수 있으며, 이러한 기능은 일반적인 디지털 카메라에서 지원하기 어려운 기능이다.For example, the mobile communication terminal stores phone numbers, addresses, and e-mail addresses of acquaintances in a phonebook, and can easily send voice calls or text messages to acquaintances through shortcut keys. This feature is difficult to support in digital cameras.

이동통신단말에 포함되는 카메라 모듈을 이용하여 촬영된 이미지에는 특히 지인들의 인물사진이 많을 수 있는데, 종래의 이동통신단말은 이를 이동통신단말의 본래의 기능과 연결시키지 못하고 있다.In particular, images taken by using a camera module included in the mobile communication terminal may include many portraits of acquaintances. However, the conventional mobile communication terminal does not connect it with the original function of the mobile communication terminal.

본 발명은 상술한 종래 기술의 미비점을 해결하기 위해 안출된 것으로서, 이미지상의 얼굴을 식별하여 식별된 얼굴의 좌표에 상응하는 인물정보를 저장하고 이를 이용하는 인물정보 처리방법 및 이를 수행하는 이동통신단말을 제공하는데 그 목적이 있다.The present invention has been made to solve the above-mentioned shortcomings of the prior art, by identifying the face on the image to store the person information corresponding to the coordinates of the identified face and the person information processing method using the same and a mobile communication terminal performing the same The purpose is to provide.

이외의 본 발명의 다른 목적들은 이하에 서술되는 바람직한 실시예를 통하여 보다 명확해질 것이다.Other objects of the present invention will become more apparent through the preferred embodiments described below.

상술한 목적을 달성하기 위한 본 발명의 일 측면에 따르면, 인물정보 처리방법이 제공된다.According to an aspect of the present invention for achieving the above object, there is provided a person information processing method.

본 발명의 실시예에 따르면, 카메라 모듈 및 디스플레이부가 포함된 이동통신단말의 인물정보 처리방법에 있어서, (a) 상기 카메라 모듈로 촬상되고, 상기 디스플레이부를 통하여 출력된 이미지에서 얼굴요소를 인식하는 단계; (b) 상기 이미지 상에서 인식된 상기 얼굴요소의 좌표에 상기 얼굴의 식별표시를 나타내는 단계; (c) 상기 이동통신단말의 사용자로부터 상기 얼굴의 식별표시를 선택하는 신호를 수신한 경우 상기 얼굴에 상응하는 인물정보 입력메뉴를 활성화 시키는 단계; (d) 상기 인물정보 입력메뉴를 통하여 입력되는 인물정보를 상기 얼굴의 좌표를 메타 데이터로 하여 상기 이미지의 데이터 파일 내에 저장하는 단계; 및 (e) 상기 인물정보가 저장된 상기 이미지 데이터 파일이 디스플레이 되는 경우, 상기 사용자의 인물정보 선택입력에 따라 상기 인물정보가 표시되는 단계를 포함하는 것을 특징으로 하는 인물정보 처리방법이 제공된다.According to an embodiment of the present invention, in the method for processing person information of a mobile communication terminal including a camera module and a display unit, (a) recognizing a face element in an image captured by the camera module and output through the display unit; ; (b) displaying an identification mark of the face on coordinates of the face element recognized on the image; (c) activating a person information input menu corresponding to the face when receiving a signal for selecting an identification mark of the face from a user of the mobile communication terminal; (d) storing the person information input through the person information input menu in the data file of the image using the coordinates of the face as metadata; And (e) when the image data file in which the person information is stored is displayed, displaying the person information according to the user's person information selection input.

상기 (d) 단계에서 상기 인물정보를 음성 또는 텍스트로 저장할 수 있다.In step (d), the person information may be stored as voice or text.

상기 (a) 단계에서 상기 이미지에서 인식된 얼굴은 복수이고, 상기 (b) 단계 는 상기 이미지 상에서 상기 복수의 얼굴의 각각의 좌표 영역에 각각의 얼굴의 식별표시를 나타내는 단계일 수 있다.In the step (a), the face recognized in the image may be a plurality, and the step (b) may be a step of displaying an identification mark of each face in each coordinate region of the plurality of faces on the image.

상기 디스플레이부는 입력수단이 일체로 형성된 터치 스크린이며, 상기 (c)단계에서, 상기 얼굴의 식별표시를 선택하는 신호는 상기 터치 스크린에서 표시된 상기 이미지 상세서 상기 좌표영역에서의 접촉에 의해 발생할 수 있다.The display unit may be a touch screen in which an input unit is integrally formed. In step (c), a signal for selecting an identification mark of the face may be generated by contact in the coordinate region of the image detail displayed on the touch screen. .

상기 (d) 단계에서 상기 인물정보는 상기 이동통신단말에 포함되는 폰 북(Phone Book)의 일 영역을 지정하는 포인터를 통하여 연결되는 전화번호 정보와 연결될 수 있다.In the step (d), the person information may be connected to telephone number information connected through a pointer for designating an area of a phone book included in the mobile communication terminal.

상기 인물처리방법은 (f) 상기 전화번호 정보를 표시하는 단계; 및 (g) 상기 전화번호 정보의 선택에 따라 음성통화, 문자 메시지, 멀티미디어 메시지 전송 중 어느 하나를 수행하는 단계를 더 포함할 수 있다.The person processing method comprises the steps of: (f) displaying the telephone number information; And (g) performing one of a voice call, a text message, and a multimedia message transmission according to the selection of the phone number information.

상술한 목적을 달성하기 위한 본 발명의 일 측면에 따르면, 이동통신단말이 제공된다.According to an aspect of the present invention for achieving the above object, a mobile communication terminal is provided.

본 발명의 실시예에 의하면 인물정보를 처리하는 이동통신단말에 있어서, 카메라 모듈; 디스플레이부; 상기 카메라 모듈로 촬상되고, 상기 디스플레이부를 통하여 출력된 이미지에서 얼굴요소를 인식하여 상기 얼굴요소의 좌표에 상기 얼굴의 식별표시를 나타내고 상기 얼굴요소에 상응하는 인물정보 입력메뉴를 활성화 시키는 제어부; 및 상기 인물정보 입력메뉴를 통하여 입력되는 인물정보가 상기 얼굴의 좌표를 메타 데이터로 하여 상기 이미지의 데이터 파일 내에 저장되는 저장부를 포함하되, 상기 인물정보가 저장된 상기 이미지 데이터 파일이 디스플레이 되는 경 우, 상기 사용자의 인물정보 선택입력에 따라 상기 인물정보가 표시되는 단계를 포함하는 것을 특징으로 하는 이동통신단말이 제공된다.According to an embodiment of the present invention, a mobile communication terminal for processing person information comprises: a camera module; A display unit; A controller configured to capture a face element in the image captured by the camera module, display an identification mark of the face in coordinates of the face element, and activate a person information input menu corresponding to the face element; And a storage unit in which the person information input through the person information input menu is stored in the data file of the image using the coordinates of the face as meta data, wherein the image data file in which the person information is stored is displayed. A mobile communication terminal is provided comprising the step of displaying the person information according to the user's person information selection input.

상술한 목적을 달성하기 위한 본 발명의 일 측면에 따르면, 이동통신단말이 제공된다.According to an aspect of the present invention for achieving the above object, a mobile communication terminal is provided.

본 발명의 실시예에 의하면 카메라 모듈 및 디스플레이부가 포함된 이동통신단말의 인물정보 처리방법을 구현하기 위한 프로그램이 기록된 기록매체에 있어서, (a) 상기 카메라 모듈로 촬상되고, 상기 디스플레이부를 통하여 출력된 이미지에서 얼굴요소를 인식하는 단계; (b) 상기 이미지 상에서 인식된 상기 얼굴요소의 좌표에 상기 얼굴의 식별표시를 나타내는 단계; (c) 상기 이동통신단말의 사용자로부터 상기 얼굴의 식별표시를 선택하는 신호를 수신한 경우 상기 얼굴에 상응하는 인물정보 입력메뉴를 활성화 시키는 단계; (d) 상기 인물정보 입력메뉴를 통하여 입력되는 인물정보를 상기 얼굴의 좌표를 메타 데이터로 하여 상기 이미지의 데이터 파일 내에 저장하는 단계; 및 (e) 상기 인물정보가 저장된 상기 이미지 데이터 파일이 디스플레이 되는 경우, 상기 사용자의 인물정보 선택입력에 따라 상기 인물정보가 표시되는 단계를 포함하는 것을 특징으로 하는 인물정보 처리방법을 구현하기 위한 프로그램이 기록된 기록매체가 제공된다.According to an embodiment of the present invention, a recording medium in which a program for implementing a method of processing person information in a mobile communication terminal including a camera module and a display unit is recorded. (A) The image is captured by the camera module and output through the display unit. Recognizing a face element in the captured image; (b) displaying an identification mark of the face on coordinates of the face element recognized on the image; (c) activating a person information input menu corresponding to the face when receiving a signal for selecting an identification mark of the face from a user of the mobile communication terminal; (d) storing the person information input through the person information input menu in the data file of the image using the coordinates of the face as metadata; And (e) when the image data file in which the person information is stored is displayed, displaying the person information according to the user's person information selection input. This recorded recording medium is provided.

이상에서 상술한 바와 같이 본 발명에 따르면, 이동통신단말기에 포함되는 카메라를 통하여 촬상된 이미지에서 얼굴요소를 검출하여 얼굴요소에 상응하는 인 물정보를 저장할 수 있으며, 이미지상의 얼굴요소 별로 통신서비스가 연동될 수 있다.As described above, according to the present invention, by detecting a face element in an image captured by a camera included in the mobile communication terminal, it is possible to store personal information corresponding to the face element, and a communication service is provided for each face element on the image. It can be interlocked.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.As the invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms including ordinal numbers such as first and second may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. The term and / or includes a combination of a plurality of related items or any item of a plurality of related items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접 속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that no other component exists in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

이하, 첨부한 도면들을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어 도면 부호에 상관없이 동일하거나 대응하는 구성 요소는 동일한 참조번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, and in describing the present invention with reference to the accompanying drawings, the same or corresponding components are given the same reference numerals regardless of the reference numerals. Duplicate explanations will be omitted.

도 1은 본 발명의 실시예에 따른 이동통신단말의 내부구성을 도시한 블록도이다.1 is a block diagram showing the internal configuration of a mobile communication terminal according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 이동통신단말(100)은 카메라 모듈(110), 제어부(120), 저장부(130), 디스플레이부(140), RF 모듈(150)을 포함한다.Referring to FIG. 1, the mobile communication terminal 100 according to an embodiment of the present invention includes a camera module 110, a controller 120, a storage 130, a display 140, and an RF module 150. do.

기타 이동통신단말에 포함되는 안테나, 스피커, 마이크로폰, 키 버튼 등은 본 발명의 요지를 명확히 하기 위하여 도면에서 생략하였으며 기저대역 신호처리부는 제어부에 포함되는 것으로, 무선신호 송출안테나, 듀플렉서, 파워 증폭기, 내부발진기, 필터회로 등의 구성 RF 모듈에 포함되는 것으로 가정한다.Other antennas, speakers, microphones, key buttons, etc. included in the mobile communication terminal are omitted from the drawings to clarify the gist of the present invention, and the baseband signal processing unit is included in the control unit, and the wireless signal transmission antenna, duplexer, power amplifier, It is assumed that the RF module is included in an internal oscillator, a filter circuit, and the like.

카메라 모듈(110)은 복수개의 마이크로 렌즈를 포함하는 조명계 렌즈군, 외부 케이스, 이미지 센서 등을 포함하는 소형 카메라 모듈이다. 다만 카메라 모듈(110)에 IR 광원, LED 플래시, 광학 줌 렌즈 등을 더 포함할 수 있음은 자명하다.The camera module 110 is a compact camera module including an illumination system lens group including a plurality of micro lenses, an outer case, an image sensor, and the like. However, it is obvious that the camera module 110 may further include an IR light source, an LED flash, an optical zoom lens, and the like.

이러한 카메라 모듈(110)은 이동통신단말(100)의 키 버튼 또는 터치 스크린으로 구현된 경우 터치 스크린 상의 소프트 버튼과 연결되어 이동통신단말(100) 사용자에 의하여 이미지를 촬상한다.When the camera module 110 is implemented as a key button or a touch screen of the mobile communication terminal 100, the camera module 110 is connected to a soft button on the touch screen to capture an image by the user of the mobile communication terminal 100.

즉, 조명계 렌즈군을 통하여 상(像)이 이미지 센서에 픽셀 별로 영상신호를 발생시키고, 영상신호는 제어부로 전송된다. 픽셀별 영상신호는 카메라 모듈(110)을 통해 촬상된 이미지가 된다.That is, an image signal is generated for each pixel to the image sensor through the illumination system lens group, and the image signal is transmitted to the controller. The image signal for each pixel becomes an image captured by the camera module 110.

본 발명의 이동통신단말(100)에 포함되는 제어부(120)는 전달 받은 영상신호 에서 인물의 얼굴요소가 존재하는지 판단한다. 상술한 바와 같이 제어부(120)는 이동통신단말(100)의 기저대역 신호처리부를 포함할 수도 있으나, 제어부(120)는 이동통신단말(100)의 통신기능을 위한 기저대역 신호처리부와 별도의 논리연산회로일 수 있다. 즉, 이동통신단말(100)은 통신기능을 위한 호스트 프로세서와 카메라 모듈의 영상처리를 위한 영상처리 프로세서를 각각 포함할 수 있다.The controller 120 included in the mobile communication terminal 100 of the present invention determines whether a face element of a person exists in the received video signal. As described above, the control unit 120 may include a baseband signal processing unit of the mobile communication terminal 100, but the control unit 120 is separate from the baseband signal processing unit for the communication function of the mobile communication terminal 100. It may be a calculation circuit. That is, the mobile communication terminal 100 may include a host processor for a communication function and an image processing processor for image processing of a camera module, respectively.

본 발명의 제어부(120)는 촬상 이미지에서 인물의 얼굴요소가 존재하는지를 판단한다. 인물의 얼굴요소를 판단하는 방법은 이미지 상에서 미리 설정된 영상요소 패턴이 존재하는지를 판단한다.The controller 120 determines whether a face element of a person exists in the captured image. The method of determining a face element of a person determines whether a preset image element pattern exists on an image.

일반적으로 인물의 얼굴은 눈과 입 세 개의 포인트에서 움푹 패이고, 코와 광대뼈 부분은 돌출되어 있기 때문에 화소값에 차이가 생긴다. 따라서 본 발명의 실시예에 의한 제어부는 두 개의 눈의 좌표, 코의 두 개의 광대뼈, 코 및 입에서의 화소값이 상술한 바와 같이 차이가 발생하는 경우 얼굴요소로 판단한다. 이를 좀 더 상세히 설명하면, X=1, Y=45 (좌측 눈의 화소값 50 이하), X=28, Y=45 (우측 눈의 화소값 50 이하), X=14, Y=3~24 (코의 화소값 100 이상), X=3~22, Y=32 (입의 화소값 70 이하)의 좌표별 화소값 차이 패턴을 만족시키는 경우에는 얼굴요소로 인식하도록 미리 얼굴요소 판단기준이 설정되어 있을 수 있다.In general, the face of a person is pitted at three points of eyes and mouth, and the nose and cheekbones are protruded, resulting in a difference in pixel values. Therefore, the control unit according to an embodiment of the present invention determines that the difference between the coordinates of the two eyes, the two cheekbones of the nose, the pixel values in the nose and the mouth as described above is a face element. In more detail, X = 1, Y = 45 (less than 50 pixel left eye), X = 28, less than Y = 45 (50 pixel right eye), X = 14, Y = 3 ~ 24 In case of satisfying the pixel value difference pattern by coordinates (pixel value of nose of 100 or more), X = 3 to 22, and Y = 32 (pixel value of mouth of 70 or less), the face element judgment criteria are set in advance to recognize as a face element. It may be.

다만, 상술한 얼굴요소 판단기준은 본 발명을 설명하기 위한 예시에 불과하며, 다른 얼굴요소 판단기준이 적용될 수도 있다.However, the above-described face element determination criteria are merely examples for explaining the present invention, and other face element determination criteria may be applied.

제어부(120)는 디스플레이부(140)를 통하여 얼굴요소에 얼굴의 식별표시를 이미지와 함께 출력한다. 얼굴의 식별표시는 상술한 바와 같이 제어부(120)가 이미 지상에서 얼굴요소로 판단한 좌표에 표시된다.The controller 120 outputs an identification mark of the face along with the image to the face element through the display 140. As described above, the identification mark of the face is displayed on the coordinates that the controller 120 has already determined as the face element on the ground.

따라서 디스플레이부(140)를 통하여 표시되는 이미지 상의 얼굴요소에는 사각형 또는 원형의 점선이 표시될 수 있다. 다만 상술한 얼굴의 식별표시의 형식은 이에 한정되지 않으며 다양한 도형 또는 포인터를 통하여 표시될 수 있다. 이는 도 3를 통하여 상세히 설명하도록 한다.Therefore, a rectangular or circular dotted line may be displayed on the face element on the image displayed through the display 140. However, the format of the identification mark of the face described above is not limited thereto and may be displayed through various figures or pointers. This will be described in detail with reference to FIG. 3.

제어부(120)의 판단결과, 이미지 속에 얼굴요소가 3개 존재하는 경우를 가정하면 세 개의 얼굴의 식별표시가 이미지에 모두 표시된다. 사용자는 이동통신단말 (100)의 키 버튼 등의 입력수단을 통하여 원하는 얼굴의 식별표시를 선택한다.As a result of the determination of the controller 120, if three face elements exist in the image, all three face identification marks are displayed on the image. The user selects an identification mark of a desired face through input means such as a key button of the mobile communication terminal 100.

제어부(120)는 사용자의 얼굴의 식별표시 선택에 의한 신호를 수신하여 인물정보 저장메뉴를 활성화 시킨다. 인물정보 저장메뉴에는 이름 저장, 음성 메모, 텍스트 메모 등의 서브 메뉴가 표시될 수 있다. 이러한 메뉴를 통하여 사용자는 선택한 얼굴요소에 상응하는 인물의 인물정보를 저장할 수 있다.The controller 120 receives a signal by selecting an identification mark of a user's face to activate a person information storage menu. In the person information storage menu, submenus such as name storage, voice memo, and text memo may be displayed. Through such a menu, the user may store person information of a person corresponding to the selected face element.

예를 들어, 이름을 '김철수'라고 저장할 수 있으며, 음성 메모를 선택한 경우 '김철수는 00 대학교 00 학과 00학번 입니다.'라는 음성 메모를 저장할 수 있다.For example, you can save the name 'Kim Chul-soo'. If you select Voice Memo, you can save the voice memo 'Kim Chul-su is 00 University 00 Department No. 00 Student.'

음성 메모의 경우에는 이동통신단말(100)의 스피커를 통하여 제어부(120)로 전달되며, 제어부(120)는 이를 EVRC(Enhanced Variable Rate Codec), QCELP(Qualcomm Code Excited Linear Prediction) 등의 다양한 포맷의 음성 데이터로 변환할 수 있다. 제어부(120)는 변환된 음성 데이터 및 이름을 이미지의 확장영역에 저장한다.In the case of the voice memo, it is transmitted to the control unit 120 through the speaker of the mobile communication terminal 100, and the control unit 120 has various formats such as EVRC (Enhanced Variable Rate Codec) and QCELP (Qualcomm Code Excited Linear Prediction). Can convert to voice data. The controller 120 stores the converted voice data and the name in the extended area of the image.

예를 들어, 이미지가 JPEG 형식의 데이터 파일인 경우 JPEG의 확장영역이나 예약 영역(Reserved field)에 얼굴요소의 좌표를 메타 데이터로 하여 EVRC, QCELP 포맷의 음성데이터 및 '김철수'라는 텍스트 데이터를 부가한다.For example, if the image is a JPEG-format data file, voice data of EVRC, QCELP format and text data of 'Kim Chul-soo' are added to the extended or reserved field of the JPEG as metadata of the face element. do.

상술한 바와 같이 음성 데이터와 텍스트 데이터가 부가된 이미지 파일을 본 발명의 이동통신단말 (100)에 포함되는 저장부(130)에 저장한다.As described above, the image file to which the voice data and the text data are added is stored in the storage unit 130 included in the mobile communication terminal 100 of the present invention.

다만, 이미지 파일에 확장영역이 존재하지 않는 경우에는 상술한 이미지 데이터 파일을 저장하고, 이미지 데이터 파일과 구분되는 별도의 참조 파일에 음성 데이터와 텍스트 파일을 저장한다. 이 경우 참조 파일에 이미지 파일의 파일명 및 얼굴요소의 좌표를 포함시킨다.However, when the extended area does not exist in the image file, the above-described image data file is stored, and the voice data and the text file are stored in a separate reference file separate from the image data file. In this case, the reference file includes the file name of the image file and the coordinates of the face element.

따라서, 이 후 사용자가 이동통신단말(100)을 통하여 저장부(130)에 저장된 이미지를 디스플레이부(140)에 출력하는 경우, 제어부(120)는 이미지의 해당 얼굴요소의 좌표에 상응하는 이름 또는 음성 데이터 출력 또는 재생 메뉴를 표시할 수 있다. 이는 도 4 내지 도 5를 통하여 상세히 설명하도록 한다.Therefore, when the user subsequently outputs the image stored in the storage unit 130 to the display unit 140 through the mobile communication terminal 100, the control unit 120 or the name corresponding to the coordinates of the face element of the image or The audio data output or playback menu can be displayed. This will be described in detail with reference to FIGS. 4 to 5.

도 2는 본 발명의 실시예에 의한 인물정보 처리방법을 도시한 순서도이다.2 is a flowchart illustrating a person information processing method according to an embodiment of the present invention.

도 2를 참조하면, 이동통신단말(100)은 카메라 모듈(110)을 통하여 촬상된 이미지에서 얼굴을 인식한다(S200). 예를 들어, 사용자 이동통신단말(100)을 이용하여 자신을 포함한 가족사진을 찍었다고 가정하면, 이미지에는 3개의 얼굴요소가 포함된다.Referring to FIG. 2, the mobile communication terminal 100 recognizes a face in an image captured by the camera module 110 (S200). For example, assuming that a family picture including itself is taken using the user mobile communication terminal 100, the image includes three face elements.

따라서 이동통신단말(100)은 3개의 얼굴요소를 인식한다. 사람에 따라 차이 는 있으나, 도 1에서 설명한 바와 같이 눈, 코, 광대뼈, 입에 따라서 화소값이 변화하므로 이미지 내의 좌표값에 따른 화소값의 변화가 일반적인 눈, 코, 광대뼈, 입에 따라서 화소값과 일치하는 경우에는 얼굴요소를 인식할 수 있다.Therefore, the mobile communication terminal 100 recognizes three face elements. Although there are differences depending on people, as shown in FIG. 1, pixel values change according to eyes, nose, cheekbones, and mouth. Therefore, pixel values change according to coordinates in the image. In case of coinciding with, the face element can be recognized.

이동통신단말(100)은 인식한 얼굴요소 즉. 이미지 상에서 얼굴요소에 해당하는 좌표에 얼굴의 식별표시를 나타낸다(S210). 얼굴의 식별표시는 사각형, 원형 등의 도형이나 점선 등의 다양한 방식으로 표시될 수 있다.The mobile communication terminal 100 recognizes the recognized facial elements. The identification mark of the face is shown in the coordinates corresponding to the face element on the image (S210). The identification mark of the face may be displayed in various ways such as a figure such as a rectangle or a circle or a dotted line.

이 후 이동통신단말은 이동통신단말의 입력부를 통하여 사용자가 디스플레이부를 통하여 이미지상에 표시된 얼굴요소 중 하나를 선택하는 입력을 수신한다(S220). 즉, 사용자는 이동통신단말의 키 버튼을 이용하여 얼굴요소 중 원하는 인물의 얼굴을 선택하거나, 터치 스크린을 포함하는 경우에는 손가락으로 해당 좌표를 접촉하여 원하는 인물의 얼굴을 선택할 수 있다.Thereafter, the mobile communication terminal receives an input through which the user selects one of the face elements displayed on the image through the input unit of the mobile communication terminal (S220). That is, the user may select a face of a desired person from among the face elements by using a key button of the mobile communication terminal, or in the case of including a touch screen, the user may select a face of the desired person by touching a corresponding coordinate with a finger.

이동통신단말(100)은 사용자에 의하여 입력된 얼굴요소 선택입력을 수신하면, 인물정보 저장 메뉴를 표시한다(S230). 인물 정보 저장메뉴는 이름저장, 음성메모, 텍스트 메모 등의 서브 메뉴를 포함할 수 있다.When the mobile communication terminal 100 receives the face element selection input input by the user, the mobile communication terminal 100 displays a person information storage menu (S230). The person information storage menu may include submenus such as name saving, voice memo, and text memo.

사용자는 이름저장, 음성메모, 텍스트 메모 등의 서브 메뉴 중 하나를 선택함으로써 이동통신단말(100)로 하여금 원하는 인물정보를 이미지 데이터 파일에 삽입하여 저장하도록 할 수 있다(S240).The user may select one of submenus such as name storage, voice memo, and text memo to allow the mobile communication terminal 100 to insert and store desired person information in the image data file (S240).

이 경우 단계 S240에서 이동통신단말(100)은 이미지 데이터 파일의 확장 영역 또는 예약영역(Reserved field)에 인물정보 만을 저장하는 것이 아니라 상술한 얼굴요소의 좌표를 메타 데이터(Tag)로 하여 인물정보를 저장한다.In this case, in step S240, the mobile communication terminal 100 does not store only the person information in the extended area or the reserved field of the image data file, but uses the above-described coordinates of the face elements as meta data (Tag). Save it.

따라서, 이후 사용자의 이동통신단말(100)의 조작에 의하여 저장된 이미지 파일을 디스플레이부(140)에 출력하는 경우 해당 얼굴요소의 좌표에 단계 S240에서 저장한 인물정보가 출력될 수 있도록 한다.Accordingly, when the image file stored by the user's mobile communication terminal 100 is output to the display unit 140, the person information stored in step S240 may be output to the coordinates of the corresponding face element.

상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드디스크, 광자기디스크 등)에 저장될 수 있다.The method of the present invention as described above may be implemented in a program and stored in a computer-readable recording medium (CD-ROM, RAM, ROM, floppy disk, hard disk, magneto-optical disk, etc.).

도 3은 도 2에서 설명한 인물정보 처리방법이 적용된 예를 나타낸 도면이다.3 is a diagram illustrating an example in which the person information processing method described in FIG. 2 is applied.

도 3을 참조하면, 좌측의 이동통신단말(100)의 디스플레이부에는 이동통신단말의 카메라 모듈을 통하여 촬영된 이미지가 출력되어 있다. 이미지 내에는 3인의 인물이 포함되어 있다.Referring to FIG. 3, the image captured by the camera module of the mobile communication terminal is output to the display unit of the mobile communication terminal 100 on the left side. Three people are included in the image.

본 발명의 이동통신단말은 도 1 내지 도 2에서 설명한 바와 같이 3개의 얼굴요소를 인식한다. 얼굴요소를 인식하는 방법은 위에서 설명한 바와 같으므로 생략하도록 한다.The mobile communication terminal of the present invention recognizes three face elements as described in FIGS. The method of recognizing a face element is the same as described above, and thus will be omitted.

따라서 디스플레이부를 통하여 출력된 이미지의 얼굴요소에는 얼굴의 식별표시인 사각형의 점선(A, B 및 C)이 표시된다. 다만, 얼굴의 식별표시의 형식은 이에 한정되지 않으며, 원형 및 다른 도형으로 표시될 수 있음은 자명하다.Therefore, the dotted lines A, B, and C of the face, which are identification marks of the face, are displayed on the face elements of the image output through the display unit. However, the form of the identification mark of the face is not limited thereto, and it may be apparent that the face may be displayed in a circle or another figure.

또한, 얼굴의 식별표시 A의 측면에는 얼굴의 식별표시를 선택할 수 있는 손가락 모양의 포인터(200)가 함께 출력된다. 포인터(200)는 사용자가 이동통신단말의 사이드 키 버튼 등을 이용하여 움직이도록 조정할 수 있도록 설정된다.In addition, a finger-shaped pointer 200 for selecting a face identification mark is output on the side of the face identification mark A. FIG. The pointer 200 is set to be adjusted so that the user moves by using the side key button of the mobile communication terminal.

사용자가 얼굴의 식별표시 A에 포인터(200)를 위치시킨 후, 선택 키 버튼 등을 이용하여 얼굴의 식별표시 A를 선택하면, 얼굴의 식별표시 A의 측면에는 인물정보 저장메뉴(210)가 출력된다.When the user places the pointer 200 on the face identification mark A and selects the face identification mark A using a selection key button or the like, the person information storage menu 210 is output on the side of the face identification mark A. do.

인물정보 저장메뉴(210)에는 이름저장, 전화번호 저장, 폰북 보기, 인물음성녹음 등의 서브 메뉴가 포함된다. 이는 도면의 우측에 표시된 이동통신단말(100)의 디스플레이부를 통하여 도시하였다.The person information storage menu 210 includes a sub menu such as name storage, phone number storage, phone book view, person voice recording, and the like. This is illustrated through the display unit of the mobile communication terminal 100 shown on the right side of the figure.

따라서 사용자가 "1. 이름저장"을 선택한 경우, 이름을 작성할 수 있는 텍스트 작성창이 활성화 되면서, 사용자는 "우리 남편", "김철수" 등의 이름을 작성하고 "확인"키 버튼을 눌러 이름을 저장할 수 있다. 이 경우 "우리 남편"이라는 이름은 이미지 데이터 파일의 얼굴요소 A의 좌표영역(예를 들어, X=45, Y=90)을 태그 정보(또는 메타 데이터)로 하여 저장된다.Therefore, when the user selects "1. Save name", the text creation window is activated to write a name, and the user writes a name such as "My husband", "Kim Chul-soo" and saves the name by pressing the "OK" key button. Can be. In this case, the name "my husband" is stored using tag information (or metadata) as a coordinate region (for example, X = 45, Y = 90) of the face element A of the image data file.

따라서 이후, 동일한 이미지 데이터 파일을 디스플레이부를 통하여 출력하는 경우, 얼굴요소 A의 좌표영역에는 "우리 남편"이라는 인물정보가 함께 출력될 수 있다.Therefore, when the same image data file is output through the display unit, the person information “My husband” may be output together in the coordinate region of the face element A. FIG.

상술한 예에서는 인물정보로써 이름을 저장하는 경우로 설명하였으나 도 1 내지 도 2에서 설명한 바와 같이 이름뿐만이 아니라 음성녹음, 텍스트 메모 등도 가능하다.In the above example, the name is stored as the person information. However, as described with reference to FIGS. 1 and 2, not only a name but also a voice recording and a text memo may be used.

또한, "2. 전화번호 저장"으로 연결되는 경우에는 폰북 메뉴가 활성화 되고, 전화번호를 입력하고 이름과 함께 저장하게 되면, 선택한 얼굴요소 A가 폰 북에서 해당 전화번호의 인물사진으로 등록될 수 있다.In addition, when connected to "2. Save phone number", the phone book menu is activated, and when entering a phone number and storing it with a name, the selected face element A may be registered as a portrait of the corresponding phone number in the phone book. have.

또한, "3. 폰북보기"의 서브 메뉴를 선택한 경우에는 폰북이 활성화 되고 사용자는 폰북 메뉴를 통하여 미리 저장되어 있는 전화번호 등의 인물정보를 얼굴의 식별표시 A와 연관(Correlating)시킬 수 있다. 즉, 폰북 메뉴에 별도로 구비되어 있는 인물사진 필드에 상술한 이미지의 경로 정보 및 얼굴요소 A의 좌표가 저장됨으로써, 이미지를 출력하거나 전화번호부를 출력하는 경우 각 메뉴가 모두 출력되도록 할 수 있다. 이는 도 5를 통하여 상세히 설명하도록 한다.In addition, when the sub-menu of "3. View Phone Book" is selected, the Phone Book is activated, and the user may correlate person information, such as a phone number, stored in advance through the Phone Book Menu, to the identification mark A of the face. That is, the path information of the image and the coordinates of the face element A are stored in the portrait field provided separately in the phone book menu, so that each menu can be output when the image is output or the phone book is output. This will be described in detail with reference to FIG. 5.

도 4는 본 발명의 다른 실시예에 의한 인물정보 처리방법을 도시한 순서도이다.4 is a flowchart illustrating a person information processing method according to another embodiment of the present invention.

도 4의 순서도는 도 2에서 설명한 순서에 의하여 선택된 인물요소에 대한 인물정보가 이미지 데이터 파일의 확장영역이나 별도의 참조파일에 저장된 경우를 가정하고 이후 사용자에 의하여 해당 이미지 데이터 파일을 출력하는 경우를 가정한 것이다.The flowchart of FIG. 4 assumes that the person information for the person element selected by the procedure described with reference to FIG. 2 is stored in an extended area of the image data file or a separate reference file, and then the image data file is output by the user. It is assumed.

먼저, 사용자의 이동통신단말(100)의 키 버튼 입력 등을 통하여 저장부에 저장된 이미지 데이터 파일을 독출한다(S300).First, an image data file stored in the storage unit is read through a key button input of the user's mobile communication terminal 100 (S300).

본 발명의 이동통신단말(100)은 이미지 데이터 파일의 확장영역으로부터 저장된 인물정보가 존재하는지 판단한다(S310). 즉, 도 2 내지 도 3에서 설명한 바와 같이 본 발명의 이동통신단말(100)이 인식하여 표시한 얼굴요소 중에서 선택되어 인물정보가 저장되어 있는 지 여부가 판단된다. 또는 이미지 데이터 파일의 참조파일이 존재하는 지 검색하여 해당 참조파일에 인물정보가 저장되어 있는지 여부를 판단한다.The mobile communication terminal 100 of the present invention determines whether there is person information stored from an extended area of the image data file (S310). That is, as described with reference to FIGS. 2 to 3, it is determined whether face information is selected from among the face elements recognized and displayed by the mobile communication terminal 100 of the present invention. Or, it is determined whether a reference file of the image data file exists to determine whether person information is stored in the reference file.

이 경우 이동통신단말(100)은 이미 저장된 인물정보에 메타 데이터(태그 정보)로 저장되어 있는 좌표값을 독출(Read out)하여 해당 좌표값의 위치에 인물표시를 나타낸다(S320).In this case, the mobile communication terminal 100 reads out a coordinate value stored as meta data (tag information) in the already stored person information and displays the person at the position of the corresponding coordinate value (S320).

이 후 이동통신단말(100)은 해당 인물표시의 측면에 저장된 인물정보의 전부 또는 일부를 출력한다. 예를 들어, "우리 남편"이라는 이름이 저장되어 있는 경우에는, "우리 남편"이라는 텍스트가 얼굴의 식별표시의 측면에 표시되도록 한다. 전화번호나 인물에 대한 텍스트 메모 등이 더 저장되어 있는 경우에는 "우리 남편"이라는 텍스트와 함께 전화번호 및 텍스트 메모가 함께 표시될 수도 있다.Thereafter, the mobile communication terminal 100 outputs all or part of the person information stored on the side of the person display. For example, if the name "my husband" is stored, the text "my husband" is displayed on the side of the face identification mark. If a text memo about the phone number or the person is stored, the phone number and the text memo may be displayed together with the text "My husband".

또한, 인물에 대한 음성메모가 저장되어 있는 경우 이동통신단말(100)은 저장된 음성을 재생하도록 하는 재생 버튼(소프트 버튼)을 출력하거나 "재생"이라는 메뉴가 더 출력되도록 할 수 있다.In addition, when the voice memo for the person is stored, the mobile communication terminal 100 may output a play button (soft button) for playing the stored voice or may further output a menu called “play”.

본 발명의 실시예에 의한 이동통신단말(100)은 인물정보와 연동하는 연동서비스 메뉴를 더 제공할 수 있다(S330). 연동서비스는 이동통신단말의 통화기능, 메시지 기능, 이메일 전송 기능의 통신기능을 얼굴요소에 연동시켜 제공하는 서비스이다.The mobile communication terminal 100 according to an embodiment of the present invention may further provide an interworking service menu that interworks with the person information (S330). Interworking service is a service that provides the communication function of the call function, message function, email transmission function of the mobile communication terminal to the face element.

즉, 이동통신단말(100)은 "우리 남편"이라고 표시된 얼굴요소의 하단에 통화기능, 메시지 전송 등과 같은 하위 메뉴를 더 출력한다. 이후 사용자에 의하여 "통화연결"또는 "전화걸기"라는 서브 메뉴가 선택되면, "우리 남편"이라는 이름과 함께 저장된 전화번호로 호 설정 요청 메시지가 전송되면서 음성통화가 수행되게 된 다(S360).That is, the mobile communication terminal 100 further outputs a submenu such as a call function, a message transmission, and the like at the bottom of the face element labeled "My husband". Then, if the user selects a sub-menu called "call connection" or "call", the call setup request message is transmitted to the stored phone number with the name "my husband" and the voice call is performed (S360).

이러한 이름과 전화번호는 상술한 바와 같이 폰 북에 저장되어 이미지내의 얼굴요소와 연관되어 있을 수도 있다.Such names and phone numbers may be stored in the phone book as described above and associated with facial elements in the image.

또한, 사용자가"메시지 작성"이라는 서브 메뉴를 선택하게 되면, 본 발명의 이동통신단말(100)은 메시지의 수신자에 인물정보로써 저장되어 있는 전화번호가 미리 삽입된 메시지 작성창을 출력할 수 있다.In addition, when the user selects a submenu called "Write a message", the mobile communication terminal 100 of the present invention may output a message preparation window in which a phone number stored as person information is inserted in the receiver of the message in advance. .

이에 따라 사용자는 메시지를 작성하고, 통화 버튼 또는 확인 버튼을 누름으로써 이동통신단말(100)은 해당 메시지를 인물정보인 전화번호로 전송하게 된다.Accordingly, the user composes a message, and presses a call button or an OK button, so that the mobile communication terminal 100 transmits the message to a phone number which is person information.

다만 단계 S310에서 인물정보가 존재하지 않는 경우에는 이미지에서 얼굴요소를 인식한다(S340). 얼굴요소를 인식하는 방법은 도 1 내지 도 2에서 설명한 바와 같이 눈, 코, 광대뼈, 코 등의 화소값을 비교하여 얼굴요소를 인식하는 방법이 사용될 수 있다.However, if there is no person information in step S310 to recognize the face element in the image (S340). As a method of recognizing a face element, a method of recognizing a face element may be used by comparing pixel values such as eyes, nose, cheekbones, and nose as described with reference to FIGS. 1 and 2.

이 경우 새로 인식된 얼굴요소에는 얼굴의 식별표시가 나타나도록 하며, 도 2에서 설명한 바와 같이 사용자의 선택에 의하여 원하는 얼굴요소에 상응하는 인물정보를 저장할 수 있다(S350). 이는 사용자가 본 발명의 이동통신단말(100)을 이용하여 사진을 촬영하고 이를 이미지 데이터 파일로 바로 저장한 뒤, 사진 편집 메뉴에서 이미지 데이터 파일을 불러와 편집하는 경우에 적용될 수 있다.In this case, an identification mark of the face is displayed on the newly recognized face element, and as described above with reference to FIG. 2, the person information corresponding to the desired face element may be stored (S350). This may be applied when a user takes a picture using the mobile communication terminal 100 of the present invention and immediately stores it as an image data file, and then retrieves and edits the image data file from the photo editing menu.

또는 이동통신단말(100)이 인식한 얼굴요소가 복수인 경우, 도 2 내지 도 3에서 설명한 바와 같이 사용자에 의하여 하나의 얼굴요소만이 선택되어 인물정보가 저장된 경우에는 단계 S320 수행 이후, 나머지 얼굴영역을 인식하여 출력하도록 단 계 S340으로 진행할 수 있다.Alternatively, when there are a plurality of face elements recognized by the mobile communication terminal 100, when only one face element is selected by the user as described above with reference to FIGS. 2 to 3 and the person information is stored, the remaining faces are performed after step S320. The process may proceed to step S340 to recognize and output the region.

상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드디스크, 광자기디스크 등)에 저장될 수 있다.The method of the present invention as described above may be implemented in a program and stored in a computer-readable recording medium (CD-ROM, RAM, ROM, floppy disk, hard disk, magneto-optical disk, etc.).

도 5은 도 4에서 설명한 인물정보 처리방법이 적용된 예를 나타낸 도면이다.5 is a diagram illustrating an example in which the person information processing method described in FIG. 4 is applied.

도 5를 참조하면, 도면의 좌측에 도시된 이동통신단말(100)은 얼굴요소에 상응하는 인물정보가 저장된 이미지 데이터 파일을 독출하여 디스플레이부에 출력한 화면을 나타낸다.Referring to FIG. 5, the mobile communication terminal 100 shown on the left side of the drawing shows a screen that reads an image data file storing person information corresponding to a face element and outputs the image data file to a display unit.

즉, 도 3에서 설명한 3인의 얼굴요소가 포함된 이미지 데이터 파일에서 "우리 남편"이라는 이름(300) 및 전화번호(310)가 저장된 얼굴요소 A의 측면에는 인물정보인 이름(300) 및 전화번호(310)가 함께 출력된다.That is, in the image data file including the three face elements described with reference to FIG. 3, the name 300 and the phone number of the person information are displayed on the side of the face element A in which the name 300 and the phone number 310 are stored. 310 is output together.

이름(300) 및 전화번호(310)의 하단에는 도 4에서 설명한 연동서비스 서브 메뉴가 함께 출력될 수 있다. 다만 "전화걸기"는 본 발명의 이동통신단말(100)이 인물정보에 상응하여 제공하는 연동서비스의 예시에 불과하며, 메시지 전송, 이 메일 전송 등의 다른 연동서비스 서브 메뉴가 더 제공될 수 있음은 자명하다.At the bottom of the name 300 and the telephone number 310, the interworking service submenu described with reference to FIG. 4 may be output together. However, "calling" is merely an example of an interlocking service provided by the mobile communication terminal 100 according to the person information, and another interlocking service submenu such as message transmission and e-mail transmission may be further provided. Is self-explanatory.

따라서 사용자는 저장부에 저장된 이미지 데이터 파일을 보다가, 얼굴요소마다 출력되는 인물정보를 통하여 인물에 대한 정보를 확인할 수 있으며, 전화, 메시지 전송 등 상대방에게 연락을 취할 수 있게 된다.Therefore, the user may view the image data file stored in the storage unit and check the information on the person through the person information output for each face element, and may contact the other party such as a phone call or a message transmission.

예를 들어, 사용자가 이동통신단말의 사이드 키 버튼 등을 이용하여 "전화걸 기"를 선택하고 확인 버튼을 입력하게 되면, 도 5의 우측에 표시된 이동통신단말과 같이 해당 얼굴요소에 상응하도록 저장된 전화번호로 호 설정요청 메시지를 전송한다. 따라서 사용자는 남편과 통화를 시도할 수 있게 된다.For example, when a user selects "Call" using a side key button of a mobile communication terminal and inputs a confirmation button, the user stores the corresponding face element as shown in the mobile communication terminal shown on the right side of FIG. Send call setup request message to phone number. Therefore, the user can try to talk to her husband.

상기에서는 본 발명의 실시예들을 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to the embodiments of the present invention, those skilled in the art may variously modify and modify the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. It will be appreciated that it can be changed.

도 1은 본 발명의 실시예에 따른 이동통신단말의 내부구성을 도시한 블록도.1 is a block diagram showing the internal configuration of a mobile communication terminal according to an embodiment of the present invention.

도 2는 본 발명의 실시예에 의한 인물정보 처리방법을 도시한 순서도.2 is a flowchart illustrating a person information processing method according to an embodiment of the present invention.

도 3은 도 2에서 설명한 인물정보 처리방법이 적용된 예를 나타낸 도면.3 is a diagram illustrating an example in which the person information processing method described in FIG. 2 is applied;

도 4는 본 발명의 다른 실시예에 의한 인물정보 처리방법을 도시한 순서도.4 is a flowchart illustrating a person information processing method according to another embodiment of the present invention.

도 5는 도 4에서 설명한 인물정보 처리방법이 적용된 예를 나타낸 도면.5 is a diagram illustrating an example in which the person information processing method described in FIG. 4 is applied;

Claims (8)

카메라 모듈 및 디스플레이부가 포함된 이동통신단말의 인물정보 처리방법에 있어서,In the human information processing method of a mobile communication terminal including a camera module and a display unit, (a) 상기 카메라 모듈로 촬상되고, 상기 디스플레이부를 통하여 출력된 이미지에서 얼굴요소를 인식하는 단계;(a) recognizing a face element in an image captured by the camera module and output through the display unit; (b) 상기 이미지 상에서 인식된 상기 얼굴요소의 좌표에 상기 얼굴의 식별표시를 나타내는 단계;(b) displaying an identification mark of the face on coordinates of the face element recognized on the image; (c) 상기 이동통신단말의 사용자로부터 상기 얼굴요소의 식별표시를 선택하는 신호를 수신한 경우 상기 얼굴에 상응하는 인물정보 입력메뉴를 활성화 시키는 단계;(c) activating a person information input menu corresponding to the face when receiving a signal for selecting an identification mark of the face element from a user of the mobile communication terminal; (d) 상기 인물정보 입력메뉴를 통하여 입력되는 인물정보를 상기 얼굴의 좌표를 메타 데이터로 하여 상기 이미지의 데이터 파일 내에 저장하는 단계; 및(d) storing the person information input through the person information input menu in the data file of the image using the coordinates of the face as metadata; And (e) 상기 인물정보가 저장된 상기 이미지 데이터 파일이 디스플레이 되는 경우, 상기 사용자의 인물정보 선택입력에 따라 상기 인물정보가 표시되는 단계를 포함하는 것을 특징으로 하는 인물정보 처리방법.(e) when the image data file storing the person information is displayed, displaying the person information according to the user's person information selection input. 제1항에 있어서,The method of claim 1, 상기 (d) 단계에서In step (d) 상기 인물정보를 음성 또는 텍스트로 저장하는 것을 특징으로 하는 인물정보 처리방법.Person information processing method characterized in that for storing the person information as voice or text. 제1항에 있어서,The method of claim 1, 상기 (a) 단계에서In the step (a) 상기 이미지에서 인식된 얼굴은 복수이고,There are a plurality of faces recognized in the image, 상기 (b) 단계는Step (b) is 상기 이미지 상에서 상기 복수의 얼굴의 각각의 좌표 영역에 각각의 얼굴의 식별표시를 나타내는 단계인 것을 특징으로 하는 인물처리방법.And displaying an identification mark of each face in each coordinate area of the plurality of faces on the image. 제1항에 있어서.The method of claim 1. 상기 디스플레이부는 입력수단이 일체로 형성된 터치 스크린이며,The display unit is a touch screen in which the input means is integrally formed. 상기 (c)단계에서,In the step (c), 상기 얼굴의 식별표시를 선택하는 신호는 상기 터치 스크린에서 표시된 상기 이미지 상세서 상기 좌표영역에서의 접촉에 의해 발생하는 것을 특징으로 하는 인물처리방법.And a signal for selecting an identification mark of the face is generated by a contact in the coordinate region of the image detail displayed on the touch screen. 제1항에 있어서,The method of claim 1, 상기 (d) 단계에서In step (d) 상기 인물정보는 상기 이동통신단말에 포함되는 폰 북(Phone Book)의 일 영역을 지정하는 포인터를 통하여 연결되는 전화번호 정보와 연결되는 것을 특징으로 하는 인물정보 처리방법.And the person information is connected with telephone number information connected through a pointer for designating an area of a phone book included in the mobile communication terminal. 제5항에 있어서,The method of claim 5, 상기 인물처리방법은The character processing method (f) 상기 전화번호 정보를 표시하는 단계; 및(f) displaying the telephone number information; And (g) 상기 전화번호 정보의 선택에 따라 음성통화, 문자 메시지, 멀티미디어 메시지 전송 중 어느 하나를 수행하는 단계를 더 포함하는 것을 특징으로 하는 인물정보 처리방법.(g) performing any one of a voice call, a text message, and a multimedia message transmission according to the selection of the phone number information. 인물정보 처리하는 이동통신단말에 있어서,In the mobile communication terminal for processing person information, 카메라 모듈;Camera module; 디스플레이부;A display unit; 상기 카메라 모듈로 촬상되고, 상기 디스플레이부를 통하여 출력된 이미지에서 얼굴요소를 인식하여 상기 얼굴요소의 좌표에 상기 얼굴의 식별표시를 나타내고 상기 얼굴요소에 상응하는 인물정보 입력메뉴를 활성화 시키는 제어부; 및A controller configured to capture a face element in the image captured by the camera module, display an identification mark of the face in coordinates of the face element, and activate a person information input menu corresponding to the face element; And 상기 인물정보 입력메뉴를 통하여 입력되는 인물정보가 상기 얼굴의 좌표를 메타 데이터로 하여 상기 이미지의 데이터 파일 내에 저장되는 저장부를 포함하되, The person information input through the person information input menu includes a storage unit for storing the coordinates of the face as metadata in the data file of the image. 상기 인물정보가 저장된 상기 이미지 데이터 파일이 디스플레이 되는 경우, 상기 사용자의 인물정보 선택입력에 따라 상기 인물정보가 표시되는 단계를 포함하는 것을 특징으로 하는 이동통신단말.And displaying the person information according to the user's person information selection input when the image data file storing the person information is displayed. 카메라 모듈 및 디스플레이부가 포함된 이동통신단말의 인물정보 처리방법을구현하기 위한 프로그램이 기록된 기록매체에 있어서,Claims [1] A recording medium having recorded thereon a program for implementing a method of processing person information in a mobile communication terminal including a camera module and a display unit. (a) 상기 카메라 모듈로 촬상되고, 상기 디스플레이부를 통하여 출력된 이미지에서 얼굴요소를 인식하는 단계;(a) recognizing a face element in an image captured by the camera module and output through the display unit; (b) 상기 이미지 상에서 인식된 상기 얼굴요소의 좌표에 상기 얼굴의 식별표시를 나타내는 단계;(b) displaying an identification mark of the face on coordinates of the face element recognized on the image; (c) 상기 이동통신단말의 사용자로부터 상기 얼굴의 식별표시를 선택하는 신호를 수신한 경우 상기 얼굴에 상응하는 인물정보 입력메뉴를 활성화 시키는 단계;(c) activating a person information input menu corresponding to the face when receiving a signal for selecting an identification mark of the face from a user of the mobile communication terminal; (d) 상기 인물정보 입력메뉴를 통하여 입력되는 인물정보를 상기 얼굴의 좌표를 메타 데이터로 하여 상기 이미지의 데이터 파일 내에 저장하는 단계; 및(d) storing the person information input through the person information input menu in the data file of the image using the coordinates of the face as metadata; And (e) 상기 인물정보가 저장된 상기 이미지 데이터 파일이 디스플레이 되는 경우, 상기 사용자의 인물정보 선택입력에 따라 상기 인물정보가 표시되는 단계를 포 함하는 것을 특징으로 하는 인물정보 처리방법을 구현하기 위한 프로그램이 기록된 기록매체.(e) when the image data file in which the person information is stored is displayed, displaying the person information according to a user's person information selection input. The recorded recording medium.
KR1020080060621A 2008-06-26 2008-06-26 Method and mobile communication terminal for processing individual information KR20100000936A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080060621A KR20100000936A (en) 2008-06-26 2008-06-26 Method and mobile communication terminal for processing individual information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080060621A KR20100000936A (en) 2008-06-26 2008-06-26 Method and mobile communication terminal for processing individual information

Publications (1)

Publication Number Publication Date
KR20100000936A true KR20100000936A (en) 2010-01-06

Family

ID=41811284

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080060621A KR20100000936A (en) 2008-06-26 2008-06-26 Method and mobile communication terminal for processing individual information

Country Status (1)

Country Link
KR (1) KR20100000936A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110083095A (en) * 2010-01-13 2011-07-20 삼성전자주식회사 Image processing apparatus for creating and playing image linked with multimedia contents and method for controlling the apparatus
KR20140127507A (en) * 2013-04-25 2014-11-04 삼성전자주식회사 Apparatus and method for trasnsmitting an information in portable device
US10528619B2 (en) 2013-07-12 2020-01-07 Samsung Electronics Co., Ltd. Image display method and device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110083095A (en) * 2010-01-13 2011-07-20 삼성전자주식회사 Image processing apparatus for creating and playing image linked with multimedia contents and method for controlling the apparatus
KR20140127507A (en) * 2013-04-25 2014-11-04 삼성전자주식회사 Apparatus and method for trasnsmitting an information in portable device
US11076089B2 (en) 2013-04-25 2021-07-27 Samsung Electronics Co., Ltd. Apparatus and method for presenting specified applications through a touch screen display
US10528619B2 (en) 2013-07-12 2020-01-07 Samsung Electronics Co., Ltd. Image display method and device

Similar Documents

Publication Publication Date Title
US9052751B2 (en) Visual laser touchpad for mobile telephone and method
US8111247B2 (en) System and method for changing touch screen functionality
RU2653230C9 (en) Method and device for the images reproduction for preview
US20110039598A1 (en) Methods and devices for adding sound annotation to picture and for highlighting on photos and mobile terminal including the devices
RU2654506C2 (en) Method and device for displaying response extension function
JP2008158788A (en) Information processing device and method
CN102473441B (en) System to highlight differences in thumbnail images, mobile phone including system, and method
EP3258414B1 (en) Prompting method and apparatus for photographing
US20120098999A1 (en) Image information display method combined facial recognition and electronic device with camera function thereof
CN107423386B (en) Method and device for generating electronic card
CN110601959B (en) Session message display method, device, terminal and storage medium
CN105208284B (en) Shoot based reminding method and device
CN105488829B (en) Generate the method and device of head portrait
WO2011019467A1 (en) Methods and devices for adding sound annotation to picture and for highlighting on photos and mobile terminal including the devices
WO2005081507A1 (en) Communication terminal and communication method
US20220215050A1 (en) Picture Search Method and Device
CN105095213B (en) Information correlation method and device
KR20100000936A (en) Method and mobile communication terminal for processing individual information
US11561278B2 (en) Method and device for processing information based on radar waves, terminal, and storage medium
CN108509863A (en) Information cuing method, device and electronic equipment
CN105701245B (en) Picture recommendation method and device
CN106776874A (en) User's colonization method and device
CN106446017B (en) Identification information adding method and device
US8671348B2 (en) Method and apparatus for inputting schedule in mobile communication terminal
CN105391942B (en) Automatic photographing method and device

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application