KR20110028811A - Mobile terminal and information providing method thereof - Google Patents

Mobile terminal and information providing method thereof Download PDF

Info

Publication number
KR20110028811A
KR20110028811A KR1020090086412A KR20090086412A KR20110028811A KR 20110028811 A KR20110028811 A KR 20110028811A KR 1020090086412 A KR1020090086412 A KR 1020090086412A KR 20090086412 A KR20090086412 A KR 20090086412A KR 20110028811 A KR20110028811 A KR 20110028811A
Authority
KR
South Korea
Prior art keywords
image
person
information
mobile terminal
display screen
Prior art date
Application number
KR1020090086412A
Other languages
Korean (ko)
Other versions
KR101615969B1 (en
Inventor
이일병
임채주
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020090086412A priority Critical patent/KR101615969B1/en
Publication of KR20110028811A publication Critical patent/KR20110028811A/en
Application granted granted Critical
Publication of KR101615969B1 publication Critical patent/KR101615969B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/26Devices for calling a subscriber
    • H04M1/27Devices whereby a plurality of signals may be stored simultaneously
    • H04M1/274Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc
    • H04M1/2745Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc using static electronic memories, e.g. chips
    • H04M1/27453Directories allowing storage of additional subscriber data, e.g. metadata
    • H04M1/27457Management thereof, e.g. manual editing of data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72451User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to schedules, e.g. using calendar applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • H04M1/72472User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons wherein the items are sorted according to specific criteria, e.g. frequency of use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PURPOSE: A mobile terminal and an information providing method thereof are provided to supply various service related to a corresponding person through face recognition. CONSTITUTION: A control unit(180) extracts a facial region form an image displays on a display picture, and displays at least one kind of an information item which indicates the information which can be related to a person of the extracted face region. A touch screen is loaded in correspondence to the display screen, and the extracted face region is selected from the image displayed on the display screen through the touch operation on the touch screen.

Description

이동 단말기 및 이동 단말기에서의 정보 제공 방법{Mobile terminal and information providing method thereof}Mobile terminal and information providing method in mobile terminal

본 발명은 이동 단말기에 관한 것으로서, 이미지 매칭을 통해서 해당 이미지와 관련된 다양한 서비스를 제공할 수 있는 이동 단말기 및 그 이동 단말기에서의 정보 제공 방법에 관한 것이다.The present invention relates to a mobile terminal, and more particularly, to a mobile terminal capable of providing various services related to a corresponding image through image matching and a method of providing information in the mobile terminal.

개인용 컴퓨터, 노트북, 휴대폰 등과 같은 단말기(terminal)는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. A terminal such as a personal computer, a notebook computer, or a mobile phone has various functions, for example, a multimedia device having a complex function such as photographing or photographing of a moving picture, reproduction of music or a moving picture file, (Multimedia player).

단말기는 이동 가능 여부에 따라 이동 단말기(mobile terminal) 및 고정 단말기(stationary terminal)로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다.The terminal can move It may be divided into a mobile terminal and a stationary terminal, depending on whether it is present. The mobile terminal may be further classified into a handheld terminal and a vehicle mount terminal according to whether a user can directly carry it.

단말기의 기능 지지 및 증대를 위해, 단말기의 구조적인 부분 및/또는 소프트웨어적인 부분을 개량하는 방안이 다양하게 고려되고 있다.In order to support and increase the function of the terminal, various ways of improving the structural part and / or software part of the terminal have been considered.

본 발명은 사용자 편의성 및 기능 제공의 측면에서 보다 개선된 형태의 이동 단말기를 제공한다.The present invention provides an improved type of mobile terminal in terms of user convenience and function provision.

또한, 본 발명은 얼굴 인식을 통해서 해당 인물과 관련된 다양한 서비스를 제공할 수 있는 이동 단말기를 제공한다.In addition, the present invention provides a mobile terminal that can provide a variety of services associated with the person through the face recognition.

또한, 본 발명은 보다 직관적인 방식으로 멀티미디어 컨텐츠를 검색 및 편집할 수 있는 이동 단말기를 제공한다.The present invention also provides a mobile terminal capable of searching and editing multimedia content in a more intuitive manner.

또한, 본 발명은 각각의 멀티미디어 컨텐츠/서비스, 전화번호부, 텍스트/이미지 파일 등을 해당 인물과 관련된 카테고리별로 연계시킴으로써, 컨텐츠/서비스 이용의 측면에서 사용자 편의성을 증대시킬 수 있는 이동 단말기를 제공한다.In addition, the present invention provides a mobile terminal capable of increasing user convenience in terms of content / service use by associating respective multimedia contents / services, a phone book, a text / image file, etc., by a category related to the person.

본 발명의 이외의 목적들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.Other objects of the present invention will be readily understood through the following description.

상기한 과제를 실현하기 위한 본 발명의 일 양상으로서 본 발명에 따른 이동 단말기는, 디스플레이; 및 상기 디스플레이 화면에 표시된 이미지에서 얼굴 영역을 추출하고, 상기 추출된 얼굴 영역의 인물과 관련될 수 있는 정보를 포함하는 적어도 하나의 정보 아이템을 상기 디스플레이 화면에 표시하는 제어부를 포함할 수 있다.One aspect of the present invention for realizing the above object is a mobile terminal, the display; And a controller configured to extract a face region from the image displayed on the display screen and to display at least one information item including information that may be related to the person of the extracted face region on the display screen.

일 실시예에서, 상기 제어부는, 얼굴 인식을 통해서 상기 추출된 얼굴 영역과 유사성을 갖는 후보 인물의 이미지를 상기 디스플레이 화면에 표시하되, 상기 후보 인물의 이미지 중 어느 하나가 선택된 경우, 상기 선택된 이미지의 인물과 관련될 수 있는 정보를 포함하는 정보 아이템을 상기 디스플레이 화면에 표시할 수 있다.In an embodiment, the controller may display an image of a candidate person having similarity with the extracted face area through face recognition on the display screen, and when any one of the images of the candidate person is selected, An information item including information that may be associated with a person may be displayed on the display screen.

일 실시예에서, 상기 제어부는, 상기 추출된 얼굴 영역의 이미지를 해당 인물에 대한 대표 이미지로 하는 인물 폴더를 생성하고, 상기 추출된 얼굴 영역의 인물과 관련될 수 있는 정보 아이템을 상기 인물 폴더의 하위 계층으로 포함시킬 수 있다.In an embodiment, the control unit may generate a person folder that uses the extracted face area image as a representative image of the person, and includes an information item that may be associated with the person in the extracted face area of the person folder. Can be included as a lower layer.

일 실시예에서, 상기 제어부는, 상기 추출된 얼굴 영역의 인물에 대한 관련 정보의 제공을 이동 단말기의 통신부를 통해 외부 서버에 요청하고, 상기 외부 서버로부터 해당 인물과 관련된 정보가 수신되는 경우, 상기 수신 정보를 아이템화하여 상기 디스플레이 화면에 표시할 수 있다.In an embodiment, the controller requests the external server to provide the related information about the person of the extracted face region through the communication unit of the mobile terminal, and when the information related to the person is received from the external server, The received information may be itemized and displayed on the display screen.

상기한 과제를 실현하기 위한 본 발명의 다른 양상으로서 본 발명에 따른 이동 단말기는, 디스플레이; 및 상기 디스플레이 화면에 표시된 이미지에서 관심 영역을 추출하고, 상기 추출된 관심 영역의 이미지와 관련될 수 있는 정보를 포함하는 적어도 하나의 정보 아이템을 상기 디스플레이 화면에 표시하는 제어부를 포함할 수 있다.Another aspect of the present invention for realizing the above object is a mobile terminal, the display; And a controller configured to extract a region of interest from an image displayed on the display screen and display at least one information item including information that may be related to the extracted image of the region of interest on the display screen.

상기한 과제를 실현하기 위한 본 발명의 또 다른 양상으로서 본 발명에 따 른 이동 단말기에서의 정보 제공 방법은, 디스플레이 화면에 표시된 이미지에서 얼굴 영역을 추출하는 단계; 및 상기 추출된 얼굴 영역의 인물과 관련될 수 있는 정보를 포함하는 적어도 하나의 정보 아이템을 상기 디스플레이 화면에 표시하는 단계를 포함할 수 있다.As another aspect of the present invention for realizing the above object, a method for providing information in a mobile terminal according to the present invention comprises the steps of: extracting a face region from an image displayed on a display screen; And displaying at least one information item including information that may be associated with a person of the extracted face region on the display screen.

일 실시예에서, 상기 얼굴 영역을 추출하는 단계 이전에, 상기 이동 단말기에 구비된 터치 스크린 상에서의 터치 조작에 의해, 상기 디스플레이 화면에 표시된 상기 이미지에서 상기 얼굴 영역이 선택되는 단계를 더 포함할 수 있다.The method may further include, before the extracting of the face region, selecting the face region from the image displayed on the display screen by a touch manipulation on the touch screen provided in the mobile terminal. have.

일 실시예에서, 상기 추출된 얼굴 영역의 인물과 관련될 수 있는 정보를 포함하는 적어도 하나의 정보 아이템을 상기 디스플레이 화면에 표시하는 상기 단계는, 얼굴 인식을 통해서 상기 추출된 얼굴 영역과 유사성을 갖는 후보 인물의 이미지를 표시하는 단계; 상기 후보 인물의 이미지 중 어느 하나가 선택되는 단계; 및 상기 선택된 이미지의 인물과 관련될 수 있는 정보를 포함하는 정보 아이템을 표시하는 단계를 포함할 수 있다.In an embodiment, the displaying of at least one information item including information that may be related to the person of the extracted face region on the display screen may have similarity with the extracted face region through face recognition. Displaying an image of a candidate person; Selecting one of the images of the candidate person; And displaying an information item including information that may be associated with a person of the selected image.

일 실시예에서, 상기 추출된 얼굴 영역의 이미지를 해당 인물에 대한 대표 이미지로 하는 인물 폴더를 생성하는 단계; 및 상기 추출된 얼굴 영역의 인물과 관련될 수 있는 정보 아이템을 상기 인물 폴더의 하위 계층으로 포함시키는 단계를 더 포함할 수 있다.In an embodiment, the method may further include: generating a person folder having the extracted face area image as a representative image of the person; And including an information item related to the person of the extracted face region as a lower layer of the person folder.

일 실시예에서, 상기 추출된 얼굴 영역의 인물에 대한 관련 정보의 제공을 외부 서버에 요청하는 단계; 상기 외부 서버로부터 해당 인물과 관련된 정보를 수신하는 단계; 및 상기 수신 정보를 아이템화하여 상기 디스플레이 화면에 표시하는 단계를 더 포함할 수 있다.In an embodiment, the method may further include: requesting an external server to provide related information about a person of the extracted face region; Receiving information related to the person from the external server; And itemizing the received information and displaying the received information on the display screen.

상기한 과제를 실현하기 위한 본 발명의 또 다른 양상으로서 본 발명에 따른 이동 단말기에서의 정보 제공 방법은, 디스플레이 화면에 표시된 이미지에서 관심 영역을 추출하는 단계; 및 상기 추출된 관심 영역의 이미지와 관련될 수 있는 정보를 포함하는 적어도 하나의 정보 아이템을 상기 디스플레이 화면에 표시하는 단계를 포함할 수 있다.As another aspect of the present invention for realizing the above object, a method of providing information in a mobile terminal according to the present invention comprises the steps of: extracting a region of interest from the image displayed on the display screen; And displaying at least one information item including information that may be associated with the extracted image of the ROI on the display screen.

본 발명에 따른 이동 단말기에 의하면, 다음과 같은 효과가 있다.According to the mobile terminal according to the present invention, the following effects are obtained.

본 발명은 사용자 편의성 및 기능 제공의 측면에서 보다 개선된 형태의 이동 단말기를 제공할 수 있다.The present invention can provide an improved type of mobile terminal in terms of user convenience and function provision.

또한, 본 발명은 얼굴 인식을 통해서 해당 인물과 관련된 다양한 서비스를 제공할 수 있는 이동 단말기를 제공할 수 있다.In addition, the present invention may provide a mobile terminal capable of providing various services related to the person through face recognition.

또한, 본 발명은 보다 직관적인 방식으로 멀티미디어 컨텐츠를 검색 및 편집할 수 있는 이동 단말기를 제공할 수 있다.In addition, the present invention can provide a mobile terminal capable of searching and editing multimedia content in a more intuitive manner.

또한, 본 발명은 각각의 멀티미디어 컨텐츠/서비스, 전화번호부, 텍스트/이미지 파일 등을 해당 인물과 관련된 카테고리별로 연계시킴으로써, 컨텐츠/서비스 이용의 측면에서 사용자 편의성을 증대시킬 수 있는 이동 단말기를 제공할 수 있다.In addition, the present invention can provide a mobile terminal that can increase the user convenience in terms of content / service use by associating each multimedia content / service, phone book, text / image files, etc. by category associated with the person. have.

본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다The above objects, features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. It is to be understood, however, that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and similarities. Like reference numerals designate like elements throughout the specification. In addition, when it is determined that the detailed description of the known function or configuration related to the present invention may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. In addition, the numbers (eg, first, second, etc.) used in the description process of the present specification are merely identification symbols for distinguishing one component from another component.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.The suffixes "module" and "unit" for components used in the following description are given or used in consideration of ease of specification, and do not have distinct meanings or roles from each other.

본 명세서에서는 이동 단말기로서 휴대폰의 경우를 중심으로 설명하지만, 본 발명이 적용될 수 있는 이동 단말기에는 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, MP3 플레이어, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등과 같이 휴대성 또는 이동성을 갖는 단말기라면 모두 여기에 해당될 수 있음은 물론이다.In the present specification, a mobile phone as a mobile terminal will be described. However, the mobile terminal to which the present invention can be applied includes a smart phone, a laptop computer, a digital broadcasting terminal, an MP3 player, and a PDA (Personal Digital Assistants). Of course, any terminal having portability or mobility, such as PMP (Portable Multimedia Player), navigation, etc., may of course be applicable.

이하, 본 발명과 관련된 이동 단말기에 대하여 첨부된 도면을 참조하여 상세히 설명한다.Hereinafter, a mobile terminal related to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다. 도 2는 본 발명의 일 실시예와 관련된 이동 단말기의 외관을 나타낸 도면이다.1 is a block diagram of a mobile terminal according to an embodiment of the present invention. 2 is a diagram illustrating an appearance of a mobile terminal according to an embodiment of the present invention.

도 1을 참조할 때, 이동 단말기(100)는, 무선 통신부(110), A/V(Audio/Video)부(120), 입력부(130), 센싱부(140), 출력부(150), 메모리부(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그 보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기를 구현할 수도 있다.Referring to FIG. 1, the mobile terminal 100 includes a wireless communication unit 110, an A / V (Audio / Video) unit 120, an input unit 130, a sensing unit 140, an output unit 150, The memory unit 160, the interface unit 170, the controller 180, and the power supply unit 190 may be included. The components shown in FIG. 1 are not essential and may implement a mobile terminal having more or fewer components.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동 통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치 정보 모듈(115) 등을 포함할 수 있다.The wireless communication unit 110 may include one or more modules that enable wireless communication between the mobile terminal 100 and the wireless communication system or between the mobile terminal 100 and a network in which the mobile terminal 100 is located. For example, the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless internet module 113, a short range communication module 114, a location information module 115, and the like. .

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련 정보를 수신한다.The broadcast receiving module 111 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel.

상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may mean a server that generates and transmits a broadcast signal and / or broadcast related information or a server that receives a previously generated broadcast signal and / or broadcast related information and transmits the same to a terminal. The broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal.

상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.The broadcast related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112.

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast related information may exist in various forms. For example, it may exist in the form of Electronic Program Guide (EPG) of Digital Multimedia Broadcasting (DMB) or Electronic Service Guide (ESG) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈(111)은, 각종 방송 시스템을 이용하여 방송 신호를 수신하는데, 특히, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 다른 방송 시스템에 적합하도록 구성될 수도 있다.The broadcast receiving module 111 receives broadcast signals using various broadcasting systems, and in particular, digital multimedia broadcasting-terrestrial (DMB-T), digital multimedia broadcasting-satellite (DMB-S), and media forward link (MediaFLO). Digital broadcast signals can be received using digital broadcasting systems such as only), digital video broadcast-handheld (DVB-H), integrated services digital broadcast-terrestrial (ISDB-T), and the like. Of course, the broadcast receiving module 111 may be adapted to other broadcasting systems that provide broadcast signals as well as the digital broadcasting system described above.

방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리부(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory unit 160.

이동 통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module 112 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈(113)은 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet module 113 refers to a module for wireless Internet access, and the wireless Internet module 113 can be embedded in the mobile terminal 100 or externally. Wireless Internet technologies may include Wireless LAN (Wi-Fi), Wireless Broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), and the like.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short range communication module 114 refers to a module for short range communication. As a short range communication technology, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, etc. may be used.

위치 정보 모듈(115)은 이동 단말기의 위치를 확인하거나 얻기 위한 모듈이다. 상기 위치정보 모듈의 대표적인 예로는 GPS(Global Position System) 모듈이 있다. 현재 기술에 의하면, 상기 GPS모듈(115)은, 일 지점(개체)이 3개 이상의 위성으로부터 떨어진 거리에 관한 정보와, 상기 거리 정보가 측정된 시간에 관한 정보를 산출한 다음 상기 산출된 거리 정보에 삼각법을 적용함으로써, 일 시간에 일 지점에 대한 위도, 경도, 및 고도에 따른 3차원의 위치 정보를 산출할 수 있다. 나 아가, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법 또한 사용되고 있다. GPS 모듈(115)은 현 위치를 실시간으로 계속 산출하고 이를 이용하여 속도 정보를 산출하기도 한다. The location information module 115 is a module for checking or obtaining the location of the mobile terminal. A representative example of the location information module is a GPS (Global Position System) module. According to the current technology, the GPS module 115 calculates information about a distance of one point (object) away from three or more satellites, and information on a time at which the distance information is measured, and then calculates the calculated distance information. By applying the trigonometric method to, three-dimensional positional information according to latitude, longitude, and altitude of one point at a time can be calculated. Furthermore, a method of calculating position and time information using three satellites and correcting the error of the calculated position and time information using another satellite is also used. The GPS module 115 continuously calculates the current position in real time and uses the same to calculate speed information.

A/V(Audio/Video)부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이 모듈(151)에 표시될 수 있다.The A / V unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. The camera 121 processes image frames such as still images or moving images obtained by the image sensor in the video call mode or the photographing mode. The processed image frame can be displayed on the display module 151. [

카메라(121)에서 처리된 화상 프레임은 메모리부(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory unit 160 or transmitted to the outside through the wireless communication unit 110. The camera 121 may be equipped with two or more cameras according to the configuration of the terminal.

마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동 통신 모듈(112)을 통하여 이동 통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, etc., and processes the external sound signal into electrical voice data. The processed voice data may be converted into a form transmittable to the mobile communication base station through the mobile communication module 112 and output in the call mode. The microphone 122 may implement various noise removing algorithms for removing noise generated in the process of receiving an external sound signal.

입력부(130)는 사용자로부터 각종 명령을 입력받기 위한 사용자 인터페이스(user interface)로서, 그 구현 방식에는 특별한 제한이 없다. 예를 들어, 입력 부(130)는, 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구현될 수 있다.The input unit 130 is a user interface for receiving various commands from a user, and the implementation thereof is not particularly limited. For example, the input unit 130 may be implemented as a key pad, a dome switch, a touch pad (constant voltage / capacitance), a jog wheel, a jog switch, and the like.

입력부(130)는, 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력받기 위한 복수의 조작 유닛들(도 2의 131,132 참조)을 포함할 수 있다. 상기 조작 유닛들은 사용자가 촉각 적인 느낌을 가지면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. 상기 조작 유닛들(131, 132)에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 제1 조작 유닛(131)은 시작, 종료, 스크롤 등과 같은 명령을 입력받고, 제2 조작 유닛(132)은 리시버에서 출력되는 음향의 크기 조절 또는 디스플레이 모듈(151)의 터치 인식 모드로의 전환 등과 같은 명령을 입력받을 수 있다.The input unit 130 may include a plurality of operation units (see 131 and 132 of FIG. 2) for receiving a command for controlling an operation of the mobile terminal 100. The manipulation units may be employed in any manner as long as the user is in a tactile manner to operate while having a tactile feeling. The contents input by the manipulation units 131 and 132 may be variously set. For example, the first manipulation unit 131 receives a command such as start, end, scroll, and the like, and the second manipulation unit 132 adjusts the volume of sound output from the receiver or the touch recognition mode of the display module 151. It may receive a command such as switching to.

또한, 최근에는 공간 활용성의 증대, 디스플레이 화면의 확대 요구, 디자인적 고려에 의해 터치 스크린 방식이 다수 채용되고 있는 바, 이러한 경우에는 입력부(130)가 이동 단말기(100)의 디스플레이 화면의 전면(全面)에 위치할 수도 있다.In addition, in recent years, a large number of touch screen systems have been adopted due to an increase in space utilization, an enlargement of display screens, and design considerations. It can also be located at).

센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등과 관련된 센싱 기능을 담당할 수도 있다.The sensing unit 140 detects a current state of the mobile terminal 100 such as an open / closed state of the mobile terminal 100, a location of the mobile terminal 100, presence or absence of a user contact, orientation of the mobile terminal, acceleration / deceleration of the mobile terminal, and the like. To generate a sensing signal for controlling the operation of the mobile terminal 100. For example, when the mobile terminal 100 is in the form of a slide phone, it may sense whether the slide phone is opened or closed. In addition, it may be responsible for sensing functions related to whether the power supply unit 190 is supplied with power, whether the interface unit 170 is coupled to an external device, and the like.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이 모듈(151), 음향 출력 모듈(152), 알람부(153), 햅틱 모듈(154) 등이 포함될 수 있다.The output unit 150 is used to generate an output related to visual, auditory, or tactile, and may include a display module 151, a sound output module 152, an alarm unit 153, a haptic module 154, and the like. have.

디스플레이 모듈(151)은 이동 단말기(100)에서 처리되는 정보를 표시 출력한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.The display module 151 displays and outputs information processed by the mobile terminal 100. For example, when the mobile terminal is in a call mode, the mobile terminal displays a user interface (UI) or a graphic user interface (GUI) related to the call. When the mobile terminal 100 is in a video call mode or a photographing mode, the mobile terminal 100 displays photographed and / or received images, a UI, and a GUI.

디스플레이 모듈(151)은 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 등으로 구현될 수 있다. The display module 151 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, or a three-dimensional display. 3D display).

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 투명 LCD 등이 있다. 디스플레이 모듈(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이 모듈(151)이 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays can be configured to be transparent or light transmissive so that they can be seen from the outside. This may be referred to as a transparent display. A representative example of the transparent display is a transparent LCD. The rear structure of the display module 151 may also be of a light transmission type. With this structure, the user can see the object located behind the terminal body through the area occupied by the display module 151 of the terminal body.

이동 단말기(100)의 구현 형태에 따라 디스플레이 모듈(151)은 2개 이상 존재할 수 있다. 예를 들어, 이동 단말기(100)에는 복수의 디스플레이들이 하나의 면 에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. According to an implementation form of the mobile terminal 100, two or more display modules 151 may exist. For example, a plurality of displays may be spaced apart or integrally disposed on one surface of the mobile terminal 100, or may be disposed on different surfaces, respectively.

또한, 디스플레이 모듈(151)과 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 약칭함)에, 디스플레이 모듈(151)은 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.In addition, when the display module 151 and a sensor for detecting a touch operation (hereinafter, referred to as a “touch sensor”) form a mutual layer structure (hereinafter, abbreviated as “touch screen”), the display module 151 may be In addition to the output device can also be used as an input device. The touch sensor may have, for example, a form of a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이 모듈(151)의 특정 부위에 가해진 압력 또는 디스플레이 모듈(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력, 방향성까지도 검출할 수 있도록 구성될 수 있다.The touch sensor may be configured to convert a change in pressure applied to a specific portion of the display module 151 or capacitance generated at a specific portion of the display module 151 into an electrical input signal. The touch sensor may be configured to detect not only the position and area of the touch but also the pressure and directionality of the touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기(미도시)로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이 화면의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to a touch controller (not shown). The touch controller processes the signal (s) and then transmits the corresponding data to the controller 180. As a result, the controller 180 can determine which area of the display screen is touched.

이때, 상기 터치 스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(미도시)가 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선 등을 이용하여 물리적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. In this case, a proximity sensor (not shown) may be disposed in the inner region of the mobile terminal covered by the touch screen or near the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using physical contact by using an electromagnetic force or infrared rays. Proximity sensors have a longer life and higher utilization than touch sensors.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서 등이 있다.Examples of the proximity sensor include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, and a magnetic proximity sensor.

상기 터치 스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.When the touch screen is capacitive, the touch screen is configured to detect the proximity of the pointer by a change in an electric field according to the proximity of the pointer. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치 스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치 스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치 스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치 스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, an act of allowing the pointer to be recognized without being in contact with the touch screen so that the pointer is located on the touch screen is referred to as a "proximity touch", and the touch The act of actually touching the pointer on the screen is called "contact touch." The position at which the proximity touch is performed by the pointer on the touch screen means a position where the pointer is perpendicular to the touch screen when the pointer is in proximity proximity.

상기 근접 센서는, 근접 터치 및 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린 상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (eg, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state). Information corresponding to the sensed proximity touch operation and proximity touch pattern may be output on the touch screen.

음향 출력 모듈(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리부(160)에 저장된 오디오 데이터를 출력할 수 있다. 또한, 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련 된 음향 신호를 출력할 수 있다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output module 152 may output audio data received from the wireless communication unit 110 or stored in the memory unit 160 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. In addition, the sound output module 152 may output a sound signal related to a function (for example, a call signal reception sound, a message reception sound, etc.) performed in the mobile terminal 100. The sound output module 152 may include a receiver, a speaker, a buzzer, and the like.

알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 비디오 신호나 오디오 신호는 디스플레이 모듈(151)이나 음성 출력 모듈(152)을 통해서도 출력될 수 있다.The alarm unit 153 outputs a signal for notifying occurrence of an event of the mobile terminal 100. Examples of events occurring in the mobile terminal include call signal reception, message reception, key signal input, and touch input. The alarm unit 153 may output a signal for notifying occurrence of an event in a form other than a video signal or an audio signal, for example, vibration. The video signal or audio signal may also be output through the display module 151 or the audio output module 152.

햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. The haptic module 154 generates various tactile effects that the user can feel. Vibration is a representative example of the haptic effect generated by the haptic module 154. The intensity and pattern of vibration generated by the haptic module 154 can be controlled. For example, different vibrations may be synthesized and output or may be sequentially output.

햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열에 의한 자극에 의한 효과, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력을 통한 자극에 의한 효과, 피부 표면을 스치는 자극에 의한 효과, 전극(eletrode)의 접촉을 통한 자극에 의한 효과, 정전기력을 이용한 자극에 의한 효과, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. In addition to the vibration, the haptic module 154 may be used for the effects of stimulation by the arrangement of pins vertically moving with respect to the contact skin surface, the effect of the injection force of the air through the injection or inlet or the stimulation through the suction force, and the stimulation that rubs the skin surface. Various tactile effects may be generated, such as effects by stimulation through contact of electrodes, effects by stimulation using electrostatic force, and effects of reproducing a sense of warmth and heat using an endothermic or heat generating element.

햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과를 전달할 수 있을 뿐만 아니라, 사용자의 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 이동 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 154 may not only deliver a haptic effect through direct contact, but also implement a haptic effect through a muscle sense of a user's finger or arm. Two or more haptic modules 154 may be provided according to configuration aspects of the mobile terminal 100.

메모리부(160)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 저장할 수도 있다. 상기 메모리부(160)는 상기 터치 스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory unit 160 may store a program for the operation of the controller 180 and may store input / output data (eg, a phone book, a message, a still image, a video, etc.). The memory unit 160 may store data regarding vibration and sound of various patterns output when a touch input on the touch screen is performed.

메모리부(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리부(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory unit 160 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), Random Access Memory (RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM) Magnetic Memory, Magnetic It may include a storage medium of at least one type of disk, optical disk. The mobile terminal 100 may operate in association with a web storage that performs a storage function of the memory unit 160 on the Internet.

인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달하거나 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 할 수 있다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다(도 2의 참조번호 171 참조).The interface unit 170 serves as a path with all external devices connected to the mobile terminal 100. The interface unit 170 may receive data from an external device or receive power to transfer the data to each component inside the mobile terminal 100 or to transmit the data inside the mobile terminal 100 to an external device. For example, wired / wireless headset ports, external charger ports, wired / wireless data ports, memory card ports, ports for connecting devices with identification modules, audio input / output (I / O) ports, The video I / O port, the earphone port, and the like may be included in the interface unit 170 (see reference numeral 171 of FIG. 2).

상기 식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다. The identification module is a chip that stores various types of information for authenticating the use authority of the mobile terminal 100, and includes a user identification module (UIM), a subscriber identify module (SIM), and a universal user authentication module. (Universal Subscriber Identity Module, USIM) and the like. Devices with identification modules (hereinafter referred to as "identification devices") can be manufactured in a smart card format. Accordingly, the identification device can be connected to the terminal 100 through the port.

인터페이스부(170)는 이동단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.When the mobile terminal 100 is connected to an external cradle, the interface unit 170 serves as a passage through which power from the cradle is supplied to the mobile terminal 100, or various command signals input from the cradle by a user. May be a passage that is delivered to the mobile terminal. Various command signals or power input from the cradle may be operated as signals for recognizing that the mobile terminal is correctly mounted on the cradle.

제어부(180)는 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The controller 180 typically controls the overall operation of the mobile terminal 100. For example, perform related control and processing for voice calls, data communications, video calls, and the like. The controller 180 may include a multimedia module 181 for playing multimedia. The multimedia module 181 may be implemented in the controller 180 or may be implemented separately from the controller 180.

상기 제어부(180)는 상기 터치 스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수도 있다.The controller 180 may perform a pattern recognition process for recognizing a writing input or a drawing input performed on the touch screen as text and an image, respectively.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives an external power source and an internal power source under the control of the controller 180 to supply power for operation of each component.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Various embodiments described herein may be implemented in a recording medium readable by a computer or similar device using, for example, software, hardware or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어부(180)에 의해 구현될 수 있다.According to a hardware implementation, embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and the like. It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing the functions. It may be implemented by the controller 180.

소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 메모리부(160)에 저장되고, 제 어부(180)에 의해 실행될 수 있다.In a software implementation, embodiments such as procedures or functions may be implemented with separate software modules that allow at least one function or operation to be performed. The software code may be implemented by a software application written in a suitable programming language. In addition, the software code may be stored in the memory unit 160 and executed by the control unit 180.

도 3은 본 발명의 일 실시예와 관련된 이동 단말기의 일 작동 상태를 설명하기 위한 단말기의 정면도이다.3 is a front view of a terminal for explaining an operation state of a mobile terminal according to an embodiment of the present invention.

디스플레이 모듈(151)에는 다양한 종류의 시각 정보들이 표시될 수 있다. 이들 정보들은 문자, 숫자, 기호, 그래픽, 또는 아이콘 등의 형태로 표시될 수 있다. 이러한 정보의 입력을 위하여 상기 문자, 숫자, 기호, 그래픽 또는 아이콘 들 중 적어도 하나는 일정한 배열을 이루어 표시됨으로써 키패드의 형태로 구현될 수 있다. 이러한 키패드는 소위 '소프트키'라 불릴 수 있다. 도 3은 단말기 바디의 전면을 통해 소프트키에 가해진 터치를 입력받는 것을 나타내고 있다. Various types of visual information may be displayed on the display module 151. These pieces of information can be displayed in the form of letters, numbers, symbols, graphics, or icons. At least one of the letters, numbers, symbols, graphics, or icons may be displayed in a predetermined arrangement for inputting such information, thereby being implemented as a keypad. Such a keypad may be called a so-called " soft key ". 3 illustrates receiving a touch applied to a softkey through the front of the terminal body.

디스플레이 모듈(151)은 전체 영역으로 작동되거나, 복수의 영역들로 나뉘어져 작동될 수 있다. 후자의 경우, 상기 복수의 영역들은 서로 연관되게 작동되도록 구성될 수 있다. 예를 들어, 디스플레이 모듈(151)의 상부와 하부에는 출력창(151a)과 입력창(151b)이 각각 표시된다. 입력창(151b)에는 전화 번호 등의 입력을 위한 숫자가 표시된 소프트키(151c)가 출력된다. 소프트키(151c)가 터치되면, 터치된 소프트키에 대응되는 숫자 등이 출력창(151a)에 표시된다.The display module 151 may operate in an entire area or may be divided into a plurality of areas. In the latter case, the plurality of areas can be configured to operate in association with each other. For example, an output window 151a and an input window 151b are displayed on the upper and lower portions of the display module 151, respectively. In the input window 151b, a soft key 151c displaying a number for inputting a telephone number or the like is output. When the softkey 151c is touched, a number or the like corresponding to the touched softkey is displayed on the output window 151a.

도 3에서는, 출력창(151a)과 입력창(151b)이 디스플레이 화면의 서로 다른 영역에 분리 위치하는 경우를 도시하고 있지만, 이는 일 예에 불과함은 물론이다. 출력창(151a) 및 입력창(151b)의 구분 없이, 디스플레이 모듈(151)에 의해 표시되는 디스플레이 화면의 전 영역(全 領域)이 정보 표시를 위한 상기 출력창의 역할과 정보 입력을 위한 상기 입력창의 역할을 동시에 수행할 수도 있음은 자명하다. 이하 위와 같이 가정하고, 디스플레이 모듈(151)에 의해 표시되는 디스플레이 화면에 도 3의 출력창(151a)에서와 동일한 참조번호를 부여하기로 한다.In FIG. 3, the output window 151a and the input window 151b are separated from each other in different areas of the display screen, but this is merely an example. Without distinction between the output window 151a and the input window 151b, the entire area of the display screen displayed by the display module 151 serves as the output window for information display and the input window for information input. Obviously, you can play a role at the same time. Assuming the following, the same reference numerals as in the output window 151a of FIG. 3 will be given to the display screen displayed by the display module 151.

이하 본 발명의 실시예에 따른 이동 단말기 및 그 이동 단말기에서의 정보 제공 방법에 대하여 상세히 설명한다.Hereinafter, a mobile terminal and an information providing method in the mobile terminal according to an embodiment of the present invention will be described in detail.

이하에서는 이동 단말기에서의 정보 제공 방법에 관한 실시예들를 중심으로 본 발명을 설명하게 될 것이다. 또한 이러한 실시예들은 각각 도 4 및 도 19를 통해 도시된 순서도에 의해 구체화될 것이다. 따라서 이하에서는 위의 2가지 순서도를 중심으로 본 발명을 설명하되, 그 이해를 돕기 위해 도 5 내지 도 18 그리고 도 20 및 도 21을 함께 참조하기로 한다.Hereinafter, the present invention will be described with reference to embodiments related to a method for providing information in a mobile terminal. These embodiments will also be embodied by the flowcharts shown through FIGS. 4 and 19, respectively. Therefore, hereinafter, the present invention will be described based on the above two flowcharts, and for the purpose of understanding the present invention, reference is made to FIGS. 5 to 18 and FIGS. 20 and 21 together.

또한 이하에서는, 발명 내용의 이해 그리고 설명의 편의/집중을 위해, 이동 단말기(100)의 디스플레이 모듈(151)에 의해 표시되는 디스플레이 화면(도 4 이하의 참조번호 151a 참조)의 전면(全面)이 터치 스크린으로 구현되어 있는 것으로 가정하여 본 발명을 설명하기로 한다. 앞서도 설명한 바와 같이, 터치 스크린(touch screen)은 정보 입력 기능과 정보 표시 기능을 모두 수행할 수 있는 장치이다. 상기 정보 입력 기능은 터치 방식으로 이루어질 수 있다. 이에 따라 이하에서도, 특정 명령의 입력, 기능/메뉴 등의 정보 아이템의 선택 등과 같은 사용자로부터의 정보 입력은 상기 터치 스크린 상의 터치 조작(즉, 접촉 터치(contact touch))에 의해 이루어지는 것으로 가정하기로 한다.In addition, in the following, the front of the display screen (refer to reference numeral 151a of FIG. 4 or less) displayed by the display module 151 of the mobile terminal 100 is provided for the convenience of the understanding and explanation of the contents of the invention. The present invention will be described on the assumption that it is implemented as a touch screen. As described above, the touch screen is a device capable of performing both an information input function and an information display function. The information input function may be performed by a touch method. Accordingly, hereinafter, it is assumed that information input from a user, such as input of a specific command, selection of an information item such as a function / menu, etc., is made by a touch operation on the touch screen (i.e., a contact touch). do.

다만, 상기와 같은 가정(假定)들은 발명 내용의 이해의 용이, 설명의 편의/집중을 위함에 불과하며, 본 발명의 권리범위를 한정하기 위한 것이 아님은 명백하다 할 것이다. 예를 들어, 상기 정보 입력 기능은, 터치 스크린 상에서의 터치 조작 이외에도, 업다운 키, 방향 키, 선택 키 등을 이용한 키 패드의 조작, 터치 패드 상에서의 필기 입력 조작, 음성 인식을 통한 명령 입력, 근접 센서 등을 이용한 근접 터치(proximity touch), 모션 센서 등을 이용한 단말기 움직임의 인식 등에 의해 이루어질 수도 있음은 물론이다.However, the above assumptions are only for ease of understanding of the contents of the present invention and for convenience / concentration of the description, and are not intended to limit the scope of the present invention. For example, the information input function may be operated in addition to a touch operation on a touch screen, operation of a keypad using up-down keys, direction keys, selection keys, etc., handwriting input operation on a touch pad, command input through voice recognition, and proximity. Proximity touch using a sensor or the like, it may be made by the recognition of the movement of the terminal using a motion sensor or the like.

이하, 도 4 내지 도 21을 차례로 설명한다.Hereinafter, FIGS. 4 to 21 will be described in sequence.

도 4는 본 발명의 일 실시예에 따른 이동 단말기에서의 정보 제공 방법을 나타낸 순서도이다. 도 4의 순서도를 설명함에 있어서 도 5 내지 도 18을 함께 참조한다.4 is a flowchart illustrating a method of providing information in a mobile terminal according to an embodiment of the present invention. In describing the flowchart of FIG. 4, reference is made to FIGS. 5 to 18 together.

도 4의 순서도에 따르면, 먼저, 단말기의 디스플레이 화면에 사람 얼굴이 포함된 이미지가 표시된다[S410].According to the flowchart of FIG. 4, first, an image including a human face is displayed on a display screen of a terminal [S410].

이하, 설명의 편의를 위해, "사람 얼굴이 포함된 이미지"를 "인물 이미지"라 간략히 명명하기로 한다. 따라서, 본 명세서에서 "인물 이미지"란 이미지 내에 적어도 1인의 얼굴이 포함되어 있으면 족하며, 그 인물이 주요 촬영 대상인지 여부는 불문한다.Hereinafter, for convenience of description, an "image including a human face" will be briefly referred to as a "portrait image". Therefore, in the present specification, a "person image" is sufficient if at least one face is included in the image, regardless of whether the person is a main photographing target.

단말기의 동작 과정에서, 예를 들어 도 5의 (a)에서와 같이, 그 디스플레이 화면(151a)에 인물 이미지(10)가 표시되는 경우는 다양하게 존재할 수 있다.In the operation process of the terminal, for example, as shown in FIG. 5A, when the person image 10 is displayed on the display screen 151a, there may be various cases.

인물 이미지가 디스플레이 화면에 표시되는 경우는, 예를 들어, 사용자가 단말기에 기저장된 인물 이미지를 불러옴으로써 표시되는 것일 수도 있고, 단말기에 구비된 카메라를 이용한 실제 촬상 과정에서 얻어진 인물 이미지가 표시되는 것일 수도 있다. 물론, 상기 촬상 과정에서 얻어진 인물 이미지는 프리뷰 상태(preview state)의 이미지일 수도 있다. 또는 상기 인물 이미지는, 영상 통화 과정에서 수신되는 이미지거나, 재생 중인 동영상 내에 포함된 이미지 또는 캡쳐된 이미지일 수도 있을 것이다.When the person image is displayed on the display screen, for example, the user may be displayed by loading a person image pre-stored in the terminal, or the person image obtained in the actual imaging process using the camera provided in the terminal is displayed. It may be. Of course, the person image obtained in the imaging process may be an image of a preview state. Alternatively, the person image may be an image received during a video call, an image included in a video being played, or a captured image.

상기와 같이 디스플레이 화면에 인물 이미지가 표시된 상태에서, 얼굴 영역(도 5의 (b)의 참조번호 11 참조)을 선택한다[S420]. 여기서, 얼굴 영역의 선택은 도 5의 (b)에서와 같이 사용자에 의한 터치 스크린 상에서의 터치 조작에 의할 수 있다. 예를 들어, 도 5의 (b)를 참조하면, 사용자는 디스플레이 화면(151a)에 표시된 인물 이미지(10)에서 얼굴 부분(참조번호 11 참조)을 사각형 궤적을 갖도록 드로잉(drawing)함으로써, 얼굴 영역을 선택하고 있다.In the state where the person image is displayed on the display screen as described above, the face area (see reference numeral 11 of FIG. 5B) is selected [S420]. Here, the selection of the face area may be based on a touch manipulation by the user on the touch screen as shown in (b) of FIG. 5. For example, referring to FIG. 5B, the user draws a face portion (see reference numeral 11) in the person image 10 displayed on the display screen 151a so as to have a rectangular trajectory, thereby making a face region. Is selecting.

앞선 단계(S420)를 통해 얼굴 영역이 선택되면, 제어부(180)는 디스플레이 화면에 표시된 인물 이미지에서 얼굴 영역을 추출한다[S430].When the face region is selected through the previous step (S420), the controller 180 extracts the face region from the person image displayed on the display screen [S430].

이때, 본 단계(S430)을 통해 "추출되는 얼굴 영역"(예를 들어, 도 5의 (c)의 참조번호 11a 참조)은, 이전 단계(S420)를 통해 "선택된 얼굴 영역"(다시 말해 서, 사용자의 터치 조작에 의한 궤적에 상응하는 얼굴 영역)(예를 들어, 도 5의 (b)의 참조번호 11 참조)과 반드시 일치하지 않아도 무방하다. 얼굴 영역의 추출 방법에는 다음과 같은 경우가 존재할 수 있다.At this time, the "face area extracted" through the present step (S430) (for example, reference numeral 11a of FIG. 5C) refers to the "selected face area" (in other words, through the previous step S420). , A face region corresponding to the trajectory of the user's touch manipulation (see, for example, reference numeral 11 in FIG. 5B) may not necessarily match. The following cases may exist in the extraction method of the facial region.

첫째로, 이전 단계(S420)를 통해 "선택된 얼굴 영역" 그대로를 상기 인물 이미지에서 추출해내는 방법이 이용될 수 있다. 이러한 경우, 제어부(180)는, 상기 인물 이미지에서 사용자의 터치 궤적에 상응하는 부분을 추출해내기만 하면 된다. 따라서, 이러한 경우에는 "추출된 얼굴 영역"이 "선택된 얼굴 영역"과 동일한 규격(테두리 모양 및 면적 등)을 가질 수 있다.First, a method of extracting the "selected face area" as it is from the person image through the previous step (S420) may be used. In this case, the controller 180 only needs to extract a portion corresponding to the user's touch trajectory from the person image. Therefore, in this case, the "extracted face area" may have the same specifications (border shape and area, etc.) as the "selected face area".

위와 같은 경우, 이전 단계(S420)에서의 "얼굴 영역의 선택"(즉, 도 5의 (b)의 참조번호 11과 관련된 터치 조작)은, 얼굴 영역의 추출을 명령하는 제어 신호(이하, "얼굴 추출 신호"라 명명함)로서의 기능은 물론, 상기 얼굴 추출 신호에 의해 추출될 이미지 영역을 선택/지정하는 제어 신호(이하, "추출 영역 지정 신호"라 명명함)로서의 기능도 수행하게 된다.In the above case, the "selection of the face area" (that is, the touch operation associated with reference numeral 11 of FIG. 5B) in the previous step S420 is a control signal (hereinafter, " A function as a face extraction signal ", as well as a control signal for selecting / designating an image area to be extracted by the face extraction signal (hereinafter, referred to as an" extraction area designation signal ") is performed.

둘째로, "선택된 얼굴 영역"과 상관 없이 미리 지정된 규격(예를 들어, 미리 지정된 테두리 모양, 사이즈, 면적, 해상도 등)을 갖는 얼굴 영역의 이미지를 추출해내는 방법이 이용될 수 있다. 예를 들어, 도 5의 (b)에서와 같은 터치 조작이 있는 경우, 그 터치 궤적에 따른 폐곡선 영역의 본래의 테두리 모양, 사이즈 등과 상관 없이, 미리 지정된 규격(예를 들어, 가로/세로 비율이 1 : 1.2인 직사각형 테두리를 갖고, 썸네일 이미지(thumbnail image)에서와 동일한 해상도(resolution)를 갖도록 미리 지정됨)을 갖는 얼굴 영역의 이미지를 추출하는 것이 바로 그것이 다.Secondly, a method of extracting an image of a face region having a predetermined specification (eg, a predetermined border shape, size, area, resolution, etc.) regardless of the "selected face region" may be used. For example, if there is a touch operation as shown in (b) of FIG. 5, regardless of the original border shape, size, etc. of the closed curve area according to the touch trajectory, a predetermined specification (for example, the aspect ratio That is to extract an image of the face area having a rectangular border of 1: 1.2 and having a predetermined resolution as in the thumbnail image.

여기서, 상기 미리 지정된 규격은, 고정된 단 하나의 규격일 수도 있지만, 대상 이미지의 스케일, 해상도 등을 고려하여 대상 이미지마다 적용될 축적, 비율, 해상도 등을 달리하는 복수의 또는 가변의 규격일 수도 있다. 또한 여기서, 제어부(180)에 의해 추출되는 "얼굴 영역"은, 해당 인물의 "얼굴" 에 해당하는 이미지 부분만을 의미하는 것일 수도 있지만, 해당 인물의 "얼굴"을 포함하는 적절한 이미지(예를 들어, 증명 사진 또는 여권 사진을 찍었을 때와 같은 얼굴 이미지 등)일 수도 있음은 물론이다.Here, the predetermined standard may be a fixed standard, but may be a plurality of or variable standards that vary the accumulation, ratio, resolution, etc. to be applied to each target image in consideration of the scale, resolution, etc. of the target image. . In addition, although the "face area" extracted by the controller 180 may mean only an image part corresponding to the "face" of the person, an appropriate image including the "face" of the person (for example, , Facial images, such as when you take proof photos or passport photos.

위와 같은 경우, 이전 단계(S420)에서의 "얼굴 영역의 선택"(즉, 도 5의 (b)의 참조번호 11과 관련된 터치 조작)은, 전술한 얼굴 추출 신호로서의 기능만을 가지게 될 것이다.In the above case, the "selection of the face area" (that is, the touch operation associated with reference numeral 11 of FIG. 5B) in the previous step S420 will have only the function as the aforementioned face extraction signal.

따라서, 위의 첫 번째 경우와 달리, 상기 추출될 얼굴 영역이 사용자에 의해 직접 지정되는 것이 아니므로, 이와 같은 경우에는, 제어부(180)가 상기 인물 이미지에서 상기 미리 지정된 규격에 따라 추출해야 할 얼굴 영역을 검출하는 과정이 필요할 수 있다. 이러한 얼굴 영역의 검출(detection)은, 컬러 이미지에서 얼굴색 혹은 피부색(skin color)에 상응하는 영역을 검출해내는 방식, 얼굴의 특징점들(예를 들어, 눈, 코, 입, 눈썹 등 또는 두 눈과 코를 잇는 역삼각형의 특징 라인 등)을 찾아냄으로써 얼굴 영역을 검출해내는 방식 등이 이용될 수 있다. 이는 영상 처리에 기초한 얼굴 검출/인식 분야의 공지의 기술에 해당하는 바, 이에 대한 상세한 설명은 생략하기로 한다.Therefore, unlike the first case above, since the face area to be extracted is not directly designated by the user, in this case, the face to be extracted by the controller 180 according to the predetermined standard from the person image The process of detecting the area may be necessary. Detection of such a face region may include detecting a region corresponding to a face color or skin color in a color image, facial features (for example, eyes, nose, mouth, eyebrows, or two eyes). By detecting a feature line of the inverted triangle connecting the nose and the like, a method of detecting a face region may be used. This corresponds to a known technique in the field of face detection / recognition based on image processing, and a detailed description thereof will be omitted.

또한, 앞서 설명한 "얼굴 영역의 추출 방법" 중 두 번째 방법(즉, 얼굴 추출 신호에 따라 "얼굴 영역"을 제어부(180)가 자동 검출 및 추출함)을 보다 확장시키는 경우, 단계 S420은 도 4의 순서도에서 생략될 수도 있다.In addition, when the second method (that is, the controller 180 automatically detects and extracts the “face area” according to the face extraction signal) is further expanded, the step S420 is illustrated in FIG. 4. It may be omitted from the flowchart of.

즉, 앞서 설명한 단계 S420의 경우, 인물 이미지에서 얼굴 영역에 해당하는 이미지 부분을 사용자가 직접 선택하는 것과 같이 예시하고 있지만, 반드시 이와 같을 필요가 없는 것이다. 특정 키 버튼을 누름, 특정 음성의 입력, 단말기 자체의 특정 움직임/모션 발생 또는 터치 스크린 상에서의 특정 터치 패턴/제스처의 입력이 상기 얼굴 추출 신호로서 미리 정의되어 있는 경우에는, 상기 단계 S420과 같은 "얼굴 영역의 선택" 과정은 불필요할 수 있다. 예를 들어, 도 5의 (a)와 같이 인물 이미지가 표시된 상태에서, "원(circle)"을 "3바퀴 연속"하여 그리는 것과 같은 터치 스크린 상에서의 터치 패턴/제스처의 입력이 존재하는 경우, 제어부(180)는 이를 상기 얼굴 추출 신호로서 인식하고 상기 인물 이미지에서 얼굴 영역을 자동으로 검출 및 추출해내는 것이 바로 그것이다.That is, in the case of step S420 described above, the image portion corresponding to the face area is illustrated as the user directly selects the person image, but this is not necessarily the case. When pressing a specific key button, input of a specific voice, generation of a specific movement / motion of the terminal itself, or input of a specific touch pattern / gesture on the touch screen are predefined as the face extracting signal, the same procedure as in step S420 is performed. "Selection of face area" process may be unnecessary. For example, when there is an input of a touch pattern / gesture on a touch screen such as drawing a "circle" three times in a row with a person image displayed as shown in FIG. The controller 180 recognizes this as the face extraction signal and automatically detects and extracts a face region from the person image.

전술한 바와 같이, 실시예에 따라 상기 단계 S420은 생략 가능하나, 하나의 이미지 내에 여러 명의 인물이 존재하는 단체 사진 등의 경우에는 상기 단계 S420이 존재하는 것이 보다 매끄러운 방법일 수 있다. 예를 들어, 단체 사진의 경우, 복수의 인물들 중 1인을 사용자로부터 선택(이때, 선택은 반드시 "얼굴 영역의 선택"일 필요는 없고, 선택하고자 하는 인물이 표시/위치한 영역의 선택이어도 무방함)받는 단계를 거치는 것이 보다 명확한 방법일 수 있기 때문이다.As described above, according to an embodiment, the step S420 may be omitted. However, in the case of a group picture in which several persons exist in one image, the step S420 may be smoother. For example, in the case of a group photo, one of the plurality of people is selected from the user (in this case, the selection is not necessarily "selection of the face area", and may be a selection of the area where the person to be selected is displayed / located. It may be a clearer way to go through the receiving step.

상기 단계 S430을 통해서 해당 인물의 얼굴 영역이 추출되면, 제어부(180)는 그 추출된 얼굴 영역과 유사성을 갖는 후보 인물의 이미지를 디스플레이 화면 상에 표시한다[S440]. 이를 위해, 제어부(180)는, 상기 추출된 얼굴 영역과 단말기에 기저장되어 있는 인물 이미지들 간의 얼굴 대조 과정을 수행할 수 있다.When the face region of the person is extracted through the step S430, the controller 180 displays an image of the candidate person having similarity with the extracted face area on the display screen [S440]. To this end, the controller 180 may perform a face contrast process between the extracted face region and the person images previously stored in the terminal.

이러한 얼굴 대조 과정에는 공지의 얼굴 인식 기술이 이용될 수 있다. 예를 들어, 제어부(180)는 양자의 얼굴 부분만을 각각 동일 규격의 이미지로 표준화시킨 이후, 특징점(눈썹, 눈, 코, 입 등)들의 중심 좌표와 길이 등, 상기 2개 이상의 특징점들 간의 거리와 위치 관계 등, 얼굴 길이와 폭 등, 얼굴의 외곽 라인 등을 비교함으로써 매칭의 정도를 연산해낼 수 있다. 이외에도 다양한 얼굴 인식/대조 기술이 적용될 수 있음은 자명하다 할 것이다.In the face matching process, a known face recognition technique may be used. For example, the controller 180 normalizes only both face parts to the same standard image, and then distances between the two or more feature points, such as center coordinates and lengths of feature points (eyebrows, eyes, nose, mouth, etc.). The degree of matching can be calculated by comparing the outlines of the face such as the length and width of the face with the outline line of the face. It is obvious that various face recognition / contrast techniques can be applied.

상기 얼굴 대조 과정에서 비교 대상이 되는 인물 이미지는, 단말기 내에 저장되어 있는 모든 인물 이미지일 수도 있지만, 상기 얼굴 대조 과정에 이용하기 위해 단말기 내에 미리 선별되어 존재하는 특정의 대조군(對照群)에 한정될 수도 있다.The person image to be compared in the face contrast process may be all the person images stored in the terminal, but may be limited to a specific control group that is selected and present in the terminal for use in the face contrast process. It may be.

예를 들어, 상기 특정의 대조군은, 단말기에 기저장된 인물 이미지 중에서 인물별로 얼굴 대조에 적합한 1개 또는 2개의 대표 인물 이미지(또는 대표 얼굴 이미지)를 포함시킨 이미지 그룹일 수 있다. 이때, 상기 이미지 그룹 내에는 유사한 얼굴들끼리를 한데 모아놓은 복수개의 이미지 소그룹들이 존재할 수도 있다.For example, the specific control may be an image group including one or two representative person images (or representative face images) suitable for face contrast for each person among the person images previously stored in the terminal. In this case, there may be a plurality of image small groups in which similar faces are gathered together in the image group.

또는 상기 특정의 대조군은, 얼굴 대조 과정에 쓰일 몇 가지 비교 팩터(예를 들어, 전술한 상기 특징점들의 좌표, 위치 관계 등)들을 기준으로 할 때, 유사 한 얼굴로 판단되는 이미지들을 한데 모아놓은 이미지 그룹일 수 있다. 예를 들어, 얼굴 길이 대비 폭의 비율이 0.4 ~ 0.55인 제1 그룹, 0.55 ~ 0.65인 제2 그룹, 0.65 ~ 0.75인 제3 그룹, 0.75 ~ 0.9인 제4 그룹, 0.9 이상인 제5 그룹으로 나누고, 그 그룹별로 해당 그룹에 속하는 인물의 대표 이미지를 포함시켜 미리 분류해두는 것이 바로 그것이다.Alternatively, the specific control group is a collection of images determined to be similar faces, based on some comparison factors (eg, the coordinates of the feature points, the positional relationship, etc.) used for the face contrast process. It may be a group. For example, the ratio of the width to the face length is divided into a first group of 0.4 to 0.55, a second group of 0.55 to 0.65, a third group of 0.65 to 0.75, a fourth group of 0.75 to 0.9, and a fifth group of 0.9 or more. In other words, the group includes a representative image of a person belonging to the group and classifies it in advance.

위와 같은 방법(즉, 특정 대조군을 이용하는 방법)에 의하면, 제어부(180)의 연산량 및 연산 시간이 크게 줄어들 수 있어, 전술한 "얼굴 대조 과정"이 보다 빠르고 손쉽게 이루어질 수 있는 이점이 있다. 예를 들어, 이전 단계(S430)을 통해 추출된 얼굴 영역의 얼굴 길이/폭 비율이 0.69인 경우에는 상기 제3 그룹에 속하므로, 상기 제3 그룹에 속한 인물 이미지(또는 얼굴 이미지)들과만 얼굴 대조를 수행하여 그 결과(즉, 단계 S440의 후보 이미지)를 표시할 수 있다. 또는 구체적 얼굴 대조 과정 없이, 얼굴 길이/폭 비율의 앞선 비교 결과만에 근거하여 도출된 상기 제3 그룹에 속한 인물 이미지들을 바로 본 단계(S440)의 후보 이미지로서 선정/표시할 수도 있을 것이다. 후자의 경우에는 얼굴 인식의 신뢰성은 감소될 것이나, 결과 표시의 속도 측면에서는 매우 우수할 수 있다. 또는, 상기 얼굴 인식의 신뢰성 및 결과 표시의 속도를 모두 고려한 방법으로서, 2 가지 이상의 비교 팩터들을 혼용함으로써 각각의 비교 팩터에 따른 이미지 그룹에 공통적으로 속하는 인물 이미지를 상기 후보 이미지로서 표시하는 방법도 존재할 수 있을 것이다.According to the above method (that is, a method using a specific control group), the amount of calculation and the calculation time of the controller 180 can be greatly reduced, so that the above-described "face matching process" can be made more quickly and easily. For example, if the face length / width ratio of the face area extracted through the previous step S430 is 0.69, the face area / width ratio belongs to the third group, so that only faces with the person images (or face images) belonging to the third group are present. The collation may be performed to display the result (that is, the candidate image of step S440). Alternatively, the person images belonging to the third group, which are derived based only on the result of the comparison of the face length / width ratio, may be selected / displayed as the candidate image in the step S440 without a specific face contrast process. In the latter case, the reliability of face recognition will be reduced, but can be very good in terms of speed of result display. Alternatively, a method of considering both the reliability of the face recognition and the speed of the result display may include a method of displaying a person image commonly belonging to an image group according to each comparison factor as the candidate image by mixing two or more comparison factors. Could be.

상술한 방법들을 통해서, 추출된 얼굴 영역과 유사성을 갖는 것으로 선정된 후보 인물의 이미지는 도 5의 (c)에서와 같이 디스플레이 화면에 표시될 수 있다.Through the above-described methods, the image of the candidate person selected as having similarity to the extracted face region may be displayed on the display screen as shown in FIG.

도 5의 (c)를 참조하면, 단계 S430을 통해 추출해낸 해당 인물의 얼굴 영역에 관한 이미지(이하, 이를 간략히 "얼굴 이미지"라 명명함)(11a)를 디스플레이 화면(151a)의 중앙에 표시하고, 그 얼굴 이미지 주변에 총 6개의 후보 인물의 이미지들(21 ~ 26)이 표시되고 있음을 확인할 수 있다.Referring to FIG. 5C, an image (hereinafter, simply referred to as a “face image”) 11a of the face region of the person extracted through step S430 is displayed at the center of the display screen 151a. In addition, it can be seen that images 21 to 26 of six candidate persons are displayed around the face image.

다만, 도 5의 (c)는 다양한 화면 구성의 예 중 하나에 불과하며, 화면 구성 방식에 특별한 제한이 없음은 자명하다. 예를 들어, 해당 인물의 얼굴 이미지는 도 5의 (c)에서와 달리 디스플레이 화면에 표시되지 않을 수도 있다. 즉, 후보 인물의 이미지만이 디스플레이 화면에 표시될 수도 있다. 또한, 해당 인물의 얼굴 이미지는 디스플레이 화면의 중앙이 아닌 다른 위치에 또는 화면 전면(全面)에 표시되어도 무방하다. 또한, 해당 인물의 얼굴 이미지 대신 본래의 인물 이미지(도 5의 (a)의 참조번호 10 참조) 또는 이의 축소 이미지가 후보 인물의 이미지들과 함께 디스플레이 화면에 표시될 수도 있다.However, FIG. 5C is only one example of various screen configurations, and it is obvious that the screen configuration method is not particularly limited. For example, unlike in FIG. 5C, the face image of the person may not be displayed on the display screen. That is, only an image of the candidate may be displayed on the display screen. In addition, the face image of the person may be displayed at a position other than the center of the display screen or on the entire screen. In addition, instead of the face image of the person, the original person image (see reference numeral 10 of FIG. 5A) or a reduced image thereof may be displayed on the display screen together with the images of the candidate person.

도 5의 (c)의 경우, 후보 인물의 이미지들을 해당 인물의 얼굴 이미지를 중심으로 하여 대략 방사형(放射形)으로 배열시켰지만, 후보 인물의 이미지들을 리스트 업(list up)시키는 방법에도 다양한 변형이 가능함을 물론이다. 예를 들어, 후보 인물의 이미지들을 1열로 리스트 표시하거나 또는 N ХM 배열 형태로 표시할 수도 있다. 또한, 후보 인물의 이미지들을 2차원 배열시키는 것 이외에도 3차원 배열시키는 방법도 가능함은 물론이다.In the case of FIG. 5C, although the images of the candidates are arranged in a substantially radial shape around the face image of the person, various modifications are also possible in the method of listing up the images of the candidates. Of course it is possible. For example, the images of candidate candidates may be displayed in a list or displayed in an N ХM array. In addition to the two-dimensional arrangement of the image of the candidate person, it is a matter of course that the three-dimensional arrangement is also possible.

또한, 후보 인물의 이미지가 표시되는 태양(사이즈, 형태 등)에도 특별한 제한이 없음은 굳이 세세히 설명하지 않더라도 자명하다 할 것이다. 또한, 후보 인 물의 이미지는, 반드시 그 후보 인물의 인물 이미지 또는 얼굴 이미지일 필요는 없으며, 사용자가 특정 이미지를 보고 해당 후보 인물을 자연스레 떠올리거나 인지해낼 수 있는 어떠한 이미지라도 이용될 수 있다. 예를 들어, 사용자가 자신의 연인과 관련시켜 미리 등록시켜 놓은 대체 이미지(하트 이미지, "사랑해"라는 텍스트가 함께 포함된 이미지 등)가 여기에 해당될 수 있다.In addition, there is no particular limitation on the sun (size, shape, etc.) in which the image of the candidate person is displayed. In addition, the image of the candidate is not necessarily a person image or a face image of the candidate person, and any image that the user may naturally see or recognize the candidate person by looking at a specific image may be used. For example, this may correspond to a replacement image (a heart image, an image including the text "I love you", etc.) previously registered by the user in association with his / her lover.

또한, 본 명세서에서는, 그 전반에 걸쳐, 후보 인물의 "이미지"가 표시되는 경우를 중심으로 설명하지만, 후보 인물을 지시할 수 있다면 어떠한 정보라도 표시될 수 있음은 물론이다. 예를 들어, 후보 인물의 이미지 대신, 후보 인물의 성명, 애칭 등이 텍스트로 표시될 수도 있다.In the present specification, the description will be mainly focused on the case where the "image" of the candidate person is displayed, but any information may be displayed if the candidate person can be indicated. For example, the name, nickname, etc. of the candidate person may be displayed in text instead of the image of the candidate person.

또한, 도 5의 (c)에서는, 후보 인물의 이미지를 총 6개 표시하고 있지만, 디스플레이 화면에 표시되는 후보 인물의 이미지는 이보다 많을 수도 적을 수도 있다. 또는, 앞서 설명한 얼굴 대조 과정에서의 이미지 매칭(즉, 얼굴 매칭)의 정확도가 높다면, 경우에 따라 가장 유사한 것으로 판단되는(즉, 동일한 인물일 확률이 가장 높은) 단 1개의 이미지만을 표시할 수도 있다. 이와 같은 경우, 후술할 단계 S450는 사용자에게 그 이미지 매칭의 정확성 여부를 재차 확인받는 일종의 확인 단계로서 기능을 수행하게 될 것이다.In FIG. 5C, six images of the candidate person are displayed, but the number of the candidate person image displayed on the display screen may be more or less than this. Alternatively, if the accuracy of image matching (ie, face matching) in the face matching process described above is high, in some cases, only one image that is determined to be the most similar (ie, most likely to be the same person) may be displayed. have. In this case, step S450 to be described later will perform a function as a kind of confirmation step in which the user again confirms whether the image matching is correct.

더 나아가, 그 이미지 매칭이 아주 정확한 경우(즉, 이미지 매칭 결과, 동일 인물인 것으로 거의 확실한 이미지가 존재하는 경우)라면, 단계 S440 및 단계 S450를 생략하고 후술할 단계 S460으로 바로 진입하는 것도 가능할 수 있다. 즉, 도 4의 순서도에서 단계 S440 및 단계 S450은 얼굴 인식에 오류가 발생할 수 있음 을 고려하여 중간에 삽입시킨 단계들로서, 얼굴 인식이 정확한 경우에는 생략 가능한 단계들이다.Furthermore, if the image matching is very accurate (i.e., if the image matching results in an image that is almost certain to be the same person), it may be possible to skip steps S440 and S450 and go directly to step S460 to be described later. have. That is, in the flowchart of FIG. 4, steps S440 and S450 are inserted in the middle in consideration of an error in face recognition, and may be omitted if face recognition is correct.

이상에서 설명한 바와 같이, 도 5의 (c)의 화면 구성 방식은 일 예에 불과하고 다양한 변형이 있을 수 있다. 다만, 본 명세서에서는, 설명의 편의/집중을 위해, 후보 인물의 이미지를 표시하기 위한 화면 구성(후술할 정보 아이템을 표시하기 위한 화면 구성도 마찬가지임)이 전반적으로 도 5의 (c)에서와 동일 또는 유사한 화면 구성 방식을 갖는 것으로 가정하여, 이하의 도면들(도 6 이하의 도면들 참조)을 도시하고 이를 중심으로 설명하기로 한다.As described above, the screen configuration method of FIG. 5C is merely an example and may be variously modified. However, in the present specification, for convenience of explanation / concentration, a screen configuration for displaying an image of a candidate person (a screen configuration for displaying an information item to be described later) is generally the same as in FIG. 5C. Assuming the same or similar screen configuration, the following drawings (see the drawings of FIG. 6 and the following) will be described and described with reference to the drawings.

이때, 후보 인물의 이미지를 배열 표시하는 방법으로는 다음과 같은 방법들이 이용될 수 있다. 예를 들어, 상기 후보 인물의 이미지는, 상기 추출된 얼굴 이미지와의 이미지 매칭의 정확도 순서에 따라 디스플레이 화면에 나열 표시될 수 있다. 디스플레이 화면 상에서 정확도가 높은 순서대로 위에서 아래로 1열 표시하는 것이 그 예이다. 또는 도 5의 (c)에서와 같이 후보 인물의 이미지를 디스플레이 화면 상에 방사형으로 표시하는 경우에는, 정확도가 높은 순서대로 시계 방향 순으로 표시하는 것이 다른 예이다. 또는 후보 인물의 이미지를 3차원 배열(3 dimensional arrangement) 표시하되, 정확도가 가장 높은 이미지가 최상위 레이어에 최초 위치하고, 터치 조작(예를 들어, 플릭킹(flicking) 또는 스크롤(scroll) 등)에 따라 최상위 레이어에 표시되는 이미지가 바뀌도록 구성하는 것이 또 다른 예일 수 있다.In this case, the following methods may be used as an array display method of the image of the candidate person. For example, the candidate person's image may be displayed on the display screen in order of accuracy of image matching with the extracted face image. An example is displaying one column from top to bottom in the order of high accuracy on the display screen. Alternatively, when the image of the candidate person is radially displayed on the display screen as shown in (c) of FIG. 5, another example is displaying in the order of clockwise order with the highest accuracy. Or display a three-dimensional arrangement of the candidate's image, wherein the image with the highest accuracy is initially located on the top layer, and according to touch manipulation (eg, flicking or scrolling). Another example may be configured to change the image displayed on the top layer.

이 경우, 디스플레이 화면에 표시되는 후보 인물의 이미지 각각에는, 상기 추출된 얼굴 이미지와의 이미지 매칭의 정확도를 나타내는 정보가 함께 표시될 수 도 있다(도 7 참조).In this case, in each image of the candidate person displayed on the display screen, information indicating the accuracy of image matching with the extracted face image may be displayed together (see FIG. 7).

또한 이때, 후보 인물 별로도 상기 추출된 얼굴 이미지와 유사성을 갖는 이미지가 다수 존재하는 경우에는, 후보 인물 별로 단 1개씩의 대표 이미지 만이 디스플레이 화면에 표시될 수 있다. 이에 의할 때, 예를 들어 도 5의 (c) 또는 도 7에서 디스플레이 화면에 표시되는 총 6개의 이미지(21 ~ 26)는 각각 다른 인물에 대한 이미지일 수 있다. 물론, 이미지 매칭의 정확도가 높은 순서대로 총 6개의 이미지가 표시될 수도 있음은 자명하다. 이러한 경우에는, 그 6개의 이미지 중 2개 이상이 동일 인물에 대한 이미지일 수 있을 것이다.In this case, when there are a plurality of images having similarities to the extracted face images for each candidate person, only one representative image for each candidate person may be displayed on the display screen. Accordingly, for example, a total of six images 21 to 26 displayed on the display screen of FIG. 5C or FIG. 7 may be images of different persons. Of course, it is obvious that a total of six images may be displayed in the order of high accuracy of image matching. In this case, two or more of the six images may be images of the same person.

이상에서는, 도 5의 (c) 또는 도 7을 참조하여, 얼굴 이미지(11a)를 중심으로 주변 6개의 영역에 각각 후보 인물의 이미지가 표시되는 화면 구성의 예를 설명하였다.In the above, with reference to FIG. 5C or FIG. 7, an example of a screen configuration in which an image of a candidate person is displayed in six surrounding areas around the face image 11a has been described.

그러나, 경우에 따라서는, 디스플레이 화면에 최초 표시된 후보 인물의 이미지들 중에 해당 인물과 동일한 인물에 관한 이미지가 존재하지 않는 경우(이하, 제1 케이스)가 있을 수 있다. 또는, 해당 인물과 동일한 인물에 관한 이미지가 애초에 단말기에 저장되어 있지 않은 경우(이하, 제2 케이스)도 존재할 수 있다.However, in some cases, there may be a case (hereinafter, the first case) in which there is no image of the same person as the person among the images of the candidate person initially displayed on the display screen. Alternatively, there may be a case in which an image of the same person as the person is not stored in the terminal (hereinafter, the second case).

이러한 경우를 고려하여, 앞서 설명한 단계 S440에서 표시되는 디스플레이 화면은 도 8 또는 도 9와 같이 구성될 수도 있다. 도 8에서 "Others" 아이템(41)은 상기 제1 케이스를 대비한 일 예이고, 도 8 또는 도 9에서 "New image" 아이템(42)은 상기 제2 케이스를 대비한 일 예이다.In consideration of such a case, the display screen displayed in step S440 described above may be configured as shown in FIG. 8 or 9. In FIG. 8, the "Others" item 41 is an example of the first case, and in FIG. 8 or 9, the "New image" item 42 is an example of the second case.

상기 제1 케이스와 관련할 때, 예를 들어, 도 8에서, 사용자가 "Others" 아 이템(41)을 터치 선택하는 경우, 디스플레이 화면(151a)에 최초 표시된 후보 이미지들(21 ~ 24)과는 다른 후보 이미지들이 디스플레이 화면에 새롭게 표시될 수 있다. 또는, 도 9의 (a)에서와 같이, 디스플레이 화면(151a) 중 후보 인물의 이미지가 표시된 영역을 제외한 영역 내의 임의의 일 지점(도 9의 (a)의 예에서는 참조번호 51)을 시작점으로 하여 임의의 타 지점(도 9의 (a)의 예에서는 참조번호 52)이 위치한 방향으로 반원을 그리는 것과 같은 터치 조작을 통해서, 다른 후보 이미지들이 디스플레이 화면에 새롭게 표시될 수 있다. 도 9의 (b)를 참조하면, 위와 같은 터치 조작에 의하여, 디스플레이 화면(151a)에는 도 9의 (a)에서 표시되지 않았던 새로운 후보 이미지들(21, 27 ~ 29 참조)이 표시되고 있음을 확인 가능하다.In relation to the first case, for example, in FIG. 8, when the user touch selects the “Others” item 41, the candidate images 21 to 24 initially displayed on the display screen 151a and Other candidate images may be newly displayed on the display screen. Alternatively, as shown in (a) of FIG. 9, any one point (reference numeral 51 in the example of FIG. 9A) of the display screen 151a except for the region where the image of the candidate person is displayed is used as a starting point. Thus, other candidate images may be newly displayed on the display screen through a touch operation such as drawing a semicircle in the direction in which the other point (reference numeral 52 in the example of FIG. 9A) is located. Referring to FIG. 9B, new touch images 21, 27 to 29, which are not displayed in FIG. 9A, are displayed on the display screen 151a by the above touch operation. It is possible to check.

상기와 같이 디스플레이 화면에 표시된 후보 인물의 이미지 중에서, 사용자는 해당 인물 이미지(도 5의 (a)의 참조번호 10 참조)의 인물과 동일인인 것으로 판단되는 어느 하나의 이미지를 선택할 수 있다[S450 및 도 6의 (a) 참조].Among the images of the candidate person displayed on the display screen as described above, the user may select any one image determined to be the same as the person of the person image (see reference numeral 10 of FIG. 5A) [S450 and See FIG. 6 (a)].

이러한 경우, 제어부(180)는, 그 선택된 이미지의 인물과 관련될 수 있는 정보 아이템을 디스플레이 화면에 표시한다[S460 및 도 6의 (b) 참조].In this case, the controller 180 displays an information item related to the person of the selected image on the display screen (see S460 and FIG. 6B).

도 6의 (b)를 참조할 때, 디스플레이 화면(151a)에는 얼굴 이미지(11a)가 표시된 위치의 주변에 총 6개의 정보 아이템(31 ~ 36)이 방사형으로 나열 표시되고 있다. 그러나 이는 일 예에 불과하며, 상기 정보 아이템들이 표시될 화면 영역의 위치, 그 화면 영역 내에서의 상기 정보 아이템들의 배열 형태, 상기 정보 아이템들의 표시 형식, 정렬 방식 등은 다양한 변형이 가능함은 물론이다.Referring to FIG. 6B, a total of six information items 31 to 36 are radially displayed on the display screen 151a around the position where the face image 11a is displayed. However, this is merely an example, and various modifications may be made to the location of the screen area where the information items are to be displayed, the arrangement of the information items in the screen area, the display format of the information items, and the sorting method. .

또한, 도 6의 (b)에는, 이러한 정보 아이템으로서, "Phone book" 아이템(31), "Schedule" 아이템(32), "Photo album" 아이템(33), "Message" 아이템(34), "Favorite" 아이템(35), "My homepage" 아이템(36)이 예시되고 있다.In addition, in FIG. 6B, as the information item, the "Phone book" item 31, the "Schedule" item 32, the "Photo album" item 33, the "Message" item 34, " Favorite "item 35 and" My homepage "item 36 are illustrated.

그러나, 단계 S450에서 1인의 후보 인물의 이미지가 사용자에 의해 선택되었을 때, 본 단계(S460)를 통해 디스플레이 화면 상에 표시될 수 있는, 상기 선택된 인물과 관련될 수 있는 정보 아이템은, 단말기 설정에 따라 미리 셋팅되어 있을 수도 있고, 또는 사용자의 취향/선호도(예를 들어, 사용 빈도, 최근 사용순 등)에 따라 다양히 변형 또는 변경될 수도 있음은 물론이다. 사용자의 선택에 따라서 추가 또는 재구성될 수도 있음도 물론이다.However, when an image of one candidate person is selected by the user in step S450, the information item that may be associated with the selected person, which may be displayed on the display screen through step S460, is determined in the terminal settings. It may be set according to the preset, or may be variously modified or changed according to the user's taste / preference (for example, frequency of use, recent use order, etc.). Of course, it may be added or reconfigured according to the user's selection.

본 명세서에서 사용될 정보 아이템(information item)이란 용어는, 특정 정보의 내용, 기능, 동작 등을 집약화하거나 추상화시켜 이를 대표할 수 있는 텍스트(text), 이미지(image)(예를 들어, 아이콘(icon), 썸네일 이미지(thumbnail image), 폴더(folder) 등) 또는 이들의 조합 등으로 나타낸 아이템(item)을 통칭한다.The term information item, as used herein, refers to text, images (eg, icons) that can be represented by aggregating or abstracting the contents, functions, operations, etc. of specific information. ), A thumbnail image, a folder, etc.), or a combination thereof, and the like.

예를 들어, 상기 선택된 해당 인물과 관련될 수 있는 정보 아이템에는, 상기 선택된 인물과 관련된 컨텐츠 아이템, 상기 선택된 인물과 연계(link)시켜 실행시킬 수 있는 애플리케이션 아이템, 상기 선택된 인물과 관련하여 접속 가능한 IP(Internet Protocol) 기반의 통신 서비스 아이템 중 적어도 하나가 포함될 수 있다.For example, the information item related to the selected person may include a content item related to the selected person, an application item that can be executed in link with the selected person, and an IP accessible to the selected person. It may include at least one of (Internet Protocol) based communication service items.

여기서, 상기 컨텐츠 아이템은, 예를 들어, 해당 인물이 직접 작성한 텍스 트 저작물(예를 들어, 메모, 일기, 보고서, 제안서, 숙제, 소설, 시 등), 해당 인물과 관련된 스틸 이미지(사진), 동영상, 해당 인물이 선호하는 또는 주로 듣는 음악 등과 같은 다양한 멀티미디어 컨텐츠를 포함할 수 있다.Here, the content item may be, for example, a text asset (eg, a memo, a diary, a report, a proposal, a homework, a novel, a poem, etc.) directly written by the person, a still image (photo) associated with the person, It may include various multimedia contents such as a video, music that the person prefers or listens to mainly.

여기서, 상기 애플리케이션 아이템은, 해당 인물과 연계시켜 동작시킬 수 있는 다양한 애플리케이션 프로그램들, 예를 들어, 폰북 애플리케이션(도 6의 (b)의 31 참조), 일정 관리 애플리케이션(도 6의 (b)의 32 참조), 문서 작성 애플리케이션, 이미지 편집 애플리케이션, 이미지 보관/관리 애플리케이션(도 6의 (b)의 33 참조), 메시지 작성/보관/관리 애플리케이션(도 6의 (b)의 34 참조), 전화 통화 애플리케이션 등이 여기에 해당될 수 있다.Here, the application item is a variety of application programs that can be operated in conjunction with the person, for example, a phone book application (see 31 of FIG. 6 (b)), the schedule management application (FIG. 6 (b) 32), document creation application, image editing application, image archive / management application (see 33 in FIG. 6 (b)), message creation / archive / management application (see 34 in FIG. 6 (b)), phone call An application may correspond to this.

또한 여기서, 상기 IP 기반 통신 서비스 아이템은, 예를 들어, 개인 블로그, 미니 홈피, 해당 인물의 회사 웹 사이트, 링크해둔 사이트, 해당 인물이 가입하고 있는 SNS(Social Network Service)(예를 들어, 메신저, 트위터(twitter), 마이스페이스(myspace), 페이스북(facebook) 등), 해당 인물이 자주 접속하는 웹 사이트 등이 여기에 해당될 수 있다. 다만 이때, 상기 IP 기반 통신 서비스 아이템은, 반드시 그 해당 인물과 직접적으로 관련된 웹 사이트 등에 한정되는 것은 아니다.In addition, the IP-based communication service item, for example, personal blog, mini homepage, the company's website of the person, the linked site, the social network service (SNS) (for example, the messenger to which the person is subscribed) , Twitter, myspace, facebook, etc.), and websites frequently accessed by the person. In this case, however, the IP-based communication service item is not necessarily limited to a web site or the like directly related to the person.

예를 들어, 이동 단말기(100)의 사용자는, 친구의 사진 또는 자신이 좋아하는 연예인의 사진 등을, 자신의 홈페이지(도 6의 (b)의 36 참조), 블로그 등에 업로드 시키고자 할 수도 있다. 따라서, 상기 사용자 자신의 홈페이지 등도, 그 친구 또는 연예인과 간접적으로는 관련될 수 있는 IP 기반 통신 서비스 아이템으로 해석 될 수 있다.For example, a user of the mobile terminal 100 may want to upload a friend's photo or a favorite celebrity's photo to his homepage (see 36 of FIG. 6B), a blog, or the like. . Therefore, the user's own homepage and the like may also be interpreted as an IP-based communication service item that may be indirectly associated with a friend or entertainer.

이러한 점은 앞서 설명한 컨텐츠 아이템, 애플리케이션 아이템의 경우에도 유사하게 적용될 수 있다. 예를 들어, 해당 인물과 관련될 수 있는 컨텐츠 아이템은, 해당 인물에 관한 컨텐츠일 수도 있지만, 해당 인물과 연관된 인물(예를 들어, 가족, 친구, 동료, 관련 검색어를 통해 서치될 수 있는 인물 등)에 관한 컨텐츠일 수도 있을 것이다.This may be similarly applied to the above-described content item and application item. For example, a content item that may be related to the person may be content related to the person, but a person associated with the person (eg, a family, a friend, a colleague, a person who can be searched through related search terms, etc.). ) May be content about

도 4의 순서도에서는, 사용자가 디스플레이 화면에 표시된 후보 인물의 이미지 중 어느 하나를 선택하는 경우를 예시하고 있지만, 상기 단계 S450 및 상기 단계 S460과 관련된 설명은, 전술한 제2 케이스(즉, 해당 인물과 동일한 인물에 관한 이미지가 애초에 단말기에 저장되어 있지 않은 경우)의 경우에도 유사하게 적용될 수 있다.Although the flowchart of FIG. 4 illustrates a case in which the user selects any one of the images of the candidate person displayed on the display screen, the description related to the step S450 and the step S460 is described in the second case (that is, the person). Similarly, the same image may be applied to the case where the image of the same person as is not stored in the terminal.

즉, 해당 인물과 동일한 인물에 관한 이미지가 단말기에 존재하지 않는 경우, 사용자는 도 10의 (a)에서와 같이 "New image" 아이템(42)을 터치 선택하거나, 또는 도 11에서와 같이 "New image" 아이템(42)이 표시된 영역으로 얼굴 이미지(11a)를 터치하여 드래그(drag)(55)할 수 있다. 이러한 경우에도, 제어부(180)는, 도 10의 (b)에서와 같이, 해당 얼굴 이미지(11a)와 관련될 수 있는 정보 아이템(도 10의 (b)의 43, 61 ~ 65 참조)을 디스플레이 화면에 표시할 수 있다. 이 경우, 디스플레이 화면에 표시되는 정보 아이템은, 앞선 경우(후보 인물의 이미지 중에서 어느 하나가 선택되는 경우)에서와 일부(또는 전부) 달라질 수 있다. 이는 해당 인물에 관한 정보가 단말기에 최초 등록 또는 저장되는 경우임이 고려될 수 있 기 때문이다.That is, when an image of the same person as the person does not exist in the terminal, the user touch-selects the "New image" item 42 as shown in FIG. 10 (a) or "New" as shown in FIG. The face image 11a may be touched and dragged 55 onto the area where the “image” item 42 is displayed. Even in this case, the controller 180 displays an information item (see 43, 61 to 65 of FIG. 10B) that may be related to the face image 11a as shown in FIG. 10B. Can be displayed on the screen. In this case, the information item displayed on the display screen may be partially (or completely) different from the foregoing case (when any one of candidate images is selected). This is because it may be considered that the information about the person is first registered or stored in the terminal.

도 10의 (b)의 경우에도, 해당 인물이 최초 등록되는 것인 점을 고려하여, 이미지 등록/저장과 관련된 정보 아이템("Image store" 아이템(61) 참조), 이미지 편집과 관련된 정보 아이템("Photo editor" 아이템(62) 참조), 관련 컨텐츠의 검색과 관련된 정보 아이템("Contents search" 아이템(63) 참조), 새로운 링크 연결과 관련된 정보 아이템("New link" 아이템(43) 참조)이 디스플레이 화면(151a)에 새롭게 표시되는 경우가 예시되고 있다.Also in the case of FIG. 10B, in consideration of the fact that the person is initially registered, an information item related to image registration / storage (see “Image store” item 61) and an information item related to image editing ( "Photo editor" item (62)), an information item related to the search of related content (see "Contents search" item (63)), and an information item related to a new link link (see "New link" item 43). The case of newly displaying on the display screen 151a is illustrated.

예를 들어, 상기 도 10의 (b)에서, "Image store" 아이템(61)을 터치 선택하면, 상기 얼굴 이미지(11a)(또는 단말기 설정에 따라 본래 인물 이미지(10)일 수도 있음)가 저장될 수 있다. 이때, 상기 얼굴 이미지가 저장/분류되는 위치는 예를 들어 해당 인물에 대한 "Photo album" 아이템(예를 들어, 도 6의 (b)의 참조번호 33 참조) 내일 수 있다. 또는 최초 등록인 경우, 이미지 보관 폴더를 새로이 생성시켜 저장시킬 수도 있다.For example, in FIG. 10 (b), when the "Image store" item 61 is touched and selected, the face image 11a (or the original person image 10 may be stored depending on the terminal setting) is stored. Can be. In this case, the location where the face image is stored / classified may be, for example, within a "Photo album" item (for example, reference numeral 33 in FIG. 6B) of the person. Alternatively, in the case of initial registration, a new image storage folder may be created and stored.

이때, 새로이 생성된 이미지 보관 폴더명(folder name)은 사용자가 입력 가능하도록 설정될 수 있다. 만일 해당 인물의 성명, 애칭 등이 존재하는 경우에는 상기 이미지 보관 폴더명은 제어부(180)에 의해 상기 성명, 애칭 등으로 자동 설정될 수도 있다. 이는 상기 저장될 이미지의 파일명(file name)의 설정시에도 동일하게 적용될 수 있다. 예를 들어, 해당 인물의 성명이 "김사라"인 경우, 상기 저장될 이미지의 파일명은 "김사라01.jpg"로 자동 설정될 수 있다.In this case, the newly created image archive folder name may be set to be input by the user. If the name, nickname, etc. of the person exists, the image archive folder name may be automatically set to the name, nickname, etc. by the controller 180. This may be equally applied when setting a file name of the image to be stored. For example, if the person's name is "Kimsara", the file name of the image to be stored may be automatically set to "Kimsarah01.jpg".

또한, 상기 도 10의 (b)에서, "Contents search" 아이템(63)이 사용자에 의 해 터치 선택된 경우, 예를 들어, 제어부(180)는, 단말기(100)에 기저장되어 있는 컨텐츠 중 상기 최초 등록될 인물과 관련될 수 있는 컨텐츠를 수집하고, 이를 디스플레이 화면 상에 디스플레이할 수 있다.In addition, in FIG. 10B, when the "Contents search" item 63 is touch-selected by the user, for example, the controller 180 may store the above-mentioned content among the contents previously stored in the terminal 100. Content that may be associated with a person to be registered first may be collected and displayed on a display screen.

또한, 다른 예로서, 제어부(180)는, 상기 최초 등록될 인물에 대한 관련 정보의 제공을 무선 통신부(110)를 통해 외부 서버에 요청하고, 상기 외부 서버로부터 해당 인물과 관련된 정보가 수신되는 경우, 상기 수신 정보를 아이템화하여 디스플레이 화면에 표시할 수도 있다. 상기 외부 서버는, 예를 들어, 방송 서버, 이동 통신사의 서버, 컨텐츠 제공 서버 등일 수 있다. 이는 본 케이스 이외에도, 본 발명의 다른 실시예들에서도 동일하게 적용될 수 있다.Also, as another example, the controller 180 requests an external server to provide related information on the person to be registered first through the wireless communication unit 110, and receives information related to the person from the external server. The received information may be itemized and displayed on a display screen. The external server may be, for example, a broadcast server, a server of a mobile communication company, a content providing server, or the like. In addition to the present case, the same may be applied to other embodiments of the present invention.

상기와 같이, 해당 인물에 관한 정보를 외부 서버로부터 수신하는 실시예에 의하면, 별도의 외부 검색 과정을 수행하지 않고서도, 사용자가 해당 인물에 관련된 다양한 정보(예를 들어, 해당 인물에 관한 이미지, 동영상 등과 같은 컨텐츠, 해당 인물에 관한 관련 기사, 해당 인물과 관련된 웹 사이트 정보 등)를 실시간으로 확인할 수 있는 이점이 있게 된다.As described above, according to an embodiment of receiving information about the person from an external server, without performing a separate external search process, the user may have various information related to the person (for example, an image of the person, Content such as a video, a related article about the person, web site information related to the person, etc.) can be checked in real time.

또한, 사용자는, 상기 도 10의 (b)에서 "New link" 아이템(43)을 터치 선택하여 새로이 진입한 화면 내에서, 상기 최초 등록될 인물과 관련하여 연계시키고자 하는 애플리케이션, 컨텐츠, 메뉴 아이템 등을 선택할 수도 있을 것이다.In addition, the user touches and selects the "New link" item 43 in FIG. 10 (b) to display an application, content, and menu item to be associated with the person to be initially registered in a newly entered screen. You may also choose.

이상에서 설명한 바에 따라, 도 6의 (b) 또는 도 10의 (b)와 같은 디스플레이 화면이 표시된 상태에서, 그 화면에 표시된 정보 아이템들 중 어느 하나가 선택 되면[S470], 제어부(180)는, 그 선택된 정보 아이템이 갖는 내용(속성, 종류, 기능 등)에 따라서 해당 기능을 바로 실행시키거나 또는 그와 관련된 화면(예를 들어, 하위 메뉴 등이 표시되는 화면)으로 진입시킬 수 있다[S480]. 이에 관하여 도 12 내지 도 18을 참조하여 설명하면 다음과 같다.As described above, when any one of the information items displayed on the screen is selected in the state where the display screen of FIG. 6B or 10B is displayed [S470], the controller 180 According to the content (attribute, type, function, etc.) of the selected information item, the corresponding function can be executed immediately or the screen related thereto (for example, a sub menu, etc. is displayed) can be entered [S480]. ]. This will be described with reference to FIGS. 12 to 18 as follows.

일 예로, 도 12를 참조할 때, 사용자가 단말기(100)의 디스플레이 화면(151a)에 표시된 정보 아이템들(31 ~ 36) 중에서, "Phone book" 아이템(31)을 터치 선택하는 경우(도 13의 (a) 참조), 도 12의 (b)에서와 같이 전화번호부 편집 화면으로 진입할 수 있다. 이 경우, 사용자는 단말 조작(예를 들어, 터치 조작 등)을 통해서 상기 전화번호부 편집 화면 내에 해당 인물의 얼굴 이미지(11a)(또는 도 5의 (a)에서와 같은 해당 인물 본래의 인물 이미지, 이하 이와 같음)를 삽입시킬 수 있다.For example, referring to FIG. 12, when the user touch selects the “Phone book” item 31 among the information items 31 to 36 displayed on the display screen 151a of the terminal 100 (FIG. 13). (A) of), as shown in (b) of FIG. 12 may enter the phone book edit screen. In this case, the user performs a terminal operation (for example, a touch operation, etc.) in the phone book edit screen to display the face image 11a of the person (or the person's original person image as shown in FIG. 5A), This may be inserted below).

얼굴 이미지(11a)를 상기 전화번호부 편집 화면 내에 삽입시키는 방법으로는, 예를 들어 다음의 두 가지 방법이 이용될 수 있다. 물론, 이외에도 다양한 방법이 존재할 수 있을 것이다. 첫 번째 방법으로는, 위에서 설명한 바와 같이, 해당 정보 아이템(즉, "Phone book" 아이템(31))을 터치 선택한 후, 그 터치 선택에 의해 진입된 상기 전화번호부 편집 화면 내에서 다시 터치 조작 등을 수행함으로써 해당 화면 내에 이미지를 삽입시키는 방법(소위, 2 단계 터치 방식)이 있을 수 있다. 두 번째 방법으로는, 도 12의 (a)에서와 같은 디스플레이 화면 자체에서, 그 화면에 표시된 얼굴 이미지(11a)를 "Phone book" 아이템(31)이 표시된 영역으로 드래그(drag)하는 것과 같은 터치 조작을 통해서 곧바로 상기 전화번호부 편집 화면 내로 이미지를 삽입시키는 방식(소위, 1 단계 터치 방식, 즉, 도 11에 도시된 터치 방식 참조)이 있을 수 있다. 상술한 이미지 삽입 방법은 이하 도 13 내지 15의 경우에도 동일하게 적용될 수 있을 것이다.As a method of inserting the face image 11a into the phonebook edit screen, for example, the following two methods can be used. Of course, there may be other methods. In the first method, as described above, after touch-selecting the corresponding information item (that is, the "Phone book" item 31), touch operation or the like is performed again in the phonebook editing screen entered by the touch selection. There may be a method (so-called two-step touch method) for inserting an image into the corresponding screen by performing the same. In the second method, on the display screen itself as in FIG. 12A, a touch such as dragging the face image 11a displayed on the screen to the area where the "Phone book" item 31 is displayed. There may be a method of inserting an image directly into the phonebook editing screen (ie, a so-called one-step touch method, that is, the touch method shown in FIG. 11) through the manipulation. The above-described image insertion method may be equally applied to the case of FIGS. 13 to 15.

다른 예로서, 도 13을 참조할 때, 사용자가 단말기(100)의 디스플레이 화면(151a)에 표시된 정보 아이템들(31 ~ 36) 중에서, "Schedule" 아이템(32)을 터치 선택하는 경우(도 13의 (a) 참조), 도 13의 (b)에서와 같은 일정 관리 화면으로 진입할 수 있다.As another example, referring to FIG. 13, when the user touch-selects a “Schedule” item 32 among the information items 31 to 36 displayed on the display screen 151a of the terminal 100 (FIG. 13). (A)), the schedule management screen as shown in (b) of FIG. 13 may be entered.

이 경우에도, 위에서 설명한 이미지 삽입 방법을 이용하여 얼굴 이미지(11a)를 해당 일정(도 13의 (b)의 참조번호 61 참조) 내에 삽입시킬 수 있다. 예를 들어, 전술한 1 단계 터치 방식에 따른 터치 조작이 있는 경우, 얼굴 이미지(11a)가 삽입된 상태의 일정 편집 화면(또는 창)이 표시되고, 상기 일정 편집 화면(또는 창)에서 사용자가 해당 일정과 관련된 내용을 입력함으로써, 도 13의 (b)에서와 같은 일정 등록을 수행할 수 있다.Even in this case, the face image 11a may be inserted into the schedule (see reference numeral 61 in FIG. 13B) using the image insertion method described above. For example, when there is a touch operation according to the above-described one-step touch method, the schedule editing screen (or window) with the face image 11a inserted is displayed, and the user is displayed on the schedule editing screen (or window). By inputting the content related to the schedule, it is possible to perform the schedule registration as shown in (b) of FIG.

상술한 바와 유사한 방식으로, 사용자는 해당 인물의 얼굴 이미지(11a)(또는 앞서도 언급한 바와 같이 해당 인물의 본래 인물 이미지(10)일 수도 있음)를 자신의 홈페이지 등에 업로드 할 수도 있다. 이는 도 14 및 도 15를 통해 쉽게 확인할 수 있다.In a manner similar to that described above, the user may upload the face image 11a of the person (or may be the original person image 10 of the person as mentioned above) to his homepage or the like. This can be easily confirmed through FIGS. 14 and 15.

이상에서는, 도 12 내지 도 15를 참조하여, 디스플레이 화면에 표시된 정보 아이템들 중 어느 하나가 선택되었을 때, 그 선택된 정보 아이템과 관련된 화면으로 진입하거나, 그 정보 아이템과 관련된 애플리케이션 내에 이미지를 삽입시키는 방법을 중심으로 설명하였다. 그러나 이상에서 설명한 것 이외에도 다양한 응용이 가능함은 물론이다.In the above, when any one of the information items displayed on the display screen is selected with reference to FIGS. 12 to 15, a method for entering a screen associated with the selected information item or inserting an image into an application associated with the information item is described. The description is based on. However, it is a matter of course that various applications are possible in addition to those described above.

예를 들어, "Message" 아이템(34)을 터치 선택하거나 또는 "Message" 아이템(34)에 이미지 삽입시키는 경우, 얼굴 이미지(11a) 또는 본래 인물 이미지(10)가 이미지 삽입된 상태의 메시지 작성 창이 활성화되고, 이를 통해 메시지 작성을 하여 곧 특정의 수신자에게 메시지를 전송하는 실시예가 또한 존재할 수 있다.For example, when touch-selecting a "Message" item 34 or inserting an image into the "Message" item 34, the message composition window with the face image 11a or the original person image 10 inserted into the image is inserted. There may also be embodiments in which the message is activated, thereby composing a message and soon sending the message to a specific recipient.

또는, 도면을 통해서 구체적으로 도시하지는 않았지만, 해당 얼굴 이미지(11a)와 콜(call) 기능을 연동시킴으로써, 그 얼굴 이미지의 인물에게 전화를 거는 것과 같은 실시예도 존재할 수 있다. 이외에도 무수히 많은 응용례가 존재할 수 있음은 자명하다.Alternatively, although not specifically illustrated through the drawings, an embodiment may exist such as making a call to the person of the face image by interworking the call function with the face image 11a. It is obvious that there can be numerous applications.

상기 도 12 내지 도 15에서는, 추출된 얼굴 이미지(11a) 자체를 관련 정보 아이템과 연동시키거나 또는 관련 정보 아이템에 이미지 삽입시키는 경우를 주로 설명하였지만, 본 발명은 이에 한정되는 것이 아님은 물론이다. 즉, 상기 도 12 내지 도 15의 경우에는, 디스플레이 화면에 최초 표시된 인물 이미지 또는 이의 얼굴 이미지 자체를 이용하는 경우에 초점을 둔 실시예들에 불과하다. 그러나 이와 다른 관점에서 본 발명이 이용되는 실시예들도 무수히 많이 존재할 수 있다.12 to 15, the case in which the extracted face image 11a itself is linked to the related information item or the image is inserted into the related information item has been mainly described. However, the present invention is not limited thereto. That is, in the case of FIGS. 12 to 15, only the embodiments focused on the case of using the person image first displayed on the display screen or the face image itself. However, in other respects, there may be numerous embodiments in which the present invention is used.

예를 들어, 사용자가 단말기(100)에 기저장된 사진 이미지들을 감상하고 있던 중, 특정 사진 이미지의 인물에게 전화를 걸거나 메시지를 보내기를 의도할 수 있다. 또는 그 특정 사진 이미지와 관련된 다른 인물에게, 그 특정 사진 이미지(또는 그 특정인의 얼굴 이미지)가 삽입된 메시지 또는 메일을 보내기를 의도할 수도 있다. 또한, 그 특정 사진 이미지를 자신의 홈페이지에 업로드하는 것을 의도할 수 있다. 또는 그 특정 사진 이미지의 인물과 관련된 여러 가지 정보(예를 들어, 그 사진 이미지의 인물과의 약속, 그 인물에 대한 상세 정보, 그 인물의 또는 그 인물과 관련된 다른 사진 또는 컨텐츠 등)를 확인하기를 의도할 수 있다.For example, while the user is viewing the pre-stored photo images, the user may intend to call or send a message to the person of the specific photo image. Or it may be intended to send a message or an e-mail in which the specific photo image (or the face image of the specific person) is inserted to another person associated with the specific photo image. It may also be intended to upload that particular photographic image to its homepage. Or identify a variety of information related to a person in that particular photographic image (e.g., an appointment with the person in the photographic image, detailed information about the person, other photos or content related to that person or that person) Can be intended.

상기와 같은 다른 관점에서의 이용의 일 예가 도 16 내지 도 18을 통해 도시되어 있다.An example of use from another perspective as described above is illustrated through FIGS. 16-18.

도 16을 참조하면, 사용자가 단말기(100)의 디스플레이 화면(151a)에 표시된 정보 아이템들(31 ~ 36) 중, "Photo album" 아이템(33)을 터치 선택하는 경우(도 16의 (a) 참조), 그 추출된 얼굴 이미지(11a)의 인물과 동일 인물에 대한 인물 이미지들(도 16의 (b)의 71 ~ 76 참조)이 디스플레이 화면(151a)에 표시될 수 있다. 여기서, 상기 인물 이미지들(71 ~ 76)은, 단말기(100)에 해당 인물과 관련하여 기저장/분류되어 있는 이미지들일 수 있다.Referring to FIG. 16, when the user touch-selects the “Photo album” item 33 among the information items 31 to 36 displayed on the display screen 151a of the terminal 100 (FIG. 16A). The person images (see 71 to 76 of FIG. 16B) of the same person as the person of the extracted face image 11a may be displayed on the display screen 151a. Here, the person images 71 to 76 may be images that are pre-stored / classified with respect to the person in the terminal 100.

도 16의 (b)와 같은 디스플레이 화면에서, 사용자가 일부 인물 이미지들(도 17의 (a)의 72 ~ 75 참조)을 소정의 터치 조작을 통해서 선택할 수 있다. 도 17의 (a)에서는 참조번호 57번 위치를 시작점으로 58번 위치를 끝점으로 하는 드래그(drag) 동작을 통해서 상기 일부 인물 이미지들(72 ~ 75)를 선택하고 있다. 다만, 이외에도 다양한 터치 선택 방법이 존재할 수 있음은 물론이다. 예를 들어, 선택하고자 하는 인물 이미지들을 각각 "더블 클릭"하는 것과 같은 터치 동작에 의해서도 선택 가능하다. 또는 어느 한 손가락에 의한 어느 1 인물 이미지에 대한 터치를 그대로 유지하면서 다른 손가락을 이용하여 다른 1 인물 이미지에 대한 터치를 하는, 멀티 터치 동작에 의해서도 선택 가능할 것이다.In the display screen as shown in FIG. 16B, the user may select some person images (see 72 to 75 of FIG. 17A) through a predetermined touch operation. In FIG. 17A, some of the person images 72 to 75 are selected through a drag operation of using the reference numeral 57 as the starting point and the ending 58 position as the end point. However, various touch selection methods may exist as well. For example, it is also selectable by a touch operation such as "double-clicking" each of the person images to be selected. Alternatively, the touch screen may be selected by a multi-touch operation in which a touch on another person image is performed using another finger while maintaining a touch on any one person image by one finger.

이때, 상기와 같은 방법으로 선택된 이미지들(72 ~ 75)은 미선택된 이미지들(71, 76)과는 시각적으로 구별되어 표시될 수 있다(도 17의 (b) 참조).In this case, the images 72 to 75 selected in the above manner may be visually distinguished from the unselected images 71 and 76 (see FIG. 17B).

또한, 상기와 같은 선택 동작이 완료(예를 들어, 드래그(drag)한 후 터치 스크린에서 손가락을 떼어냄)된 경우, 그 선택된 이미지들을 이용하여 실행시킬 수 있는 애플리케이션 아이템들의 리스트가 팝업창을 통해 디스플레이 화면에 표시될 수도 있다(도 18 참조). 도 18을 참조하면, 팝업 표시되는 애플리케이션 아이템으로서, "MMS 전송", "이메일 전송", "사진 인쇄", "동영상 제작", "이미지북 제작", "이미지 복사", "이미지 이동"등이 예시되고 있다. 물론, 위는 일 예에 불과하며, 이외에도 다양한 애플리케이션 아이템들이 존재할 수 있다. 또한, 단말기 설정 또는 사용자의 취향/선호도 등에 따라 상기 애플리케이션 아이템의 종류, 정렬, 구성 방식 등이 달라질 수 있음도 자명하다.In addition, when the above selection operation is completed (for example, a finger is removed from the touch screen after dragging), a list of application items that can be executed using the selected images is displayed through a pop-up window. It may be displayed on the screen (see FIG. 18). Referring to FIG. 18, as application items that are popped up, "MMS transmission", "E-mail transmission", "Photo printing", "Video making", "Image book making", "Image copying", "Image moving", etc. It is illustrated. Of course, the above is just an example, and there may be various application items. In addition, the type, arrangement, configuration, etc. of the application item may vary according to terminal settings or user preferences / preferences.

도 18의 (b)는, 도 18의 (a)의 애플리케이션 아이템들 중 "이미지북 제작" 아이템이 선택되었을 때를 가정하고, 이에 따라 그 선택된 인물 이미지들을 이용하여 제작된 이미지북(image book)을 예시하고 있다. 이때, 사용자는, 이와 같은 방식으로 제작된 이미지북(또는 동영상 등)을 이용하여, 자신의 홈페이지 또는 특정 웹사이트(예를 들어, 유투브(youtube) 등)에 컨텐츠를 손쉽게 업로드시킬 수도 있다.(B) of FIG. 18 assumes that a "image book production" item is selected among the application items of FIG. 18 (a), and thus an image book produced using the selected person images. To illustrate. In this case, the user may easily upload the content to his or her homepage or a specific website (for example, youtube) using an image book (or a video, etc.) produced in this manner.

이상에서 설명한 바와 같이 본 발명에 의하면, 사용자는 감상 중이던 특정인의 인물 이미지에서 그 얼굴 부분을 앞서 설명한 도 5의 (b)에서와 같이 터치 선 택하는 매우 간편한 방법으로, 그 특정인과 관련될 수 있는 정보 아이템들에 손쉽게 접근(access)할 수 있는 이점이 있다. 이는 특정 인물과 관련된 정보 아이템에 접근하기 위한 사용자의 노력을 크게 경감시켜 줄 수 있다. 종래 기술에 의할 때, 특정 인물과 관련된 정보 아이템에 접근하기 위해서는, 여러 단계의 키 조작 또는 터치 조작에 의하여야 하는 불편함이 있었다. 또한, 본 발명에 의하면, 특정 인물 별로 그와 관련될 수 있는 정보 아이템들을 한 화면을 통해 한꺼번에 그리고 손쉽게 확인할 수 있어, 사용자 편의성이 극대화될 수 있다.As described above, according to the present invention, the user may touch the selected part of the face in the person image of the person who is listening, as described above with reference to FIG. 5 (b), which may be associated with the person. There is an advantage that the information items can be easily accessed. This can greatly reduce the user's effort to access information items associated with a particular person. According to the related art, in order to access an item of information related to a specific person, there is an inconvenience of having to perform a key operation or a touch operation in various steps. In addition, according to the present invention, information items that may be associated with each specific person can be checked at once and easily through one screen, thereby maximizing user convenience.

이제까지, 도 4의 순서도를 중심으로, 본 발명의 일 실시예에 따른, 이동 단말기에서의 정보 제공 방법을 설명하였다. 이하, 도 19의 순서도를 중심으로 본 발명의 다른 실시예에 따른 이동 단말기에서의 정보 제공 방법을 설명하기로 한다. 다만, 앞선 설명에서와 동일하게 적용될 수 있거나 중복될 수 있는 내용에 관한 설명은 생략한다.So far, the method of providing information in a mobile terminal according to an embodiment of the present invention has been described with reference to the flowchart of FIG. 4. Hereinafter, a method of providing information in a mobile terminal according to another embodiment of the present invention will be described with reference to the flowchart of FIG. 19. However, descriptions of contents that may be applied or overlap with the description above will be omitted.

도 19는 본 발명의 다른 실시예에 따른 이동 단말기에서의 정보 제공 방법을 나타낸 순서도이다.19 is a flowchart illustrating a method of providing information in a mobile terminal according to another embodiment of the present invention.

도 19의 순서도를 참조하면, 도 4의 순서도와 비교할 때, 단계 S610, S620, S630은 각각 도 4의 단계 S410, S420, S430과 동일하다. 즉, 디스플레이 화면에 인물 이미지가 표시된 상태에서[S510], 상기 인물 이미지에서 얼굴 영역이 선택되면[S520], 제어부(180)가 그 인물 이미지에서 얼굴 영역을 추출하는 것에 관한 내 용은 도 4의 순서도에서와 동일하다. 따라서, 상기 중복되는 단계들에 관한 구체적 설명은 생략하고, 앞선 도 4에서의 설명을 그대로 원용하기로 한다.Referring to the flowchart of FIG. 19, compared with the flowchart of FIG. 4, steps S610, S620, and S630 are the same as those of S410, S420, and S430 of FIG. 4, respectively. That is, when a face image is selected from the person image [S510] while the person image is displayed on the display screen [S520], the controller 180 extracts the face region from the person image. Same as in flowchart. Therefore, a detailed description of the overlapping steps will be omitted, and the description in FIG. 4 will be used as it is.

또한, 도 19의 순서도에서는 구체적으로 도시하지는 않았지만, 단계 S630과 단계 S640 사이에 도 4의 단계 S440 또는/및 단계 S450과 동일한 단계가 더 포함될 수도 있다(도 20의 (a) 참조). 물론, 도 19의 순서도에서 상기 도 4의 단계 S440 또는 단계 S450과 같은 단계는 필수적 단계에는 해당하지 않는다.In addition, although not specifically illustrated in the flowchart of FIG. 19, the same step as that of step S440 or / and step S450 of FIG. 4 may be further included between step S630 and step S640 (see FIG. 20A). Of course, in the flowchart of FIG. 19, a step such as step S440 or step S450 of FIG. 4 does not correspond to an essential step.

도 19의 순서도의 경우, 해당 인물의 얼굴 이미지(11a)가 추출된 이후, 그 추출된 얼굴 이미지를 대표 이미지로 하는 인물 폴더(도 20의 (b)의 참조번호 80 참조)를 생성함을 특징으로 한다[S640].In the flowchart of FIG. 19, after the face image 11a of the person is extracted, a person folder (see reference numeral 80 of FIG. 20B) of the extracted face image is generated. [S640].

상기 인물 폴더를 생성함에 있어서, 제어부(180)는, 상기 얼굴 이미지의 인물과 관련될 수 있는 정보를 포함하는 적어도 하나의 정보 아이템을 상기 인물 폴더의 하위 계층으로 포함시킴으로써, 일종의 계층 구조(혹은 데이터 분류 구조)를 형성시킬 수 있다[S650]. 이때, 사용자가 상기 얼굴 이미지를 대표 이미지로 하는 상기 인물 폴더를 터치 선택하는 경우(도 21의 (a) 참조), 제어부(180)는, 해당 인물 폴더 내에 포함된 정보 아이템들을 디스플레이 화면에 표시할 수 있다[S670 및 도 21의 (b) 참조].In generating the person folder, the controller 180 includes at least one information item including information that may be related to the person of the face image as a lower layer of the person folder, thereby providing a kind of hierarchical structure (or data). Classification structure) can be formed [S650]. In this case, when the user touch-selects the person folder whose face image is the representative image (see FIG. 21A), the controller 180 may display information items included in the person folder on the display screen. (See S670 and FIG. 21B).

도 21의 (b)의 경우, 디스플레이 화면(151a)에 "김사라-포토앨범" 아이템(혹은 폴더, 이하 같음)(81), "김사라-문자메시지" 아이템(82), "김사라-일정관리" 아이템(83)가 표시되는 경우가 예시되고 있다. 이외에도 해당 인물에 관련될 수 있는 홈페이지, 컨텐츠, 이메일, 메모 등이 아이템을 달리하여 혹은 폴더를 달리하여 더 표시될 수 있다. 이때, 한 화면에 표시되지 못한 관련 아이템의 확인은, 터치 스크린 상에서의 방향키(도 21의 참조번호 91 및 92 참조) 조작 등을 통해서 확인 가능할 수 있다.In the case of FIG. 21B, the "Kimsara-Photo Album" item (or folder, the same as below) 81, the "Kimsara-text message" item 82, "Kimsara-schedule" on the display screen 151a The case where the item 83 is displayed is illustrated. In addition, a homepage, content, an email, a memo, and the like that may be related to the person may be further displayed by different items or folders. At this time, the confirmation of the related item not displayed on one screen may be confirmed through an operation of a direction key (see reference numerals 91 and 92 of FIG. 21) on the touch screen.

상기 도 21의 (b)와 같은 디스플레이 화면(151a)에서, 어느 하나의 정보 아이템이 선택되는 경우에는, 도 4의 단계 S480과 동일한 과정이 수행될 수 있음은 물론이다. 이에 관해서는 앞서 도 4의 설명을 통해 상세히 설명하였는 바, 그 구체적 설명은 생략하기로 한다.In the display screen 151a as shown in FIG. 21B, when any one item of information is selected, the same process as step S480 of FIG. 4 may be performed. This has been described in detail above with reference to FIG. 4, and a detailed description thereof will be omitted.

이제까지, 크게 2가지 실시예(도 4 및 도 19의 순서도와 관련된 실시예)를 중심으로 본 발명에 따른 이동 단말기 및 그 이동 단말기에서의 정보 제공 방법에 대하여 설명하였다. 본 발명을 설명함에 있어서, 상기 2가지 실시예의 경우, 디스플레이 화면에 표시되는 이미지가 "인물 이미지"인 경우를 가정하고, 또한 그 "인물 이미지"에서도 특히 "얼굴 영역"을 추출하는 경우를 위주로 설명하였다. 그러나, 본 발명은 반드시 위와 같은 경우에 한정되는 것이 아님은 물론이다.So far, the mobile terminal and the method of providing information in the mobile terminal according to the present invention have been described mainly based on two embodiments (the embodiment related to the flowcharts of FIGS. 4 and 19). In the description of the present invention, in the above two embodiments, it is assumed that the image displayed on the display screen is a "portrait image", and the description will focus on the case where the "face area" is extracted especially from the "portrait image". It was. However, the present invention is not necessarily limited to the above case.

본 발명에서, 이미지 추출되는 부분은 반드시 얼굴 영역이 아니어도 무방하며, 상기 이미지 추출 전의 원본 이미지 또한 반드시 인물 이미지가 아니어도 무방하다. 예를 들어, 사용자는 단말기의 디스플레이 화면에 표시된 임의의 이미지에서 관심을 갖는 특정 부분을 추출하고자 할 수도 있다. 예를 들어, 임의의 이미지에 포함된 애완견의 얼굴 부분, 좋아하는 만화 캐릭터, 좋아하는 꽃, 특정 물건에 관한 이미지 부분 등과 같이 다양한 관심 대상 또는 관심 영역이 존재할 수 있다.In the present invention, the portion from which the image is extracted may not necessarily be a face region, and the original image before the image extraction may not necessarily be a person image. For example, the user may want to extract a particular portion of interest from any image displayed on the display screen of the terminal. For example, there may be various objects of interest or regions of interest, such as a face portion of a dog, a favorite cartoon character, a favorite flower, an image portion of a specific object, etc. included in an image.

따라서, 이러한 경우, 사용자는 예를 들어 앞서 설명한 도 5의 (b)에서와 같은 방식으로 해당 이미지에서 관심을 갖는 부분(즉, 관심 영역)을 선택하면, 제어부(180)는, 앞서 설명한 바와 동일 또는 유사한 방법으로, 그 디스플레이 화면에 표시된 이미지에서 관심 영역을 추출할 수 있다. 이후, 제어부(180)는, 상기 추출된 관심 영역의 이미지와 관련될 수 있는 정보를 포함하는 적어도 하나의 정보 아이템을 상기 디스플레이 화면에 표시할 수 있다. 이 경우에도, 제어부(180)는, 상기 추출된 관심 영역의 이미지와 관련될 수 있는 정보의 제공을 외부 서버에 요청할 수 있을 것이다.Therefore, in this case, when the user selects a portion of interest (ie, a region of interest) in the image in the same manner as in FIG. 5 (b) described above, the controller 180 is the same as described above. Alternatively, the region of interest may be extracted from the image displayed on the display screen. Thereafter, the controller 180 may display at least one information item including information that may be related to the extracted image of the ROI on the display screen. Even in this case, the controller 180 may request the external server to provide information that may be related to the extracted image of the ROI.

이상에서는 본 발명의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 쉽게 이해할 수 있을 것이다.Although the above has been described with reference to embodiments of the present invention, those skilled in the art may variously modify the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. And can be changed easily.

도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram).1 is a block diagram of a mobile terminal according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예와 관련된 이동 단말기의 외관을 나타낸 도면.2 is a view showing the appearance of a mobile terminal according to an embodiment of the present invention;

도 3은 본 발명의 일 실시예와 관련된 이동 단말기의 일 작동 상태를 설명하기 위한 단말기의 정면도.3 is a front view of a terminal for explaining an operation state of a mobile terminal according to an embodiment of the present invention.

도 4는 본 발명의 일 실시예에 따른 이동 단말기에서의 정보 제공 방법을 나타낸 순서도.4 is a flowchart illustrating a method of providing information in a mobile terminal according to an embodiment of the present invention.

도 5 및 도 6은 도 4의 순서도를 설명하기 위한 관련 도면.5 and 6 are related drawings for explaining the flow chart of FIG.

도 7 및 도 8은 후보 인물 이미지의 일 표시례 및 다른 표시례를 나타낸 도면.7 and 8 illustrate one display example and another display example of a candidate person image.

도 9는 후보 인물 이미지의 변경을 위한 터치 조작의 예를 설명하기 위한 도면.9 is a view for explaining an example of a touch operation for changing a candidate person image.

도 10 및 도 11은 인물 이미지의 "새로 저장"을 위한 터치 조작의 예를 설명하기 위한 도면.10 and 11 are diagrams for explaining an example of the touch operation for the "new storage" of the person image.

도 12는 인물 이미지와 관련될 수 있는 애플리케이션으로서 폰북 애플리케이션을 선택한 경우를 예시한 도면.12 is a diagram illustrating a case where a phonebook application is selected as an application that may be associated with a person image.

도 13은 인물 이미지와 관련될 수 있는 애플리케이션으로서 일정 관리 애플리케이션을 선택한 경우를 예시한 도면.FIG. 13 illustrates a case where a schedule management application is selected as an application that may be associated with a person image; FIG.

도 14 및 도 15는 인물 이미지와 관련될 수 있는 애플리케이션으로서 홈페 이지 접속 애플리케이션을 선택한 경우를 예시한 도면.14 and 15 illustrate a case where a home page connection application is selected as an application that may be associated with a person image.

도 16은 인물 이미지와 관련될 수 있는 애플리케이션으로서 사진첩 애플리케이션을 선택한 경우를 예시한 도면.16 is a diagram illustrating a case where a photo album application is selected as an application that may be associated with a person image.

도 17 및 도 18은 도 16에 도시된 사진첩에 포함된 이미지들의 이용례로서, 이미지북(image book)을 제작하는 경우를 예시한 도면.17 and 18 are diagrams illustrating a case of producing an image book as an example of use of images included in the photo book illustrated in FIG. 16.

도 19는 본 발명의 다른 실시예에 따른 이동 단말기에서의 정보 제공 방법을 나타낸 순서도.19 is a flowchart illustrating a method of providing information in a mobile terminal according to another embodiment of the present invention.

도 20 및 도 21은 도 19의 순서도를 설명하기 위한 관련 도면.20 and 21 are related diagrams for explaining the flow chart of FIG. 19;

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

100 : 이동 단말기 100: mobile terminal

110 : 무선 통신부110: wireless communication unit

130 : 입력부 130: input unit

151 : 디스플레이 모듈151: display module

180 : 제어부 180: control unit

181 : 멀티미디어 모듈181: multimedia module

Claims (20)

디스플레이; 및display; And 상기 디스플레이 화면에 표시된 이미지에서 얼굴 영역을 추출하고, 상기 추출된 얼굴 영역의 인물과 관련될 수 있는 정보를 나타내는 적어도 하나의 정보 아이템을 상기 디스플레이 화면에 표시하는 제어부A control unit which extracts a face region from the image displayed on the display screen and displays at least one information item representing information that may be associated with a person of the extracted face region on the display screen 를 포함하는 이동 단말기.Mobile terminal comprising a. 제1항에 있어서,The method of claim 1, 상기 디스플레이 화면에 상응하여 터치 스크린이 탑재되되,The touch screen is mounted corresponding to the display screen, 상기 추출될 얼굴 영역은, 상기 터치 스크린 상에서의 터치 조작에 의해, 상기 디스플레이 화면에 표시된 상기 이미지에서 선택되는 것을 특징으로 하는 이동 단말기.And the face area to be extracted is selected from the image displayed on the display screen by a touch manipulation on the touch screen. 제1항에 있어서,The method of claim 1, 상기 제어부는,The control unit, 얼굴 인식을 통해서 상기 추출된 얼굴 영역과 유사성을 갖는 후보 인물의 이미지를 상기 디스플레이 화면에 표시하고,Through face recognition, an image of a candidate person having similarity with the extracted face area is displayed on the display screen. 상기 후보 인물의 이미지 중 어느 하나가 선택된 경우, 상기 선택된 이미지의 인물과 관련될 수 있는 정보를 나타내는 정보 아이템을 상기 디스플레이 화면에 표시하는 것을 특징으로 하는 이동 단말기.And when an image of the candidate person is selected, an information item representing information related to the person of the selected image is displayed on the display screen. 제3항에 있어서,The method of claim 3, 상기 제어부는, 상기 후보 인물의 이미지를, 상기 얼굴 영역과의 이미지 매칭의 정확도 순서에 따라 나열 표시되는 것을 특징으로 하는 이동 단말기.And the controller is arranged to display images of the candidate person in order of accuracy of image matching with the face area. 제3항에 있어서,The method of claim 3, 상기 후보 인물의 이미지는, 상기 얼굴 영역과 유사성을 갖는 후보 인물별로 1개씩의 대표 이미지가 표시되는 것을 특징으로 하는 이동 단말기.The image of the candidate person, the mobile terminal, characterized in that one representative image is displayed for each candidate person having similarity with the face area. 제3항에 있어서,The method of claim 3, 상기 제어부는, 상기 후보 인물의 이미지에 상기 얼굴 영역과의 이미지 매칭의 정확도를 나타내는 정보를 함께 표시하는 것을 특징으로 하는 이동 단말기.The controller is configured to display information indicating the accuracy of image matching with the face region in the image of the candidate person. 제1항에 있어서,The method of claim 1, 상기 정보 아이템은,The information item, 상기 추출된 얼굴 영역의 인물과 관련된 컨텐츠 아이템, 상기 추출된 얼굴 영역의 인물과 연계(link)시켜 실행시킬 수 있는 애플리케이션 아이템, 상기 추출된 얼굴 영역의 인물과 관련하여 접속 가능한 IP(Internet Protocol) 기반의 통신 서비스 아이템 중 적어도 하나를 포함하는 것을 특징으로 하는 이동 단말기.A content item related to the person in the extracted face area, an application item that can be executed by linking with the person in the extracted face area, and an IP (Internet Protocol) based connection that is accessible in connection with the person in the extracted face area. And at least one of the communication service items of the mobile terminal. 제7항에 있어서,The method of claim 7, wherein 상기 애플리케이션 아이템은,The application item, 폰북 애플리케이션, 일정 관리 애플리케이션, 문서 작성 애플리케이션, 이미지 편집 애플리케이션, 메시지 작성 애플리케이션, 전화 통화 애플리케이션 중 적어도 하나를 포함하는 것을 특징으로 하는 이동 단말기.A mobile terminal comprising at least one of a phonebook application, a schedule management application, a document writing application, an image editing application, a message writing application, and a phone call application. 제1항에 있어서,The method of claim 1, 상기 제어부는, 상기 적어도 하나의 정보 아이템을, 상기 추출된 얼굴 영역의 이미지 또는 상기 얼굴 영역을 포함하는 전체 이미지와 함께 표시하는 것을 특징으로 하는 이동 단말기.The controller may display the at least one information item together with an image of the extracted face region or an entire image including the face region. 제1항에 있어서,The method of claim 1, 상기 디스플레이 화면에 상응하여 터치 스크린이 탑재되되,The touch screen is mounted corresponding to the display screen, 상기 추출된 얼굴 영역의 이미지 또는 상기 얼굴 영역을 포함하는 전체 이미지는, 상기 터치 스크린 상에서의 터치 조작에 의해, 상기 정보 아이템 내에 이미지 삽입될 수 있는 것을 특징으로 하는 이동 단말기.And the entire image including the extracted face region or the entire image including the face region may be inserted into the information item by a touch manipulation on the touch screen. 제1항에 있어서,The method of claim 1, 상기 제어부는,The control unit, 상기 추출된 얼굴 영역의 이미지를 해당 인물에 대한 대표 이미지로 하는 인물 폴더를 생성하고, 상기 추출된 얼굴 영역의 인물과 관련될 수 있는 정보 아이템을 상기 인물 폴더의 하위 계층으로 포함시키는 것을 특징으로 하는 이동 단말기.And generating a person folder using the extracted face area as a representative image of the person, and including information items related to the person in the extracted face area as a lower layer of the person folder. Mobile terminal. 제1항에 있어서,The method of claim 1, 통신부를 더 포함하되,Further includes a communication unit, 상기 제어부는,The control unit, 상기 추출된 얼굴 영역의 인물에 대한 관련 정보의 제공을 상기 통신부를 통해 외부 서버에 요청하고, 상기 외부 서버로부터 해당 인물과 관련된 정보가 수신되는 경우, 상기 수신 정보를 아이템화하여 상기 디스플레이 화면에 표시하는 것을 특징으로 하는 이동 단말기.Requesting an external server to provide related information about the person in the extracted face region through the communication unit, and when information related to the person is received from the external server, the received information is itemized and displayed on the display screen. Mobile terminal, characterized in that. 디스플레이; 및display; And 상기 디스플레이 화면에 표시된 이미지에서 관심 영역을 추출하고, 상기 추출된 관심 영역의 이미지와 관련될 수 있는 정보를 나타내는 적어도 하나의 정보 아이템을 상기 디스플레이 화면에 표시하는 제어부A control unit which extracts a region of interest from an image displayed on the display screen and displays at least one information item representing information that may be related to the extracted image of the region of interest on the display screen 를 포함하는 이동 단말기.Mobile terminal comprising a. 디스플레이 화면에 표시된 이미지에서 얼굴 영역을 추출하는 단계; 및Extracting a face region from an image displayed on a display screen; And 상기 추출된 얼굴 영역의 인물과 관련될 수 있는 정보를 나타내는 적어도 하나의 정보 아이템을 상기 디스플레이 화면에 표시하는 단계Displaying at least one information item representing information related to a person of the extracted face region on the display screen; 를 포함하는 이동 단말기에서의 정보 제공 방법.Information providing method in a mobile terminal comprising a. 제14항에 있어서,The method of claim 14, 상기 얼굴 영역을 추출하는 단계 이전에,Before extracting the face area, 상기 이동 단말기에 구비된 터치 스크린 상에서의 터치 조작에 의해, 상기 디스플레이 화면에 표시된 상기 이미지에서 얼굴 영역이 선택되는 단계를 더 포함하는 것을 특징으로 하는 이동 단말기에서의 정보 제공 방법.And selecting a face area from the image displayed on the display screen by a touch operation on the touch screen provided in the mobile terminal. 제14항에 있어서,The method of claim 14, 상기 추출된 얼굴 영역의 인물과 관련될 수 있는 정보를 포함하는 적어도 하나의 정보 아이템을 상기 디스플레이 화면에 표시하는 상기 단계는,The displaying of the at least one information item including information that may be related to the person of the extracted face region on the display screen may include: 얼굴 인식을 통해서 상기 추출된 얼굴 영역과 유사성을 갖는 후보 인물의 이미지를 표시하는 단계;Displaying an image of a candidate person having similarity with the extracted face region through face recognition; 상기 후보 인물의 이미지 중 어느 하나가 선택되는 단계; 및Selecting one of the images of the candidate person; And 상기 선택된 이미지의 인물과 관련될 수 있는 정보를 나타내는 정보 아이템을 표시하는 단계Displaying an information item representing information that may be associated with a person of the selected image 를 포함하는 것을 특징으로 하는 이동 단말기에서의 정보 제공 방법.Information providing method in a mobile terminal comprising a. 제14항에 있어서,The method of claim 14, 상기 추출된 얼굴 영역의 이미지 또는 상기 얼굴 영역을 포함하는 전체 이미지는, 상기 이동 단말기에 구비된 터치 스크린 상에서의 터치 조작에 의해, 상기 정보 아이템 내에 이미지 삽입될 수 있는 것을 특징으로 하는 이동 단말기에서의 정보 제공 방법.In the mobile terminal, the image of the extracted face region or the entire image including the face region may be inserted into the information item by a touch manipulation on a touch screen provided in the mobile terminal. How to Provide Information. 제14항에 있어서,The method of claim 14, 상기 추출된 얼굴 영역의 이미지를 해당 인물에 대한 대표 이미지로 하는 인물 폴더를 생성하는 단계; 및Generating a person folder having the extracted face region image as a representative image of the person; And 상기 추출된 얼굴 영역의 인물과 관련될 수 있는 정보 아이템을 상기 인물 폴더의 하위 계층으로 포함시키는 단계Including an information item related to the person of the extracted face region as a lower layer of the person folder 를 더 포함하는 이동 단말기에서의 정보 제공 방법.Information providing method in a mobile terminal further comprising. 제14항에 있어서,The method of claim 14, 상기 추출된 얼굴 영역의 인물에 대한 관련 정보의 제공을 외부 서버에 요청하는 단계;Requesting an external server to provide related information about the person of the extracted face region; 상기 외부 서버로부터 해당 인물과 관련된 정보를 수신하는 단계; 및Receiving information related to the person from the external server; And 상기 수신 정보를 아이템화하여 상기 디스플레이 화면에 표시하는 단계를 더 포함하는 것을 특징으로 하는 이동 단말기에서의 정보 제공 방법.And itemizing the received information and displaying the received information on the display screen. 디스플레이 화면에 표시된 이미지에서 관심 영역을 추출하는 단계; 및Extracting a region of interest from an image displayed on a display screen; And 상기 추출된 관심 영역의 이미지와 관련될 수 있는 정보를 나타내는 적어도 하나의 정보 아이템을 상기 디스플레이 화면에 표시하는 단계Displaying at least one information item representing information that may be associated with the extracted image of the ROI on the display screen; 를 포함하는 이동 단말기에서의 정보 제공 방법.Information providing method in a mobile terminal comprising a.
KR1020090086412A 2009-09-14 2009-09-14 Mobile terminal and information providing method thereof KR101615969B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090086412A KR101615969B1 (en) 2009-09-14 2009-09-14 Mobile terminal and information providing method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090086412A KR101615969B1 (en) 2009-09-14 2009-09-14 Mobile terminal and information providing method thereof

Publications (2)

Publication Number Publication Date
KR20110028811A true KR20110028811A (en) 2011-03-22
KR101615969B1 KR101615969B1 (en) 2016-04-28

Family

ID=43934878

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090086412A KR101615969B1 (en) 2009-09-14 2009-09-14 Mobile terminal and information providing method thereof

Country Status (1)

Country Link
KR (1) KR101615969B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101328052B1 (en) * 2011-07-08 2013-11-08 엘지전자 주식회사 Mobile device and control method for the same
CN107239203A (en) * 2016-03-29 2017-10-10 北京三星通信技术研究有限公司 A kind of image management method and device
WO2018062901A1 (en) * 2016-09-29 2018-04-05 (주) 비미오 Method for designating and tagging album of stored photographs in touchscreen terminal, computer-readable recording medium, and terminal
CN108132742A (en) * 2013-05-06 2018-06-08 北京三星通信技术研究有限公司 A kind of display methods of terminal device and its association window
WO2022010092A1 (en) * 2020-07-06 2022-01-13 삼성전자 주식회사 Electronic device for supporting sharing of content

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3491504A4 (en) * 2016-11-16 2019-07-17 Samsung Electronics Co., Ltd. Image management method and apparatus thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000209324A (en) * 1999-01-12 2000-07-28 Nec Corp Destination calling control system/method
JP2006165821A (en) * 2004-12-03 2006-06-22 Nikon Corp Portable telephone
JP2009135616A (en) * 2007-11-28 2009-06-18 Softbank Mobile Corp Communication terminal, information processing method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000209324A (en) * 1999-01-12 2000-07-28 Nec Corp Destination calling control system/method
JP2006165821A (en) * 2004-12-03 2006-06-22 Nikon Corp Portable telephone
JP2009135616A (en) * 2007-11-28 2009-06-18 Softbank Mobile Corp Communication terminal, information processing method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101328052B1 (en) * 2011-07-08 2013-11-08 엘지전자 주식회사 Mobile device and control method for the same
CN108132742A (en) * 2013-05-06 2018-06-08 北京三星通信技术研究有限公司 A kind of display methods of terminal device and its association window
CN107239203A (en) * 2016-03-29 2017-10-10 北京三星通信技术研究有限公司 A kind of image management method and device
WO2018062901A1 (en) * 2016-09-29 2018-04-05 (주) 비미오 Method for designating and tagging album of stored photographs in touchscreen terminal, computer-readable recording medium, and terminal
US11036792B2 (en) 2016-09-29 2021-06-15 Vimio Co. Ltd Method for designating and tagging album of stored photographs in touchscreen terminal, computer-readable recording medium, and terminal
WO2022010092A1 (en) * 2020-07-06 2022-01-13 삼성전자 주식회사 Electronic device for supporting sharing of content

Also Published As

Publication number Publication date
KR101615969B1 (en) 2016-04-28

Similar Documents

Publication Publication Date Title
US10616155B2 (en) Mobile terminal and method for controlling the same
US9600178B2 (en) Mobile terminal
US10691327B2 (en) Mobile terminal and control method for the mobile terminal
KR101864618B1 (en) Mobile terminal and method for providing user interface thereof
KR101860342B1 (en) Mobile terminal and control method therof
KR102106920B1 (en) Mobile terminal and method for controlling of the same
US9075828B2 (en) Electronic device and method of controlling the same
US20150015508A1 (en) Method, apparatus, and medium for executing a function related to information displayed on an external device
US9792953B2 (en) Mobile terminal and control method for the same
US20110161853A1 (en) Mobile terminal and method of controlling the same
KR20140018661A (en) Mobile terminal and method for controlling thereof
US10359891B2 (en) Mobile terminal and method for controlling the same
US9247144B2 (en) Mobile terminal generating a user diary based on extracted information
KR20140045060A (en) Mobile terminal and method for controlling thereof
US20230199102A1 (en) Mobile terminal and control method therefor
KR102135262B1 (en) Mobile terminal and method for controlling mobile terminal
KR20140072554A (en) Mobile terminal and method for controlling thereof
US10983744B2 (en) Terminal receiving content based on network environment and controlling method thereof
KR101615969B1 (en) Mobile terminal and information providing method thereof
US20170003772A1 (en) Mobile terminal and method for controlling the same
KR102032407B1 (en) Mobile terminal and method for controlling of the same
KR20140033912A (en) Method for schedule generation of terminal and terminal therefor
KR20140025048A (en) Terminal and operating method thereof
US20150156303A1 (en) Mobile terminal and control method thereof
KR101984094B1 (en) Mobile terminal and control method thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee