KR20070006337A - Method for editing image in wireless terminal - Google Patents

Method for editing image in wireless terminal Download PDF

Info

Publication number
KR20070006337A
KR20070006337A KR1020050061588A KR20050061588A KR20070006337A KR 20070006337 A KR20070006337 A KR 20070006337A KR 1020050061588 A KR1020050061588 A KR 1020050061588A KR 20050061588 A KR20050061588 A KR 20050061588A KR 20070006337 A KR20070006337 A KR 20070006337A
Authority
KR
South Korea
Prior art keywords
region
displaying
mouth
facial expression
photo
Prior art date
Application number
KR1020050061588A
Other languages
Korean (ko)
Other versions
KR101075720B1 (en
Inventor
김윤향
이태기
오혜원
김범수
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020050061588A priority Critical patent/KR101075720B1/en
Publication of KR20070006337A publication Critical patent/KR20070006337A/en
Application granted granted Critical
Publication of KR101075720B1 publication Critical patent/KR101075720B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

A method for editing an image in a portable terminal is provided to change and represent a facial expression in a photo, to extract the facial expression, to store the extracted facial expression, and to synthesize the facial expression such that various services can be offered. A method for editing an image in a portable terminal comprises the following several steps. A controller senses selection of a photo among stored plural photos and displays the selected photo(201). If a user selects a facial expression effect while the selected photo is displayed, the controller extracts a facial position in the selected photo(202,203). If the facial position is extracted, the controller extracts an eye and a mouth position from the extracted face(204). The controller senses the extraction of the eye and the mouth position, and displays the extracted eye and mouth position on the first-the third area(205). The controller senses selection for modifying the photo(206) and then modifying the first-the third area(300). The controller senses selection of a corresponding facial expression among the kinds of the plural facial expressions(207) and applies the selected facial expression to the facial expression of the photo(208). The controller senses comparison of the facial expression of the photo with the selected facial expression(209) and concurrently displays the original photo and the changed photo(210). The controller senses a grade control(211), and displays the facial expression of the photo according to each grade(212). The controller senses storage of the facial expression(213) and stores the photo where the facial expression is changed according to the selection of a user(214).

Description

휴대단말기의 이미지편집 방법{METHOD FOR EDITING IMAGE IN WIRELESS TERMINAL}Image editing method of mobile terminal {METHOD FOR EDITING IMAGE IN WIRELESS TERMINAL}

도 1은 본 발명의 실시 예에 따른 휴대단말기의 구성도.1 is a block diagram of a mobile terminal according to an embodiment of the present invention.

도 2는 본 발명의 실시 에에 따른 휴대단말기에서 얼굴표정을 변경하는 과정을 도시한 흐름도.2 is a flowchart illustrating a process of changing face expression in a mobile terminal according to an embodiment of the present invention.

도 3은 도 2에서 영역 수정과정으로 도시한 흐름도.3 is a flowchart illustrating a region modification process in FIG. 2;

도 4a - 도 4d는 도 2를 설명하기 위한 도면.4A-4D are views for explaining FIG. 2;

도 5a - 도 5i는 도 2를 통해 선택된 얼굴표정종류로 변경된 사진을 나타낸 도면. 5A to 5I are views illustrating a photo changed to a facial expression type selected through FIG. 2;

도 6은 본 발명의 실시 에에 따른 휴대단말기에서 얼굴표정을 추출하여 저장하는 과정을 도시한 흐름도.6 is a flowchart illustrating a process of extracting and storing facial expressions in a mobile terminal according to an embodiment of the present invention.

도 7은 본 발명의 실시 에에 따른 휴대단말기에서 얼굴표정을 생성하여 저장하는 과정을 도시한 흐름도이다.7 is a flowchart illustrating a process of generating and storing facial expressions in a mobile terminal according to an embodiment of the present invention.

도 8은 본 발명의 실시 에에 따른 휴대단말기에서 얼굴표정을 합성하는 과정을 도시한 흐름도.8 is a flowchart illustrating a process of synthesizing facial expressions in a mobile terminal according to an embodiment of the present invention.

본 발명은 휴대단말기의 이미지편집 방법에 관한 것으로, 특히 사진의 얼굴표정을 편집할 수 있는 휴대단말기의 이미지편집 방법에 관한 것이다. The present invention relates to an image editing method of a portable terminal, and more particularly, to an image editing method of a portable terminal capable of editing facial expression of a photograph.

현재 휴대용 이동통신 단말기는 음성 통신 기능 이외에 고속의 데이터를 전송할 수 있는 구조로 변환하고 있다. 상기 데이터 통신을 수행하는 휴대 단말기에서 처리할 수 있는 데이터들은 패킷 데이터 및 영상 데이터들이 될 수 있다. Currently, portable mobile communication terminals are converting to a structure capable of transmitting high speed data in addition to voice communication functions. Data that can be processed by the mobile terminal performing the data communication may be packet data and image data.

현재 휴대단말기는 영상 데이터를 송수신할 수 있는 기능을 구비하고 있다. 따라서 기지국으로부터 수신되는 영상화면을 저장하거나 또는 획득한 영상화면을 기지국으로 전송하는 기능을 수행하고 있다. 또한 휴대단말기가 영상화면을 촬영하는 카메라와, 상기 카메라로부터 촬영된 영상신호를 표시하는 표시부를 구비할 수 있다. 여기서 상기 카메라는 CCD나 CMOS 센서를 사용할 수 있으며, 표시부는 LCD를 사용할 수 있다. 또한 상기 카메라 장치의 소형화에 따라 상기 영상을 촬영하는 장치는 점점 소형화되는 추세에 있다. 상기 휴대용 단말기는 영상 화면을 촬영하여 동영상(moving picture) 및 정지영상(still picture)으로 표시할 수 있으며, 또한 촬영된 영상 화면을 기지국에 전송할 수도 있다. Currently, the mobile terminal has a function of transmitting and receiving image data. Therefore, the video screen received from the base station is stored or the acquired video screen is transmitted to the base station. In addition, the portable terminal may include a camera for photographing an image screen and a display unit for displaying an image signal photographed by the camera. The camera may use a CCD or a CMOS sensor, and the display unit may use an LCD. In addition, with the miniaturization of the camera device, the device for capturing the image is becoming more and more miniaturized. The portable terminal may capture a video screen and display the moving picture and the still picture, and transmit the captured video screen to the base station.

상기와 같이 현재 영상 메일에 관하여 사업자 및 소비자의 욕구가 증대됨에 따라 상기와 같은 서비스를 구현하고 있으며, 또한 향후 크게 증가될 추세이다. 또한 상기와 같은 휴대 단말기에서 영상화면을 사용자의 조작에 의해 편집하는 기능들도 크게 증가되고 있는 추세이다. 예를 들면 휴대단말기에서 저장하고 있는 사진 영상의 크기를 조절(zoom in, zoom out)하거나, 또는 복수의 사진 영상들을 합성하는 기술들이 구현되고 있다. As described above, as the needs of operators and consumers are increased with respect to video mails, the above-mentioned services are implemented, and the trend is to be greatly increased in the future. In addition, the functions of editing a video screen by a user's operation in the portable terminal are also increasing. For example, techniques for zooming in and zooming out a photo image stored in a mobile terminal or synthesizing a plurality of photo images are implemented.

또한, 상기 휴대단말기에 구비된 카메라의 성능이 발달되고 있지만, 실제로 촬영했을 때 자연스러운 표정이나 감정연출이 원하는 대로 이루어지지 않는 경우가 발생한다. 상기와 같은 경우, 상기 촬영된 사진을 컴퓨터로 다운로드 받아 포토샵 작업을 통해 원하는 표정으로 변경해야하는 번거로움이 있다.In addition, although the performance of the camera provided in the portable terminal has been developed, there are cases where natural facial expression or emotional expression does not occur as desired when actually photographing. In such a case, there is a hassle to download the photographed picture to a computer and change it to a desired look through Photoshop work.

따라서 본 발명의 목적은 휴대단말기에서 사진의 얼굴표정을 변경하여 표시할 수 있는 휴대단말기의 이미지편집 방법을 제공함에 있다. Accordingly, an object of the present invention is to provide an image editing method of a portable terminal which can display a changed face expression of a photo in the portable terminal.

본 발명의 다른 목적은 휴대단말기에서 사진의 얼굴표정을 추출하여 저장할 수 있는 휴대단말기의 이미지편집 방법을 제공함에 있다. Another object of the present invention is to provide an image editing method of a portable terminal capable of extracting and storing a facial expression of a photo from the portable terminal.

본 발명의 또 다른 목적은 휴대단말기에서 사진의 얼굴표정을 생성하여 저장할 수 있는 휴대단말기의 이미지편집 방법을 제공함에 있다. It is still another object of the present invention to provide an image editing method of a portable terminal capable of generating and storing a facial expression of a photo in the portable terminal.

본 발명의 또 다른 목적은 휴대단말기에서 사진의 얼굴표정을 합성할 수 있는 휴대단말기의 이미지편집 방법을 제공함에 있다. Still another object of the present invention is to provide an image editing method of a mobile terminal capable of synthesizing a facial expression of a photo in the mobile terminal.

상기 목적을 달성하기 위한 휴대단말기에서 이미지편집 방법이, 사진을 표시 중 얼굴표정효과가 선택되면, 얼굴표정종류들을 표시하는 과정과; 상기 얼굴표정종류들 중 선택된 얼굴표정종류로 상기 사진의 얼굴표정을 변경하여 표시하는 과정으로 이루어진 것을 특징으로 한다.The image editing method in the mobile terminal for achieving the above object comprises the steps of: displaying the facial expression types, if the facial expression effect is selected while displaying a photo; And changing the face expression of the picture to a selected facial expression type among the facial expression types.

또한 상기 목적을 달성하기 위한 휴대단말기에서 이미지편집 방법이, 사진을 표시 중 얼굴표정효과가 선택되면, 상기 사진에서 눈과 입의 위치를 표시하는 영역들을 표시하는 과정과; 상기 영역들에 대한 수정이 선택되면, 상기 눈과 입의 위치를 표시하는 영역들을 수정하는 과정과; 얼굴표정효과의 종류가 선택되면, 상기 선택된 얼굴표정으로 상기 사진의 얼굴표정을 변경하여 표시하는 과정으로 이루어진 것을 특징으로 한다.In addition, the image editing method in the mobile terminal to achieve the above object, if the facial expression effect is selected during the display of the display, the process of displaying the area for displaying the position of the eyes and mouth in the photo; Modifying the areas indicating the positions of the eyes and mouth when the correction for the areas is selected; When the type of the facial expression effect is selected, a process of changing and displaying the facial expression of the picture with the selected facial expression is performed.

또한 상기 목적을 달성하기 위한휴대단말기에서 이미지편집 방법이, 사진을 표시 중 얼굴표정효과가 선택되면, 상기 사진에서 눈과 입의 위치를 지정하는 제1-제3영역들을 표시하는 과정과; 상기 영역들에 대한 수정이 선택되면, 상기 제1-제3영역 중 해당영역이 선택되고, 상기 선택된 영역을 이루는 점들 중 해당 점이 선택되며, 상기 선택된 점을 해당 위치로 이동시켜 상기 제1-제3영역을 수정하여 표시하는 과정과; 얼굴표정효과의 종류가 선택되면, 상기 선택된 얼굴표정의 제1-제3영역을 상기 사진의 제1-3영역에 적용하여 변경된 사진의 얼굴표정을 표시하는 과정으로 이루어진 것을 특징으로 한다.In addition, the image editing method in the mobile terminal to achieve the above object, if the facial expression effect is selected while displaying a picture, displaying the first to third areas for specifying the position of the eyes and mouth in the picture; When the correction for the regions is selected, a corresponding region among the first to third regions is selected, a corresponding point among the points constituting the selected region is selected, and the selected point is moved to a corresponding position to move the selected region to the corresponding position. Modifying and displaying three regions; When the type of facial expression effect is selected, the first and third regions of the selected facial expression may be applied to the first and third regions of the photo to display the changed facial expression of the photo.

또한 휴대단말기에서 이미지편집 방법이, 사진을 표시 중 얼굴표정저장이 선택되면, 상기 사진에서 눈과 입의 위치를 추출하여 영역들로 표시하는 과정과; 상기 영역들에 대한 수정이 선택되면, 상기 눈과 입의 위치를 표시하는 영역들을 수정하는 과정과; 상기 사진의 얼굴표정에 대한 저장이 선택되면, 상기 추출된 사진의 표정을 저장하는 과정으로 이루어진 것을 특징으로 한다.In addition, the image editing method in the mobile terminal, if the facial expression storage is selected while displaying a photo, the process of extracting the position of the eyes and mouth in the photo to display the areas; Modifying the areas indicating the positions of the eyes and mouth when the correction for the areas is selected; If storage for the facial expression of the photo is selected, characterized in that the process of storing the expression of the extracted photo.

또한 휴대단말기에서 이미지편집 방법이, 상기 휴대단말기에서 표정만들기가 선택되면, 눈과 입의 위치를 나타내는 영역들을 가지는 기본사진을 표시하는 과정과; 상기 기본사진에서 해당 영역내의 해당 점에 대한 픽셀 값을 변경하면서 표정을 생성하는 과정과; 상기 생성된 표정을 저장하는 과정으로 이루어진 것을 특징으로 한다. In addition, the image editing method in the mobile terminal, if the making of the facial expression is selected in the mobile terminal, displaying a basic picture having areas indicating the position of the eyes and mouth; Generating a facial expression while changing a pixel value of a corresponding point in a corresponding area in the basic picture; Characterized in that the process of storing the generated facial expression.

또한 휴대단말기에서 이미지편집 방법이, 얼굴표정합성이 선택되면, 선택된 제1,제2사진에서 눈과 입의 위치를 각각 추출하는 과정과; 선택적으로, 상기 제1사진의 눈과 입을 상기 제2사진에 적용하거나, 상기 제2사진의 눈과 입의 사진을 상기 제1사진에 적용하여 합성하는 과정으로 이루어진 것을 특징으로 한다.In addition, the image editing method in the mobile terminal, if the face matching composition is selected, the step of extracting the position of the eyes and mouth from the selected first and second pictures, respectively; In an embodiment, the eye and mouth of the first photograph may be applied to the second photograph, or the photograph of eye and mouth of the second photograph may be applied to the first photograph.

이하 본 발명의 바람직한 실시 예들의 상세한 설명이 첨부된 도면들을 참조하여 설명될 것이다. 도면들 중 동일한 구성들은 가능한 한 어느 곳에서든지 동일한 부호들을 나타내고 있음을 유의하여야 한다.DETAILED DESCRIPTION Hereinafter, detailed descriptions of preferred embodiments of the present invention will be described with reference to the accompanying drawings. It should be noted that the same components in the figures represent the same numerals wherever possible.

도 1은 본 발명의 실시 예에 따른 휴대 단말기의 구성을 도시하는 도면으로써, 카메라를 구비하는 휴대 단말기의 구성을 도시하는 도면이다. 1 is a diagram illustrating a configuration of a portable terminal according to an embodiment of the present invention, which illustrates a configuration of a portable terminal including a camera.

상기 도 1을 참조하면, RF부123은 휴대 단말기의 무선 통신 기능을 수행한다. 상기 RF부123은 송신되는 신호의 주파수를 상승변환 및 증폭하는 RF송신기와, 수신되는 신호를 저잡음 증폭하고 주파수를 하강변환하는 RF수신기등을 포함한다. 모뎀(MODEM)120은 상기 송신되는 신호를 부호화 및 변조하는 송신기 및 상기 수신되는 신호를 복조 및 복호화하는 수신기 등을 구비한다. 오디오 처리부125는 코덱 을 구성할 수 있으며, 상기 코덱은 패킷데이터 등을 처리하는 데이터 코덱과 음성 등의 오디오 신호를 처리하는 오디오 코덱을 구비한다. 상기 오디오 처리부125는 상기 모뎀120에서 수신되는 디지털 오디오신호를 상기 오디오코덱을 통해 아날로그신호 변환하여 재생하거나 또는 마이크로부터 발생되는 송신되는 아날로그 오디오신호를 상기 오디오코덱을 통해 디지털 오디오신호로 변환하여 상기 모뎀120으로 전송하는 기능을 수행한다. 상기 코덱은 별도로 구비거나 또는 제어부110에 포함될 수 있다.Referring to FIG. 1, the RF unit 123 performs a wireless communication function of the portable terminal. The RF unit 123 includes an RF transmitter for upconverting and amplifying a frequency of a transmitted signal, and an RF receiver for low noise amplifying and downconverting a received signal. The modem 120 includes a transmitter for encoding and modulating the transmitted signal, a receiver for demodulating and decoding the received signal, and the like. The audio processor 125 may configure a codec, and the codec includes a data codec for processing packet data and an audio codec for processing an audio signal such as voice. The audio processor 125 converts and reproduces the digital audio signal received by the modem 120 through the audio codec or converts the analog audio signal generated from the microphone into a digital audio signal through the audio codec and converts the digital audio signal into the digital audio signal. Sends the function to 120. The codec may be provided separately or included in the controller 110.

메모리130은 프로그램 메모리, 데이터 메모리들로 구성될 수 있다. 상기 프로그램 메모리는 휴대 단말기의 일반적인 동작을 제어하기 위한 프로그램들 및 본 발명의 실시 예에 따라 사진에서 얼굴표정을 변경, 저장 및 합성하도록 제어하는 프로그램들을 저장할 수 있다. 또한 상기 데이터 메모리는 상기프로그램들을 수행하는 중에 발생되는 데이터들을 일시 저장하는 기능을 수행한다.The memory 130 may include program memory and data memories. The program memory may store programs for controlling a general operation of the portable terminal and programs for changing, storing, and synthesizing facial expressions in a photo according to an embodiment of the present invention. The data memory also temporarily stores data generated during the execution of the programs.

제어부110은 휴대 단말기의 전반적인 동작을 제어하는 기능을 수행한다. 또한 상기 제어부10은 상기 모뎀120 및 코덱을 포함할 수도 있다. 또한 상기 제어부110은 본 발명의 실시 예에 따라 사진의 얼굴표정을 선택된 얼굴표정으로 변경하여 표시하도록 제어한다. 또한 상기 제어부110은 본 발명의 실시 예에 따라 사진의 얼굴표정을 추출하여 저장하도록 제어한다. 또한 상기 제어부110은 본 발명의 실시 예에 따라 사진의 얼굴표정을 생성하여 저장하도록 제어한다. 또한 상기 제어부110은 본 발명의 실시 예에 따라 사진의 얼굴표정을 추출하여 다른 사진에 합성하도록 제어한다. The controller 110 controls the overall operation of the mobile terminal. In addition, the controller 10 may include the modem 120 and the codec. In addition, the controller 110 controls to change the face expression of the picture to the selected face expression according to an embodiment of the present invention. In addition, the control unit 110 controls to extract and store the facial expression of the picture according to an embodiment of the present invention. In addition, the controller 110 controls to generate and store facial expressions of a photo according to an embodiment of the present invention. In addition, the control unit 110 controls to extract a facial expression of a photo and to synthesize it into another photo according to an embodiment of the present invention.

카메라부(camera module)140은 영상 데이터를 촬영하며, 촬영된 광 신호를 전기적 신호로 변환하는 카메라 센서와, 상기 카메라센서로부터 촬영되는 아날로그 영상신호를 디지털 데이터로 변환하는 신호처리부를 구비한다. 여기서 상기 카메라 센서는 CCD센서라 가정하며, 상기 신호처리부는 DSP(Digital Signal Processor: DSP)로 구현할 수 있다. 또한 상기 카메라 센서 및 신호처리부는 일체형으로 구현할 수 있으며, 또한 분리하여 구현할 수도 있다. The camera module 140 includes a camera sensor for capturing image data, converting the photographed optical signal into an electrical signal, and a signal processor for converting the analog image signal photographed from the camera sensor into digital data. Herein, it is assumed that the camera sensor is a CCD sensor, and the signal processor may be implemented by a digital signal processor (DSP). In addition, the camera sensor and the signal processor may be integrally implemented or may be separately implemented.

영상처리부150은 상기 카메라부140에서 출력되는 영상신호를 표시하기 위한 화면 데이터를 발생하는 기능을 수행한다. 상기 영상처리부150은 상기 카메라부40에서 출력되는 영상신호를 프레임 단위로 처리하며, 상기 프레임 영상데이터를 상기 표시부160의 특성 및 크기에 맞춰 출력한다. 또한 상기 영상처리부50은 영상코덱을 구비하며, 상기 표시부160에 표시되는 프레임 영상데이터를 설정된 방식으로 압축하거나, 압축된 프레임 영상데이터를 원래의 프레임 영상데이터로 복원하는 기능을 수행한다. 여기서 상기 영상코덱은 JPEG 코덱, MPEG4 코덱, Wavelet 코덱 등이 될 수 있다. 상기 영상처리부150은 OSD(On Screen Display) 기능을 구비한다고 가정하며, 상기 제어부110의 제어하여 표시되는 화면크기에 따라 온스크린 표시데이터를 출력할 수 있다.The image processor 150 performs a function of generating screen data for displaying an image signal output from the camera unit 140. The image processor 150 processes the image signal output from the camera unit 40 in units of frames, and outputs the frame image data according to the characteristics and size of the display unit 160. In addition, the image processor 50 includes an image codec and performs a function of compressing the frame image data displayed on the display unit 160 in a set manner or restoring the compressed frame image data to the original frame image data. The image codec may be a JPEG codec, an MPEG4 codec, a wavelet codec, or the like. It is assumed that the image processor 150 has an On Screen Display (OSD) function, and may output on-screen display data according to a screen size displayed by the control of the controller 110.

표시부160은 상기 영상처리부50에서 출력되는 영상신호를 화면으로 표시하며, 상기 제어부110에서 출력되는 사용자 데이터를 표시한다. 여기서 상기 표시부160은 LCD를 사용할 수 있으며, 이런 경우 상기 표시부160은 LCD제어부(LCD controller), 영상데이터를 저장할 수 있는 메모리 및 LCD표시소자 등을 구비할 수 있다. 여기서 상기 LCD를 터치스크린(touch screen) 방식으로 구현하는 경우, 입력부로 동작할 수도 있다. 또한 상기 표시부160은 본 발명의 실시 예에 따라 얼굴표정편집과정에서 눈과 입의 위치를 지정하는 제1-제3영역을 표시할 수 있다. The display unit 160 displays the image signal output from the image processor 50 on the screen, and displays the user data output from the controller 110. The display unit 160 may use an LCD. In this case, the display unit 160 may include an LCD controller, a memory capable of storing image data, and an LCD display device. In this case, when the LCD is implemented using a touch screen method, the LCD may operate as an input unit. In addition, the display unit 160 may display the first to third areas for designating the positions of the eyes and the mouth during the facial expression editing process according to the exemplary embodiment of the present invention.

키입력부127은 숫자 및 문자 정보를 입력하기 위한 키들 및 각종 기능들을 설정하기 위한 기능키들을 구비한다. 또한 상기 키입력부127은 본 발명의 실시 예에서 얼굴표정편집과정에서 눈과 입의 위치를 지정하는 제1-제3영역을 제어하는 키들을 구비할 수 있다. The key input unit 127 includes keys for inputting numeric and character information and function keys for setting various functions. In addition, the key input unit 127 may include keys for controlling the first to third areas for designating the positions of the eyes and the mouth during the facial expression editing process in the embodiment of the present invention.

상기와 같은 휴대단말기에서 얼굴표정을 편집하는 동작을 도 2 - 도 7을 통해 상세히 설명한다. An operation of editing facial expressions in the above-described mobile terminal will be described in detail with reference to FIGS. 2 to 7.

도 2는 본 발명의 실시 에에 따른 휴대단말기에서 얼굴표정을 변경하는 과정을 도시한 흐름도이고, 도 3은 도 2에서 영역 수정과정으로 도시한 흐름도이며, 도 4a - 도 4d는 도 2를 설명하기 위한 도면이다.2 is a flowchart illustrating a process of changing face expression in a mobile terminal according to an embodiment of the present invention, FIG. 3 is a flowchart illustrating a region modification process in FIG. 2, and FIGS. 4A to 4D illustrate FIG. 2. It is for the drawing.

이하 본 발명의 실시 예를 도 1의 참조와 함께 상세히 설명한다. Hereinafter, an embodiment of the present invention will be described in detail with reference to FIG. 1.

상기 도 2를 참조하면, 상기 휴대단말기의 메모리130에 저장된 사진들 중 해당사진이 선택되면, 상기 제어부110은 이를 감지하고 상기 선택된 사진을 상기 표시부160에 표시하는 201단계를 진행한다. 상기 도 4a의 (a) - (c)는 상기 과정을 나타내는 것으로, 상기 도 4a의 (a) 및 (b)을 통해 해당사진이 선택되면, 상기 도 4a의 (c)와 같이 상기 선택된 해당사진이 표시된다.Referring to FIG. 2, when a corresponding picture is selected from the pictures stored in the memory 130 of the portable terminal, the controller 110 detects it and proceeds to step 201 of displaying the selected picture on the display unit 160. (A)-(c) of FIG. 4a illustrate the process. When the corresponding picture is selected through (a) and (b) of FIG. 4a, the selected corresponding picture as shown in (c) of FIG. 4a. Is displayed.

상기 도 4의 (a)와 같이 선택된 해당사진을 표시 중 얼굴표정효과가 선택되면, 상기 제어부110은 202단계에서 상기 도 4a의 (d)와 같이 상기 사진에서 얼굴위 치를 추출하는 203단계를 진행한다. 상기 203단계에서 얼굴위치가 추출되면, 상기 제어부110은 상기 도 4a의 (e)와 같이 상기 추출된 얼굴에서 눈과 입의 위치를 추출하는 204단계를 진행한다. If the facial expression effect is selected while displaying the corresponding picture selected as shown in FIG. 4A, the controller 110 proceeds to step 203 in which the face position is extracted from the picture as shown in FIG. 4A (D). do. When the face position is extracted in step 203, the controller 110 proceeds to step 204 to extract the positions of eyes and mouth from the extracted face as shown in (e) of FIG.

상기 204단계에서 눈과 입의 위치가 추출되면, 상기 제어부110은 이를 감지하고 상기 도 4a의 (f)와 같이 상기 추출된 눈과 입의 위치를 제1-제3영역으로 표시하는 205단계를 진행한다. 이때 제1영역은 좌측 눈의 위치를 표시하는 것으로, 좌측 눈썹의 좌우 끝단의 두 점 및 좌측 눈의 좌우 끝단의 두 점으로 이루어진다. 또한. 제2영역은 우측 눈의 위치를 표시하는 것으로, 우측 눈썹의 좌우 끝단의 두 점 및 우측 눈의 좌우 끝단의 두 점으로 이루어진다. 또한, 제3영역은 입의 위치를 표시하는 것으로, 입의 좌우 끝단의 두 점 및 입술의 상하 끝단의 두 점으로 이루어진다. In step 204, when the positions of the eyes and the mouth are extracted, the controller 110 detects this and displays the positions of the extracted eyes and the mouth as the first to third regions as shown in FIG. 4A (f). Proceed. At this time, the first area indicates the position of the left eye, and consists of two points at the left and right ends of the left eyebrow and two points at the left and right ends of the left eye. Also. The second area indicates the position of the right eye, and consists of two points at the left and right ends of the right eyebrow and two points at the left and right ends of the right eye. In addition, the third area indicates the position of the mouth, and consists of two points at the left and right ends of the mouth and two points at the top and bottom ends of the lips.

상기 205단계에서 수정이 선택되면, 상기 제어부110은 206단계에서 이를 감지하고 상기 제1-제3영역을 수정하는 300단계를 진행한다.If the correction is selected in step 205, the control unit 110 detects it in step 206 and proceeds to step 300 to correct the first to third areas.

상기 도 3을 통해 상기 제-제3영역의 수정과정을 설명하면, 상기 205단계에서 수정이 선택되면, 상기 제어부110은 상기 206단계에서 이를 감지하고 도 4의 (g)와 같이 영역수정메뉴를 표시하는 301단계를 진행한다.Referring to FIG. 3, the modification process of the third region is described. When modification is selected in step 205, the controller 110 detects this in step 206 and opens the region modification menu as shown in FIG. The display proceeds to step 301.

상기 301단계의 영역수정메뉴에서 영역이 선택되면, 상기 제어부110은 302단계에서 이를 감지하고 상기 제1-제3영역 중 해당영역으로 이동하는 303단계를 진행한다. 본 발명의 실시 예에서 상기 영역 이동은 방향 키 중 상/하측 키를 통해 이루어진다고 가정하여 설명한다. If an area is selected in the area correction menu of step 301, the controller 110 detects it in step 302 and proceeds to step 303 to move to the corresponding area of the first to third areas. In the embodiment of the present invention, it will be described on the assumption that the area movement is performed through the up / down keys of the direction keys.

상기 도 4b의 (a)와 같이 상기 영역위치커서가 제2영역에 위치되어 있을 때, 하측 키가 입력되면, 상기 제어부110은 이를 감지하고 상기 도 4b의 (b)와 같이 상기 영역위치커서를 제1영역 이동시켜 위치시킨다. 또한 상기 도 4b의 (b)에서 상기 하측 키가 입력되면, 상기 제어부110은 이를 감지하고 상기 도 4b의 (c)에서와 같이 상기 영역위치커서를 제3영역으로 이동시켜 위치시킨다. When the lower position key is input when the region position cursor is located in the second region as shown in (a) of FIG. 4B, the controller 110 senses this and the region position cursor as shown in (b) of FIG. 4B. The first area is moved and positioned. In addition, when the lower key is input in (b) of FIG. 4B, the controller 110 detects this and moves the area position cursor to a third area as shown in (c) of FIG. 4B.

상기와 같이 하측 키가 입력될 때 마다 상기 도 4b의 (a) -> 도 4b의 (b) -> 도 4b의 (c)가 반복된다. 또한 상기 상측키가 입력될 때 마다 상기 도 4b의 (c) ->도 4b의 (b) -> 도 4b의 (a)가 반복된다. As described above, whenever the lower key is input, (a) of FIG. 4B-> (b) of FIG. 4B-> (c) of FIG. 4B are repeated. In addition, whenever the upper key is input, (c) of FIG. 4B-> (b) of FIG. 4B-> (a) of FIG. 4B are repeated.

또한 상기 303단계에서 일정 키, 예를 들어 볼륨 업/다운키를 통해 상기 사진의 확대/축소기능을 수행하면서 상기 영역이동과정을 수행할 수 있다.In addition, in step 303, the area movement process may be performed while performing a function of enlarging / reducing the picture through a predetermined key, for example, a volume up / down key.

상기 303단계에서 해당영역이 선택된 후 상기 영역수정메뉴에서 점이 선택되면, 상기 제어부110은 304단계에서 이를 감지하고 상기 영역위치커서가 위치된 해당영역 내에서 해당 점으로 이동하는 305단계를 진행한다. 본 발명의 실시 예에서 상기 점 이동은 방향 키 중 좌/우측 키를 통해 이루어진다고 가정하여 설명한다. If a point is selected in the region modification menu after the corresponding region is selected in step 303, the controller 110 detects it in step 304 and proceeds to step 305 to move to the corresponding point in the corresponding region where the region position cursor is located. In the embodiment of the present invention, it is assumed that the point movement is performed through the left / right keys among the direction keys.

상기 도 4c의 (a) - (d)는 제1영역 및 제2영역내의 점 이동과정을 나타내며, 상기 도 4의 (e) - (h)는 제3영역 내의 점 이동과정을 나타내고 있다.(A)-(d) of FIG. 4C show a point movement process in the first region and a second region, and FIG. 4E-(h) show a process of point movement in the third region.

먼저, 상기 도 4의 (a)에서와 같이, 상기 제1영역을 이루는 4점 중 좌측 눈썹의 좌측 끝단을 나타내는 제1점이 활성화되어 있을 때, 우측 키가 입력되면, 상기 제어부110은 이를 감지하고 상기 도 4의 (b)와 같이 좌측 눈썹의 우측 끝단을 나타내는 제2점을 활성화시킨다. 또한, 상기 도 4의 (b)에서 우측 키가 입력되면, 상기 제어부110은 이를 감지하고 상기 도 4의 (c)와 같이 좌측 눈의 좌측 끝단을 나타내는 제3점을 활성화시킨다. 또한 상기 도 4의 (c)에서 우측 키가 입력되면, 상기 제어부110은 이를 감지하고 상기 도 4의 (d)와 같이 좌측 눈의 우측 끝단을 나타내는 제4점을 활성화시킨다. First, as shown in (a) of FIG. 4, when the first point indicating the left end of the left eyebrow is activated among the four points forming the first area, when the right key is input, the controller 110 detects this. As shown in (b) of FIG. 4, the second point representing the right end of the left eyebrow is activated. In addition, when the right key is input in (b) of FIG. 4, the controller 110 detects this and activates a third point representing the left end of the left eye as shown in (c) of FIG. 4. In addition, when the right key is input in (c) of FIG. 4, the controller 110 detects this and activates a fourth point representing the right end of the left eye as shown in (d) of FIG. 4.

상기와 같이, 상기 우측 키가 입력될 때마다 제1영역을 이루는 4점은 도 4c의 (a) -> 도 4c의 (b) -> 도 4c의 (c) -> 도 4c의 (d)와 같이, 상기 제1점에서 상기 제4점의 순서로 이동하면서 활성화 된다. 또한 상기 좌측 키가 입력될 때마다 제1영역을 이루는 4점은 도 4c의 (d) -> 도 4c의 (c) -> 도 4c의 (b) -> 도 4c의 (a)와 같이, 상기 제4점에서 상기 제1점의 순서로 이동하면서 활성화 된다. 상기 제2영역을 이루는 4점 중 해당 점으로 이동하여 선택하는 과정은 상기 제1영역을 이루는 4점 중 해당 점으로 이동하여 선택하는 과정과 동일하다.As described above, four points constituting the first area each time the right key is input are (a) of FIG. 4C-> (c) of FIG. 4C-> (c) of FIG. 4C-> (d) of FIG. 4C. As described above, the first point is activated while moving in the order of the fourth point. In addition, four points constituting the first area each time the left key is input are as shown in (d) of FIG. 4C-> (c) of FIG. 4C-> (b)-> 4C of FIG. 4C, The fourth point is activated while moving in the order of the first point. The process of selecting and moving to the corresponding point among the four points constituting the second area is the same as the process of selecting and moving to the corresponding point among the four points constituting the first area.

그리고, 상기 도 4의 (e) - (h)를 통해 제3영역 내의 점 이동과정을 설명하면, 상기 도 4의 (e)에서와 같이, 상기 제3영역을 이루는 4점 중 입술의 좌측 끝단을 나타내는 제1점이 활성화되어 있을 때, 우측 키가 입력되면, 상기 제어부110은 이를 감지하고 상기 도 4의 (f)와 같이 입술의 상측 끝단을 나타내는 제2점을 활성화시킨다. 또한, 상기 도 4의 (f)에서 우측 키가 입력되면, 상기 제어부110은 이를 감지하고 상기 도 4의 (g)와 같이 입술의 우측 끝단을 나타내는 제3점을 활성화시킨다. 또한 상기 도 4의 (g)에서 우측 키가 입력되면, 상기 제어부110은 이를 감지하고 상기 도 4의 (h)와 같이 입술의 하측 끝단을 나타내는 제4점을 활성화시킨다.And, the process of moving the point in the third region through (e) to (h) of Figure 4, as shown in (e) of FIG. 4, the left end of the lips of the four points forming the third region When the first point indicating is activated, if the right key is input, the controller 110 detects this and activates the second point representing the upper end of the lips as shown in FIG. In addition, when the right key is input in (f) of FIG. 4, the controller 110 detects this and activates a third point representing the right end of the lips as shown in (g) of FIG. 4. In addition, when the right key is input in (g) of FIG. 4, the controller 110 detects this and activates a fourth point representing the lower end of the lips as shown in (h) of FIG. 4.

상기와 같이, 상기 우측 키가 입력될 때마다 제3영역을 이루는 4점은 도 4c 의 (e) -> 도 4c의 (f) -> 도 4c의 (g) -> 도 4c의 (h)와 같이, 상기 제1점에서 상기 제4점의 순서로 이동하면서 활성화 된다. 또한 상기 좌측 키가 입력될 때마다 제1영역을 이루는 4점은 도 4c의 (h) -> 도 4c의 (g) -> 도 4c의 (f) -> 도 4c의 (e)와 같이, 상기 제4점에서 상기 제1점의 순서로 이동하면서 활성화 된다.As described above, each time the right key is input, the four points forming the third area are (e) of FIG. 4C-> (f) of FIG. 4C-> (g) of FIG. 4C-> (h) of FIG. 4C. As described above, the first point is activated while moving in the order of the fourth point. In addition, four points constituting the first area each time the left key is input are as shown in (h) of FIG. 4C-> (G) of FIG. 4C-> (F) of FIG. 4C-> (C) of FIG. The fourth point is activated while moving in the order of the first point.

또한 상기 305단계에서 일정 키, 예를 들어 볼륨 업/다운키를 통해 상기 사진의 확대/축소기능을 수행하면서 상기 해당영역 내에서 해당 점을 선택하는 과정을 수행할 수 있다.In operation 305, a process of selecting a corresponding point in the corresponding area may be performed while performing a function of enlarging / reducing the picture through a predetermined key, for example, a volume up / down key.

상기 305단계에서 해당영역에서 해당 점이 활성화되어 있을 때 선택이 입력되면, 상기 제어부110은 306단계에서 이를 감지하고 상기 점 수정메뉴를 307단계를 진행한다. 이때 상기 활성화된 해당 점의 선택은 상기 방향 키 중 중앙 키를 통해 이루어 질 수 있다.If a selection is input while the corresponding point is activated in the corresponding area in step 305, the controller 110 detects it in step 306 and proceeds to step 307 in the point correction menu. In this case, the selection of the activated corresponding point may be made through a center key among the direction keys.

상기 도 4d는 상기 활성화된 점을 수정하는 과정을 나타내는 것으로, 상기 305단계에서 사진의 확대기능을 통해 제2영역의 제2점을 활성화 시켜 수정하는 과정을 나타내고 있다.4D illustrates a process of correcting the activated point, and in step 305, a process of activating and correcting a second point of a second area through an enlargement function of a picture.

상기 도 4d의 (a)와 같이, 제2영역의 제2점을 활성화 시킨 후, 상기 제2점을 선택하기 위한 방향 키 중 중앙 키가 입력되면, 상기 제어부110은 상기 306단계에서 이를 감지하고 상기 도 4d의 (b)와 같이 상기 제2점을 이동표시로 변경시키며, 상기 점 수정메뉴를 표시하는 307단계를 진행한다. As shown in (a) of FIG. 4D, after activating the second point of the second area, if the center key among the direction keys for selecting the second point is input, the control unit 110 detects this in step 306. As shown in (b) of FIG. 4D, the second point is changed to the movement display, and step 307 of displaying the point correction menu is performed.

상기 점 수정메뉴 중 이동이 선택되면, 상기 제어부110은 308단계에서 이를 감지하고 상기 도 4d의 (c)와 같이, 상기 제2점에 대한 이동표시를 해당 위치로 이 동하는 309단계를 진행한다. 이때 상기 이동은 4방향키를 이용하는 것으로, 상기 4방향 중 입력에 대응되는 방향으로 상기 이동표시를 이동하게 된다.If the movement is selected from the point correction menu, the controller 110 detects it in step 308 and proceeds to step 309 to move the movement indication of the second point to the corresponding position as shown in (c) of FIG. 4D. . At this time, the movement uses a four-way key, and the movement indication is moved in a direction corresponding to an input among the four directions.

또한 상기 점 수정메뉴 중 해제가 선택되면, 상기 제어부110은 310단계에서 이를 감지하고 상기 309단계를 통해 이동된 상기 제2점의 이동표시를 이전위치로 이동시키는 311단계를 진행한다. In addition, if release of the point correction menu is selected, the controller 110 detects this in step 310 and proceeds to step 311 in which the movement indication of the second point moved in step 309 is moved to a previous position.

상기 309단계 및 상기 311단계를 통해 상기 제2점을 해당위치로 이동하는 과정을 수행 중 확인키가 입력되면, 상기 제어부110은 이를 감지하고 상기 도 4d의 (d)와 같이, 상기 제2점의 이동표시를 점으로 표시하며 영역수정메뉴를 표시하는 상기 301단계를 진행한다.If a confirmation key is input during the process of moving the second point to the corresponding location in steps 309 and 311, the controller 110 detects this and then the second point as shown in (d) of FIG. 4D. In step 301, the movement display of the dot is displayed and the area correction menu is displayed.

상기 309단계 및 상기 311단계에서 일정 키, 예를 들어 볼륨 업/다운키를 통해 상기 사진의 확대/축소기능을 수행하면서 상기 이동표시의 이동 및 해제기능을 수행할 수 있다. In operation 309 and operation 311, the moving display may be moved and released while performing a zoom in / out function of the picture through a predetermined key, for example, a volume up / down key.

상기 도 3의 과정을 통해 사용자가 상기 제1-제3영역의 오류에 대한 수정이 완료되면, 상기 제어부110은 이를 감지하고 얼굴표정의 종류를 표시한다. 상기 얼굴표정의 종류에는 슬픔, 화남. 시무룩, 해피, 날씬, 통통 및 나이별 얼굴표정 등이 있을 수 있다. When the user corrects the error of the first to third regions through the process of FIG. 3, the controller 110 detects this and displays the type of facial expression. The facial expressions include sadness and anger. There may be murmur, happy, slim, plump and age facial expressions.

상기 얼굴표정의 종류 중 해당 얼굴표정이 선택되면, 상기 제어부110은 207단계에서 이를 감지하고 상기 선택된 얼굴표정을 상기 사진의 얼굴표정에 적용하여 표시하는 208단계를 진행한다.If the corresponding facial expression is selected from among the types of the facial expressions, the controller 110 detects it in step 207 and proceeds to step 208 in which the selected facial expressions are applied to the facial expressions of the photo and displayed.

상기 208단계에서 상기 제어부110은 상기 선택된 얼굴표정의 제1-제3영역을 추출한 후, 상기 선택된 얼굴표정의 제1-제3영역을 상기 사진의 제1-제3영역에 대응되도록 적용하여 표시한다.In step 208, the controller 110 extracts the first to third regions of the selected facial expression and displays the first and third regions of the selected facial expression to correspond to the first to third regions of the photo. do.

상기 얼굴표정의 종류 중 날씬/통통은 상기 203단계에서 추출된 얼굴에서 볼 부분의 영역을 추출하며, 상기 추출된 볼 부분의 영역에 날씨/통통과 같은 얼굴표정의 볼 부분영역을 적용하여 표시할 수 있다. Among the types of facial expressions, the slim / pain extracts an area of the ball part from the face extracted in step 203, and applies the ball partial area of the facial expression such as weather / pain to the extracted area of the ball part to be displayed. Can be.

상기 208단계를 통해 상기 사진의 얼굴표정을 상기 선택된 얼굴표정으로 변경한 후 비교가 선택되면, 상기 제어부110은 209단계에서 이를 감지하고 상기 201단계의 원본 사진과 상기 208단계에서 변경된 사진을 동시에 표시하는 210단계를 진행한다.If the comparison is selected after changing the facial expression of the photo to the selected facial expression through the step 208, the control unit 110 detects it in step 209 and simultaneously displays the original picture of step 201 and the changed picture in step 208. Proceed to step 210.

또는 상기 208단계에서 단계조정이 선택되면, 상기 제어부110은 211단계에서 이를 감지하고 상기 208단계에서 적용된 얼굴표정을 단계별로 표시하는 212단계를 진행한다. 상기 208단계에서 '해피'라는 얼굴표정이 적용되었다면, 상기 212단계에서 단계조정이 입력될 때마다 상기 제어부110은 제1-제3영역의 점들의 픽셀 값을 변경하여 상기'해피'의 얼굴표정을 단계별로 표시한다. 본 발명의 실시 예에서는 4단계의 단계조정으로 이루어진다. Alternatively, if the step adjustment is selected in step 208, the control unit 110 detects it in step 211 and proceeds to step 212 in which the face expression applied in step 208 is displayed step by step. If the facial expression of 'happy' is applied in step 208, whenever the step adjustment is input in step 212, the controller 110 changes the pixel value of the dots of the first to third areas to make the facial expression of 'happy'. Display step by step. In the embodiment of the present invention, it consists of four stage adjustments.

또는 상기 208단계에서 저장이 선택되면, 상기 제어부110은 213단계에서 이를 감지하고 상기 208단계에서 선택된 얼굴표정으로 변경된 사진을 저장하는 214단계를 진행한다.Alternatively, when the storage is selected in step 208, the controller 110 detects it in step 213 and proceeds to step 214 in which the changed picture is stored with the face expression selected in step 208.

도 5a - 도 5i는 상기 도 2의 과정을 통해 선택된 얼굴표정종류로 변경된 사진을 나타낸 도면이다. 5A to 5I are views illustrating a photo changed to the selected facial expression type through the process of FIG. 2.

상기 도 5a는 원본사진이고, 상기 도 5b는 상기 도 5a의 원본사진의 얼굴표정에 '깜짝'이라는 얼굴표정종류를 적용하여 변경한 사진이며, 상기 도 5c는 상기 도 5a의 원본사진의 얼굴표정에 '스마일'이라는 얼굴표정종류를 적용하여 변경한 사진이다. FIG. 5A is an original photograph, and FIG. 5B is a photograph changed by applying a type of facial expression “surprise” to the facial expression of the original photograph of FIG. 5A, and FIG. 5C is a facial expression of the original photograph of FIG. 5A. The photo was changed by applying the facial expression type of 'smile' to.

또한, 상기 도 5d는 상기 도 5a의 원본사진의 얼굴표정에'슬픔'이라는 얼굴표정종류를 적용하여 변경한 사진이며, 상기 도 5e는 상기 도 5a의 원본사진의 얼굴표정에 '시무룩'이라는 얼굴표정종류를 적용하여 변경한 사진이다.In addition, FIG. 5D is a photo modified by applying a type of facial expression of sadness to the facial expression of the original photo of FIG. 5A, and FIG. 5E is a face of 'Smooth look' on the facial expression of the original photo of FIG. 5A. The photo is changed by applying facial expression.

또한, 상기 도 5f는 상기 도 5a의 원본사진의 얼굴표정에 '화남'이라는 얼굴표정종류를 적용하여 변경한 사진이며, 상기 도 5g는 상기 도 5a의 원본사진의 얼굴표정에 '해피'이라는 얼굴표정종류를 적용하여 변경한 사진이다.In addition, FIG. 5F is a photo modified by applying a facial expression of 'angry' to the facial expression of the original photo of FIG. 5A, and FIG. 5G is a face of 'happy' in the facial expression of the original photo of FIG. 5A. The photo is changed by applying facial expression.

또한, 상기 도 5h는 상기 도 5a의 원본사진의 얼굴표정에 '날씬'이라는 얼굴표정종류를 적용하여 변경한 사진이며, 상기 도 5i는 상기 도 5a의 원본사진의 얼굴표정에 '통통'이라는 얼굴표정종류를 적용하여 변경한 사진이다.In addition, FIG. 5H is a photo changed by applying a facial expression type of 'thin' to the facial expression of the original photo of FIG. 5A, and FIG. 5I is a face of 'passage' to the facial expression of the original photo of FIG. 5A. The photo is changed by applying facial expression.

도 6은 본 발명의 실시 에에 따른 휴대단말기에서 얼굴표정을 추출하여 저장하는 과정을 도시한 흐름도이다.6 is a flowchart illustrating a process of extracting and storing facial expressions in a mobile terminal according to an embodiment of the present invention.

이하 본 발명의 실시 예를 도 1의 참조와 함께 상세히 설명한다. Hereinafter, an embodiment of the present invention will be described in detail with reference to FIG. 1.

상기 도 6을 참조하면, 상기 휴대단말기의 메모리130에 저장된 사진들 중 해당사진이 선택되면, 상기 제어부110은 이를 감지하고 상기 선택된 사진을 상기 표시부160에 표시하는 501단계를 진행한다. Referring to FIG. 6, when a corresponding picture is selected from among pictures stored in the memory 130 of the portable terminal, the controller 110 detects it and proceeds to step 501 of displaying the selected picture on the display unit 160.

상기 501단계에서 선택된 해당사진을 표시 중 얼굴표정저장이 선택되면, 상 기 제어부110은 502단계에서 이를 감지하고 상기 사진에서 얼굴위치를 추출하는 503단계를 진행한다. 상기 503단계에서 얼굴위치가 추출되면, 상기 제어부110은 상기 추출된 얼굴에서 눈과 입의 위치를 추출하는 504단계를 진행한다. If the facial expression storage is selected while displaying the corresponding picture selected in step 501, the controller 110 detects it in step 502 and proceeds to step 503 in which the face position is extracted from the picture. When the face position is extracted in step 503, the controller 110 proceeds to step 504 to extract the positions of eyes and mouth from the extracted face.

상기 504단계에서 눈과 입의 위치가 추출되면, 상기 제어부110은 이를 감지하고 상기 추출된 눈과 입의 위치를 제1-제3영역으로 표시하는 505단계를 진행한다. 이때 제1영역은 좌측 눈의 위치를 표시하는 것으로, 좌측 눈썹의 좌우 끝단의 두 점 및 좌측 눈의 좌우 끝단의 두 점으로 이루어진다. 또한. 제2영역은 우측 눈의 위치를 표시하는 것으로, 우측 눈썹의 좌우 끝단의 두 점 및 우측 눈의 좌우 끝단의 두 점으로 이루어진다. 또한, 제3영역은 입의 위치를 표시하는 것으로, 입의 좌우 끝단의 두 점 및 입술의 상하 끝단의 두 점으로 이루어진다. When the positions of the eyes and the mouth are extracted in step 504, the controller 110 detects this and proceeds to step 505 in which the positions of the extracted eyes and the mouth are displayed as the first to third regions. At this time, the first area indicates the position of the left eye, and consists of two points at the left and right ends of the left eyebrow and two points at the left and right ends of the left eye. Also. The second area indicates the position of the right eye, and consists of two points at the left and right ends of the right eyebrow and two points at the left and right ends of the right eye. In addition, the third area indicates the position of the mouth, and consists of two points at the left and right ends of the mouth and two points at the top and bottom ends of the lips.

상기 505단계에서 수정이 선택되면, 상기 제어부110은 506단계에서 이를 감지하고 상기 제1-제3영역을 수정하는 300단계를 진행한다. 상기 제1-제3영역을 수정하는 300단계는 상기 도 3의 과정과 동일하다.If the correction is selected in step 505, the controller 110 detects it in step 506 and proceeds to step 300 to correct the first-third region. Step 300 of modifying the first to third regions is the same as the process of FIG. 3.

상기 도 3의 과정을 통해 사용자가 상기 제1-제3영역의 오류에 대한 수정이 완료되면, 상기 제어부110은 507단계에서 이를 감지하고 저장이름의 종류를 표시한다. When the user completes the correction of the error of the first to third regions through the process of FIG. 3, the controller 110 detects this and displays the type of the storage name in step 507.

상기 저장이름의 종류 중 표정종류가 선택되면, 상기 제어부110은 508단계에서 이를 감지하고 상기 선택된 표정종류를 저장이름으로 상기 505단계 또는 상기 300단계에서 표시되는 제1-제3영역을 저장하는 509단계를 진행한다. When the expression type is selected from the types of the stored names, the control unit 110 detects this in step 508 and stores the first to third areas displayed in step 505 or 300 as the stored names. Proceed to step.

또는 상기 저장이름의 종류 중 직접입력이 선택되면, 상기 제어부110은 510 단계에서 이를 감지하고 상기 입력된 표정종류를 저장이름으로 상기 505단계 또는 상기 300단계에서 표시되는 제1-제3영역을 저장하는 511단계를 진행한다. Alternatively, when a direct input is selected among the types of the storage name, the controller 110 detects it in step 510 and stores the first to third areas displayed in step 505 or 300 as the storage name as the stored name. Proceed to step 511.

상기 509단계 및 511단계에서 얼굴표정을 저장할 때, 상기 하나의 얼굴표정은 제1-제3영역의 점들에 픽셀 값을 변경하여 단계별로 저장될 수 있다. 이때 상기 단계는 사용자에 의해 설정될 수 있다.When the facial expressions are stored in steps 509 and 511, the one facial expression may be stored in stages by changing pixel values at points of the first to third regions. In this case, the step may be set by the user.

도 7은 본 발명의 실시 에에 따른 휴대단말기에서 얼굴표정을 생성하여 저장하는 과정을 도시한 흐름도이다.7 is a flowchart illustrating a process of generating and storing facial expressions in a mobile terminal according to an embodiment of the present invention.

이하 본 발명의 실시 예를 도 1의 참조와 함께 상세히 설명한다. Hereinafter, an embodiment of the present invention will be described in detail with reference to FIG. 1.

상기 도 7을 참조하면, 상기 휴대단말기의 메뉴 중 표정만들기가 선택되면, 상기 제어부110은 601단계에서 이를 감지하고 상기 표시부160에 눈과 입의 위치를 나타내는 제1-제3영역을 가지는 기본사진을 표시하는 602단계를 진행한다. Referring to FIG. 7, when a face expression is selected from a menu of the mobile terminal, the controller 110 detects it in step 601 and has a basic picture having a first to third regions indicating positions of eyes and mouth on the display unit 160. Proceed to step 602 to display.

이때 제1영역은 좌측 눈의 위치를 표시하는 것으로, 좌측 눈썹의 좌우 끝단의 두 점 및 좌측 눈의 좌우 끝단의 두 점으로 이루어진다. 또한, 제2영역은 우측 눈의 위치를 표시하는 것으로, 우측 눈썹의 좌우 끝단의 두 점 및 우측 눈의 좌우 끝단의 두 점으로 이루어진다. 또한, 제3영역은 입의 위치를 표시하는 것으로, 입의 좌우 끝단의 두 점 및 입술의 상하 끝단의 두 점으로 이루어진다. At this time, the first area indicates the position of the left eye, and consists of two points at the left and right ends of the left eyebrow and two points at the left and right ends of the left eye. In addition, the second area indicates the position of the right eye, and consists of two points at the left and right ends of the right eyebrow and two points at the left and right ends of the right eye. In addition, the third area indicates the position of the mouth, and consists of two points at the left and right ends of the mouth and two points at the top and bottom ends of the lips.

상기 602단계에서 영역이 선택되면, 상기 제어부110은 603단계에서 이를 감지하고 영역 이동을 위한 특정 키의 입력을 통해 상기 제1-제3영역 중 해당영역으로 이동하는 604단계를 진행한다. 상기 604단계에서 일정 키, 예를 들어 볼륨 업/다운키를 통해 상기 사진의 확대/축소기능을 수행하면서 상기 제1-제3영역 중 해당 영역을 선택하는 과정을 수행할 수 있다.If an area is selected in step 602, the controller 110 detects it in step 603 and proceeds to step 604 to move to a corresponding area among the first to third areas through input of a specific key for moving an area. In operation 604, a process of selecting a corresponding region from the first to third regions may be performed while performing a zoom in / out function of the photo through a predetermined key, for example, a volume up / down key.

상기 604단계에서 해당영역이 선택된 후 점 이동을 위한 특정 키가 입력되면, 상기 제어부110은 605단계에서 이를 감지하고 상기 점 이동을 위한 특정 키의 입력을 통해 상기 해당영역을 이루는 4점들 중 해당 점을 선택하는 606단계를 진행한다. 상기 606단계에서 일정 키, 예를 들어 볼륨 업/다운키를 통해 상기 사진의 확대/축소기능을 수행하면서 상기 해당영역 내에서 해당 점을 선택하는 과정을 수행할 수 있다.If a specific key for moving a point is input after the corresponding area is selected in step 604, the controller 110 detects this in step 605 and the corresponding point among the four points forming the corresponding area through input of a specific key for moving the point. Proceed to step 606 to select. In operation 606, a process of selecting a corresponding point in the corresponding area may be performed while performing a zoom in / out function of the picture through a predetermined key, for example, a volume up / down key.

상기 606단계에서 해당 점이 선택된 후, 607단계에서 표정변화를 위한 일정 연산 값이 선택 또는 입력되면, 상기 제어부110은 이를 감지하고 상기 해당 점이 위치하는 픽셀의 값과 상기 해당 점의 주변에 위치하는 일정 픽셀들의 값을 상기 연산 값에 따라 연산하여 표시하는 608단계를 진행한다.After the corresponding point is selected in step 606, if a certain operation value for changing the facial expression is selected or input in step 607, the controller 110 detects this value and the constant located around the point and the value of the pixel in which the point is located. In operation 608, the values of the pixels are calculated and displayed according to the operation value.

상기 608단계에서 상기 해당 점이 위치하는 픽셀 값 및 상기 해당 점의 주변에 위치하는 픽셀 값이 상기 표정변화를 위해 선택 또는 입력된 연산 값에 따라 연산된 픽셀 값으로 표시되는 중 선택이 입력되면, 상기 제어부110은 609단계에서 이를 감지하고 상기 해당 점이 위치하는 픽셀 값 및 상기 해당 점의 주변에 위치하는 픽셀 값을 상기 연산된 픽셀 값으로 변경하여 표시한다. In step 608, if a selection is made among the pixel value at which the point is located and the pixel value at the periphery of the point are selected as the pixel value calculated for the expression change or input value, the selection is made. In step 609, the control unit 110 detects this and displays the pixel value at which the corresponding point is located and the pixel value at the periphery of the corresponding point as the calculated pixel value.

상기 연산 값은 미리 설정되거나 사용자에 의해 임의 값이 입력될 수 있다. 상기 제어부110은 특정 연산프로그램을 통해 상기 사용자에 의해 선택 또는 입력된 연산 값으로 상기 픽셀 값들을 연산하여 표시하도록 제어한다. 상기와 같이 해당 점이 위치하는 픽셀의 값 및 상기 해당 점의 주변에 위치하는 픽셀들의 값을 일정 연산 값으로 연산하여 상기 픽셀들에 값에 변화를 줌으로써, 상기 사용자는 원하는 표정을 생성할 수 있다. The operation value may be preset or an arbitrary value may be input by the user. The control unit 110 controls to calculate and display the pixel values by using a calculation value selected or input by the user through a specific calculation program. As described above, the user may generate a desired facial expression by changing a value of the pixels by calculating a value of a pixel at which the point is located and a value of pixels located at the periphery of the point as a predetermined calculation value.

상기 603단계- 상기 609단계를 반복하며, 해당영역의 해당 점에 대한 픽셀 값을 변경 중 표정완성이 선택되면, 상기 제어부110은 610단계에서 이를 감지하고 상기 완성된 표정을 사용자에 의해 선택 또는 입력된 표정이름으로 저장하는 611단계를 진행한다.If the expression completion is selected while changing the pixel value of the corresponding point in the corresponding area, the control unit 110 detects this in step 610 and selects or inputs the completed expression by the user. Proceed to step 611 to save the expression name.

도 8은 본 발명의 실시 에에 따른 휴대단말기에서 얼굴표정을 합성하는 과정을 도시한 흐름도이다.8 is a flowchart illustrating a process of synthesizing facial expressions in a mobile terminal according to an embodiment of the present invention.

이하 본 발명의 실시 예를 도 1의 참조와 함께 상세히 설명한다. Hereinafter, an embodiment of the present invention will be described in detail with reference to FIG. 1.

상기 도 8을 참조하면, 상기 휴대단말기의 메모리130에 저장된 사진들 중 해당사진이 선택되면, 상기 제어부110은 이를 감지하고 상기 선택된 사진을 상기 표시부160에 표시하는 701단계를 진행한다. 상기 701단계에서 선택되어 표시되는 사진을 제1사진이라고 가정하여 설명한다.Referring to FIG. 8, when a corresponding picture is selected from the pictures stored in the memory 130 of the portable terminal, the controller 110 detects it and proceeds to step 701 in which the selected picture is displayed on the display unit 160. The photograph selected and displayed in step 701 is assumed to be a first photograph.

상기 701단계에서 선택된 제1사진을 표시 중 얼굴합성이 선택되면, 상기 제어부110은 702단계에서 이를 감지하고 상기 제1사진에서 얼굴위치를 추출하는 703단계를 진행한다. 상기 703단계에서 상기 제1사진의 얼굴위치가 추출되면, 상기 제어부110은 상기 추출된 얼굴에서 눈과 입의 위치를 추출하는 704단계를 진행한다. When face synthesis is selected while displaying the selected first picture in step 701, the controller 110 detects it in step 702 and proceeds to step 703 in which the face position is extracted from the first picture. If the face position of the first picture is extracted in step 703, the controller 110 proceeds to step 704 of extracting the positions of eyes and mouth from the extracted face.

상기 704단계에서 상기 제1사진의 눈과 입의 위치가 추출되면, 상기 제어부110은 이를 감지하고 상기 추출된 눈과 입의 위치를 제1-제3영역으로 표시하는 705단계를 진행한다. 이때 제1영역은 좌측 눈의 위치를 표시하는 것으로, 좌측 눈썹의 좌우 끝단의 두 점 및 좌측 눈의 좌우 끝단의 두 점으로 이루어진다. 또한. 제2영역은 우측 눈의 위치를 표시하는 것으로, 우측 눈썹의 좌우 끝단의 두 점 및 우측 눈의 좌우 끝단의 두 점으로 이루어진다. 또한, 제3영역은 입의 위치를 표시하는 것으로, 입의 좌우 끝단의 두 점 및 입술의 상하 끝단의 두 점으로 이루어진다. When the positions of the eyes and the mouth of the first picture are extracted in step 704, the controller 110 detects this and displays the positions of the extracted eyes and the mouth as the first to third regions. At this time, the first area indicates the position of the left eye, and consists of two points at the left and right ends of the left eyebrow and two points at the left and right ends of the left eye. Also. The second area indicates the position of the right eye, and consists of two points at the left and right ends of the right eyebrow and two points at the left and right ends of the right eye. In addition, the third area indicates the position of the mouth, and consists of two points at the left and right ends of the mouth and two points at the top and bottom ends of the lips.

상기 705단계에서 수정이 선택되면, 상기 제어부110은 706단계에서 이를 감지하고 상기 제1-제3영역을 수정하는 300단계를 진행한다. 상기 제1-제3영역을 수정하는 300단계는 상기 도 3의 과정과 동일하다.If the correction is selected in step 705, the controller 110 detects it in step 706 and proceeds to step 300 to correct the first-third region. Step 300 of modifying the first to third regions is the same as the process of FIG. 3.

상기 701단계-300단계를 통해 상기 제1사진에서 제1-제3영역을 추출한 후 상기 휴대단말기의 메모리130에서 해당사진을 선택하면, 상기 제어부110은 707단계에서 이를 감지하고 상기 선택된 사진을 표시한다. 상기 707단계에서 선택되어 표시되는 사진을 제2사진이라고 가정하여 설명한다.After extracting the first to third regions from the first picture through steps 701 to 300, and selecting the corresponding picture from the memory 130 of the mobile terminal, the controller 110 detects the displayed picture and displays the selected picture in step 707. do. The photograph selected and displayed in step 707 is assumed to be a second photograph.

상기 제어부110은 708단계-710단계를 통해 상기 제2사진에서 제1-제3영역을 추출하며, 상기 708단계-710단계는 상기 703단계-705단계와 동일하게 수행된다. 또한 상기 710단계에서 상기 706단계 및 707단계를 수행할 수 있다.The controller 110 extracts the first to third regions from the second photo through steps 708 and 710, and steps 708 and 710 are performed in the same manner as steps 703 and 705. In addition, in step 710, steps 706 and 707 may be performed.

상기 제2사진에서 제1-제3영역이 추출된 후 상기 제1사진의 눈과 입이 선택되면, 상기 제어부110은 711단계에서 이를 감지하고 상기 제1사진의 눈과 입에 해당하는 제1-제3영역을 상기 제2사진의 제1-제3영역에 적용하여 합성하는 712단계를 진행한다.If the eyes and the mouth of the first picture are selected after the first-third region is extracted from the second picture, the control unit 110 detects this in step 711 and the first corresponding to the eyes and mouth of the first picture. In operation 712, a third region is applied to the first to third regions of the second photograph to be synthesized.

또한 상기 제2사진의 눈과 입이 선택되면, 상기 제어부110은 상기 711단계에서 이를 감지하고 상기 제2사진의 눈과 입에 해당하는 제1-제3영역을 상기 제1사진 의 제1-제3영역에 적용하여 합성하는 상기 712단계를 진행한다.In addition, when the eyes and the mouth of the second picture are selected, the control unit 110 detects this in step 711 and selects the first-third area corresponding to the eyes and the mouth of the second picture first-first of the first picture. Step 712 is performed by applying the composition to the third region.

상기 합성대상이 되는 눈과 입은 사용자에 의해 선택될 수 있으며, 상기 얼굴추출에 따라 상기 눈과 입뿐만 아니라 코 및 귀등도 추출되어 합성될 수 있다.The eyes and mouth to be synthesized may be selected by a user, and the nose and ears as well as the eyes and mouth may be extracted and synthesized according to the face extraction.

상술한 본 발명의 설명에서는 휴대 단말기와 같은 구체적인 실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시 할 수 있다. 따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위의 균등한 것에 의해 정해져야 한다.In the above description of the present invention, a specific embodiment such as a mobile terminal has been described, but various modifications can be made without departing from the scope of the present invention. Therefore, the scope of the present invention should not be defined by the described embodiments, but should be determined by the equivalent of claims and claims.

즉, 상술한 바와 같이 본 발명은 휴대단말기의 이미지편집 방법을 제공함으로써, 사진의 얼굴표정을 변경하여 표현할 수 있으며, 사진의 얼굴표정을 추출하여 저장할 수 있으며, 사진의 얼굴표정을 합성하여 표시할 수 있는 다양한 서비스를 제공할 수 있는 효과가 있다. 또한 상기와 같은 얼굴편집과정에서 검출된 얼굴의 특징부분을 사용자가 직접 수정할 수 있어 원하는 표정을 정확하게 연출할 수 있는 효과가 있다.That is, as described above, the present invention provides a method of editing an image of a mobile terminal, thereby changing and expressing facial expressions of a photo, extracting and storing facial expressions of a photo, and synthesizing and displaying the facial expressions of a photo. There is an effect that can provide a variety of services. In addition, the feature of the face detected in the face editing process as described above can be directly modified by the user can produce the desired expression accurately.

Claims (30)

휴대단말기에서 이미지편집 방법에 있어서,In the image editing method in the mobile terminal, 사진을 표시 중 얼굴표정효과가 선택되면, 얼굴표정종류들을 표시하는 과정과,If the facial expression effect is selected while displaying a photo, the process of displaying the facial expression types, 상기 얼굴표정종류들 중 선택된 얼굴표정종류로 상기 사진의 얼굴표정을 변경하여 표시하는 과정으로 이루어진 것을 특징으로 하는 상기 방법.And changing a facial expression of the picture to a selected facial expression type among the facial expression types. 제1항에 있어서, 상기 사진의 얼굴표정을 변경하여 표시하는 과정이,The method of claim 1, wherein the changing of the facial expression of the photo is performed. 상기 사진에서 얼굴을 추출하는 과정과,Extracting a face from the photo; 상기 추출된 얼굴에서 눈과 입의 위치를 추출하여 영역을 지정하는 과정과,Specifying a region by extracting positions of eyes and mouth from the extracted face; 상기 추출된 눈과 입의 영역을 상기 선택된 얼굴표정종류에 따른 눈과 입의 영역으로 변경하여 표시하는 과정으로 이루어진 것을 특징으로 하는 상기 방법.And changing the extracted eye and mouth areas into eye and mouth areas according to the selected facial expression type. 휴대단말기에서 이미지편집 방법에 있어서,In the image editing method in the mobile terminal, 사진을 표시 중 얼굴표정효과가 선택되면, 상기 사진에서 눈과 입의 위치를 표시하는 영역들을 표시하는 과정과,If a facial expression effect is selected while displaying the photo, displaying the areas of the eye and mouth in the photo, and 상기 영역들에 대한 수정이 선택되면, 상기 눈과 입의 위치를 표시하는 영역 들을 수정하는 과정과,When the correction is selected for the regions, modifying the regions indicating the positions of the eyes and the mouth; 얼굴표정효과의 종류가 선택되면, 상기 선택된 얼굴표정으로 상기 사진의 얼굴표정을 변경하여 표시하는 과정으로 이루어진 것을 특징으로 하는 상기 방법.And when the type of facial expression effect is selected, changing and displaying the facial expression of the picture with the selected facial expression. 제3항에 있어서, 상기 사진에서 눈과 입의 위치를 표시하는 영역들을 표시하는 과정이,The method of claim 3, wherein the displaying of the areas of the eyes and the mouth in the picture is performed by: 상기 사진에서 얼굴을 추출하는 과정과,Extracting a face from the photo; 상기 추출된 얼굴에서 눈과 입의 위치를 추출하는 과정과,Extracting the positions of eyes and mouth from the extracted face; 상기 눈과 입의 위치에 특정영역을 지정하여 표시하는 과정으로 이루어진 것을 특징으로 하는 상기 방법. And specifying a specific area at the positions of the eyes and the mouth to display the specific area. 제4항에 있어서, 상기 눈과 입의 위치에 특정영역을 지정하여 표시하는 과정이,The method of claim 4, wherein the process of designating and displaying a specific area at the positions of the eyes and the mouth, 좌측 눈썹의 좌우 끝 두 점 및 좌측 눈의 좌우 끝 두 점으로 이루어진 제1영역을 통해 좌측 눈의 위치를 표시하는 과정과, Displaying a position of the left eye through a first area including two left and right ends of the left eyebrow and two left and right ends of the left eye; 우측 눈썹의 좌우 끝 두 점 및 우측 눈의 좌우 끝 두 점으로 이루어진 제2영역을 통해 우측 눈의 위치를 표시하는 과정과, Displaying a position of the right eye through a second area including two left and right ends of the right eyebrow and two left and right ends of the right eye; 입의 좌우 끝 두 점 및 상하 끝 두 점으로 영역을 이루어진 제3영역을 통해 입의 위치를 표시하는 과정으로 이루어진 것을 특징으로 하는 상기 방법. And displaying the position of the mouth through a third region consisting of two points, the left and right end points of the mouth, and the upper and lower end points. 제3항에 있어서, 상기 영역들을 수정하는 과정이,The method of claim 3, wherein the modifying of the areas, 상기 영역들에 대한 수정이 선택되면, 영역수정메뉴를 표시하는 과정과,When the correction for the regions is selected, displaying a region correction menu; 상기 영역수정메뉴 중 영역이 선택되면, 좌측 눈을 표시하는 제1영역, 우측 눈을 표시하는 제2영역 및 입을 표시하는 제3영역 중 해당영역이 선택되는 과정과,Selecting a region from the region modification menu, selecting a region from among a first region displaying a left eye, a second region displaying a right eye, and a third region displaying a mouth; 상기 영역수정메뉴 중 점이 선택되면, 상기 해당영역을 이루는 점들 중 해당 점이 선택되며, 상기 선택된 점을 해당 위치로 이동시키는 과정으로 이루어진 것을 특징으로 하는 상기 방법.And when a point is selected in the region modification menu, a corresponding point is selected among the points forming the corresponding area, and the selected point is moved to a corresponding position. 제6항에 있어서,The method of claim 6, 상기 영역수정메뉴 중 영역이 선택되면, 확대/축소 기능을 통해 상기 해당영역이 선택되는 것을 특징으로 하는 상기 방법.And selecting a corresponding region through an enlargement / reduction function when an region is selected from the region modification menu. 제6항에 있어서,The method of claim 6, 상기 영역수정메뉴 중 점이 선택되면, 확대/축소 기능을 통해 상기 해당 점이 선택되는 것을 특징으로 하는 상기 방법.And when a point is selected in the region modification menu, the corresponding point is selected through a zoom in / out function. 제6항에 있어서, 상기 선택된 점을 해당 위치로 이동시키는 과정이,The method of claim 6, wherein the moving of the selected point to a corresponding position comprises: 상기 해당영역을 이루는 점들 중 해당 점이 선택되면, 점 수정메뉴를 표시하는 과정과,Displaying a point correction menu when a corresponding point is selected among the points forming the corresponding area; 상기 점 수정 메뉴 중 이동이 선택되면, 상기 선택된 해당 점을 해당 위치로 이동시키는 과정과,If moving is selected from the point editing menu, moving the selected point to a corresponding position; 상기 점 수정 메뉴 중 해제가 선택되면, 상기 해당 위치로 이동된 점의 이동을 해제하는 과정으로 이루어진 것을 특징으로 하는 상기 방법. And if release is selected from the point correction menu, releasing a movement of the point moved to the corresponding position. 제3항에 있어서, 상기 사진의 얼굴표정을 변경하여 표시하는 과정이,The method of claim 3, wherein the changing of the facial expression of the photo is performed. 상기 선택된 얼굴표정에서 좌측 눈을 표시하는 제1영역, 우측 눈을 표시하는 제2영역 및 입을 표시하는 제3영역을 추출하는 과정과,Extracting a first region displaying a left eye, a second region displaying a right eye, and a third region displaying a mouth from the selected facial expression; 상기 선택된 얼굴표정의 제1-제3영역을 상기 사진의 제1-제3영역에 적용하여 표시하는 과정으로 이루어진 것을 특징으로 하는 상기 방법.And applying the first-third region of the selected facial expression to the first-third region of the photo. 제3항에 있어서,The method of claim 3, 상기 사진의 얼굴표정을 변경 후 비교가 선택되면, 원본사진과 상기 얼굴표정이 변경된 사진을 표시하여 비교하는 과정과,If the comparison is selected after changing the facial expression of the photo, the process of displaying and comparing the original photo and the photo with the changed facial expression, 상기 사진의 얼굴표정 변경 후 단계조정이 선택되면, 상기 사진에 적용된 얼굴표정을 단계별로 표시하는 과정과,If step adjustment is selected after changing the facial expression of the photo, displaying the facial expression applied to the photo step by step; 상기 사진의 얼굴표정 변경 후 저장이 선택되면, 상기 얼굴표정이 적용된 사진을 저장하는 과정이 더 포함 된 것을 특징으로 하는 상기 방법.And if storing is selected after changing the facial expression of the photo, storing the photo to which the facial expression is applied. 휴대단말기에서 이미지편집 방법에 있어서,In the image editing method in the mobile terminal, 사진을 표시 중 얼굴표정효과가 선택되면, 상기 사진에서 눈과 입의 위치를 지정하는 제1-제3영역들을 표시하는 과정과,If a facial expression effect is selected while displaying a photo, displaying first to third regions designating eye and mouth positions in the photo; 상기 영역들에 대한 수정이 선택되면, 상기 제1-제3영역 중 해당영역이 선택되고, 상기 선택된 영역을 이루는 점들 중 해당 점이 선택되며, 상기 선택된 점을 해당 위치로 이동시켜 상기 제1-제3영역을 수정하여 표시하는 과정과,When the correction for the regions is selected, a corresponding region among the first to third regions is selected, a corresponding point among the points constituting the selected region is selected, and the selected point is moved to a corresponding position to move the selected region to the corresponding position. 3 process of modifying and displaying the area, 얼굴표정효과의 종류가 선택되면, 상기 선택된 얼굴표정의 제1-제3영역을 상기 사진의 제1-3영역에 적용하여 변경된 사진의 얼굴표정을 표시하는 과정으로 이루어진 것을 특징으로 하는 상기 방법.And when the type of face expression effect is selected, applying the first to third areas of the selected face expression to the first to third areas of the picture to display the changed face expression of the picture. 제12항에 있어서, The method of claim 12, 상기 제1영역은 좌측 눈을 좌측 눈썹의 좌우 끝 두 점 및 좌측 눈의 좌우 끝 두 점으로 이루어지고, 상기 제2영역은 우측 눈을 우측 눈썹의 좌우 끝 두 점 및 우측 눈의 좌우 끝 두 점으로 이루어지며, 상기 제3영역은 입의 좌우 끝 두 점 및 상하 끝 두 점으로 영역을 이루어진 것을 특징으로 하는 상기 방법. The first area includes two left and right ends of the left eye and two left and right ends of the left eye, and the second area is two right and left ends of the right eyebrow and two right and left ends of the right eye. Wherein the third region is characterized in that the area consisting of two points of the left and right end and two points of the upper and lower ends of the mouth. 제12항에 있어서, The method of claim 12, 상기 영역들에 대한 수정이 선택되면, 확대/축소기능을 통해 상기 제1-제3영역을 수정하는 것을 특징으로 하는 상기 방법.And modifying the first to third areas through a zooming function. 휴대단말기에서 이미지편집 방법에 있어서,In the image editing method in the mobile terminal, 사진을 표시 중 얼굴표정저장이 선택되면, 상기 사진에서 눈과 입의 위치를 추출하여 영역들로 표시하는 과정과,If the facial expression storage is selected while displaying the photo, the process of extracting the position of the eyes and mouth in the photo to display the areas; 상기 영역들에 대한 수정이 선택되면, 상기 눈과 입의 위치를 표시하는 영역들을 수정하는 과정과,Modifying the areas, selecting the areas indicating the positions of the eyes and mouth; 상기 사진의 얼굴표정에 대한 저장이 선택되면, 상기 추출된 사진의 표정을 저장하는 과정으로 이루어진 것을 특징으로 하는 상기 방법.And storing the facial expression of the extracted photo when the storage of the facial expression of the photo is selected. 제15항에 있어서, 상기 사진에서 눈과 입의 위치를 추출하여 영역들로 표시하는 과정이,The method of claim 15, wherein the extracting the positions of the eyes and the mouth from the photo and displaying the positions are as areas. 좌측 눈썹의 좌우 끝 두 점 및 좌측 눈의 좌우 끝 두 점을 추출하며, 상기 추출된 4점으로 이루어진 제1영역을 통해 좌측 눈의 위치를 표시하는 과정과, Extracting two left and right end points of the left eyebrow and two left and right end points of the left eye, and displaying the position of the left eye through the extracted first region; 우측 눈썹의 좌우 끝 두 점 및 우측 눈의 좌우 끝 두 점을 추출하며, 상기 추출된 4점으로 이루어진 제2영역을 통해 우측 눈의 위치를 표시하는 과정과, Extracting two left and right end points of the right eyebrow and two left and right end points of the right eye, and displaying the position of the right eye through the extracted second region; 입의 좌우 끝 두 점 및 상하 끝 두 점을 추출하며, 상기 추출된 4점으로 이루어진 제3영역을 통해 입의 위치를 표시하는 과정으로 이루어진 것을 특징으로 하는 상기 방법. And extracting two left and right end points and two upper and lower end points of the mouth, and displaying the position of the mouth through the extracted third region. 제15항에 있어서, 상기 영역들을 수정하는 과정이,The method of claim 15, wherein the modifying the regions, 상기 영역들에 대한 수정이 선택되면, 영역수정메뉴를 표시하는 과정과,When the correction for the regions is selected, displaying a region correction menu; 상기 영역수정메뉴 중 영역이 선택되면, 좌측 눈을 표시하는 제1영역, 우측 눈을 표시하는 제2영역 및 입을 표시하는 제3영역 중 해당영역이 선택되는 과정과,Selecting a region from the region modification menu, selecting a region from among a first region displaying a left eye, a second region displaying a right eye, and a third region displaying a mouth; 상기 영역수정메뉴 중 점이 선택되면, 상기 해당영역을 이루는 점들 중 해당 점이 선택되며, 상기 선택된 점을 해당 위치로 이동시키는 과정으로 이루어진 것을 특징으로 하는 상기 방법.And when a point is selected in the region modification menu, a corresponding point is selected among the points forming the corresponding area, and the selected point is moved to a corresponding position. 제17항에 있어서, The method of claim 17, 상기 영역들에 대한 수정이 선택되면, 확대/축소기능을 통해 상기 제1-제3영 역을 수정하는 것을 특징으로 하는 상기 방법.And if the correction is selected for the regions, modifying the first to third regions through a zooming function. 제15항에 있어서, The method of claim 15, 상기 사진의 얼굴표정에 대한 저장이 선택되면, 상기 사진에서 추출된 눈과 입의 영역을 저장하는 것을 특징으로 하는 상기 방법.And if the storage for the facial expression of the photo is selected, the eye and mouth regions extracted from the photo are stored. 제15항에 있어서, The method of claim 15, 상기 추출된 사진의 표정은 입력 및 선택된 표정이름으로 저장하는 것을 특징으로 하는 상기 방법.The expression of the extracted picture is characterized in that for storing as an input and the selected facial expression name. 휴대단말기에서 이미지편집 방법에 있어서,In the image editing method in the mobile terminal, 상기 휴대단말기에서 표정만들기가 선택되면, 눈과 입의 위치를 나타내는 영역들을 가지는 기본사진을 표시하는 과정과,Displaying a basic picture having regions indicating the positions of eyes and mouth when making a facial expression is selected in the mobile terminal; 상기 기본사진에서 해당 영역내의 해당 점에 대한 픽셀 값을 변경하면서 표정을 생성하는 과정과.Generating a facial expression while changing a pixel value of a corresponding point in a corresponding area in the basic picture. 상기 생성된 표정을 저장하는 과정으로 이루어진 것을 특징으로 하는 상기 방법. The method comprising the step of storing the generated facial expression. 제21항에 있어서, The method of claim 21, 상기 기본사진은 좌측 눈의 위치를 나타내기 위한 좌측 눈썹의 좌우 끝 두 점 및 좌측 눈의 좌우 끝 두 점으로 이루어진 제1영역, 우측 눈을 나타내기 위한 우측 눈썹의 좌우 끝 두 점 및 우측 눈의 좌우 끝 두 점으로 이루어진 제2영역 및 입을 나타내기 위한 입의 좌우 끝 두 점 및 상하 끝 두 점으로 이루어진 제3영역을 가지는 것을 특징으로 하는 상기 방법. The basic photograph is a first area consisting of two left and right ends of the left eyebrow and two left and right ends of the left eye to indicate the position of the left eye, two left and right ends of the right eyebrow to represent the right eye, and And a third region consisting of two left and right end points and two upper and lower end points of the mouth to represent the mouth. 제21항에 있어서, 상기 표정을 생성하는 과정이,The method of claim 21, wherein the process of generating the facial expression, 상기 기본사진에서 좌측 눈을 표시하는 제1영역, 우측 눈을 표시하는 제2영역 및 입을 표시하는 제3영역 중 해당영역이 선택되는 과정과,Selecting a corresponding region from a first region displaying a left eye, a second region displaying a right eye, and a third region displaying a mouth in the basic picture; 상기 선택된 해당영역에서 상기 해당영역을 이루는 점들 중 해당 점이 선택되면, 상기 해당 점이 위치하는 픽셀의 값 및 상기 해당 점의 주변에 위치하는 픽셀들의 값을 연산하여 변경하는 과정으로 이루어진 것을 특징으로 하는 상기 방법.If a corresponding point is selected among the points constituting the corresponding area in the selected corresponding area, the step of calculating and changing the value of the pixel in which the point is located and the value of the pixels located in the periphery of the corresponding point Way. 제23항에 있어서, The method of claim 23, wherein 상기 표정을 생성하는 과정이 확대/축소기능을 통해 이루어지는 것을 특징으로 하는 상기 방법.The method of generating the expression is characterized in that through the enlargement / reduction function. 휴대단말기에서 이미지편집 방법에 있어서,In the image editing method in the mobile terminal, 얼굴표정합성이 선택되면, 선택된 제1,제2사진에서 눈과 입의 위치를 각각 추출하는 과정과,If the facial matchability is selected, extracting the positions of the eyes and mouth in the selected first and second photos, respectively, 선택적으로, 상기 제1사진의 눈과 입을 상기 제2사진에 적용하거나, 상기 제2사진의 눈과 입의 사진을 상기 제1사진에 적용하여 합성하는 과정으로 이루어 진 것을 특징으로 하는 상기 방법.Optionally, the method comprising the step of applying the eye and mouth of the first picture to the second picture, or applying a picture of the eye and mouth of the second picture to the first picture to synthesize. 제25항에 있어서, 상기 제1,제2사진에서 눈과 입의 위치를 각각 추출하는 과정이,The method of claim 25, wherein extracting the positions of the eyes and the mouth from the first and second photos, respectively, 상기 제1사진이 선택되면, 상기 제1사진에서 눈과 입의 위치를 추출하여 영역들로 표시하는 과정과,If the first picture is selected, extracting the positions of eyes and mouth from the first picture and displaying them as regions; 상기 제1사진의 영역들에 대한 수정이 선택되면, 상기 눈과 입의 위치를 표시하는 영역들을 수정하는 과정과,If the correction is selected for the areas of the first picture, correcting the areas indicating the positions of the eyes and the mouth; 상기 제2사진이 선택되면, 상기 제2사진에서 눈과 입의 위치를 추출하여 영역들로 표시하는 과정과,If the second picture is selected, extracting the positions of eyes and mouth from the second picture and displaying them as regions; 상기 제2사진의 영역들에 대한 수정이 선택되면, 상기 눈과 입의 위치를 표시하는 영역들을 수정하는 과정으로 이루어진 것을 특징으로 하는 상기 방법.And correcting the regions of the second photo, modifying the regions indicating the positions of the eyes and the mouth. 제26항에 있어서, 상기 눈과 입의 위치를 추출하여 영역들로 표시하는 과정이,27. The method of claim 26, wherein extracting and displaying positions of the eyes and the mouth as regions, 좌측 눈썹의 좌우 끝 두 점 및 좌측 눈의 좌우 끝 두 점을 추출하며, 상기 추출된 4점으로 이루어진 제1영역을 통해 좌측 눈의 위치를 표시하는 과정과, Extracting two left and right end points of the left eyebrow and two left and right end points of the left eye, and displaying the position of the left eye through the extracted first region; 우측 눈썹의 좌우 끝 두 점 및 우측 눈의 좌우 끝 두 점을 추출하며, 상기 추출된 4점으로 이루어진 제2영역을 통해 우측 눈의 위치를 표시하는 과정과, Extracting two left and right end points of the right eyebrow and two left and right end points of the right eye, and displaying the position of the right eye through the extracted second region; 입의 좌우 끝 두 점 및 상하 끝 두 점을 추출하며, 상기 추출된 4점으로 이루어진 제3영역을 통해 입의 위치를 표시하는 과정으로 이루어진 것을 특징으로 하는 상기 방법. And extracting two left and right end points and two upper and lower end points of the mouth, and displaying the position of the mouth through the extracted third region. 제26항에 있어서, 상기 영역들을 수정하는 과정이,The method of claim 26, wherein modifying the regions, 상기 영역들에 대한 수정이 선택되면, 영역수정메뉴를 표시하는 과정과,When the correction for the regions is selected, displaying a region correction menu; 상기 영역수정메뉴 중 영역이 선택되면, 좌측 눈을 표시하는 제1영역, 우측 눈을 표시하는 제2영역 및 입을 표시하는 제3영역 중 해당영역이 선택되는 과정과,Selecting a region from the region modification menu, selecting a region from among a first region displaying a left eye, a second region displaying a right eye, and a third region displaying a mouth; 상기 영역수정메뉴 중 점이 선택되면, 상기 해당영역을 이루는 점들 중 해당 점이 선택되며, 상기 선택된 점을 해당 위치로 이동시키는 과정으로 이루어진 것을 특징으로 하는 상기 방법.And when a point is selected in the region modification menu, a corresponding point is selected among the points forming the corresponding area, and the selected point is moved to a corresponding position. 제28항에 있어서, The method of claim 28, 상기 영역들에 대한 수정이 선택되면, 확대/축소기능을 통해 상기 제1-제3영역을 수정하는 것을 특징으로 하는 상기 방법.And modifying the first to third areas through a zooming function. 제25항에 있어서, 상기 합성하는 과정이,The method of claim 25, wherein the synthesis process, 상기 제1사진의 눈과 입이 선택되면, 상기 제1사진의 눈과 입의 영역들을 상기 제2사진의 눈과 입의 영역에 적용하여 합성하는 과정과,When the eyes and the mouth of the first picture are selected, synthesizing the areas of the eyes and the mouth of the first picture by applying the areas of the eyes and the mouth of the second picture; 상기 제2사진의 눈과 입이 선택되면, 상기 제2사진의 눈과 입의 영역들을 상기 제1사진의 눈과 입의 영역에 적용하여 합성하는 과정으로 이루어진 것을 특징으로 하는 상기 방법.And when the eyes and mouths of the second picture are selected, applying the areas of eyes and mouths of the second picture to the areas of eyes and mouths of the first picture.
KR1020050061588A 2005-07-08 2005-07-08 Method for editing image in wireless terminal KR101075720B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050061588A KR101075720B1 (en) 2005-07-08 2005-07-08 Method for editing image in wireless terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050061588A KR101075720B1 (en) 2005-07-08 2005-07-08 Method for editing image in wireless terminal

Publications (2)

Publication Number Publication Date
KR20070006337A true KR20070006337A (en) 2007-01-11
KR101075720B1 KR101075720B1 (en) 2011-10-21

Family

ID=37871610

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050061588A KR101075720B1 (en) 2005-07-08 2005-07-08 Method for editing image in wireless terminal

Country Status (1)

Country Link
KR (1) KR101075720B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101231469B1 (en) * 2012-02-23 2013-02-07 인텔 코오퍼레이션 Method, apparatusfor supporting image processing, and computer-readable recording medium for executing the method
KR20130093191A (en) * 2012-02-14 2013-08-22 삼성전자주식회사 Device and method for editing image in wireless terminal
KR20200080577A (en) 2018-12-27 2020-07-07 한국과학기술연구원 Device for providing application to edit image and method for transforming face in image performed by the same device
WO2020153785A1 (en) * 2019-01-24 2020-07-30 삼성전자 주식회사 Electronic device and method for providing graphic object corresponding to emotion information by using same
KR20220021213A (en) 2020-08-13 2022-02-22 유지호 Apparatus and Method for Providing multiple picture image edit service based artificial intelligence

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110520902B (en) 2017-03-30 2023-04-28 韩国斯诺有限公司 Method and device for applying dynamic effect to image

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001155174A (en) 1999-11-30 2001-06-08 Fuji Photo Film Co Ltd Method and device for image processing
JP2002288681A (en) 2001-03-27 2002-10-04 Konica Corp System, method, and service for correction of photographic image

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130093191A (en) * 2012-02-14 2013-08-22 삼성전자주식회사 Device and method for editing image in wireless terminal
KR101231469B1 (en) * 2012-02-23 2013-02-07 인텔 코오퍼레이션 Method, apparatusfor supporting image processing, and computer-readable recording medium for executing the method
WO2013125923A1 (en) * 2012-02-23 2013-08-29 Intel Corporation Method and apparatus for supporting image processing, and computer-readable recording medium for executing the method
US9124814B2 (en) 2012-02-23 2015-09-01 Intel Corporation Method and apparatus for supporting image processing, and computer-readable recording medium for executing the method
EP3059942A1 (en) 2012-02-23 2016-08-24 Intel Corporation Method and apparatus for supporting image processing, and computer-readable recording medium for executing the method
EP3059941A1 (en) 2012-02-23 2016-08-24 Intel Corporation Method and apparatus for supporting image processing, and computer-readable recording medium for executing the method
US10291841B2 (en) 2012-02-23 2019-05-14 Intel Corporation Method and apparatus for supporting image processing, and computer-readable recording medium for executing the method
US11356597B2 (en) 2012-02-23 2022-06-07 Intel Corporation Method and apparatus for supporting image processing, and computer-readable recording medium for executing the method
US11805310B2 (en) 2012-02-23 2023-10-31 Intel Corporation Method and apparatus for supporting image processing, and computer-readable recording medium for executing the method
KR20200080577A (en) 2018-12-27 2020-07-07 한국과학기술연구원 Device for providing application to edit image and method for transforming face in image performed by the same device
WO2020153785A1 (en) * 2019-01-24 2020-07-30 삼성전자 주식회사 Electronic device and method for providing graphic object corresponding to emotion information by using same
KR20220021213A (en) 2020-08-13 2022-02-22 유지호 Apparatus and Method for Providing multiple picture image edit service based artificial intelligence

Also Published As

Publication number Publication date
KR101075720B1 (en) 2011-10-21

Similar Documents

Publication Publication Date Title
KR100678209B1 (en) Method for controlling image in wireless terminal
KR101170338B1 (en) Method For Video Call And System thereof
KR20140106779A (en) Apparatus and method for processing a image in device
KR100617702B1 (en) Portable terminal capable of editing image and image edition method using that
KR101075720B1 (en) Method for editing image in wireless terminal
CN108734754A (en) Image processing method and device
KR100713531B1 (en) Method for displaying special effect to image data
KR100606076B1 (en) Method for controlling image in wireless terminal
US20090087102A1 (en) Method and apparatus for registering image in telephone directory of portable terminal
KR100678208B1 (en) Method for saving and displaying image in wireless terminal
KR101389775B1 (en) Apparatus and method for displaying image at liquid crystal display in wireless communication terminal
KR100700101B1 (en) A mobile communication terminal having a imeage editing function and the method thereof
KR100557154B1 (en) Method for displaying of picture in wireless terminal
KR100617736B1 (en) Method for zooming of picture in wireless terminal
KR100735330B1 (en) Method for editing picture in wireless terminal
US20040179749A1 (en) Image synthesizing apparatus, image synthesizing method and a computer readable recording medium having recorded a program
US20070013784A1 (en) Method of comparing motion and wireless terminal implementing the same
KR100678216B1 (en) Method for turning image state in wireless terminal
KR100659901B1 (en) Method for controlling the motion of avatar on mobile terminal and the mobile thereof
KR100606079B1 (en) Method for zooming of picture in wireless terminal
KR20100046805A (en) Method and device for performing menu in wireless terminal
KR100504139B1 (en) Method for processing mosaic of picture in wireless terminal
JP2007180914A (en) Mobile phone with image enlargement display function, image enlarging and display method, image enlargement display program and its recording medium
KR100664154B1 (en) Method for displaying of picture move in wireless terminal
KR100827142B1 (en) Apparatus and method for extracting video data in mobile terminal

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140929

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150925

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160929

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee