KR20070006337A - Method for editing image in wireless terminal - Google Patents
Method for editing image in wireless terminal Download PDFInfo
- Publication number
- KR20070006337A KR20070006337A KR1020050061588A KR20050061588A KR20070006337A KR 20070006337 A KR20070006337 A KR 20070006337A KR 1020050061588 A KR1020050061588 A KR 1020050061588A KR 20050061588 A KR20050061588 A KR 20050061588A KR 20070006337 A KR20070006337 A KR 20070006337A
- Authority
- KR
- South Korea
- Prior art keywords
- region
- displaying
- mouth
- facial expression
- photo
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72427—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Health & Medical Sciences (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
Description
도 1은 본 발명의 실시 예에 따른 휴대단말기의 구성도.1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
도 2는 본 발명의 실시 에에 따른 휴대단말기에서 얼굴표정을 변경하는 과정을 도시한 흐름도.2 is a flowchart illustrating a process of changing face expression in a mobile terminal according to an embodiment of the present invention.
도 3은 도 2에서 영역 수정과정으로 도시한 흐름도.3 is a flowchart illustrating a region modification process in FIG. 2;
도 4a - 도 4d는 도 2를 설명하기 위한 도면.4A-4D are views for explaining FIG. 2;
도 5a - 도 5i는 도 2를 통해 선택된 얼굴표정종류로 변경된 사진을 나타낸 도면. 5A to 5I are views illustrating a photo changed to a facial expression type selected through FIG. 2;
도 6은 본 발명의 실시 에에 따른 휴대단말기에서 얼굴표정을 추출하여 저장하는 과정을 도시한 흐름도.6 is a flowchart illustrating a process of extracting and storing facial expressions in a mobile terminal according to an embodiment of the present invention.
도 7은 본 발명의 실시 에에 따른 휴대단말기에서 얼굴표정을 생성하여 저장하는 과정을 도시한 흐름도이다.7 is a flowchart illustrating a process of generating and storing facial expressions in a mobile terminal according to an embodiment of the present invention.
도 8은 본 발명의 실시 에에 따른 휴대단말기에서 얼굴표정을 합성하는 과정을 도시한 흐름도.8 is a flowchart illustrating a process of synthesizing facial expressions in a mobile terminal according to an embodiment of the present invention.
본 발명은 휴대단말기의 이미지편집 방법에 관한 것으로, 특히 사진의 얼굴표정을 편집할 수 있는 휴대단말기의 이미지편집 방법에 관한 것이다. The present invention relates to an image editing method of a portable terminal, and more particularly, to an image editing method of a portable terminal capable of editing facial expression of a photograph.
현재 휴대용 이동통신 단말기는 음성 통신 기능 이외에 고속의 데이터를 전송할 수 있는 구조로 변환하고 있다. 상기 데이터 통신을 수행하는 휴대 단말기에서 처리할 수 있는 데이터들은 패킷 데이터 및 영상 데이터들이 될 수 있다. Currently, portable mobile communication terminals are converting to a structure capable of transmitting high speed data in addition to voice communication functions. Data that can be processed by the mobile terminal performing the data communication may be packet data and image data.
현재 휴대단말기는 영상 데이터를 송수신할 수 있는 기능을 구비하고 있다. 따라서 기지국으로부터 수신되는 영상화면을 저장하거나 또는 획득한 영상화면을 기지국으로 전송하는 기능을 수행하고 있다. 또한 휴대단말기가 영상화면을 촬영하는 카메라와, 상기 카메라로부터 촬영된 영상신호를 표시하는 표시부를 구비할 수 있다. 여기서 상기 카메라는 CCD나 CMOS 센서를 사용할 수 있으며, 표시부는 LCD를 사용할 수 있다. 또한 상기 카메라 장치의 소형화에 따라 상기 영상을 촬영하는 장치는 점점 소형화되는 추세에 있다. 상기 휴대용 단말기는 영상 화면을 촬영하여 동영상(moving picture) 및 정지영상(still picture)으로 표시할 수 있으며, 또한 촬영된 영상 화면을 기지국에 전송할 수도 있다. Currently, the mobile terminal has a function of transmitting and receiving image data. Therefore, the video screen received from the base station is stored or the acquired video screen is transmitted to the base station. In addition, the portable terminal may include a camera for photographing an image screen and a display unit for displaying an image signal photographed by the camera. The camera may use a CCD or a CMOS sensor, and the display unit may use an LCD. In addition, with the miniaturization of the camera device, the device for capturing the image is becoming more and more miniaturized. The portable terminal may capture a video screen and display the moving picture and the still picture, and transmit the captured video screen to the base station.
상기와 같이 현재 영상 메일에 관하여 사업자 및 소비자의 욕구가 증대됨에 따라 상기와 같은 서비스를 구현하고 있으며, 또한 향후 크게 증가될 추세이다. 또한 상기와 같은 휴대 단말기에서 영상화면을 사용자의 조작에 의해 편집하는 기능들도 크게 증가되고 있는 추세이다. 예를 들면 휴대단말기에서 저장하고 있는 사진 영상의 크기를 조절(zoom in, zoom out)하거나, 또는 복수의 사진 영상들을 합성하는 기술들이 구현되고 있다. As described above, as the needs of operators and consumers are increased with respect to video mails, the above-mentioned services are implemented, and the trend is to be greatly increased in the future. In addition, the functions of editing a video screen by a user's operation in the portable terminal are also increasing. For example, techniques for zooming in and zooming out a photo image stored in a mobile terminal or synthesizing a plurality of photo images are implemented.
또한, 상기 휴대단말기에 구비된 카메라의 성능이 발달되고 있지만, 실제로 촬영했을 때 자연스러운 표정이나 감정연출이 원하는 대로 이루어지지 않는 경우가 발생한다. 상기와 같은 경우, 상기 촬영된 사진을 컴퓨터로 다운로드 받아 포토샵 작업을 통해 원하는 표정으로 변경해야하는 번거로움이 있다.In addition, although the performance of the camera provided in the portable terminal has been developed, there are cases where natural facial expression or emotional expression does not occur as desired when actually photographing. In such a case, there is a hassle to download the photographed picture to a computer and change it to a desired look through Photoshop work.
따라서 본 발명의 목적은 휴대단말기에서 사진의 얼굴표정을 변경하여 표시할 수 있는 휴대단말기의 이미지편집 방법을 제공함에 있다. Accordingly, an object of the present invention is to provide an image editing method of a portable terminal which can display a changed face expression of a photo in the portable terminal.
본 발명의 다른 목적은 휴대단말기에서 사진의 얼굴표정을 추출하여 저장할 수 있는 휴대단말기의 이미지편집 방법을 제공함에 있다. Another object of the present invention is to provide an image editing method of a portable terminal capable of extracting and storing a facial expression of a photo from the portable terminal.
본 발명의 또 다른 목적은 휴대단말기에서 사진의 얼굴표정을 생성하여 저장할 수 있는 휴대단말기의 이미지편집 방법을 제공함에 있다. It is still another object of the present invention to provide an image editing method of a portable terminal capable of generating and storing a facial expression of a photo in the portable terminal.
본 발명의 또 다른 목적은 휴대단말기에서 사진의 얼굴표정을 합성할 수 있는 휴대단말기의 이미지편집 방법을 제공함에 있다. Still another object of the present invention is to provide an image editing method of a mobile terminal capable of synthesizing a facial expression of a photo in the mobile terminal.
상기 목적을 달성하기 위한 휴대단말기에서 이미지편집 방법이, 사진을 표시 중 얼굴표정효과가 선택되면, 얼굴표정종류들을 표시하는 과정과; 상기 얼굴표정종류들 중 선택된 얼굴표정종류로 상기 사진의 얼굴표정을 변경하여 표시하는 과정으로 이루어진 것을 특징으로 한다.The image editing method in the mobile terminal for achieving the above object comprises the steps of: displaying the facial expression types, if the facial expression effect is selected while displaying a photo; And changing the face expression of the picture to a selected facial expression type among the facial expression types.
또한 상기 목적을 달성하기 위한 휴대단말기에서 이미지편집 방법이, 사진을 표시 중 얼굴표정효과가 선택되면, 상기 사진에서 눈과 입의 위치를 표시하는 영역들을 표시하는 과정과; 상기 영역들에 대한 수정이 선택되면, 상기 눈과 입의 위치를 표시하는 영역들을 수정하는 과정과; 얼굴표정효과의 종류가 선택되면, 상기 선택된 얼굴표정으로 상기 사진의 얼굴표정을 변경하여 표시하는 과정으로 이루어진 것을 특징으로 한다.In addition, the image editing method in the mobile terminal to achieve the above object, if the facial expression effect is selected during the display of the display, the process of displaying the area for displaying the position of the eyes and mouth in the photo; Modifying the areas indicating the positions of the eyes and mouth when the correction for the areas is selected; When the type of the facial expression effect is selected, a process of changing and displaying the facial expression of the picture with the selected facial expression is performed.
또한 상기 목적을 달성하기 위한휴대단말기에서 이미지편집 방법이, 사진을 표시 중 얼굴표정효과가 선택되면, 상기 사진에서 눈과 입의 위치를 지정하는 제1-제3영역들을 표시하는 과정과; 상기 영역들에 대한 수정이 선택되면, 상기 제1-제3영역 중 해당영역이 선택되고, 상기 선택된 영역을 이루는 점들 중 해당 점이 선택되며, 상기 선택된 점을 해당 위치로 이동시켜 상기 제1-제3영역을 수정하여 표시하는 과정과; 얼굴표정효과의 종류가 선택되면, 상기 선택된 얼굴표정의 제1-제3영역을 상기 사진의 제1-3영역에 적용하여 변경된 사진의 얼굴표정을 표시하는 과정으로 이루어진 것을 특징으로 한다.In addition, the image editing method in the mobile terminal to achieve the above object, if the facial expression effect is selected while displaying a picture, displaying the first to third areas for specifying the position of the eyes and mouth in the picture; When the correction for the regions is selected, a corresponding region among the first to third regions is selected, a corresponding point among the points constituting the selected region is selected, and the selected point is moved to a corresponding position to move the selected region to the corresponding position. Modifying and displaying three regions; When the type of facial expression effect is selected, the first and third regions of the selected facial expression may be applied to the first and third regions of the photo to display the changed facial expression of the photo.
또한 휴대단말기에서 이미지편집 방법이, 사진을 표시 중 얼굴표정저장이 선택되면, 상기 사진에서 눈과 입의 위치를 추출하여 영역들로 표시하는 과정과; 상기 영역들에 대한 수정이 선택되면, 상기 눈과 입의 위치를 표시하는 영역들을 수정하는 과정과; 상기 사진의 얼굴표정에 대한 저장이 선택되면, 상기 추출된 사진의 표정을 저장하는 과정으로 이루어진 것을 특징으로 한다.In addition, the image editing method in the mobile terminal, if the facial expression storage is selected while displaying a photo, the process of extracting the position of the eyes and mouth in the photo to display the areas; Modifying the areas indicating the positions of the eyes and mouth when the correction for the areas is selected; If storage for the facial expression of the photo is selected, characterized in that the process of storing the expression of the extracted photo.
또한 휴대단말기에서 이미지편집 방법이, 상기 휴대단말기에서 표정만들기가 선택되면, 눈과 입의 위치를 나타내는 영역들을 가지는 기본사진을 표시하는 과정과; 상기 기본사진에서 해당 영역내의 해당 점에 대한 픽셀 값을 변경하면서 표정을 생성하는 과정과; 상기 생성된 표정을 저장하는 과정으로 이루어진 것을 특징으로 한다. In addition, the image editing method in the mobile terminal, if the making of the facial expression is selected in the mobile terminal, displaying a basic picture having areas indicating the position of the eyes and mouth; Generating a facial expression while changing a pixel value of a corresponding point in a corresponding area in the basic picture; Characterized in that the process of storing the generated facial expression.
또한 휴대단말기에서 이미지편집 방법이, 얼굴표정합성이 선택되면, 선택된 제1,제2사진에서 눈과 입의 위치를 각각 추출하는 과정과; 선택적으로, 상기 제1사진의 눈과 입을 상기 제2사진에 적용하거나, 상기 제2사진의 눈과 입의 사진을 상기 제1사진에 적용하여 합성하는 과정으로 이루어진 것을 특징으로 한다.In addition, the image editing method in the mobile terminal, if the face matching composition is selected, the step of extracting the position of the eyes and mouth from the selected first and second pictures, respectively; In an embodiment, the eye and mouth of the first photograph may be applied to the second photograph, or the photograph of eye and mouth of the second photograph may be applied to the first photograph.
이하 본 발명의 바람직한 실시 예들의 상세한 설명이 첨부된 도면들을 참조하여 설명될 것이다. 도면들 중 동일한 구성들은 가능한 한 어느 곳에서든지 동일한 부호들을 나타내고 있음을 유의하여야 한다.DETAILED DESCRIPTION Hereinafter, detailed descriptions of preferred embodiments of the present invention will be described with reference to the accompanying drawings. It should be noted that the same components in the figures represent the same numerals wherever possible.
도 1은 본 발명의 실시 예에 따른 휴대 단말기의 구성을 도시하는 도면으로써, 카메라를 구비하는 휴대 단말기의 구성을 도시하는 도면이다. 1 is a diagram illustrating a configuration of a portable terminal according to an embodiment of the present invention, which illustrates a configuration of a portable terminal including a camera.
상기 도 1을 참조하면, RF부123은 휴대 단말기의 무선 통신 기능을 수행한다. 상기 RF부123은 송신되는 신호의 주파수를 상승변환 및 증폭하는 RF송신기와, 수신되는 신호를 저잡음 증폭하고 주파수를 하강변환하는 RF수신기등을 포함한다. 모뎀(MODEM)120은 상기 송신되는 신호를 부호화 및 변조하는 송신기 및 상기 수신되는 신호를 복조 및 복호화하는 수신기 등을 구비한다. 오디오 처리부125는 코덱 을 구성할 수 있으며, 상기 코덱은 패킷데이터 등을 처리하는 데이터 코덱과 음성 등의 오디오 신호를 처리하는 오디오 코덱을 구비한다. 상기 오디오 처리부125는 상기 모뎀120에서 수신되는 디지털 오디오신호를 상기 오디오코덱을 통해 아날로그신호 변환하여 재생하거나 또는 마이크로부터 발생되는 송신되는 아날로그 오디오신호를 상기 오디오코덱을 통해 디지털 오디오신호로 변환하여 상기 모뎀120으로 전송하는 기능을 수행한다. 상기 코덱은 별도로 구비거나 또는 제어부110에 포함될 수 있다.Referring to FIG. 1, the
메모리130은 프로그램 메모리, 데이터 메모리들로 구성될 수 있다. 상기 프로그램 메모리는 휴대 단말기의 일반적인 동작을 제어하기 위한 프로그램들 및 본 발명의 실시 예에 따라 사진에서 얼굴표정을 변경, 저장 및 합성하도록 제어하는 프로그램들을 저장할 수 있다. 또한 상기 데이터 메모리는 상기프로그램들을 수행하는 중에 발생되는 데이터들을 일시 저장하는 기능을 수행한다.The
제어부110은 휴대 단말기의 전반적인 동작을 제어하는 기능을 수행한다. 또한 상기 제어부10은 상기 모뎀120 및 코덱을 포함할 수도 있다. 또한 상기 제어부110은 본 발명의 실시 예에 따라 사진의 얼굴표정을 선택된 얼굴표정으로 변경하여 표시하도록 제어한다. 또한 상기 제어부110은 본 발명의 실시 예에 따라 사진의 얼굴표정을 추출하여 저장하도록 제어한다. 또한 상기 제어부110은 본 발명의 실시 예에 따라 사진의 얼굴표정을 생성하여 저장하도록 제어한다. 또한 상기 제어부110은 본 발명의 실시 예에 따라 사진의 얼굴표정을 추출하여 다른 사진에 합성하도록 제어한다. The
카메라부(camera module)140은 영상 데이터를 촬영하며, 촬영된 광 신호를 전기적 신호로 변환하는 카메라 센서와, 상기 카메라센서로부터 촬영되는 아날로그 영상신호를 디지털 데이터로 변환하는 신호처리부를 구비한다. 여기서 상기 카메라 센서는 CCD센서라 가정하며, 상기 신호처리부는 DSP(Digital Signal Processor: DSP)로 구현할 수 있다. 또한 상기 카메라 센서 및 신호처리부는 일체형으로 구현할 수 있으며, 또한 분리하여 구현할 수도 있다. The
영상처리부150은 상기 카메라부140에서 출력되는 영상신호를 표시하기 위한 화면 데이터를 발생하는 기능을 수행한다. 상기 영상처리부150은 상기 카메라부40에서 출력되는 영상신호를 프레임 단위로 처리하며, 상기 프레임 영상데이터를 상기 표시부160의 특성 및 크기에 맞춰 출력한다. 또한 상기 영상처리부50은 영상코덱을 구비하며, 상기 표시부160에 표시되는 프레임 영상데이터를 설정된 방식으로 압축하거나, 압축된 프레임 영상데이터를 원래의 프레임 영상데이터로 복원하는 기능을 수행한다. 여기서 상기 영상코덱은 JPEG 코덱, MPEG4 코덱, Wavelet 코덱 등이 될 수 있다. 상기 영상처리부150은 OSD(On Screen Display) 기능을 구비한다고 가정하며, 상기 제어부110의 제어하여 표시되는 화면크기에 따라 온스크린 표시데이터를 출력할 수 있다.The
표시부160은 상기 영상처리부50에서 출력되는 영상신호를 화면으로 표시하며, 상기 제어부110에서 출력되는 사용자 데이터를 표시한다. 여기서 상기 표시부160은 LCD를 사용할 수 있으며, 이런 경우 상기 표시부160은 LCD제어부(LCD controller), 영상데이터를 저장할 수 있는 메모리 및 LCD표시소자 등을 구비할 수 있다. 여기서 상기 LCD를 터치스크린(touch screen) 방식으로 구현하는 경우, 입력부로 동작할 수도 있다. 또한 상기 표시부160은 본 발명의 실시 예에 따라 얼굴표정편집과정에서 눈과 입의 위치를 지정하는 제1-제3영역을 표시할 수 있다. The
키입력부127은 숫자 및 문자 정보를 입력하기 위한 키들 및 각종 기능들을 설정하기 위한 기능키들을 구비한다. 또한 상기 키입력부127은 본 발명의 실시 예에서 얼굴표정편집과정에서 눈과 입의 위치를 지정하는 제1-제3영역을 제어하는 키들을 구비할 수 있다. The
상기와 같은 휴대단말기에서 얼굴표정을 편집하는 동작을 도 2 - 도 7을 통해 상세히 설명한다. An operation of editing facial expressions in the above-described mobile terminal will be described in detail with reference to FIGS. 2 to 7.
도 2는 본 발명의 실시 에에 따른 휴대단말기에서 얼굴표정을 변경하는 과정을 도시한 흐름도이고, 도 3은 도 2에서 영역 수정과정으로 도시한 흐름도이며, 도 4a - 도 4d는 도 2를 설명하기 위한 도면이다.2 is a flowchart illustrating a process of changing face expression in a mobile terminal according to an embodiment of the present invention, FIG. 3 is a flowchart illustrating a region modification process in FIG. 2, and FIGS. 4A to 4D illustrate FIG. 2. It is for the drawing.
이하 본 발명의 실시 예를 도 1의 참조와 함께 상세히 설명한다. Hereinafter, an embodiment of the present invention will be described in detail with reference to FIG. 1.
상기 도 2를 참조하면, 상기 휴대단말기의 메모리130에 저장된 사진들 중 해당사진이 선택되면, 상기 제어부110은 이를 감지하고 상기 선택된 사진을 상기 표시부160에 표시하는 201단계를 진행한다. 상기 도 4a의 (a) - (c)는 상기 과정을 나타내는 것으로, 상기 도 4a의 (a) 및 (b)을 통해 해당사진이 선택되면, 상기 도 4a의 (c)와 같이 상기 선택된 해당사진이 표시된다.Referring to FIG. 2, when a corresponding picture is selected from the pictures stored in the
상기 도 4의 (a)와 같이 선택된 해당사진을 표시 중 얼굴표정효과가 선택되면, 상기 제어부110은 202단계에서 상기 도 4a의 (d)와 같이 상기 사진에서 얼굴위 치를 추출하는 203단계를 진행한다. 상기 203단계에서 얼굴위치가 추출되면, 상기 제어부110은 상기 도 4a의 (e)와 같이 상기 추출된 얼굴에서 눈과 입의 위치를 추출하는 204단계를 진행한다. If the facial expression effect is selected while displaying the corresponding picture selected as shown in FIG. 4A, the
상기 204단계에서 눈과 입의 위치가 추출되면, 상기 제어부110은 이를 감지하고 상기 도 4a의 (f)와 같이 상기 추출된 눈과 입의 위치를 제1-제3영역으로 표시하는 205단계를 진행한다. 이때 제1영역은 좌측 눈의 위치를 표시하는 것으로, 좌측 눈썹의 좌우 끝단의 두 점 및 좌측 눈의 좌우 끝단의 두 점으로 이루어진다. 또한. 제2영역은 우측 눈의 위치를 표시하는 것으로, 우측 눈썹의 좌우 끝단의 두 점 및 우측 눈의 좌우 끝단의 두 점으로 이루어진다. 또한, 제3영역은 입의 위치를 표시하는 것으로, 입의 좌우 끝단의 두 점 및 입술의 상하 끝단의 두 점으로 이루어진다. In
상기 205단계에서 수정이 선택되면, 상기 제어부110은 206단계에서 이를 감지하고 상기 제1-제3영역을 수정하는 300단계를 진행한다.If the correction is selected in
상기 도 3을 통해 상기 제-제3영역의 수정과정을 설명하면, 상기 205단계에서 수정이 선택되면, 상기 제어부110은 상기 206단계에서 이를 감지하고 도 4의 (g)와 같이 영역수정메뉴를 표시하는 301단계를 진행한다.Referring to FIG. 3, the modification process of the third region is described. When modification is selected in
상기 301단계의 영역수정메뉴에서 영역이 선택되면, 상기 제어부110은 302단계에서 이를 감지하고 상기 제1-제3영역 중 해당영역으로 이동하는 303단계를 진행한다. 본 발명의 실시 예에서 상기 영역 이동은 방향 키 중 상/하측 키를 통해 이루어진다고 가정하여 설명한다. If an area is selected in the area correction menu of
상기 도 4b의 (a)와 같이 상기 영역위치커서가 제2영역에 위치되어 있을 때, 하측 키가 입력되면, 상기 제어부110은 이를 감지하고 상기 도 4b의 (b)와 같이 상기 영역위치커서를 제1영역 이동시켜 위치시킨다. 또한 상기 도 4b의 (b)에서 상기 하측 키가 입력되면, 상기 제어부110은 이를 감지하고 상기 도 4b의 (c)에서와 같이 상기 영역위치커서를 제3영역으로 이동시켜 위치시킨다. When the lower position key is input when the region position cursor is located in the second region as shown in (a) of FIG. 4B, the
상기와 같이 하측 키가 입력될 때 마다 상기 도 4b의 (a) -> 도 4b의 (b) -> 도 4b의 (c)가 반복된다. 또한 상기 상측키가 입력될 때 마다 상기 도 4b의 (c) ->도 4b의 (b) -> 도 4b의 (a)가 반복된다. As described above, whenever the lower key is input, (a) of FIG. 4B-> (b) of FIG. 4B-> (c) of FIG. 4B are repeated. In addition, whenever the upper key is input, (c) of FIG. 4B-> (b) of FIG. 4B-> (a) of FIG. 4B are repeated.
또한 상기 303단계에서 일정 키, 예를 들어 볼륨 업/다운키를 통해 상기 사진의 확대/축소기능을 수행하면서 상기 영역이동과정을 수행할 수 있다.In addition, in step 303, the area movement process may be performed while performing a function of enlarging / reducing the picture through a predetermined key, for example, a volume up / down key.
상기 303단계에서 해당영역이 선택된 후 상기 영역수정메뉴에서 점이 선택되면, 상기 제어부110은 304단계에서 이를 감지하고 상기 영역위치커서가 위치된 해당영역 내에서 해당 점으로 이동하는 305단계를 진행한다. 본 발명의 실시 예에서 상기 점 이동은 방향 키 중 좌/우측 키를 통해 이루어진다고 가정하여 설명한다. If a point is selected in the region modification menu after the corresponding region is selected in step 303, the
상기 도 4c의 (a) - (d)는 제1영역 및 제2영역내의 점 이동과정을 나타내며, 상기 도 4의 (e) - (h)는 제3영역 내의 점 이동과정을 나타내고 있다.(A)-(d) of FIG. 4C show a point movement process in the first region and a second region, and FIG. 4E-(h) show a process of point movement in the third region.
먼저, 상기 도 4의 (a)에서와 같이, 상기 제1영역을 이루는 4점 중 좌측 눈썹의 좌측 끝단을 나타내는 제1점이 활성화되어 있을 때, 우측 키가 입력되면, 상기 제어부110은 이를 감지하고 상기 도 4의 (b)와 같이 좌측 눈썹의 우측 끝단을 나타내는 제2점을 활성화시킨다. 또한, 상기 도 4의 (b)에서 우측 키가 입력되면, 상기 제어부110은 이를 감지하고 상기 도 4의 (c)와 같이 좌측 눈의 좌측 끝단을 나타내는 제3점을 활성화시킨다. 또한 상기 도 4의 (c)에서 우측 키가 입력되면, 상기 제어부110은 이를 감지하고 상기 도 4의 (d)와 같이 좌측 눈의 우측 끝단을 나타내는 제4점을 활성화시킨다. First, as shown in (a) of FIG. 4, when the first point indicating the left end of the left eyebrow is activated among the four points forming the first area, when the right key is input, the
상기와 같이, 상기 우측 키가 입력될 때마다 제1영역을 이루는 4점은 도 4c의 (a) -> 도 4c의 (b) -> 도 4c의 (c) -> 도 4c의 (d)와 같이, 상기 제1점에서 상기 제4점의 순서로 이동하면서 활성화 된다. 또한 상기 좌측 키가 입력될 때마다 제1영역을 이루는 4점은 도 4c의 (d) -> 도 4c의 (c) -> 도 4c의 (b) -> 도 4c의 (a)와 같이, 상기 제4점에서 상기 제1점의 순서로 이동하면서 활성화 된다. 상기 제2영역을 이루는 4점 중 해당 점으로 이동하여 선택하는 과정은 상기 제1영역을 이루는 4점 중 해당 점으로 이동하여 선택하는 과정과 동일하다.As described above, four points constituting the first area each time the right key is input are (a) of FIG. 4C-> (c) of FIG. 4C-> (c) of FIG. 4C-> (d) of FIG. 4C. As described above, the first point is activated while moving in the order of the fourth point. In addition, four points constituting the first area each time the left key is input are as shown in (d) of FIG. 4C-> (c) of FIG. 4C-> (b)-> 4C of FIG. 4C, The fourth point is activated while moving in the order of the first point. The process of selecting and moving to the corresponding point among the four points constituting the second area is the same as the process of selecting and moving to the corresponding point among the four points constituting the first area.
그리고, 상기 도 4의 (e) - (h)를 통해 제3영역 내의 점 이동과정을 설명하면, 상기 도 4의 (e)에서와 같이, 상기 제3영역을 이루는 4점 중 입술의 좌측 끝단을 나타내는 제1점이 활성화되어 있을 때, 우측 키가 입력되면, 상기 제어부110은 이를 감지하고 상기 도 4의 (f)와 같이 입술의 상측 끝단을 나타내는 제2점을 활성화시킨다. 또한, 상기 도 4의 (f)에서 우측 키가 입력되면, 상기 제어부110은 이를 감지하고 상기 도 4의 (g)와 같이 입술의 우측 끝단을 나타내는 제3점을 활성화시킨다. 또한 상기 도 4의 (g)에서 우측 키가 입력되면, 상기 제어부110은 이를 감지하고 상기 도 4의 (h)와 같이 입술의 하측 끝단을 나타내는 제4점을 활성화시킨다.And, the process of moving the point in the third region through (e) to (h) of Figure 4, as shown in (e) of FIG. 4, the left end of the lips of the four points forming the third region When the first point indicating is activated, if the right key is input, the
상기와 같이, 상기 우측 키가 입력될 때마다 제3영역을 이루는 4점은 도 4c 의 (e) -> 도 4c의 (f) -> 도 4c의 (g) -> 도 4c의 (h)와 같이, 상기 제1점에서 상기 제4점의 순서로 이동하면서 활성화 된다. 또한 상기 좌측 키가 입력될 때마다 제1영역을 이루는 4점은 도 4c의 (h) -> 도 4c의 (g) -> 도 4c의 (f) -> 도 4c의 (e)와 같이, 상기 제4점에서 상기 제1점의 순서로 이동하면서 활성화 된다.As described above, each time the right key is input, the four points forming the third area are (e) of FIG. 4C-> (f) of FIG. 4C-> (g) of FIG. 4C-> (h) of FIG. 4C. As described above, the first point is activated while moving in the order of the fourth point. In addition, four points constituting the first area each time the left key is input are as shown in (h) of FIG. 4C-> (G) of FIG. 4C-> (F) of FIG. 4C-> (C) of FIG. The fourth point is activated while moving in the order of the first point.
또한 상기 305단계에서 일정 키, 예를 들어 볼륨 업/다운키를 통해 상기 사진의 확대/축소기능을 수행하면서 상기 해당영역 내에서 해당 점을 선택하는 과정을 수행할 수 있다.In
상기 305단계에서 해당영역에서 해당 점이 활성화되어 있을 때 선택이 입력되면, 상기 제어부110은 306단계에서 이를 감지하고 상기 점 수정메뉴를 307단계를 진행한다. 이때 상기 활성화된 해당 점의 선택은 상기 방향 키 중 중앙 키를 통해 이루어 질 수 있다.If a selection is input while the corresponding point is activated in the corresponding area in
상기 도 4d는 상기 활성화된 점을 수정하는 과정을 나타내는 것으로, 상기 305단계에서 사진의 확대기능을 통해 제2영역의 제2점을 활성화 시켜 수정하는 과정을 나타내고 있다.4D illustrates a process of correcting the activated point, and in
상기 도 4d의 (a)와 같이, 제2영역의 제2점을 활성화 시킨 후, 상기 제2점을 선택하기 위한 방향 키 중 중앙 키가 입력되면, 상기 제어부110은 상기 306단계에서 이를 감지하고 상기 도 4d의 (b)와 같이 상기 제2점을 이동표시로 변경시키며, 상기 점 수정메뉴를 표시하는 307단계를 진행한다. As shown in (a) of FIG. 4D, after activating the second point of the second area, if the center key among the direction keys for selecting the second point is input, the
상기 점 수정메뉴 중 이동이 선택되면, 상기 제어부110은 308단계에서 이를 감지하고 상기 도 4d의 (c)와 같이, 상기 제2점에 대한 이동표시를 해당 위치로 이 동하는 309단계를 진행한다. 이때 상기 이동은 4방향키를 이용하는 것으로, 상기 4방향 중 입력에 대응되는 방향으로 상기 이동표시를 이동하게 된다.If the movement is selected from the point correction menu, the
또한 상기 점 수정메뉴 중 해제가 선택되면, 상기 제어부110은 310단계에서 이를 감지하고 상기 309단계를 통해 이동된 상기 제2점의 이동표시를 이전위치로 이동시키는 311단계를 진행한다. In addition, if release of the point correction menu is selected, the
상기 309단계 및 상기 311단계를 통해 상기 제2점을 해당위치로 이동하는 과정을 수행 중 확인키가 입력되면, 상기 제어부110은 이를 감지하고 상기 도 4d의 (d)와 같이, 상기 제2점의 이동표시를 점으로 표시하며 영역수정메뉴를 표시하는 상기 301단계를 진행한다.If a confirmation key is input during the process of moving the second point to the corresponding location in
상기 309단계 및 상기 311단계에서 일정 키, 예를 들어 볼륨 업/다운키를 통해 상기 사진의 확대/축소기능을 수행하면서 상기 이동표시의 이동 및 해제기능을 수행할 수 있다. In
상기 도 3의 과정을 통해 사용자가 상기 제1-제3영역의 오류에 대한 수정이 완료되면, 상기 제어부110은 이를 감지하고 얼굴표정의 종류를 표시한다. 상기 얼굴표정의 종류에는 슬픔, 화남. 시무룩, 해피, 날씬, 통통 및 나이별 얼굴표정 등이 있을 수 있다. When the user corrects the error of the first to third regions through the process of FIG. 3, the
상기 얼굴표정의 종류 중 해당 얼굴표정이 선택되면, 상기 제어부110은 207단계에서 이를 감지하고 상기 선택된 얼굴표정을 상기 사진의 얼굴표정에 적용하여 표시하는 208단계를 진행한다.If the corresponding facial expression is selected from among the types of the facial expressions, the
상기 208단계에서 상기 제어부110은 상기 선택된 얼굴표정의 제1-제3영역을 추출한 후, 상기 선택된 얼굴표정의 제1-제3영역을 상기 사진의 제1-제3영역에 대응되도록 적용하여 표시한다.In
상기 얼굴표정의 종류 중 날씬/통통은 상기 203단계에서 추출된 얼굴에서 볼 부분의 영역을 추출하며, 상기 추출된 볼 부분의 영역에 날씨/통통과 같은 얼굴표정의 볼 부분영역을 적용하여 표시할 수 있다. Among the types of facial expressions, the slim / pain extracts an area of the ball part from the face extracted in
상기 208단계를 통해 상기 사진의 얼굴표정을 상기 선택된 얼굴표정으로 변경한 후 비교가 선택되면, 상기 제어부110은 209단계에서 이를 감지하고 상기 201단계의 원본 사진과 상기 208단계에서 변경된 사진을 동시에 표시하는 210단계를 진행한다.If the comparison is selected after changing the facial expression of the photo to the selected facial expression through the
또는 상기 208단계에서 단계조정이 선택되면, 상기 제어부110은 211단계에서 이를 감지하고 상기 208단계에서 적용된 얼굴표정을 단계별로 표시하는 212단계를 진행한다. 상기 208단계에서 '해피'라는 얼굴표정이 적용되었다면, 상기 212단계에서 단계조정이 입력될 때마다 상기 제어부110은 제1-제3영역의 점들의 픽셀 값을 변경하여 상기'해피'의 얼굴표정을 단계별로 표시한다. 본 발명의 실시 예에서는 4단계의 단계조정으로 이루어진다. Alternatively, if the step adjustment is selected in
또는 상기 208단계에서 저장이 선택되면, 상기 제어부110은 213단계에서 이를 감지하고 상기 208단계에서 선택된 얼굴표정으로 변경된 사진을 저장하는 214단계를 진행한다.Alternatively, when the storage is selected in
도 5a - 도 5i는 상기 도 2의 과정을 통해 선택된 얼굴표정종류로 변경된 사진을 나타낸 도면이다. 5A to 5I are views illustrating a photo changed to the selected facial expression type through the process of FIG. 2.
상기 도 5a는 원본사진이고, 상기 도 5b는 상기 도 5a의 원본사진의 얼굴표정에 '깜짝'이라는 얼굴표정종류를 적용하여 변경한 사진이며, 상기 도 5c는 상기 도 5a의 원본사진의 얼굴표정에 '스마일'이라는 얼굴표정종류를 적용하여 변경한 사진이다. FIG. 5A is an original photograph, and FIG. 5B is a photograph changed by applying a type of facial expression “surprise” to the facial expression of the original photograph of FIG. 5A, and FIG. 5C is a facial expression of the original photograph of FIG. 5A. The photo was changed by applying the facial expression type of 'smile' to.
또한, 상기 도 5d는 상기 도 5a의 원본사진의 얼굴표정에'슬픔'이라는 얼굴표정종류를 적용하여 변경한 사진이며, 상기 도 5e는 상기 도 5a의 원본사진의 얼굴표정에 '시무룩'이라는 얼굴표정종류를 적용하여 변경한 사진이다.In addition, FIG. 5D is a photo modified by applying a type of facial expression of sadness to the facial expression of the original photo of FIG. 5A, and FIG. 5E is a face of 'Smooth look' on the facial expression of the original photo of FIG. 5A. The photo is changed by applying facial expression.
또한, 상기 도 5f는 상기 도 5a의 원본사진의 얼굴표정에 '화남'이라는 얼굴표정종류를 적용하여 변경한 사진이며, 상기 도 5g는 상기 도 5a의 원본사진의 얼굴표정에 '해피'이라는 얼굴표정종류를 적용하여 변경한 사진이다.In addition, FIG. 5F is a photo modified by applying a facial expression of 'angry' to the facial expression of the original photo of FIG. 5A, and FIG. 5G is a face of 'happy' in the facial expression of the original photo of FIG. 5A. The photo is changed by applying facial expression.
또한, 상기 도 5h는 상기 도 5a의 원본사진의 얼굴표정에 '날씬'이라는 얼굴표정종류를 적용하여 변경한 사진이며, 상기 도 5i는 상기 도 5a의 원본사진의 얼굴표정에 '통통'이라는 얼굴표정종류를 적용하여 변경한 사진이다.In addition, FIG. 5H is a photo changed by applying a facial expression type of 'thin' to the facial expression of the original photo of FIG. 5A, and FIG. 5I is a face of 'passage' to the facial expression of the original photo of FIG. 5A. The photo is changed by applying facial expression.
도 6은 본 발명의 실시 에에 따른 휴대단말기에서 얼굴표정을 추출하여 저장하는 과정을 도시한 흐름도이다.6 is a flowchart illustrating a process of extracting and storing facial expressions in a mobile terminal according to an embodiment of the present invention.
이하 본 발명의 실시 예를 도 1의 참조와 함께 상세히 설명한다. Hereinafter, an embodiment of the present invention will be described in detail with reference to FIG. 1.
상기 도 6을 참조하면, 상기 휴대단말기의 메모리130에 저장된 사진들 중 해당사진이 선택되면, 상기 제어부110은 이를 감지하고 상기 선택된 사진을 상기 표시부160에 표시하는 501단계를 진행한다. Referring to FIG. 6, when a corresponding picture is selected from among pictures stored in the
상기 501단계에서 선택된 해당사진을 표시 중 얼굴표정저장이 선택되면, 상 기 제어부110은 502단계에서 이를 감지하고 상기 사진에서 얼굴위치를 추출하는 503단계를 진행한다. 상기 503단계에서 얼굴위치가 추출되면, 상기 제어부110은 상기 추출된 얼굴에서 눈과 입의 위치를 추출하는 504단계를 진행한다. If the facial expression storage is selected while displaying the corresponding picture selected in
상기 504단계에서 눈과 입의 위치가 추출되면, 상기 제어부110은 이를 감지하고 상기 추출된 눈과 입의 위치를 제1-제3영역으로 표시하는 505단계를 진행한다. 이때 제1영역은 좌측 눈의 위치를 표시하는 것으로, 좌측 눈썹의 좌우 끝단의 두 점 및 좌측 눈의 좌우 끝단의 두 점으로 이루어진다. 또한. 제2영역은 우측 눈의 위치를 표시하는 것으로, 우측 눈썹의 좌우 끝단의 두 점 및 우측 눈의 좌우 끝단의 두 점으로 이루어진다. 또한, 제3영역은 입의 위치를 표시하는 것으로, 입의 좌우 끝단의 두 점 및 입술의 상하 끝단의 두 점으로 이루어진다. When the positions of the eyes and the mouth are extracted in
상기 505단계에서 수정이 선택되면, 상기 제어부110은 506단계에서 이를 감지하고 상기 제1-제3영역을 수정하는 300단계를 진행한다. 상기 제1-제3영역을 수정하는 300단계는 상기 도 3의 과정과 동일하다.If the correction is selected in
상기 도 3의 과정을 통해 사용자가 상기 제1-제3영역의 오류에 대한 수정이 완료되면, 상기 제어부110은 507단계에서 이를 감지하고 저장이름의 종류를 표시한다. When the user completes the correction of the error of the first to third regions through the process of FIG. 3, the
상기 저장이름의 종류 중 표정종류가 선택되면, 상기 제어부110은 508단계에서 이를 감지하고 상기 선택된 표정종류를 저장이름으로 상기 505단계 또는 상기 300단계에서 표시되는 제1-제3영역을 저장하는 509단계를 진행한다. When the expression type is selected from the types of the stored names, the
또는 상기 저장이름의 종류 중 직접입력이 선택되면, 상기 제어부110은 510 단계에서 이를 감지하고 상기 입력된 표정종류를 저장이름으로 상기 505단계 또는 상기 300단계에서 표시되는 제1-제3영역을 저장하는 511단계를 진행한다. Alternatively, when a direct input is selected among the types of the storage name, the
상기 509단계 및 511단계에서 얼굴표정을 저장할 때, 상기 하나의 얼굴표정은 제1-제3영역의 점들에 픽셀 값을 변경하여 단계별로 저장될 수 있다. 이때 상기 단계는 사용자에 의해 설정될 수 있다.When the facial expressions are stored in
도 7은 본 발명의 실시 에에 따른 휴대단말기에서 얼굴표정을 생성하여 저장하는 과정을 도시한 흐름도이다.7 is a flowchart illustrating a process of generating and storing facial expressions in a mobile terminal according to an embodiment of the present invention.
이하 본 발명의 실시 예를 도 1의 참조와 함께 상세히 설명한다. Hereinafter, an embodiment of the present invention will be described in detail with reference to FIG. 1.
상기 도 7을 참조하면, 상기 휴대단말기의 메뉴 중 표정만들기가 선택되면, 상기 제어부110은 601단계에서 이를 감지하고 상기 표시부160에 눈과 입의 위치를 나타내는 제1-제3영역을 가지는 기본사진을 표시하는 602단계를 진행한다. Referring to FIG. 7, when a face expression is selected from a menu of the mobile terminal, the
이때 제1영역은 좌측 눈의 위치를 표시하는 것으로, 좌측 눈썹의 좌우 끝단의 두 점 및 좌측 눈의 좌우 끝단의 두 점으로 이루어진다. 또한, 제2영역은 우측 눈의 위치를 표시하는 것으로, 우측 눈썹의 좌우 끝단의 두 점 및 우측 눈의 좌우 끝단의 두 점으로 이루어진다. 또한, 제3영역은 입의 위치를 표시하는 것으로, 입의 좌우 끝단의 두 점 및 입술의 상하 끝단의 두 점으로 이루어진다. At this time, the first area indicates the position of the left eye, and consists of two points at the left and right ends of the left eyebrow and two points at the left and right ends of the left eye. In addition, the second area indicates the position of the right eye, and consists of two points at the left and right ends of the right eyebrow and two points at the left and right ends of the right eye. In addition, the third area indicates the position of the mouth, and consists of two points at the left and right ends of the mouth and two points at the top and bottom ends of the lips.
상기 602단계에서 영역이 선택되면, 상기 제어부110은 603단계에서 이를 감지하고 영역 이동을 위한 특정 키의 입력을 통해 상기 제1-제3영역 중 해당영역으로 이동하는 604단계를 진행한다. 상기 604단계에서 일정 키, 예를 들어 볼륨 업/다운키를 통해 상기 사진의 확대/축소기능을 수행하면서 상기 제1-제3영역 중 해당 영역을 선택하는 과정을 수행할 수 있다.If an area is selected in
상기 604단계에서 해당영역이 선택된 후 점 이동을 위한 특정 키가 입력되면, 상기 제어부110은 605단계에서 이를 감지하고 상기 점 이동을 위한 특정 키의 입력을 통해 상기 해당영역을 이루는 4점들 중 해당 점을 선택하는 606단계를 진행한다. 상기 606단계에서 일정 키, 예를 들어 볼륨 업/다운키를 통해 상기 사진의 확대/축소기능을 수행하면서 상기 해당영역 내에서 해당 점을 선택하는 과정을 수행할 수 있다.If a specific key for moving a point is input after the corresponding area is selected in
상기 606단계에서 해당 점이 선택된 후, 607단계에서 표정변화를 위한 일정 연산 값이 선택 또는 입력되면, 상기 제어부110은 이를 감지하고 상기 해당 점이 위치하는 픽셀의 값과 상기 해당 점의 주변에 위치하는 일정 픽셀들의 값을 상기 연산 값에 따라 연산하여 표시하는 608단계를 진행한다.After the corresponding point is selected in
상기 608단계에서 상기 해당 점이 위치하는 픽셀 값 및 상기 해당 점의 주변에 위치하는 픽셀 값이 상기 표정변화를 위해 선택 또는 입력된 연산 값에 따라 연산된 픽셀 값으로 표시되는 중 선택이 입력되면, 상기 제어부110은 609단계에서 이를 감지하고 상기 해당 점이 위치하는 픽셀 값 및 상기 해당 점의 주변에 위치하는 픽셀 값을 상기 연산된 픽셀 값으로 변경하여 표시한다. In
상기 연산 값은 미리 설정되거나 사용자에 의해 임의 값이 입력될 수 있다. 상기 제어부110은 특정 연산프로그램을 통해 상기 사용자에 의해 선택 또는 입력된 연산 값으로 상기 픽셀 값들을 연산하여 표시하도록 제어한다. 상기와 같이 해당 점이 위치하는 픽셀의 값 및 상기 해당 점의 주변에 위치하는 픽셀들의 값을 일정 연산 값으로 연산하여 상기 픽셀들에 값에 변화를 줌으로써, 상기 사용자는 원하는 표정을 생성할 수 있다. The operation value may be preset or an arbitrary value may be input by the user. The
상기 603단계- 상기 609단계를 반복하며, 해당영역의 해당 점에 대한 픽셀 값을 변경 중 표정완성이 선택되면, 상기 제어부110은 610단계에서 이를 감지하고 상기 완성된 표정을 사용자에 의해 선택 또는 입력된 표정이름으로 저장하는 611단계를 진행한다.If the expression completion is selected while changing the pixel value of the corresponding point in the corresponding area, the
도 8은 본 발명의 실시 에에 따른 휴대단말기에서 얼굴표정을 합성하는 과정을 도시한 흐름도이다.8 is a flowchart illustrating a process of synthesizing facial expressions in a mobile terminal according to an embodiment of the present invention.
이하 본 발명의 실시 예를 도 1의 참조와 함께 상세히 설명한다. Hereinafter, an embodiment of the present invention will be described in detail with reference to FIG. 1.
상기 도 8을 참조하면, 상기 휴대단말기의 메모리130에 저장된 사진들 중 해당사진이 선택되면, 상기 제어부110은 이를 감지하고 상기 선택된 사진을 상기 표시부160에 표시하는 701단계를 진행한다. 상기 701단계에서 선택되어 표시되는 사진을 제1사진이라고 가정하여 설명한다.Referring to FIG. 8, when a corresponding picture is selected from the pictures stored in the
상기 701단계에서 선택된 제1사진을 표시 중 얼굴합성이 선택되면, 상기 제어부110은 702단계에서 이를 감지하고 상기 제1사진에서 얼굴위치를 추출하는 703단계를 진행한다. 상기 703단계에서 상기 제1사진의 얼굴위치가 추출되면, 상기 제어부110은 상기 추출된 얼굴에서 눈과 입의 위치를 추출하는 704단계를 진행한다. When face synthesis is selected while displaying the selected first picture in
상기 704단계에서 상기 제1사진의 눈과 입의 위치가 추출되면, 상기 제어부110은 이를 감지하고 상기 추출된 눈과 입의 위치를 제1-제3영역으로 표시하는 705단계를 진행한다. 이때 제1영역은 좌측 눈의 위치를 표시하는 것으로, 좌측 눈썹의 좌우 끝단의 두 점 및 좌측 눈의 좌우 끝단의 두 점으로 이루어진다. 또한. 제2영역은 우측 눈의 위치를 표시하는 것으로, 우측 눈썹의 좌우 끝단의 두 점 및 우측 눈의 좌우 끝단의 두 점으로 이루어진다. 또한, 제3영역은 입의 위치를 표시하는 것으로, 입의 좌우 끝단의 두 점 및 입술의 상하 끝단의 두 점으로 이루어진다. When the positions of the eyes and the mouth of the first picture are extracted in
상기 705단계에서 수정이 선택되면, 상기 제어부110은 706단계에서 이를 감지하고 상기 제1-제3영역을 수정하는 300단계를 진행한다. 상기 제1-제3영역을 수정하는 300단계는 상기 도 3의 과정과 동일하다.If the correction is selected in
상기 701단계-300단계를 통해 상기 제1사진에서 제1-제3영역을 추출한 후 상기 휴대단말기의 메모리130에서 해당사진을 선택하면, 상기 제어부110은 707단계에서 이를 감지하고 상기 선택된 사진을 표시한다. 상기 707단계에서 선택되어 표시되는 사진을 제2사진이라고 가정하여 설명한다.After extracting the first to third regions from the first picture through
상기 제어부110은 708단계-710단계를 통해 상기 제2사진에서 제1-제3영역을 추출하며, 상기 708단계-710단계는 상기 703단계-705단계와 동일하게 수행된다. 또한 상기 710단계에서 상기 706단계 및 707단계를 수행할 수 있다.The
상기 제2사진에서 제1-제3영역이 추출된 후 상기 제1사진의 눈과 입이 선택되면, 상기 제어부110은 711단계에서 이를 감지하고 상기 제1사진의 눈과 입에 해당하는 제1-제3영역을 상기 제2사진의 제1-제3영역에 적용하여 합성하는 712단계를 진행한다.If the eyes and the mouth of the first picture are selected after the first-third region is extracted from the second picture, the
또한 상기 제2사진의 눈과 입이 선택되면, 상기 제어부110은 상기 711단계에서 이를 감지하고 상기 제2사진의 눈과 입에 해당하는 제1-제3영역을 상기 제1사진 의 제1-제3영역에 적용하여 합성하는 상기 712단계를 진행한다.In addition, when the eyes and the mouth of the second picture are selected, the
상기 합성대상이 되는 눈과 입은 사용자에 의해 선택될 수 있으며, 상기 얼굴추출에 따라 상기 눈과 입뿐만 아니라 코 및 귀등도 추출되어 합성될 수 있다.The eyes and mouth to be synthesized may be selected by a user, and the nose and ears as well as the eyes and mouth may be extracted and synthesized according to the face extraction.
상술한 본 발명의 설명에서는 휴대 단말기와 같은 구체적인 실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시 할 수 있다. 따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위의 균등한 것에 의해 정해져야 한다.In the above description of the present invention, a specific embodiment such as a mobile terminal has been described, but various modifications can be made without departing from the scope of the present invention. Therefore, the scope of the present invention should not be defined by the described embodiments, but should be determined by the equivalent of claims and claims.
즉, 상술한 바와 같이 본 발명은 휴대단말기의 이미지편집 방법을 제공함으로써, 사진의 얼굴표정을 변경하여 표현할 수 있으며, 사진의 얼굴표정을 추출하여 저장할 수 있으며, 사진의 얼굴표정을 합성하여 표시할 수 있는 다양한 서비스를 제공할 수 있는 효과가 있다. 또한 상기와 같은 얼굴편집과정에서 검출된 얼굴의 특징부분을 사용자가 직접 수정할 수 있어 원하는 표정을 정확하게 연출할 수 있는 효과가 있다.That is, as described above, the present invention provides a method of editing an image of a mobile terminal, thereby changing and expressing facial expressions of a photo, extracting and storing facial expressions of a photo, and synthesizing and displaying the facial expressions of a photo. There is an effect that can provide a variety of services. In addition, the feature of the face detected in the face editing process as described above can be directly modified by the user can produce the desired expression accurately.
Claims (30)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020050061588A KR101075720B1 (en) | 2005-07-08 | 2005-07-08 | Method for editing image in wireless terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020050061588A KR101075720B1 (en) | 2005-07-08 | 2005-07-08 | Method for editing image in wireless terminal |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20070006337A true KR20070006337A (en) | 2007-01-11 |
KR101075720B1 KR101075720B1 (en) | 2011-10-21 |
Family
ID=37871610
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020050061588A KR101075720B1 (en) | 2005-07-08 | 2005-07-08 | Method for editing image in wireless terminal |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101075720B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101231469B1 (en) * | 2012-02-23 | 2013-02-07 | 인텔 코오퍼레이션 | Method, apparatusfor supporting image processing, and computer-readable recording medium for executing the method |
KR20130093191A (en) * | 2012-02-14 | 2013-08-22 | 삼성전자주식회사 | Device and method for editing image in wireless terminal |
KR20200080577A (en) | 2018-12-27 | 2020-07-07 | 한국과학기술연구원 | Device for providing application to edit image and method for transforming face in image performed by the same device |
WO2020153785A1 (en) * | 2019-01-24 | 2020-07-30 | 삼성전자 주식회사 | Electronic device and method for providing graphic object corresponding to emotion information by using same |
KR20220021213A (en) | 2020-08-13 | 2022-02-22 | 유지호 | Apparatus and Method for Providing multiple picture image edit service based artificial intelligence |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110520902B (en) | 2017-03-30 | 2023-04-28 | 韩国斯诺有限公司 | Method and device for applying dynamic effect to image |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001155174A (en) | 1999-11-30 | 2001-06-08 | Fuji Photo Film Co Ltd | Method and device for image processing |
JP2002288681A (en) | 2001-03-27 | 2002-10-04 | Konica Corp | System, method, and service for correction of photographic image |
-
2005
- 2005-07-08 KR KR1020050061588A patent/KR101075720B1/en not_active IP Right Cessation
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130093191A (en) * | 2012-02-14 | 2013-08-22 | 삼성전자주식회사 | Device and method for editing image in wireless terminal |
KR101231469B1 (en) * | 2012-02-23 | 2013-02-07 | 인텔 코오퍼레이션 | Method, apparatusfor supporting image processing, and computer-readable recording medium for executing the method |
WO2013125923A1 (en) * | 2012-02-23 | 2013-08-29 | Intel Corporation | Method and apparatus for supporting image processing, and computer-readable recording medium for executing the method |
US9124814B2 (en) | 2012-02-23 | 2015-09-01 | Intel Corporation | Method and apparatus for supporting image processing, and computer-readable recording medium for executing the method |
EP3059942A1 (en) | 2012-02-23 | 2016-08-24 | Intel Corporation | Method and apparatus for supporting image processing, and computer-readable recording medium for executing the method |
EP3059941A1 (en) | 2012-02-23 | 2016-08-24 | Intel Corporation | Method and apparatus for supporting image processing, and computer-readable recording medium for executing the method |
US10291841B2 (en) | 2012-02-23 | 2019-05-14 | Intel Corporation | Method and apparatus for supporting image processing, and computer-readable recording medium for executing the method |
US11356597B2 (en) | 2012-02-23 | 2022-06-07 | Intel Corporation | Method and apparatus for supporting image processing, and computer-readable recording medium for executing the method |
US11805310B2 (en) | 2012-02-23 | 2023-10-31 | Intel Corporation | Method and apparatus for supporting image processing, and computer-readable recording medium for executing the method |
KR20200080577A (en) | 2018-12-27 | 2020-07-07 | 한국과학기술연구원 | Device for providing application to edit image and method for transforming face in image performed by the same device |
WO2020153785A1 (en) * | 2019-01-24 | 2020-07-30 | 삼성전자 주식회사 | Electronic device and method for providing graphic object corresponding to emotion information by using same |
KR20220021213A (en) | 2020-08-13 | 2022-02-22 | 유지호 | Apparatus and Method for Providing multiple picture image edit service based artificial intelligence |
Also Published As
Publication number | Publication date |
---|---|
KR101075720B1 (en) | 2011-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100678209B1 (en) | Method for controlling image in wireless terminal | |
KR101170338B1 (en) | Method For Video Call And System thereof | |
KR20140106779A (en) | Apparatus and method for processing a image in device | |
KR100617702B1 (en) | Portable terminal capable of editing image and image edition method using that | |
KR101075720B1 (en) | Method for editing image in wireless terminal | |
CN108734754A (en) | Image processing method and device | |
KR100713531B1 (en) | Method for displaying special effect to image data | |
KR100606076B1 (en) | Method for controlling image in wireless terminal | |
US20090087102A1 (en) | Method and apparatus for registering image in telephone directory of portable terminal | |
KR100678208B1 (en) | Method for saving and displaying image in wireless terminal | |
KR101389775B1 (en) | Apparatus and method for displaying image at liquid crystal display in wireless communication terminal | |
KR100700101B1 (en) | A mobile communication terminal having a imeage editing function and the method thereof | |
KR100557154B1 (en) | Method for displaying of picture in wireless terminal | |
KR100617736B1 (en) | Method for zooming of picture in wireless terminal | |
KR100735330B1 (en) | Method for editing picture in wireless terminal | |
US20040179749A1 (en) | Image synthesizing apparatus, image synthesizing method and a computer readable recording medium having recorded a program | |
US20070013784A1 (en) | Method of comparing motion and wireless terminal implementing the same | |
KR100678216B1 (en) | Method for turning image state in wireless terminal | |
KR100659901B1 (en) | Method for controlling the motion of avatar on mobile terminal and the mobile thereof | |
KR100606079B1 (en) | Method for zooming of picture in wireless terminal | |
KR20100046805A (en) | Method and device for performing menu in wireless terminal | |
KR100504139B1 (en) | Method for processing mosaic of picture in wireless terminal | |
JP2007180914A (en) | Mobile phone with image enlargement display function, image enlarging and display method, image enlargement display program and its recording medium | |
KR100664154B1 (en) | Method for displaying of picture move in wireless terminal | |
KR100827142B1 (en) | Apparatus and method for extracting video data in mobile terminal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20140929 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20150925 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20160929 Year of fee payment: 6 |
|
LAPS | Lapse due to unpaid annual fee |