KR101164747B1 - Method for sysnthesizing image in mobile terminal - Google Patents
Method for sysnthesizing image in mobile terminal Download PDFInfo
- Publication number
- KR101164747B1 KR101164747B1 KR1020100072939A KR20100072939A KR101164747B1 KR 101164747 B1 KR101164747 B1 KR 101164747B1 KR 1020100072939 A KR1020100072939 A KR 1020100072939A KR 20100072939 A KR20100072939 A KR 20100072939A KR 101164747 B1 KR101164747 B1 KR 101164747B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- pixel
- foreground
- area
- value
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/57—Control of contrast or brightness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30088—Skin; Dermal
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Telephone Function (AREA)
Abstract
본 발명은 획득된 영상을 소정의 입력에 따라 전경 영역, 경계 영역 및 배경 영역으로 구분하여 상기 각각의 영역에 픽셀의 초기 라벨값을 설정하는 단계, 상기 경계 영역에만 존재하는 픽셀의 라벨값을 결정하여 상기 획득된 영상에서 전경 영상을 분리하는 단계, 상기 분리된 전경 영상의 경계 영역상의 픽셀을 정제하는 단계, 상기 분리된 전경 영상을 사용자가 선택한 배경 영상과 합성하는 단계 및 합성된 영상에서 배경 영상의 밝기를 보정하는 단계;를 포함하여 이루어지는 이동 단말기에서 영상 합성방법을 제공한다.
본 발명에 따르면 본 발명에 따르면, 획득된 영상에서 전경 영상을 분리할 경우, 경계 영역의 픽셀에 대하여만 라벨값을 계산하므로, 전경 영상 분리시 처리 속도가 증가하는 장점이 있다. According to an embodiment of the present invention, an initial label value of a pixel is set in each area by dividing an acquired image into a foreground area, a border area, and a background area according to a predetermined input, and the label value of a pixel existing only in the border area is determined. Separating the foreground image from the obtained image, refining pixels on a boundary area of the separated foreground image, synthesizing the separated foreground image with a background image selected by a user, and a background image from the synthesized image Compensating the brightness of the; provides a method for synthesizing an image in a mobile terminal.
According to the present invention, when the foreground image is separated from the acquired image, the label value is calculated only for the pixels in the boundary area, and thus the processing speed increases when the foreground image is separated.
Description
본 발명은 이동 단말기에서 영상 합성방법에 관한 것으로서, 더욱 상세하게는 획득된 영상에서 전경 영상(중심객체)를 분리하여 사용자가 원하는 배경 영상과 합성할 수 있는 이동 단말기에서 영상 합성방법에 관한 것이다.
The present invention relates to an image synthesizing method in a mobile terminal. More particularly, the present invention relates to an image synthesizing method in a mobile terminal which can separate a foreground image (center object) from an acquired image and synthesize it with a desired background image.
카메라가 장착되고 동영상 스트리밍을 통해 티브이나 영화를 볼 수 있는 이동 단말기는 더 이상 음성 통화만을 위한 전화기가 아니다. 젊은 층들은 이동 단말기에서의 정지영상/동영상 관련 다양한 서비스에 많은 관심을 보이고 있는데, 이동 단말기의 카메라를 이용하여 사진을 찍고, 획득한 정지영상 혹은 동영상을 친구들에게 전송하거나 컴퓨터로 다운로드 받아 이용하는 것은 현재 이동 단말기가 제공하는 주된 엔터테인먼트가 되고 있다.Mobile terminals equipped with cameras and capable of watching TV or movies through video streaming are no longer just phones for voice calls. Young people are showing a lot of interest in various services related to still images / videos in mobile terminals, and taking pictures using mobile cameras and transferring the still images or videos to friends or downloading them to a computer It is becoming a major entertainment provided by mobile terminals.
획득된 영상에서 사용자의 사생활이 노출되거나 혹은 원하지 않는 배경이 촬영되어 사용자의 사생활이 침해되는 경우, 또는 사용자의 엔터테인먼트를 위해 의도적으로 배경 영상을 전환할 필요성이 있다. When the privacy of the user is exposed from the acquired image or an unwanted background is photographed, the privacy of the user is infringed, or it is necessary to intentionally change the background image for the user's entertainment.
여기서 획득된 영상에서 전경 영상을 분리함에 이용되는 전경 영상 분리 알고리즘은 획득된 영상 내의 모든 픽셀 값을 계산한 후, 전경 영상 안정화를 측정한다. 여기서 상기 전경 영상 안정화는 획득된 영상의 모든 픽셀값의 변화가 없는 경우를 말한다. 상기 전경 영상 안정화를 만족하지 않을 경우, 전경 영상 안정화를 만족할 때까지, 계속하여 다시 획득된 영상 내의 모든 픽셀의 라벨값을 계산하므로 전경 영상 분리과정이 복잡하고 처리 시간이 많이 걸리는 문제점이 있다.
The foreground image separation algorithm used to separate the foreground image from the acquired image calculates all pixel values in the obtained image and then measures foreground image stabilization. In this case, the foreground image stabilization refers to a case where all pixel values of the acquired image are not changed. If the foreground image stabilization is not satisfied, until the foreground image stabilization is satisfied, the label values of all pixels in the acquired image are continuously calculated, so that the foreground image separation process is complicated and takes a long time.
본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로서, 획득된 영상에서 전경 영상(중심객체)를 분리하는 경우, 사용자의 소정의 입력에 따라 나누어진 경계 영역의 픽셀에 대하여만 라벨값을 연산하여 전경 영역의 픽셀인지 또는 배경 영역의 픽셀인지를 결정하는 이동 단말기에서 영상 합성방법을 제공함에 그 목적이 있다. The present invention has been made to solve the above-described problem, and when the foreground image (center object) is separated from the acquired image, the label value is calculated only for the pixels of the boundary region divided according to the user's predetermined input. An object of the present invention is to provide a method for synthesizing an image in a mobile terminal which determines whether the pixel is a pixel of the foreground area or a pixel of the background area.
또한 상기 분리된 전경 영상을 배경 영상과 합성하는 경우, 상기 전경 영상과 배경 영상의 경계 영역에서의 색상의 불연속을 방지하는 이동 단말기에서 영상 합성방법을 제공함에 그 목적이 있다.
Another object of the present invention is to provide an image synthesizing method in a mobile terminal which prevents discontinuity of colors in a boundary area between the foreground image and the background image when the separated foreground image is synthesized with the background image.
상기 과제를 해결하기 위해, 본 발명의 일실시예인 이동 단말기에서 영상 합성방법은 획득된 영상을 소정의 입력에 따라 전경 영역, 경계 영역 및 배경 영역으로 구분하여 상기 각각의 영역에 픽셀의 초기 라벨값을 설정하는 단계, 상기 경계 영역에만 존재하는 픽셀의 라벨값을 결정하여 상기 획득된 영상에서 전경 영상을 분리하는 단계, 상기 분리된 전경 영상의 경계 영역상의 픽셀을 정제하는 단계, 상기 분리된 전경 영상을 사용자가 선택한 배경 영상과 합성하는 단계 및 합성된 영상에서 배경 영상의 밝기를 보정하는 단계를 포함한다.
In order to solve the above problems, in the mobile terminal according to an embodiment of the present invention, the image synthesis method divides the obtained image into a foreground area, a border area, and a background area according to a predetermined input, and thus initial label values of pixels in the respective areas. Determining a label value of a pixel existing only in the boundary area, separating the foreground image from the obtained image, purifying a pixel on the boundary area of the separated foreground image, and separating the foreground image. Synthesizing the image with the background image selected by the user and correcting the brightness of the background image in the synthesized image.
본 발명의 일실시예의 일태양에 의하면, 상기 경계 영역에만 존재하는 픽셀의 라벨값을 결정하는 단계는 경계 영역상의 픽셀을 중심으로 주위 픽셀간의 특징 벡터의 유사도와 주위 픽셀의 세기의 곱한 측정값을 계산하는 단계 및 상기 계산된 측정값이 경계 영역의 초기 설정된 픽셀의 세기보다 큰 경우, 상기 주위 픽셀의 라벨값 및 세기로 경계 영역의 픽셀의 라벨값 및 세기를 결정하는 단계를 포함할 수 있다.
According to an embodiment of the present invention, the step of determining the label value of a pixel existing only in the boundary area comprises measuring a product of the similarity of the feature vector between the surrounding pixels and the intensity of the surrounding pixel with respect to the pixel on the boundary area. And calculating the label value and the intensity of the pixel of the boundary area based on the label value and the intensity of the peripheral pixel when the calculated measurement value is greater than the intensity of the initially set pixel of the boundary area.
본 발명의 일실시예의 일태양에 의하면, 상기 경계 영역에만 존재하는 픽셀의 라벨값을 결정하는 단계는 경계 영역의 픽셀의 라벨값의 변화가 없을 때까지 진행하는 것을 특징으로 한다.
According to an embodiment of the present invention, the step of determining the label value of the pixel existing only in the border region is characterized in that the process proceeds until there is no change in the label value of the pixel in the border region.
본 발명의 일실시예의 일태양에 의하면, 상기 경계 영역은 외부 입력 객체를 이용하여 획득된 영상이 표시된 터치 스크린상에 입력되는 제 1 라인과 제 2 라인 사이의 중간 영역인 것을 특징으로 한다.
According to an aspect of an embodiment of the present invention, the boundary area is an intermediate area between a first line and a second line inputted on a touch screen on which an image obtained by using an external input object is displayed.
본 발명의 일실시예의 일태양에 의하면, 상기 합성된 영상에서 배경의 밝기를 보정하는 단계는 분리된 전경 영상에서 피부색 영역을 추출하는 단계, 상기 피부색 영역의 Y값의 평균과, 전경 영상과 중첩되지 않은 배경 영상의 Y값의 평균을 계산하는 단계 및 상기 피부색 영역의 Y값의 평균과 상기 배경 영상의 Y값의 평균의 차이를 이용하여 배경 영상의 밝기를 보정하는 단계를 포함할 수 있다.
According to an aspect of an embodiment of the present invention, the step of correcting the brightness of the background in the synthesized image extracting the skin color region from the separated foreground image, the average of the Y value of the skin color region, overlapping the foreground image Computing the average of the Y value of the non-background image, and correcting the brightness of the background image using the difference between the average of the Y value of the skin color region and the average of the Y value of the background image.
본 발명에 따르면, 획득된 영상에서 전경 영상을 분리할 경우, 경계 영역의 픽셀에 대하여만 라벨값을 계산하므로, 전경 영상 분리시 처리 속도가 증가하는 장점이 있다. According to the present invention, when the foreground image is separated from the acquired image, the label value is calculated only for pixels of the boundary area, and thus, the processing speed increases when the foreground image is separated.
또한 분리된 전경 영상을 배경 영상과 합성하는 경우, 상기 전경 영상과 배경 영상의 경계 영역에서의 색상의 불연속을 방지함으로써 자연스러운 합성 여상을 획득할 수 있으며, 이에 따라 원하지 않는 배경 화면을 전환하여 개인의 사생활 보호 및 개인의 엔터테인먼트 기능을 효과적으로 수행할 수 있다.
In addition, when the separated foreground image is synthesized with the background image, a natural composite image may be obtained by preventing discontinuity of colors in the boundary area of the foreground image and the background image. Effectively perform privacy and personal entertainment functions.
도 1은 본 발명의 일 실시예와 관련된 이동 통신 단말기의 블록도이다.
도 2는 본 발명의 일 실시예에 따른 이동 단말기에서 영상 합성방법을 보여주는 순서도이다.
도 3은 본 발명의 일 실시예에 따른 소정의 입력에 의하여 획득된 영상이 세 개의 영역으로 분리된 이미지도이다.
도 4는 본 발명의 일 실시예에 따른 경계 영역에서 픽셀의 라벨값을 결정하는 방법을 보여주는 순서도이다.
도 5는 본 발명의 일 실시예에 따른 경계 영역 픽셀의 라벨값을 결정하는 것을 설명하는 도면이다.
도 6은 본 발명의 일 실시예에 따른 경계 영역에서 정제과정을 보여주는 이미지도이다.
도 7은 본 발명의 일 실시예에 따른 경계 영역에서 픽셀의 라벨값을 결정하여 획득한 전경 영상이미지이다.
도 8은 분리된 전경 영상을 배경 영상과 합성한 이미지도이다.
도 9는 본 발명의 일 실시예에 따른 영상 합성에 의한 경계 영역에서의 배경 영상의 밝기를 보정하는 것을 설명하는 이미지도이다. 1 is a block diagram of a mobile communication terminal according to an embodiment of the present invention.
2 is a flowchart illustrating a method of synthesizing an image in a mobile terminal according to an embodiment of the present invention.
3 is an image diagram in which an image obtained by a predetermined input is divided into three regions according to an embodiment of the present invention.
4 is a flowchart illustrating a method of determining a label value of a pixel in a boundary area according to an embodiment of the present invention.
5 is a diagram illustrating determining a label value of a boundary area pixel according to an embodiment of the present invention.
6 is an image illustrating a purification process in a boundary area according to an embodiment of the present invention.
7 is a foreground image image obtained by determining a label value of a pixel in a boundary area according to an embodiment of the present invention.
8 is an image diagram of a separated foreground image synthesized with a background image.
FIG. 9 is an image diagram illustrating correcting brightness of a background image in a boundary area by image synthesis according to an embodiment of the present invention.
이하, 본 발명과 관련된 이동 단말기에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. Hereinafter, a mobile terminal related to the present invention will be described in detail with reference to the drawings. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.
본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 포함될 수 있다.The mobile terminal described in this specification may include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), and navigation.
그러나, 본 명세서에 기재된 실시예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.
However, it will be readily apparent to those skilled in the art that the configuration according to the embodiments described herein may also be applied to fixed terminals such as digital TVs, desktop computers, etc., except when applicable only to mobile terminals.
도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
상기 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 저장부(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기가 구현될 수도 있다.The
이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.
무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.The
방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The
상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may mean a server that generates and transmits a broadcast signal and / or broadcast related information or a server that receives a previously generated broadcast signal and / or broadcast related information and transmits the same to a terminal. The broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal.
상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.The broadcast-related information may refer to a broadcast channel, a broadcast program, or information related to a broadcast service provider. The broadcast related information may also be provided through a mobile communication network. In this case, it may be received by the
방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 저장부(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the
이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(100)에 내장되거나 외장될 수 있다. The
근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. The short
위치정보 모듈(115)은 이동 단말기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.The
도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 1, the A /
사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. The
센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서(141), 터치센서(142) 및 가속도 센서(143)를 포함할 수 있다. The
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151) 및 음향 출력 모듈(152) 등이 포함될 수 있다.The
디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The
디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The
디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치센서(142)는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.When the
터치센서(142)는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치센서(142)는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The
터치센서(142)에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.When there is a touch input to the
도 1을 참조하면, 상기 터치 스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. Referring to FIG. 1, a
상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치 스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. When the touch screen is capacitive, the touch screen is configured to detect the proximity of the pointer by a change in an electric field according to the proximity of the pointer. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.
음향 출력 모듈(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 저장부(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The
저장부(160)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 저장부(160)는 상기 터치 스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다. The
저장부(160)는 플래시 저장부 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 저장부(예를 들어 SD 또는 XD 저장부 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 저장부, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 저장부(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The
인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달하거나, 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 저장부 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The
제어부(controller, 180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 상기 제어부(180)는 상기 터치 스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. The
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Various embodiments described herein may be implemented in a recording medium readable by a computer or similar device using, for example, software, hardware or a combination thereof.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and the like. It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions. The described embodiments may be implemented by the
소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 저장부(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.
According to the software implementation, embodiments such as the procedures and functions described herein may be implemented as separate software modules. Each of the software modules may perform one or more of the functions and operations described herein. Software code may be implemented in software applications written in a suitable programming language. The software code may be stored in the
이하 본 발명의 획득된 영상에서 전경 영상(중심객체)를 분리하는 경우, 사용자의 소정의 입력에 따라 나누어진 경계 영역의 픽셀에 대하여만 라벨값을 연산하여 전경 영역의 픽셀인지 또는 배경 영역의 픽셀인지를 결정하는 이동 단말기에서 영상 합성방법에 대하여 설명한다.
Hereinafter, when the foreground image (center object) is separated from the obtained image of the present invention, the label value is calculated only for pixels in the boundary region divided according to a user's predetermined input to determine whether the pixel is a foreground pixel or a background region pixel. A method of synthesizing an image in a mobile terminal for determining recognition will be described.
도 2는 본 발명의 일 실시예에 따른 이동 단말기에서 영상 합성방법을 보여주는 순서도이다. 2 is a flowchart illustrating a method of synthesizing an image in a mobile terminal according to an embodiment of the present invention.
도 2에서 보는 바와 같이, 제어부는 먼저 획득된 영상을 사용자의 소정의 입력에 따라 전경 영역, 경계 영역 및 배경 영역으로 구분하여 각각의 영역에 픽셀의 초기 라벨값을 결정한다(S1). 이 후 제어부는 상기 초기 지정된 상기 경계 영역에서 픽셀의 라벨값을 주위 픽셀값과의 특징 벡터의 유사도와 주위 픽셀의 세기의 곱을 계산한 측정값을 비교하여 결정함으로써, 경계 영역상의 픽셀이 전경 영역인지, 배경 영역인지 판단하여 획득된 영상에서 전경 영상을 분리한다(S3).As shown in FIG. 2, the controller first divides the acquired image into a foreground area, a border area, and a background area according to a user's input to determine an initial label value of a pixel in each area (S1). Thereafter, the controller determines the label value of the pixel in the initially designated boundary area by comparing the measured value calculated by multiplying the similarity of the feature vector with the surrounding pixel value and the intensity of the surrounding pixel, thereby determining whether the pixel on the boundary area is the foreground area. In operation S3, the foreground image is separated from the acquired image by determining whether the image is a background area.
이후 제어부는 사용자가 원하는 배경 영상에 상기 분리된 전경 영상을 합성하는 경우, 배경 영상과 분리된 전경 영상 사이의 경계 영역에서 부자연스러운 합성 영상이 생성되는 것을 방지하기 위하여 경계 영역상의 픽셀을 정제한다(S5).Then, when the user synthesizes the separated foreground image to the background image desired by the user, the controller refines pixels on the boundary region to prevent an unnatural synthesis image from being generated in the boundary region between the background image and the separated foreground image ( S5).
이후 제어부는 분리된 전경 영상을 원하는 배경 영상에 합성하고(S7), 합성된 영상에서 전경 영상의 밝기와 배경 영상의 밝기를 고려하여 배경 영상의 밝기를 보정한다(S9).
Thereafter, the controller synthesizes the separated foreground image to the desired background image (S7), and corrects the brightness of the background image in consideration of the brightness of the foreground image and the brightness of the background image in the synthesized image (S9).
이하 이동 단말기에서 영상 합성방법의 각 단계의 구체적인 설명을 도 3 내지 도 9를 참조하여 설명한다. Hereinafter, a detailed description of each step of the image synthesizing method in the mobile terminal will be described with reference to FIGS. 3 to 9.
도 3은 본 발명의 일 실시예에 따른 소정의 입력에 의하여 획득된 영상이 세 개의 영역으로 분리된 이미지도이다.3 is an image diagram in which an image obtained by a predetermined input is divided into three regions according to an embodiment of the present invention.
도 3의 (a)에서 보는 바와 같이, 제어부는 사용자의 소정의 입력을 입력받아 획득된 영상을 세 개의 영역으로 분리하여 각 영역상의 픽셀의 초기 라벨값을 설정한다. 여기서 사용자의 소정의 입력은 획득된 영상(200)에서 추출되기를 원하는 전경 영상을 지정하기 위하여 외부 입력 객체(예를 들어 스타일러스펜)를 이용하여 상기 전경 영상의 테두리를 따라 제 1 라인(210)을 드래그한다. 이 후 사용자는 획득된 영상(200)에서 배경 영상(즉 추출되기를 원하지 않는 영상)을 구분하기 위하여 추출되기를 원하는 전경 영상과 소정의 거리를 갖는 테두리를 따라 제 2 라인(220)을 드래그한다.As shown in (a) of FIG. 3, the controller divides an image obtained by receiving a predetermined input of a user into three regions and sets initial label values of pixels on each region. In this case, the user inputs the
이동 단말기에서 사용자가 배경을 전환하려는 영상은 보통 전경 영상(중심 객체)이 중심에 있는 영상이다. 도 3의 (b)를 참조하면, 사용자가 입력한 제 1 라인 및 제 2 라인을 기준으로, 상기 제 1 라인 아래는 전경 영역일 확률이 높고, 반대로 제 2 라인 위로는 배경 영역일 확률이 높다.In the mobile terminal, the image of which the user wants to switch the background is usually an image in which the foreground image (center object) is the center. Referring to FIG. 3B, based on the first and second lines input by the user, a probability below the first line is likely to be a foreground area, and conversely, a probability above the second line is a background area. .
따라서 상기 입력된 제 1 라인(210) 및 제 2 라인(220)에 따라 획득된 영상은 전경 영역(251), 경계 영역(252) 및 배경 영역(253)으로 구분된다. 여기서 이동 단말기의 시스템 자원의 제약 사항을 고려하면 획득된 영상에서 전경 영상 분리 정확도와 전경 영상 분리 속도를 증가시키기 위하여 도 3의 (c)에서 보는 바와 같이, 각각의 영역에 초기 픽셀의 라벨값을 설정한다. 예를 들어, 상기 전경 영역(251) 픽셀의 초기 라벨값은 1(흰색), 경계 영역(252) 픽셀의 초기 라벨값은 0(회색), 배경 영역(253) 픽셀의 초기 라벨값은 -1(검정색)으로 설정한다.Accordingly, the image obtained according to the input
획득된 영상을 세개의 영역으로 구분하고 각각의 영역상에 존재하는 초기 픽셀값을 설정하여 생성된 세 개의 픽셀 라벨값을 갖는 영상(250)을 이용하여 전경 영상을 분리한다. 이 경우, 상기 전경 영역 및 배경 영역상의 픽셀은 확률적으로 변할 가능성이 매우 적은 영역이다. 따라서 제어부는 상기 경계 영역상의 픽셀(라벨값이 0으로 초기 설정됨)에 대해서만 연산을 통하여 전경 영역(픽셀 라벨값이 1로 초기 설정됨)에 속하는지, 또는 배경 영역(픽셀 라벨값이 -1로 설정됨)에 속하는지 판단하면 되므로 상기 세 개의 픽셀 라벨값을 갖는 영상(250)을 이용하여 전경 분리를 수행하는 경우, 전경 영상 분리 정확도와 전경 영상 분리 속도 측면에서 효율적이다.
The foreground image is separated by using the
도 4는 본 발명의 일 실시예에 따른 경계 영역에서 픽셀의 라벨값을 결정하는 방법을 보여주는 순서도이다.4 is a flowchart illustrating a method of determining a label value of a pixel in a boundary area according to an embodiment of the present invention.
도 4에서 보는 바와 같이, 제어부는 획득된 영상을 세 개의 영역으로 구분하여 각각의 영역에 픽셀의 라벨값을 다르게 설정한 세 개의 픽셀 라벨값을 갖는 영상을 생성한 후(S41) 경계 영역에서의 픽셀의 라벨값을 판단하기 위한 연산을 수행에 따라 획득된 영상에서 전경 영상을 분리한다. As shown in FIG. 4, the controller divides the acquired image into three regions and generates an image having three pixel label values having different pixel label values set in each region (S41). The foreground image is separated from the acquired image by performing an operation for determining a label value of the pixel.
획득된 영상에서 전경 영상을 분리하기 위하여 사용되는 GrowCut 알고리즘은 상기 각각의 영역상에 픽셀의 초기 라벨을 지정해준 후, Cellular automaton 방법을 사용하여 자동적으로 전경 영상을 분리하는 과정을 수행한다. 상기 Cellular automaton 방법은 세 변수를 갖는데, 이를 GrowCut 알고리즘에 적합한 형태로 변형하면 다음과 같다.The GrowCut algorithm, which is used to separate the foreground image from the acquired image, designates an initial label of pixels on each area, and then performs a process of automatically separating the foreground image using the cellular automaton method. The cellular automaton method has three variables, which are transformed into a form suitable for the GrowCut algorithm as follows.
여기서 Sp는 픽셀의 상태(state)를 나타내고, lp는 현재 펙셀의 라벨(label), θp는 현재 펙셀의 세기(strength), Cp는 현재 픽셀의 특징 벡터(feature vector)를 나타낸다. 디지털 영상에서 각 세 변수의 초기 상태는 다음과 같다.Where S p represents the state of the pixel, l p represents the label of the current pixel, θ p represents the strength of the current pixel, and C p represents the feature vector of the current pixel. The initial states of each of the three variables in the digital image are as follows.
상기 현재 픽셀의 특징 벡터의 RGBp는 RGB 칼라 영역에서 픽셀 P의 3차원 벡터를 나타낸다. RGB p of the feature vector of the current pixel is Represents a three-dimensional vector of pixels P in an RGB color region.
GrowCut 알고리즘은 픽셀의 초기 라벨 값 저장(S41), 이전 픽셀의 상태 복사(S42), 현재 픽셀의 라벨 값 업데이트(S43), 전경 영상 분할 안정화(S45) 단계를 포함한다. The GrowCut algorithm includes storing the initial label value of the pixel (S41), copying the state of the previous pixel (S42), updating the label value of the current pixel (S43), and stabilizing the foreground image segmentation (S45).
먼저 제어부는 도 3에서 설명한 바와 같이, 전경 영상 분리 과정을 수행하기 전에 사용자의 입력에 따른 제 1 라인 및 제 2 라인을 기준으로 전경 영역, 경계 영역, 배경 영역을 구분한 후, 각 영역의 픽셀에 초기 픽셀의 라벨을 지정한다. First, as described with reference to FIG. 3, the controller divides the foreground area, the boundary area, and the background area based on the first line and the second line according to the user's input before performing the foreground image separation process. Specify the label of the initial pixel.
한편 각 픽셀의 초기 세기(θp)는 사용자의 입력에 따라 구분된 전경 영역 및 배경 영역은 전경 영상 분리 과정을 수행하는 동안 변하지 않으므로, 제어부는 픽셀의 초기 세기(θp)를 1로 초기화하고, 경계 영역의 픽셀의 초기 세기(θp)는 0으로 초기화한다. On the other hand, the initial intensity θ p of each pixel does not change during the foreground image separation process according to the user's input, so the control unit initializes the initial intensity θ p of the pixel to 1. , The initial intensity θ p of the pixels in the boundary region is initialized to zero.
즉 사용자의 입력에 의하여 각각의 영역을 세 개의 픽셀 라벨값을 갖는 영상을 생성한 후, 원래의 영상과 상기 세 개의 픽셀 라벨값을 갖는 영상에서 경계 영역의 픽셀값을 업데이트 하여 전경 영상 분리 과정을 수행한다. 이하 경계 영역에서의 픽셀값을 업데이트 하는 과정에 대하여 설명한다. That is, after generating an image having three pixel label values in each region by a user input, the foreground image separation process is performed by updating pixel values of the boundary region in the original image and the image having the three pixel label values. To perform. Hereinafter, a process of updating the pixel value in the boundary region will be described.
제어부는 먼저 획득한 영상의 경계 영역에 해당하는 픽셀의 라벨 값(label_prev) 및 픽셀의 세기(strength_prev))를 복사한 후(S42), 경계 영역의 모든 픽셀의 라벨값을 업데이트 한다. 상기 경계 영역에서의 픽셀의 라벨값 업데이트는 복사한 경계 영역에서의 현재 픽셀과 이웃하는 픽셀 간의 특징 벡터의 유사도와 이웃하는 픽셀의 세기를 고려하여 결정한다. The controller first copies the label value (label_prev) and the intensity (strength_prev) of the pixel corresponding to the boundary region of the obtained image (S42), and then updates the label values of all pixels of the boundary region. The label value update of the pixel in the boundary region is determined in consideration of the similarity of the feature vector between the current pixel and the neighboring pixel in the copied boundary region and the intensity of the neighboring pixel.
도 5는 본 발명의 일 실시예에 따른 경계 영역 픽셀의 라벨값을 결정하는 것을 설명하는 픽셀 배열을 보여주는 도면으로서, 도 5를 참조하면, 경계 영역에서의 픽셀의 라벨값(lp)은 현재 픽셀(P)과 각 이웃하는 픽셀(qi, 1≤i≤8)간의 특징 벡터의 유사도(g(Cp - Cq))와 이웃하는 픽셀의 세기(θqi, 1≤i≤8)의 곱이 현재 픽셀의 세기(θp)보다 큰지 판단하여, 이때 이웃하는 픽셀의 라벨값(lqi)과 세기(θqi)를 이용하여 결정한다. 여기서 특징 벡터의 유사도(g(Cp - Cq))는 아래 수학식 1로 계산한다.FIG. 5 is a diagram illustrating an arrangement of pixels illustrating determining a label value of a border area pixel according to an embodiment of the present invention. Referring to FIG. 5, a label value l p of a pixel in the border area is currently set. The similarity (g (C p -C q )) of the feature vector between the pixel P and each neighboring pixel q i , 1 ≦ i ≦ 8, and the intensity of the neighboring pixels θ qi , 1 ≦ i ≦ 8 It is determined whether the product of is greater than the intensity θ p of the current pixel, and is determined using the label value l qi and the intensity θ qi of neighboring pixels. The similarity (g (C p -C q )) of the feature vector is calculated by Equation 1 below.
[수학식 1][Equation 1]
여기서 Cp는 현재 픽셀의 특징 벡터, Cq는 이웃하는 픽셀의 특징 벡터를 나타낸다. Where C p is the feature vector of the current pixel and C q is the feature vector of the neighboring pixel.
다시 도 4를 참고하면, 제어부는 이웃하는 8개의 픽셀(q1 ~ q8)에 대하여 특징 벡터의 유사도와 픽셀의 세기의 곱의 측정값과 경계 영역에서의 픽셀의 세기와 비교 연산하는 과정을 수행하여 경계 영역에서의 픽셀의 라벨값을 결정한다(S43). 제어부는 경계 영역에서의 마지막 픽셀까지 상기 비교, 연산을 통하여 라벨값을 결정하고(S44), 전경 영상 분할 안정화를 측정하여 전경 영상 분리과정이 안정화될 때까지(S45) 상기 경계 영역에서의 픽셀의 라벨값을 업데이트 한다. 상기 전경 영상 분할 안정화는 경계 영역에서의 모든 픽셀의 라벨값의 변화가 없을때 이루어진다. 이후 제어부는 경계 영역의 픽셀의 라벨값을 결정하여 전경 영상을 획득한 영상으로부터 분리한 후, 경계 영역의 정제 과정을 수행한다(S46).
Referring back to FIG. 4, the control unit performs a process of comparing the measured value of the product of the similarity of the feature vector and the pixel intensity with respect to the neighboring eight pixels q 1 to q 8 and the intensity of the pixel in the boundary region. In operation S43, the label value of the pixel in the boundary area is determined. The control unit determines the label value through the comparison and operation until the last pixel in the boundary region (S44), and measures the foreground image segmentation stabilization until the foreground image separation process is stabilized (S45). Update the label value. The foreground image segmentation stabilization is performed when there is no change in the label value of every pixel in the boundary region. Thereafter, the controller determines a label value of the pixel of the boundary area to separate the foreground image from the obtained image, and then performs a purification process of the boundary area (S46).
도 6은 본 발명의 일 실시예에 따른 경계 영역에서 정제과정을 보여주는 이미지도이다.6 is an image illustrating a purification process in a boundary area according to an embodiment of the present invention.
도 4에서 설명한 GrowCut 알고리즘은 도 6의 (a)에서 보는 바와 같이, 획득한 영상으로부터 전경 영상과 배경 영상을 효과적으로 분리하지만, 도 6의 (a)에서 전경 영상의 경계 부분(610)에서 부드럽고 깨끗한 전경 영상 분할을 수행하지 못한다(도 6의 (b)참조). 특히, 고해상도 영상의 경우 이러한 문제는 심각한 왜곡을 초래한다. 이로 인해, GrwoCut 알고리즘으로 분리된 전경 영상을 임의의 배경에 합성하게 되면, 부자연스러운 합성 영상이 생성된다. 따라서, 부드럽고 정확한 경계를 획득하여 자연스러운 합성 영상을 생성하기 위해, 경계 영역 정제 과정이 필요하다.The GrowCut algorithm described in FIG. 4 effectively separates the foreground image and the background image from the obtained image, as shown in FIG. 6 (a), but is smooth and clean at the
경계 영역 정제를 위해, 영상 처리 알고리즘 중 이진 영상에서 사용되는 기본적인 모폴로지(morphology) 연산인 침식(erosion) 연산과 팽창(dilation) 연산을 이용한 닫힘(closing) 연산을 수행한다. For the boundary region refinement, a closing operation using erosion and dilation, which are basic morphology operations used in binary images, is performed.
상기 침식 연산은 영상 내에서 배경을 확장시키고 객체의 크기를 축소한다. 따라서, 침식 마스크를 이용하여 침식 연산을 수행하면, 흰 객체의 둘레로부터 픽셀을 없애는 효과를 발생시킨다. 팽창 연산은 객체의 최 외각 픽셀을 확장하여 객체의 크기는 확장하고 배경은 축소한다. 즉, 팽창 연산은 팽창 마스크를 이용하여 흰색 객체의 둘레에 픽셀을 더하는 역할을 한다. 이 두 기본 모폴로지 연산을 이용한 닫힘 연산은 우선, 팽창 연산을 수행한 후, 침식 연산을 수행한다. 닫힘 연산은 객체의 경계 부분을 부드럽게 만들고 좁은 지협과 길고 얇은 돌출 부분을 합치고 작은 구멍을 제거하고 객체의 경계 부분의 간격을 메운다. The erosion operation expands the background and reduces the size of the object in the image. Thus, performing an erosion operation using the erosion mask produces an effect of removing pixels from the periphery of the white object. The expansion operation expands the outermost pixels of the object, expanding its size and reducing its background. That is, the expansion operation serves to add pixels around the white object using the expansion mask. The closing operation using these two basic morphology operations first performs an expansion operation and then performs an erosion operation. The closing operation smoothes the boundary of the object, joins the narrow isthmus and long thin protrusions, removes the small holes, and closes the gap between the object's boundaries.
경계 영역 정제를 위해 15×15 팽창 마스크와 15×15 침식 마스크를 사용하여 닫힘 연산을 수행한다. GrowCut 알고리즘을 수행하여 획득한 전경 분리 영상에 닫힘 연산을 수행하여 도면 6의 (c)에서 보는 바와 같이, 정제된 영상(620)을 획득할 수 있다.
The close operation is performed using a 15 × 15 inflation mask and a 15 × 15 erosion mask for boundary area purification. As shown in (c) of FIG. 6, a closed operation may be performed on the foreground separated image obtained by performing the GrowCut algorithm to obtain a
도 7은 본 발명의 일 실시예에 따른 경계 영역에서 픽셀의 라벨값을 결정하여 획득한 전경 영상이미지이다. 7 is a foreground image image obtained by determining a label value of a pixel in a boundary area according to an embodiment of the present invention.
도 7의 (a)는 획득한 영상에서 모든 영역에 대하여 픽셀의 라벨값을 업데이트하여 전경 영상을 분리한 후, 경계 영역에서의 정제 과정을 수행한 영상으로 분리된 전경 영역에 홀(980)이 존재한다. 상기 홀(980)을 제거하기 위해서는 경계 영역 정제 과정에서 큰 크기의 팽창 마스크와 침식 마스크를 사용하여 닫힘 연산을 수행해야 한다. 경계 영역 정제 과정에서 큰 크기의 마스크를 사용하면 비록 홀은 제거할 수 있지만, 복잡도가 높아 처리 시간이 증가하는 문제가 발생한다.In FIG. 7A, after the separation of the foreground image by updating the label values of the pixels for all regions in the acquired image, the
도 7의 (b)는 획득한 영상에서 경계 영역에 대하여만 픽셀의 라벨값을 업데이트하여 전경 영상을 분리한 후, 경계 영역에서의 정제 과정을 수행한 영상으로 분리된 전경 영역에 홀이 존재하지 않음을 알 수 있다. 즉 본원 발명의 경계 영역에 대하여만 픽셀의 라벨값을 업데이트하여 전경 영상을 분리하는 경우, 전경 영상 분리 정확도가 증가함을 알 수 있다.
FIG. 7B illustrates that the foreground image is separated by updating the label value of the pixel only for the boundary region in the acquired image, and there is no hole in the foreground region separated by the image that has been refined in the boundary region. It can be seen that. That is, when the foreground image is separated by updating the label value of the pixel only in the boundary area of the present invention, it can be seen that the foreground image separation accuracy increases.
도 8은 분리된 전경 영상을 배경 영상과 합성한 이미지도이다.8 is an image diagram of a separated foreground image synthesized with a background image.
도 8의 (c)는 도 8의 (a)의 획득한 영상(710)에서 GrowCut 알고리즘을 이용하여 전경 영상을 분리한 후 경계 영역에서의 정제 과정을 수행하여, 도 8의 (b)의 사용자가 원하는 배경 영상(720)에 합성한 영상(730)이다. 도 8의 (c)의 합성 영상은 분리된 전경 영상(710)을 임의의 배경 영상(720)에 합성하는 경우, 전경 영상과 배경 영상의 경계 영역에서 불연속성이 발생하므로 원래의 영상에서 느낄 수 없었던 부자연스러움이 있다. 따라서 상기 전경 영상과 배경 영상의 경계 영역에서 불연속성을 줄이기 위하여 경계선을 부드럽게 하는 평균값 필터를 사용한다. 즉 본원 발명에서는 5×5 크기의 평균값 필터 마스크를 사용하여 전경 영상의 밝기와 배경 영상의 밝기를 고려하여 합성 영상에서의 밝기를 보정하였다. FIG. 8C illustrates the user of FIG. 8B by separating the foreground image from the acquired
제어부는 합성 영상에서 배경 영상의 밝기 보상을 위해 분리된 전경 영상에서 피부색 영역을 추출한 후, 피부색 영역의 R, G, B 값을 Y, Cb, Cr 값으로 변환한 후, 피부색 영역의 Y 값의 평균을 계산한다. 아래 수학식 2를 이용하여 분리된 전경 영상에서 피부색 영역을 추출할 수 있다. The controller extracts the skin color region from the separated foreground image to compensate for the brightness of the background image from the synthesized image, converts R, G, and B values of the skin color region into Y, Cb, and Cr values, and then adjusts the Y value of the skin color region. Calculate the mean. The skin color region may be extracted from the separated foreground image by using Equation 2 below.
[수학식 2][Equation 2]
(Cr > 132 && Cr < 173) && (Cb > 76 && Cb < 126)(Cr> 132 && Cr <173) && (Cb> 76 && Cb <126)
제어부는 상기 전경 영상에서의 측정된 Cr, Cb의 값이 상기 수학식 2의 범위내에 있으면 피부색 영역임을 판단하여 피부색 영역의 Y값의 평균을 계산한다. The controller calculates an average of the Y values of the skin color region by determining that the measured values of Cr and Cb in the foreground image are the skin color regions when the measured values of Cr and Cb are within the range of Equation 2.
다음으로 제어부는 전경 영상과 겹치지 않는 배경 영상의 R, G, B 값을 다시 Y, Cb, Cr 값으로 변환한 후, 전경과 겹치지 않는 배경 영역의 Y값의 평균을 계산한다. 이 후 제어부는 계산된 피부색 영역의 평균 Y값과 전경 영상과 겹치지 않는 배경 영상의 평균 Y값의 차를 계산하여 이를 전경 영상과 겹치지 않는 배경 영상의 Y값에 보상함으로써 경계 영역에서의 색상의 불연속성을 방지할 수 있다.
Next, the controller converts the R, G, and B values of the background image, which do not overlap with the foreground image, to Y, Cb, and Cr values, and then calculates an average of the Y values of the background region that do not overlap with the foreground. After that, the controller calculates a difference between the calculated average Y value of the skin color region and the average Y value of the background image that does not overlap with the foreground image, and compensates it for the Y value of the background image that does not overlap with the foreground image, thereby discontinuity of color in the boundary region. Can be prevented.
도 9는 본 발명의 일 실시예에 따른 영상 합성에 의한 경계 영역에서의 배경 영상의 밝기를 보정하는 것을 설명하는 이미지도이다. FIG. 9 is an image diagram illustrating correcting brightness of a background image in a boundary area by image synthesis according to an embodiment of the present invention.
도 9의 (b)는 도 9의 (a)영상에 대하여 도 8의 평균값 필터를 이용하여 계산된 피부색 영역의 평균 Y값과 전경 영상과 겹치지 않는 배경 영상의 평균 Y값의 차를 계산하여 이를 전경 영상과 겹치지 않는 배경 영상의 Y값에 보상함으로써 경계 영역에서의 색상의 연속성을 확보한 영상이다. 9B calculates a difference between an average Y value of a skin color region calculated using the average value filter of FIG. 8 and an average Y value of a background image that does not overlap the foreground image with respect to the image of FIG. 9A. By compensating for the Y value of the background image not overlapping with the foreground image, the continuity of color in the boundary area is secured.
즉 도 9의 (b)에서 보는 바와 같이, 제어부는 전경 영상과 배경 영상의 경계 영역에서의 밝기 차를 보상함으로서 합성 영상 생성시 상기 경계 영역에서의 색상의 불연속성으로 인한 부자연스러움을 방지할 수 있다.
That is, as shown in (b) of FIG. 9, the controller may compensate for the difference in brightness in the boundary region between the foreground image and the background image, thereby preventing unnaturalness due to color discontinuity in the boundary region when generating the composite image. .
본원 발명의 전경 영상을 분리하는 과정은 사용자의 입력에 따른 제 1 라인 및 제 2 라인을 기준으로 전경 영역, 경계 영역, 배경으로 구분한 후, 획득된 영상의 모든 영역상의 픽셀값을 계산할 필요없이, 상기 경계 영역내의 픽셀의 라벨값만을 계산한 후 전경 분할 안정화를 측정하면 된다. 따라서, 전경 영상 분할 과정이 반복될수록 픽셀의 라벨값을 계산해야 할 미지의 영역이 줄어들어 전경 영상 분리시 처리 속도가 증가하게 된다.
The process of separating the foreground image of the present invention is performed by dividing the foreground image, the boundary region, and the background based on the first line and the second line according to a user's input, without calculating the pixel values on all regions of the acquired image. After calculating only the label value of the pixel in the boundary area, the foreground segmentation stabilization may be measured. Therefore, as the foreground image segmentation process is repeated, an unknown area for calculating the label value of the pixel is reduced, thereby increasing the processing speed when the foreground image is separated.
또한, 본 발명의 일실시예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.
In addition, according to an embodiment of the present invention, the above-described method may be implemented as code that can be read by a processor in a medium in which a program is recorded. Examples of processor-readable media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and may be implemented in the form of a carrier wave (for example, transmission over the Internet). Include.
상기와 같이 설명된 이동통신 단말기 및 이에 적용되는 제어방법은 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The above-described mobile communication terminal and the control method applied thereto are not limited to the configuration and method of the above-described embodiments, but the embodiments are all or part of each embodiment so that various modifications can be made. May be optionally combined.
Claims (5)
상기 경계 영역에만 존재하는 픽셀의 라벨값을 결정하여 상기 영상에서 전경 영상을 분리하는 단계;
상기 분리된 전경 영상의 경계 영역상의 픽셀을 정제하는 단계;
상기 분리된 전경 영상을 사용자가 선택한 배경 영상과 합성하는 단계; 및
합성된 영상에서 배경 영상의 밝기를 보정하는 단계;를 포함하여 이루어지는 이동 단말기에서 영상 합성방법.
Dividing an image into a foreground area, a border area, and a background area according to a predetermined input to set initial label values of pixels in the respective areas;
Separating a foreground image from the image by determining a label value of a pixel existing only in the boundary area;
Purifying a pixel on a boundary area of the separated foreground image;
Synthesizing the separated foreground image with a background image selected by a user; And
Compensating the brightness of the background image in the synthesized image; Image synthesis method in a mobile terminal comprising a.
상기 경계 영역에만 존재하는 픽셀의 라벨값을 결정하는 단계는
경계 영역상의 현재 픽셀과 상기 현재 픽셀의 이웃 픽셀간의 특징벡터의 유사도와 상기 이웃 픽셀의 세기의 곱을 계산한 측정값을 계산하는 단계; 및
상기 계산된 측정값이 경계 영역의 초기 설정된 픽셀의 세기보다 큰 경우, 상기 이웃 픽셀의 라벨값 및 세기로 경계 영역의 픽셀의 라벨값 및 세기를 결정하는 단계를 포함하는 이동 단말기에서 영상 합성방법.
The method of claim 1,
Determining a label value of a pixel existing only in the boundary area
Calculating a measured value obtained by calculating a product of the similarity of the feature vector between the current pixel on the boundary region and the neighboring pixel of the current pixel and the intensity of the neighboring pixel; And
And determining the label value and the intensity of the pixel in the boundary area based on the label value and the intensity of the neighboring pixel when the calculated measured value is greater than the intensity of the pixel initially set in the boundary area.
상기 경계 영역에만 존재하는 픽셀의 라벨값을 결정하는 단계는
경계 영역의 픽셀의 라벨값의 변화가 없을 때까지 진행하는 것을 특징으로 하는 이동 단말기에서 영상 합성방법.
The method of claim 2,
Determining a label value of a pixel existing only in the boundary area
And proceeding until there is no change in the label value of the pixel in the border region.
상기 경계 영역은 외부 입력 객체를 이용하여 상기 영상에 입력된 제 1 라인과 제 2 라인 사이의 중간 영역이며,
상기 제1 라인은 상기 전경 영상을 지정하기 위해 상기 전경 영상의 테두리를 따라 드래그된 것이며, 상기 제2 라인은 상기 배경 영상을 구분하기 위해 상기 전경 영상과 소정의 거리를 갖는 테두리를 따라 드래그된 것을 특징으로 하는 이동 단말기에서 영상 합성방법.
The method of claim 1,
The boundary area is an intermediate area between a first line and a second line input to the image using an external input object.
The first line is dragged along an edge of the foreground image to designate the foreground image, and the second line is dragged along an edge having a predetermined distance from the foreground image to distinguish the background image. Image synthesis method in a mobile terminal characterized in that.
상기 합성된 영상에서 배경의 밝기를 보정하는 단계는
분리된 전경 영상에서 피부색 영역을 추출하는 단계;
상기 피부색 영역의 Y값의 평균과, 전경 영상과 중첩되지 않은 배경 영상의 Y값의 평균을 계산하는 단계; 및
상기 피부색 영역의 Y값의 평균과 상기 배경 영상의 Y값의 평균의 차이를 이용하여 배경 영상의 밝기를 보정하는 단계를 포함하여 이루어지는 이동 단말기에서 영상 합성방법.The method of claim 1,
Correcting the brightness of the background in the synthesized image
Extracting a skin color region from the separated foreground image;
Calculating an average of the Y value of the skin color region and an average of the Y value of the background image not overlapping the foreground image; And
Correcting the brightness of the background image by using a difference between the average of the Y value of the skin color region and the average of the Y value of the background image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100072939A KR101164747B1 (en) | 2010-07-28 | 2010-07-28 | Method for sysnthesizing image in mobile terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100072939A KR101164747B1 (en) | 2010-07-28 | 2010-07-28 | Method for sysnthesizing image in mobile terminal |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120011216A KR20120011216A (en) | 2012-02-07 |
KR101164747B1 true KR101164747B1 (en) | 2012-07-12 |
Family
ID=45835484
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100072939A KR101164747B1 (en) | 2010-07-28 | 2010-07-28 | Method for sysnthesizing image in mobile terminal |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101164747B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101561083B1 (en) | 2014-01-24 | 2015-10-26 | 에스케이플래닛 주식회사 | Boundary value calculation apparatus for inserting digital product placement and method for the same |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101280839B1 (en) * | 2013-04-24 | 2013-07-02 | (주)나인정보시스템 | A new parallel labelling apparatus and method for objects in the image |
CN110609617B (en) * | 2013-08-04 | 2023-09-26 | 艾斯适配有限公司 | Apparatus, system and method for virtual mirror |
CN105284122B (en) | 2014-01-24 | 2018-12-04 | Sk 普兰尼特有限公司 | For clustering the device and method to be inserted into advertisement by using frame |
KR101547862B1 (en) * | 2014-12-17 | 2015-08-31 | 스타십벤딩머신 주식회사 | System and method for composing video |
KR101720607B1 (en) * | 2016-01-14 | 2017-03-28 | 김인환 | Image photographing apparuatus and operating method thereof |
KR102360919B1 (en) * | 2021-05-28 | 2022-02-09 | 주식회사 유콘 | A host video directing system based on voice dubbing |
-
2010
- 2010-07-28 KR KR1020100072939A patent/KR101164747B1/en not_active IP Right Cessation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101561083B1 (en) | 2014-01-24 | 2015-10-26 | 에스케이플래닛 주식회사 | Boundary value calculation apparatus for inserting digital product placement and method for the same |
Also Published As
Publication number | Publication date |
---|---|
KR20120011216A (en) | 2012-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101164747B1 (en) | Method for sysnthesizing image in mobile terminal | |
CN110059685B (en) | Character area detection method, device and storage medium | |
CN110097576B (en) | Motion information determination method of image feature point, task execution method and equipment | |
EP3099075B1 (en) | Method and device for processing identification of video file | |
US20200327353A1 (en) | Image processing method and apparatus, electronic device, and storage medium | |
CN110490179B (en) | License plate recognition method and device and storage medium | |
CN106127751B (en) | Image detection method, device and system | |
CN112633306B (en) | Method and device for generating countermeasure image | |
AU2014374638A1 (en) | Image processing apparatus and method | |
CN110944230B (en) | Video special effect adding method and device, electronic equipment and storage medium | |
CN110933334B (en) | Video noise reduction method, device, terminal and storage medium | |
EP4007287A1 (en) | Video processing method, device, terminal, and storage medium | |
CN111447389B (en) | Video generation method, device, terminal and storage medium | |
KR20130010590A (en) | Electronic device and the operating method thereof | |
CN110856048A (en) | Video repair method, device, equipment and storage medium | |
CN110991457A (en) | Two-dimensional code processing method and device, electronic equipment and storage medium | |
CN111754386A (en) | Image area shielding method, device, equipment and storage medium | |
CN111325220B (en) | Image generation method, device, equipment and storage medium | |
CN110503159B (en) | Character recognition method, device, equipment and medium | |
CN106713656B (en) | Shooting method and mobile terminal | |
CN109544490B (en) | Image enhancement method, device and computer readable storage medium | |
CN114915745B (en) | Multi-view video recording method and device and electronic equipment | |
CN112508959B (en) | Video object segmentation method and device, electronic equipment and storage medium | |
CN110414448B (en) | Image processing method, image processing device, electronic equipment and storage medium | |
KR101603112B1 (en) | A method of filtering and a apparatus of capturing picture with filtering function |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20150624 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20160624 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20170623 Year of fee payment: 6 |
|
LAPS | Lapse due to unpaid annual fee |