KR100958595B1 - 영상통신단말기의 영상 합성 장치 및 방법 - Google Patents

영상통신단말기의 영상 합성 장치 및 방법 Download PDF

Info

Publication number
KR100958595B1
KR100958595B1 KR1020080051970A KR20080051970A KR100958595B1 KR 100958595 B1 KR100958595 B1 KR 100958595B1 KR 1020080051970 A KR1020080051970 A KR 1020080051970A KR 20080051970 A KR20080051970 A KR 20080051970A KR 100958595 B1 KR100958595 B1 KR 100958595B1
Authority
KR
South Korea
Prior art keywords
region
image
feature point
face
area
Prior art date
Application number
KR1020080051970A
Other languages
English (en)
Other versions
KR20090125905A (ko
Inventor
이현주
박성준
Original Assignee
이현주
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이현주 filed Critical 이현주
Priority to KR1020080051970A priority Critical patent/KR100958595B1/ko
Publication of KR20090125905A publication Critical patent/KR20090125905A/ko
Application granted granted Critical
Publication of KR100958595B1 publication Critical patent/KR100958595B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 카메라로부터 획득한 얼굴 영상에 다양한 캐릭터 이를 테면, 콧수염이나 안경 혹은 눈물 영상을 합성함으로써, 통화중인 상대측 영상통신단말기로 사용자의 감정 상태나 다양한 캐릭터로 꾸며진 사용자의 얼굴을 표현할 수 있도록 한 영상통신단말기의 영상 합성 장치 및 방법에 관한 것이다.
또한, 본 발명에 따른 영상통신단말기의 영상 합성 장치는 카메라에 의해 획득한 카메라 영상을 살색 영역과 비살색 영역으로 이진화하는 이진화부; 상기 이진화부에 의해 살색으로 구분된 살색 영역들 중에서 얼굴영역을 결정하는 얼굴영역 결정부; 상기 얼굴영역 결정부에 의해 결정된 얼굴영역에서 윤곽선 영역을 검출하는 윤곽선 검출부; 상기 얼굴영역 결정부에 의해 결정된 얼굴영역을 네 등분하여 눈썹영역, 눈영역, 코영역 및 입술영역으로 구분하고, 상기 눈영역 내에 존재하는 윤곽선 영역에서 눈의 특징점을 결정하고, 상기 코영역 내에 존재하는 윤곽선 영역에서 코의 특징점을 결정하고, 상기 입술영역 내에 존재하는 윤곽선 영역에서 입술의 특징점을 결정하는 특징점 결정부 및 상기 특징점 결정부에 의해 결정된 특징점을 기준으로 하여 상기 카메라 영상과 미리 준비되어 있는 캐릭터 영상을 합성하는 영상합성부를 포함하여 이루어진다.
Figure R1020080051970
영상전화, 합성, YUV, 이진화, 침식, 팽창, 라벨링, 윤곽선, 소벨, 캐릭터

Description

영상통신단말기의 영상 합성 장치 및 방법{apparatus and method for complexing image in visual communication terminal}
본 발명은 영상통신단말기의 영상 합성 장치 및 방법에 관한 것으로, 특히 카메라로부터 획득한 얼굴 영상에 다양한 캐릭터 이를 테면, 콧수염이나 안경 혹은 눈물 영상을 합성함으로써, 통화중인 상대측 영상통신단말기로 사용자의 감정 상태나 다양한 캐릭터로 꾸며진 사용자의 얼굴을 표현할 수 있도록 한 영상통신단말기의 영상 합성 장치 및 방법에 관한 것이다.
근래 들어, 정보/통신분야의 비약적인 발전에 힘입어 전국민의 필수 휴대품이라고 할 정도로 이동통신 단말기가 보편화되어 있고, 나아가 음성통화나 문자메시지의 송/수신이 주기능이었던 것은 이미 오래전이며, 새로운 기술의 출현에 따라 다종다양한 기능을 갖는 신모델 들이 속속 출시되어 구 모델들을 빠르게 대체하고 있다.
특히, 영상전화나 영상회의 시스템을 지원하는 3 세대(Generation)용 통신망, 이를 테면 W-CDMA망 혹은 이의 발전 모델인 차세대(4세대) 이동통신망 이를 테면, 와이브로(wireless broadband; WiBro)망이 구축되어 정지 또는 이동 중에도 이 동통신 단말기를 통해 통화 상대방과 음성 및 영상을 주고받을 수 있는 영상전화 서비스가 도입된 상태이다.
이렇게 영상전화 서비스가 상용화되면서 한편으로는, 감추고 싶은 자신의 모습이 여과 없이 통화중인 상대방에게 보여줄 수 있다는 문제점이 있었다. 예를 들어, 자다 일어나 부은 눈이나 엉망인 머리 혹은 화장기 없는 맨 얼굴 등이 지인이 아닌 일반 사람들에게도 전달될 수 있는바, 사용자의 사생활에 지장을 초래할 수 있다는 것이다.
이에, 본 출원인은 사용자의 얼굴을 보호하고 나아가, 사용자의 얼굴을 재미있게 혹은 아름답게 치장해 줄 수 있는 영상 합성방안을 연구하여 본 발명에 이르게 되었다.
본 발명은 전술한 문제점을 해결하기 위하여 안출된 것으로서, 카메라로부터 획득한 영상에서 얼굴의 특징 부위(예, 눈, 코 혹은 입)를 찾고, 이렇게 찾은 특징 부위를 기준으로 하여 카메라로부터 획득한 영상에 미리 준비되어 있는 캐릭터영상을 합성하여 사용자의 얼굴을 다양하게 꾸며줄 수 있도록 한 영상통신단말기의 영상 합성 장치 및 방법을 제공하는데 그 목적이 있다.
전술한 목적을 달성하기 위해 본 발명에 따른 영상통신단말기의 영상 합성 장치는 카메라에 의해 획득한 카메라 영상을 살색 영역과 비살색 영역으로 이진화하는 이진화부; 상기 이진화부에 의해 살색으로 구분된 살색 영역들 중에서 얼굴영역을 결정하는 얼굴영역 결정부; 상기 얼굴영역 결정부에 의해 결정된 얼굴영역에서 윤곽선 영역을 검출하는 윤곽선 검출부; 상기 얼굴영역 결정부에 의해 결정된 얼굴영역을 네 등분하여 눈썹영역, 눈영역, 코영역 및 입술영역으로 구분하고, 상기 눈영역 내에 존재하는 윤곽선 영역에서 눈의 특징점을 결정하고, 상기 코영역 내에 존재하는 윤곽선 영역에서 코의 특징점을 결정하고, 상기 입술영역 내에 존재하는 윤곽선 영역에서 입술의 특징점을 결정하는 특징점 결정부 및 상기 특징점 결정부에 의해 결정된 특징점을 기준으로 하여 상기 카메라 영상과 미리 준비되어 있는 캐릭터 영상을 합성하는 영상합성부를 포함하여 이루어진다.
전술한 구성에서, 상기 이진화부는 상기 카메라 영상의 RGB 성분을 YUV 포맷 으로 변환한 다음, 이진화하는 것이 바람직하다. 즉, 상기 이진화부는 밝기 성분을 배제한 색상 성분을 가지고 카메라 영상을 이진화(살색 및 비살색)하는 것이다.
상기 특징점 결정부는 얼굴 영역을 눈썹, 눈, 코 및 입술 영역으로 네 등분함에 있어서 영역 간의 간격을 동일하도록 하는 것이 바람직하다.
상기 영상 합성 장치는 상기 이진화부에 의한 이진 영상에 대해 침식 및 팽창 연산을 수행하여 상기 얼굴영역 결정부로 출력하는 노이즈제거부를 더 포함하여 이루어지는 것이 바람직하다.
상기 얼굴영역 결정부는 라벨링 연산을 이용하여 얼굴영역을 결정하는 것이 바람직하다. 즉, 상기 얼굴영역 결정부는 라벨링 연산에 의해서 라벨링된 살색 영영들 중에서 가장 큰 것을 얼굴영역으로 결정하는 것이다.
상기 윤곽선 검출부는 수평 소벨마스크 연산을 이용하여 윤곽선 영역을 검출하는 것이 바람직하다.
상기 특징점 결정부는 상기 윤곽선 검출부에 의해 검출된 윤곽선 영역들에 대해 라벨링 연산을 수행하고, 라벨링된 윤곽선 영역들 중에서 미리 정해진 크기 이하인 것들은 제거하는 것이 바람직하다. 즉, 이러한 특징점 결정부의 기능에 따르면 미리 정해진 크기 이하인 것(잡티나 노이즈)들은 제외되기 때문에 특징점의 결정이 보다 정확해질 수 있다.
상기 영상합성부는 상기 특징점 결정부에 의해 결정된 특징점을 기준으로 하여 상기 카메라 영상에서 변경영역을 찾아 상기 변경영역을 미리 준비되어 있는 캐릭터 영상으로 대체함으로써 1차 합성영상을 생성하고, 상기 1차 합성영상에서 복 귀영역을 찾아 상기 복귀영역을 상기 카메라 영상으로 대체하여 2차 합성영상을 생성하는 것이 바람직하다.
상기 캐릭터 영상은 캐릭터 부분 및 상기 캐릭터 부분과 구별되는 검정이나 흰색부분으로 구성되되, 상기 검정이나 흰색부분이 상기 복귀영역이 되는 것이 바람직하다.
상기 영상 합성부는 상기 2차 합성영상에서 결함영역을 보정하는 것이 바람직하다.
상기 영상 합성부는 상기 결함영역을 상기 카메라 영상으로 대체하는 것이 바람직하다.
또한, 본 발명에 따른 영상통신단말기의 영상 합성 방법은 카메라로부터 획득한 카메라 영상과 미리 준비되어 있는 캐릭터 영상을 합성하는 영상 합성 장치가 구비되어 있는 영상통신단말기에서 수행되며, 상기 카메라 영상을 살색 영역과 비살색 영역으로 이진화하는 (a) 단계; 상기 (a) 단계에 의해 살색으로 구분된 살색 영역들 중에서 얼굴영역을 결정하는 (b) 단계; 상기 (b) 단계에 의해 결정된 얼굴영역에서 윤곽선 영역을 검출하는 (c) 단계; 상기 (c) 단계에 의해 결정된 얼굴영역을 네 등분하여 눈썹영역, 눈영역, 코영역 및 입술영역으로 구분하고, 상기 눈영역 내에 존재하는 윤곽선 영역에서 눈의 특징점을 결정하고, 상기 코영역 내에 존재하는 윤곽선 영역에서 코의 특징점을 결정하고, 상기 입술영역 내에 존재하는 윤곽선 영역에서 입술의 특징점을 결정하는 (d) 단계 및 상기 (d) 단계에 의해 결정 된 특징점을 기준으로 하여 상기 카메라 영상과 미리 준비되어 있는 캐릭터 영상을 합성하는 (e) 단계를 포함하여 이루어진다.
전술한 구성에서, 상기 (a) 단계는 상기 카메라 영상의 RGB 성분을 YUV 포맷으로 변환한 다음, 이진화하는 것에 의해 수행되는 것이 바람직하다.
상기 (d) 단계는 얼굴 영역을 네 등분함에 있어서 영역 간의 간격을 동일하도록 하는 것에 의해 수행되는 것이 바람직하다.
상기 영상 합성 방법은 상기 (a) 단계에 의한 이진 영상에 대해 침식 및 팽창 연산을 수행하는 (ab) 단계를 더 포함하되, 상기 (b) 단계는 상기 (ab) 단계를 거친 이진 영상에서 얼굴 영역을 결정하는 것에 의해 수행되는 것이 바람직하다.
상기 (b) 단계는 라벨링 연산을 이용하여 얼굴영역을 결정하는 것에 의해 수행되는 것이 바람직하다.
상기 (c) 단계는 수평 소벨마스크 연산을 이용하여 윤곽선 영역을 검출하는 것에 의해 수행되는 것이 바람직하다.
상기 (d) 단계는 상기 (c) 단계에 의해 검출된 윤곽선 영역들에 대해 라벨링 연산을 수행하고, 라벨링된 윤곽선 영역들 중에서 미리 정해진 크기 이하인 것들은 제거하는 것에 의해 수행되는 것이 바람직하다.
상기 (e) 단계는 상기 (d) 단계에 의해 결정된 특징점을 기준으로 하여 상기 카메라 영상에서 변경영역을 찾아 상기 변경영역을 미리 준비되어 있는 캐릭터 영상으로 대체함으로써 1차 합성영상을 생성하고, 상기 1차 합성영상에서 복귀영역을 찾아 상기 복귀영역을 상기 카메라 영상으로 대체하여 2차 합성영상을 생성하는 것 에 의해 수행되는 것이 바람직하다.
상기 캐릭터 영상은 캐릭터 부분 및 상기 캐릭터 부분과 구별되는 검정이나 흰색부분으로 구성되되, 상기 (e) 단계에서 복귀영역의 탐색은 상기 검정이나 흰색부분을 찾는 과정인 것이 바람직하다.
상기 영상 합성 방법은 상기 (e) 단계에 의해 생성된 2차 합성영상에서 결함영역을 보정하는 (f) 단계를 더 포함하여 이루어지는 것이 바람직하다.
상기 (f) 단계는 상기 결함영역을 상기 카메라 영상으로 대체하는 것에 의해 수행되는 것이 바람직하다.
본 발명에 따른 영상통신단말기의 영상 합성 장치 및 방법에 따르면, 카메라로부터 획득한 영상에서 얼굴의 특징 부위(예, 눈, 코 혹은 입)를 찾고, 이렇게 찾은 특징 부위를 기준으로 하여 카메라로부터 획득한 영상에 미리 준비되어 있는 캐릭터영상을 합성함으로써, 영상전화시 자신의 얼굴 중에 상대방에게 보여주고 싶지 않은 일부를 가리거나 사용자의 얼굴을 재미있게 혹은 아름답게 치장해 줄 수 있는 효과가 있다.
이하에는 첨부한 도면을 참조하여 본 발명의 바람직한 실시예에 따라 영상통신단말기의 영상 합성 장치 및 방법에 대해서 상세하게 설명하는데, 그에 앞서 도 1을 참조로 하여 영상전화 서비스가 구현될 수 있는 네트워크 구성을 살펴보기로 한다.
도 1은 영상전화 서비스가 구현될 수 있는 네트워크 구성도이다.
도 1에 도시한 바와 같이, 영상전화 서비스를 구현하는 시스템의 네트워크 구성은 영상전화 기능을 각각 갖추고 있는 컴퓨터, 유선전화기 및 이동통신단말기(이하, 이들을 통칭하여 '영상통신단말기'라 한다)(100)가 영상통신망(200)에 의해 연결되어 이루어진다. 또한, 영상통신망(200)은 게이트웨이(300)에 인터넷(400)에도 연결될 수 있는바, 이에 의해 영상통신단말기(100)는 캐릭터 제공서버(500)로부터 영상 합성에 필요한 각종 캐릭터들을 내려받을 수 있다.
여기서, 영상통신망(200)은 W-CDMA 망으로 구현될 수 있는바, 이의 구체적인 구성은 이동국, 즉 이동통신단말기와의 사이에서 무선신호 송수신, 무선채널 부호화 및 복호화, 신호의 세기와 화질 측정, 기저대역 신호처리, 다이버시티, 무선자원관리 및 자체 유지보수 기능을 수행하는 기지국과, 다수의 기지국을 제어하여 기지국과의 정합, 셀간 핸드오버 처리 및 호 제어 등의 기능을 수행하는 무선망 제어기(Radio Network Controller)와, 유선전화기 또는 웹캠을 갖춘 컴퓨터가 연결되는 영상전화용 회선교환망과, 영상전화용 회선교환망과 무선망 제어기 사이에서 영상 통화 및 각종 부가기능을 제공하고, 통화로를 설정하며, 여러 다른 장비들 및 외부망과의 연결을 제공하는 이동 교환기(Mobile Switching Center; MSC)를 포함하여 이루어질 수 있다.
다음으로, 인터넷(400)은 잘 알려진 바와 같이, 전 세계에 산재해 있는 TCP/IP(Transmission Control Protocol/ Internet Protocol)라는 통신규약에 기반이 된 컴퓨터망을 유/무선을 통해 연결하는 네트워크들의 네트워크로 해석하여야 할 것이다. 여기서, 무선으로 인터넷(400)에 접근하는 방식에는 WAP(Wireless Application Protocol)이나 WIPI(Wireless Internet Platform for Interoperability)의 등의 플랫폼을 기반으로 이동통신망을 통해 접근하거나 공중 무선 LAN과 액세스 포인트(Access Point)를 통해 접근하는 무선인터넷과, ADSL 수준의 품질과 비용으로 정지 또는 저속 이동 중에도 고속 인터넷 접속할 수 있는 무선 인터넷 서비스인 와이브로(Wireless Broadband; WiBro) 일명, 휴대인터넷이 있을 수 있다.
도 2는 본 발명의 일 실시예에 따른 영상 합성 장치를 갖춘 영상통신단말기의 블록 구성도이고, 도 7 내지 도 15는 도 2에서 보인 영상 합성 장치에 의해 영상 처리된 이미지의 화면 예시도이다.
도 2에 도시한 바와 같이, 본 발명의 영상통신단말기(100)는 카메라(115), 도 7에 도시한 바와 같이 카메라(115)에서 획득한 영상(이하, '카메라영상'이라 한다)을 살색 영역과 그 이외 영역으로 이진화하는 이진화부(120), 이진화부(120)에 의해 이진화 처리된 영상에서 노이즈 성분을 제거하여 출력하는 노이즈 제거부(125), 도 8에 도시한 바와 같이 이진화부(120)의 이진화에 의해 살색으로 분류된 살색 영역들 중에서 얼굴영역을 결정하는 얼굴영역 결정부(130), 도 9에 도시한 바와 같이 얼굴영역 결정부(130)에 의해 찾은 얼굴영역에서 윤곽선 영역 즉, 눈, 코 및 입의 경계 부위를 검출하는 윤곽선 검출부(135), 윤곽선 검출부(135)에 의해 검출된 윤곽선 영역에서 얼굴의 특징점 즉, 영상 합성의 기준점을 결정하는 특징점 결정부(140), 도 10 내지 도 12에 도시한 바와 같이 특징점을 기준으로 하여 카메 라영상과 캐릭터영상을 합성하여 출력하는 영상합성부(145), 캐릭터 제공서버(500)로부터 내려받은 각종 캐릭터영상이 저장되어 있는 캐릭터영상 저장부(150), 안테나를 통해 기지국과 무선주파수(RF) 신호를 송/수신하는 RF 송/수신부(155), 키입력부(165), 표시부(160) 및 영상합성부(145)에 의해 합성된 영상을 송신하도록 RF 송/수신부(155)를 제어하는 등 영상통신단말기(100)를 총괄적으로 제어하는 제어부(110)를 포함하여 이루어질 수 있다.
전술한 구성에서, 이진화부(120)는 카메라영상의 RGB 성분을 YUV 포맷으로 변환하고(아래 수학식 1 참조), 그 다음 V값에서 이를 테면, 10~60 사이의 값은 살색 성분으로 그 이외 값은 비살색 성분으로 구분하여 카메라 영상을 이진화하는 것이다. 그 결과, 도 7에 도시한 바와 같은 검정 영역(살색 영역)과 흰 영역(비살색 영역)으로 이진화된 영상정보가 노이즈 제거부(125)로 출력되는 것이다. 여기서, 살색 성분으로 인정되는 V값의 범위를 10 내지 60으로 하였으나, 인종에 따라 다른 범위로 설정될 수 있다.
Y = 0.3R + 0.59G + 0.11B
U = (B - Y) * 0.493
V= (R - Y) * 0.877
YUV는 잘 알려진 바와 같이, Y(휘도성분), U(휘도성분과 적색성분의 차) 및 V(휘도성분과 청색성분의 차)의 3가지 정보로 색을 나타내는 형식이다. 위 식에서 보듯, 이진화부(120)는 휘도(밝기) 성분을 배제한 상태에서 색상 성분인 V(혹은 U) 값을 이용하여 영상을 이진화하는 것이다.
다음으로, 노이즈 제거부(125)는 영상처리 기법으로 잘 알려져 있는 이진 모폴로지 연산 중, 침식(erosion)연산과 팽창(dilation)연산을 수행하여 이진화부(125)로부터 입력되는 이진 영상에서 살색 영역과 그외 영역을 뚜렷하게 구별하는 것이다.
보다 구체적으로, 침식연산은 물체(살색 영역)에 대해 배경(그외 영역)을 확장시키고 물체의 크기를 축소하는 역할을 한다. 그 결과, 도 7을 보게 되면 얼굴 영역의 주변에 있는 잡티 성분들이 제거 혹은 축소된다. 그 대신, 원래 이미지(얼굴영역)의 크기도 작아지게 되는바, 작아진 이미지를 원래의 크기로 복원하기 위해 팽창연산을 거치게 된다. 즉, 팽창연산은 물체의 최외각을 확장하는 역할을 한다. 따라서, 물체의 크기는 확장되고 배경은 축소된다.
다음으로, 얼굴영역 결정부(130)는 이진 영상에서 얼굴영역을 결정하는 기능을 수행하는 것이다.
구체적으로 설명하자면, 얼굴영역 결정부(130)는 먼저, 살색 영역들에 대해 각각 다른 번호를 부여하는 라벨링(labeling) 연산을 수행한다.
도 5는 이러한 라벨링 연산 과정에 대한 일 예를 보인 도면이다.
즉, 얼굴영역 결정부(130)는 8-근방화소(혹은 4-근방화소) 라벨링 기법을 이용하여 살색 영역들에 각각 다른 번호를 붙여 이진 영상을 재구성한다. 여기서, 근방화소란 영상처리 분야에서 잘 알려진 바와 같이, 번호를 붙이게 되는 관심화소에 인접한 화소를 의미한다.
이를 테면, 얼굴영역 결정부(130)는 도 5에 도시한 바와 같이, 관심화소에 255(살색 성분)에 '31'이라는 숫자를 부여한다. 그 다음, 8개의 인접화소 중에서 어느 하나로 중심을 이동한 후, 해당 화소에 동일한 번호, '31'을 라벨링한다. 이렇게 반복적으로 라벨링을 수행하다 보면, 결국, 중심을 이동할 만한 살색 성분이 없게되어 하나의 살색 영역에 대한 라벨링 과정을 마무리하게 된다. 그리고, 위와 같은 방식으로 다른 살색 영역에 대해 '31'과는 다른 번호를 부여한다.
이렇듯 모든 살색 영역들에 대한 라벨링 과정을 마무리한 다음으로는, 도 8에 도시한 바와 같이 라벨링된 것들 중에서 가장 큰 영역(20)만을 남기고 다른 부분을 제거한다.
큰 영역(20)을 제외한 나머지를 제거하고 나서 마지막으로, 큰 영역(20)을 포함하는 얼굴영역(10)을 결정하게 된다.
다음으로, 윤곽선 검출부(135)는 영상처리 분야에서 잘 알려져 있는 소벨 마스크(sobel mask) 연산을 수행하는 것이다.
도 6은 소벨마스크 연산의 적용 결과에 대한 일 예를 보인 도면이다.
도 6에 도시한 바와 같이, 제일 왼쪽의 원 이미지를 수직(Gx) 방향 및 수평(Gy) 방향으로 소벨마스크를 씌워 연산하게 되면, 수직 방향의 윤곽선과 수평 방향의 윤곽선이 검출되는 것이다.
즉, 윤곽선 검출부(135)는 도 9에 도시한 바와 같이, 얼굴영역(10)에 수평 소벨 마스크를 적용하여 눈, 코, 입 나아가, 눈썹에 해당하는 윤곽선 영역(11)을 검출하는 것이다.
다음으로, 특징점 결정부(140)는 윤곽선 검출부(135)에 의해 검출된 윤곽선 영역에서 얼굴의 특징점을 결정하는 기능을 수행한다.
구체적으로, 특징점 결정부(140)는 먼저, 윤곽선 검출부(135)에 의해 검출된 윤곽선 영역들을 각각 다른 번호로 라벨링한다.
그 다음으로는, 얼굴의 윤곽과 잡티 성분들을 제거하게 된다. 다시 말해, 라벨링된 것들 중에서 크기가 일정치 이하인 것들을 제거하여 눈, 코, 입 나아가, 눈썹에 해당하는 윤곽선 영역(11)만을 남겨 놓게 된다.
그 다음으로는, 얼굴 영역(10)을 수직 방향으로 네 영역 즉, 눈썹영역, 눈영역, 코영역 및 입술영역으로 구분한다. 여기서, 특징점 결정부(140)는 얼굴 영역(10)을 네 등분함에 있어서 영역 간의 간격을 동일하도록 하는 것이 바람직하다. 다시 말해, 특징점 결정부(140)는 네 영역을 등 간격으로 구분하는 것이다. 물론, 이렇게 등 간격으로 하다 보면 목 부분이 얼굴 영역(10)에 포함되어 얼굴의 특징 부위를 구분하는데 있어서 오류가 생길 수 있다. 그럼에도 불구하고, 영상처리의 단순화 다시 말해, 저사양의 컴퓨터에서도 특징점 결정이 원활하게 이루어지게 하기 위해서는 이렇게 등 간격으로 처리하는 것이 가장 바람직하다. 또한, 목은 얼굴보다는 뒤쪽에 있기 때문에 즉, 어둡기 때문에 본 출원인이 여러 가지 조건 하에서 이진화하여 본 결과에 따르면, 목의 대부분은 얼굴 영역에 포함되어 않는 것을 확인할 수 있었다. 결국, 등 간격으로 한다 하여도 얼굴의 특징 부위가 정확히 구분됨을 확인하였다.
그 다음으로는, 도 9에 도시한 바와 같이 눈영역 내에 존재하는 윤곽선 영역에서 눈 특징점(14)을 결정하고, 코영역 내에 존재하는 윤곽선 영역에서 코 특징점(15)을 결정하며, 입술영역 내에 존재하는 윤곽선 영역에서 입술 특징점(16)을 결정하고 나아가, 눈썹영역 내에 존재하는 윤곽선 영역에서 눈썹 특징점(13)을 결정한다. 여기서, 특징점 결정부(140)는 도 9에 도시한 바와 같이, 눈썹, 눈, 코 및 입술 영역별로 제일 아래에 위치하는 좌표를 특징점으로 결정할 수 있다. 이때, 윤곽선 영역(11)에서 어떤 좌표를 특징점으로 결정하느냐는 매핑할 캐릭터영상에 따라 달라질 수 있다. 이를 테면, 속눈썹 화장의 효과를 주기 위한 이미지 합성일 경우에는 눈 영역에서 제일 위에 위치하는 좌표가 특징점이 될 수 있다.
결국, 영상합성부(145)는 특징점 결정부(140)에 의해 결정된 특징점을 기준으로 하여 이를 테면, 도 10에 도시한 바와 같이 스파이더맨 마스크를 얼굴에 씌운다거나, 도 11에 도시한 바와 같이 선글라스를 얼굴에 씌운다거나, 도 12에 도시한 바와 같이 입술에 사탕을 매핑하게 된다.
구체적으로, 영상합성부(145)는 먼저, 특징점 이를 테면, 눈 특징점(14)을 기준으로 하여 카메라영상(30)에서 캐릭터영상(40)으로 대체될 변경영역(31)을 찾아 이곳을 캐릭터영상(40)으로 대체하여 도 13에 도시한 바와 같이, 1차 합성영상을 생성한다.
그 다음으로는, 캐릭터영상(40)으로 대체된 변경영역(31)에서 원래의 카메라영상(30)으로 복귀되어야 하는 복귀영역을 찾게 된다. 즉, 캐릭터영상(40)은 도 13에 도시한 바와 같이, 안경과 콧수염처럼 실질적으로 필요한 캐릭터 부분과 이와 뚜렷하게 구별되는 검정 부분으로 구성되는데, 영상합성부(145)는 이러한 검정 부분 즉, 복귀영역을 찾는 것이다. 여기서, 영상합성부(145)는 이를 테면, 아래 조건문 1을 이용하여 복귀영역을 찾을 수 있다. 또한, 캐릭터영상(40)에서 캐릭터 부분이 어두운 색 계통이게 되면, 불필요한 부분은 이와 대비되도록 흰색이 될 수 있다.
조건문 1
if(image->imageData[(640 * y + x) *3] == 0)
그 다음으로는, 상기한 복귀영역을 원래의 카메라영상(30)으로 대체하여 도 14에 도시한 바와 같이, 2차 합성영상을 생성하고, 이를 제어부(110)로 출력할 수 있다. 여기서, 영상합성부(145)는 이를 테면, 상기한 조건문 1을 만족하는 복귀영역에 대해 아래 실행문을 이용하여 복귀영역을 원래의 카메라영상(30)으로 대체할 수 있다.
실행문
image->imageData[(640 * y +x)] = image_copy->imageData[(640 * y + x)];
한편, 이렇게 생성된 2차 합성영상을 보게 되면 복귀 과정에서 캐릭터영상(40)에 근접한 카메라영상(30)의 화소가 원래의 값을 갖지 못하고 결함이 생기는 문제점이 있을 수 있다.
따라서, 다시 한번 영상합성부(145)는 이러한 결함 영역(32)을 찾아 이를 카메라영상(30)으로 보정하여 도 15에 도시한 바와 같이, 최종 합성영상을 생성하고, 이를 제어부(100)로 출력하는 것이 바람직하다. 여기서, 영상합성부(145)는 이를 테면, 아래 조건문 2를 이용하여 결함 영역(32)을 찾을 수 있다.
조건문 2
if((unsigned char)image->imageData[(640 * y + x) *3] < 10 && (unsigned char)image->imageData[(640 * y + x) * 3 + 1] < 10 && (unsigned char)image->imageData[(640 * y + x) * 3 + 2]<10 )
도 3 및 도 4는 본 발명의 일 실시예에 따른 영상통신단말기의 영상 합성 방법을 설명하기 위한 흐름도이다.
먼저, 도 3에 도시한 바와 같이 단계 S11에서는 카메라(115)에 의해 영상을 획득한다. 그 다음, 이진화부(120)는 단계 S13에서 카메라영상의 RGB 성분을 YUV 포맷으로 변환한 후, 단계 S15로 진행하여 살색 성분과 그 이외의 비살색 성분으로 구분하여 카메라 영상을 이진화하게 된다.
다음으로, 단계 S17에서는 노이즈제거부(125)에 의해 이진 영상에 대해 침식 및 팽창 연산을 수행하여 잡티를 제거하게 된다.
다음으로, 얼굴영역 결정부(130)는 단계 S19에서 살색 영역들에 대해 각각 다른 번호를 부여하는 라벨링(labeling) 연산을 수행한 후, 단계 S21로 진행하여 라벨링된 것들 중에서 가장 큰 영역(20; 도 8 참조)만을 남기고 다른 부분을 제거한다. 그런 다음으로는, 도 8에 도시한 바와 같이 큰 영역(20)을 포함하는 얼굴영역(10)을 결정하게 된다.
다음으로, 단계 S23에서 윤곽선 검출부(135)는 얼굴영역(10)에 수평 소벨 마스크를 적용하여 눈, 코, 입 나아가, 눈썹에 해당하는 윤곽선 영역(11)을 검출하게 된다.
다음으로, 특징점 결정부(140)는 단계 S25에서 윤곽선 검출부(135)에 의해 검출된 윤곽선 영역들을 각각 다른 번호로 라벨링한 후, 단계 S27로 진행하여 얼굴의 윤곽과 잡티 성분들을 제거하게 된다. 그런 다음, 단계 S29에서는 얼굴 영역(10)을 수직 방향으로 네 영역 즉, 눈썹영역, 눈영역, 코영역 및 입술영역으로 구분한 후, 단계 S31로 진행하여 눈영역에서 눈 특징점(14)을 결정하고, 코영역에서 코 특징점(15)을 결정하며, 입술영역에서 입술 특징점(16)을 결정하고 나아가, 눈썹영역에서 눈썹 특징점(13)을 결정하게 된다.
다음으로, 단계 S33에서 영상 합성부(145)는 결정된 특징점 중에서 어느 하나를 기준으로 하여 카메라영상과 캐릭터영상을 합성하게 되는데, 이에 대한 구체적인 루틴은 도 4를 참조로 하여 설명한다.
즉, 도 4에 도시한 바와 같이 영상 합성부(145)는 단계 S331에서 특징점을 기준으로 하여 카메라영상에서 변경영역을 찾은 후, 단계 S332로 진행하여 찾은 변경영역을 캐릭터영상으로 대체하여 1차 합성영상을 생성한다. 그런 다음, 단계 S333에서는 1차 합성영상에서 복귀영역을 찾은 후, 단계 S334으로 진행하여 복귀영역을 카메라영상으로 대체하여 2차 합성영상을 생성한다.
다음으로, 단계 S335에서는 영상합성부(145)에 의해 2차 합성영상에서 결함영역을 찾은 후, 단계 S336에서 결함영역을 카메라영상으로 대체하여 2차 합성영상을 보정하게 된다. 그런 다음, 단계 S337로 진행하여 보정된 최종 합성영상의 데이터를 제어부(110)로 출력하는 것이다.
본 발명의 영상통신단말기의 영상 합성 장치 및 방법은 전술한 실시 예에 국한되지 않고 본 발명의 기술 사상이 허용하는 범위에서 다양하게 변형하여 실시할 수가 있다.
도 1은 영상전화 서비스가 구현될 수 있는 네트워크 구성도이다.
도 2는 본 발명의 일 실시예에 따른 영상 합성 장치를 갖춘 영상통신단말기의 블록 구성도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 영상통신단말기의 영상 합성 방법을 설명하기 위한 흐름도이다.
도 5는 이러한 라벨링 연산 과정에 대한 일 예를 보인 도면이다.
도 6은 소벨마스크 연산의 적용 결과에 대한 일 예를 보인 도면이다.
도 7 내지 도 15는 도 2에서 보인 영상 합성 장치에 의해 영상 처리된 이미지의 화면 예시도이다.
*** 도면의 주요 부분에 대한 부호의 설명 ***
100: 영상통신단말기
110: 제어부 115: 카메라
120: 이진화부 125: 노이즈제거부
130: 얼굴영역 결정부 135: 윤곽선 검출부
140: 특징점 결정부 145: 영상합성부
150: 캐릭터영상 저장부 155: RF 송/수신부
160: 표시부 165: 키입력부
200: 영상통신망 300: 게이트웨이
400: 인터넷 500: 케릭터 제공서버

Claims (23)

  1. 카메라에 의해 획득한 카메라 영상을 살색 영역과 비살색 영역으로 이진화하는 이진화부;
    상기 이진화부에 의해 살색으로 구분된 살색 영역들 중에서 얼굴영역을 결정하는 얼굴영역 결정부;
    상기 얼굴영역 결정부에 의해 결정된 얼굴영역에서 윤곽선 영역을 검출하는 윤곽선 검출부;
    상기 얼굴영역 결정부에 의해 결정된 얼굴영역을 네 등분하여 눈썹영역, 눈영역, 코영역 및 입술영역으로 구분하고, 상기 눈영역 내에 존재하는 윤곽선 영역에서 눈의 특징점을 결정하고, 상기 코영역 내에 존재하는 윤곽선 영역에서 코의 특징점을 결정하고, 상기 입술영역 내에 존재하는 윤곽선 영역에서 입술의 특징점을 결정하는 특징점 결정부 및
    캐릭터 부분과 상기 캐릭터 부분과 구별되는 검정이나 흰색부분으로 구성되는 캐릭터 영상을 저장하기 위한 캐릭터영상 저장부; 및
    상기 특징점 결정부에 의해 결정된 특징점을 기준으로 하여 상기 카메라 영상에서 변경영역을 찾아 상기 변경영역을 상기 캐릭터영상 저장부에 저장되어 있는 캐릭터 영상으로 대체함으로써 1차 합성영상을 생성하고, 상기 1차 합성영상에서 상기 검정이나 흰색부분인 복귀영역을 찾아 상기 복귀영역을 상기 카메라 영상으로 대체하여 2차 합성영상을 생성하는 영상합성부를 포함하여 이루어진 영상통신단말기의 영상 합성 장치.
  2. 제 1항에 있어서,
    상기 이진화부는 상기 카메라 영상의 RGB 성분을 YUV 포맷으로 변환한 다음, 이진화하는 것을 특징으로 하는 영상통신단말기의 영상 합성 장치.
  3. 제 2항에 있어서,
    상기 특징점 결정부는 얼굴 영역을 네 등분함에 있어서 영역 간의 간격을 동일하도록 하는 것을 특징으로 하는 영상통신단말기의 영상 합성 장치.
  4. 제 1항에 있어서,
    상기 이진화부에 의한 이진 영상에 대해 침식 및 팽창 연산을 수행하여 상기 얼굴영역 결정부로 출력하는 노이즈제거부를 더 포함하여 이루어진 것을 특징으로 하는 영상통신단말기의 영상 합성 장치.
  5. 제 1항에 있어서,
    상기 얼굴영역 결정부는 라벨링 연산을 이용하여 얼굴영역을 결정하는 것을 특징으로 하는 영상통신단말기의 영상 합성 장치.
  6. 제 1항에 있어서,
    상기 윤곽선 검출부는 수평 소벨마스크 연산을 이용하여 윤곽선 영역을 검출하는 것을 특징으로 하는 영상통신단말기의 영상 합성 장치.
  7. 제 1항에 있어서,
    상기 특징점 결정부는 상기 윤곽선 검출부에 의해 검출된 윤곽선 영역들에 대해 라벨링 연산을 수행하고, 라벨링된 윤곽선 영역들 중에서 미리 정해진 크기 이하인 것들은 제거하는 것을 특징으로 하는 영상통신단말기의 영상 합성 장치.
  8. 삭제
  9. 삭제
  10. 제 1항에 있어서,
    상기 영상 합성부는 상기 2차 합성영상에서 상기 카메라영상의 원래의 화소값을 갖지 못하는 결함영역을 찾아, 상기 결함영역을 상기 카메라영상으로 보정하는 것을 특징으로 하는 영상통신단말기의 영상 합성 장치.
  11. 삭제
  12. 카메라로부터 획득한 카메라 영상과 미리 준비되어 있는 캐릭터 영상을 합성하는 영상 합성 장치가 구비되어 있는 영상통신단말기에서 수행되며,
    상기 카메라 영상을 살색 영역과 비살색 영역으로 이진화하는 (a) 단계;
    상기 (a) 단계에 의해 살색으로 구분된 살색 영역들 중에서 얼굴영역을 결정하는 (b) 단계;
    상기 (b) 단계에 의해 결정된 얼굴영역에서 윤곽선 영역을 검출하는 (c) 단계;
    상기 (c) 단계에 의해 결정된 얼굴영역을 네 등분하여 눈썹영역, 눈영역, 코영역 및 입술영역으로 구분하고, 상기 눈영역 내에 존재하는 윤곽선 영역에서 눈의 특징점을 결정하고, 상기 코영역 내에 존재하는 윤곽선 영역에서 코의 특징점을 결정하고, 상기 입술영역 내에 존재하는 윤곽선 영역에서 입술의 특징점을 결정하는 (d) 단계 및
    상기 (d) 단계에 의해 결정된 특징점을 기준으로 하여 상기 카메라 영상에서 변경영역을 찾아 상기 변경영역을 상기 미리 준비되어 있는 캐릭터 영상으로 대체함으로써 1차 합성영상을 생성하고, 상기 1차 합성영상에서 복귀영역을 찾아 상기 복귀영역을 상기 카메라 영상으로 대체하여 2차 합성영상을 생성하는 (e) 단계를 포함하여 이루어지고,
    상기 미리 준비되어 있는 캐릭터 영상은 캐릭터 부분과 상기 캐릭터 부분과 구별되는 검정이나 흰색 부분으로 구성되고,
    상기 (e) 단계에서 복귀영역의 탐색은 상기 검정이나 흰색 부분을 찾는 과정인 것임을 특징으로 하는 영상통신단말기의 영상 합성 방법.
  13. 제 12항에 있어서,
    상기 (a) 단계는 상기 카메라 영상의 RGB 성분을 YUV 포맷으로 변환한 다음, 이진화하는 것에 의해 수행되는 것을 특징으로 하는 영상통신단말기의 영상 합성 방법.
  14. 제 13항에 있어서,
    상기 (d) 단계는 얼굴 영역을 네 등분함에 있어서 영역 간의 간격을 동일하도록 하는 것에 의해 수행되는 것을 특징으로 하는 영상통신단말기의 영상 합성 방법.
  15. 제 12항에 있어서,
    상기 (a) 단계에 의한 이진 영상에 대해 침식 및 팽창 연산을 수행하는 (ab) 단계를 더 포함하되,
    상기 (b) 단계는 상기 (ab) 단계를 거친 이진 영상에서 얼굴 영역을 결정하는 것에 의해 수행되는 것을 특징으로 하는 영상통신단말기의 영상 합성 방법.
  16. 제 12항에 있어서,
    상기 (b) 단계는 라벨링 연산을 이용하여 얼굴영역을 결정하는 것에 의해 수행되는 것을 특징으로 하는 영상통신단말기의 영상 합성 방법.
  17. 제 12항에 있어서,
    상기 (c) 단계는 수평 소벨마스크 연산을 이용하여 윤곽선 영역을 검출하는 것에 의해 수행되는 것을 특징으로 하는 영상통신단말기의 영상 합성 방법.
  18. 제 12항에 있어서,
    상기 (d) 단계는 상기 (c) 단계에 의해 검출된 윤곽선 영역들에 대해 라벨링 연산을 수행하고, 라벨링된 윤곽선 영역들 중에서 미리 정해진 크기 이하인 것들은 제거하는 것에 의해 수행되는 것을 특징으로 하는 영상통신단말기의 영상 합성 방법.
  19. 삭제
  20. 삭제
  21. 제 12항에 있어서,
    상기 (e) 단계에 의해 생성된 2차 합성영상에서 상기 카메라영상의 원래의 화소 값을 갖지 못하는 결함영역을 찾아, 상기 결함영역을 상기 카메라영상으로 보정하는 (f) 단계를 더 포함하여 이루어지는 것을 특징으로 하는 영상통신단말기의 영상 합성 방법.
  22. 삭제
  23. 제 12항 내지 제 18항 및 제 21항 중 어느 한 항의 영상통신단말기의 영상 합성 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체.
KR1020080051970A 2008-06-03 2008-06-03 영상통신단말기의 영상 합성 장치 및 방법 KR100958595B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080051970A KR100958595B1 (ko) 2008-06-03 2008-06-03 영상통신단말기의 영상 합성 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080051970A KR100958595B1 (ko) 2008-06-03 2008-06-03 영상통신단말기의 영상 합성 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20090125905A KR20090125905A (ko) 2009-12-08
KR100958595B1 true KR100958595B1 (ko) 2010-05-18

Family

ID=41687219

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080051970A KR100958595B1 (ko) 2008-06-03 2008-06-03 영상통신단말기의 영상 합성 장치 및 방법

Country Status (1)

Country Link
KR (1) KR100958595B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101973409B1 (ko) 2013-06-27 2019-09-02 삼성전기주식회사 단말 장치
CN106980845B (zh) * 2017-04-24 2020-02-21 西安电子科技大学 基于结构化建模的人脸关键点定位方法
US10991143B2 (en) * 2019-07-03 2021-04-27 Roblox Corporation Animated faces using texture manipulation
KR102529209B1 (ko) * 2021-09-16 2023-05-09 주식회사 이엔터 얼굴 인식을 통한 특수효과 연출 시스템 및 그 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001292305A (ja) 2000-02-02 2001-10-19 Casio Comput Co Ltd 画像データ合成装置、画像データ合成システム、画像データ合成方法及び記録媒体
KR20050018921A (ko) * 2005-02-01 2005-02-28 황지현 헤어스타일 자동 합성 방법 및 시스템
KR20070086774A (ko) * 2004-12-28 2007-08-27 오끼 덴끼 고오교 가부시끼가이샤 화상 합성 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001292305A (ja) 2000-02-02 2001-10-19 Casio Comput Co Ltd 画像データ合成装置、画像データ合成システム、画像データ合成方法及び記録媒体
KR20070086774A (ko) * 2004-12-28 2007-08-27 오끼 덴끼 고오교 가부시끼가이샤 화상 합성 장치
KR20050018921A (ko) * 2005-02-01 2005-02-28 황지현 헤어스타일 자동 합성 방법 및 시스템

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
M.-H. Yang, D. J. Kriegman and N. Ahuja, Detecting Faces in Images: A Survey, IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 24, no. 1, pp. 34-58. 2002.01.

Also Published As

Publication number Publication date
KR20090125905A (ko) 2009-12-08

Similar Documents

Publication Publication Date Title
EP3582187B1 (en) Face image processing method and apparatus
KR100516638B1 (ko) 화상 통신 시스템
CN102884536B (zh) 用于视频会议压缩的肤色与特征检测
CN104424624B (zh) 一种图像合成的优化方法及装置
CN103442137B (zh) 一种在手机通话中查看对方虚拟人脸的方法
CN108337465A (zh) 视频处理方法和装置
EP2627069B1 (en) Method and wireless handheld device for determining image hue
KR100958595B1 (ko) 영상통신단말기의 영상 합성 장치 및 방법
CN105874506A (zh) 具有细节保留的图像模糊
CN108289185B (zh) 一种视频通信方法、装置及终端设备
US9196029B2 (en) Threshold setting device for setting threshold used in binarization process, object detection device, threshold setting method, and computer readable storage medium
KR20040047623A (ko) 화상 처리 방법 및 그 장치
CN113206971B (zh) 一种图像处理方法及显示设备
CN1849823A (zh) 视频通信方法及系统
CN113723385B (zh) 视频处理方法及装置、神经网络的训练方法及装置
CN108198146B (zh) 一种降噪方法、设备和计算机可读存储介质
CN110636259B (zh) 一种基于视频检测的osd叠加方法
CN107920213A (zh) 视频合成方法、终端和计算机可读存储介质
US11354884B2 (en) Color extraction of a video stream
EP4276733A1 (en) Image processing method and apparatus, and device and readable storage medium
CN112711971A (zh) 终端消息处理方法及其图像识别方法、装置、介质和系统
CN110020645B (zh) 一种图像处理方法及装置、一种计算设备及存储介质
CN109859115A (zh) 一种图像处理方法、终端及计算机可读存储介质
JP6294524B1 (ja) 画像処理方法、及びコンピュータプログラム
KR100464079B1 (ko) 화상 통신에서의 얼굴 검출 및 추적 시스템

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee