KR100368743B1 - Method and Device for Face Compression and Reconstruction Using a Small Set of Feature Points - Google Patents

Method and Device for Face Compression and Reconstruction Using a Small Set of Feature Points Download PDF

Info

Publication number
KR100368743B1
KR100368743B1 KR10-2000-0029845A KR20000029845A KR100368743B1 KR 100368743 B1 KR100368743 B1 KR 100368743B1 KR 20000029845 A KR20000029845 A KR 20000029845A KR 100368743 B1 KR100368743 B1 KR 100368743B1
Authority
KR
South Korea
Prior art keywords
information
feature point
face image
face
color
Prior art date
Application number
KR10-2000-0029845A
Other languages
Korean (ko)
Other versions
KR20000054305A (en
Inventor
이성환
황본우
Original Assignee
(주)버추얼미디어
이성환
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)버추얼미디어, 이성환 filed Critical (주)버추얼미디어
Priority to KR10-2000-0029845A priority Critical patent/KR100368743B1/en
Publication of KR20000054305A publication Critical patent/KR20000054305A/en
Application granted granted Critical
Publication of KR100368743B1 publication Critical patent/KR100368743B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10008Still image; Photographic image from scanner, fax or copier

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 적은 수의 특징점을 이용하여 입력된 얼굴 영상의 저장 및 전송을 위한 얼굴 영상 압축과 손상된 입력 영상으로부터 온전한 얼굴 영상을 복원하는 영상 압축과 복원 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for compressing and restoring a face image for storing and transmitting an input face image using a small number of feature points and for restoring an intact face image from a damaged input image.

본 발명은 얼굴 영상을 카메라나 스캐너 등을 통하여 A/D 변환하여 입력받는 얼굴영상 입력부(50), 눈 영역, 코 영역, 입 영역 및 얼굴 외곽 영역에 대해 특징점을 추출하는 특징점 추출부(51), 추출된 특징점에 대해 복원에 필요한 특징 정보를 추출하는 특징점 정보 추출부(52), 추출된 특징 정보를 송신 또는 저장에 알맞는 형태로 압축하고 부호화하는 특정점 정보 부호화부(53), 부호화된 특징 정보를 전송단을 통해 송신하는 송신부(54), 부호화된 특징정보를 저장하는 저장부(55), 상기 송신부(54)로부터의 특징점 정보를 수신하는 수신부(56), 상기 저장부(55)로부터의 특징점 정보를 적재하는 적재부(57), 부호화된 특징점 정보로부터 특징점 식별 코드, 색상/명암 정보, 위치 정보 등을 복호화하는 특징점 정보 복호화부(58), 여러 명의 얼굴 영상으로부터 얻어진 정보를 바탕으로 구성된 얼굴 모형 데이터베이스부(59), 특징점 정보와 얼굴 모형 정보를 이용하여 전체 얼굴의 색상/명암 정보와 형태를 복원하는 전체 얼굴 영상 복원부(60), 복원된 얼굴 영상을 디스플레이, 프린터, 저장 장치에 출력하는 얼굴 영상 출력부(61)로 이루어진다.According to the present invention, the feature image extracting unit 51 extracts feature points from the face image input unit 50, the eye region, the nose region, the mouth region, and the outer region of the face image received by A / D conversion of the face image through a camera or a scanner. A feature point information extracting unit 52 for extracting feature information necessary for reconstruction from the extracted feature points, a specific point information encoder 53 for compressing and encoding the extracted feature information into a form suitable for transmission or storage, and encoded Transmitter 54 for transmitting the feature information through the transmitting end, a storage unit 55 for storing the encoded feature information, a receiver 56 for receiving the feature point information from the transmitter 54, the storage unit 55 A loading unit 57 for loading the feature point information from the feature point, a feature point information decoding unit 58 for decoding the feature point identification code, the color / contrast information, the position information, etc. from the encoded feature point information, A face model database unit 59 configured based on the information, a full face image restoring unit 60 for restoring the color / contrast information and the shape of the entire face using the feature point information and the face model information; The face image output unit 61 outputs to a printer and a storage device.

Description

적은 수의 특징점을 이용한 얼굴 영상 압축과 손상된 얼굴 영상의 복원 방법 및 장치 {Method and Device for Face Compression and Reconstruction Using a Small Set of Feature Points}{Method and Device for Face Compression and Reconstruction Using a Small Set of Feature Points}

본 발명은 적은 수의 특징점을 이용하여 입력된 얼굴 영상의 저장 및 전송을 위한 얼굴 영상 압축과 손상된 입력 영상으로부터 온전한 얼굴 영상을 복원하는 영상 압축과 복원 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for compressing and restoring a face image for storing and transmitting an input face image using a small number of feature points and for restoring an intact face image from a damaged input image.

종래의 정지 얼굴 영상 압축 기술은 전체 얼굴 영상을 대상으로 압축을 수행하므로 압축률을 높이는데 한계를 가지고 있으며, MPEG4 등의 최신의 동영상 얼굴 압축 시스템에서도 현실감 있는 얼굴을 전송하기 위해서는 전체 얼굴 영상에 대한 형태와 색상/명암 정보를 최소한 한번이상 또는 주기적으로 전송해 주어야 하므로 전체 얼굴 영상 전송시 정보 전송량이 갑자기 커지는 문제점이 있었다.The conventional still face image compression technology has a limitation in increasing the compression rate because it compresses the entire face image, and even in the latest video face compression system such as MPEG4, the shape of the whole face image is used to transmit a realistic face. Since color and contrast information must be transmitted at least once or periodically, there was a problem in that the amount of information suddenly increased when transmitting the entire face image.

또한, 종래의 특징점을 이용한 복원 방법은 얼굴 형태의 복원을 위해 150개 이상의 특징점을 필요로 하며, 색상/명암의 복원을 위해서는 얼굴 영상 전체에 대한 색상/명암 정보를 필요로 한다.In addition, a conventional reconstruction method using feature points requires more than 150 feature points to restore the shape of the face, and color / contrast information of the entire face image is required to restore the color / contrast.

그리고 종래의 이러한 방법으로는 입력된 얼굴 영상이 잡영, 다른 객체에 의한 겹침, 조명에 의한 그림자 등에 의해 부분적으로 손상되는 경우 손상된 부분을 복원할 수 없는 결점이 있었다.In the conventional method, when the input face image is partially damaged by miscellaneous images, overlap by other objects, shadows by lighting, and the like, there is a drawback that the damaged part cannot be restored.

본 발명은 이와 같은 종래의 문제점을 해결하기 위한 것으로, 본 발명의 목적은, 약 40개 이하의 적은 수의 특징점 정보만을 사용하여 전체 얼굴 영상을 압축하거나 일부 손상된 얼굴 영상으로부터 전체 얼굴을 복원할 수 있는 적은 수의 특징점을 이용한 얼굴 영상 압축과 손상된 얼굴 영상의 복원 방법 및 장치를 제공하는데 있다.The present invention is to solve such a conventional problem, an object of the present invention is to compress the entire face image using only a small number of feature point information of about 40 or less or to restore the entire face from some damaged face images The present invention provides a method and apparatus for compressing a face image using a small number of feature points and restoring a damaged face image.

도 1은 본 발명에 따른 구성을 나타낸 블록도1 is a block diagram showing a configuration according to the present invention

도 2는 본 발명에 따른 특징점 정보 추출 과정을 나타낸 동작 흐름도2 is an operation flowchart showing a feature point information extraction process according to the present invention.

도 3은 본 발명에 따른 얼굴 영상 복원 과정을 나타낸 동작 흐름도3 is an operation flowchart showing a face image restoration process according to the present invention;

도 4는 본 발명의 특징적인 부분을 나타낸 동작 흐름도4 is an operational flow diagram showing the characteristic parts of the present invention.

도 5는 본 발명의 얼굴 부분 특징점을 나타낸 도면5 illustrates facial feature points of the invention.

도 6은 본 발명에 따른 얼굴 영상 압축과 손상된 얼굴 영상의 복원 예를 나타낸 도면6 is a diagram illustrating an example of compressing a face image and restoring a damaged face image according to the present invention.

〈도면의 주요부분에 대한 부호의 설명〉<Explanation of symbols for main parts of drawing>

50:얼굴 영상 입력부 51:특징점 추출부50: face image input unit 51: feature point extraction unit

52:특징점 정보 추출부 53:특징점 정보 부호화부52: feature point information extracting unit 53: feature point information encoding unit

54:송신부 55:저장부54: transmitter 55: storage

56:수신부 57:적재부56: receiving unit 57: loading unit

58:특징점 정보 복호화부 59:얼굴 모형 데이터베이스부58: feature point information decoding unit 59: face model database unit

60:전체 얼굴 영상 복원부 61:얼굴 영상 출력부60: full face image restoration unit 61: face image output unit

이와 같은 목적을 달성하기 위한 본 발명은 특징점 정보 추출 과정과 특징점 정보를 이용한 얼굴 영상 복원 과정으로 이루어짐을 특징으로 한다.The present invention for achieving the above object is characterized by consisting of a feature point information extraction process and a face image restoration process using the feature point information.

본 발명의 방법은, 입력되는 장치를 선택하여 카메라나 스캐너를 사용하여 촬영 또는 스캐닝을 하는 제1단계, 상기 제1단계를 통해 입력된 얼굴 영상으로부터 특징점을 추출하는 제2단계, 입력된 영상에서 특징점 추출이 가능한 경우 특징점 각각의 식별 코드와 함께 위치 정보, 색상/명암 정보 등의 특징점 정보를 추출하는 제3단계, 얼굴의 각 영역에 대한 특징점 추출이 완료되었으면 이를 부호화하여 전송 또는 저장하는 제4단계, 특징점 정보를 통신 네트워크를 통해 수신하거나 적재하는 제5단계, 특징점 정보의 수신과 적재 완료시 특징점 정보를 복호화하는 제6단계, 위치정보와 색상/명암 정보를 판단하여 위치 정보인 경우 특징점의 위치 정보와 얼굴 형태 모형 정보를 이용하여 전체 얼굴의 형태 정보를 복원하고, 색상/명암 정보인 경우 특징점의 색상/명암 정보와 얼굴 색상/명암 모형 정보를 이용하여 전체 얼굴의 색상/명암 정보를 복원하는 제7단계, 형태 및 색상/명암 정보를 합성하여 전체 얼굴 영상을 복원하고 출력하는 제8단계로 이루어짐을 특징으로 한다.In the method of the present invention, a first step of photographing or scanning using a camera or a scanner by selecting an input device, a second step of extracting feature points from a face image input through the first step, and the input image A third step of extracting feature point information such as location information and color / contrast information together with the identification code of each feature point if the feature point extraction is possible; a fourth step of encoding and transmitting or storing the feature point extraction for each region of the face A fifth step of receiving or loading the feature point information through a communication network, a sixth step of decoding the feature point information upon completion of receiving and loading the feature point information, and determining the location information and the color / contrast information, Restoration of shape information of entire face using location information and face shape model information, and feature point in case of color / contrast information The seventh step of restoring color / contrast information of the entire face using color / contrast information and the face color / contrast model information, and the eighth step of restoring and outputting the entire face image by synthesizing the shape and color / contrast information. It is characterized by.

따라서, 본 발명의 특징점 정보와 얼굴 모형 정보를 이용한 전체 얼굴 영상 복원 단계에서는 얼굴 모형 정보로 전체 얼굴 모형을 사용하여 일시에 전체 얼굴을복원할 수도 있으며, 각각의 부분 영역, 눈 영역, 코 영역, 입 영역, 얼굴 외곽 영역에 대한 모형 정보를 독립적으로 사용하여 각 영역을 복원한 다음 전체 얼굴을 각 영역을 조합하여 구성할 수 있다.Accordingly, in the full face image restoration step using the feature point information and the face model information of the present invention, the entire face may be restored at a time using the full face model as the face model information, and each partial region, eye region, nose region, Each model can be restored by using model information about the mouth area and the outside area of the face independently, and then the entire face can be combined with each area.

이하, 첨부된 도면을 참조하여 본 발명의 실시 예를 상세히 설명하도록 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 구성도로, 얼굴 영상을 카메라나 스캐너 등을 통하여 A/D 변환하여 입력받는 얼굴영상 입력부(50)와, 눈 영역, 코 영역, 입 영역 및 얼굴 외곽 영역에 대해 특징점을 추출하는 특징점 추출부(51)와, 추출된 특징점에 대해 복원에 필요한 특징 정보를 추출하는 특징점 정보 추출부(52)와, 추출된 특징 정보를 송신 또는 저장에 알맞는 형태로 압축하고 부호화하는 특징점 정보 부호화부(53)와, 부호화된 특징 정보를 전송단을 통해 송신하는 송신부(54)와, 부호화된 특징 정보를 저장하는 저장부(55)와, 상기 송신부(54)로부터의 특징점 정보를 수신하는 수신부(56)와, 상기 저장부(55)로부터의 특징점 정보를 적재하는 적재부(57)와, 부호화된 특징점 정보로부터 특징점 식별 코드, 색상/명암 정보, 위치 정보 등을 복호화하는 특징점 정보 복호화부(58)와, 여러 명의 얼굴 영상으로부터 얻어진 정보를 바탕으로 구성된 얼굴 모형 데이터베이스부(59)와, 특징점 정보와 얼굴 모형 정보를 이용하여 전체 얼굴의 색상/명암 정보와 형태를 복원하는 전체 얼굴 영상 복원부(60)와, 복원된 얼굴 영상을 디스플레이, 프린터, 저장 장치에 출력하는 얼굴 영상 출력부(61)로 구성된 것이다.1 is a block diagram of the present invention, the feature image is extracted from the face image input unit 50 receiving the A / D conversion of the face image through a camera or a scanner, and the eye region, the nose region, the mouth region and the outer region of the face. A feature point extracting unit 51, a feature point information extracting unit 52 for extracting feature information necessary for reconstruction of the extracted feature point, and feature point information for compressing and encoding the extracted feature information into a form suitable for transmission or storage. The encoder 53, a transmitter 54 for transmitting the encoded feature information through the transmitting end, a storage unit 55 for storing the encoded feature information, and feature point information from the transmitter 54 are received. A receiver 56, a loading unit 57 for loading feature point information from the storage unit 55, and a feature point information decoding unit for decoding feature point identification codes, color / contrast information, position information, etc. from the encoded feature point information. (58) The face model database unit 59 is configured based on information obtained from several face images, and the full face image restoration unit 60 restores color / contrast information and shape of the entire face using the feature point information and the face model information. And a face image output unit 61 outputting the restored face image to a display, a printer, and a storage device.

이와 같이 구성된 본 발명의 작용을 설명하면 다음과 같다.Referring to the operation of the present invention configured as described above is as follows.

도 2는 얼굴 특징점 정보를 이용한 얼굴 영상 압축과 손상된 얼굴 영상의 복원 방법에서 특징점 정보 추출 과정의 실시 예를 나타낸다.2 illustrates an embodiment of a feature point information extraction process in a method of compressing a face image using face feature point information and a method of restoring a damaged face image.

먼저, 카메라와 스캐너 중에서 원하는 입력 장치를 선택하고(S1), 카메라를 이용하거나 또는 스캐너를 이용하여 촬영과 스캐닝을 완료하고 디지털 신호로 변환한다(S2-S5).First, a desired input device is selected from a camera and a scanner (S1), and photographing and scanning are completed by using a camera or a scanner and converted into digital signals (S2-S5).

다음에 입력된 얼굴 영상으로부터 특징점을 추출하고(S6), 입력된 영상에서 특징점 정보 추출이 가능한지를 판단하여 추출이 가능한 경우 특징점 식별 코드, 밝기 코드, 위치 정보 코드 등의 특징점 정보를 추출한다(S7, S8)Next, feature points are extracted from the input face image (S6), and if feature extraction is possible by extracting feature point information from the input image, feature point information such as feature point identification code, brightness code, and location information code is extracted (S7). , S8)

여기서, 추출해야 할 특징점이 남은 경우에는 S6단계인 특징점 추출 단계로 돌아가 모든 특징점에 대해 특징점 추출의 가능 여부를 판단할 때까지 상기 S6-S9의 단계를 반복한다.If the feature points to be extracted remain, the process returns to the feature point extraction step of step S6 and repeats the steps S6-S9 until it is determined whether the feature points can be extracted for all the feature points.

그리고 특징점 추출이 완료되면 특징점 정보를 부호화하고 전송 또는 저장 여부를 판단하여 특징점을 전송하거나 또는 특징점을 저장한다(S9-S13).When the feature point extraction is completed, the feature point information is encoded and the feature point is transmitted to determine whether to transmit or store the feature point, or the feature point is stored (S9-S13).

본 발명에서는 특징점 만을 전송 또는 저장하므로 전체 얼굴 영상에 비해 훨씬 적은 양의 정보를 가지고 전체 얼굴 영상을 표현할 수 있으며, 잡영, 다른 객체에 의한 겹침, 조명에 의한 그림자 등에 의해 정확한 특징점 추출이 불가능한 특징점에 대해서는 S7의 특징점 추출 판별 단계를 두어 특징점 추출을 하지 않는 특징이 있다.In the present invention, since only the feature points are transmitted or stored, the entire face image can be represented with a much smaller amount of information than the entire face image, and the feature points cannot be extracted accurately due to miscellaneous operations, overlapping by other objects, shadows by lighting, etc. As for the feature point extraction determination step of S7, the feature point extraction is not performed.

기존의 방법은 이러한 경우 특징점 추출이 불가능한 영역에 대해서도 특징점 정보 추출을 시행하여 잘못된 특징점 정보를 추출하여 복원된 영상에 심한 변형이생기거나 그 영역에서의 얼굴 영상 복원을 시행하지 않는다.In this case, in this case, the feature information is extracted even in the region where the feature point extraction is impossible, and the wrong feature information is extracted to cause severe deformation of the reconstructed image or the face image reconstruction in the region is not performed.

그러나 본 발명에서는 추출된 특징점 정보만을 이용하여 전체 얼굴 영상을 효율적으로 복원할 수 있다.However, in the present invention, the entire face image may be efficiently restored using only extracted feature point information.

도 3은 얼굴 특징점 정보를 이용한 얼굴 영상 압축과 손상된 얼굴 영상의 복원 방법에서 특징점 정보를 이용한 얼굴 영상 복원 과정의 실시 예를 나타낸 것이다.3 illustrates an embodiment of a face image restoration process using feature point information in a method of compressing a face image using face feature point information and a method of restoring a damaged face image.

즉, 각각 특징점 정보를 통신 네트워크를 통해 수신하거나 저장 장치로부터 특징점 정보를 적재하고(S14, S15), 각각 특징점 정보의 수신과 적재가 완료되었는지를 확인하여(S16, S17), 특징점 정보 수신 단계 또는 특징점 적재를 통해 얻어진 부호화되어 있는 특징점 정보로부터 특징점 식별 코드, 위치 정보, 색상/명암 정보 등의 특징점 정보를 복호화 한다(S18).That is, the feature point information is received via the communication network or the feature point information is loaded from the storage device (S14 and S15), respectively, and the reception and loading of the feature point information are respectively confirmed (S16 and S17), and the feature point information receiving step or From the encoded feature point information obtained through feature point loading, feature point information such as a feature point identification code, position information, and color / contrast information is decoded (S18).

그리고 특징점 식별 코드를 사용하여 각각의 특징점 정보를 얻고, 이를 위치 정보와 색상/명암 정보를 분리하며(S19), 분리된 위치 정보와 얼굴 형태 모형 정보를 이용하여 전체 얼굴에 대한 형태 정보를 복원하는 한편 분리된 색상/명암 정보와 얼굴 색상/명암 모형 정보를 이용하여 전체 얼굴에 대한 색상/명암 정보를 복원한다(S20, S21).Each feature point information is obtained using a feature point identification code, and the position information and color / contrast information are separated (S19), and the shape information for the entire face is restored using the separated position information and the face shape model information. Meanwhile, using the separated color / contrast information and face color / contrast model information, color / contrast information of the entire face is restored (S20 and S21).

다음에 복원된 형태 정보와 색상/명암 정보를 합성하여 전체 얼굴 영상을 복원하고(S22), 응용에 맞는 출력 장치를 선택하여 복원된 전체 얼굴 영상을 디스플레이하거나 또는 프린터하거나 또는 저장 장치 등에 저장한다(S23-S26).Next, the entire face image is restored by synthesizing the restored form information and the color / contrast information (S22), and selecting the output device suitable for the application to display the restored face image or to store it in a storage device or the like ( S23-S26).

도 4는 분리된 특징점 위치 정보와 색상/명암 정보를 사용하여 전체 얼굴 영상을 복원하는 방법에 대한 구체적인 예를 나타낸 것이다.4 illustrates a specific example of a method of restoring an entire face image using separated feature point location information and color / contrast information.

먼저, 특징점 식별 코드를 사용하여 각각의 특징점 정보를 얻고 이를 위치 정보와 색상/명암 정보를 분리한다(S30).First, each feature point information is obtained using the feature point identification code, and the location information and the color / contrast information are separated (S30).

그리고 위치 정보인 경우, 특징점 위치 정보를 행렬 형태로 변환하여 의사역행렬(pseudoinverse)을 구하고, 의사역행렬과 데이터베이스에 저장된 얼굴 모형 정보인 형태 고유벡터를 사용하여 각 형태 고유벡터에 대한 계수를 산출하며, 얻어진 각 고유벡터의 계수를 사용하여 각 고유벡터의 선형 중첩에 의해 형태 정보를 복원한다(S31-S33).In the case of position information, a pseudoinverse is obtained by converting feature point position information into a matrix form, and coefficients for each shape eigenvector are calculated using the pseudo inverse matrix and shape eigenvectors, which are face model information stored in a database. Shape information is restored by linear superposition of each eigenvector using the obtained coefficients of each eigenvector (S31-S33).

또한, 색상/명암 정보의 복원에서도 마찬가지로 분리된 색상/명암 정보를 행렬 형태로 변환하여 의사역행렬(pseudoinverse)을 구하고, 의사역행렬과 데이터베이스에 저장된 얼굴 모형 정보인 색상/명암 고유벡터를 사용하여 각 색상/명암 고유벡터에 대한 계수를 산출하며, 얻어진 각 고유벡터의 계수를 사용하여 각 고유벡터의 선형 중첩에 의해 색상/명암 정보를 복원한다(S34-S36)In addition, in the restoration of color / contrast information, the separated color / contrast information is converted into a matrix to obtain a pseudoinverse, and each color using the pseudoinverse matrix and color / contrast eigenvectors, which are face model information stored in a database, is obtained. Calculate the coefficients for the eigenvectors, and reconstruct the color / contrast information by linear superposition of each eigenvector using the coefficients of the eigenvectors obtained (S34-S36).

다음에 상기 S33, S36단계 후 복원된 형태 정보와 색상/명암 정보를 와핑(warping) 과정을 통해 합성하여 전체 얼굴 영상을 복원한다(S37).Next, the shape information and color / contrast information restored after the steps S33 and S36 are synthesized through a warping process to restore the entire face image (S37).

이하, 상기 도 3에서 설명한 분리된 특징점 위치 정보와 색상/명암 정보를 사용하여 전체 얼굴 영상을 복원하는 방법을 자세히 설명한다.Hereinafter, a method of restoring the entire face image using the separated feature point position information and color / contrast information described with reference to FIG. 3 will be described in detail.

이 과정은 얼굴을 형태와 색상/명암 프로토 타입들의 선형 중첩으로 모형화한다는 전제 아래, 분리된 특징점에서의 위치 정보와 색상/명암 정보만을 가지고 입력되는 각각의 얼굴이 요구하는 변형의 최적화된 근사값을 찾는 과정으로 요약될수 있다.This process finds an optimized approximation of the deformation required by each face, inputting only the location and color / contrast information at separate feature points, on the premise of modeling the face as a linear superposition of shape and color / contrast prototypes. The process can be summarized.

먼저, 얼굴을 형태와 색상/명암 프로토 타입들의 선형 중첩으로 모형화하는 과정은 다음과 같다.First, the process of modeling the face as a linear superposition of shape and color / contrast prototypes is as follows.

모든 얼굴 영상의 참조 얼굴에 대한 대응 관계는 이미 주어져 있다는 가정 하에서 얼굴의 형태 정보는 참조 얼굴에 대한 변형장(deformation field)으로 부호화되며, 색상/명암 정보는 매핑된 영상의 색상/명암 정보로 부호화된다.Assuming that the correspondence of the reference faces of all face images is already given, the shape information of the face is encoded into a deformation field of the reference face, and the color / contrast information is encoded into the color / contrast information of the mapped image. do.

즉 형태 정보S(x)는 참조 영상 위의 점x와 입력 영상의 대응점에 대한 위치 차이로, 색상/명암 정보 T(x)는 영상 위의 점x에 대한 대응점의 색상 또는 명암 값으로 정의된다.That is, the shape information S (x) is a position difference between the point x on the reference image and the corresponding point of the input image, and the color / contrast information T (x) is defined as the color or contrast value of the corresponding point with respect to the point x on the image. .

독립적으로 구해진 형태와 색상/명암 정보를 가지고 형태 평균, 색상/명암 평균와 형태와 색상/명암 차이의 공분산 C_S와 C_T를 구한다.Shape average with independently obtained shape and color / contrast information , Color / contrast average Form and color / contrast differences Wow Find the covariances C_S and C_T of.

이를 바탕으로 주성분 분석(principal component analysis)을 사용하여 m개의 얼굴에 대한 공분산의 형태 고유벡터 s_i와 색상/명암 고유벡터t_i를 기저로 하는 얼굴 모형을 얻는다.Based on this, principal component analysis is used to obtain a face model based on the covariance shape eigenvectors s_i and color / contrast eigenvectors t_i for m faces.

여기서,IN R^m-1이고, 계수의 확률은 수학식 2로 정의된다.here , IN R ^ m-1, the coefficient The probability of is defined by Equation 2.

여기서 sigma_i ^2 은 형태 공분산 C_S의 고유값이고, 같은 방법으로 색상/명암에 대한 계수의 확률를 구할 수 있다.Where sigma_i ^ 2 is the eigenvalue of the shape covariance C_S, and the probability of the coefficient for color / contrast in the same way Can be obtained.

다음은 특징점에서의 위치 정보와 색상/명암 정보만을 가지고 각각의 얼굴이 요구하는 변형의 최적화된 근사값을 찾는 과정이다.The following is the process of finding the optimal approximation of the deformation required by each face using only the positional information and the color / contrast information at the feature points.

부호화 과정에서 단지 특징점에 대한 위치 정보와 색상/명암 정보만이 주어지기 때문에 이 조건에서는 요구되는 변형의 근사치만을 추정할 수 있다.Since only the positional information and the color / contrast information of the feature point are given in the encoding process, only an approximation of the required deformation can be estimated in this condition.

따라서, 본 발명은 이러한 언더-디터마인드(under-determined) 조건에서 최적의 해를 찾는 것이다.Thus, the present invention seeks to find the optimal solution under these under-determined conditions.

먼저, 정규화된 계수들의 합을 에너지 함수로 정의하고, 주어진 특징점에서의 특징 정보가 완전히 복원 가능해야 한다는 조건을 설정한다.First, the sum of normalized coefficients is defined as an energy function, and a condition is set that feature information at a given feature point must be completely recoverable.

여기서, 에너지 함수 E(alpha)는 평균 얼굴로부터의 변형 정도를 나타낸다. 여기서 해결하고자 하는 문제는 조건을 만족하는 계수들 가운데 에너지 함수 E(alpha)를 최소화하는 알파를 찾는 것이다. 즉,Here, the energy function E (alpha) represents the degree of deformation from the average face. The problem to be solved here is to find the alpha that minimizes the energy function E (alpha) among the coefficients satisfying the condition. In other words,

- 에너지 함수E(alpha):Energy function E (alpha):

- 조건:- Condition:

여기서,은 추출된 특징점 들이며, 기저의 수에 비해 적은 수의 특징점이 추출되기 때문에 n은 (m-1)보다 작다.here, Are extracted feature points, and n is smaller than (m-1) because fewer feature points are extracted than the number of bases.

이를 보다 간단하게 하기 위해서 수학식 6을 통해 주어진 문제를 최소제곱법에 의해 해결할 수 있는 문제로 단순화한다.To make this simpler, the problem given by Equation 6 is simplified to a problem that can be solved by the least squares method.

수학식 5는 수학식 6으로 동일하게 표현될 수 있다.Equation 5 may be equally represented by Equation 6.

직교성을 이용하기 위해 수학식 6은 다음과 같이 다시 표현한다.In order to use orthogonality, Equation 6 is expressed as follows.

여기서,here,

, ,

, ,

이고,의 행벡터는 선형적으로 독립이라고 가정한다. 이때은 수학식 9와 같이 표현될 수 있다.ego, It is assumed that the row vectors of are linearly independent. At this time May be expressed as in Equation (9).

여기서,는 행렬의 의사역행렬이고, 다음과 같은 singular value decomposition(SVD)에 의해 쉽게 구할 수 있다. 이것은 도 4의 고유벡에 대한 계수 산출 단계(S32)에서 수행된다.here, Is a matrix It is the pseudo inverse of, and can be easily obtained by the following singular value decomposition (SVD). This is performed in the coefficient calculation step S32 for the eigenbeck of FIG.

의 SVD가 다음과 같다고 가정하면, Assuming that SVD of Is

이다. to be.

U의 열벡터는의 고유벡터이고, V의 열벡터는의 고유벡터이다.The column vector of U is Is the eigenvector of, and the column vector of V is Eigenvectors of.

W의 주대각선 성분은 두 행렬의 고유값 중 '0'이 아닌 값으로 채워지며, W^+는 W중에서 '0'이 아닌 성분들의 역수로 구성된다.The main diagonal component of W is filled with nonzero values of the eigenvalues of the two matrices, and W ^ + consists of the inverse of the nonzero components of W.

이것은 도 4의 S31 단계에서 수행된다.This is done in step S31 of FIG.

최종적으로 전체 영상에 대한 형태 정보를 얻기 위해서는 수학식 1과 수학식 8로부터 구해진 다음의 식을 이용한다.Finally, to obtain the shape information of the entire image, the following equations obtained from Equations 1 and 8 are used.

이것은 도 4의 고유벡터의 선형 중첩에 의한 형태 정보 복원 단계(S33)에서 수행된다.This is performed in the shape information reconstruction step S33 by linear superposition of the eigenvectors of FIG. 4.

같은 방법을 색상/명암 정보에 적용함으로써 적은 수의 특징점으로부터 전체 얼굴에 대한 색상/명암 정보를 복원할 수 있다.(도 4의 S34, S35, S36 단계에서 수행)By applying the same method to the color / contrast information, it is possible to recover the color / contrast information for the entire face from a small number of feature points (performed in steps S34, S35, and S36 of FIG. 4).

도 5는 얼굴 영상 압축과 손상된 얼굴 영상의 복원에 필요한 특징점의 예를 나타낸 것이다.5 shows an example of feature points required for face image compression and restoration of a damaged face image.

35개의 검은 색 동그라미는 얼굴 형태 및 색상/명암 정보의 압축과 복원에 필요한 특징점의 예이고, 4개의 겹선으로 표시된 동그라미는 얼굴 피부색의 색상/명암 정보를 압축하고, 복원하기 위해 사용되는 특징점의 예이다.35 black circles are examples of feature points needed to compress and restore face shape and color / contrast information, and four overlapping circles are examples of feature points used to compress and restore color / contrast information of facial skin color. to be.

도 1에 나타난 얼굴 특징점 정보 추출 장치는 얼굴 영상 입력부(50), 특징점 추출부(51), 특징점 정보 추출부(52), 특징점 정보 부호화부(53), 송신부(54), 저장부(55)로 구성된다.The facial feature point information extraction apparatus shown in FIG. 1 includes a face image input unit 50, a feature point extractor 51, a feature point information extractor 52, a feature point information encoder 53, a transmitter 54, and a storage unit 55. It consists of.

얼굴 영상 입력부(50)는 카메라 또는 스캐너로부터 얼굴 영상을 입력받아 디지털 형태로 변환하고, 특징점 추출부(51)를 통해 입력된 얼굴 영상에서 눈 영역, 코 영역, 입 영역, 얼굴 외곽 영역에서 추출이 가능하다고 판단되는 특징점을 추출한다.The face image input unit 50 receives a face image from a camera or a scanner, converts the face image into a digital form, and extracts it from the eye region, the nose region, the mouth region, and the outer region of the face image input through the feature point extractor 51. Extract feature points deemed possible.

이때, 특징점 정보 추출부(52)는 추출된 특징점에 대해 식별 코드를 부여하고, 영상 압축과 복원에 필요한 특징점의 색상/명암 정보와 위치 정보를 추출하고, 특징점 정보 부호화부(53)는 얻어진 특징점 정보를 전송과 저장에 알맞은 형태로 부호화하고, 송신부(54)와 저장부(55)는 부호화된 특징점 정보를 각각 전송하거나 저장한다.At this time, the feature point information extracting unit 52 assigns an identification code to the extracted feature point, extracts color / contrast information and position information of the feature point necessary for image compression and reconstruction, and the feature point information encoding unit 53 obtains the obtained feature point. The information is encoded in a form suitable for transmission and storage, and the transmission unit 54 and the storage unit 55 transmit or store the encoded feature point information, respectively.

또한, 얼굴 영상 복원 장치는 수신부(56), 적재부(57), 특징점 정보 복호화부(58), 얼굴 모형 데이터 베이스부(59), 전체 얼굴 영상 복원부(60), 얼굴 영상 출력부(61)로 구성된다.In addition, the face image restoration apparatus includes a receiver 56, a loading unit 57, a feature point information decoding unit 58, a face model database unit 59, a full face image restoration unit 60, and a face image output unit 61. It is composed of

수신부(56)에서는 입력되는 전기적 신호를 받아들여 부호화된 특징점 정보로 변환하거나 하드디스크, CD-ROM, 디스켓 등의 다양한 형태의 저장부(55)에 저장되어 있는 정보를 적재부(57)에서 읽어와 저장장치에 저장되기 전의 부호화된 특징 정보로 변환한다.The receiver 56 receives the input electrical signal, converts it into encoded feature point information, or reads the information stored in the storage unit 55 in various forms such as a hard disk, a CD-ROM, a diskette, etc. from the loading unit 57. And the encoded feature information before being stored in the storage device.

그리고 부호화된 특징 정보는 특징점 정보 복호화부(58)에서 각 특징점의 고유 식별 코드와 각 특징점의 색상/명암 정보, 위치 정보 등의 특징점 정보로 복호화 되고, 전체 얼굴 영상 복원부(60)는 복호화된 특징점 정보와 얼굴 모형 데이터 베이스부(59)에 저장된 얼굴 모형 정보를 바탕으로 전체 얼굴을 복원한다.The encoded feature information is decoded by the feature point information decoder 58 to unique feature codes of each feature point, and feature point information such as color / contrast information and position information of each feature point, and the entire face image reconstruction unit 60 is decoded. The entire face is restored based on the feature point information and the face model information stored in the face model database unit 59.

이때, 특징점 추출 과정에서 겹침, 그림자, 잡영 등에 의해 추출이 불가능한 특징점이 있는 경우더라도 복호화된 각 특징점 식별 코드와 색상/명암 정보, 위치 정보 등의 특징점 정보와 얼굴 모형 데이터 베이스부(59)의 얼굴 모형을 바탕으로 전체 얼굴 영상을 효과적으로 복원할 수 있다.At this time, even if there are feature points that cannot be extracted by overlapping, shadowing, blurring, etc. in the feature point extraction process, the feature point information such as the decoded feature point identification code, color / contrast information, and location information, and the face of the face model database unit 59 The entire face image can be effectively restored based on the model.

도 6은 얼굴 특징점 정보를 이용한 얼굴 영상 압축과 손상된 얼굴 영상의 복원의 예를 간략히 나타내고 있다.6 briefly illustrates an example of facial image compression using facial feature point information and restoration of a damaged facial image.

즉, 입력된 영상(1), (2), (3)으로부터 특징점 추출이 가능한지를 판별하여 추출이 가능한 특징점에 대해 (4), (5), (6)와 같이 위치, 색상/명암 특징 정보를 추출하여 이를 전송하거나, 저장한 다음 이 정보로부터 (7)과 같은 원래의 전체 얼굴 영상을 복원한다.That is, it is possible to determine whether feature points can be extracted from the input images (1), (2), and (3), and the position and color / contrast characteristic information as shown in (4), (5), and (6). Extract and transmit it, or store it, and then restore the original full face image from (7).

본 발명에서의 얼굴 특징점 정보를 이용한 얼굴 영상 압축과 손상된 얼굴 영상의 복원 방법은 (2)나(3)과 같이 입력된 영상의 일부가 손상된 경우라도 (5),(6)과 같이 나머지 특징점 정보만으로 (7)과 같이 원래의 전체 얼굴 정보를 복원할 수 있다.In the present invention, a method of compressing a face image using face feature point information and restoring a damaged face image is performed even if a part of the input image is damaged, such as (2) or (3). Only the original face information can be restored as shown in (7).

이상에서 설명한 바와 같은 본 발명은 적은 수의 특징점 정보를 사용하여 전체 얼굴 영상을 고효율로 압축하거나 잡영, 다른 객체에 의한 겹침, 조명에 의한 그림자 등에 의해 얼굴 정보를 부분적으로 잃어버리는 경우 손상된 얼굴 영상으로부터 전체 얼굴을 복원할 수 있는 효과가 있다.As described above, the present invention uses a small number of feature point information to efficiently compress the entire face image or to partially lose face information due to noise, overlapping by another object, shadow by lighting, etc. It has the effect of restoring the entire face.

Claims (3)

얼굴 특징점 정보를 이용한 얼굴 영상 압축과 손상된 얼굴 영상의 부호화 및 복호화 방법에 있어서,In the face image compression and face image encoding and decoding method using the facial feature point information, 입력되는 장치를 선택하여 카메라나 스캐너를 사용하여 촬영 또는 스캐닝을 하는 제1단계,First step of selecting an input device to shoot or scan using a camera or scanner, 상기 제1단계를 통해 입력된 얼굴 영상으로부터 특징점을 추출하는 제2단계,A second step of extracting feature points from the face image inputted through the first step, 입력된 영상에서 특징점 추출이 가능한 경우 특징점 각각의 식별 코드와 함께 위치 정보, 색상/명암 정보 등의 특징점 정보를 추출하는 제3단계,A third step of extracting feature point information such as location information and color / contrast information together with an identification code of each feature point when the feature point extraction is possible from the input image; 얼굴의 각 영역에 대한 특징점 추출이 완료되었으면 이를 부호화하여 전송 또는 저장하는 제4단계,A fourth step of encoding and transmitting or storing the feature points for each region of the face when the extraction of the feature points is completed; 특징점 정보를 통신 네트워크를 통해 수신하거나 적재하는 제5단계, 특징점 정보의 수신과 적재 완료시 특징점 정보를 복호화하는 제6단계,A fifth step of receiving or loading the feature point information through a communication network, a sixth step of decoding the feature point information upon reception and loading of the feature point information, 위치정보와 색상/명암 정보를 판단하여 위치 정보인 경우 특징점의 위치 정보와 얼굴 형태 모형 정보를 이용하여 전체 얼굴의 형태 정보를 복원하고, 색상/명암 정보인 경우 특징점의 색상/명암 정보와 얼굴 색상/명암 모형 정보를 이용하여 전체 얼굴의 색상/명암 정보를 복원하는 제7단계,The location information is determined by determining the location information and the color / contrast information, and the shape information of the entire face is restored using the location information of the feature point and the face shape model information.In the case of the color / contrast information, the color / contrast information and the face color of the feature point The seventh step of restoring the color / contrast information of the entire face using the / contrast model information; 형태 및 색상/명암 정보를 합성하여 전체 얼굴 영상을 복원하고 출력하는 제8단계로 이루어짐을 특징으로 하는 적은 수의 특징점을 이용한 얼굴 영상 압축과 손상된 얼굴 영상의 복원 방법..8. A method of compressing a face image using a small number of feature points and restoring a damaged face image, comprising: an eighth step of reconstructing and outputting an entire face image by synthesizing shape and color / contrast information. 제 1항에 있어서, 분리된 색상/명암 정보와 얼굴 색상/명암 모형 정보를 이용한 전체 얼굴 복원시,The method of claim 1, wherein when restoring an entire face using separated color / contrast information and face color / contrast model information, 특징점 식별 코드를 사용하여 각각의 특징점 정보를 얻어 위치 정보와 색상/명암 정보를 분리하는 제1단계,A first step of obtaining location information and color / contrast information by using the feature point identification code; 특징점 위치 정보를 행렬 형태로 변환하여 의사역행렬(pseudoinverse)을 구하는 제2단계,A second step of obtaining a pseudoinverse by converting feature point position information into a matrix form; 의사역행렬과 데이터베이스에 저장된 얼굴 모형 정보인 형태 고유벡터를 사용하여 각 형태 고유벡터에 대한 계수를 산출하는 제3단계,A third step of calculating coefficients for each shape eigenvector by using a pseudo-inverse matrix and shape eigenvectors stored in a database; 얻어진 각 고유벡터의 계수를 사용하여 각 고유벡터의 선형 중첩에 의해 형태 정보를 복원하는 제4단계,A fourth step of restoring the shape information by linear superposition of each eigenvector using the obtained coefficients of each eigenvector, 분리된 색상/명암 정보를 행렬 형태로 변환하여 의사역행렬(pseudoinverse)을 구하는 제5단계,A fifth step of obtaining a pseudoinverse by converting the separated color / contrast information into a matrix form; 의사역행렬과 데이터베이스에 저장된 얼굴 모형 정보인 색상/명암 고유벡터를 사용하여 각 색상/명암 고유벡터에 대한 계수를 산출하는 제6단계,A sixth step of calculating coefficients for each color / contrast eigenvector by using a pseudo-inverse matrix and color / contrast eigenvectors, which are face model information stored in a database, 얻어진 각 고유벡터의 계수를 사용하여 각 고유벡터의 선형 중첩에 의해 색상/명암 정보를 복원하는 제7단계,A seventh step of restoring the color / contrast information by linear superposition of each eigenvector using the obtained coefficients of each eigenvector, 복원된 형태 정보와 색상/명암 정보를 와핑(warping) 과정을 통해 합성하여 전체 얼굴 영상을 복원하는 제7단계에 의해 수행됨을 특징으로 하는Characterized in that it is performed by the seventh step of reconstructing the entire face image by combining the reconstructed shape information and color / contrast information through a warping process 적은 수의 특징점을 이용한 얼굴 영상 압축과 손상된 얼굴 영상의 복원 방법.A method of compressing a face image using a small number of feature points and restoring a damaged face image. 얼굴 특징점 정보를 이용한 얼굴 영상 압축과 손상된 얼굴 영상의 부호화 및 복호화 장치에 있어서,An apparatus for compressing a face image using face feature point information and encoding and decoding a damaged face image, 카메라 또는 스캐너부터 얼굴 영상을 입력받아 디지털 형태로 변환하는 얼굴 영상 입력부와,A face image input unit for receiving a face image from a camera or a scanner and converting the face image into a digital form; 입력된 얼굴 영상에서 눈 영역, 코 영역, 입 영역, 얼굴 외곽 영역에서 추출이 가능하다고 판단된 특징점을 추출하는 특징점 추출부와,A feature point extracting unit for extracting feature points determined to be extracted from an eye region, a nose region, a mouth region, and an outer region of the face from the input face image; 추출된 특징점에 대해 식별 코드를 부여하고, 영상 압축과 복원에 필요한 특징점의 색상/명암 정보와 위치 정보를 추출하는 특징점 정보 추출부와,A feature point information extraction unit for assigning an identification code to the extracted feature points and extracting color / contrast information and position information of the feature points necessary for image compression and reconstruction; 얻어진 특징점 정보를 전송과 저장에 알맞은 형태로 부호화하는 특징점 정보 부호화부와,A feature point information encoder for encoding the obtained feature point information into a form suitable for transmission and storage; 부호화된 특징점 정보를 송신하거나 저장하는 송신부 및 저장부와,A transmitter and a storage unit for transmitting or storing encoded feature point information; 입력되는 전기적 신호를 받아들여 부호화된 특징점 정보로 변환하는 수신부와,A receiver which receives an input electrical signal and converts the encoded electrical signal into encoded feature point information; 하드디스크, CD-ROM, 디스켓 등의 다양한 형태의 저장장치에 저장되어 있는 정보를 읽어와 저장장치에 저장되기 전의 부호화된 특징점 정보로 변환하는 적재부와,A loading unit for reading information stored in various types of storage devices such as hard disks, CD-ROMs, diskettes, etc., and converting the information into encoded feature point information before being stored in the storage devices; 부호화된 특징 정보를 각 특징점의 고유 식별 코드와 각 특징점의 색상/명암 정보, 위치 정보 등의 특징점 정보로 복호화하는 특징점 정보 복호화부와,A feature point information decoder which decodes the encoded feature information into feature point information such as a unique identification code of each feature point, color / contrast information, and position information of each feature point; 얼굴 모형을 저장하고 있는 데이터 베이스부와, `Database part storing face model, and ` 상기 특징점 정보 복호화부와 상기 데이터 베이스부에 저장된 얼굴 모형 정보를 사용하여 전체 얼굴을 복원하는 전체 얼굴 영상 복원부를 포함하여 구성된 것을 특징으로 하는 적은 수의 특징점을 이용한 얼굴 영상 압축과 손상된 얼굴 영상의 복원 장치.Facial image compression using a small number of feature points and restoring a damaged face image, comprising a full face image restoration unit for restoring an entire face using the feature point information decoder and the face model information stored in the database unit. Device.
KR10-2000-0029845A 2000-06-01 2000-06-01 Method and Device for Face Compression and Reconstruction Using a Small Set of Feature Points KR100368743B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2000-0029845A KR100368743B1 (en) 2000-06-01 2000-06-01 Method and Device for Face Compression and Reconstruction Using a Small Set of Feature Points

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2000-0029845A KR100368743B1 (en) 2000-06-01 2000-06-01 Method and Device for Face Compression and Reconstruction Using a Small Set of Feature Points

Publications (2)

Publication Number Publication Date
KR20000054305A KR20000054305A (en) 2000-09-05
KR100368743B1 true KR100368743B1 (en) 2003-01-24

Family

ID=19670959

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2000-0029845A KR100368743B1 (en) 2000-06-01 2000-06-01 Method and Device for Face Compression and Reconstruction Using a Small Set of Feature Points

Country Status (1)

Country Link
KR (1) KR100368743B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101581131B1 (en) * 2014-09-11 2015-12-30 이화여자대학교 산학협력단 Transmitting method for video data, video encoder and video decoder
WO2022004970A1 (en) * 2020-07-01 2022-01-06 주식회사 딥브레인에이아이 Neural network-based key point training apparatus and method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101165357B1 (en) * 2011-02-14 2012-07-18 (주)엔써즈 Apparatus and method for generating image feature data
KR102223754B1 (en) * 2020-06-05 2021-03-05 주식회사 픽스트리 Method and Apparatus for Enhancing Face Image
KR20240107987A (en) 2022-12-30 2024-07-09 주식회사 픽스트리 Apparatus and method for restoring an video object sequence

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101581131B1 (en) * 2014-09-11 2015-12-30 이화여자대학교 산학협력단 Transmitting method for video data, video encoder and video decoder
WO2022004970A1 (en) * 2020-07-01 2022-01-06 주식회사 딥브레인에이아이 Neural network-based key point training apparatus and method
US12112571B2 (en) 2020-07-01 2024-10-08 Deepbrain Ai Inc. Neural network-based key point training apparatus and method

Also Published As

Publication number Publication date
KR20000054305A (en) 2000-09-05

Similar Documents

Publication Publication Date Title
CA2134681C (en) Apparatus and method for encoding and decoding images
US8098959B2 (en) Method and system for frame rotation within a JPEG compressed pipeline
US5592227A (en) Method and apparatus for compressing a digital signal using vector quantization
JP3851350B2 (en) Image data preprocessing method and apparatus
EP0734167B1 (en) Apparatus for encoding/decoding an image signal having a still object
JP2011055536A (en) Method and device for representing motion in sequence of digitized image
JPS62135089A (en) Method and circuit apparatus for arranging digital image signal
JP3389369B2 (en) Contour approximation device
US5802211A (en) Method and apparatus for transmitting and utilizing analog encoded information
US6343151B1 (en) Method and apparatus for transmitting and utilizing analog encoded information
US7406203B2 (en) Image processing method, system, and apparatus for facilitating data transmission
KR100368743B1 (en) Method and Device for Face Compression and Reconstruction Using a Small Set of Feature Points
US5828413A (en) Method and apparatus for image processing using model-based localized quantization
US7450769B2 (en) Image processing method for facilitating data transmission
KR100281322B1 (en) Binary shape signal encoding and decoding device and method thereof
US20050163389A1 (en) Image data comprising device, image data compression method, recording medium, and program
JP3955909B2 (en) Image signal processing apparatus and method
EP0911760B1 (en) Iterated image transformation and decoding apparatus and methods
CN115150370B (en) Image processing method
US20020094126A1 (en) Fractal image compression
JPH08161505A (en) Dynamic image processor, dynamic image encoding device, and dynamic image decoding device
JP2584854B2 (en) Image coding method
CN115955573A (en) Real-time remote synchronous projection method for two-dimensional image
Tubaro A hybrid image coder with vector quantizer
KR20030056997A (en) Method for Compressing Stero-Image

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee