KR20230083347A - The Apparatus and method for generating the Back side image - Google Patents

The Apparatus and method for generating the Back side image Download PDF

Info

Publication number
KR20230083347A
KR20230083347A KR1020210170530A KR20210170530A KR20230083347A KR 20230083347 A KR20230083347 A KR 20230083347A KR 1020210170530 A KR1020210170530 A KR 1020210170530A KR 20210170530 A KR20210170530 A KR 20210170530A KR 20230083347 A KR20230083347 A KR 20230083347A
Authority
KR
South Korea
Prior art keywords
patch
sub
average
map
generating
Prior art date
Application number
KR1020210170530A
Other languages
Korean (ko)
Other versions
KR102627659B1 (en
Inventor
정영균
이상노
이범로
Original Assignee
(주)셀빅
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)셀빅 filed Critical (주)셀빅
Priority to KR1020210170530A priority Critical patent/KR102627659B1/en
Priority to PCT/KR2022/014129 priority patent/WO2023101167A1/en
Publication of KR20230083347A publication Critical patent/KR20230083347A/en
Priority to KR1020230132269A priority patent/KR20230145983A/en
Priority to KR1020230132267A priority patent/KR20230145982A/en
Priority to KR1020230132264A priority patent/KR20230145981A/en
Application granted granted Critical
Publication of KR102627659B1 publication Critical patent/KR102627659B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

본 발명은 제 1영상정보로부터 M개의 관절 좌표로 구성된 휴먼포즈 데이터를 생성하는 단계와, 상기 제 1영상정보로부터 레이블 맵을 생성하는 단계와, 상기 M개의 관절 좌표 중 제 1 관절 좌표와 상기 레이블 맵의 이격 거리가 기 설정된 이격 거리 이하인 경우, 상기 레이블 맵을 상기 제 1 관절 좌표에 대응되는 제 1인체 레이블로 생성하는 단계와, 상기 제 1인체 레이블을 생성하는 단계를 상기 M개의 모든 관절 좌표에 대해 순차적으로 수행하여, M개의 인체 레이블을 생성하고, 상기 M개의 인체 레이블로 구성된 인체 레이블 맵을 생성하는 단계와, 상기 M개의 관절 좌표와 상기 레이블 맵의 이격 거리가 기 설정된 이격 거리를 초과한 경우, 비인체 레이블 맵을 생성하고, 상기 인체 레이블 맵과 상기 비인체 레이블 맵으로 구성되는 제 2영상 정보를 생성하는 단계와, 상기 제 1영상정보를 N개의 패치로 분리하여 N개의 제 1영상정보패치를 생성하고, 상기 N개의 제 1영상정보패치로 구성되는 제 1패치 맵을 생성하는 단계와, 상기 제 2영상정보를 N개의 패치로 분리하여 N개의 제 2영상정보패치를 생성하고, 상기 N개의 제 2영상정보패치로 구성되는 제 2패치 맵을 생성하는 단계와, 상기 N개의 제 1영상정보패치 중 제 1영상정보패치를 A개의 서브패치로 분리하고, 상기 제 1영상정보패치와 대응되는 상기 A개의 서브패치로 구성된 제 1서브패치군을 생성하는 단계와, 상기 제 1서브패치군을 생성하는 단계를 상기 N개의 모든 제 1영상정보패치에 대해 순차적으로 수행하여, 상기 N개의 모든 제 1영상정보패치 각각에 대응되는 N개의 서브패치군을 생성하고, 상기 N개의 서브패치군으로 구성된 서브 패치 맵을 생성하는 단계와, 상기 제 1서브패치군을 구성하는 A개의 서브패치 색상정보 값을 합산하여 평균 값을 계산하고, 상기 평균 값을 상기 A개의 서브패치의 색상정보 값으로 변경하고, 상기 변경된 색상정보 값이 반영된 A개의 서브패치로 구성된 제 1평균서브패치군을 생성하는 단계와, 상기 제 1평균서브패치군을 생성하는 단계를 상기 N개의 모든 서브패치군에 대해 순차적으로 수행하여, N개의 평균서브패치군을 생성하고, 상기 N개의 평균서브패치군으로 구성된 평균서브 패치 맵을 생성하는 단계와, 상기 N개의 평균서브패치군이 포함된 평균서브 패치 맵 중 제 1평균서브패치군을 둘러싸고 있는 복수개의 제 1 인접평균서브패치군을 설정하고, 상기 제 1평균서브패치군의 제 1가중치와, 상기 제 1평균서브패치군과 상기 복수개의 인접평균서브패치군 간의 이격 거리에 비례하여 상기 복수개의 평균서브패치군의 제 2가중치를 설정하고, 상기 제 1평균서브패치군에 상기 제 1가중치가 반영된 제 1색상정보 값과, 상기 복수개의 인접평균서브패치군의 색상정보에 제 2가중치가 반영된 제 2색상정보 값의 평균 값을 반영하여 후면 색상정보 값을 생성하고, 상기 후면 색상정보 값이 반영된 후면서브패치군을 생성하는 단계 및 상기 후면서브패치군을 생성하는 단계를 상기 평균서브패치 맵을 구성하는 N개의 모든 평균서브패치군에 순차적으로 수행하여, N개의 후면서브패치군을 생성하고, 상기 N개의 후면서브패치군으로 구성되는 후면서브패치 맵을 생성하는 단계를 포함하고, 상기 패치, 서브패치는 복수개의 픽셀로 구성되고, 상기 픽셀은 상기 픽셀의 주소 값, 상기 픽셀의 위치정보 및 상기 픽셀의 색상정보인, 후면 영상정보 생성 방법 및 장치에 관한 것이다.The present invention includes the steps of generating human pose data composed of M joint coordinates from first image information, generating a label map from the first image information, and the first joint coordinates and the label among the M joint coordinates. When the separation distance of the map is less than or equal to the preset separation distance, the step of generating the label map as the first body label corresponding to the first joint coordinates and the step of generating the first body label correspond to all the M joint coordinates. sequentially, generating M body labels and generating a body label map composed of the M body labels, wherein the separation distance between the M joint coordinates and the label map exceeds a predetermined separation distance. In one case, generating a non-human label map and generating second image information composed of the human label map and the non-human label map; dividing the first image information into N patches to generate N patches of first image information, and generating a first patch map composed of the N patches of first image information; dividing into N patches to generate N second image information patches, and generating a second patch map composed of the N second image information patches; The step of dividing the information patch into A number of sub-patches and generating a first sub-patch group composed of the A number of sub-patches corresponding to the first image information patch, and the step of generating the first sub-patch group are described above. It is sequentially performed on all N first image information patches, generating N sub-patch groups corresponding to each of the N first image information patches, and generating a sub-patch map composed of the N sub-patch groups. and calculating an average value by summing the color information values of the A sub-patches constituting the first sub-patch group, changing the average value to the color information values of the A sub-patches, and changing the color information values of the A number of sub-patches. The steps of generating a first average sub-patch group composed of A number of sub-patches to which values are reflected and the steps of generating the first average sub-patch group are sequentially performed on all N sub-patch groups, generating a sub-patch group and generating an average sub-patch map composed of the N average sub-patch groups; A plurality of first average sub-patch groups are set, and the plurality of first average sub-patch groups are set in proportion to a first weight of the first average sub-patch group and a separation distance between the first average sub-patch group and the plurality of adjacent average sub-patch groups. A second weight of average sub-patch groups is set, a first color information value in which the first weight is reflected in the first average sub-patch group, and a second weight value in the color information of the plurality of adjacent average sub-patch groups The steps of generating a back color information value by reflecting the average value of the reflected second color information values, generating a rear sub patch group reflecting the back color information value, and generating the rear sub patch group are the average sub-patch sequentially performing on all N average subpatch groups constituting the map, generating N rear subpatch groups, and generating a rear subpatch map composed of the N rear subpatch groups; A patch and a sub-patch are composed of a plurality of pixels, and the pixel is an address value of the pixel, location information of the pixel, and color information of the pixel.

Description

후면 영상정보 생성 장치 및 방법{The Apparatus and method for generating the Back side image}Apparatus and method for generating the back side image information {The Apparatus and method for generating the Back side image}

본 발명은 전면 영상을 이용하여 후면 영상정보를 생성하는 방법 및 장치에 관한 것으로서, 인공신경망 기술을 적용하여 후면 영상을 추출 또는생성하여 입체영상을 제공하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for generating rear image information using a front image, and more particularly, to a method and apparatus for providing a stereoscopic image by extracting or generating a rear image using artificial neural network technology.

콘텐츠 개발 분야는, 하드웨어 및 소프트웨어의 전반적인 성능의 발전으로 인해, 2D 캐릭터 콘텐츠 개발에서 시작하여 3D 캐릭터를 이용한 콘텐츠의 개발 및 활용하려는 시도가 증가하고 있다. 3D 캐릭터를 활용할 경우, 기존에 제작한 3D 캐릭터를 여러 소프트웨어에서 재사용할 수 있는 장과, 입체적인 애니메이션 표현 및 다양한 제어 방법을 적용할 수 있는 등 다양한 장점이 있다. 그러나 3D 캐릭터 제작의 기술적인 한계가 있어, 이를 극복하기 위한 다양한 연구 및 개발이 이루어지고 있다.In the field of content development, attempts to develop and utilize content using 3D characters are increasing, starting with the development of 2D character content due to the development of overall performance of hardware and software. When using 3D characters, there are various advantages, such as being able to reuse existing 3D characters in various software, expressing three-dimensional animation and applying various control methods. However, there are technical limitations of 3D character production, and various researches and developments are being conducted to overcome them.

특히, 사람 등 촬영된 전면 영상을 인공신경망을 이용하여 3D 메쉬를 생성하는 방법이 존재하는데, 후면 영상이 없는 경우, 3D 메쉬 영상을 생성하는데 어려움이 있다. In particular, there is a method of generating a 3D mesh using an artificial neural network for a front image captured such as a person. However, when there is no rear image, it is difficult to generate a 3D mesh image.

이러한 문제점을 해결하기 위해, 사람 등 촬영된 전면 영상을 기초로 후면 영상을 추출하고 생성하는 후면 영상정보를 생성하는 방법 및 장치가 필요하다. In order to solve this problem, a method and apparatus for generating rear image information by extracting and generating a rear image based on a photographed front image of a person are required.

대한민국 등록번호공보 10-2245220(2021.04.27. 공고)Republic of Korea Registration No. 10-2245220 (2021.04.27. Notice) 대한민국 공개특허공보 10-1906431(2018.10.11. 공고)Republic of Korea Patent Publication No. 10-1906431 (2018.10.11. Notice) 대한민국 공개특허공보 10-1829733(2018.02.09. 공고)Republic of Korea Patent Publication No. 10-1829733 (2018.02.09. Notice)

본 발명은 사람 등 촬영된 전면 영상을 기초로 후면 영상을 추출하고 생성하는 후면 영상정보를 생성하는 방법 및 장치를 제공하는 것을 과제로 한다.An object of the present invention is to provide a method and apparatus for generating rear image information by extracting and generating a rear image based on a photographed front image of a person.

상기 과제를 해결하기 위한 후면 영상정보 생성 방법 및 장치는, A method and apparatus for generating rear image information to solve the above problems,

제 1영상정보로부터 M개의 관절 좌표로 구성된 휴먼포즈 데이터를 생성하는 단계와, 상기 제 1영상정보로부터 레이블 맵을 생성하는 단계와, 상기 M개의 관절 좌표 중 제 1 관절 좌표와 상기 레이블 맵의 이격 거리가 기 설정된 이격 거리 이하인 경우, 상기 레이블 맵을 상기 제 1 관절 좌표에 대응되는 제 1인체 레이블로 생성하는 단계와, 상기 제 1인체 레이블을 생성하는 단계를 상기 M개의 모든 관절 좌표에 대해 순차적으로 수행하여, M개의 인체 레이블을 생성하고, 상기 M개의 인체 레이블로 구성된 인체 레이블 맵을 생성하는 단계와, 상기 M개의 관절 좌표와 상기 레이블 맵의 이격 거리가 기 설정된 이격 거리를 초과한 경우, 비인체 레이블 맵을 생성하고, 상기 인체 레이블 맵과 상기 비인체 레이블 맵으로 구성되는 제 2영상 정보를 생성하는 단계와, 상기 제 1영상정보를 N개의 패치로 분리하여 N개의 제 1영상정보패치를 생성하고, 상기 N개의 제 1영상정보패치로 구성되는 제 1패치 맵을 생성하는 단계와, 상기 제 2영상정보를 N개의 패치로 분리하여 N개의 제 2영상정보패치를 생성하고, 상기 N개의 제 2영상정보패치로 구성되는 제 2패치 맵을 생성하는 단계와, 상기 N개의 제 1영상정보패치 중 제 1영상정보패치를 A개의 서브패치로 분리하고, 상기 제 1영상정보패치와 대응되는 상기 A개의 서브패치로 구성된 제 1서브패치군을 생성하는 단계와, 상기 제 1서브패치군을 생성하는 단계를 상기 N개의 모든 제 1영상정보패치에 대해 순차적으로 수행하여, 상기 N개의 모든 제 1영상정보패치 각각에 대응되는 N개의 서브패치군을 생성하고, 상기 N개의 서브패치군으로 구성된 서브 패치 맵을 생성하는 단계와, 상기 제 1서브패치군을 구성하는 A개의 서브패치 색상정보 값을 합산하여 평균 값을 계산하고, 상기 평균 값을 상기 A개의 서브패치의 색상정보 값으로 변경하고, 상기 변경된 색상정보 값이 반영된 A개의 서브패치로 구성된 제 1평균서브패치군을 생성하는 단계와, 상기 제 1평균서브패치군을 생성하는 단계를 상기 N개의 모든 서브패치군에 대해 순차적으로 수행하여, N개의 평균서브패치군을 생성하고, 상기 N개의 평균서브패치군으로 구성된 평균서브 패치 맵을 생성하는 단계와, 상기 N개의 평균서브패치군이 포함된 평균서브 패치 맵 중 제 1평균서브패치군을 둘러싸고 있는 복수개의 제 1 인접평균서브패치군을 설정하고, 상기 제 1평균서브패치군의 제 1가중치와, 상기 제 1평균서브패치군과 상기 복수개의 인접평균서브패치군 간의 이격 거리에 비례하여 상기 복수개의 평균서브패치군의 제 2가중치를 설정하고, 상기 제 1평균서브패치군에 상기 제 1가중치가 반영된 제 1색상정보 값과, 상기 복수개의 인접평균서브패치군의 색상정보에 제 2가중치가 반영된 제 2색상정보 값의 평균 값을 반영하여 후면 색상정보 값을 생성하고, 상기 후면 색상정보 값이 반영된 후면서브패치군을 생성하는 단계 및 상기 후면서브패치군을 생성하는 단계를 상기 평균서브패치 맵을 구성하는 N개의 모든 평균서브패치군에 순차적으로 수행하여, N개의 후면서브패치군을 생성하고, 상기 N개의 후면서브패치군으로 구성되는 후면서브패치 맵을 생성하는 단계를 포함하고, 상기 패치, 서브패치는 복수개의 픽셀로 구성되고, 상기 픽셀은 상기 픽셀의 주소 값, 상기 픽셀의 위치정보 및 상기 픽셀의 색상정보가 저장되어 있는 것을 특징으로 한다. Generating human pose data composed of M joint coordinates from first image information, generating a label map from the first image information, and spacing between the first joint coordinates and the label map among the M joint coordinates When the distance is less than or equal to the preset separation distance, the step of generating the label map as a first body label corresponding to the first joint coordinates and the step of generating the first body label are sequentially performed for all the M joint coordinates. , generating M body labels and generating a body label map composed of the M body labels, and when the separation distance between the M joint coordinates and the label map exceeds a predetermined separation distance, generating a non-human label map, and generating second image information composed of the human body label map and the non-human label map; dividing the first image information into N patches to generate N patches of first image information, and generating a first patch map composed of the N patches of first image information; dividing into N patches to generate N second image information patches, and generating a second patch map composed of the N second image information patches; The step of dividing the information patch into A number of sub-patches and generating a first sub-patch group composed of the A number of sub-patches corresponding to the first image information patch, and the step of generating the first sub-patch group are described above. It is sequentially performed on all N first image information patches, generating N sub-patch groups corresponding to each of the N first image information patches, and generating a sub-patch map composed of the N sub-patch groups. and calculating an average value by summing the color information values of the A sub-patches constituting the first sub-patch group, changing the average value to the color information values of the A sub-patches, and changing the color information values of the A number of sub-patches. The steps of generating a first average sub-patch group composed of A number of sub-patches to which values are reflected and the steps of generating the first average sub-patch group are sequentially performed on all N sub-patch groups, generating a sub-patch group and generating an average sub-patch map composed of the N average sub-patch groups; A plurality of first average sub-patch groups are set, and the plurality of first average sub-patch groups are set in proportion to a first weight of the first average sub-patch group and a separation distance between the first average sub-patch group and the plurality of adjacent average sub-patch groups. A second weight of average sub-patch groups is set, a first color information value in which the first weight is reflected in the first average sub-patch group, and a second weight value in the color information of the plurality of adjacent average sub-patch groups The steps of generating a back color information value by reflecting the average value of the reflected second color information values, generating a rear sub patch group reflecting the back color information value, and generating the rear sub patch group are the average sub-patch sequentially performing on all N average subpatch groups constituting the map, generating N rear subpatch groups, and generating a rear subpatch map composed of the N rear subpatch groups; A patch and a sub-patch are composed of a plurality of pixels, and each pixel stores an address value of the pixel, location information of the pixel, and color information of the pixel.

또한, 상기 후면 색상정보 값이 반영된 후면서브패치군을 생성하는 단계는, 상기 평균서브 패치 맵을 구성하는 N개의 평균서브패치군 중 제 1평균서브패치군의 위치좌표가, 상기 인체 레이블 맵을 구성하는 패치들의 위치좌표 중 하나의 위치좌표와 동일한 위치 좌표인 경우에 한해, 상기 후면 색상정보 값이 반영된 제 1후면서브패치군을 생성하고, 상기 평균서브 패치 맵을 구성하는 N개의 평균서브패치군 중 제 1평균서브패치군의 위치좌표가, 상기 인체 레이블 맵을 구성하는 패치들의 위치좌표 중 하나의 위치좌표와 동일한 위치 좌표가 아닌 경우, 상기 제 1평균서브패치군의 색상정보 값이 반영된 제 2후면서브패치군을 생성하고, 상기 N개의 후면서브패치군으로 구성되는 후면서브패치 맵을 생성하는 단계는, 상기 평균서브 패치 맵을 구성하는 N개의 평균서브패치군 중 제 1평균서브패치군의 위치좌표가, 상기 인체 레이블 맵을 구성하는 패치들의 위치좌표 중 하나의 위치좌표와 동일한 위치 좌표인 경우에 한해, 상기 후면 색상정보 값이 반영된 후면서브패치군을 생성하는 단계를 상기 평균서브패치 맵을 구성하는 N개의 모든 평균서브패치군에 순차적으로 수행하여, S개의 제 1후면서브패치군을 생성하고, 상기 평균서브 패치 맵을 구성하는 N개의 평균서브패치군 중 제 1평균서브패치군의 위치좌표가, 상기 인체 레이블 맵을 구성하는 패치들의 위치좌표 중 하나의 위치좌표와 동일한 위치 좌표가 아닌 경우, 상기 제 1평균서브패치군의 색상정보 값이 반영된 제 2후면서브패치군을 생성하는 단계를 상기 평균서브패치 맵을 구성하는 N개의 모든 평균서브패치군에 순차적으로 수행하여, T개의 제 2후면서브패치군을 생성하여, 상기 S개의 제 1후면서브패치군과, 상기 T개의 제 2후면서브패치군으로 구성되는 후면서브패치 맵을 생성하는 것을 특징으로 한다.In addition, in the step of generating the rear sub-patch group to which the back color information value is reflected, the positional coordinates of the first average sub-patch group among the N average sub-patch groups constituting the average sub-patch map determine the human body label map. Only when the positional coordinates are the same as one of the positional coordinates of the constructing patches, a first rear subpatch group in which the back color information value is reflected is generated, and N average sub-patches constituting the average sub-patch map If the positional coordinates of the first average sub-patch group among the groups are not the same as the positional coordinates of one of the positional coordinates of the patches constituting the body label map, the color information value of the first average sub-patch group is reflected. In the step of generating a second back subpatch group and a back subpatch map composed of the N back subpatch groups, the first average subpatch among the N average subpatch groups constituting the average subpatch map The step of generating a rear subpatch group in which the back color information value is reflected is performed only when the positional coordinates of the group are the same as one of the positional coordinates of the positional coordinates of the patches constituting the body label map. It is sequentially performed on all N average sub-patch groups constituting the patch map to generate S first rear sub-patch groups, and among the N average sub-patch groups constituting the average sub-patch map, the first average sub-patch If the positional coordinates of the group are not the same as the positional coordinates of one of the positional coordinates of the patches constituting the body label map, a second sub-patches group in which the color information value of the first average sub-patch group is reflected is obtained. The generating step is sequentially performed on all N average subpatch groups constituting the average subpatch map to generate T second rear subpatch groups, the S first rear subpatch groups, and the T It is characterized in that a rear sub-sub patch map consisting of two second sub-sub patch groups is generated.

또한, 상기 복수개의 제 1인접 평균서브패치군은, 상기 복수개의 제 1인접 평균서브패치군의 위치좌표가 상기 인체 레이블 맵을 구성하는 패치들의 위치좌표 중 하나의 위치좌표와 동일한 위치 좌표인 것을 특징으로 한다. In addition, in the plurality of first adjacent average sub-patch groups, the positional coordinates of the plurality of first adjacent averaged sub-patch groups are identical to the positional coordinates of one of the positional coordinates of the patches constituting the body label map. to be characterized

또한, 상기 제 1가중치는 상기 제 2가중치 보다 큰 값으로 설정되고,In addition, the first weight is set to a value greater than the second weight,

상기 제 1가중치와 상기 복수개의 제 1 인접평균서브패치군에 설정된 제 2가중치들의 합이 1이고, 상기 제 1 가중치인 C는

Figure pat00001
이고, The sum of the first weight and the second weights set to the plurality of first adjacent average subpatch groups is 1, and the first weight C is
Figure pat00001
ego,

상기 제 2 가중치인 w는

Figure pat00002
이고,The second weight w is
Figure pat00002
ego,

상기 제 1가중치와 상기 제 2가중치들의 상관 관계식인 W은 W, which is a correlation between the first weight and the second weight, is

Figure pat00003
이고,
Figure pat00003
ego,

상기 Z는 상기 제 1평균서브패치군과, 상기 복수개의 제 1 인접평균서브패치군의 패치군수의 합인 것을 특징으로 한다. Z is the sum of the first average sub-patch group and the number of patch groups of the plurality of first adjacent average sub-patch groups.

또한, 후면 영상정보 추출 장치는 상기 제 1영상정보로부터 M개의 관절 좌표로 구성된 휴먼포즈 데이터를 생성하는 휴먼포즈 생성부와, 상기 제 1영상정보로부터 레이블 맵을 생성하는 레이블 맵 생성부와 상기 M개의 관절 좌표 중 제 1 관절 좌표와 상기 레이블 맵과의 이격 거리가 기 설정된 이격 거리 이하인 경우, 상기 레이블 맵을 상기 제 1 관절 좌표에 대응되는 제 1인체 레이블로 생성하고, 상기 M개의 모든 관절 좌표에 대해서 순차적으로 M개의 인체 레이블을 생성하고, 상기 M개의 인체 레이블로 구성된 인체 레이블 맵을 생성하고, 상기 M개의 관절 좌표와 상기 레이블 맵의 이격 거리가 기 설정된 이격 거리를 초과한 경우, 비인체 레이블 맵을 생성하고, 상기 인체 레이블 맵과 상기 비인체 레이블 맵으로 구성되는 제 2영상 정보를 생성하는 인체레이블 맵 생성부와, 상기 제 1영상정보를 N개의 패치로 분리하여 N개의 제 1영상정보패치를 생성하고, 상기 N개의 제 1영상정보패치로 구성되는 제 1패치 맵을 생성하고, 상기 제 2영상정보를 N개의 패치로 분리하여 N개의 제 2영상정보패치를 생성하고, 상기 N개의 제 2영상정보패치로 구성되는 제 2패치 맵을 생성하고, 상기 N개의 제 1영상정보패치 중 제 1영상정보패치를 A개의 서브패치로 분리하고, 상기 제 1영상정보패치와 대응되는 상기 A개의 서브패치로 구성된 제 1서브패치군을 생성하고, 상기 N개의 모든 제 1영상정보패치에 대해 순차적으로 상기 N개의 모든 제 1영상정보패치 각각에 대응되는 N개의 서브패치군을 생성하고, 상기 N개의 서브패치군으로 구성된 서브 패치 맵을 생성하여 서브 패치 맵을 생성하고, 상기 제 1서브패치군을 구성하는 A개의 서브패치 색상정보 값을 합산하여 평균 값을 계산하고, 상기 평균 값을 상기 A개의 서브패치의 색상정보 값으로 변경하고, 상기 변경된 색상정보 값이 반영된 A개의 서브패치로 구성된 제 1평균서브패치군을 생성하고, 상기 N개의 모든 서브패치군에 대해 순차적으로 N개의 평균서브패치군을 생성하고, 상기 N개의 평균서브패치군으로 구성된 평균서브 패치 맵을 생성하는 패치 맵 생성부를 포함하고, 상기 패치 맵 생성부는, 상기 평균서브 패치 맵을 구성하는 N개의 평균서브패치군 중 제 1평균서브패치군의 위치좌표가, 상기 인체 레이블 맵을 구성하는 패치들의 위치좌표 중 하나의 위치좌표와 동일한 위치 좌표인 경우에 한해, 상기 N개의 평균서브패치군이 포함된 평균서브 패치 맵 중 제 1평균서브패치군을 둘러싸고 있는 복수개의 제 1 인접평균서브패치군을 설정하고, 상기 제 1평균서브패치군의 제 1가중치와, 상기 제 1평균서브패치군과 상기 복수개의 인접평균서브패치군 간의 이격 거리에 비례하여 상기 복수개의 평균서브패치군의 제 2가중치를 설정하고, 상기 제 1평균서브패치군에 상기 제 1가중치가 반영된 제 1색상정보 값과, 상기 복수개의 인접평균서브패치군의 색상정보에 제 2가중치가 반영된 제 2색상정보 값의 평균 값을 반영하여 후면 색상정보 값을 생성하고, 상기 후면 색상정보 값이 반영된 제 1후면서브패치군을 생성하고, 상기 평균서브패치 맵을 구성하는 N개의 모든 평균서브패치군에 순차적으로 S개의 제 1후면서브패치군을 생성하고, 상기 평균서브 패치 맵을 구성하는 N개의 평균서브패치군 중 제 1평균서브패치군의 위치좌표가, 상기 인체 레이블 맵을 구성하는 패치들의 위치좌표 중 하나의 위치좌표와 동일한 위치 좌표가 아닌 경우, 상기 제 1평균서브패치군의 색상정보 값이 반영된 제 2후면서브패치군을 생성하고, 상기 평균서브패치 맵을 구성하는 N개의 모든 평균서브패치군에 순차적으로 T개의 제 2후면서브패치군을 생성하고, 상기 S개의 제 1후면서브패치군과, 상기 T개의 제 2후면서브패치군으로 구성되는 후면서브패치 맵을 생성하고, 상기 복수개의 제 1인접 평균서브패치군은, 상기 복수개의 제 1인접 평균서브패치군의 위치좌표가 상기 인체 레이블 맵을 구성하는 패치들의 위치좌표 중 하나의 위치좌표와 동일한 위치 좌표이고, 상기 제 1가중치는 상기 제 2가중치 보다 큰 값으로 설정되고, 상기 제 1가중치와 상기 복수개의 제 1 인접평균서브패치군에 설정된 제 2가중치들의 합이 1이고, 상기 제 1 가중치인 C는

Figure pat00004
이고, 상기 제 2 가중치인 w는
Figure pat00005
이고, 상기 제 1가중치와 상기 제 2가중치들의 상관 관계식인 W은
Figure pat00006
이고, 상기 Z는 상기 제 1평균서브패치군과, 상기 복수개의 제 1 인접평균서브패치군의 패치군수의 합이고, 상기 패치, 서브패치는 복수개의 픽셀로 구성되고, 상기 픽셀은 상기 픽셀의 주소 값, 상기 픽셀의 위치정보 및 상기 픽셀의 색상정보가 저장되어 있는 것을 특징으로 한다.In addition, the apparatus for extracting rear image information includes a human pose generator for generating human pose data composed of M joint coordinates from the first image information, a label map generator for generating a label map from the first image information, and the M When the separation distance between the first joint coordinate of the number of joint coordinates and the label map is less than or equal to the preset separation distance, the label map is generated as a first body label corresponding to the first joint coordinates, and all the M joint coordinates are generated. M body labels are sequentially generated for , a body label map composed of the M body labels is generated, and when the separation distance between the M joint coordinates and the label map exceeds a preset separation distance, the non-human body A body label map generating unit that generates a label map and generates second image information composed of the human body label map and the non-body label map, and N first images by dividing the first image information into N patches An information patch is generated, a first patch map composed of the N first image information patches is generated, the second image information is divided into N patches to generate N second image information patches, and the N second image information patches are generated. A second patch map composed of second image information patches is generated, the first image information patch among the N first image information patches is divided into A sub-patches, and the first image information patch corresponding to the first image information patch is generated. generating a first sub-patch group composed of A number of sub-patches, and sequentially generating N sub-patch groups corresponding to each of the N first image information patches; A sub-patch map is created by generating a sub-patch map composed of the N sub-patch groups, an average value is calculated by summing the color information values of the A number of sub-patches constituting the first sub-patch group, and the average value is calculated. The color information values of the A sub-patches are changed, and a first average sub-patch group composed of A sub-patches reflecting the changed color information values is generated, and N average sub-patch groups are sequentially generated for all N sub-patch groups. and a patch map generation unit generating sub-patch groups and generating an average sub-patch map composed of the N average sub-patch groups, wherein the patch map generation unit comprises the N average sub-patch groups constituting the average sub-patch map. An average sub-patch including the N average sub-patch groups, provided that the positional coordinates of the first average sub-patch group are the same as the positional coordinates of one of the positional coordinates of the patches constituting the body label map. In the map, a plurality of first adjacent average sub-patch groups surrounding the first average sub-patch group are set, and the first weight value of the first average sub-patch group and the first average sub-patch group and the plurality of adjacent averages are determined. A second weight of the plurality of average sub-patch groups is set in proportion to the separation distance between the sub-patch groups, the first color information value in which the first weight is reflected in the first average sub-patch group, and the average of the plurality of adjacent sub-patch groups A back color information value is created by reflecting the average value of the second color information values in which the second weight is reflected in the color information of the sub-patch group, and a first rear sub-patch group to which the rear color information value is reflected is generated, and the average value of the second color information value is reflected. In all N average sub-patch groups constituting the sub-patch map, S number of first secondary sub-patch groups are sequentially generated, and among the N average sub-patch groups constituting the average sub-patch map, the first average sub-patch group is selected. If the positional coordinates are not the same as the positional coordinates of one of the positional coordinates of the patches constituting the body label map, a second sub-patches group in which the color information value of the first average sub-patch group is reflected is generated; , T second rear subpatch groups are sequentially generated from all N average subpatch groups constituting the average subpatch map, the S first rear subpatch groups and the T second rear subpatch groups A back side subpatch map consisting of groups is generated, and the plurality of first adjacent average subpatch groups have positional coordinates of the plurality of first adjacent averaged subpatch groups among positional coordinates of patches constituting the body label map. position coordinates identical to one position coordinate, the first weight is set to a value greater than the second weight, and the sum of the first weight and the second weights set to the plurality of first adjacent average subpatches is 1 , and the first weight C is
Figure pat00004
, and the second weight w is
Figure pat00005
And W, which is the correlation between the first weight and the second weight, is
Figure pat00006
where Z is the sum of the first average sub-patch group and the number of patch groups of the plurality of first adjacent average sub-patch groups, the patches and sub-patches are composed of a plurality of pixels, and the pixels are It is characterized in that an address value, location information of the pixel, and color information of the pixel are stored.

본 발명은 입력된 전면 영상정보을 이용하여 후면 영상정보를 생성하는 방법 및 장치를 제공하여 전면 영상정보 기반 3D 입체영상을 제공하는 장점이 있다. The present invention has an advantage of providing a 3D stereoscopic image based on front image information by providing a method and apparatus for generating rear image information using input front image information.

또한, 본 발명은 입력된 전면 영상정보을 이용하여 후면 영상정보를 생성 시, 인체 레이블 맵을 적용하여 처리 연산량을 감소시키는 장점이 있다.In addition, the present invention has the advantage of reducing the amount of processing operation by applying a human body label map when generating rear image information using input front image information.

도 1은 본 발명에 따른 후면 영상정보를 생성하는 장치 및 시스템도이다.
도 2는 본 발명에 따른 후면 영상정보를 생성하는 방법을 나타내는 흐름도이다.
도 3은 본 발명에 따른 후면 영상정보를 생성하는 방법을 나타내는 개념도이다.
도 4는 본 발명에 일실시예에 따른 입력된 제 1영상정보를 이용하여 휴먼포즈 데이터를 생성하는 개념도이다.
도 5는 본 발명에 일실시예에 따른 입력된 제 1영상정보를 이용하여 휴먼포즈 데이터인 관절좌표에 대한 도면이다.
도 6은 본 발명에 일실시예에 따른 입력된 제 1영상정보를 이용하여 세그멘테이션하여 레이블 맵을 생성하는 개념도이다.
도 7은 본 발명에 일실시예에 따른 제 1영상정보와 제 2영상정보를 이용하여 패치 정보를 생성하는 세부 흐름도이다.
도 8은 본 발명에 일시예에 따른 인체 레이블 맵과 비인체 레이블 맵을 나타내는 일 예시도이다.
도 9는 본 발명에 일시예에 따른 제 1입력영상과, 제 2입력영상이 복수개의 패치들로 분리되고, 생성되는 후면 서브패치맵을 나타내는 개념도이다.
도 10은 본발명에 일시예에 따른 제 1입력영상의 분리된 제 1영상패치를 서브패치로 분리된 서브패치군을 나타내는 개념도이다.
도 11은 본발명에 일시예에 따른 서브패치군을 구성하는 서브패치의 픽셀 정보 및 평균 연산을 수행하여 제 1평균서브패치군을 생성하는 개념도이다.
도 12는 본발명에 일시예에 따른 제 1평균서브패치군과, 제 1인접평균서브패치군에 제 1 및 제 2 가중치를 부여하는 개념도이다.
도 13은 본발명에 일시예에 따른 제 1 및 제 2 가중치를 부여하여 후면서브패치 맵을 생성하는 개념도이다.
1 is a device and system diagram for generating rear image information according to the present invention.
2 is a flowchart illustrating a method of generating rear image information according to the present invention.
3 is a conceptual diagram illustrating a method of generating rear image information according to the present invention.
4 is a conceptual diagram of generating human pose data using input first image information according to an embodiment of the present invention.
5 is a diagram of joint coordinates that are human pose data using input first image information according to an embodiment of the present invention.
6 is a conceptual diagram of generating a label map by segmentation using input first image information according to an embodiment of the present invention.
7 is a detailed flowchart for generating patch information using first image information and second image information according to an embodiment of the present invention.
8 is an exemplary view showing a human body label map and a non-human body label map according to an embodiment of the present invention.
9 is a conceptual diagram illustrating a rear sub-patch map generated by dividing a first input image and a second input image into a plurality of patches according to an exemplary embodiment of the present invention.
10 is a conceptual diagram illustrating a sub-patch group in which a first image patch separated from a first input image is divided into sub-patches according to an example of the present invention.
11 is a conceptual diagram of generating a first average sub-patch group by performing an average operation and pixel information of sub-patches constituting a sub-patch group according to an example of the present invention.
12 is a conceptual diagram for assigning first and second weights to a first average sub-patch group and a first adjacent average sub-patch group according to an example of the present invention.
13 is a conceptual diagram of generating a rear subpatch map by applying first and second weights according to an exemplary embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예를 참조하면 명확해질 것이다. 그러나 본 발명은 여기서 설명되는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosed content will be thorough and complete and the spirit of the present invention will be sufficiently conveyed to those skilled in the art.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that it does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미가 있는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having meanings consistent with the meanings in the context of the related art, and unless explicitly defined in this application, they should not be interpreted in ideal or excessively formal meanings. don't

이하에서는 본 발명의 구체적인 실시예를 도면을 참조하여 상세히 설명하도록 한다.Hereinafter, specific embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명에 따른 후면 영상정보를 생성하는 장치 및 시스템도이다. 도 1을 참조하면, 본 발명에 따른 후면 영상정보를 생성하는 장치 또는 시스템은, 서버(100) 또는 단말(200), 서버(100) 및 단말(200)로 구성될 수 있다. 일반적으로는 서버(100)로 후면 영상정보를 생성하는 장치 및 시스템을 구성하는 것이 바람직하다. 1 is a device and system diagram for generating rear image information according to the present invention. Referring to FIG. 1 , an apparatus or system for generating rear image information according to the present invention may include a server 100 or a terminal 200, the server 100, and a terminal 200. In general, it is preferable to configure a device and system for generating rear image information with the server 100.

상기 서버(100)는 영상부(110), 휴먼포즈 생성부(120), 레이블 맵 생성부(130), 인체 레이블 맵 생성부(140), 패치 맵 생성부(150)를 포함하여 구성되고, 통신부(160)는 선택적으로 적용하여 구성할 수 있다. The server 100 includes an imaging unit 110, a human pose generator 120, a label map generator 130, a body label map generator 140, and a patch map generator 150, The communication unit 160 may be selectively applied and configured.

영상부(110)는 제 1영상정보를 촬영하여 생성한 후, 저장할 수 도 있고, 이미 저장되어 있는 영상정보를 저장할 수 도 있다. The imaging unit 110 may capture and generate the first image information and then store it, or store image information that has already been stored.

휴먼포즈 생성부(120)는 입력된 제 1영상정보로부터 M개의 관절 좌표로 구성된 휴먼포즈 데이터를 생성한다. The human pose generation unit 120 generates human pose data composed of M joint coordinates from the input first image information.

레이블 맵 생성부(130)는 상기 제 1영상정보로부터 레이블 맵을 생성한다. The label map generator 130 creates a label map from the first image information.

인체 레이블 맵 생성부(140)는 상기 M개의 관절 좌표 중 제 1 관절 좌표와 상기 레이블 맵과의 이격 거리가 기 설정된 이격 거리 이하인 경우, 상기 레이블 맵을 상기 제 1 관절 좌표에 대응되는 제 1인체 레이블로 생성하고, 상기 M개의 모든 관절 좌표에 대해서 순차적으로 M개의 인체 레이블을 생성하고, 상기 M개의 인체 레이블로 구성된 인체 레이블 맵을 생성하고, 상기 M개의 관절 좌표와 상기 레이블 맵의 이격 거리가 기 설정된 이격 거리를 초과한 경우, 비인체 레이블 맵을 생성하고, 상기 인체 레이블 맵과 상기 비인체 레이블 맵으로 구성되는 제 2영상 정보를 생성한다. The human body label map generator 140 converts the label map into a first human body corresponding to the first joint coordinates when a separation distance between a first joint coordinate of the M joint coordinates and the label map is equal to or less than a predetermined separation distance. labels, M body labels are sequentially generated for all the M joint coordinates, a body label map composed of the M body labels is created, and the separation distance between the M joint coordinates and the label map is When the predetermined separation distance is exceeded, a non-human label map is generated, and second image information composed of the human body label map and the non-human label map is generated.

패치 맵 생성부(150)는 상기 제 1영상정보를 N개의 패치로 분리하여 N개의 제 1영상정보패치를 생성하고, 상기 N개의 제 1영상정보패치로 구성되는 제 1패치 맵을 생성하고, 상기 제 2영상정보를 N개의 패치로 분리하여 N개의 제 2영상정보패치를 생성하고, 상기 N개의 제 2영상정보패치로 구성되는 제 2패치 맵을 생성하고, 상기 N개의 제 1영상정보패치 중 제 1영상정보패치를 A개의 서브패치로 분리하고, 상기 제 1영상정보패치와 대응되는 상기 A개의 서브패치로 구성된 제 1서브패치군을 생성하고, 상기 N개의 모든 제 1영상정보패치에 대해 순차적으로 상기 N개의 모든 제 1영상정보패치 각각에 대응되는 N개의 서브패치군을 생성하고, 상기 N개의 서브패치군으로 구성된 서브 패치 맵을 생성하여 서브 패치 맵을 생성하고, 상기 제 1서브패치군을 구성하는 A개의 서브패치 색상정보 값을 합산하여 평균 값을 계산하고, 상기 평균 값을 상기 A개의 서브패치의 색상정보 값으로 변경하고, 상기 변경된 색상정보 값이 반영된 A개의 서브패치로 구성된 제 1평균서브패치군을 생성하고, 상기 N개의 모든 서브패치군에 대해 순차적으로 N개의 평균서브패치군을 생성하고, 상기 N개의 평균서브패치군으로 구성된 평균서브 패치 맵을 생성한다. The patch map generating unit 150 separates the first image information into N patches to generate N patches of first image information, and generates a first patch map composed of the N patches of first image information; The second image information is divided into N patches to generate N second image information patches, a second patch map composed of the N second image information patches is generated, and the N first image information patches are generated. The first image information patch is divided into A number of sub-patches, a first sub-patch group composed of the A number of sub-patches corresponding to the first image information patch is generated, For each of the N first image information patches, N sub-patch groups corresponding to each of the N first image information patches are sequentially generated, a sub-patch map is generated by generating a sub-patch map composed of the N sub-patch groups, and the first sub-patch map is generated. An average value is calculated by summing the color information values of the A sub-patches constituting the patch group, the average value is changed to the color information value of the A sub-patches, and the A sub-patches to which the changed color information values are reflected A first average sub-patch group is generated, N average sub-patch groups are sequentially generated for all N sub-patch groups, and an average sub-patch map composed of the N average sub-patch groups is generated.

또한, 상기 패치 맵 생성부(150)는 상기 평균서브 패치 맵을 구성하는 N개의 평균서브패치군 중 제 1평균서브패치군의 위치좌표가, 상기 인체 레이블 맵을 구성하는 패치들의 위치좌표 중 하나의 위치좌표와 동일한 위치 좌표인 경우에 한해, 상기 N개의 평균서브패치군이 포함된 평균서브 패치 맵 중 제 1평균서브패치군을 둘러싸고 있는 복수개의 제 1 인접평균서브패치군을 설정하고, 상기 제 1평균서브패치군의 제 1가중치와, 상기 제 1평균서브패치군과 상기 복수개의 인접평균서브패치군 간의 이격 거리에 비례하여 상기 복수개의 평균서브패치군의 제 2가중치를 설정하고, 상기 제 1평균서브패치군에 상기 제 1가중치가 반영된 제 1색상정보 값과, 상기 복수개의 인접평균서브패치군의 색상정보에 제 2가중치가 반영된 제 2색상정보 값의 평균 값을 반영하여 후면 색상정보 값을 생성하고, 상기 후면 색상정보 값이 반영된 제 1후면서브패치군을 생성하고, 상기 평균서브패치 맵을 구성하는 N개의 모든 평균서브패치군에 순차적으로 S개의 제 1후면서브패치군을 생성하고, 상기 평균서브 패치 맵을 구성하는 N개의 평균서브패치군 중 제 1평균서브패치군의 위치좌표가, 상기 인체 레이블 맵을 구성하는 패치들의 위치좌표 중 하나의 위치좌표와 동일한 위치 좌표가 아닌 경우, 상기 제 1평균서브패치군의 색상정보 값이 반영된 제 2후면서브패치군을 생성하고, 상기 평균서브패치 맵을 구성하는 N개의 모든 평균서브패치군에 순차적으로 T개의 제 2후면서브패치군을 생성하고, 상기 S개의 제 1후면서브패치군과, 상기 T개의 제 2후면서브패치군으로 구성되는 후면서브패치 맵을 생성한다. In addition, the patch map generator 150 Only when the location coordinates of the first average sub-patch group among the N average sub-patch groups constituting the average sub-patch map are the same as the location coordinates of one of the location coordinates of the patches constituting the body label map. In the average sub-patch map including the N average sub-patch groups, a plurality of first adjacent average sub-patch groups surrounding the first average sub-patch group are set, and a first weight of the first average sub-patch group and , A second weight value of the plurality of average sub-patch groups is set in proportion to the separation distance between the first average sub-patch group and the plurality of adjacent average sub-patch groups, and the first weight value is applied to the first average sub-patch group. A back color information value is generated by reflecting the average value of the first color information value reflected and the second color information value in which the second weight is reflected in the color information of the plurality of adjacent average sub-patch groups, and the rear color information value A first rear sub-patch group reflected by this is generated, S number of first rear sub-patch groups are sequentially generated in all N average sub-patch groups constituting the average sub-patch map, and the average sub-patch map is constructed. If the position coordinates of the first average sub-patch group among the N average sub-patch groups are not the same as the position coordinates of one of the position coordinates of the patches constituting the body label map, the first average sub-patch group A second rear subpatch group in which the color information value is reflected is generated, T second rear subpatch groups are sequentially generated in all N average subpatch groups constituting the average subpatch map, and the S first subpatch groups are generated. A rear sub-sub patch map composed of a rear sub-sub patch group and the T second rear sub-sub patch groups is generated.

또한, 상기 패치 맵 생성부(150)는, 상기 복수개의 제 1인접 평균서브패치군의 위치좌표가 상기 인체 레이블 맵을 구성하는 패치들의 위치좌표 중 하나의 위치좌표와 동일한 위치 좌표인, 상기 복수개의 제 1인접 평균서브패치군을 설정한다. In addition, the patch map generating unit 150 is configured such that the positional coordinates of the plurality of first adjacent average sub-patch groups are the same as the positional coordinates of one of the positional coordinates of the patches constituting the body label map. A group of first adjacent average subpatches is set.

또한, 상기 패치 맵 생성부(150)는 상기 제 1가중치를 상기 제 2가중치 보다 큰 값으로 설정하고, 상기 제 1가중치와 상기 복수개의 제 1 인접평균서브패치군에 설정된 제 2가중치들의 합이 1로 설정하고, 상기 제 1 가중치인 C는

Figure pat00007
이고, 상기 제 2 가중치인 w는
Figure pat00008
이고, 상기 제 1가중치와 상기 제 2가중치들의 상관 관계식인 W은
Figure pat00009
이고, 상기 Z는 상기 제 1평균서브패치군과, 상기 복수개의 제 1 인접평균서브패치군의 패치군수의 합으로 설정한다. In addition, the patch map generator 150 sets the first weight to a value greater than the second weight, and the sum of the first weight and the second weights set in the plurality of first adjacent average subpatches is set to 1, and the first weight C is
Figure pat00007
, and the second weight w is
Figure pat00008
And W, which is the correlation between the first weight and the second weight, is
Figure pat00009
where Z is set as the sum of the first average sub-patch group and the number of patch groups of the plurality of first adjacent average sub-patch groups.

여기서, 상기 패치, 서브패치는 복수개의 픽셀로 구성되고, 상기 픽셀은 상기 픽셀의 주소 값, 상기 픽셀의 위치정보 및 상기 픽셀의 색상정보가 저장되어 있다. here, The patch and sub-patch are composed of a plurality of pixels, and each pixel stores the address value of the pixel, location information of the pixel, and color information of the pixel.

통신부(160)는 일반적인 통신 기술이 적용되고, 서버(200)와 단말(100)간 구성된 시스템에 한해서, 특정 정보를 전달하는 기능을 수행하고, 유선 또는 무선 통신을 이용할 수 있다. The communication unit 160 performs a function of transmitting specific information, and may use wired or wireless communication, limited to a system in which a general communication technology is applied and configured between the server 200 and the terminal 100.

여기서, 특정정보는 제 1영상정보, 제 2영상정보, 제 1패치 맵, 제 2패치 맵, 후면 패치 맵 등 데이터를 의미한다. Here, the specific information means data such as first image information, second image information, first patch map, second patch map, and rear patch map.

단말(200)도 서버(100)와 동일한 구성으로 되어 있어, 이에 대한 기재를 생략한다. 상기 서버(100)의 구체적인 동작 관련 설명은 후술하기로 한다. Since the terminal 200 has the same configuration as the server 100, description thereof is omitted. A detailed description of the operation of the server 100 will be described later.

도 2는 본 발명에 따른 후면 영상정보를 생성하는 방법을 나타내는 흐름도이다. 도 3은 본 발명에 따른 후면 영상정보를 생성하는 방법을 나타내는 개념도이다. 도 2 및 도3을 참조하면, 제 1영상정보를 이용하여 휴먼포즈 데이터를 생성하는 단계(S210), 상기 제 1영상정보를 이용하여 레이블 맵 데이터를 생성하는 단계(S220), 상기 휴먼포즈 데이터를 이용하여 상기 인체 레이블 맵을 생성하는 단계(S230), 상기 인체 레이블 맵 및 비인체 레이블 맵을 이용하여 제 2영상정보를 생성하는 단계(S240), 상기 제 1영상정보와 상기 제 2영상정보를 이용하여 패치 정보를 생성하는 단계(S250) 및 상기 패치 정보를 이용하여 후면 영상정보 생성하는 단계(S260)를 포함하여 구성될 수 있다. 2 is a flowchart illustrating a method of generating rear image information according to the present invention. 3 is a conceptual diagram illustrating a method of generating rear image information according to the present invention. 2 and 3, generating human pose data using first image information (S210), generating label map data using the first image information (S220), and the human pose data Generating the body label map using (S230), generating second image information using the human body label map and non-body label map (S240), the first image information and the second image information It may be configured to include generating patch information using patch information (S250) and generating back image information using the patch information (S260).

제 1영상정보를 이용하여 휴먼포즈 데이터를 생성하는 단계(S210)는, 단말(200) 또는 서버(100)내 영상부(110, 210)가 카메라로부터 획득된 영상을 제 1영상정보 또는 상기 단말(200) 또는 서버(100) 내에 저장되어 있는 제 1영상정보를 이용하여 휴먼포즈 데이터를 생성한다. In the step of generating human pose data using the first image information (S210), the image unit 110 or 210 in the terminal 200 or the server 100 converts the image acquired from the camera into the first image information or the terminal 200 or the first image information stored in the server 100 is used to generate human pose data.

상기 제 1영상정보는, 일반적으로 데이터를 저장하는 파일형식인 JPG 파일 등 다양한 형태로 영상 또는 이미지를 저장하는 데이터 또는 데이터 파일을 의미한다. 또한, 상기 제 1영상정보는, 상기 제 1영상정보 내에 인체 관련 정보를 포함하는 이미지 영상을 포함할 수 있고, 특히, 상기 인체 관련 정보는 전면 영상을 포함하고, 후면 영상을 포함하지 않을 수 도 있고, 반대로 후면 영상을 포함하고, 전면 영상을 포함하지 않을 수도 있다.The first image information generally refers to data or data files that store video or images in various formats such as a JPG file, which is a file format for storing data. In addition, the first image information may include an image image including human body related information in the first image information, and in particular, the human body related information may include a front image and may not include a rear image. Conversely, it may include a rear image and may not include a front image.

도 4는 본 발명에 일실시예에 따른 입력된 제 1영상정보를 이용하여 휴먼포즈 데이터를 생성하는 개념도이다. 도 4를 참조하면, 휴먼포즈 생성부(120, 220)는 상기 제 1영상정보를 이용하여 휴먼포즈 데이터를 생성한다. 4 is a conceptual diagram of generating human pose data using input first image information according to an embodiment of the present invention. Referring to FIG. 4 , the human pose generators 120 and 220 generate human pose data using the first image information.

공지의 휴먼포즈 생성 알고리즘을 이용하고, 상기 공지의 휴먼포즈 생성 알고리즘이 적용되어, 심층신경망의 한 종류인 합성곱 신경망(CNN, Convolutional Neural Network)을 이용하여 반복 학습하여 최종적으로 휴먼포즈 백터 맵을 생성한다. 여기서, 상기 합성곱 신경망(CNN, Convolutional Neural Network)은 상기 제 1영상정보에 저장되어 있는 인체 관련 정보를 추출하고, 상기 추출된 인체정보를 이용하여 각 인체 관절의 좌표를 출력하고, 상기 출력된 인체의 관절 좌표 중 예측 정확도가 높은 좌표를 선택해서 2차원 관절 좌표를 설정한다. 이후, 상기 2차원 관절 좌표를 이용하여 3차원 관절 좌표를 생성하는데, 3차원 표준 인체 메쉬 데이터 모델(SMPL, Skinned Multi-Person Linear Model)을 이용하여, 상기 2차원 관절 좌표를 상기 3차원 표준 인체 메쉬 데이터 모델에 적용하여 매칭된 3차원 관절좌표, 즉, 휴먼포즈 백터 맵을 생성한다. Using a known human pose generation algorithm, the known human pose generation algorithm is applied, and iteratively learns using a Convolutional Neural Network (CNN), a type of deep neural network, and finally a human pose vector map generate Here, the convolutional neural network (CNN) extracts human body-related information stored in the first image information, outputs the coordinates of each human body joint using the extracted human body information, and outputs the output Among the joint coordinates of the human body, the coordinates with high predictive accuracy are selected to set the 2D joint coordinates. Then, 3D joint coordinates are generated using the 2D joint coordinates. Using a 3D standard human body mesh data model (SMPL, Skinned Multi-Person Linear Model), the 2D joint coordinates are converted to the 3D standard human body. It is applied to the mesh data model to generate matched 3D joint coordinates, that is, a human pose vector map.

여기서, 일반적으로 휴먼포즈의 의미는, 입력된 원본 이미지 상에서 검출된 사람에 대해 코, 팔꿈치, 발목 등의 지정된 개수의 관절과 각각의 이미지 좌표 체계 상에서의 3차원 좌표 벡터를 의미하고, 상기 좌표는 0~1 사이의 값으로 정규화 되어 있는 공지된 기술이다. 여기서, 상기 생성된 휴먼포즈 백터 맵은 도 4를 참조한다.Here, the human pose generally means a designated number of joints such as nose, elbow, ankle, etc. for a person detected on an input original image and a 3D coordinate vector on each image coordinate system, and the coordinates are It is a known technique that is normalized to a value between 0 and 1. Here, the generated human pose vector map refers to FIG. 4 .

도 5는 본 발명에 일실시예에 따른 입력된 제 1영상정보를 이용하여 휴먼포즈 데이터인 관절좌표에 대한 도면이다. 도 5를 참조하면, 일 실시예로, 상기 휴먼포즈 데이터는 23개의 관절좌표로 구성되고, 각각의 관절좌표에는 명칭 및 고유번호가 부여되어, 이후 인체 레이블 맵을 생성시, 상기 관절좌표가 이용될 수 있다. 상기 관절좌표는 필요에 따라 임의로 설정될 수 있다. 또한, 필요에 따라, 3차원 좌표인 휴먼포즈 백터 맵을 이용할 수 있다.5 is a diagram of joint coordinates that are human pose data using input first image information according to an embodiment of the present invention. Referring to FIG. 5 , in one embodiment, the human pose data is composed of 23 joint coordinates, each joint coordinate is given a name and a unique number, and the joint coordinates are used when a human body label map is created thereafter. It can be. The joint coordinates may be arbitrarily set as needed. Also, if necessary, a human pose vector map, which is a 3D coordinate, can be used.

도 6은 본 발명에 일실시예에 따른 입력된 제 1영상정보를 이용하여 세그멘테이션하여 레이블 맵을 생성하는 개념도이다. 도 6을 참조하면, 휴먼포즈 생성부(120, 220)가 상기 제 1 영상정보를 이용하여 휴먼포즈 데이터를 생성하면, 레이블 맵 생성부(130, 230)는 상기 제 1영상정보를 이용하여 레이블 맵 데이터를 생성하는 단계(S220)를 수행한다. 6 is a conceptual diagram of generating a label map by segmentation using input first image information according to an embodiment of the present invention. Referring to FIG. 6 , when the human pose generators 120 and 220 generate human pose data using the first image information, the label map generators 130 and 230 use the first image information to create labels. A step of generating map data (S220) is performed.

일반적으로 세그멘테이션(Semantic Image Segmentation)의 의미는 영상정보 상에서 인체정보를 검출하고, 검출된 인체정보가 존재하는 픽셀을 참(True)으로, 검출된 인체정보가 존재하지 않는 픽셀을 거짓(False)으로 픽셀 값을 지정하여 원본과 같은 크기로 레이블 맵(Label Map)을 구성하는 기술을 의미한다. In general, the meaning of segmentation (Semantic Image Segmentation) is to detect human body information on image information, and set pixels with detected human body information as True, and pixels without detected human body information as False. It refers to a technique of constructing a label map with the same size as the original by specifying pixel values.

공지의 레이블 맵 생성 알고리즘을 이용하고, 상기 공지의 레이블 맵생성 알고리즘이 적용되어, 심층신경망의 한 종류인 합성곱 신경망(CNN, Convolutional Neural Network)을 이용하여 반복 학습하여 최종적으로 레이블 맵을 생성한다. A known label map generation algorithm is used, the known label map generation algorithm is applied, and a convolutional neural network (CNN), which is a type of deep neural network, is used for repeated learning to finally generate a label map. .

여기서, 레이블 맵 추출방법은 상기 레이블 맵이 상기 영상 정보의 이미지 크기와 동일한 이미지 크기로 설정하고, 일반적인 RGB 채널이 아닌 흑백 채널을 사용하여 0~255의 값을 사용하도록 설정한다. Here, in the label map extraction method, the label map is set to the same image size as the image size of the image information, and a value of 0 to 255 is set using a black-and-white channel instead of a general RGB channel.

상기 영상정보 중 인체정보에 해당되는 픽셀은 255로 설정하고, 상기 영상정보 중 인체정보에 해당되지 않는 픽셀은 0으로 설정하여 레이블 맵을 생성하고, 저장한다. A pixel corresponding to human body information among the image information is set to 255, and a pixel not corresponding to human body information among the image information is set to 0 to create and store a label map.

상기 레이블 맵 추출방법을 합성곱 신경망(CNN, Convolutional Neural Network)에 적용하여, 인체 영역에 해당되는 픽셀의 정보만 분리하여 레이블 맵을 추출하도록 반복하여 학습한다. 상기 추출된 레이블 맵은 상기 전달된 영상정보와 비교해 데이터 크기가 작아진다. By applying the label map extraction method to a convolutional neural network (CNN), it is repeatedly learned to extract a label map by isolating only pixel information corresponding to the human body region. The data size of the extracted label map is reduced compared to the transmitted image information.

이러한 데이터 손실을 보상하기 위해, 공지의 합성곱 신경망(인코더-디코더 구조로 합성곱 신경망)을 적용하여 최종적으로 레이블 맵을 생성한다. 여기서, 세그멘테이션 결과 레이블 맵은 도 6을 참조한다.To compensate for this data loss, a label map is finally generated by applying a known convolutional neural network (convolutional neural network with an encoder-decoder structure). Here, the segmentation result label map is referred to FIG. 6 .

레이블 맵 생성부(130, 230)가 상기 제 1영상정보를 이용하여 레이블 맵 데이터를 생성한 이후, 인체 레이블 맵 생성부(140,240)은 상기 휴먼포즈 데이터를 이용하여 상기 인체 레이블 맵을 생성하는 단계(S230)를 수행한다. After the label map generator (130, 230) generates label map data using the first image information, the human body label map generator (140, 240) generates the human body label map using the human pose data. (S230) is performed.

도 8은 본 발명에 일시예에 따른 인체 레이블 맵과 비인체 레이블 맵을 나타내는 일 예시도이다.8 is an exemplary view showing a human body label map and a non-human body label map according to an embodiment of the present invention.

도 5 및 도 8을 참조하여 기술하면, 인체 레이블 맵 생성부(140,240)는 상기 휴먼데이터의 관절 좌표와, 상기 레이블 맵과의 거리를 측정하고, 상기 측정된 거리가 기 설정된 거리보다 작은 경우, 해당 관절좌표와 대응되는 레이블을 인체 레이블로 설정한다. 5 and 8, the human body label map generators 140 and 240 measure the distance between the joint coordinates of the human data and the label map, and if the measured distance is smaller than a preset distance, Set the label corresponding to the corresponding joint coordinates as the human body label.

여기서, 인체 레이블 맵 생성부(140,240)는 기 설정된 거리는 임의로 설정할 수 있으며, 상기 설정 값에 따라 인체 레이블 수 변경 될 수 있다. 여기서는, 기 설정된 거리는 관절좌표에 대응되는 인체 레이블 수가 결정될 수 있도록 설정하는 것이 바람직하다. Here, the body label map generators 140 and 240 may arbitrarily set a predetermined distance, and the number of body labels may be changed according to the set value. Here, it is preferable to set the predetermined distance so that the number of body labels corresponding to joint coordinates can be determined.

또한, 관절좌표가 H개로 구성된 경우, H개의 관절좌표에 대해서, 상기 각각의 관절좌표와, 상기 레이블 맵과의 거리를 측정하고, 상기 측정된 거리가 기 설정된 거리보다 작은 경우, 해당 관절좌표와 대응되는 레이블을 인체 레이블로 설정하고, 이를 순차적으로 반복 수행하여 H개의 인체 레이블을 생성하고, 상기 생성된 H개의 인체 레이블로 구성된 인체 레이블 맵(810)을 생성한다.In addition, when the joint coordinates are composed of H pieces, the distance between each of the joint coordinates and the label map is measured for the H number of joint coordinates, and when the measured distance is smaller than the preset distance, the corresponding joint coordinates and Corresponding labels are set as human body labels, and H body labels are generated by sequentially and repeatedly performed, and a body label map 810 composed of the generated H body labels is generated.

여기서, 상기 거리는 일반적인 거리특정 용어인, 유클리디안 거리(Euclidean distance)를 의미한다. Here, the distance means a general distance specific term, Euclidean distance.

또한, 앞에서 기술된 상기 휴먼데이터인 관절 좌표가 23개인 경우에 이에 대응되는 23개의 인체 레이블이 생성된다. 즉, H개의 관절좌표가 이용될 경우, H개의 인체 레이블이 생성되고, 생성된 H개의 인체 레이블로 구성되는 인체 레이블 맵(810)이 생성된다. In addition, when there are 23 joint coordinates, which are the human data described above, 23 human body labels corresponding thereto are generated. That is, when H number of joint coordinates are used, H number of body labels are generated, and a body label map 810 composed of the generated H number of body labels is generated.

인체 레이블 맵 생성부(140,240)가 인체 레이블 맵이 생성된 이후, 상기 인체 레이블 맵 및 비인체 레이블 맵을 이용하여 제 2영상정보를 생성하는 단계(S240)를 수행한다. After the body label map is generated, the body label map generators 140 and 240 generate second image information using the body label map and the non-body label map (S240).

여기서, 비인체 레이블 맵(820)은 상기 관절 좌표와 기설정된 거리보다 큰 경우에 해당하는 영역을 의미한다. Here, the non-body label map 820 means a region corresponding to a case where the joint coordinates and a predetermined distance are greater than each other.

여기서, 기설정된 거리는 임의로 설정될 수 있다.Here, the preset distance may be arbitrarily set.

즉, 제 2 영상정보는 제 1영상정보의 인체영역에 해당되는 인체 레이블 맵(810)과, 상기 제 1영상정보의 인체영역에 해당되지 않는 비인체 레이블 맵(820)으로 구성된다. That is, the second image information is composed of a human body label map 810 corresponding to the human body region of the first image information and a non-body label map 820 not corresponding to the human body region of the first image information.

상기 제 2영상정보가 생성된 이후, 패치 맵 생성부(150,250)는 상기 제 1영상정보와 상기 제 2영상정보를 이용하여 패치 정보를 생성하는 단계(S250)를 수행한다. After the second image information is generated, the patch map generators 150 and 250 generate patch information using the first image information and the second image information (S250).

도 7은 본 발명에 일실시예에 따른 제 1영상정보와 제 2영상정보를 이용하여 패치 정보를 생성하는 세부 흐름도이다. 도 7을 참조하면, 상기 제 1영상정보를 특정단위로 분리하여 제 1패치 맵을 생성하는 단계(S710)와, 상기 제 2영상정보를 특정단위로 분리하여 제 2패치 맵을 생성하는 단계(S720) 및 상기 제 1패치 맵, 상기 제 2패치 맵을 이용하여 후면 패치 맵 생성하는 단계(S730)를 포함한다. 7 is a detailed flowchart for generating patch information using first image information and second image information according to an embodiment of the present invention. Referring to FIG. 7, generating a first patch map by dividing the first image information into specific units (S710), and generating a second patch map by dividing the second image information into specific units (S710). S720) and generating a rear patch map using the first patch map and the second patch map (S730).

먼저, 상기 패치 맵 생성부(150,250)는 상기 제 1영상정보를 특정단위로 분리하여 제 1패치 맵을 생성하는 단계(S710)를 수행한다. First, the patch map generators 150 and 250 generate a first patch map by dividing the first image information into specific units (S710).

도 9는 본 발명에 일시예에 따른 제 1입력영상과, 제 2입력영상이 복수개의 패치들로 분리되고, 생성되는 후면 서브패치맵을 나타내는 개념도이다. 도 10은 본발명에 일시예에 따른 제 1입력영상의 분리된 제 1영상패치를 서브패치로 분리된 서브패치군을 나타내는 개념도이다. 9 is a conceptual diagram illustrating a rear sub-patch map generated by dividing a first input image and a second input image into a plurality of patches according to an exemplary embodiment of the present invention. 10 is a conceptual diagram illustrating a sub-patch group in which a first image patch separated from a first input image is divided into sub-patches according to an example of the present invention.

도 9 및 도 10을 참조하여, 상기 분리된 특정단위인 패치 및 서브 패치에 관해 기술한다. Referring to FIGS. 9 and 10, a patch and a sub-patch, which are the separated specific units, will be described.

도9를 참조하면, 패치 맵 생성부(150, 250)는 상기 제 1영상정보를 N개의 패치로 분리하여 N개의 제 1영상정보패치를 생성하고, 상기 N개의 제 1영상정보패치로 구성되는 제 1패치 맵을 생성한다. Referring to FIG. 9, the patch map generators 150 and 250 divide the first image information into N patches to generate N first image information patches, Create the first patch map.

여기서, 패치 맵 생성부(150, 250)는 P와 Q를 임의로 설정할 수 있고, P와 Q를 동일하게 또는 다르게 설정할 수 있다. 일반적으로 영상이미지는 각각의 픽셀 단위로 표현되고, 저장되는 구조이어서, P*Q=N개로 분리된 패치도 픽셀 단위로 저장되는 바, 이에 대해서는 공지의 기술이 적용되어 구체적인 기재는 생략한다. Here, the patch map generators 150 and 250 may arbitrarily set P and Q, and may set P and Q identically or differently. In general, since a video image is expressed and stored in units of pixels, a patch separated into P*Q=N pieces is also stored in units of pixels. A known technique is applied to this and detailed description thereof will be omitted.

상기 패치 맵 생성부(150, 250)는 상기 제 1영상정보를 분리하여, (1,1)으로 표현되는 제 1패치부터, (P,Q)으로 표현되는 P*Q의 패치를 생성하고, 상기 생성된 P*Q개, 즉, N개의 제 1영상정보패치를 제 1패치 맵으로 규정하여 용어를 정의한다. The patch map generator (150, 250) separates the first image information and generates P*Q patches expressed as (P, Q) from the first patch expressed as (1,1), A term is defined by defining the generated P*Q, that is, N, first image information patches as a first patch map.

또한, 상기 패치 맵 생성부(150, 250)는 상기 제 2영상정보를 N개의 패치로 분리하여 N개의 제 2영상정보패치를 생성하고, 상기 N개의 제 2영상정보패치로 구성되는 제 2패치 맵을 생성한다. In addition, the patch map generator 150, 250 separates the second image information into N patches to generate N second image information patches, and the second patch composed of the N second image information patches create a map

상기 패치 맵 생성부(150, 250)는 상기 제 2영상정보를 분리하여, (1,1)으로 표현되는 제 1패치부터, (P,Q)으로 표현되는 P*Q의 패치를 생성하고, 상기 생성된 P*Q개, 즉, N개의 제 2영상정보패치를 제 2패치 맵으로 규정하여 용어를 정의한다. The patch map generator (150, 250) separates the second image information and generates a patch of P*Q represented by (P, Q) from the first patch represented by (1, 1), A term is defined by defining the generated P*Q, that is, N, second image information patches as a second patch map.

여기서, 패치 맵 생성부(150, 250)는 P와 Q를 임의로 설정할 수 있고, P와 Q를 동일하게 또는 다르게 설정할 수 있다. 일반적으로 영상이미지는 각각의 픽셀 단위로 표현되고, 저장되고 구조이어서, N개로 분리된 패치도 픽셀 단위로 저장되는 바, 이에 대해서는 공지의 기술이 적용되어 구체적인 기재는 생략한다. Here, the patch map generators 150 and 250 may arbitrarily set P and Q, and may set P and Q identically or differently. In general, a video image is expressed, stored, and structured in units of each pixel, and patches separated into N pieces are also stored in units of pixels. A known technique is applied to this, and detailed description thereof will be omitted.

여기서, 상기 픽셀은 공지로 기술된 기술 용어이고, 본 발명에 필요한 범위 내에서 해당 픽셀의 정보에 저장된 정보에 대해 기술한다. 상기 픽셀은 일정정보를 저장하고 있고, 해당 정보를 색상 및 밝기 등으로 표현한다. 상기 일정 정보는 상기 픽셀의 주소 값, 상기 픽셀의 주소 값에 대응되는 위치정보와 색상정보를 포함할 수 있다. 상기 위치정보는 상기 픽셀의 위치한 위치좌표정보를 포함하고, 상기 색상정보는 공지기술인 색상정보 표시 형식 인 RGB 값으로 구성되고, RGB 각각의 값은 0~255 범위로 설정하여 사용될 수 있다.Here, the pixel is a well-known technical term, and the information stored in the pixel information is described within the scope required for the present invention. The pixel stores certain information and expresses the information in terms of color and brightness. The schedule information may include an address value of the pixel, location information corresponding to the address value of the pixel, and color information. The location information includes location coordinate information of the pixel, and the color information is composed of RGB values, which is a color information display format that is a known technology, and each value of RGB may be set in the range of 0 to 255 and used.

여기서, 상기 제 1패치 맵의 (1,1) 제 1영상정보패치와, 상기 제 2패치 맵의 (1,1) 제 2영상정보패치를 1:1로 매핑하는 것을 동기화로 표현하고, 상기 제 1패치 맵의 (1,2) 제 1영상정보패치와, 상기 제 2패치 맵의 (1,2) 제 1영상정보패치를 1:1로 매핑하고, 순차적으로 상기 제 1패치 맵의 (P,Q)인 제 1영상정보패치와, 상기 제 2패치 맵의 (P,Q)인 제 2영상정보패치를 1:1로 매핑하여, 상기 제 1패치 맵과 상기 제 2패치 맵의 각각의 구성 패치를 매핑하여 동기화를 수행한다.Here, mapping the (1,1) first image information patch of the first patch map and the (1,1) second image information patch of the second patch map in a 1:1 manner is expressed as synchronization. The (1,2) first image information patch of the first patch map and the (1,2) first image information patch of the second patch map are mapped 1:1, and sequentially the first patch map ( The first image information patch of P, Q) and the second image information patch of (P, Q) of the second patch map are mapped 1:1, and the first patch map and the second patch map are respectively Synchronization is performed by mapping the configuration patch of

여기서, 상기 제 1패치 맵을 구성하는 N개의 제 1영상정보패치와 제 2패치 맵을 구성하는 N개의 제 2영상정보패치의 동기화를 위해, 각각의 패치를 구성하는 위치좌표를 이용할 수 있고, 상기 동기화된 제 1영상정보패치와, 상기 제 2영상정보패치는 동일한 위치좌표를 가지고 매핑되어 동기화 된다. 이로 인해, 상기 제 1패치 맵을 구성하는 N개의 제 1영상정보패치와 제 2패치 맵을 구성하는 N개의 제 2영상정보패치 각각은 동일한 위치정보를 저장하고 있다. Here, for synchronization of N first image information patches constituting the first patch map and N second image information patches constituting the second patch map, position coordinates constituting each patch may be used, The synchronized first image information patch and the second image information patch are mapped with the same location coordinates and synchronized. Accordingly, the N first image information patches constituting the first patch map and the N second image information patches constituting the second patch map each store the same location information.

여기서, 상기 제 1패치 맵을 구성하는 N개의 제 1영상정보패치는 N개의 서브패치군으로 구성된다.Here, the N first image information patches constituting the first patch map are composed of N sub-patch groups.

상기 서브 패치는 한 개 또는 복수 개의 픽셀로 구성된다. The sub-patch is composed of one or a plurality of pixels.

여기서, 상기 픽셀은 공지로 기술된 기술 용어이고, 본 발명에 필요한 범위 내에서 해당 픽셀의 정보에 저장된 정보에 대해 기술한다. 상기 픽셀은 일정정보를 저장하고 있고, 해당 정보를 색상 및 밝기 등으로 표현한다. 상기 일정 정보는 상기 픽셀의 주소 값, 상기 픽셀의 주소 값에 대응되는 위치정보와 색상정보를 포함할 수 있다. 상기 위치정보는 상기 픽셀의 위치한 위치좌표정보를 포함하고, 상기 색상정보는 공지기술인 색상정보 표시 형식 인 RGB 값으로 구성되고, RGB 각각의 값은 0~255 범위로 설정하여 사용될 수 있다. Here, the pixel is a well-known technical term, and the information stored in the pixel information is described within the scope required for the present invention. The pixel stores certain information and expresses the information in terms of color and brightness. The schedule information may include an address value of the pixel, location information corresponding to the address value of the pixel, and color information. The location information includes location coordinate information of the pixel, and the color information is composed of RGB values, which is a color information display format that is a known technology, and each value of RGB may be set in the range of 0 to 255 and used.

상기 서브 패치는 상기 픽셀을 J개로 구성되고, 상기 J개는 임의로 설정될 수 있다. 바람직하게는 J=4로 설정할 수 있으나, 이에 한정되지 않는다. 또한, 상기 패치는 상기 서브패치 K개로 구성될 수 있고, 상기 K개는 임의로 설정될 수 있다. 바람직하게는 K=4로 설정할 수 있으나, 이에 한정되지 않는다. 여기서, 상기 서브 패치를 구성하는 특정단위는, J개로 구성된 픽셀을 의미하고, 상기 패치를 구성하는 특정단위는, K개로 구성된 서브패치를 의미한다.The sub-patch is composed of J pixels, and the J number may be arbitrarily set. Preferably, it can be set to J = 4, but is not limited thereto. Also, the patch may be composed of K sub-patches, and the K number may be arbitrarily set. Preferably, K = 4 may be set, but is not limited thereto. Here, the specific unit constituting the sub-patch means a pixel composed of J pieces, and the specific unit constituting the patch means a sub-patch composed of K pieces.

다시, 상기 제 1영상정보를 특정단위로 분리하여 제 1패치 맵을 생성하는 단계(S710)를 기재하면, 상기 패치 맵 생성부(150, 250)는 상기 제 1영상정보를 N개의 패치로 분리하여 N개의 제 1영상정보패치를 생성하고, 상기 N개의 제 1영상정보패치로 구성되는 제 1패치 맵을 생성한다. Again, referring to the step of generating a first patch map by dividing the first image information into specific units (S710), the patch map generator 150, 250 separates the first image information into N patches. Thus, N first image information patches are generated, and a first patch map composed of the N first image information patches is generated.

또한, 상기 제 1영상정보패치는 A개의 서브패치로 분리하고, 상기 제 1영상정보패치와 대응되는 상기 A개의 서브패치로 구성된 서브패치군을 생성한다. In addition, the first image information patch is divided into A number of sub-patches, and a sub-patch group composed of the A number of sub-patches corresponding to the first image information patch is generated.

또한, 상기 N개의 모든 제 1영상정보패치에 대해 순차적으로 A개의 서브패치로 분리하고, 상기 N개의 모든 제 1영상정보패치 각각에 대응되는 N개의 서브패치군을 생성하고, 상기 N개의 서브패치군으로 구성된 서브 패치 맵을 생성한다. In addition, all the N first image information patches are sequentially divided into A sub-patches, N sub-patch groups corresponding to each of the N first image information patches are generated, and the N sub-patches Create a sub-patch map composed of groups.

여기서, 상기 서브 패치맵을 구성하는 N개의 서브패치군과, 상기 제 1패치 맵을 구성하는 N개의 제 1영상정보패치는, 앞에서 기재된 복수개의 픽셀들로 구성되고, 상기 픽셀의 저장정보인 주소 값, 상기 픽셀의 주소 값에 대응되는 위치정보와 색상정보도 함께 저장된다. Here, the N sub-patch groups constituting the sub-patch map and the N first image information patches constituting the first patch map are composed of the plurality of pixels described above, and the addresses that are storage information of the pixels Value, location information and color information corresponding to the address value of the pixel are also stored.

상기 서브 패치 맵이 생성된 이후, 상기 제 1서브패치군을 구성하는 A개 서브패치의 색상정보 값을 합산하여 평균 값을 계산하고, 상기 평균 값을 상기 A개의 서브패치의 색상정보 값으로 변경하고, 상기 변경된 색상정보 값이 반영된 A개의 서브패치로 구성되어 제 1평균서브패치군을 생성한다. After the sub-patch map is generated, an average value is calculated by summing the color information values of the A sub-patches constituting the first sub-patch group, and the average value is changed to the color information value of the A sub-patches. and a first average sub-patch group composed of A sub-patches in which the changed color information values are reflected.

또한, 상기 A개의 서브패치 색상정보 값을 합산하여 평균 값을 계산하고, 상기 평균 값을 상기 A개의 서브패치의 색상정보 값으로 변경하고, 상기 변경된 색상정보 값이 반영된 A개의 서브패치로 구성되어 제 1평균서브패치군을 생성하는 과정을, 상기 N개의 모든 서브패치군에 대해 순차적으로 수행하여, N개의 평균서브패치군을 생성하고, 상기 N개의 평균서브패치군으로 구성된 평균서브 패치 맵을 생성한다. In addition, the average value is calculated by summing the color information values of the A number of sub-patches, the average value is changed to the color information value of the A number of sub-patches, and the A number of sub-patches reflecting the changed color information values are configured. The process of generating the first average sub-patch group is sequentially performed on all the N sub-patch groups to generate N average sub-patch groups, and an average sub-patch map composed of the N average sub-patch groups is obtained. generate

도 11은 본발명에 일시예에 따른 서브패치군을 구성하는 서브패치의 픽셀 정보 및 평균 연산을 수행하여 제 1평균서브패치군을 생성하는 개념도이다. 11 is a conceptual diagram of generating a first average sub-patch group by performing an average operation and pixel information of sub-patches constituting a sub-patch group according to an example of the present invention.

도 11을 참조하면, 1개의 패치가 4개의 서브패치로 구성되고, 상기 서브패치가 4개의 픽셀로 구성된 일 실시예이다. Referring to FIG. 11, one patch is composed of 4 sub-patches, and the sub-patch is composed of 4 pixels.

여기서, 앞서 기재된 바와 같이, 하나의 픽셀은 RGB 형태의 3가지 색상정보를 포함하고 있으며, 각각의 표현 값은 0 ~ 255까지 자연수로 표현된다. 상기 서브패치1을 구성하는 4개 픽셀은 색상정보가 기재되어 있고, 상기 서브패치 2 내지 4를 각각 구성하는 4개의 픽셀은 색상정보 기재되어 있다. 이들 각각의 색상정보를 합산 및 평균 연산을 수행하여, 제 1평균 서브패치군을 생성하고, 상기 생성된 제 1 평균 서브 패치군에는 합산 및 평균 연산이 수행된 색상정보가 반영된다. Here, as described above, one pixel includes three types of color information in RGB form, and each expression value is expressed as a natural number from 0 to 255. Four pixels constituting sub-patch 1 have color information described therein, and color information is described for four pixels constituting sub-patches 2 to 4, respectively. A first average sub-patch group is generated by summing and averaging each color information, and the color information for which the sum and average operations have been performed is reflected in the generated first average sub-patch group.

앞에서 기술된 바와 같이, 서브 패치는 임의개의 픽셀로 설정할 수 있고, 제 1 패치도 임의개의 서브패치로 설정할 수 있다. As described above, the sub-patch can be set to any number of pixels, and the first patch can also be set to any number of sub-patches.

상기 패치 맵 생성부(150, 250)는 상기 제 1영상정보를 특정단위로 분리하여 제 1패치 맵을 생성하면, 상기 패치 맵 생성부(150, 250)는 상기 제 2영상정보를 특정단위로 분리하여 제 2패치 맵을 생성하는 단계(S720)를 수행한다. When the patch map generator (150, 250) generates a first patch map by dividing the first image information into specific units, the patch map generator (150, 250) divides the second image information into specific units. A step of separating and generating a second patch map (S720) is performed.

보다 구체적으로 기술하면, 상기 제 2영상정보를 N개의 패치로 분리하여 N개의 제 2영상정보패치를 생성하고, 상기 N개의 제 2영상정보패치로 구성되는 제 2패치 맵을 생성한다. More specifically, the second image information is divided into N patches to generate N second image information patches, and a second patch map composed of the N second image information patches is generated.

일반적으로, 상기 N개의 제 2영상정보패치로 구성되는 제 2패치 맵의 N개의 제 2영상정보패치는 상기 제 1패치 맵을 구성하는 N개의 제 1영상정보패치와 동일한 패치 개수로 구성하는 것이 바람직하다. In general, the N second image information patches of the second patch map composed of the N second image information patches are composed of the same number of patches as the N first image information patches constituting the first patch map. desirable.

결과적으로, 상기 제 1패치 맵을 구성하는 N개의 제 1영상정보패치와, 상기 평균서브 패치 맵을 구성하는 N개의 평균서브패치군과, 상기 제 2패치 맵을 구성하는 N개의 제 2영상정보패치는 동일한 N개의 패치 개수로 구성되는 것이 바람직하다. As a result, N first image information patches constituting the first patch map, N average sub-patch groups constituting the average sub-patch map, and N second image information constituting the second patch map The patch is preferably composed of the same number of N patches.

상기 제 2영상정보를 특정단위로 분리하여 제 2패치 맵이 생성된 이후, 상기 패치 맵 생성부(150, 250)는 상기 제 1패치 맵, 상기 제 2패치 맵을 이용하여 후면 패치 맵 생성하는 단계(S730)를 수행한다. After the second patch map is generated by dividing the second image information into specific units, the patch map generator (150, 250) generates a rear patch map using the first patch map and the second patch map. Step S730 is performed.

실시예 중 제 1실시예를 기재한다.Among the examples, the first example will be described.

제 1실시예에 대해 기술하면, 상기 N개의 평균서브패치군이 포함된 평균서브 패치 맵 중 제 1평균서브패치군을 둘러싸고 있는 복수개의 제 1 인접평균서브패치군을 설정하고, 상기 제 1평균서브패치군의 제 1가중치와, 상기 제 1평균서브패치군과 상기 복수개의 인접평균서브패치군 간의 이격 거리에 비례하여 상기 복수개의 평균서브패치군의 제 2가중치를 설정하고, 상기 제 1평균서브패치군에 상기 제 1가중치가 반영된 제 1색상정보 값과, 상기 복수개의 인접평균서브패치군의 색상정보에 제 2가중치가 반영된 제 2색상정보 값의 평균 값을 반영하여 후면 색상정보 값을 생성하고, 상기 후면 색상정보 값이 반영된 후면서브패치군을 생성하고, 상기 후면서브패치군을 생성하는 단계를 상기 평균서브패치 맵을 구성하는 N개의 모든 평균서브패치군에 순차적으로 수행하여, N개의 후면서브패치군을 생성하고, 상기 N개의 후면서브패치군으로 구성되는 후면서브패치 맵을 생성한다.In the first embodiment, a plurality of first adjacent average sub-patch groups surrounding the first average sub-patch group in the average sub-patch map including the N average sub-patch groups are set, and the first average sub-patch group is set. A second weight of the plurality of average sub-patch groups is set in proportion to a first weight of the sub-patch group and a separation distance between the first average sub-patch group and the plurality of adjacent average sub-patch groups, The rear color information value is obtained by reflecting the average value of the first color information value in which the first weight is reflected in the sub-patch group and the second color information value in which the second weight is reflected in the color information of the plurality of adjacent average sub-patch groups. The steps of generating, generating a rear subpatch group in which the rear surface color information value is reflected, and generating the rear subpatch group are sequentially performed on all N average subpatch groups constituting the average subpatch map, N back sub patch groups are generated, and a back sub patch map composed of the N back sub patch groups is created.

도 9 내지 13을 참조하여 구체적으로 기재하면, 도 9는 제 1패치 맵과, 제 2패치 맵을 이용하여 생성된 후면서브패치 맵을 나타내고 있다.9 to 13, FIG. 9 shows a rear sub-patch map generated using a first patch map and a second patch map.

상기 패치 맵 생성부(150,250)는 상기 제 1패치 맵의 N개의 제 1영상정보패치로부터 생성된 N개의 평균서브패치군으로 구성된 평균서브 패치 맵을 이용하여, 즉, 일정 연산을 수행하여 N개의 후면서브패치군을 구성된 후면서브패치 맵을 생성한다.The patch map generation units 150 and 250 use an average sub-patch map composed of N average sub-patch groups generated from the N first image information patches of the first patch map, that is, by performing a predetermined operation to obtain N A posterior subpatch map composed of posterior subpatches is created.

여기서, 상기 패치 맵 생성부(150,250)는 상기 평균서브 패치 맵을 구성하는 N개의 평균서브패치군 중 하나인 제 1평균서브패치군을 임의로 선정하여, 상기 제 1평균서브패치군을 둘러싸고 있는 복수개의 제 1 인접평균서브패치군을 설정한다. Here, the patch map generation units 150 and 250 randomly select a first average sub-patch group, which is one of the N average sub-patch groups constituting the average sub-patch map, and select a plurality of average sub-patch groups surrounding the first average sub-patch group. A number of first adjacent average sub-patch groups are set.

도 12를 참조하면, 상기 패치 맵 생성부(150,250)가 중앙에 제 1평균서브패치군(1210)을 설정하면, 인접한 평균서브패치군은 8개가 설정되고, 상기 설정된 8개의 평균서브패치군을 제 1인접평균서브 패치군(1220)으로 한다. Referring to FIG. 12, when the patch map generators 150 and 250 set the first average sub-patch group 1210 in the center, 8 adjacent average sub-patch groups are set, and the set 8 average sub-patch groups are This is the first adjacency average sub-patch group 1220.

여기서, 상기 패치 맵 생성부(150,250)가 제 1평균 서브패치군(1210)에 제 1가중치를 임의로 설정할 수 있고, 일 예로, 0.4를 설정한 후, 상기 제 1인접평균서브 패치군(1220)에 제 2가중치를 임의로 설정할 수 있고, 일 예로, 0.075를 설정할 수 있다. Here, the patch map generators 150 and 250 may arbitrarily set a first weight to the first average sub-patch group 1210. For example, after setting 0.4, the first adjacent average sub-patch group 1220 The second weight may be arbitrarily set, and for example, 0.075 may be set.

제 1평균 서브패치군의 제1 가중치와 제 1인접평균서브 패치군(1220)을 구성하는 8개의 평균서브패치군의 제 2가중치 합을 1로 하는 것이 바람직하고, 제 1평균 서브패치군의 제1 가중치를 제 1인접평균서브 패치군(1220)의 제 2 가중치보다 크게 설정하는 것이 바람직하다. 또한, 제 1인접평균서브 패치군(1220)을 구성하는 8개의 평균서브패치군의 제 2 가중치는 균등하게 설정하는 것이 바람직하다. It is preferable that the sum of the first weight of the first average sub-patch group and the second weight of the 8 average sub-patch groups constituting the first adjacent average sub-patch group 1220 is 1, and the first average sub-patch group It is preferable to set the first weight higher than the second weight of the first adjacent average sub-patch group 1220 . In addition, it is preferable to equally set the second weights of the 8 average sub-patch groups constituting the first adjacent average sub-patch group 1220 .

일 예로, 상기 제 1 가중치와 상기 제 1인접평균서브 패치군(1220)의 제 2가중치는 아래의 수식조건을 만족한다.For example, the first weight and the second weight of the first adjacent average sub-patch group 1220 satisfy the following formula condition.

여기서, 상기 제 1가중치를 상기 제 2가중치 보다 큰 값으로 설정하고, 상기 제 1가중치와 상기 복수개의 제 1 인접평균서브패치군에 설정된 제 2가중치들의 합이 1로 설정하고, 상기 제 1 가중치인 C는

Figure pat00010
이고, 상기 제 2 가중치인 w는
Figure pat00011
이고, 상기 제 1가중치와 상기 제 2가중치들의 상관 관계식인 W은
Figure pat00012
이고, 상기 Z는 상기 제 1평균서브패치군과, 상기 복수개의 제 1 인접평균서브패치군의 패치군수의 합으로 설정한다Here, the first weight is set to a value greater than the second weight, the sum of the first weight and the second weights set to the plurality of first adjacent average subpatches is set to 1, and the first weight C is
Figure pat00010
, and the second weight w is
Figure pat00011
And W, which is the correlation between the first weight and the second weight, is
Figure pat00012
Z is set as the sum of the first average sub-patch group and the number of patch groups of the plurality of first adjacent average sub-patch groups.

도 11을 다시 참조하여, 후면서브 패치군을 생성하는 단계를 기술한다. 상기 제 1평균서브패치군(1210)은 RGB 색상정보를 저장하고 있고, 상기 제 1가중치를 적용하여, 각각의 RGB 색상정보 값에 상기 제 1가중치가 적용된 합산 값을 구한다. Referring back to FIG. 11, the steps of generating a rear-semi-sub patch group will be described. The first average sub-patch group 1210 stores RGB color information, and by applying the first weight, a sum value to which the first weight is applied to each RGB color information value is obtained.

또한, 제 1인접평균서브 패치군(1220)을 구성하는 8개의 평균서브패치군도 각각의 RGB 색상정보 값을 저장하고 있고, 각각의 RGB 색상정보 값에 상기 제 2가중치가 적용된 합산 값을 구한다. In addition, each of the eight average sub-patch groups constituting the first adjacent average sub-patch group 1220 also stores RGB color information values, and a sum value to which the second weight is applied to each RGB color information value is obtained.

제 1평균서브패치군(1210)에 저장된 상기 제 1가중치가 적용된 합산 값과, 제 1인접평균서브 패치군(1220)을 구성하는 8개의 평균서브패치군에 각각의 RGB 색상정보 값에 상기 제 2가중치가 적용된 합산 값의 평균 값을 계산한다.The sum value to which the first weight is applied stored in the first average sub-patch group 1210 and the RGB color information values of each of the eight average sub-patch groups constituting the first adjacent average sub-patch group 1220 Calculate the average value of the summed values with 2 weights applied.

상기 평균 값을, 상기 제 1평균서브패치군(1210)의 각각의 RGB 색상정보 값으로 대체하여 저장하고, 상기 각각의 RGB 색상정보 값으로 대체된 상기 제 1평균서브패치군(1210)을 제 1 후면서브패치군으로 생성한다. The average value is replaced with each RGB color information value of the first average sub-patch group 1210 and stored, and the first average sub-patch group 1210 replaced by each RGB color information value is stored. 1 It is created as a rear sub patch group.

위에서 기술된 방법을 상기 후면서브패치군을 생성하는 단계를, 상기 평균서브패치 맵을 구성하는 N개의 모든 평균서브패치군에 순차적으로 수행하여, N개의 후면서브패치군을 생성하고, 상기 N개의 후면서브패치군으로 구성되는 후면서브패치 맵을 생성한다.The method described above is sequentially performed on all N average subpatch groups constituting the average subpatch map to generate the rear subpatch groups, and N rear subpatch groups are generated. A posterior subpatch map composed of posterior subpatches is created.

상기 후면서브패치 맵이 생성된 이후, 상기 패치 정보를 이용 후면 영상정보 생성(S260)한다. After the rear sub-patch map is generated, rear image information is generated using the patch information (S260).

상기 N개의 후면서브패치군 사이의 노이즈 제거를 위해서, 상기 노이즈는 공지된 엣지 블렌딩 알고리즘을 적용하여, 각각 후면 패치의 가장자리 픽셀을 가우시안 블러(Gaussian Blur) 연산을 수행하여 노이즈를 제거하는 엣지 블렌딩을 수행하고, 최종적인 후면 텍스처 맵을 생성한다. In order to remove noise between the N rear sub-patches groups, the noise applies a known edge blending algorithm, and performs a Gaussian Blur operation on the edge pixels of each rear patch to perform edge blending to remove noise. and create the final back surface texture map.

실시예 중 제 2실시예를 기재한다. 상기 제 2실시예는 데이터 연산량을 감소시키기 위해서, 제 2영상정보 중 인체 레이블 맵에 해당되는 인체 레이블 패치에 대해서만, 제 1실시예의 가중치 기반 연산을 수행하여 제 1후면서브패치군을 생성하고, 비인체레이블 맵의 경우, 별도의 가중치 연산을 수행하지 않고, 평균서브패치군을 적용하여 제 2후면서브패치군을 생성하고, 상기 제 1후면서브패치군과, 상기 제 2후면서브패치군을 적용하여 후면서브패치 맵을 생성한다. Among the examples, the second example will be described. In the second embodiment, in order to reduce the amount of data calculation, the weight-based operation of the first embodiment is performed only on the body label patches corresponding to the body label map among the second image information to generate the first rear sub-patches group, In the case of the non-human label map, a second sub-sub-patch group is generated by applying an average sub-patch group without performing a separate weight calculation, and the first sub-sub-patch group and the second sub-sub-patch group are obtained. applied to create a posterior subpatch map.

이에 대해 구체적으로 기술하면, 상기 제 1패치 맵의 (1,1)의 제 1영상정보패치와, 상기 제 2패치 맵의 (1,1)의 제 2영상정보패치를 1:1로 매핑하는 것을 동기화로 표현하고, 상기 제 1패치 맵의 (1,2) 제 1영상정보패치와, 상기 제 2패치 맵의 (1,2) 제 1영상정보패치를 1:1로 매핑하고, 순차적으로 상기 제 1패치 맵의 (P,Q) 제 1영상정보패치와, 상기 제 2패치 맵의(P,Q) 제 2영상정보패치를 1:1로 매핑하여, 상기 제 1패치 맵과 상기 제 2패치 맵의 각각의 구성 패치를 매핑하여 동기화를 수행한다.Specifically, the first image information patch of (1,1) of the first patch map and the second image information patch of (1,1) of the second patch map are mapped 1:1. is expressed as synchronization, and the (1,2) first image information patch of the first patch map and the (1,2) first image information patch of the second patch map are mapped 1:1, sequentially. By mapping the (P, Q) first image information patch of the first patch map and the (P, Q) second image information patch of the second patch map in a 1:1 ratio, the first patch map and the second image information patch Synchronization is performed by mapping each configuration patch of the two-patch map.

여기서, 상기 제 1패치 맵을 구성하는 N개의 제 1영상정보패치와 제 2패치 맵을 구성하는 N개의 제 2영상정보패치의 동기화를 위해, 각각의 패치를 구성하는 위치좌표를 이용할 수 있고, 상기 동기화된 제 1영상정보패치와, 상기 제 2영상정보패치는 동일한 위치좌표를 가지고 매핑되어 동기화 된다. 이로 인해, 상기 제 1패치 맵을 구성하는 N개의 제 1영상정보패치와 제 2패치 맵을 구성하는 N개의 제 2영상정보패치 각각은 동일한 위치정보를 저장하고 있다. Here, for synchronization of N first image information patches constituting the first patch map and N second image information patches constituting the second patch map, position coordinates constituting each patch may be used, The synchronized first image information patch and the second image information patch are mapped with the same location coordinates and synchronized. Accordingly, the N first image information patches constituting the first patch map and the N second image information patches constituting the second patch map each store the same location information.

또한, 앞서 기술된 바와 같이, 상기 N개의 서브패치군과, 상기 N개의 제 1평균서브패치군은 색상정보 값만 변경되어 저장되어 있고, 상기 N개의 서브패치군과, 상기 N개의 제 1평균서브패치군은 상기 N개의 제 1영상정보패치의 각각의 위치정보를 그대로 저장되어 있다. 따라서, 상기 N개의 제 1평균서브패치군은 상기 제 2패치 맵을 구성하는 N개의 제 2영상정보패치와 동기화 되어 있어, 동일한 위치좌표를 저장하고 있다. In addition, as described above, the N sub-patch groups and the N first average sub-patch groups are stored with only color information values changed, and the N sub-patch groups and the N first average sub-patch groups In the patch group, positional information of each of the N first image information patches is stored as it is. Accordingly, the N first average sub-patch groups are synchronized with the N second image information patches constituting the second patch map, and store the same location coordinates.

또한, 앞서 기술된 바와 같이, 상기 제 2패치 맵을 구성하는 N개의 제 2영상정보패치도 각각의 위치정보가 저장되어 있고, 상기 각각의 위치정보는 인체 레이블 맵과, 비인체레이블 맵의 각각의 패치에 저장되어 있다. In addition, as described above, each of the N second image information patches constituting the second patch map has location information stored therein, and each of the location information includes a human body label map and a non-body label map, respectively. stored in the patch.

따라서, 상기 N개의 제 1평균서브패치군은, 상기 인체 레이블 맵과, 비인체레이블 맵의 위치정보를 기초로 동기화 될 수 있다. Accordingly, the N first average sub-patch groups may be synchronized based on location information of the body label map and the non-body label map.

상기 N개의 제 1평균서브패치군 중 제 1평균서브패치군의 위치좌표가, 상기 인체 레이블 맵을 구성하는 패치들의 위치좌표 중 하나의 위치좌표와 동일한 위치 좌표인 경우, 가중치 연산을 수행하여 제 1후면서브패치군을 생성하고, 상기 N개의 제 1평균서브패치군 중 제 1평균서브패치군의 위치좌표가, 상기 비인체 레이블 맵을 구성하는 패치들의 위치좌표 중 하나의 위치좌표와 동일한 위치 좌표인 경우, 가중치 연산을 수행하지 않고, 상기 제 1평균서브패치군을 제 2후면서브패치군으로 대체한다.When the position coordinates of the first average sub-patch group among the N first average sub-patch groups are the same as the position coordinates of one of the position coordinates of the patches constituting the body label map, weight calculation is performed to After 1st sub-patch group is created, the location coordinate of the first average sub-patch group among the N first average sub-patch groups is the same as the location coordinate of one of the location coordinates of the patches constituting the non-human label map. In the case of coordinates, weight calculation is not performed, and the first average sub-patch group is replaced with the second rear sub-patch group.

결과적으로 가중치 연산을 수행하여 생성된 제 1후면서브패치군이 S개, 가중치 연산을 수행하지 않고 생성된 제 2후면서브패치군이 T개라면, S+T=N을 만족하여, 후면서브패치 맵이 생성된다. As a result, if the first rear sub-patches group generated by performing the weight calculation is S pieces and the second rear sub-patches group generated without performing the weight calculation is T pieces, then S+T=N is satisfied, and the rear sub-patches A map is created.

이를 상세히 기술하면, 인체 레이블 맵을 구성하는 패치들의 경우, 아래의 과정을 통해 S개의 제 1후면서브패치군이 생성된다.Describing this in detail, in the case of patches constituting the human body label map, S first rear patch groups are generated through the following process.

상기 N개의 평균서브패치군이 포함된 평균서브 패치 맵 중 제 1평균서브패치군을 둘러싸고 있는 복수개의 제 1 인접평균서브패치군을 설정하고, 상기 제 1평균서브패치군의 제 1가중치와, 상기 제 1평균서브패치군과 상기 복수개의 인접평균서브패치군 간의 이격 거리에 비례하여 상기 복수개의 평균서브패치군의 제 2가중치를 설정하고, 상기 제 1평균서브패치군에 상기 제 1가중치가 반영된 제 1색상정보 값과, 상기 복수개의 인접평균서브패치군의 색상정보에 제 2가중치가 반영된 제 2색상정보 값의 평균 값을 반영하여 후면 색상정보 값을 생성하고, 상기 후면 색상정보 값이 반영된 후면서브패치군을 생성하고, 상기 후면서브패치군을 생성하는 단계를 상기 평균서브패치 맵을 구성하는 N개의 모든 평균서브패치군에 순차적으로 수행하여, S개의 제 1후면서브패치군을 생성한다. A plurality of first contiguous average sub-patch groups surrounding the first average sub-patch group in the average sub-patch map including the N average sub-patch groups are set, and a first weight of the first average sub-patch group is determined; A second weight of the plurality of average sub-patch groups is set in proportion to a separation distance between the first average sub-patch group and the plurality of adjacent average sub-patch groups, and the first weight is applied to the first average sub-patch group. A back color information value is generated by reflecting the average value of the reflected first color information value and the second color information value in which the second weight is reflected in the color information of the plurality of adjacent average sub-patch groups, and the rear color information value is The reflected back subpatch group is generated, and the step of generating the back subpatch group is sequentially performed on all N average subpatch groups constituting the average subpatch map to generate S first back subpatch groups. do.

도 9 내지 13을 참조하여 구체적으로 기재하면, 도 9는 제 1패치 맵과, 제 2패치 맵을 이용하여 생성된 후면서브패치 맵을 나타내고 있다.9 to 13, FIG. 9 shows a rear sub-patch map generated using a first patch map and a second patch map.

상기 패치 맵 생성부(150,250)는 상기 제 1패치 맵의 N개의 제 1영상정보패치로부터 생성된 N개의 평균서브패치군을 구성된 평균서브 패치 맵을 이용하여, 즉, 일정 연산을 수행하여 S개의 제 1후면서브패치군을 생성한다.The patch map generator (150, 250) uses an average sub-patch map consisting of N average sub-patch groups generated from N first image information patches of the first patch map, that is, performs a predetermined operation to obtain S number of sub-patch maps. A first rear subpatch group is generated.

여기서, 상기 패치 맵 생성부(150,250)는 상기 평균서브 패치 맵을 구성하는 N개의 평균서브패치군 중 하나인 제 1평균서브패치군을 임의로 선정하여, 상기 제 1평균서브패치군을 둘러싸고 있는 복수개의 제 1 인접평균서브패치군을 설정한다. Here, the patch map generation units 150 and 250 randomly select a first average sub-patch group, which is one of the N average sub-patch groups constituting the average sub-patch map, and select a plurality of average sub-patch groups surrounding the first average sub-patch group. A number of first adjacent average sub-patch groups are set.

도 12를 참조하면, 상기 패치 맵 생성부(150,250)가 중앙에 제 1평균서브패치군(1210)을 설정하면, 인접한 평균서브패치군은 8개가 설정되고, 상기 설정된 8개의 평균서브패치군을 제 1인접평균서브 패치군(1220)으로 한다. Referring to FIG. 12, when the patch map generators 150 and 250 set the first average sub-patch group 1210 in the center, 8 adjacent average sub-patch groups are set, and the set 8 average sub-patch groups are This is the first adjacency average sub-patch group 1220.

여기서, 상기 패치 맵 생성부(150,250)가 제 1평균 서브패치군(1210)에 제 1가중치를 임의로 설정할 수 있고, 일 예로, 0.4를 설정한 후, 상기 제 1인접평균서브 패치군(1220)에 제 2가중치를 임의로 설정할 수 있고, 일 예로, 0.075를 설정할 수 있다. Here, the patch map generators 150 and 250 may arbitrarily set a first weight to the first average sub-patch group 1210. For example, after setting 0.4, the first adjacent average sub-patch group 1220 The second weight may be arbitrarily set, and for example, 0.075 may be set.

제 1평균 서브패치군의 제1 가중치와 제 1인접평균서브 패치군(1220)을 구성하는 8개의 평균서브패치군의 제 2가중치 합을 1로 하는 것이 바람직하고, 제 1평균 서브패치군의 제1 가중치를 제 1인접평균서브 패치군(1220)의 제 2 가중치보다 크게 설정하는 것이 바람직하다. 또한, 제 1인접평균서브 패치군(1220)을 구성하는 8개의 평균서브패치군의 제 2 가중치는 균등하게 설정하는 것이 바람직하다. It is preferable that the sum of the first weight of the first average sub-patch group and the second weight of the 8 average sub-patch groups constituting the first adjacent average sub-patch group 1220 is 1, and the first average sub-patch group It is preferable to set the first weight higher than the second weight of the first adjacent average sub-patch group 1220 . In addition, it is preferable to equally set the second weights of the 8 average sub-patch groups constituting the first adjacent average sub-patch group 1220 .

여기서, 상기 제 1평균 서브패치군과 인접한 제 1인접평균서브 패치군 중 8개의 평균서브패치군이 상기 인체 레이블 맵을 구성하는 패치의 위치정보 값에 포함되지 않은 영역, 즉, 비인체 레이블 맵을 구성하는 패치인 경우, 해당 가중치인 제 2가중치를 0으로 설정하고, 상기 제 1평균 서브패치군과 인접한 제 1인접평균서브 패치군 중 8개의 평균서브패치군이 상기 인체 레이블 맵을 구성하는 패치의 위치정보 값에 해당되는 영역인 경우, 제 2가중치를 부여한다.Here, 8 average sub-patch groups among the first adjacent average sub-patch groups adjacent to the first average sub-patch group are areas not included in the location information values of patches constituting the human body label map, that is, the non-body label map In the case of a patch constituting , the second weight, which is the weight, is set to 0, and eight average sub-patch groups among the first adjacent average sub-patch groups adjacent to the first average sub-patch group constitute the human body label map. In the case of an area corresponding to the location information value of the patch, a second weight is applied.

일 예로, 상기 제 1 가중치와 상기 제 1인접평균서브 패치군(1220)의 제 2가중치는 아래의 수식조건을 만족한다. 상기 제 1가중치를 상기 제 2가중치 보다 큰 값으로 설정하고, 상기 제 1가중치와 상기 복수개의 제 1 인접평균서브패치군에 설정된 제 2가중치들의 합이 1로 설정하고, 상기 제 1 가중치인 C는

Figure pat00013
이고, 상기 제 2 가중치인 w는
Figure pat00014
이고, 상기 제 1가중치와 상기 제 2가중치들의 상관 관계식인 W은
Figure pat00015
이고, 상기 Z는 상기 제 1평균서브패치군과, 상기 복수개의 제 1 인접평균서브패치군의 패치군수의 합으로 설정한다.For example, the first weight and the second weight of the first adjacent average sub-patch group 1220 satisfy the following formula condition. The first weight is set to a value greater than the second weight, the sum of the first weight and the second weights set to the plurality of first adjacent average subpatches is set to 1, and the first weight, C Is
Figure pat00013
, and the second weight w is
Figure pat00014
And W, which is the correlation between the first weight and the second weight, is
Figure pat00015
where Z is set as the sum of the first average sub-patch group and the number of patch groups of the plurality of first adjacent average sub-patch groups.

도 11을 다시 참조하여, 후면서브 패치군을 생성하는 단계를 기술한다. 상기 제 1평균서브패치군(1210)은 RGB 색상정보를 저장하고 있고, 상기 제 1가중치를 적용하여, 각각의 RGB 색상정보 값에 상기 제 1가중치가 적용된 합산 값을 구한다. Referring back to FIG. 11, the steps of generating a rear-semi-sub patch group will be described. The first average sub-patch group 1210 stores RGB color information, and by applying the first weight, a sum value to which the first weight is applied to each RGB color information value is obtained.

또한, 제 1인접평균서브 패치군(1220)을 구성하는 8개의 평균서브패치군도 각각의 RGB 색상정보 값을 저장하고 있고, 각각의 RGB 색상정보 값에 상기 제 2가중치가 적용된 합산 값을 구한다. In addition, each of the eight average sub-patch groups constituting the first adjacent average sub-patch group 1220 also stores RGB color information values, and a sum value to which the second weight is applied to each RGB color information value is obtained.

제 1평균서브패치군(1210)에 저장된 상기 제 1가중치가 적용된 합산 값과, 제 1인접평균서브 패치군(1220)을 구성하는 8개의 평균서브패치군에 각각의 RGB 색상정보 값에 상기 제 2가중치가 적용된 합산 값의 평균 값을 계산한다.The sum value to which the first weight is applied stored in the first average sub-patch group 1210 and the RGB color information values of each of the eight average sub-patch groups constituting the first adjacent average sub-patch group 1220 Calculate the average value of the summed values with 2 weights applied.

상기 평균 값을, 상기 제 1평균서브패치군(1210)의 각각의 RGB 색상정보 값으로 대체하여 저장하고, 상기 각각의 RGB 색상정보 값으로 대체된 상기 제 1평균서브패치군(1210)을 제 1 후면서브패치군으로 생성한다. The average value is replaced with each RGB color information value of the first average sub-patch group 1210 and stored, and the first average sub-patch group 1210 replaced by each RGB color information value is stored. 1 It is created as a rear sub patch group.

위에서 기술된 방법을 상기 후면서브패치군을 생성하는 단계를 상기 평균서브패치 맵을 구성하는 N개의 모든 평균서브패치군에 순차적으로 수행하여, S개의 후면서브패치군을 생성한다. The method described above is sequentially performed on all N average subpatch groups constituting the average subpatch map to generate S rear subpatch groups.

비인체 레이블 맵을 구성하는 패치들의 경우, 아래의 과정을 통해 T개의 제 2후면서브패치군이 생성된다.In the case of patches constituting the non-body label map, T second posterior patch groups are generated through the following process.

다시 기술하면, 상기 N개의 제 1평균서브패치군 중 제 1평균서브패치군의 위치좌표가, 상기 비인체 레이블 맵을 구성하는 패치들의 위치좌표 중 하나의 위치좌표와 동일한 위치 좌표인 경우, 가중치 연산을 수행하지 않고, 상기 제 1평균서브패치군을 제 2후면서브패치군으로 대체하여, T개의 제 2후면서브패치군을 생성한다. In other words, when the position coordinates of the first average sub-patch group among the N first average sub-patch groups are the same as the position coordinates of one of the position coordinates of the patches constituting the non-body label map, the weight Without performing the calculation, the first average sub-patch group is replaced with the second rear sub-patch group, thereby generating T second rear sub-patch groups.

상기 S개의 제 1후면서브패치군과, 상기 T개의 제 2후면서브패치군을 적용하여 최종적은 S+T=N 개의 후면서브패치군으로 구성되는 후면서브패치 맵을 생성한다. The S first rear sub patch groups and the T second rear sub patch groups are applied to generate a final rear sub patch map composed of S+T=N rear sub patch groups.

상기 후면서브패치 맵이 생성된 이후, 상기 패치 정보를 이용 후면 영상정보 생성(S260)한다. After the rear sub-patch map is generated, rear image information is generated using the patch information (S260).

상기 N개의 후면서브패치군 사이의 노이즈 제거를 위해서, 상기 노이즈는 공지된 엣지 블렌딩 알고리즘을 적용하여, 각각 후면 패치의 가장자리 픽셀을 가우시안 블러(Gaussian Blur) 연산을 수행하여 노이즈를 제거하는 엣지 블렌딩을 수행하고, 최종적인 후면 텍스처 맵을 생성한다.In order to remove noise between the N rear sub-patches groups, the noise applies a known edge blending algorithm, and performs a Gaussian Blur operation on the edge pixels of each rear patch to perform edge blending to remove noise. and create the final back surface texture map.

100 : 서버 200 : 단말
110 : 영상부 210 : 영상부
120 : 휴먼포즈 생성부 220 : 휴먼포즈 생성부
130 : 레이블 맵 생성부 230 : 레이블 맵 생성부
140 : 인체 레이블 맵 생성부 240 : 인체 레이블 맵 생성부
150 : 패치 맵 생성부 250 : 패치 맵 생성부
160 : 통신부 260 : 통신부
1000: 영상정보 1010: 패치
1020: 서브 패치군 1210: 제 1평균서브패치군
1220: 제 1인접서브패치군
100: server 200: terminal
110: video unit 210: video unit
120: human pose generator 220: human pose generator
130: label map generator 230: label map generator
140: human body label map generator 240: human body label map generator
150: patch map generator 250: patch map generator
160: communication unit 260: communication unit
1000: image information 1010: patch
1020: sub-patch group 1210: first average sub-patch group
1220: first adjacent sub-patch group

Claims (5)

인공신경망 소프트웨어를 이용하여, 정면의 인체 영상이 포함된 제 1영상정보의 후면 영상정보를 생성하는 후면 영상정보 생성 방법에 있어서,
상기 제 1영상정보로부터 M개의 관절 좌표로 구성된 휴먼포즈 데이터를 생성하는 단계;
상기 제 1영상정보로부터 레이블 맵을 생성하는 단계;
상기 M개의 관절 좌표 중 제 1 관절 좌표와 상기 레이블 맵의 이격 거리가 기 설정된 이격 거리 이하인 경우, 상기 레이블 맵을 상기 제 1 관절 좌표에 대응되는 제 1인체 레이블로 생성하는 단계;
상기 제 1인체 레이블을 생성하는 단계를 상기 M개의 모든 관절 좌표에 대해 순차적으로 수행하여, M개의 인체 레이블을 생성하고, 상기 M개의 인체 레이블로 구성된 인체 레이블 맵을 생성하는 단계;
상기 M개의 관절 좌표와 상기 레이블 맵의 이격 거리가 기 설정된 이격 거리를 초과한 경우, 비인체 레이블 맵을 생성하고, 상기 인체 레이블 맵과 상기 비인체 레이블 맵으로 구성되는 제 2영상 정보를 생성하는 단계;
상기 제 1영상정보를 N개의 패치로 분리하여 N개의 제 1영상정보패치를 생성하고, 상기 N개의 제 1영상정보패치로 구성되는 제 1패치 맵을 생성하는 단계;
상기 제 2영상정보를 N개의 패치로 분리하여 N개의 제 2영상정보패치를 생성하고, 상기 N개의 제 2영상정보패치로 구성되는 제 2패치 맵을 생성하는 단계;
상기 N개의 제 1영상정보패치 중 제 1영상정보패치를 A개의 서브패치로 분리하고, 상기 제 1영상정보패치와 대응되는 상기 A개의 서브패치로 구성된 제 1서브패치군을 생성하는 단계;
상기 제 1서브패치군을 생성하는 단계를 상기 N개의 모든 제 1영상정보패치에 대해 순차적으로 수행하여, 상기 N개의 모든 제 1영상정보패치 각각에 대응되는 N개의 서브패치군을 생성하고, 상기 N개의 서브패치군으로 구성된 서브 패치 맵을 생성하는 단계;
상기 제 1서브패치군을 구성하는 A개의 서브패치 색상정보 값을 합산하여 평균 값을 계산하고, 상기 평균 값을 상기 A개의 서브패치의 색상정보 값으로 변경하고, 상기 변경된 색상정보 값이 반영된 A개의 서브패치로 구성된 제 1평균서브패치군을 생성하는 단계;
상기 제 1평균서브패치군을 생성하는 단계를 상기 N개의 모든 서브패치군에 대해 순차적으로 수행하여, N개의 평균서브패치군을 생성하고, 상기 N개의 평균서브패치군으로 구성된 평균서브 패치 맵을 생성하는 단계;
상기 N개의 평균서브패치군이 포함된 평균서브 패치 맵 중 제 1평균서브패치군을 둘러싸고 있는 복수개의 제 1 인접평균서브패치군을 설정하고, 상기 제 1평균서브패치군의 제 1가중치와, 상기 제 1평균서브패치군과 상기 복수개의 인접평균서브패치군 간의 이격 거리에 비례하여 상기 복수개의 평균서브패치군의 제 2가중치를 설정하고, 상기 제 1평균서브패치군에 상기 제 1가중치가 반영된 제 1색상정보 값과, 상기 복수개의 인접평균서브패치군의 색상정보에 제 2가중치가 반영된 제 2색상정보 값의 평균 값을 반영하여 후면 색상정보 값을 생성하고, 상기 후면 색상정보 값이 반영된 후면서브패치군을 생성하는 단계; 및
상기 후면서브패치군을 생성하는 단계를 상기 평균서브패치 맵을 구성하는 N개의 모든 평균서브패치군에 순차적으로 수행하여, N개의 후면서브패치군을 생성하고, 상기 N개의 후면서브패치군으로 구성되는 후면서브패치 맵을 생성하는 단계;를 포함하고,
상기 패치, 서브패치는 복수개의 픽셀로 구성되고, 상기 픽셀은 상기 픽셀의 주소 값, 상기 픽셀의 위치정보 및 상기 픽셀의 색상정보가 저장되어 있는 것을 특징으로 하는, 후면 영상정보 생성 방법.
A rear image information generation method for generating rear image information of first image information including a front human body image using artificial neural network software,
generating human pose data composed of M joint coordinates from the first image information;
generating a label map from the first image information;
generating the label map as a first body label corresponding to the first joint coordinates when a separation distance between a first joint coordinate among the M joint coordinates and the label map is equal to or less than a predetermined separation distance;
generating M body labels by sequentially performing the generating of the first body labels for all the M joint coordinates, and generating a body label map composed of the M body labels;
When the separation distance between the M joint coordinates and the label map exceeds a predetermined separation distance, generating a non-human label map, and generating second image information composed of the body label map and the non-human label map step;
dividing the first image information into N patches to generate N first image information patches, and generating a first patch map composed of the N first image information patches;
generating N second image information patches by dividing the second image information into N patches, and generating a second patch map composed of the N second image information patches;
dividing the first image information patch among the N first image information patches into A number of sub-patches, and generating a first sub-patch group composed of the A number of sub-patches corresponding to the first image information patch;
The step of generating the first sub-patch group is sequentially performed for all of the N first image information patches to generate N sub-patch groups corresponding to each of the N first image information patches; generating a sub-patch map composed of N sub-patch groups;
An average value is calculated by summing the color information values of the A number of sub-patches constituting the first sub-patch group, the average value is changed to the color information value of the A number of sub-patches, and the color information values of the A number are reflected. generating a first average sub-patch group composed of N sub-patches;
The step of generating the first average sub-patch group is sequentially performed for all N sub-patch groups to generate N average sub-patch groups, and an average sub-patch map composed of the N average sub-patch groups is obtained. generating;
A plurality of first contiguous average sub-patch groups surrounding the first average sub-patch group in the average sub-patch map including the N average sub-patch groups are set, and a first weight of the first average sub-patch group is determined; A second weight of the plurality of average sub-patch groups is set in proportion to a separation distance between the first average sub-patch group and the plurality of adjacent average sub-patch groups, and the first weight is applied to the first average sub-patch group. A back color information value is generated by reflecting the average value of the reflected first color information value and the second color information value in which the second weight is reflected in the color information of the plurality of adjacent average sub-patch groups, and the rear color information value is generating a post-reflected patch group; and
The step of generating the back subpatch group is sequentially performed on all N average subpatch groups constituting the average subpatch map to generate N back subpatch groups, which are composed of the N back subpatch groups. Including; generating a rear sub-patch map that is
The patch and the sub-patch are composed of a plurality of pixels, and the pixel stores an address value of the pixel, location information of the pixel, and color information of the pixel.
제1항에 있어서,
상기 후면 색상정보 값이 반영된 후면서브패치군을 생성하는 단계는, 상기 평균서브 패치 맵을 구성하는 N개의 평균서브패치군 중 제 1평균서브패치군의 위치좌표가, 상기 인체 레이블 맵을 구성하는 패치들의 위치좌표 중 하나의 위치좌표와 동일한 위치 좌표인 경우에 한해, 상기 후면 색상정보 값이 반영된 제 1후면서브패치군을 생성하고, 상기 평균서브 패치 맵을 구성하는 N개의 평균서브패치군 중 제 1평균서브패치군의 위치좌표가, 상기 인체 레이블 맵을 구성하는 패치들의 위치좌표 중 하나의 위치좌표와 동일한 위치 좌표가 아닌 경우, 상기 제 1평균서브패치군의 색상정보 값이 반영된 제 2후면서브패치군을 생성하고,
상기 N개의 후면서브패치군으로 구성되는 후면서브패치 맵을 생성하는 단계는,
상기 평균서브 패치 맵을 구성하는 N개의 평균서브패치군 중 제 1평균서브패치군의 위치좌표가, 상기 인체 레이블 맵을 구성하는 패치들의 위치좌표 중 하나의 위치좌표와 동일한 위치 좌표인 경우에 한해, 상기 후면 색상정보 값이 반영된 후면서브패치군을 생성하는 단계를 상기 평균서브패치 맵을 구성하는 N개의 모든 평균서브패치군에 순차적으로 수행하여, S개의 제 1후면서브패치군을 생성하고,
상기 평균서브 패치 맵을 구성하는 N개의 평균서브패치군 중 제 1평균서브패치군의 위치좌표가, 상기 인체 레이블 맵을 구성하는 패치들의 위치좌표 중 하나의 위치좌표와 동일한 위치 좌표가 아닌 경우, 상기 제 1평균서브패치군의 색상정보 값이 반영된 제 2후면서브패치군을 생성하는 단계를 상기 평균서브패치 맵을 구성하는 N개의 모든 평균서브패치군에 순차적으로 수행하여, T개의 제 2후면서브패치군을 생성하여,
상기 S개의 제 1후면서브패치군과, 상기 T개의 제 2후면서브패치군으로 구성되는 후면서브패치 맵을 생성하는 것을 특징으로 하는 후면 영상정보 생성 방법.
According to claim 1,
In the step of generating the rear sub-patch group in which the back color information value is reflected, the positional coordinates of the first average sub-patch group among the N average sub-patch groups constituting the average sub-patch map constitute the human body label map. Only when the positional coordinates are the same as one of the positional coordinates of the patches, a first rear sub-patch group in which the back color information value is reflected is generated, and among the N average sub-patch groups constituting the average sub-patch map, When the positional coordinates of the first average sub-patch group are not the same as the positional coordinates of one of the positional coordinates of the patches constituting the body label map, the second average sub-patch group reflects the color information value of the first average sub-patch group. Create a posterior sub-patch group;
The step of generating a rear sub patch map consisting of the N rear sub patch groups,
Only when the location coordinates of the first average sub-patch group among the N average sub-patch groups constituting the average sub-patch map are the same as the location coordinates of one of the location coordinates of the patches constituting the body label map. , the step of generating the rear sub-patch group to which the back color information value is reflected is sequentially performed on all N average sub-patch groups constituting the average sub-patch map to generate S first rear sub-patch groups;
If the position coordinates of the first average sub-patch group among the N average sub-patch groups constituting the average sub-patch map are not the same as the position coordinates of one of the position coordinates of the patches constituting the body label map, The step of generating the second rear sub-patch group in which the color information value of the first average sub-patch group is reflected is sequentially performed on all N average sub-patch groups constituting the average sub-patch map, so that T number of second rear-side sub-patch groups are obtained. By creating a sub-patch group,
and generating a rear surface image information generation method comprising the S number of first rear surface sub patch groups and the T number of second rear surface sub patch groups.
제 2항에 있어서,
상기 복수개의 제 1인접 평균서브패치군은,
상기 복수개의 제 1인접 평균서브패치군의 위치좌표가 상기 인체 레이블 맵을 구성하는 패치들의 위치좌표 중 하나의 위치좌표와 동일한 위치 좌표인 것을 특징으로 하는 , 후면 영상정보 생성 방법.
According to claim 2,
The plurality of first adjacent average sub-patch groups,
The method of generating rear image information, characterized in that the positional coordinates of the plurality of first adjacent average sub-patch groups are the same as the positional coordinates of one of the positional coordinates of the patches constituting the body label map.
제3항에 있어서,
상기 제 1가중치는 상기 제 2가중치 보다 큰 값으로 설정되고,
상기 제 1가중치와 상기 복수개의 제 1 인접평균서브패치군에 설정된 제 2가중치들의 합이 1이고,
상기 제 1 가중치인 C는
Figure pat00016
이고,
상기 제 2 가중치인 w는
Figure pat00017
이고,
상기 제 1가중치와 상기 제 2가중치들의 상관 관계식인 W은
Figure pat00018
이고,
상기 Z는 상기 제 1평균서브패치군과, 상기 복수개의 제 1 인접평균서브패치군의 패치군수의 합인 것을 특징으로 하는, 후면 영상정보 생성 방법
According to claim 3,
The first weight is set to a value greater than the second weight,
the sum of the first weight and the second weights set to the plurality of first adjacent average sub-patch groups is 1;
The first weight C is
Figure pat00016
ego,
The second weight w is
Figure pat00017
ego,
W, which is a correlation between the first weight and the second weight, is
Figure pat00018
ego,
Z is the sum of the first average sub-patch group and the number of patch groups of the plurality of first adjacent average sub-patch groups.
인공신경망 소프트웨어를 이용하여, 정면의 인체 영상이 포함된 제 1영상정보의 후면 영상정보를 추출하는 후면 영상정보 추출 장치에 있어서,
상기 제 1영상정보로부터 M개의 관절 좌표로 구성된 휴먼포즈 데이터를 생성하는 휴먼포즈 생성부;
상기 제 1영상정보로부터 레이블 맵을 생성하는 레이블 맵 생성부;
상기 M개의 관절 좌표 중 제 1 관절 좌표와 상기 레이블 맵과의 이격 거리가 기 설정된 이격 거리 이하인 경우, 상기 레이블 맵을 상기 제 1 관절 좌표에 대응되는 제 1인체 레이블로 생성하고, 상기 M개의 모든 관절 좌표에 대해서 순차적으로 M개의 인체 레이블을 생성하고, 상기 M개의 인체 레이블로 구성된 인체 레이블 맵을 생성하고,
상기 M개의 관절 좌표와 상기 레이블 맵의 이격 거리가 기 설정된 이격 거리를 초과한 경우, 비인체 레이블 맵을 생성하고, 상기 인체 레이블 맵과 상기 비인체 레이블 맵으로 구성되는 제 2영상 정보를 생성하는 인체레이블 맵 생성부;
상기 제 1영상정보를 N개의 패치로 분리하여 N개의 제 1영상정보패치를 생성하고, 상기 N개의 제 1영상정보패치로 구성되는 제 1패치 맵을 생성하고,
상기 제 2영상정보를 N개의 패치로 분리하여 N개의 제 2영상정보패치를 생성하고, 상기 N개의 제 2영상정보패치로 구성되는 제 2패치 맵을 생성하고,
상기 N개의 제 1영상정보패치 중 제 1영상정보패치를 A개의 서브패치로 분리하고, 상기 제 1영상정보패치와 대응되는 상기 A개의 서브패치로 구성된 제 1서브패치군을 생성하고, 상기 N개의 모든 제 1영상정보패치에 대해 순차적으로 상기 N개의 모든 제 1영상정보패치 각각에 대응되는 N개의 서브패치군을 생성하고, 상기 N개의 서브패치군으로 구성된 서브 패치 맵을 생성하여 서브 패치 맵을 생성하고,
상기 제 1서브패치군을 구성하는 A개의 서브패치 색상정보 값을 합산하여 평균 값을 계산하고, 상기 평균 값을 상기 A개의 서브패치의 색상정보 값으로 변경하고, 상기 변경된 색상정보 값이 반영된 A개의 서브패치로 구성된 제 1평균서브패치군을 생성하고, 상기 N개의 모든 서브패치군에 대해 순차적으로 N개의 평균서브패치군을 생성하고, 상기 N개의 평균서브패치군으로 구성된 평균서브 패치 맵을 생성하는 패치 맵 생성부를 포함하고,
상기 패치 맵 생성부는,
상기 평균서브 패치 맵을 구성하는 N개의 평균서브패치군 중 제 1평균서브패치군의 위치좌표가, 상기 인체 레이블 맵을 구성하는 패치들의 위치좌표 중 하나의 위치좌표와 동일한 위치 좌표인 경우에 한해, 상기 N개의 평균서브패치군이 포함된 평균서브 패치 맵 중 제 1평균서브패치군을 둘러싸고 있는 복수개의 제 1 인접평균서브패치군을 설정하고, 상기 제 1평균서브패치군의 제 1가중치와, 상기 제 1평균서브패치군과 상기 복수개의 인접평균서브패치군 간의 이격 거리에 비례하여 상기 복수개의 평균서브패치군의 제 2가중치를 설정하고, 상기 제 1평균서브패치군에 상기 제 1가중치가 반영된 제 1색상정보 값과, 상기 복수개의 인접평균서브패치군의 색상정보에 제 2가중치가 반영된 제 2색상정보 값의 평균 값을 반영하여 후면 색상정보 값을 생성하고, 상기 후면 색상정보 값이 반영된 제 1후면서브패치군을 생성하고, 상기 평균서브패치 맵을 구성하는 N개의 모든 평균서브패치군에 순차적으로 S개의 제 1후면서브패치군을 생성하고,
상기 평균서브 패치 맵을 구성하는 N개의 평균서브패치군 중 제 1평균서브패치군의 위치좌표가, 상기 인체 레이블 맵을 구성하는 패치들의 위치좌표 중 하나의 위치좌표와 동일한 위치 좌표가 아닌 경우, 상기 제 1평균서브패치군의 색상정보 값이 반영된 제 2후면서브패치군을 생성하고, 상기 평균서브패치 맵을 구성하는 N개의 모든 평균서브패치군에 순차적으로 T개의 제 2후면서브패치군을 생성하고,
상기 S개의 제 1후면서브패치군과, 상기 T개의 제 2후면서브패치군으로 구성되는 후면서브패치 맵을 생성하고,
상기 복수개의 제 1인접 평균서브패치군은,
상기 복수개의 제 1인접 평균서브패치군의 위치좌표가 상기 인체 레이블 맵을 구성하는 패치들의 위치좌표 중 하나의 위치좌표와 동일한 위치 좌표이고,
상기 제 1가중치는 상기 제 2가중치 보다 큰 값으로 설정되고,
상기 제 1가중치와 상기 복수개의 제 1 인접평균서브패치군에 설정된 제 2가중치들의 합이 1이고,
상기 제 1 가중치인 C는
Figure pat00019
이고,
상기 제 2 가중치인 w는
Figure pat00020
이고,
상기 제 1가중치와 상기 제 2가중치들의 상관 관계식인 W은
Figure pat00021
이고,
상기 Z는 상기 제 1평균서브패치군과, 상기 복수개의 제 1 인접평균서브패치군의 패치군수의 합이고,
상기 패치, 서브패치는 복수개의 픽셀로 구성되고, 상기 픽셀은 상기 픽셀의 주소 값, 상기 픽셀의 위치정보 및 상기 픽셀의 색상정보가 저장되어 있는 것을 특징으로 하는, 후면 영상정보 생성 장치.
In the rear image information extraction device for extracting the rear image information of the first image information including the front human body image using artificial neural network software,
a human pose generating unit generating human pose data composed of M joint coordinates from the first image information;
a label map generating unit generating a label map from the first image information;
When a separation distance between a first joint coordinate of the M joint coordinates and the label map is less than or equal to a predetermined separation distance, the label map is generated as a first body label corresponding to the first joint coordinates, and all of the M joint coordinates are generated. Sequentially generating M body labels for joint coordinates and generating a body label map composed of the M body labels;
When the separation distance between the M joint coordinates and the label map exceeds a predetermined separation distance, generating a non-human label map, and generating second image information composed of the body label map and the non-human label map a human body label map generating unit;
dividing the first image information into N patches to generate N patches of first image information, and generating a first patch map composed of the N patches of first image information;
dividing the second image information into N patches to generate N patches of second image information, and generating a second patch map composed of the N patches of second image information;
The first image information patch among the N first image information patches is divided into A number of sub-patches, and a first sub-patch group composed of the A number of sub-patches corresponding to the first image information patch is generated; For all first image information patches, N sub-patch groups corresponding to each of the N first image information patches are sequentially generated, and a sub-patch map composed of the N sub-patch groups is generated to generate a sub-patch map. create,
An average value is calculated by summing the color information values of the A number of sub-patches constituting the first sub-patch group, the average value is changed to the color information value of the A number of sub-patches, and the color information values of the A number are reflected. A first average sub-patch group composed of the N sub-patch groups is generated, N average sub-patch groups are sequentially generated for all N sub-patch groups, and an average sub-patch map consisting of the N average sub-patch groups is generated. Including a patch map generation unit to generate,
The patch map generator,
Only when the location coordinates of the first average sub-patch group among the N average sub-patch groups constituting the average sub-patch map are the same as the location coordinates of one of the location coordinates of the patches constituting the body label map. In the average sub-patch map including the N average sub-patch groups, a plurality of first adjacent average sub-patch groups surrounding the first average sub-patch group are set, and a first weight of the first average sub-patch group and , A second weight value of the plurality of average sub-patch groups is set in proportion to the separation distance between the first average sub-patch group and the plurality of adjacent average sub-patch groups, and the first weight value is applied to the first average sub-patch group. A back color information value is generated by reflecting the average value of the first color information value reflected and the second color information value in which the second weight is reflected in the color information of the plurality of adjacent average sub-patch groups, and the rear color information value A first rear sub-patch group reflected by this is generated, and S first rear sub-patch groups are sequentially generated in all N average sub-patch groups constituting the average sub-patch map;
If the position coordinates of the first average sub-patch group among the N average sub-patch groups constituting the average sub-patch map are not the same as the position coordinates of one of the position coordinates of the patches constituting the body label map, A second subsequent sub-patch group in which the color information value of the first average sub-patch group is reflected is generated, and T second subsequent sub-patch groups are sequentially added to all N average sub-patch groups constituting the average sub-patch map. create,
generating a rear sub patch map composed of the S first rear sub patch groups and the T second rear sub patch groups;
The plurality of first adjacent average sub-patch groups,
The positional coordinates of the plurality of first adjacent average sub-patch groups are the same positional coordinates as the positional coordinates of one of the positional coordinates of the patches constituting the body label map;
The first weight is set to a value greater than the second weight,
the sum of the first weight and the second weights set to the plurality of first adjacent average sub-patch groups is 1;
The first weight C is
Figure pat00019
ego,
The second weight w is
Figure pat00020
ego,
W, which is a correlation between the first weight and the second weight, is
Figure pat00021
ego,
Z is the sum of the first average sub-patch group and the number of patch groups of the plurality of first adjacent average sub-patch groups;
The patch and the sub-patch are composed of a plurality of pixels, and the pixel stores an address value of the pixel, location information of the pixel, and color information of the pixel.
KR1020210170530A 2021-12-02 2021-12-02 The Apparatus and method for generating the Back side image KR102627659B1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020210170530A KR102627659B1 (en) 2021-12-02 2021-12-02 The Apparatus and method for generating the Back side image
PCT/KR2022/014129 WO2023101167A1 (en) 2021-12-02 2022-09-21 Rear image information generation device and method
KR1020230132269A KR20230145983A (en) 2021-12-02 2023-10-05 The Apparatus and method for generating the Back side image
KR1020230132267A KR20230145982A (en) 2021-12-02 2023-10-05 The Apparatus and method for generating the Back side image
KR1020230132264A KR20230145981A (en) 2021-12-02 2023-10-05 The Apparatus and method for generating the Back side image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210170530A KR102627659B1 (en) 2021-12-02 2021-12-02 The Apparatus and method for generating the Back side image

Related Child Applications (3)

Application Number Title Priority Date Filing Date
KR1020230132267A Division KR20230145982A (en) 2021-12-02 2023-10-05 The Apparatus and method for generating the Back side image
KR1020230132264A Division KR20230145981A (en) 2021-12-02 2023-10-05 The Apparatus and method for generating the Back side image
KR1020230132269A Division KR20230145983A (en) 2021-12-02 2023-10-05 The Apparatus and method for generating the Back side image

Publications (2)

Publication Number Publication Date
KR20230083347A true KR20230083347A (en) 2023-06-12
KR102627659B1 KR102627659B1 (en) 2024-01-24

Family

ID=86612582

Family Applications (4)

Application Number Title Priority Date Filing Date
KR1020210170530A KR102627659B1 (en) 2021-12-02 2021-12-02 The Apparatus and method for generating the Back side image
KR1020230132269A KR20230145983A (en) 2021-12-02 2023-10-05 The Apparatus and method for generating the Back side image
KR1020230132264A KR20230145981A (en) 2021-12-02 2023-10-05 The Apparatus and method for generating the Back side image
KR1020230132267A KR20230145982A (en) 2021-12-02 2023-10-05 The Apparatus and method for generating the Back side image

Family Applications After (3)

Application Number Title Priority Date Filing Date
KR1020230132269A KR20230145983A (en) 2021-12-02 2023-10-05 The Apparatus and method for generating the Back side image
KR1020230132264A KR20230145981A (en) 2021-12-02 2023-10-05 The Apparatus and method for generating the Back side image
KR1020230132267A KR20230145982A (en) 2021-12-02 2023-10-05 The Apparatus and method for generating the Back side image

Country Status (2)

Country Link
KR (4) KR102627659B1 (en)
WO (1) WO2023101167A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101829733B1 (en) 2015-01-16 2018-03-29 오인환 Conversion Method For A 2D Image to 3D Graphic Models
KR20180064907A (en) * 2016-12-06 2018-06-15 한국전자통신연구원 3d body information recognition apparatus, apparatus and method for visualizing of health state
KR101906431B1 (en) 2017-07-20 2018-10-11 네이버랩스 주식회사 Method and system for 3d modeling based on 2d image recognition
KR102245220B1 (en) 2020-11-09 2021-04-27 주식회사 엔닷라이트 Apparatus for reconstructing 3d model from 2d images based on deep-learning and method thereof
KR20210070874A (en) * 2019-12-04 2021-06-15 연세대학교 산학협력단 3d human body model reconstruction apparatus and method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101758064B1 (en) * 2013-06-05 2017-07-14 삼성전자주식회사 Estimator learning method and pose estimation mehtod using a depth image
KR101464446B1 (en) * 2013-10-07 2014-11-24 재단법인대구경북과학기술원 Method for user vertification using face recognition and head pose estimation and apparatus thereof
KR102288280B1 (en) * 2014-11-05 2021-08-10 삼성전자주식회사 Device and method to generate image using image learning model
US10469768B2 (en) * 2017-10-13 2019-11-05 Fyusion, Inc. Skeleton-based effects and background replacement
KR102491674B1 (en) * 2018-11-16 2023-01-26 한국전자통신연구원 Method and apparatus for generating virtual viewpoint image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101829733B1 (en) 2015-01-16 2018-03-29 오인환 Conversion Method For A 2D Image to 3D Graphic Models
KR20180064907A (en) * 2016-12-06 2018-06-15 한국전자통신연구원 3d body information recognition apparatus, apparatus and method for visualizing of health state
KR101906431B1 (en) 2017-07-20 2018-10-11 네이버랩스 주식회사 Method and system for 3d modeling based on 2d image recognition
KR20210070874A (en) * 2019-12-04 2021-06-15 연세대학교 산학협력단 3d human body model reconstruction apparatus and method
KR102245220B1 (en) 2020-11-09 2021-04-27 주식회사 엔닷라이트 Apparatus for reconstructing 3d model from 2d images based on deep-learning and method thereof

Also Published As

Publication number Publication date
KR20230145983A (en) 2023-10-18
WO2023101167A1 (en) 2023-06-08
KR20230145982A (en) 2023-10-18
KR20230145981A (en) 2023-10-18
KR102627659B1 (en) 2024-01-24

Similar Documents

Publication Publication Date Title
WO2020192568A1 (en) Facial image generation method and apparatus, device and storage medium
CN107993216B (en) Image fusion method and equipment, storage medium and terminal thereof
JP6685827B2 (en) Image processing apparatus, image processing method and program
CN106682632B (en) Method and device for processing face image
CN111754415B (en) Face image processing method and device, image equipment and storage medium
CN110599395B (en) Target image generation method, device, server and storage medium
CN113628327A (en) Head three-dimensional reconstruction method and equipment
US20150043817A1 (en) Image processing method, image processing apparatus and image processing program
CN114821404B (en) Information processing method, device, computer equipment and storage medium
CN113657357B (en) Image processing method, image processing device, electronic equipment and storage medium
CN114782864B (en) Information processing method, device, computer equipment and storage medium
CN111985281A (en) Image generation model generation method and device and image generation method and device
CN110674759A (en) Monocular face in-vivo detection method, device and equipment based on depth map
CN112784621A (en) Image display method and apparatus
CN112802081A (en) Depth detection method and device, electronic equipment and storage medium
CN113723317A (en) Reconstruction method and device of 3D face, electronic equipment and storage medium
KR102482262B1 (en) Apparatus and method for augmenting data using object segmentation and background synthesis
CN114049290A (en) Image processing method, device, equipment and storage medium
CN114898244B (en) Information processing method, device, computer equipment and storage medium
KR102627659B1 (en) The Apparatus and method for generating the Back side image
US20220157016A1 (en) System and method for automatically reconstructing 3d model of an object using machine learning model
US11922649B2 (en) Measurement data calculation apparatus, product manufacturing apparatus, information processing apparatus, silhouette image generating apparatus, and terminal apparatus
CN114862716A (en) Image enhancement method, device and equipment for face image and storage medium
CN114299105A (en) Image processing method, image processing device, computer equipment and storage medium
KR20220054955A (en) Device, method and computer program for replacing user face with another face

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant