KR102567379B1 - Realistic object creation system through 3d modeling automatic correction - Google Patents

Realistic object creation system through 3d modeling automatic correction Download PDF

Info

Publication number
KR102567379B1
KR102567379B1 KR1020220088037A KR20220088037A KR102567379B1 KR 102567379 B1 KR102567379 B1 KR 102567379B1 KR 1020220088037 A KR1020220088037 A KR 1020220088037A KR 20220088037 A KR20220088037 A KR 20220088037A KR 102567379 B1 KR102567379 B1 KR 102567379B1
Authority
KR
South Korea
Prior art keywords
defective pixel
information
virtual object
pixel
color
Prior art date
Application number
KR1020220088037A
Other languages
Korean (ko)
Inventor
서인호
Original Assignee
주식회사 호인스컴퍼니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 호인스컴퍼니 filed Critical 주식회사 호인스컴퍼니
Priority to KR1020220088037A priority Critical patent/KR102567379B1/en
Application granted granted Critical
Publication of KR102567379B1 publication Critical patent/KR102567379B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Abstract

본 발명은 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치에서 구현되는 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템에 있어서, 전자 장치의 카메라를 통해 다방향에서의 촬영 객체에 대한 촬영이 수행됨에 따라 촬영 영상 프레임에 대응되는 영상 이미지가 획득되는 경우, 상기 전자 장치로부터 상기 전자 장치에 탑재된 자이로 센서의 센싱 값에 기반한 촬영 각도 정보와 상기 전자 장치가 상기 촬영 객체를 촬영함에 따라 획득된 영상 이미지 정보를 수신하는 촬영 정보 수신부; 상기 촬영 각도 정보 및 상기 영상 이미지 정보의 수신이 완료되면, 상기 수신된 촬영 각도 정보 및 상기 영상 이미지 정보를 분석해 상기 분석 결과를 기반으로, 상기 촬영 객체와 대응하는 3D 입체 모델인 가상 객체를 3차원 가상 공간에 구현하여, 상기 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는지를 확인하는 가상 객체 분석부; 및 상기 가상 객체 분석부의 기능 수행으로 인해 상기 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는 것이 확인되면, 상기 적어도 하나의 흠결 픽셀의 인근 픽셀들 각각에 매칭된 컬러 코드 정보 및 깊이 값 정보를 확인하여, 상기 확인된 컬러 코드 정보 및 깊이 값 정보 중 적어도 하나를 활용해 상기 흠결 픽셀에 대한 보정을 완료해 실감 오브젝트의 생성을 완료하는 실감 오브젝트 생성부;3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템를 포함하는 것을 특징으로 한다. 이 외에도 본 문서를 통해 파악되는 다양한 실시예들이 가능하다.The present invention relates to a system for creating realistic objects through automatic 3D modeling correction implemented in a computing device including one or more processors and one or more memories storing instructions executable by the processors, in which objects are generated in multiple directions through a camera of the electronic device. When a video image corresponding to a captured video frame is acquired as a photographing object is captured, photographing angle information based on a sensed value of a gyro sensor mounted in the electronic device and the electronic device provide information about the photographing object from the electronic device. a photographing information receiving unit for receiving video image information obtained by photographing; When the reception of the photographing angle information and the video image information is completed, the received photographing angle information and the video image information are analyzed, and based on the analysis result, a virtual object that is a 3D stereoscopic model corresponding to the photographing object is created in 3D a virtual object analysis unit implemented in a virtual space and checking whether at least one defective pixel among pixels constituting the virtual object exists; and when it is confirmed that at least one defective pixel exists among the pixels constituting the virtual object due to the performance of the function of the virtual object analyzer, color code information and depth matched to each of pixels adjacent to the at least one defective pixel. A sensory object creation unit that checks value information and uses at least one of the identified color code information and depth value information to complete correction of the defective pixel to complete creation of a sensory object; Reality through 3D modeling automatic correction It is characterized in that it includes an object creation system. In addition to this, various embodiments understood through this document are possible.

Description

3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템{REALISTIC OBJECT CREATION SYSTEM THROUGH 3D MODELING AUTOMATIC CORRECTION}Realistic object creation system through 3D modeling automatic correction {REALISTIC OBJECT CREATION SYSTEM THROUGH 3D MODELING AUTOMATIC CORRECTION}

본 발명은 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템에 관한 것으로, 구체적으로는 전자 장치의 카메라를 통해 다방향에서의 촬영 객체에 대한 촬영이 수행됨에 따라 촬영 영상 프레임에 대응되는 영상 이미지가 획득되는 경우, 전자 장치로부터 촬영 각도 정보 및 영상 이미지 정보를 수신하여, 촬영 객체와 대응하는 3D 입체 모델인 가상 객체를 3차원 가상 공간에 구현해 가상 객체에 대한 분석을 시작하고, 분석 결과를 통해 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는 경우, 적어도 하나의 흠결 픽셀의 인근 픽셀들 각각에 매칭된 컬러 코드 정보 및 깊이 값 정보 중 적어도 하나를 활용해 흠결 픽셀에 대한 보정을 완료해 실감 오브젝트의 생성을 완료하는 기술에 관한 것이다. The present invention relates to a system for creating realistic objects through automatic correction of 3D modeling, and more specifically, a video image corresponding to a photographed video frame is obtained as photographing of an object is performed in multiple directions through a camera of an electronic device. In this case, the shooting angle information and the video image information are received from the electronic device, the virtual object, which is a 3D stereoscopic model corresponding to the shooting object, is implemented in a 3D virtual space, and the analysis of the virtual object is started, and the virtual object is created through the analysis result. If there is at least one defective pixel among the constituent pixels, correction of the defective pixel is completed by using at least one of color code information and depth value information matched to each of pixels adjacent to the at least one defective pixel, thereby realizing the realization. It relates to a technique that completes the creation of an object.

최근 3D 프린터의 가격 하락과 품질 향상의 주기가 점차적으로 단축되면서, 제조업에서 주로 사용되던 과거와는 달리 개인의 취미 활동과 생필품 제작용으로 보편화되고 있다. 그러나, 3D 프린팅을 하기 위한 3D 모델링을 하기 위해서는 오토캐드, 3D 스튜디오 맥스 등 전문적인 프로그램을 습득해야 하며, 능숙하게 습득하려면 수개월에서 수년이 걸리는 문제점이 존재하고 있다. 더불어, 사용자가 전문적인 프로그램을 통해 3D 모델링을 수행하더라도, 숙련된 전문가가 아닌 이상 3D 모델링의 대상에 대한 정밀성 높은 작업을 수행하지 못하여 3D 프린터를 통해 출력되는 결과물의 상태가 양호한 상태가 아닐 수 있다.Recently, as the price drop and quality improvement cycle of 3D printers are gradually shortened, 3D printers are becoming more common for individual hobbies and daily necessities, unlike in the past, when they were mainly used in manufacturing. However, in order to do 3D modeling for 3D printing, professional programs such as AutoCAD and 3D Studio Max must be acquired, and there is a problem that it takes several months to several years to master. In addition, even if the user performs 3D modeling through a professional program, unless the user is a skilled expert, he or she cannot perform a highly precise work on the object of 3D modeling, so the output of the 3D printer may not be in good condition. .

이에 따라, 3D 프린팅 업계에서는 3D 모델링에 대한 전문적인 지식이 없어도 쉽게 정밀성 높은 3D 모델링을 수행하는 기술들을 개발하고 있다.Accordingly, the 3D printing industry is developing technologies that easily perform high-precision 3D modeling without professional knowledge of 3D modeling.

일 예로서, 한국공개특허 10-2019-0074562(VR 기술 기반의 3D 모델링 저작도구를 이용한 3D 프린팅 시스템)에는 VR 기술을 활용하여 전문적인 3D 모델링 툴의 교육을 받지 않더라도 누구나 쉽게 3D 모델링 데이터를 입체적으로 출력하도록 하는 기술이 개시되어 있다.As an example, Korea Patent Publication No. 10-2019-0074562 (3D printing system using a 3D modeling authoring tool based on VR technology) utilizes VR technology to allow anyone to easily convert 3D modeling data into three dimensions without training in a professional 3D modeling tool. A technique for outputting is disclosed.

그러나, 상술한 선행기술에서는 단순히 사용자의 모션을 통해 HMD에서 출력되는 VR 객체를 저작하는 기술만이 개시되어 있을 뿐, 전자 장치의 카메라를 통해 다방향에서의 촬영 객체에 대한 촬영이 수행됨에 따라 촬영 영상 프레임에 대응되는 영상 이미지가 획득되는 경우, 전자 장치로부터 촬영 각도 정보 및 영상 이미지 정보를 수신하여, 촬영 객체와 대응하는 3D 입체 모델인 가상 객체를 3차원 가상 공간에 구현해 가상 객체에 대한 분석을 시작하고, 분석 결과를 통해 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는 경우, 적어도 하나의 흠결 픽셀의 인근 픽셀들 각각에 매칭된 컬러 코드 정보 및 깊이 값 정보 중 적어도 하나를 활용해 흠결 픽셀에 대한 보정을 완료해 실감 오브젝트의 생성을 완료하는 기술은 개시되어 있지 않아, 이를 해결할 수 있는 기술의 필요성이 대두되고 있다.However, in the prior art described above, only a technology for authoring a VR object output from an HMD through a user's motion is disclosed, and shooting is performed for a shooting object in multiple directions through a camera of an electronic device. When a video image corresponding to the video frame is obtained, the shooting angle information and the video image information are received from the electronic device, and a virtual object, which is a 3D stereoscopic model corresponding to the shooting object, is implemented in a 3D virtual space to analyze the virtual object. and if at least one defective pixel exists among the pixels constituting the virtual object through the analysis result, at least one of color code information and depth value information matched to each of pixels adjacent to the at least one defective pixel is used. A technology for completing the correction of a defective pixel to complete generation of a sensory object has not been disclosed, and thus the need for a technology capable of solving this problem is emerging.

이에 본 발명은, 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템을 통해 전자 장치의 카메라에 의해 다방향에서의 촬영 객체에 대한 촬영이 수행됨에 따라 촬영 영상 프레임에 대응되는 영상 이미지가 획득되는 경우, 전자 장치로부터 촬영 각도 정보 및 영상 이미지 정보를 수신하여, 촬영 객체와 대응하는 3D 입체 모델인 가상 객체를 3차원 가상 공간에 구현해 가상 객체에 대한 분석을 시작하고, 분석 결과를 통해 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는 경우, 적어도 하나의 흠결 픽셀의 인근 픽셀들 각각에 매칭된 컬러 코드 정보 및 깊이 값 정보 중 적어도 하나를 활용해 흠결 픽셀에 대한 보정을 완료해 실감 오브젝트의 생성을 완료함으로써, 3D 모델링에 대한 전문적인 지식이 없어도 가상 객체를 구성하는 픽셀을 통해 가상 객체를 자동 보정해 사용자에게 작업 편의성을 제공함과 동시에 상태가 양호한 3D 모델링에 기반한 작업물(예: 모델링 데이터 또는 3D 프린터 출력물)을 제공하는 것에 그 목적이 있다.Accordingly, the present invention, when a video image corresponding to a photographed image frame is acquired as photographing of a photographed object in multiple directions is performed by a camera of an electronic device through a realistic object generation system through 3D modeling automatic correction, electronic By receiving photographic angle information and video image information from the device, a virtual object, a 3D three-dimensional model corresponding to the photographed object, is implemented in a 3D virtual space to start analyzing the virtual object, and the pixels constituting the virtual object through the analysis result If there is at least one defective pixel among the defective pixels, correction of the defective pixel is completed using at least one of color code information and depth value information matched to each of the pixels adjacent to the at least one defective pixel to create a tactile object. By completing the 3D modeling, the virtual object is automatically corrected through the pixels constituting the virtual object without professional knowledge of 3D modeling, providing work convenience to the user and at the same time providing work based on 3D modeling in good condition (e.g., modeling data or Its purpose is to provide 3D printer output).

본 발명의 일 실시예에 따른 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치에서 구현되는 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템에 있어서, 전자 장치의 카메라를 통해 다방향에서의 촬영 객체에 대한 촬영이 수행됨에 따라 촬영 영상 프레임에 대응되는 영상 이미지가 획득되는 경우, 상기 전자 장치로부터 상기 전자 장치에 탑재된 자이로 센서의 센싱 값에 기반한 촬영 각도 정보와 상기 전자 장치가 상기 촬영 객체를 촬영함에 따라 획득된 영상 이미지 정보를 수신하는 촬영 정보 수신부; 상기 촬영 각도 정보 및 상기 영상 이미지 정보의 수신이 완료되면, 상기 수신된 촬영 각도 정보 및 상기 영상 이미지 정보를 분석해 상기 분석 결과를 기반으로, 상기 촬영 객체와 대응하는 3D 입체 모델인 가상 객체를 3차원 가상 공간에 구현하여, 상기 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는지를 확인하는 가상 객체 분석부; 및 상기 가상 객체 분석부의 기능 수행으로 인해 상기 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는 것이 확인되면, 상기 적어도 하나의 흠결 픽셀의 인근 픽셀들 각각에 매칭된 컬러 코드 정보 및 깊이 값 정보를 확인하여, 상기 확인된 컬러 코드 정보 및 깊이 값 정보 중 적어도 하나를 활용해 상기 흠결 픽셀에 대한 보정을 완료해 실감 오브젝트의 생성을 완료하는 실감 오브젝트 생성부;3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템를 포함하는 것을 특징으로 한다.In the realistic object generation system through 3D modeling automatic correction implemented in a computing device including one or more processors and one or more memories storing instructions executable by the processors according to an embodiment of the present invention, the camera of the electronic device When a video image corresponding to a photographed video frame is acquired as photographing of a photographed object in multiple directions is performed through the electronic device, photographing angle information based on a sensing value of a gyro sensor mounted in the electronic device and the electronic device a photographing information receiver configured to receive video image information acquired as the apparatus photographs the photographing object; When the reception of the photographing angle information and the video image information is completed, the received photographing angle information and the video image information are analyzed, and based on the analysis result, a virtual object that is a 3D stereoscopic model corresponding to the photographing object is created in 3D a virtual object analysis unit implemented in a virtual space and checking whether at least one defective pixel among pixels constituting the virtual object exists; and when it is confirmed that at least one defective pixel exists among the pixels constituting the virtual object due to the performance of the function of the virtual object analyzer, color code information and depth matched to each of pixels adjacent to the at least one defective pixel. A sensory object creation unit that checks value information and uses at least one of the identified color code information and depth value information to complete correction of the defective pixel to complete creation of a sensory object; Reality through 3D modeling automatic correction It is characterized in that it includes an object creation system.

상기 가상 객체 분석부는, 상기 촬영 각도 정보 및 상기 영상 이미지 정보의 수신이 완료되면, 상기 영상 이미지 정보에 대한 분석을 시작하여, 상기 영상 이미지 정보 상의 촬영 객체에 대한 깊이 값 및 컬러를 추출하고, 상기 다방향에서 촬영한 촬영 객체에 대한 2차원 이미지를 상기 추출된 깊이 값 및 컬러가 반영된 3차원 이미지로 변환하는 이미지 변환부; 및 상기 3차원 이미지의 변환이 완료되면, 상기 촬영 객체의 동일한 영역을 지시하는 픽셀의 깊이 값이 동일해지도록 상기 3차원 이미지의 크기를 보정하고, 상기 촬영 각도 정보에 대응되는 방향에서 상기 3차원 이미지를 정합하여 3D 입체 모델인 가상 객체를 생성하는 가상 객체 생성부;를 포함하는 것이 바람직하다.The virtual object analysis unit, when the reception of the photographing angle information and the video image information is completed, starts analysis of the video image information, extracts a depth value and color of a photographed object on the video image information, and an image conversion unit for converting a 2D image of a photographed object photographed from multiple directions into a 3D image in which the extracted depth value and color are reflected; and when the conversion of the 3D image is completed, the size of the 3D image is corrected so that depth values of pixels indicating the same region of the photographing object become the same, and the 3D image is measured in a direction corresponding to the photographing angle information. It is preferable to include; a virtual object creation unit that creates a virtual object that is a 3D three-dimensional model by matching the images.

상기 가상 객체 분석부는, 상기 가상 객체의 생성이 완료됨에 따라 상기 3차원 가상 공간에 상기 가상 객체의 구현이 완료되면, 상기 가상 객체를 구성하는 픽셀들에 대한 분석 프로세스를 시작하는 프로세스 시작부; 상기 분석 프로세스가 시작되면, 기 저장된 흠결 픽셀 도출 알고리즘을 기반으로, 상기 가상 객체를 구성하는 픽셀들 중 제1 픽셀을 지정하고, 상기 제1 픽셀을 기준으로 지정된 범위 내에 위치한 범위 픽셀에 대한 분석을 시작하여, 상기 분석 결과를 통해 상기 제1 픽셀 및 상기 범위 픽셀 중 적어도 하나가 지정된 흠결 픽셀 조건을 만족하는지를 확인하는 조건 만족 확인부; 및 상기 제1 픽셀 및 상기 범위 픽셀 중 적어도 하나가 상기 지정된 흠결 픽셀 조건을 만족하는 경우, 상기 지정된 흠결 픽셀 조건을 만족하는 픽셀에 식별 정보를 부여해 흠결 픽셀로 지정하는 흠결 픽셀 지정부;를 포함하는 것이 가능하다.The virtual object analysis unit may include: a process starting unit that starts an analysis process for pixels constituting the virtual object when the creation of the virtual object is completed and implementation of the virtual object in the 3D virtual space is completed; When the analysis process starts, a first pixel among pixels constituting the virtual object is designated based on a pre-stored defective pixel derivation algorithm, and range pixels located within a designated range based on the first pixel are analyzed. a condition satisfaction checking unit that first checks whether at least one of the first pixel and the range pixels satisfies a designated defective pixel condition through the analysis result; and a defective pixel designation unit assigning identification information to a pixel that satisfies the specified defective pixel condition and designating the pixel as a defective pixel when at least one of the first pixel and the range pixels satisfies the designated defective pixel condition. it is possible

상기 기 저장된 흠결 픽셀 도출 알고리즘은, 상기 분석 프로세스가 시작되면, 상기 가상 객체를 구성하는 픽셀들 각각을 확인하여, 상기 컬러 코드 정보가 반영되어있지 않은 픽셀 및 범위 픽셀 대비 깊이 값이 기 설정된 임계 범위를 초과하거나 미만인 비연속적 픽셀 중 적어도 하나를 식별해 식별 정보를 부여하여 상기 흠결 픽셀로 지정하는 알고리즘인 것이 가능하다.The pre-stored defective pixel derivation algorithm, when the analysis process starts, checks each of the pixels constituting the virtual object so that the depth value of the pixels and range pixels to which the color code information is not reflected is within a preset threshold range. It is possible that it is an algorithm that identifies at least one of the non-contiguous pixels exceeding or less than , assigning identification information to it, and designating it as the defective pixel.

상기 실감 오브젝트 생성부는, 상기 흠결 픽셀 지정부의 기능 수행으로 인해 상기 가상 객체를 구성하는 픽셀들 중 상기 흠결 픽셀이 확인되는 경우, 상기 흠결 픽셀을 제외하되, 상기 흠결 픽셀을 기준으로 지정된 범위 내에 위치한 범위 픽셀 각각의 컬러 변동에 대한 평균 값을 확인하여, 상기 확인된 평균 값에 대응되는 컬러 코드 정보를 상기 흠결 픽셀에 매칭해 상기 매칭된 컬러 코드 정보에 기반한 컬러를 상기 흠결 픽셀에 반영해 1차 보정을 실시하는 제1 컬러 보정 실시부; 및 상기 제1 컬러 보정 실시부의 기능 수행이 완료되면, 상기 흠결 픽셀을 기준으로 상기 지정된 범위 내에 위치한 범위 픽셀과 상기 흠결 픽셀의 깊이 값을 확인하여, 상기 확인된 깊이 값에 기반한 명도를 상기 흠결 픽셀에 반영된 컬러에 반영해 2차 보정을 실시하고, 상기 흠결 픽셀에 매칭된 컬러 코드 정보를 상기 2차 보정된 컬러에 대응되는 컬러 코드 정보로 재매칭하는 제2 컬러 보정 실시부;를 포함하는 것이 가능하다.The sensory object creation unit, when the defective pixel is identified among the pixels constituting the virtual object by performing the function of the defective pixel designation unit, excludes the defective pixel, but is located within a designated range based on the defective pixel. The average value of the color variation of each pixel in the range is checked, color code information corresponding to the checked average value is matched to the defective pixel, and the color based on the matched color code information is reflected to the defective pixel. a first color correction unit that performs correction; and when the function of the first color correction unit is completed, determining a range pixel located within the specified range and a depth value of the defective pixel based on the defective pixel, and determining the brightness based on the determined depth value of the defective pixel. and a second color correction implementer for performing secondary correction by reflecting the color reflected in the color and re-matching color code information matched to the defective pixel with color code information corresponding to the secondary corrected color. possible.

상기 실감 오브젝트 생성부는, 상기 제1 컬러 보정 실시부의 기능이 수행되기 이전에, 상기 가상 객체에 대한 조명 이펙트에 기반한 조명 객체가 존재하는지를 확인하여, 상기 가상 객체의 흠결 픽셀을 포함하는 일 영역에 상기 조명 객체가 검출되는 경우, 상기 검출된 조명 객체의 형태, 컬러 및 텍스쳐를 분석하여, 상기 가상 객체에 대응되는 촬영 객체에 대한 조명의 세기 및 조사 방향을 포함하는 조명의 영향을 판단한 상태에서, 상기 제2 컬러 보정 실시부의 기능이 수행되는 경우, 상기 제2 컬러 보정 실시부로 하여금 상기 지정된 범위 내에 위치한 범위 픽셀과 상기 흠결 픽셀의 깊이 값을 확인하여, 상기 확인된 깊이 값에 기반한 명도에 상기 조명의 영향을 반영해 상기 2차 보정을 실시하도록 요청하는 것이 가능하다.The sensory object creation unit checks whether a lighting object based on a lighting effect for the virtual object exists before the function of the first color correction unit is performed, and determines whether or not a lighting object exists in an area including defective pixels of the virtual object. When a lighting object is detected, the shape, color, and texture of the detected lighting object are analyzed to determine the effect of lighting, including the intensity and direction of lighting on the shooting object corresponding to the virtual object, the When the function of the second color correction unit is performed, the second color correction unit checks the depth value of the range pixels located within the designated range and the defective pixel, and determines the brightness based on the checked depth value. It is possible to request that the secondary correction be performed by reflecting the influence.

상기 실감 오브젝트 생성부는, 상기 가상 객체 분석부가 상기 기 저장된 흠결 픽셀 도출 알고리즘을 통해 범위 픽셀 대비 깊이 값이 기 설정된 임계 범위를 초과 또는 미만인 비연속적 픽셀을 식별하는 경우, 상기 식별된 비연속적 픽셀에 인접한 인접 픽셀에 대한 깊이 값의 깊이 평균 값을 산출하여, 상기 산출된 깊이 평균 값에 대응되는 깊이 값을 상기 식별된 비연속적 픽셀에 반영해 보정을 실시하는 것이 가능하다.The sensory object generator may, when the virtual object analyzer identifies a non-contiguous pixel whose depth value versus range pixels exceeds or falls below a preset threshold range through the previously stored defective pixel derivation algorithm, adjacent to the identified non-contiguous pixel; It is possible to perform correction by calculating a depth average value of depth values of adjacent pixels and reflecting the depth value corresponding to the calculated depth average value to the identified non-contiguous pixels.

본 발명인 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템은 카메라를 통해 촬영되는 촬영 객체와 대응하는 가상 객체를 자동으로 보정해 실감 오브젝트를 생성함에 따라, 사용자에게 작업 편의성을 제공함과 동시에 상태가 양호한 3D 모델링에 기반한 작업물(예: 모델링 데이터 또는 3D 프린터 출력물)을 제공할 수 있다.The system for creating realistic objects through automatic correction of 3D modeling according to the present invention creates realistic objects by automatically correcting a virtual object corresponding to a photographed object photographed through a camera, thereby providing work convenience to the user and at the same time, 3D modeling in good condition (e.g., modeling data or 3D printer output) can be provided.

또한, 사용자는 3D 모델링에 대한 전문적인 지식을 습득하지 않아도 촬영 객체와 오차율을 현저하게 적은 실감 오브젝트를 생성할 수 있다.In addition, the user can create a sensory object with a remarkably small error rate compared to a photographed object without acquiring specialized knowledge of 3D modeling.

도 1은 본 발명의 일 실시 예에 따른 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템의 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템의 가상 객체 분석부에 대한 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템의 가상 객체 분석부에 대한 다른 블록도이다.
도 4는 본 발명의 일 실시 예에 따른 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템의 기 저장된 흠결 픽셀 도출 알고리즘을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시 예에 따른 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템의 실감 오브젝트 생성부를 설명하기 위한 블록도이다.
도 6은 본 발명의 일 실시 예에 따른 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템의 실감 오브젝트 생성부를 설명하기 위한 다른 블록도이다.
도 7은 본 발명의 일 실시 예에 따른 컴퓨팅 장치의 내부 구성의 일 예를 설명하기 위한 도면이다.
1 is a block diagram of a sensory object generation system through automatic correction of 3D modeling according to an embodiment of the present invention.
2 is a block diagram of a virtual object analysis unit of a system for generating sensory objects through automatic correction of 3D modeling according to an embodiment of the present invention.
3 is another block diagram of a virtual object analysis unit of a system for generating sensory objects through automatic correction of 3D modeling according to an embodiment of the present invention.
4 is a diagram for explaining a pre-stored defective pixel derivation algorithm of a system for generating sensory objects through automatic correction of 3D modeling according to an embodiment of the present invention.
5 is a block diagram illustrating a sensory object generation unit of a sensory object generation system through automatic correction of 3D modeling according to an embodiment of the present invention.
6 is another block diagram illustrating a sensory object generation unit of a sensory object generation system through automatic correction of 3D modeling according to an embodiment of the present invention.
7 is a diagram for explaining an example of an internal configuration of a computing device according to an embodiment of the present invention.

이하에서는, 다양한 실시 예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.In the following, various embodiments and/or aspects are disclosed with reference now to the drawings. In the following description, for purposes of explanation, numerous specific details are set forth in order to facilitate a general understanding of one or more aspects. However, it will also be appreciated by those skilled in the art that such aspect(s) may be practiced without these specific details. The following description and accompanying drawings describe in detail certain illustrative aspects of one or more aspects. However, these aspects are exemplary and some of the various methods in principle of the various aspects may be used, and the described descriptions are intended to include all such aspects and their equivalents.

본 명세서에서 사용되는 "실시 예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다.References to “embodiment,” “example,” “aspect,” “example,” etc., used in this specification should not be construed as indicating that any aspect or design described is preferable to or advantageous over other aspects or designs. .

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.Also, the terms "comprises" and/or "comprising" mean that the feature and/or element is present, but excludes the presence or addition of one or more other features, elements and/or groups thereof. It should be understood that it does not.

또한, 제 1, 제 2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.In addition, terms including ordinal numbers such as first and second may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The terms and/or include any combination of a plurality of related recited items or any of a plurality of related recited items.

또한, 본 발명의 실시 예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시 예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, in the embodiments of the present invention, unless otherwise defined, all terms used herein, including technical or scientific terms, are those commonly understood by those of ordinary skill in the art to which the present invention belongs. have the same meaning. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the embodiments of the present invention, an ideal or excessively formal meaning not be interpreted as

도 1은 본 발명의 일 실시 예에 따른 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템의 블록도이다.1 is a block diagram of a sensory object generation system through automatic correction of 3D modeling according to an embodiment of the present invention.

도 1을 참조하면, 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템(100)(이하, 자동 보정 시스템으로 칭함)은 촬영 정보 수신부(101), 가상 객체 분석부(103) 및 실감 오브젝트 생성부(105)를 포함할 수 있다.Referring to FIG. 1 , a sensory object generation system 100 (hereinafter referred to as an automatic correction system) through 3D modeling automatic correction includes a shooting information receiver 101, a virtual object analyzer 103, and a sensory object generator 105. ) may be included.

일 실시예에 따르면, 상기 촬영 정보 수신부(101)는 전자 장치(101a)의 카메라를 통해 다방향에서의 촬영 객체에 대한 촬영이 수행됨에 따라 촬영 영상 프레임에 대응되는 영상 이미지가 획득되는 경우, 상기 전자 장치(101)로부터 상기 전자 장치(101)에 탑재된 자이로 센서의 센싱 값에 기반한 촬영 각도 정보와 상기 전자 장치(101)가 상기 촬영 개체를 촬영함에 따라 획득된 영상 이미지 정보를 수신할 수 있다.According to an embodiment, when a video image corresponding to a captured image frame is obtained as a photographing object is captured in multiple directions through a camera of the electronic device 101a, the photographing information receiving unit 101 may perform the photographing of an object in multiple directions. Photography angle information based on a sensing value of a gyro sensor mounted in the electronic device 101 and video image information acquired as the electronic device 101 photographs the photographing object may be received from the electronic device 101. .

본 발명에서 상기 전자 장치(101a)는, 카메라, 자이로 센서, 상기 자동 보정 시스템(100) 등이 구현되는 프로세서 및 메모리와 함께 출력 및 입력 수단으로서 예를 들어 디스플레이(또는 터치 스크린)등을 포함하도록 구현될 수 있고, 이는 후술하는 도 7에 대한 설명에서 언급되는 컴퓨팅 장치와 동일한 개념으로 이해될 수 있다.In the present invention, the electronic device 101a includes, for example, a display (or touch screen) as output and input means together with a processor and a memory in which a camera, a gyro sensor, and the automatic calibration system 100 are implemented. This may be implemented, and this may be understood as the same concept as the computing device mentioned in the description of FIG. 7 to be described later.

일 실시예에 따르면, 상기 전자 장치(101a)의 카메라는 정지 이미지 또는 영상을 촬영하는 장치(또는 모듈)를 의미한다. According to an embodiment, the camera of the electronic device 101a refers to a device (or module) that captures still images or videos.

다른 실시예에 따르면, 상기 카메라는 뎁스 비전 기능이 포함된 카메라를 포함할 수 있다. 일반적인 최근의 스마트폰에 탑재된 카메라가 본 발명에서의 카메라를 지칭할 수 있다. 뎁스 비전이란, 비행시간거리측정(ToF) 카메라로 분류된다. 사물을 향해 쏜 빛이 튕겨져 돌아오는 시간으로 거리를 계산한다. 사물의 입체감과 공간 정보, 움직임을 정확하게 인식할 수 있다. 해당 거리값이 본 발명에서의 깊이 값으로 측정되며, 각 픽셀, 즉 촬영 영상 프레임을 이루는 픽셀들 중 촬영 객체의 경계값 내의 픽셀들에 대한 깊이 값을 측정할 수 있다.According to another embodiment, the camera may include a camera including a depth vision function. A camera installed in a typical recent smart phone may refer to a camera in the present invention. Depth vision is classified as a Time-of-Flight (ToF) camera. The distance is calculated by the time it takes for the light shot toward the object to bounce off and return. You can accurately recognize the three-dimensional effect, spatial information, and movement of objects. A corresponding distance value is measured as a depth value in the present invention, and depth values for each pixel, that is, pixels within a boundary value of a photographed object among pixels constituting a photographed image frame may be measured.

이에 따라, 상기 전자 장치(101a)는 상기 카메라를 통해 촬영 객체 촬영 시, 경계값 식별, 그레이 변환 식별 등 각 영상 프레임을 이루는 이미지들로부터 촬영 객체를 식별하는 다양한 공지의 기술들이 사용될 수 있다. Accordingly, when capturing a photographing object through the camera, the electronic device 101a may use various known techniques for identifying a photographing object from images constituting each image frame, such as boundary value identification and gray conversion identification.

일 실시예에 따르면, 상기 자이로 센서는 X, Y, Z 3축에 대한 회전 속도를 측정하며, 이를 통해서 전자 장치(101a)의 기울임 정도나 회전 등을 측정할 수 있다. 상기와 관련하여, 상기 자이로 센서는 예를 들어 가속도 센서로서, 가속도를 측정하여 동작 인식 및 감지에 활용되는 센서로 대체될 수 있다. 이를 통해서, 스마트폰 등의 전자 장치를 들고 사용자가 회전하거나 이동하면서 촬영 객체를 촬영 시, 각 프레임별로 측정값을 타임 스탬프에 따라서 매칭 시, 각 프레임을 이루는 영상 이미지에 촬영 시의 전자 장치(101a)의 기울임 등을 이용하여 촬영 각도 정보를 생성하고, 이를 매칭시킬 수 있다. According to an embodiment, the gyro sensor measures the rotational speed of the X, Y, and Z axes, and through this, the degree of tilt or rotation of the electronic device 101a can be measured. In relation to the foregoing, the gyro sensor may be replaced with, for example, an acceleration sensor, which is used for motion recognition and detection by measuring acceleration. Through this, when a user rotates or moves an electronic device such as a smartphone and photographs a photographing object, matches measurement values for each frame according to time stamps, and electronic device 101a when photographing a video image constituting each frame. ) may be used to generate photographing angle information and match them.

일 실시예에 따르면, 상기 촬영 각도 정보는 상기 자이로 센서의 센싱 값을 기준으로 도출된 값으로서, 촬영 객체를 원점으로 한 X, Y, Z축 좌표 값에 따라 도출되는 3차원 각도 정보를 의미할 수 있다.According to an embodiment, the photographing angle information is a value derived based on a sensing value of the gyro sensor, and means 3D angle information derived according to X, Y, and Z-axis coordinate values of the photographing object as an origin. can

일 실시예에 따르면, 영상 이미지 정보는, 사용자가 전자 장치(101a)를 이용하여 영상을 촬영 시, 촬영 시간 동안 획득된 영상의 프레임을 이루는 각 영상 이미지마다, 상기 촬영 각도 정보를 결합한 일종의 미디어 및 메타 데이터의 결합체를 의미한다. 이 때, 상기 영상 이미지 정보는 다방향에서 상기 촬영 객체를 촬영함에 따라 생성된 복수 개의 영상 이미지를 포함하는 정보일 수 있다.According to an embodiment, the video image information is a kind of media obtained by combining the photographing angle information for each video image constituting a frame of an image acquired during a photographing time when a user captures an image using the electronic device 101a. It means a combination of meta data. In this case, the video image information may be information including a plurality of video images generated by photographing the photographing object in multiple directions.

일 실시예에 따르면, 상기 촬영 정보 수신부(101)는 상기 영상 이미지 정보 수신 시, 상기 영상 이미지 정보에 기반한 각 영상 이미지에 대응되는 촬영 영상 프레임에 대한 촬영 각도 정보도 함께 추가로 수신할 수 있다.According to an embodiment, when receiving the video image information, the photographing information receiving unit 101 may additionally receive photographing angle information about a photographed video frame corresponding to each video image based on the video image information.

일 실시예에 따르면, 상기 가상 객체 분석부(103)는 상기 촬영 각도 정보 및 상기 영상 이미지 정보의 수신이 완료되면, 상기 수신된 촬영 각도 정보 및 상기 영상 이미지 정보를 기반으로, 상기 촬영 객체와 대응하는 3D 입체 모델인 가상 객체를 3차원 가상 공간에 구현하여, 상기 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는지를 확인할 수 있다.According to an embodiment, when the reception of the photographing angle information and the video image information is completed, the virtual object analyzer 103 corresponds to the photographing object based on the received photographing angle information and the video image information. By implementing a virtual object, which is a 3D stereoscopic model, in a 3D virtual space, it is possible to check whether at least one defective pixel exists among pixels constituting the virtual object.

일 실시예에 따르면, 상기 가상 객체 분석부(103)는 상기 촬영 각도 정보 및 상기 영상 이미지 정보의 수신이 완료되면, 상기 수신된 영상 이미지 정보에 대한 분석을 시작하여, 상기 영상 이미지 정보 상의 촬영 객체에 대한 깊이 값 및 컬러를 추출하고, 상기 영상 이미지 정보에 기반한 2차원 이미지인 촬영 객체를 상기 추출된 깊이 값 및 컬러가 반영된 3차원 이미지로 변환할 수 있다. According to an embodiment, the virtual object analyzer 103 starts analyzing the received video image information when the reception of the photographing angle information and the video image information is completed, and the captured object on the video image information It is possible to extract a depth value and color for , and convert a photographing object, which is a 2D image based on the video image information, into a 3D image in which the extracted depth value and color are reflected.

상기와 관련하여, 상기 가상 객체 분석부(103)는 상기 촬영 객체에 대한 3차원 이미지를 생성 시, 상기 촬영 객체에 대한 6면도 및 사시도에 해당하는 이미지를 정합 대상 정보로 선택하여, 활용함으로써, 촬영 상황 및 사용자의 촬영에 영향을 받지 않고 일정한 3차원 모델링의 품질을 확보할 수 있고, 전문적인 지식 없이도 자연스럽게 촬영 대상을 중심으로 주변을 움직이면서 동영상을 촬영하게 되면 자동으로 일정한 도면을 선택하여 3차원 모델링을 수행하여, 그 편의성이 크게 향상될 수 있다. In relation to the foregoing, when generating a 3D image of the photographed object, the virtual object analyzer 103 selects and utilizes images corresponding to six side views and perspective views of the photographed object as matching target information, It is possible to secure a constant quality of 3D modeling without being affected by the shooting situation or the user's shooting, and when a video is taken while moving around the shooting target naturally without professional knowledge, a certain drawing is automatically selected to create a 3D model. By performing modeling, the convenience can be greatly improved.

일 실시예에 따르면, 상기 깊이 값은, 상기 촬영 객체의 3차원 이미지 생성을 위해 사용되는 촬영 영상 프레임에 대응되는 영상 이미지 내의 촬영 객체를 구성하는 픽셀들에 대해서 측정된 깊이 값을 의미할 수 있다. 이에 따라, 상기 가상 객체 분석부(103)는 상기 전자 장치(101a)로부터 수신되는 영상 이미지 정보에 기반한 촬영 객체에 대한 이미지 경계선 내에 포함된 픽셀들을 분석하여, 상기 분석 결과를 통해 상기 촬영 객체를 구성하는 픽셀들 각각에 매칭된 깊이 값을 추출할 수 있다. According to an embodiment, the depth value may mean a depth value measured for pixels constituting a photographed object in a video image corresponding to a photographed video frame used to generate a 3D image of the photographed object. . Accordingly, the virtual object analyzer 103 analyzes the pixels included in the image boundary of the captured object based on the video image information received from the electronic device 101a, and constructs the captured object through the analysis result. It is possible to extract a depth value matched to each of the pixels.

본 발명에서 결합 영상 이미지를 이용하여 3차원 이미지 데이터를 생성함은, 공지의 2차원 이미지를 통한 3차원 이미지 생성 기술을 의미할 수 있으며, 이때 상술한 각 영상 이미지 정보에 포함된 픽셀들의 깊이 값들 중, 촬영 객체를 이루는 픽셀 및 그 픽셀들의 깊이 값을 이용하여, 가상 객체 및 실감 오브젝트의 생성에 이용될 수 있다. 이 때, 상기 가상 객체 분석부(103)는 상기 영상 이미지 정보를 이용해 3차원 이미지 데이터 생성 시, 상기 각 영상 이미지 정보에 포함된 촬영 객체를 구성하는 픽셀들의 깊이 값을 추출하고, 추출된 깊이 값에 기반해 상기 촬영 객체를 이루는 픽셀을 구현하되, 상기 구현된 픽셀들 각각에 상기 깊이 값에 대응하는 깊이 값 정보를 매칭하고, 상기 추출된 컬러에 기반해 그 픽셀들의 컬러 코드 정보를 매칭할 수 있다.In the present invention, generating 3D image data using a combined video image may refer to a 3D image generation technology using a known 2D image, and in this case, depth values of pixels included in each video image information described above Among them, virtual objects and sensory objects may be created using pixels constituting a photographed object and depth values of the pixels. At this time, when generating 3D image data using the video image information, the virtual object analyzer 103 extracts depth values of pixels constituting a captured object included in each video image information, and extracts the extracted depth values. It is possible to implement pixels constituting the photographing object based on , match depth value information corresponding to the depth value to each of the implemented pixels, and match color code information of the pixels based on the extracted color. there is.

일 실시예에 따르면, 상기 가상 객체 분석부(103)는 상기 3차원 이미지를 상기 3차원 가상 공간에 구현함으로써, 3D 입체 모델인 가상 객체(103a)를 생성할 수 있다. According to an embodiment, the virtual object analyzer 103 may generate a virtual object 103a that is a 3D stereoscopic model by implementing the 3D image in the 3D virtual space.

일 실시예에 따르면, 상기 가상 객체 분석부(103)는 상기 가상 객체(103a)의 생성이 완료되면, 상기 가상 객체(103a)를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀(103b)이 존재하는지를 확인할 수 있다. 상기와 관련하여, 상기 가상 객체 분석부(103)가 상기 흠결 픽셀(103b)의 존재 여부를 확인하는 자세한 설명은 도 3 내지 도 4에서 설명하도록 한다.According to an embodiment, the virtual object analyzer 103 determines whether at least one defective pixel 103b exists among the pixels constituting the virtual object 103a when the generation of the virtual object 103a is completed. You can check. In relation to the foregoing, a detailed description of how the virtual object analyzer 103 determines whether the defective pixel 103b exists will be described with reference to FIGS. 3 and 4 .

일 실시예에 따르면, 상기 흠결 픽셀(103b)은 상기 가상 객체(103a)를 구성하는 픽셀들 중 적어도 하나의 픽셀이 형태가 주변의 픽셀과 달리 비정상적인 형태로 형성되어 있거나, 주변의 픽셀의 컬러와 달리 비정상적인 형태로 형성되어 있는 픽셀을 의미할 수 있다.According to an exemplary embodiment, the defective pixel 103b is that at least one of the pixels constituting the virtual object 103a is formed in an abnormal shape unlike the surrounding pixels, or the color and color of the surrounding pixels are different. Otherwise, it may mean a pixel formed in an abnormal shape.

일 실시예에 따르면, 상기 실감 오브젝트 생성부(105)는 상기 가상 객체 분석부(103)의 기능 수행으로 인해 상기 가상 객체(103a)를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀(103b)이 존재하는 것이 확인되면, 상기 적어도 하나의 흠결 픽셀(103b)의 인근 픽셀들 각각에 매칭된 컬러 코드 정보(105a) 및 깊이 값 정보(105b)를 추출하여, 상기 흠결 픽셀에 대한 보정을 완료해 실감 오브젝트를 생성할 수 있다.According to an embodiment, the sensory object generating unit 105 has at least one defective pixel 103b among pixels constituting the virtual object 103a due to the function of the virtual object analyzing unit 103 being performed. If it is confirmed that this is the case, color code information 105a and depth value information 105b matched to each of pixels adjacent to the at least one defective pixel 103b are extracted, correction of the defective pixel is completed, and sensory object can create

일 실시예에 따르면, 상기 컬러 코드 정보(105a)는 상기 가상 객체를 구성하는 픽셀들 및 그 픽셀들에 매칭된 정보로써, 보다 자세하게, 상기 카메라를 통해 촬영한 촬영 객체의 컬러와 대응되는 컬러에 기반한 컬러 코드(예: BLUE(#0000FF, (0, 0, 255)))를 포함하는 정보일 수 있다.According to an embodiment, the color code information 105a is pixels constituting the virtual object and information matched to the pixels, and more specifically, the color code information 105a corresponds to a color of a photographed object photographed through the camera. It may be information including a based color code (eg, BLUE(#0000FF, (0, 0, 255))).

일 실시예에 따르면, 상기 실감 오브젝트 생성부(105)는 상기 흠결 픽셀의 인근 픽셀들 각각에 매칭된 컬러 코드 정보(105a)와 상기 깊이 값 정보(105b)를 추출하여, 상기 컬러 코드 정보(105a)에 기반한 컬러의 평균 값에 대응되는 컬러를 상기 흠결 픽셀에 반영해 색 보정을 실시하거나 상기 깊이 값 정보(105b)에 기반한 깊이 값의 평균 깊이 값에 대응되는 깊이 값을 상기 흠결 픽셀에 반영해 형태 보정을 실시할 수 있다. 상기 실감 오브젝트 생성부(105)가 상기 흠결 픽셀을 보정하는 자세한 설명은 도 5 내지 도 6에서 설명하도록 한다.According to an embodiment, the sensory object generator 105 extracts color code information 105a and depth value information 105b matched to each of pixels adjacent to the defective pixel, and then extracts the color code information 105a. ) to reflect the color corresponding to the average value of the color based on the defective pixel to perform color correction, or reflect the depth value corresponding to the average depth value of depth values based on the depth value information 105b to the defective pixel. Shape correction can be performed. A detailed description of how the sensory object generator 105 corrects the defective pixel will be described with reference to FIGS. 5 and 6 .

도 2는 본 발명의 일 실시 예에 따른 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템의 가상 객체 분석부에 대한 블록도이다.2 is a block diagram of a virtual object analysis unit of a system for generating sensory objects through automatic correction of 3D modeling according to an embodiment of the present invention.

도 2를 참조하면, 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템(예: 도 1의 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템 (100))(이하, 자동 보정 시스템으로 칭함)은 가상 객체 분석부(200)(예: 가상 객체 분석부(103))를 포함할 수 있다.Referring to FIG. 2, a realistic object generation system through 3D modeling automatic correction (eg, the realistic object creation system 100 through 3D modeling automatic correction in FIG. 1) (hereinafter referred to as an automatic correction system) is a virtual object analyzer 200 (eg, the virtual object analyzer 103).

일 실시예에 따르면, 상기 가상 객체 분석부(200)는 촬영 정보 수신부(예: 도 1의 촬영 정보 수신부(101))로부터 촬영 각도 정보 및 영상 이미지 정보의 수신이 완료되면, 상기 수신된 촬영 각도 정보 및 상기 영상 이미지 정보를 분석해 상기 분석 결과를 기반으로, 촬영 객체와 대응하는 3D 입체 모델인 가상 객체를 3차원 가상 공간에 구현하여, 상기 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는지를 확인할 수 있다.According to an embodiment, the virtual object analyzer 200, when receiving the capturing angle information and the video image information from the capturing information receiving unit (eg, the capturing information receiving unit 101 of FIG. 1 ) is completed, the received capturing angle Based on the analysis result by analyzing information and the video image information, a virtual object, which is a 3D stereoscopic model corresponding to a photographed object, is implemented in a 3D virtual space, so that at least one defective pixel among pixels constituting the virtual object is You can check if it exists.

일 실시예에 따르면, 상기 가상 객체 분석부(200)는 상술한 기능을 수행하기 위한 세부 구성으로, 이미지 변환부(201) 및 가상 객체 생성부(203)를 포함할 수 있다.According to an embodiment, the virtual object analyzer 200 may include an image converter 201 and a virtual object generator 203 as detailed components for performing the above functions.

일 실시예에 따르면, 상기 이미지 변환부(201)는 상기 수신된 영상 이미지 정보를 분석해 촬영 객체에 대한 깊이 값 및 컬러를 추출하고, 다방향에서 촬영한 촬영 객체에 대한 2차원 이미지를 상기 추출된 깊이 값 및 컬러가 반영된 3차원 이미지로 변환할 수 있다.According to an embodiment, the image conversion unit 201 analyzes the received video image information to extract a depth value and color of a photographed object, and converts a 2D image of the photographed object photographed in multiple directions into the extracted It can be converted into a 3D image in which depth values and colors are reflected.

일 실시예에 따르면, 상기 영상 이미지 정보(201a)는, 사용자가 전자 장치를 이용하여 영상을 촬영 시, 촬영 시간 동안 획득된 영상의 프레임을 이루는 각 영상 이미지마다, 상술한 촬영 각도 정보를 결합한 일종의 미디어 및 메타 데이터의 결합체를 의미한다. 이 때, 상기 영상 이미지 정보(201a)는 다방향에서 상기 촬영 객체를 촬영함에 따라 생성된 복수 개의 영상 이미지를 포함하는 정보일 수 있다.According to an embodiment, the video image information 201a is a kind of combination of the above-described photographing angle information for each video image constituting a frame of an image acquired during a photographing time when a user captures an image using an electronic device. It means a combination of media and meta data. In this case, the video image information 201a may be information including a plurality of video images generated by photographing the photographing object in multiple directions.

일 실시예에 따르면, 상기 이미지 변환부(201)는 상기 영상 이미지 정보에 기반한 촬영 객체의 2차원 이미지를 통한 3차원 이미지(201b)를 생성할 수 있다. 보다 자세하게, 상기 이미지 변환부(201)는 상기 영상 이미지 정보에 대한 분석을 시작하여, 분석 결과를 통해 상기 영상 이미지 정보 상의 촬영 객체에 대한 깊이 값 및 컬러를 추출할 수 있다. 이 때, 상기 이미지 변환부(201)는 상기 깊이 값을 기반으로, 상기 촬영 객체를 구성하는 픽셀들을 구현하되, 상기 깊이 값에 대응되는 깊이 값 정보를 매칭하고, 상기 추출된 컬러에 기반해 그 픽셀들에 대한 컬러 코드 정보를 매칭하여, 상기 2차원 이미지를 3차원 이미지(201b)로 변환할 수 있다. According to an embodiment, the image conversion unit 201 may generate a 3D image 201b through a 2D image of a photographed object based on the video image information. In more detail, the image conversion unit 201 may start analyzing the video image information and extract a depth value and color of a photographed object on the video image information based on an analysis result. At this time, the image conversion unit 201 implements pixels constituting the photographing object based on the depth value, matches depth value information corresponding to the depth value, and determines the color based on the extracted color. The 2D image may be converted into a 3D image 201b by matching color code information for pixels.

상기와 관련하여, 상기 이미지 변환부(201)는 상기 영상 이미지 정보 분석 시, 기 저장된 이미지 분석 알고리즘을 통해 상기 영상 이미지 정보를 분석할 수 있다. 상기와 관련하여, 상기 기 저장된 이미지 분석 알고리즘은 다른 영상 이미지 정보와 실측 깊이 맵을 학습하면서 실측 깊이 맵과 유사한 깊이 맵을 생성할 수 있는 알고리즘일 수 있다. 이에 따라, 상기 기 저장된 이미지 분석 알고리즘은 상기 영상 이미지 정보에 대한 분석을 시작해 상기 영상 이미지 정보에 기반한 촬영 객체의 깊이 맵을 생성할 수 있다. In relation to the above, the image conversion unit 201 may analyze the video image information through a pre-stored image analysis algorithm when analyzing the video image information. In relation to the above, the pre-stored image analysis algorithm may be an algorithm capable of generating a depth map similar to the measured depth map while learning other video image information and the measured depth map. Accordingly, the pre-stored image analysis algorithm may start analyzing the video image information and generate a depth map of the captured object based on the video image information.

이 때, 생성되는 깊이 맵은 상기 촬영 객체를 구성하는 픽셀들에 의해 형성되는 정보일 수 있다. 이에 따라, 상기 이미지 변환부(201)는 생성된 깊이 맵을 통해 상기 촬영 객체에 대한 깊이 값을 추출하고, 상기 촬영 객체를 구성하는 픽셀들 각각에 상기 추출된 깊이 값에 대응되는 깊이 값 정보를 매칭할 수 있다. 또한, 상기, 기 저장된 이미지 분석 알고리즘은 상기 영상 이미지 정보에 기반한 촬영 객체의 컬러를 식별할 수 있다.일 실시예에 따르면, 상기 가상 객체 생성부(203)는 상기 3차원 이미지(201b)의 변환이 완료되면, 상기 촬영 객체의 동일한 영역을 지시하는 픽셀의 깊이 값이 동일해지도록 상기 3차원 이미지(201b)의 크기를 보정하고, 상기 촬영 각도 정보에 대응되는 방향에서 상기 3차원 이미지(201b)를 정합하여 3D 입체 모델인 가상 객체(203a)를 생성할 수 있다.In this case, the generated depth map may be information formed by pixels constituting the photographing object. Accordingly, the image conversion unit 201 extracts a depth value of the photographing object through the generated depth map, and provides depth value information corresponding to the extracted depth value to each of the pixels constituting the photographing object. can be matched. Also, the pre-stored image analysis algorithm may identify the color of the captured object based on the video image information. According to an embodiment, the virtual object generator 203 converts the 3D image 201b. When this is completed, the size of the 3D image 201b is corrected so that the depth values of pixels indicating the same area of the photographing object become the same, and the 3D image 201b is resized in a direction corresponding to the photographing angle information. A virtual object 203a, which is a 3D three-dimensional model, can be created by matching the .

보다 자세하게, 상기 이미지 변환부(201)는 상기 영상 이미지 정보에 포함된 촬영 객체를 구성하는 픽셀들의 깊이 값들을 이용하여 2차원 이미지들로부터 각 면의 부분 3차원 이미지를 생성하고, 각 면의 각 부분 3차원 이미지에 포함된 픽셀들의 깊이 값 및 픽셀들을 비교하여, 각 부분 3차원 이미지를 통해 촬영 객체의 동일한 포인트를 지시하는 픽셀의 깊이 값이 동일해지도록 각 부분 3차원 이미지의 크기를 보정한 뒤 모든 방향(또는 다방향)에서 부분 3차원 이미지를 정합하여 상하좌우의 3차원 이미지로 구현되는 가상 객체를 생성하는 것이 가능하다.In more detail, the image conversion unit 201 generates partial 3D images of each side from 2D images using depth values of pixels constituting a photographing object included in the video image information, and each side of each side The size of each partial 3D image is corrected so that the depth value of the pixel indicating the same point of the photographing object is the same through each partial 3D image by comparing the depth value and pixels of the pixels included in the partial 3D image. It is possible to create a virtual object implemented as a top, bottom, left, and right 3D image by matching partial 3D images in all directions (or multi-directions).

도 3은 본 발명의 일 실시 예에 따른 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템의 가상 객체 분석부에 대한 다른 블록도이다.3 is another block diagram of a virtual object analysis unit of a system for generating sensory objects through automatic correction of 3D modeling according to an embodiment of the present invention.

도 3을 참조하면, 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템(예: 도 1의 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템 (100))(이하, 자동 보정 시스템으로 칭함)은 가상 객체 분석부(300)(예: 가상 객체 분석부(103))를 포함할 수 있다.Referring to FIG. 3, a realistic object generation system through automatic 3D modeling correction (eg, the realistic object generation system 100 through 3D modeling automatic correction in FIG. 1) (hereinafter referred to as an automatic correction system) is a virtual object analyzer 300 (eg, the virtual object analyzer 103).

일 실시예에 따르면, 상기 가상 객체 분석부(300)는 촬영 정보 수신부(예: 도 1의 촬영 정보 수신부(101))로부터 촬영 각도 정보 및 영상 이미지 정보의 수신이 완료되면, 상기 수신된 촬영 각도 정보 및 상기 영상 이미지 정보를 기반으로, 촬영 객체와 대응하는 3D 입체 모델인 가상 객체(301a)를 3차원 가상 공간에 구현하여, 상기 가상 객체에 대한 분석을 시작해 상기 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는지를 확인할 수 있다.According to an embodiment, the virtual object analyzer 300, when receiving the capturing angle information and the video image information from the capturing information receiving unit (eg, the capturing information receiving unit 101 of FIG. 1 ) is completed, the received capturing angle Based on the information and the video image information, a virtual object 301a, which is a 3D stereoscopic model corresponding to a photographed object, is implemented in a 3D virtual space, and analysis of the virtual object is started. It can be confirmed whether at least one defective pixel exists.

상기와 관련하여, 상기 가상 객체 분석부(300)가 상기 수신된 촬영 각도 정보 및 상기 영상 이미지 정보를 기반으로, 촬영 객체와 대응하는 3D 입체 모델인 가상 객체(301a)를 3차원 가상 공간에 구현하는 자세한 설명은 도 2를 참고하도록 한다.In relation to the above, the virtual object analyzer 300 implements the virtual object 301a, which is a 3D stereoscopic model corresponding to the captured object, in a 3D virtual space based on the received photographing angle information and the video image information. For a detailed description, refer to FIG. 2 .

일 실시예에 따르면, 상기 가상 객체 분석부(300)는 상기 가상 객체(301a)에 대한 분석을 시작해 상기 가상 객체(301a)를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는지를 확인하기 위한 세부 구성으로, 프로세스 시작부(301), 조건 만족 확인부(303) 및 흠결 픽셀 지정부(305)를 포함할 수 있다.According to an embodiment, the virtual object analyzer 300 starts analyzing the virtual object 301a and determines whether at least one defective pixel among the pixels constituting the virtual object 301a exists. As a configuration, it may include a process start unit 301, a condition satisfaction check unit 303, and a defective pixel designation unit 305.

일 실시예에 따르면, 상기 프로세스 시작부(301)는 가상 객체 생성부(예: 도 2의 가상 객체 생성부(203))에 의해 상기 가상 객체(301a)의 생성이 완료됨에 따라, 상기 3차원 가상 공간에 상기 가상 객체(301a)의 구현이 완료되면, 상기 가상 객체(301a)를 구성하는 픽셀들에 대한 분석 프로세스를 시작할 수 있다. 상기 분석 프로세스는 상기 가상 객체를 구성하는 픽셀들의 컬러 및 형태가 비정상적인지를 판별하기 위한 프로세스일 수 있다.According to an embodiment, the process initiator 301 is configured to generate the 3D object 301a as the creation of the virtual object 301a is completed by the virtual object generator (eg, the virtual object generator 203 of FIG. 2 ). When the implementation of the virtual object 301a in the virtual space is completed, an analysis process for pixels constituting the virtual object 301a may be started. The analysis process may be a process for determining whether the color and shape of the pixels constituting the virtual object are abnormal.

일 실시예에 따르면, 상기 조건 만족 확인부(303)는, 상기 분석 프로세스가 시작되면, 기 저장된 흠결 픽셀 도출 알고리즘을 기반으로, 상기 가상 객체(301a)를 구성하는 픽셀들(305a) 중 제1 픽셀(303a)을 지정하고, 상기 제1 픽셀(303a)을 기준으로 지정된 범위 내에 위치한 범위 픽셀에 대한 분석을 시작하여, 상기 분석 결과를 통해 상기 제1 픽셀(303a) 및 상기 범위 픽셀 중 적어도 하나가 지정된 흠결 픽셀 조건을 만족하는지를 확인할 수 있다.According to an embodiment, when the analysis process starts, the condition satisfaction checker 303 determines, based on a pre-stored defective pixel derivation algorithm, the first one of the pixels 305a constituting the virtual object 301a. A pixel 303a is designated, an analysis of range pixels located within a designated range based on the first pixel 303a is started, and at least one of the first pixel 303a and the range pixels is determined through the analysis result. It can be checked whether satisfies the designated defect pixel condition.

일 실시예에 따르면, 상기 기 저장된 흠결 픽셀 도출 알고리즘은 상기 제1 픽셀 및 상기 범위 픽셀의 깊이 값 및 상기 제1 픽셀(303a) 및 상기 범위 픽셀 각각의 깊이 값, 형태, 위치 및 컬러 간의 상관 관계를 판별하는 머신 러닝 기반의 알고리즘일 수 있다.According to an embodiment, the pre-stored defective pixel derivation algorithm is a correlation between depth values of the first pixel and the range pixels and depth values, shapes, positions, and colors of the first pixel 303a and the range pixels, respectively. It may be a machine learning-based algorithm that determines

일 실시예에 따르면, 상기 조건 만족 확인부(303)는 상기 기 저장된 흠결 픽셀 도출 알고리즘을 통해 상기 가상 객체를 구성하는 픽셀들(305a)을 분석하여, 가상 객체를 구성하는 픽셀들(305a) 중 제1 픽셀(303a) 및 제1 픽셀(303a)을 기준으로 지정된 범위 내에 위치한 범위 픽셀의 깊이 값, 형태, 위치 및 컬러 간의 상관 관계를 확인할 수 있다. According to an embodiment, the condition satisfaction checking unit 303 analyzes the pixels 305a constituting the virtual object through the pre-stored defective pixel derivation algorithm, and among the pixels 305a constituting the virtual object, A correlation between the first pixel 303a and the depth value, shape, position, and color of a range pixel located within a range designated with respect to the first pixel 303a may be checked.

상기 조건 만족 확인부(303)는 상기 제1 픽(303a)셀 및 상기 범위 픽셀의 깊이 값, 형태, 위치 및 컬러 간의 상관 관계를 확인이 완료되는 경우, 상기 확인 결과가 지정된 흠결 픽셀 조건을 만족하는지를 확인할 수 있다. When the condition satisfaction checker 303 checks the correlation between the depth value, shape, position, and color of the first pixel 303a cell and the range pixels, the check result satisfies the specified defective pixel condition. you can check if it does.

일 실시예에 따르면, 상기 지정된 흠결 픽셀 조건은 상기 가상 객체를 구성하는 픽셀들(305a) 중 일부가 비 정상적인 픽셀인지를 판별하기 위해 설정한 조건 정보로써, 관리자에 의해 변경되거나 상기 기 저장된 흠결 픽셀 도출 알고리즘에 의해 추가 및 변경될 수 있다.According to an embodiment, the designated defective pixel condition is condition information set to determine whether some of the pixels 305a constituting the virtual object are abnormal pixels, and is changed by a manager or the previously stored defective pixels. They can be added and changed by derivation algorithms.

일 실시예에 따르면, 상기 조건 만족 확인부(303)는 상기 기 저장된 흠결 픽셀 도출 알고리즘을 통해 상기 제1 픽셀(303a) 및 상기 범위 픽셀의 깊이 값, 형태, 위치 및 컬러 간의 상관 관계를 분석하여, 상기 제1 픽셀(303a) 및 상기 범위 픽셀의 컬러 및 형성하고 있는 형태가 비정상적인지를 판단할 수 있다.According to an embodiment, the condition satisfaction checking unit 303 analyzes the correlation between the depth value, shape, position, and color of the first pixel 303a and the range pixels through the pre-stored defective pixel derivation algorithm, , It is possible to determine whether the color and shape of the first pixel 303a and the range pixels are abnormal.

예를 들어, 상기 조건 만족 확인부(303)는 상기 기 저장된 흠결 픽셀 도출 알고리즘을 통해 상기 제1 픽셀(303a) 및 상기 범위 픽셀의 깊이 값, 형태, 위치 및 컬러 간의 상관 관계를 분석을 시작할 수 있다.For example, the condition satisfaction checking unit 303 may start analyzing a correlation between the depth value, shape, position, and color of the first pixel 303a and the range pixels through the pre-stored defective pixel derivation algorithm. there is.

상기와 관련하여, 상기 조건 만족 확인부(303)는, 기 저장된 흠결 픽셀 도출 알고리즘을 통해 SUV의 형태를 가지는 가상 객체(301a)의 본 네트를 구성하는 픽셀들 중 제1 픽셀을 임의로 지정해 상기 제1 픽셀(303a)의 컬러 코드 정보를 확인하여, 상기 제1 픽셀(303a)의 컬러가 화이트 펄인 것을 식별할 수 있다. 이 때, 상기 조건 만족 확인부(303)는 상기 제1 픽셀(303a)을 기준으로 지정된 범위 내에 위치한 범위 픽셀의 컬러 코드 정보를 확인하여, 상기 범위 픽셀의 컬러가 오로라 블랙 펄인 것을 식별할 수 있다. In relation to the above, the condition satisfaction checking unit 303 arbitrarily designates a first pixel among pixels constituting the bone net of the virtual object 301a having the shape of an SUV through a pre-stored defective pixel derivation algorithm to obtain the first pixel. By checking the color code information of one pixel 303a, it can be identified that the color of the first pixel 303a is white pearl. At this time, the condition satisfaction checking unit 303 checks color code information of pixels located within a designated range based on the first pixel 303a, and identifies that the color of the pixels in the range is aurora black pearl. .

상기와 관련하여, 상기 조건 만족 확인부(303)는 화이트 펄 컬러의 제1 픽셀(303a)의 형태와 상기 오로라 블랙 펄 컬러의 범위 픽셀의 형태를 식별하여, 상기 범위 픽셀의 형태가 본 네트의 상부 영역인 것을 식별하고, 상기 제1 픽셀(303a)의 형태가 상기 본 네트의 상부 영역의 일 영역에 위치한 비정상적 형태인 것을 확인할 수 있다. 이에 따라, 상기 조건 만족 확인부(303)는 상기 제1 픽셀의 형태가 비정상적임에 따라 오로라 블랙 펄 컬러에 대응되는 컬러 코드 정보가 매칭되지 않고, 화이트 펄 컬러에 대응되는 컬러 코드 정보가 매칭된 것으로 확인하여, 상기 제1 픽셀(303a)이 상기 기 지정된 흠결 픽셀 조건에 포함된다고 판단할 수 있다.In relation to the above, the condition satisfaction checking unit 303 identifies the shape of the first pixel 303a of the white pearl color and the shape of the range pixel of the aurora black pearl color, so that the shape of the range pixel is It can be identified that it is an upper area, and it can be confirmed that the shape of the first pixel 303a is an abnormal shape located in one area of the upper area of the bonnet. Accordingly, since the shape of the first pixel is abnormal, the condition satisfaction checking unit 303 determines that the color code information corresponding to the aurora black pearl color is not matched and the color code information corresponding to the white pearl color is matched. , it can be determined that the first pixel 303a is included in the predetermined defective pixel condition.

일 실시예에 따르면, 상기 흠결 픽셀 지정부(305)는 상기 제1 픽셀(303a) 및 상기 범위 픽셀 중 적어도 하나가 상기 지정된 흠결 픽셀 조건을 만족하는 경우, 상기 지정된 흠결 픽셀 조건을 만족하는 픽셀에 식별 정보를 부여해 흠결 픽셀로 지정할 수 있다.According to an exemplary embodiment, when at least one of the first pixel 303a and the range pixels satisfies the specified defective pixel condition, the defective pixel specifying unit 305 determines a pixel satisfying the specified defective pixel condition. Identification information may be assigned to designate a defective pixel.

일 실시예에 따르면, 상기 식별 정보는 상기 제1 픽셀(303a) 및 상기 범위 픽셀 중 적어도 하나가 상기 지정된 흠결 픽셀 조건을 만족하는 경우, 상기 픽셀에 부여되는 정보로써, 실감 오브젝트 생성부(예: 도 1의 실감 오브젝트 생성부(105))가 상기 흠결 픽셀을 인식하도록 하는 정보일 수 있다.According to an embodiment, the identification information is information given to a pixel when at least one of the first pixel 303a and the range pixels satisfies the designated defective pixel condition, and is provided to a sensory object generator (eg: This may be information allowing the sensory object generator 105 of FIG. 1 to recognize the defective pixel.

예를 들어, 상기 흠결 픽셀 지정부(305)는, 상기 조건 만족 확인부(303)에 의해 상기 제1 픽셀(303a)이 상기 기 지정된 흠결 픽셀 조건에 포함된다고 판단된 경우, 상기 제1 픽셀(303a)에 상기 식별 정보를 부여할 수 있다. 이 때, 상기 제1 픽셀(303a)에 부여되는 식별 정보는 상기 실감 오브젝트 생성부로 하여금 상기 제1 픽셀(303a)이 상기 기 지정된 흠결 픽셀 조건 중 픽셀의 형태가 비 정상적이며, 비 정상적인 컬러 코드 정보가 매칭되어 있다는 것을 식별하도록 하기 위한 정보일 수 있다.For example, the defective pixel designation unit 305, when it is determined by the condition satisfaction checking unit 303 that the first pixel 303a is included in the predetermined defective pixel condition, the first pixel ( 303a) may be assigned the identification information. At this time, the identification information given to the first pixel 303a causes the sensory object generator to determine whether the first pixel 303a has an abnormal pixel shape among the predetermined defective pixel conditions, and abnormal color code information. It may be information for identifying that is matched.

도 4는 본 발명의 일 실시 예에 따른 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템의 기 저장된 흠결 픽셀 도출 알고리즘을 설명하기 위한 도면이다.4 is a diagram for explaining a pre-stored defective pixel derivation algorithm of a system for generating sensory objects through automatic correction of 3D modeling according to an embodiment of the present invention.

도 4를 참조하면, 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템(예: 도 1의 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템 100))(이하, 자동 보정 시스템으로 칭함)은 조건 만족 확인부(401)(예: 조건 만족 확인부(303))를 포함할 수 있다.Referring to FIG. 4, a sensory object creation system through automatic correction of 3D modeling (eg, the sensory object creation system 100 through automatic correction of 3D modeling in FIG. 1) (hereinafter referred to as an automatic correction system) is a condition satisfaction confirmation unit ( 401) (eg, condition satisfaction confirmation unit 303).

일 실시예에 따르면, 상기 조건 만족 확인부(401)는 프로세스 시작부(예: 도 3의 프로세스 시작부(301))에 의해 분석 프로세스가 시작되면, 기 저장된 흠결 픽셀 도출 알고리즘(405)을 기반으로, 가상 객체를 구성하는 픽셀들(403) 중 제1 픽셀을 지정하고, 상기 제1 픽셀을 기준으로 지정된 범위 내에 위치한 범위 픽셀에 대한 분석을 시작하여, 상기 분석 결과를 통해 상기 제1 픽셀 및 상기 범위 픽셀 중 적어도 하나가 지정된 흠결 픽셀 조건을 만족하는지를 확인할 수 있다.According to an embodiment, when the analysis process is started by the process starting unit (eg, the process starting unit 301 of FIG. 3 ), the condition satisfaction checking unit 401 is based on a previously stored defective pixel deriving algorithm 405. , designate a first pixel among the pixels 403 constituting the virtual object, start analyzing range pixels located within a designated range based on the first pixel, and analyze the first pixel and It may be checked whether at least one of the range pixels satisfies a designated defective pixel condition.

일 실시예에 따르면, 상기 기 저장된 흠결 픽셀 도출 알고리즘(405)은 상기 가상 객체를 구성하는 픽셀들(403) 각각의 깊이 값, 형태, 위치 및 컬러 간의 상관 관계를 분석하여, 상기 분석 결과에 기반한 픽셀들 중 적어도 하나가 기 지정된 흠결 픽셀 조건을 만족하는지 여부를 확인하기 위한 알고리즘일 수 있다.According to an embodiment, the pre-stored defective pixel derivation algorithm 405 analyzes the correlation between the depth value, shape, position, and color of each of the pixels 403 constituting the virtual object, and based on the analysis result, It may be an algorithm for checking whether at least one of the pixels satisfies a predetermined defective pixel condition.

또한, 상기 기 저장된 흠결 픽셀 도출 알고리즘(405)은 상기 분석 프로세스가 시작되면, 상기 가상 객체를 구성하는 픽셀들 각각을 확인하여, 컬러 코드 정보가 반영되어 있지 않은 픽셀 및 범위 픽셀 대비 깊이 값이 기 설정된 임계 범위를 초과하거나 미만인 비연속적 픽셀 중 적어도 하나를 식별하는 알고리즘일 수 있다.In addition, when the analysis process is started, the pre-stored defective pixel derivation algorithm 405 checks each of the pixels constituting the virtual object, and determines a depth value relative to a pixel to which color code information is not reflected and a range pixel. It may be an algorithm that identifies at least one of the non-contiguous pixels that exceed or fall below a set threshold range.

즉, 상기 기 저장된 흠결 픽셀 도출 알고리즘(405)은 가상 객체를 구성하는 픽셀들(403) 중 제1 픽셀 및 상기 범위 픽셀 각각의 깊이 값, 형태, 위치 및 컬러 간의 상관 관계를 통해 흠결 픽셀은 도출하는 알고리즘이면서, 상기 컬러 코드 정보가 반영되어 있지 않은 픽셀 및 범위 픽셀 대비 깊이 값이 기 설정된 임계 범위를 초과하거나 미만인 비연속적 픽셀을 식별하는 알고리즘일 수 있다. That is, the pre-stored defective pixel derivation algorithm 405 derives a defective pixel through a correlation between the depth value, shape, position, and color of each of the first pixel and the range pixels among the pixels 403 constituting the virtual object. It may be an algorithm that identifies non-contiguous pixels whose depth value is greater than or less than a preset threshold range compared to pixels and range pixels to which the color code information is not reflected.

상기와 관련하여, 상기 기 설정된 임계 범위는 상기 범위 픽셀의 깊이 값의 평균인 평균 깊이 값을 기준으로 설정되는 구성으로써, 상기 평균 깊이 값 대비 상기 깊이 값이 지정된 수치를 초과하거나 미만인 픽셀을 식별하기 위한 기준 정보일 수 있다.In relation to the above, the predetermined threshold range is configured based on an average depth value that is an average of depth values of pixels in the range, and to identify pixels whose depth value exceeds or is less than a specified value compared to the average depth value. It may be reference information for

예를 들어, 상기 기 저장된 흠결 픽셀 도출 알고리즘(405)은 PointNet 기반 딥 러닝 알고리즘일 수 있다. 상기 조건 만족 확인부(401)는 상기 PointNet 기반 딥 러닝 알고리즘을 통해 이전에 획득 또는 입력된 가상 객체들을 학습함으로써, 가상 객체들에 포함된 픽셀들(403) 각각에 대한 깊이 값, 형태, 위치 및 색상 등을 판별하여, 상기 가상 객체의 픽셀의 상태를 확인할 수 있다. 또한, 상기 기 저장된 흠결 픽셀 도출 알고리즘(405)은 다른 가상 객체들을 통해 다양한 비정상적인 픽셀들의 깊이 값, 배열(형태 및 위치), 주변 픽셀들 간의 컬러 상관 관계를 확인하도록 하는 알고리즘일 수 있다. For example, the pre-stored defective pixel derivation algorithm 405 may be a PointNet-based deep learning algorithm. The condition satisfaction confirmation unit 401 learns previously obtained or input virtual objects through the PointNet-based deep learning algorithm, thereby determining the depth value, shape, location, and depth value of each of the pixels 403 included in the virtual objects. The state of the pixel of the virtual object may be checked by determining the color or the like. In addition, the pre-stored defective pixel derivation algorithm 405 may be an algorithm that checks the depth value, arrangement (shape and location) of various abnormal pixels, and color correlation between neighboring pixels through other virtual objects.

즉, 상기 기 저장된 흠결 픽셀 도출 알고리즘(405)은 PointNet 기반 딥 러닝 알고리즘뿐만 아니라, 이전에 획득 또는 입력된 가상 객체를 머신 러닝(machine learning)함으로써, 새롭게 입력되는 가상 객체를 통해 가상 객체를 구성하는 픽셀들의 비정상 유무를 판단하여, 비정상 상태의 픽셀을 확인 가능한 머신러닝 기반의 알고리즘이면, 이에 한정되지 않는다. That is, the previously stored defective pixel derivation algorithm 405 constructs a virtual object through a newly input virtual object by machine learning not only a PointNet-based deep learning algorithm but also a previously acquired or input virtual object. It is not limited to this if it is a machine learning-based algorithm capable of determining whether or not pixels are abnormal and confirming pixels in an abnormal state.

다른 예를 들면, 상기 기 저장된 흠결 픽셀 도출 알고리즘(405)은 자동인지 표준화 알고리즘일 수 있다. 상기 자동인지 표준화 알고리즘은, 상기 조건 만족 확인부(401)가 상기 가상 객체를 구성하는 픽셀들 각각의 깊이 값, 형태, 위치 및 컬러 간의 상관 관계를 확인하여 비정상적인 픽셀로 분류하기 위한 머신 러닝 기반의 알고리즘일 수 있다. For another example, the pre-stored defective pixel derivation algorithm 405 may be an automatic recognition standardization algorithm. The automatic recognition standardization algorithm is based on machine learning for the condition satisfaction checking unit 401 to check the correlation between the depth value, shape, position and color of each pixel constituting the virtual object and classify it as an abnormal pixel. It can be an algorithm.

도 5는 본 발명의 일 실시 예에 따른 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템의 실감 오브젝트 생성부를 설명하기 위한 블록도이다.5 is a block diagram illustrating a sensory object generation unit of a sensory object generation system through automatic correction of 3D modeling according to an embodiment of the present invention.

도 5를 참조하면, 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템(예: 도 1의 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템 100))(이하, 자동 보정 시스템으로 칭함)은 실감 오브젝트 생성부(500)(예: 실감 오브젝트 생성부(105))를 포함할 수 있다.Referring to FIG. 5, a sensory object generation system through automatic correction of 3D modeling (eg, the sensory object generation system 100 through automatic correction of 3D modeling in FIG. 1) (hereinafter referred to as an automatic correction system) includes a sensory object generator ( 500) (eg, the sensory object generator 105).

일 실시예에 따르면, 상기 실감 오브젝트 생성부(500)는 가상 객체 분석부(예: 도 1의 가상 각체 분석부(103))의 기능 수행으로 인해 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는 것이 확인되면, 상기 적어도 하나의 흠결 픽셀의 인근 픽셀들 각각에 매칭된 컬러 코드 정보 및 깊이 값 정보를 추출하여, 상기 추출된 컬러 코드 정보 및 깊이 값 정보 중 적어도 하나를 활용해 흠결 픽셀에 대한 보정을 완료해 실감 오브젝트의 생성을 완료할 수 있다.According to an embodiment, the sensory object generator 500 detects at least one defect among pixels constituting a virtual object due to the performance of the function of the virtual object analyzer (eg, the virtual body analyzer 103 of FIG. 1 ). If it is confirmed that the pixel exists, color code information and depth value information matched to each of pixels adjacent to the at least one defective pixel are extracted, and at least one of the extracted color code information and depth value information is used to find the defect. By completing the pixel correction, the creation of the realistic object can be completed.

일 실시예에 따르면, 상기 실감 오브젝트 생성부(500)는 상술한 기능을 수행하기 위한 세부 구성으로, 제1 컬러 보정 실시부(501) 및 제2 컬러 보정 실시부(503)를 포함할 수 있다.According to an embodiment, the sensory object creation unit 500 may include a first color correction unit 501 and a second color correction unit 503 as a detailed configuration for performing the above functions. .

일 실시예에 따르면, 상기 제1 컬러 보정 실시부(501)는 흠결 픽셀 지정부(예: 도 3의 흠결 픽셀 지정부(305))의 기능 수행으로 인해 가상 객체를 구성하는 픽셀들(501a) 중 상기 흠결 픽셀(501b)이 확인되는 경우, 상기 흠결 픽셀(501b)을 제외하되, 상기 흠결 픽셀(501b)을 기준으로 지정된 범위 내에 위치한 범위 픽셀 각각의 컬러 변동에 대한 평균 값을 확인하여, 상기 확인된 평균 값에 대응되는 컬러 코드 정보를 상기 흠결 픽셀(501b)에 매칭해 상기 매칭된 컬러 코드 정보에 기반한 컬러를 상기 흠결 픽셀(501b)에 반영해 1차 보정을 실시할 수 있다.According to an embodiment, the first color correction unit 501 determines pixels 501a constituting a virtual object by performing a function of a defective pixel designation unit (eg, the defective pixel designation unit 305 of FIG. 3 ). If the defective pixel 501b is identified among the defective pixels 501b, the average value of color variation of each of the range pixels located within the designated range based on the defective pixel 501b is checked, and the defective pixel 501b is excluded. First correction may be performed by matching color code information corresponding to the checked average value to the defective pixel 501b and reflecting the color based on the matched color code information to the defective pixel 501b.

일 실시예에 따르면, 상기 제1 컬러 보정 실시부(501)는 상기 가상 객체를 구성하는 픽셀들(501a) 각각에 식별 정보가 매칭되어 있는지를 확인하여, 상기 식별 정보가 매칭되어 있는 픽셀을 흠결 픽셀(501b)로 식별할 수 있다. 이 때, 상기 제1 컬러 보정 실시부(501)는 상기 식별 정보를 통해 상기 흠결 픽셀(501b)이 기 지정된 흠결 픽셀 조건 중 어느 조건을 만족한지를 확인할 수 있다.According to an embodiment, the first color correction unit 501 checks whether identification information matches each of the pixels 501a constituting the virtual object, and defects the pixel to which the identification information matches. It can be identified as pixel 501b. In this case, the first color correction unit 501 may check whether the defective pixel 501b satisfies one of the predetermined defective pixel conditions through the identification information.

일 실시예에 따르면, 상기 제1 컬러 보정 실시부(501)는 상기 흠결 픽셀(501b)의 식별이 완료되면, 상기 흠결 픽셀(501b)을 기준으로 지정된 범위 내에 위치한 범위 픽셀 각각의 컬러 변동에 대한 평균 값을 확인할 수 있다. 이 때, 상기 제1 컬러 보정 실시부(501)는 상기 컬러 변동에 대한 평균 값 확인 시, 상기 흠결 픽셀(501b)을 제외한 범위 픽셀만을 통해 상기 컬러 변동에 대한 평균 값을 확인할 수 있다.According to an exemplary embodiment, when the identification of the defective pixel 501b is completed, the first color correction unit 501 determines the color variation of each of the range pixels located within a designated range based on the defective pixel 501b. You can check the average value. In this case, when checking the average value of the color variation, the first color correction unit 501 may check the average value of the color variation through only the range pixels excluding the defective pixel 501b.

일 실시예에 따르면, 상기 컬러 변동에 대한 평균 값은 상기 범위 픽셀 각각에 매칭된 컬러 코드 정보에 기반한 컬러의 변화에 따른 평균 컬러를 의미할 수 있다. 예를 들어, 상기 범위 픽셀이 제2 픽셀, 제3 픽셀, 제4 픽셀 및 제5 픽셀 순으로 순차적으로 배열되어 있는 경우, 상기 제1 컬러 보정 실시부(501)는 상기 제2 픽셀, 제3 픽셀, 제4 픽셀 및 제5 픽셀 각각에 매칭되어 있는 컬러 코드 정보를 확인해 제2 픽셀의 컬러가 파랑색, 제3 픽셀의 컬러가 네이비색, 제4 픽셀의 컬러가 검파랑색 및 제5 픽셀의 컬러가 검은색인 것을 식별할 수 있다.According to an embodiment, the average value of the color variation may mean an average color according to a color change based on color code information matched to each pixel in the range. For example, when the range pixels are sequentially arranged in the order of a second pixel, a third pixel, a fourth pixel, and a fifth pixel, the first color correction unit 501 performs the second pixel, the third pixel, and the third pixel. Check the color code information matched to each of the pixels, the 4th pixel and the 5th pixel, and the color of the 2nd pixel is blue, the color of the 3rd pixel is navy, the color of the 4th pixel is dark blue, and the color of the 5th pixel is blue. It can be identified that the color of is black.

이 때, 상기 제1 컬러 보정 실시부(501)는 기 저장된 컬러 코드 테이블을 통해 파랑색에 매칭된 제1 가중치, 네이비색에 매칭된 제2 가중치, 검파랑색에 매칭된 제3 가중치 및 검은색에 매칭된 제4 가중치를 확인하고, 제1 가중치, 제2 가중치, 제3 가중치 및 제4 가중치를 합산해 상기 범위 픽셀의 개수로 나눈 값을 컬러 변동에 대한 평균 값으로 확인할 수 있다.At this time, the first color correction unit 501 determines a first weight matched to blue, a second weight matched to navy, a third weight matched to dark blue, and black through a pre-stored color code table. A fourth weight matched to a color is checked, and a value obtained by summing the first weight, second weight, third weight, and fourth weight and dividing the result by the number of pixels in the range can be checked as an average value for color variation.

상기와 관련하여, 상기 기 저장된 컬러 코드 테이블은 상기 컬러 코드 정보에 대응되는 컬러, 상기 컬러마다 가중치가 매칭된 정보가 다양한 컬러 별로 저장되어 있는 데이터테이블일 수 있다.In relation to the above, the pre-stored color code table may be a data table in which colors corresponding to the color code information and information in which weights are matched for each color are stored for each color.

이에 따라, 상기 제1 컬러 보정 실시부(501)는 상기 평균 값이 확인되면, 상기 기 저장된 컬러 코드 테이블을 통해 상기 평균 값에 대응되는 가중치가 매칭되어 있는 컬러를 식별하고, 상기 식별된 컬러에 대한 컬러 코드 정보를 상기 흠결 픽셀(501b)에 매칭함으로써, 상기 흠결 픽셀(501b)에 상기 매칭된 컬러 코드 정보에 기반한 컬러를 반영시킬 수 있다.Accordingly, when the average value is confirmed, the first color correction unit 501 identifies a color matched with a weight corresponding to the average value through the pre-stored color code table, and assigns the color to the identified color. By matching the color code information for the color code to the defective pixel 501b, a color based on the matched color code information may be reflected in the defective pixel 501b.

일 실시예에 따르면, 상기 제2 컬러 보정 실시부(503)는 상기 제1 컬러 보정 실시부(501)의 기능 수행이 완료되면, 상기 흠결 픽셀(501b)을 기준으로 상기 지정된 범위 내에 위치한 범위 픽셀과 상기 흠결 픽셀(501b)의 깊이 값을 확인하여, 상기 확인된 깊이 값에 기반한 명도를 상기 흠결 픽셀에 반영된 컬러에 반영해 2차 보정을 실시하고, 상기 흠결 픽셀에 매칭된 컬러 코드 정보를 상기 2차 보정된 컬러에 대응되는 컬러 코드 정보로 재매칭할 수 있다.According to an exemplary embodiment, when the function of the first color correction unit 501 is completed, the second color correction unit 503 is located within the specified range based on the defective pixel 501b. and the depth value of the defective pixel 501b is checked, the lightness based on the checked depth value is applied to the color reflected in the defective pixel to perform secondary correction, and the color code information matched to the defective pixel is reflected. It can be re-matched with color code information corresponding to the secondary corrected color.

상기와 관련하여, 상기 제2 컬러 보정 실시부(503)의 기능 수행은 상기 제1 컬러 보정 실시부(501)에 의해 확인되는 흠결 픽셀(501b)의 식별 정보에 기반해 수행되거나 수행되지 않을 수 있다. In relation to the above, the function of the second color correction unit 503 may or may not be performed based on the identification information of the defective pixel 501b identified by the first color correction unit 501. there is.

보다 자세하게, 상기 제1 컬러 보정 실시부(501)에 의해 확인되는 흠결 픽셀(501b)에 부여된 식별 정보에 대한 흠결 픽셀 조건이 픽셀의 컬러만 관련되어 있고, 픽셀의 형태와는 관련되지 않은 조건으로 확인된 경우, 상기 제1 컬러 보정 실시부(501)에 의해 상기 흠결 픽셀(501b)의 컬러만이 보정될 수 있다. 또한, 상기 제1 컬러 보정 실시부(501)에 의해 확인되는 흠결 픽셀(501b)에 부여된 식별 정보에 대한 흠결 픽셀 조건이 픽셀의 컬러 및 픽셀의 형태와 관련된 조건으로 확인된 경우, 상기 제1 컬러 보정 실시부(501) 및 상기 제2 컬러 보정 실시부(503)의 기능이 수행될 수 있다.In more detail, the defective pixel condition for the identification information given to the defective pixel 501b identified by the first color correction unit 501 relates only to the color of the pixel and not to the shape of the pixel. If it is confirmed as , only the color of the defective pixel 501b may be corrected by the first color correction unit 501 . In addition, when the defective pixel condition for the identification information assigned to the defective pixel 501b identified by the first color correction unit 501 is confirmed as a condition related to the color and shape of the pixel, the first Functions of the color correction unit 501 and the second color correction unit 503 may be performed.

일 실시예에 따르면, 상기 제2 컬러 보정 실시부(503)는 상기 흠결 픽셀(501b)을 기준으로 상기 지정된 범위 내에 위치한 범위 픽셀과 상기 흠결 픽셀(501b)의 깊이 값을 확인할 수 있다. 이 때, 상기 제2 컬러 보정 실시부(503)는 상기 확인된 깊이 값에 대응되는 명도를 상기 흠결 픽셀(501b)에 반영된 컬러에 반영할 수 있다. 보다 자세하게, 상기 제2 컬러 보정 실시부(503)는 기 저장된 명도 테이블에 저장된 복수 개의 명도 정보 중 상기 확인된 깊이 값이 매칭되어 있는 명도 정보를 확인하여, 상기 확인된 명도 정보에 기반한 명도를 상기 흠결 픽셀(501b)에 반영할 수 있다. 상기 복수 개의 명도 정보는 상기 깊이 값에 대응되는 명도 정보가 매칭되어 있는 정보일 수 있다.According to an embodiment, the second color correction unit 503 may check a range pixel located within the designated range based on the defective pixel 501b and a depth value of the defective pixel 501b. In this case, the second color correction unit 503 may reflect the brightness corresponding to the confirmed depth value to the color reflected in the defective pixel 501b. In more detail, the second color correction unit 503 checks brightness information to which the checked depth value is matched among a plurality of pieces of brightness information stored in a pre-stored brightness table, and determines the brightness based on the checked brightness information. This can be reflected in the defective pixel 501b. The plurality of pieces of lightness information may be information in which lightness information corresponding to the depth value is matched.

이에 따라, 상기 제1 컬러 보정 실시부(501)에 의해 컬러가 반영된 흠결 픽셀(501b)은 상기 제2 컬러 보정 실시부(503)에 의해 명도가 반영됨에 따라 매칭되어 있는 컬러 코드 정보가 변경될 수 있다. 이 때, 변경되는 컬러 코드 정보는 상기 제1 컬러 보정 실시부(501)에 의해 반영된 컬러에 상기 제2 컬러 보정 실시부(503)에 의해 반영된 명도가 반영된 컬러에 대응되는 정보일 수 있다.Accordingly, as the brightness of the defective pixel 501b whose color is reflected by the first color correction unit 501 is reflected by the second color correction unit 503, the matched color code information is changed. can In this case, the changed color code information may be information corresponding to a color in which the brightness reflected by the second color correction unit 503 is reflected in the color reflected by the first color correction unit 501 .

일 실시예에 따르면, 상기 실감 오브젝트 생성부(500)는 상기 제1 컬러 보정 실시부(501)의 기능이 수행되기 이전에, 상기 가상 객체에 대한 조명 이펙트에 기반한 조명 객체가 존재하는지를 확인하여, 상기 가상 객체의 흠결 픽셀(501b)을 포함하는 일 영역에 상기 조명 객체가 검출되는 경우, 상기 검출된 조명 객체의 형태, 컬러 및 텍스쳐를 분석하여 상기 가상 객체에 대응되는 촬영 객체에 대한 조명의 세기 및 조사 방향을 포함하는 조명의 영향을 판단할 수 있다.According to an embodiment, before the function of the first color correction unit 501 is performed, the sensory object generator 500 checks whether a lighting object based on a lighting effect for the virtual object exists, When the lighting object is detected in one area including the defective pixel 501b of the virtual object, the intensity of illumination of the photographing object corresponding to the virtual object by analyzing the shape, color and texture of the detected lighting object And it is possible to determine the influence of lighting including the irradiation direction.

일 실시예에 따르면, 상기 조명 객체는 상기 가상 객체의 일 영역에 위치한 조명 이펙트에 대응되는 형태를 가지는 그래픽 효과일 수 있다. 이에 따라, 상기 실감 오브젝트 생성부(500)는 상기 가상 객체의 일 영역에 상기 조명 객체가 존재하는 것을 확인하는 경우, 상기 조명 객체의 형태, 컬러 및 텍스쳐를 분석할 수 있다. 보다 자세하게, 상기 실감 오브젝트 생성부(500)는 이미지 분석 알고리즘을 통해 상기 가상 객체를 구성하는 픽셀들에 대한 상기 조명 객체의 형태, 컬러 및 텍스쳐를 분석할 수 있다.According to an embodiment, the lighting object may be a graphic effect having a shape corresponding to a lighting effect located in one area of the virtual object. Accordingly, when confirming that the lighting object exists in one area of the virtual object, the sensory object generator 500 may analyze the shape, color, and texture of the lighting object. In more detail, the sensory object generator 500 may analyze the shape, color, and texture of the lighting object for pixels constituting the virtual object through an image analysis algorithm.

이에 따라, 상기 실감 오브젝트 생성부(500)는 상기 기 저장된 이미지 분석 알고리즘을 통해 분석된 조명 객체의 형태, 컬러 및 텍스쳐에 기반한 조명의 영향을 판단할 수 있다. 상기와 관련하여, 상기 조명의 영향은 상기 가상 객체를 구성하는 픽셀들에 대한 조명의 세기 및 조명의 조사 방향을 포함할 수 있다.Accordingly, the sensory object generator 500 may determine the effect of lighting based on the shape, color, and texture of the lighting object analyzed through the pre-stored image analysis algorithm. In relation to the foregoing, the influence of the lighting may include an intensity of lighting and a direction in which the lighting is radiated to pixels constituting the virtual object.

일 실시예에 따르면, 상기 기 저장된 이미지 분석 알고리즘은 다른 가상 객체를 구성하는 픽셀들에 대한 조명 객체의 형태, 컬러 및 텍스쳐를 분석하여, 분석 결과를 머신러닝하는 알고리즘일 수 있다. 이에 따라, 상기 기 저장된 이미지 분석 알고리즘은 상기 가상 객체를 구성하는 픽셀들에 대한 조명 객체의 형태, 컬러 및 텍스쳐를 분석해 상기 가상 객체를 구성하는 픽셀들에 대한 조명의 영향을 판단할 수 있다.According to an embodiment, the pre-stored image analysis algorithm may be an algorithm that analyzes the shape, color, and texture of a lighting object for pixels constituting other virtual objects, and machine-learns the analysis result. Accordingly, the pre-stored image analysis algorithm may determine the effect of lighting on the pixels constituting the virtual object by analyzing the shape, color, and texture of the lighting object for the pixels constituting the virtual object.

일 실시예에 따르면, 상기 실감 오브젝트 생성부(500)는 상기 가상 객체를 구성하는 픽셀들에 대한 조명의 영향을 판단 완료한 상태에서, 상기 제2 컬러 보정 실시부(503)의 기능이 수행되는 경우, 상기 제2 컬러 보정 실시부(503)로 하여금 지정된 범위 내에 위치한 범위 픽셀과 상기 흠결 픽셀(501b)의 깊이 값을 확인하여, 상기 확인된 깊이 값에 기반한 명도에 상기 조명의 영향을 반영해 2차 보정을 실시하도록 할 수 있다.According to an embodiment, the function of the second color correction unit 503 is performed in a state in which the sensory object generator 500 has completed determining the effect of lighting on the pixels constituting the virtual object. In this case, the second color correction unit 503 checks the depth value of the range pixels located within the designated range and the defective pixel 501b, and reflects the influence of the lighting on the brightness based on the checked depth value. A second correction can be made.

즉, 상기 실감 오브젝트 생성부(500)는 상기 제2 컬러 보정 실시부(503)의 기능이 수행되기 전에, 상기 조명의 영향을 판단해 상기 판단된 조명의 영향에 기반한 조명의 세기 및 조명의 조사 방향을 상기 흠결 픽셀(501b)에 반영되는 명도와 함께 반영할 수 있다. That is, before the function of the second color correction unit 503 is performed, the sensory object creation unit 500 determines the influence of the lighting, and determines the intensity of the lighting and irradiation of the lighting based on the determined influence of the lighting. The direction may be reflected together with the brightness reflected in the defective pixel 501b.

도 6은 본 발명의 일 실시 예에 따른 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템의 실감 오브젝트 생성부를 설명하기 위한 다른 블록도이다.6 is another block diagram illustrating a sensory object generation unit of a sensory object generation system through automatic correction of 3D modeling according to an embodiment of the present invention.

도 6을 참조하면, 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템(예: 도 1의 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템 100))(이하, 자동 보정 시스템으로 칭함)은 실감 오브젝트 생성부(601)(예: 실감 오브젝트 생성부(105))를 포함할 수 있다.Referring to FIG. 6, a sensory object generation system through automatic correction of 3D modeling (eg, the sensory object generation system 100 through automatic correction of 3D modeling in FIG. 1) (hereinafter referred to as an automatic correction system) includes a sensory object generator ( 601) (eg, the sensory object generator 105).

일 실시예에 따르면, 상기 실감 오브젝트 생성부(601)는 가상 객체 분석부(603)(예: 도 1의 가상 객체 분석부(103))의 기능 수행으로 인해 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는 것이 확인되면, 상기 적어도 하나의 흠결 픽셀의 인근 픽셀들 각각에 매칭된 컬러 코드 정보 및 깊이 값 정보를 추출하여, 상기 추출된 컬러 코드 정보 및 깊이 값 정보 중 적어도 하나를 활용해 흠결 픽셀에 대한 보정을 완료해 실감 오브젝트의 생성을 완료할 수 있다.According to an embodiment, the sensory object generating unit 601 is configured to at least among pixels constituting a virtual object due to the performance of the function of the virtual object analyzing unit 603 (eg, the virtual object analyzing unit 103 of FIG. 1 ). If it is confirmed that one defective pixel exists, color code information and depth value information matched to each of pixels adjacent to the at least one defective pixel are extracted, and at least one of the extracted color code information and depth value information is extracted. It is possible to complete the creation of realistic objects by completing corrections for defective pixels.

상기와 관련하여, 상기 실감 오브젝트 생성부(601)가 흠결 픽셀에 반영된 컬러를 보정하는 자세한 설명은 도 4 내지 도 5를 참고하도록 한다. 도 6에서는 흠결 픽셀의 깊이 값을 보정하기 위한 설명만을 개시하도록 한다.In relation to the foregoing, a detailed description of how the sensory object generator 601 corrects the color reflected in the defective pixel will be referred to FIGS. 4 and 5 . In FIG. 6, only a description for correcting the depth value of a defective pixel is disclosed.

일 실시예에 따르면, 상기 실감 오브젝트 생성부(601)는, 상기 가상 객체 분석부(603)가 상기 기 저장된 흠결 픽셀 도출 알고리즘을 통해 범위 픽셀 대비 깊이 값이 기 설정된 임계 범위를 초과 또는 미만인 비연속적 픽셀을 식별하는 경우, 상기 식별된 비연속적 픽셀에 인접한 인접 픽셀에 대한 깊이 값의 깊이 평균 값을 산출하여, 상기 산출된 깊이 평균 값에 대응되는 깊이 값을 상기 식별된 비연속적 픽셀에 반영해 보정을 실시할 수 있다.According to an embodiment, the sensory object generator 601 determines that the virtual object analyzer 603 detects non-contiguous areas in which a depth value versus range pixels exceeds or falls below a preset threshold range through the pre-stored defective pixel derivation algorithm. When a pixel is identified, a depth average value of depth values of adjacent pixels adjacent to the identified non-contiguous pixel is calculated, and a depth value corresponding to the calculated depth average value is reflected to the identified non-contiguous pixel for correction. can be carried out.

상기와 관련하여, 상기 기 설정된 임계 범위는, 상기 가상 객체 분석부(603)가 가상 객체를 구성하는 픽셀들 중 하나인 제1 픽셀을 기준으로 지정된 범위 내에 위치한 범위 픽셀의 깊이 값의 평균에 지정된 깊이 값이 반영된 구성일 수 있다. 예를 들어, 상기 범위 픽셀의 깊이 값이 평균이 5인 경우, 상기 기 설정된 임계 범위는 5를 기준으로 -2 및 +2가 적용된 3 내지 7일 수 있다.In relation to the foregoing, the predetermined threshold range is determined by the virtual object analyzer 603 as an average of depth values of pixels within a designated range based on a first pixel, which is one of pixels constituting a virtual object. It may be a configuration in which a depth value is reflected. For example, when the average depth value of the range pixels is 5, the predetermined threshold range may be 3 to 7 to which -2 and +2 are applied based on 5.

상기와 관련하여, 상기 실감 오브젝트 생성부(601)는 상기 가상 객체를 구성하는 픽셀들에서 상기 범위 픽셀에 포함된 일 영역(예: 제1 영역)에 포함된 픽셀들 중 기 설정된 임계 범위인 3 내지 7을 초과하거나 미만인 비연속적 픽셀을 식별할 수 있다. 이에 따라, 상기 실감 오브젝트 생성부(601)는 상기 식별된 비연속적 픽셀에 인접한 인접 픽셀에 대한 깊이 값의 깊이 평균 값을 산출해 상기 산출된 깊이 평균 값에 대응되는 깊이 값을 상기 식별된 비연속적 픽셀에 반영해 보정을 실시할 수 있다.In relation to the foregoing, the sensory object generator 601 is configured to select a predetermined threshold range of 3 pixels among pixels included in a region (eg, first region) included in the range pixels among pixels constituting the virtual object. to identify non-contiguous pixels greater than or less than 7. Accordingly, the sensory object generating unit 601 calculates a depth average value of depth values of adjacent pixels adjacent to the identified non-contiguous pixel, and converts the depth value corresponding to the calculated depth average value to the identified non-contiguous pixel. Correction can be performed by reflecting it to the pixel.

즉, 상기 실감 오브젝트 생성부(601)는 상기 기 저장된 흠결 픽셀 도출 알고리즘을 통해 범위 픽셀 대비 깊이 값이 기 설정된 임계 범위를 초과하거나 미만인 비연속적 픽셀을 식별하고, 상기 식별된 비연속적 픽셀에 인접해 있는 인접 픽셀의 깊이 평균 값을 산출해 상기 비연속적 픽셀을 보정함으로써, 국소 범위에 대한 픽셀의 보정을 수행할 수 있다.That is, the sensory object generation unit 601 identifies non-contiguous pixels whose depth value compared to range pixels exceeds or falls below a preset threshold range through the pre-stored defective pixel derivation algorithm, and identifies non-contiguous pixels adjacent to the identified non-contiguous pixels. Pixel correction for a local range may be performed by calculating the average depth value of adjacent pixels and correcting the non-contiguous pixels.

일 실시예에 따르면, 상기 실감 오브젝트 생성부(601)는 상기 비연속적 픽셀에 상기 인접 픽셀에 대한 평균 값을 반영함으로써, 실감 오브젝트의 생성을 완료할 수 있다. 상기 실감 오브젝트는 촬영 객체와 대응하는 가상 객체를 상기 자동 보정 시스템이 자동으로 보정함에 따라 생성되는 완성된 가상의 객체를 의미할 수 있다.According to an embodiment, the sensory object generation unit 601 may complete generation of the sensory object by reflecting an average value of the adjacent pixels to the non-contiguous pixels. The sensory object may refer to a completed virtual object created as the automatic correction system automatically corrects a virtual object corresponding to a photographed object.

도 7은 본 발명의 일 실시 예에 따른 컴퓨팅 장치의 내부 구성의 일 예를 설명하기 위한 도면이다.7 is a diagram for explaining an example of an internal configuration of a computing device according to an embodiment of the present invention.

도 7은 본 발명의 일 실시 예에 따른 컴퓨팅 장치의 내부 구성의 일 예를 도시하였으며, 이하의 설명에 있어서, 상술한 도 1 내지 6에 대한 설명과 중복되는 불필요한 실시 예에 대한 설명은 생략하기로 한다.7 illustrates an example of an internal configuration of a computing device according to an embodiment of the present invention, and in the following description, descriptions of unnecessary embodiments overlapping with those of FIGS. 1 to 6 will be omitted. do it with

도 7에 도시한 바와 같이, 컴퓨팅 장치(10000)은 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripEHRal interface)(11300), 입/출력 서브시스템(I/O subsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. 이때, 컴퓨팅 장치(10000)은 촉각 인터페이스 장치에 연결된 유저 단말이기(A) 혹은 전술한 컴퓨팅 장치(B)에 해당될 수 있다.As shown in FIG. 7, a computing device 10000 includes at least one processor 11100, a memory 11200, a peripheral interface 11300, an input/output subsystem ( It may include at least an I/O subsystem (11400), a power circuit (11500), and a communication circuit (11600). In this case, the computing device 10000 may correspond to a user terminal connected to the tactile interface device (A) or the aforementioned computing device (B).

메모리(11200)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅 장치(10000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그밖에 다양한 데이터를 포함할 수 있다.The memory 11200 may include, for example, high-speed random access memory, magnetic disk, SRAM, DRAM, ROM, flash memory, or non-volatile memory. there is. The memory 11200 may include a software module, a command set, or other various data necessary for the operation of the computing device 10000.

이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다.In this case, access to the memory 11200 from other components, such as the processor 11100 or the peripheral device interface 11300, may be controlled by the processor 11100.

주변장치 인터페이스(11300)는 컴퓨팅 장치(10000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅 장치(10000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.Peripheral interface 11300 may couple input and/or output peripherals of computing device 10000 to processor 11100 and memory 11200 . The processor 11100 may execute various functions for the computing device 10000 and process data by executing software modules or command sets stored in the memory 11200 .

입/출력 서브시스템(11400)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(11400)은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서 등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(11400)을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.Input/output subsystem 11400 can couple various input/output peripherals to peripheral interface 11300. For example, the input/output subsystem 11400 may include a controller for coupling a peripheral device such as a monitor, keyboard, mouse, printer, or touch screen or sensor to the peripheral interface 11300 as needed. According to another aspect, input/output peripherals may be coupled to the peripheral interface 11300 without going through the input/output subsystem 11400.

전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.The power circuit 11500 may supply power to all or some of the terminal's components. For example, power circuit 11500 may include a power management system, one or more power sources such as a battery or alternating current (AC), a charging system, a power failure detection circuit, a power converter or inverter, a power status indicator or power It may contain any other components for creation, management and distribution.

통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅 장치와 통신을 가능하게 할 수 있다.The communication circuit 11600 may enable communication with another computing device using at least one external port.

또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅 장치와 통신을 가능하게 할 수도 있다.Alternatively, as described above, the communication circuit 11600 may include an RF circuit and transmit/receive an RF signal, also known as an electromagnetic signal, to enable communication with another computing device.

이러한 도 7의 실시 예는, 컴퓨팅 장치(10000)의 일례일 뿐이고, 컴퓨팅 장치(11000)은 도 7에 도시된 일부 컴포넌트가 생략되거나, 도 7에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅 장치는 도 7에 도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(1160)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅 장치(10000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.The embodiment of FIG. 7 is only an example of the computing device 10000, and the computing device 11000 may omit some of the components shown in FIG. 7, further include additional components not shown in FIG. It may have a configuration or arrangement combining two or more components. For example, a computing device for a communication terminal in a mobile environment may further include a touch screen or a sensor in addition to the components shown in FIG. , Bluetooth, NFC, Zigbee, etc.) may include a circuit for RF communication. Components that may be included in the computing device 10000 may be implemented as hardware including one or more signal processing or application-specific integrated circuits, software, or a combination of both hardware and software.

본 발명의 실시 예에 따른 방법들은 다양한 컴퓨팅 장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시 예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 애플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말이기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.Methods according to embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computing devices and recorded in computer readable media. In particular, the program according to the present embodiment may be configured as a PC-based program or a mobile terminal-only application. An application to which the present invention is applied may be installed in a user terminal through a file provided by a file distribution system. For example, the file distribution system may include a file transmission unit (not shown) that transmits the file according to a request of a user terminal.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시 예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술 분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of hardware components and software components. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅 장치상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or to provide instructions or data to a processing device. may be permanently or temporarily embodied in Software may be distributed on networked computing devices and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

실시 예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시 예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시 예들이 비록 한정된 실시 예와 도면에 의해 설명되었으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시 예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or the components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved. Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (7)

하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치에서 구현되는 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템에 있어서,
전자 장치의 카메라를 통해 다방향에서의 촬영 객체에 대한 촬영이 수행됨에 따라 촬영 영상 프레임에 대응되는 영상 이미지가 획득되는 경우, 상기 전자 장치로부터 상기 전자 장치에 탑재된 자이로 센서의 센싱 값에 기반한 촬영 각도 정보와 상기 전자 장치가 상기 촬영 객체를 촬영함에 따라 획득된 영상 이미지 정보를 수신하는 촬영 정보 수신부;
상기 촬영 각도 정보 및 상기 영상 이미지 정보의 수신이 완료되면, 상기 수신된 촬영 각도 정보 및 상기 영상 이미지 정보를 분석해 상기 분석 결과를 기반으로, 상기 촬영 객체와 대응하는 3D 입체 모델인 가상 객체를 3차원 가상 공간에 구현하여, 상기 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는지를 확인하는 가상 객체 분석부; 및
상기 가상 객체 분석부의 기능 수행으로 인해 상기 가상 객체를 구성하는 픽셀들 중 적어도 하나의 흠결 픽셀이 존재하는 것이 확인되면, 상기 적어도 하나의 흠결 픽셀의 인근 픽셀들 각각에 매칭된 컬러 코드 정보 및 깊이 값 정보를 확인하여, 상기 확인된 컬러 코드 정보 및 깊이 값 정보 중 적어도 하나를 활용해 상기 흠결 픽셀에 대한 보정을 완료해 실감 오브젝트의 생성을 완료하는 실감 오브젝트 생성부;를 포함하되,
상기 가상 객체 분석부는,
상기 촬영 각도 정보 및 상기 영상 이미지 정보의 수신이 완료되면, 상기 영상 이미지 정보에 대한 분석을 시작하여, 상기 영상 이미지 정보 상의 촬영 객체에 대한 깊이 값 및 컬러를 추출하고, 상기 다방향에서 촬영한 촬영 객체에 대한 2차원 이미지를 상기 추출된 깊이 값 및 컬러가 반영된 3차원 이미지로 변환하는 이미지 변환부; 및
상기 3차원 이미지의 변환이 완료되면, 상기 촬영 객체의 동일한 영역을 지시하는 픽셀의 깊이 값이 동일해지도록 상기 3차원 이미지의 크기를 보정하고, 상기 촬영 각도 정보에 대응되는 방향에서 상기 3차원 이미지를 정합하여 3D 입체 모델인 가상 객체를 생성하는 가상 객체 생성부;를 포함하되,
상기 가상 객체 분석부는,
상기 가상 객체의 생성이 완료됨에 따라 상기 3차원 가상 공간에 상기 가상 객체의 구현이 완료되면, 상기 가상 객체를 구성하는 픽셀들에 대한 분석 프로세스를 시작하는 프로세스 시작부;
상기 분석 프로세스가 시작되면, 기 저장된 흠결 픽셀 도출 알고리즘을 기반으로, 상기 가상 객체를 구성하는 픽셀들 중 제1 픽셀을 지정하고, 상기 제1 픽셀을 기준으로 지정된 범위 내에 위치한 범위 픽셀에 대한 분석을 시작하여, 상기 분석 결과를 통해 상기 제1 픽셀 및 상기 범위 픽셀 중 적어도 하나가 지정된 흠결 픽셀 조건을 만족하는지를 확인하는 조건 만족 확인부; 및
상기 제1 픽셀 및 상기 범위 픽셀 중 적어도 하나가 상기 지정된 흠결 픽셀 조건을 만족하는 경우, 상기 지정된 흠결 픽셀 조건을 만족하는 픽셀에 식별 정보를 부여해 흠결 픽셀로 지정하는 흠결 픽셀 지정부;를 포함하되,
상기 기 저장된 흠결 픽셀 도출 알고리즘은,
상기 분석 프로세스가 시작되면, 상기 가상 객체를 구성하는 픽셀들 각각을 확인하여, 상기 컬러 코드 정보가 반영되어있지 않은 픽셀 및 범위 픽셀 대비 깊이 값이 기 설정된 임계 범위를 초과하거나 미만인 비연속적 픽셀 중 적어도 하나를 식별해 식별 정보를 부여하여 상기 흠결 픽셀로 지정하는 알고리즘인 것을 특징으로 하는 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템.
A realistic object generation system through automatic correction of 3D modeling implemented in a computing device including one or more processors and one or more memories storing instructions executable by the processors,
When a video image corresponding to a photographed video frame is obtained as a photograph of a photographed object is performed in multiple directions through a camera of the electronic device, photographing based on a sensing value of a gyro sensor mounted in the electronic device from the electronic device a photographing information receiver configured to receive angle information and video image information acquired as the electronic device photographs the photographing object;
When the reception of the photographing angle information and the video image information is completed, the received photographing angle information and the video image information are analyzed, and based on the analysis result, a virtual object that is a 3D stereoscopic model corresponding to the photographing object is created in 3D a virtual object analysis unit implemented in a virtual space and checking whether at least one defective pixel among pixels constituting the virtual object exists; and
When it is confirmed that at least one defective pixel exists among the pixels constituting the virtual object due to the performance of the function of the virtual object analyzer, color code information and depth value matched to each of pixels adjacent to the at least one defective pixel A sensory object generator configured to confirm information and complete generation of a sensory object by completing correction for the defective pixel using at least one of the identified color code information and depth value information;
The virtual object analysis unit,
When the reception of the photographing angle information and the video image information is completed, analysis of the video image information is started, a depth value and a color of a photographed object on the video image information are extracted, and the photographing taken in multiple directions is performed. an image conversion unit which converts a 2D image of an object into a 3D image in which the extracted depth value and color are reflected; and
When the conversion of the 3D image is completed, the size of the 3D image is corrected so that depth values of pixels indicating the same region of the photographing object become the same, and the 3D image is viewed in a direction corresponding to the photographing angle information. Including; virtual object generation unit for generating a virtual object that is a 3D three-dimensional model by matching the
The virtual object analysis unit,
a process initiation unit that starts an analysis process for pixels constituting the virtual object when implementation of the virtual object in the 3D virtual space is completed as the creation of the virtual object is completed;
When the analysis process starts, a first pixel among pixels constituting the virtual object is designated based on a pre-stored defective pixel derivation algorithm, and range pixels located within a designated range based on the first pixel are analyzed. a condition satisfaction checking unit that first checks whether at least one of the first pixel and the range pixels satisfies a designated defective pixel condition through the analysis result; and
When at least one of the first pixel and the range pixels satisfies the designated defective pixel condition, a defective pixel designation unit assigning identification information to a pixel satisfying the designated defective pixel condition and designating the pixel as a defective pixel;
The pre-stored defective pixel derivation algorithm,
When the analysis process starts, each of the pixels constituting the virtual object is identified, and at least among pixels to which the color code information is not reflected and non-contiguous pixels whose depth value is greater than or less than a preset threshold range compared to range pixels An immersive object creation system through automatic correction of 3D modeling, characterized in that it is an algorithm that identifies one and assigns identification information to it as the defective pixel.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 실감 오브젝트 생성부는,
상기 흠결 픽셀 지정부의 기능 수행으로 인해 상기 가상 객체를 구성하는 픽셀들 중 상기 흠결 픽셀이 확인되는 경우, 상기 흠결 픽셀을 제외하되, 상기 흠결 픽셀을 기준으로 지정된 범위 내에 위치한 범위 픽셀 각각의 컬러 변동에 대한 평균 값을 확인하여, 상기 확인된 평균 값에 대응되는 컬러 코드 정보를 상기 흠결 픽셀에 매칭해 상기 매칭된 컬러 코드 정보에 기반한 컬러를 상기 흠결 픽셀에 반영해 1차 보정을 실시하는 제1 컬러 보정 실시부; 및
상기 제1 컬러 보정 실시부의 기능 수행이 완료되면, 상기 흠결 픽셀을 기준으로 상기 지정된 범위 내에 위치한 범위 픽셀과 상기 흠결 픽셀의 깊이 값을 확인하여, 상기 확인된 깊이 값에 기반한 명도를 상기 흠결 픽셀에 반영된 컬러에 반영해 2차 보정을 실시하고, 상기 흠결 픽셀에 매칭된 컬러 코드 정보를 상기 2차 보정된 컬러에 대응되는 컬러 코드 정보로 재매칭하는 제2 컬러 보정 실시부;를 포함하는 것을 특징으로 하는 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템.
According to claim 1,
The sensory object creation unit,
When the defective pixel is identified among the pixels constituting the virtual object due to the performance of the function of the defective pixel specifying unit, the defective pixel is excluded, but the color variation of each of the range pixels located within the designated range based on the defective pixel A first correction is performed by checking an average value for , matching color code information corresponding to the checked average value to the defective pixel, and reflecting a color based on the matched color code information to the defective pixel. Color correction implementation unit; and
When the function of the first color correction unit is completed, a range pixel located within the designated range and a depth value of the defective pixel are checked based on the defective pixel, and brightness based on the checked depth value is assigned to the defective pixel. and a second color correction unit for performing secondary correction by reflecting the reflected color and re-matching color code information matched to the defective pixel with color code information corresponding to the secondary corrected color. Realistic object creation system through automatic correction of 3D modeling.
제5항에 있어서,
상기 실감 오브젝트 생성부는,
상기 제1 컬러 보정 실시부의 기능이 수행되기 이전에, 상기 가상 객체에 대한 조명 이펙트에 기반한 조명 객체가 존재하는지를 확인하여, 상기 가상 객체의 흠결 픽셀을 포함하는 일 영역에 상기 조명 객체가 검출되는 경우, 상기 검출된 조명 객체의 형태, 컬러 및 텍스쳐를 분석하여, 상기 가상 객체에 대응되는 촬영 객체에 대한 조명의 세기 및 조사 방향을 포함하는 조명의 영향을 판단한 상태에서, 상기 제2 컬러 보정 실시부의 기능이 수행되는 경우, 상기 제2 컬러 보정 실시부로 하여금 상기 지정된 범위 내에 위치한 범위 픽셀과 상기 흠결 픽셀의 깊이 값을 확인하여, 상기 확인된 깊이 값에 기반한 명도에 상기 조명의 영향을 반영해 상기 2차 보정을 실시하도록 요청하는 것을 특징으로 하는 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템.
According to claim 5,
The sensory object creation unit,
Before the function of the first color correction unit is performed, it is checked whether a lighting object based on the lighting effect for the virtual object exists, and the lighting object is detected in an area including a defective pixel of the virtual object. , In a state in which the shape, color, and texture of the detected lighting object are analyzed, and the influence of lighting including the intensity and irradiation direction of lighting on the shooting object corresponding to the virtual object is determined, the second color correction unit When the function is performed, the second color correction unit checks the depth value of the range pixels located within the designated range and the defective pixel, reflects the influence of the lighting on the brightness based on the checked depth value, A system for creating realistic objects through automatic correction of 3D modeling, characterized in that for requesting to perform difference correction.
제6항에 있어서,
상기 실감 오브젝트 생성부는,
상기 가상 객체 분석부가 상기 기 저장된 흠결 픽셀 도출 알고리즘을 통해 범위 픽셀 대비 깊이 값이 기 설정된 임계 범위를 초과 또는 미만인 비연속적 픽셀을 식별하는 경우, 상기 식별된 비연속적 픽셀에 인접한 인접 픽셀에 대한 깊이 값의 깊이 평균 값을 산출하여, 상기 산출된 깊이 평균 값에 대응되는 깊이 값을 상기 식별된 비연속적 픽셀에 반영해 보정을 실시하는 것을 특징으로 하는 3D 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템.
According to claim 6,
The sensory object creation unit,
When the virtual object analyzer identifies a non-contiguous pixel having a depth value relative to range pixels greater than or less than a preset threshold range through the previously stored defective pixel derivation algorithm, a depth value for an adjacent pixel adjacent to the identified non-contiguous pixel A realistic object generation system through automatic correction of 3D modeling, characterized in that by calculating a depth average value of , and performing correction by reflecting a depth value corresponding to the calculated depth average value to the identified non-contiguous pixels.
KR1020220088037A 2022-07-18 2022-07-18 Realistic object creation system through 3d modeling automatic correction KR102567379B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220088037A KR102567379B1 (en) 2022-07-18 2022-07-18 Realistic object creation system through 3d modeling automatic correction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220088037A KR102567379B1 (en) 2022-07-18 2022-07-18 Realistic object creation system through 3d modeling automatic correction

Publications (1)

Publication Number Publication Date
KR102567379B1 true KR102567379B1 (en) 2023-08-17

Family

ID=87800084

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220088037A KR102567379B1 (en) 2022-07-18 2022-07-18 Realistic object creation system through 3d modeling automatic correction

Country Status (1)

Country Link
KR (1) KR102567379B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101554241B1 (en) * 2011-06-24 2015-09-18 소프트키네틱 소프트웨어 A method for depth map quality enhancement of defective pixel depth data values in a three-dimensional image
KR102398580B1 (en) * 2021-06-21 2022-05-17 주식회사 호인스컴퍼니 Sensory object creation system using a mobile terminal

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101554241B1 (en) * 2011-06-24 2015-09-18 소프트키네틱 소프트웨어 A method for depth map quality enhancement of defective pixel depth data values in a three-dimensional image
KR102398580B1 (en) * 2021-06-21 2022-05-17 주식회사 호인스컴퍼니 Sensory object creation system using a mobile terminal

Similar Documents

Publication Publication Date Title
US10803351B2 (en) Image processing apparatus and image processing method
CN107466411B (en) Two-dimensional infrared depth sensing
US10269175B2 (en) Three dimensional content generating apparatus and three dimensional content generating method thereof
US9616572B2 (en) Information processing apparatus for determining interference between peripheral objects and grasping unit, information processing method, and storage medium
CN105933589B (en) A kind of image processing method and terminal
US8605987B2 (en) Object-based 3-dimensional stereo information generation apparatus and method, and interactive system using the same
AU2019203928B2 (en) Face location detection
WO2017143745A1 (en) Method and apparatus for determining movement information of to-be-detected object
US20120062749A1 (en) Human body identification method using range image camera and human body identification apparatus
JP6255125B2 (en) Image processing apparatus, image processing system, and image processing method
JP6352208B2 (en) 3D model processing apparatus and camera calibration system
JP2016109669A (en) Information processing device, information processing method, program
CN111598065A (en) Depth image acquisition method, living body identification method, apparatus, circuit, and medium
US10726569B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
JP5704909B2 (en) Attention area detection method, attention area detection apparatus, and program
KR20200049958A (en) Apparatus and method for measuring depth of three dimensions
KR102567379B1 (en) Realistic object creation system through 3d modeling automatic correction
US20150063637A1 (en) Image recognition method and robot
CN111742352A (en) 3D object modeling method and related device and computer program product
KR102540678B1 (en) Method and System for Supplementing Derive the Position of an Object Using a Camera Image
WO2012105228A2 (en) Imaging apparatus and imaging condition setting method and program
KR102398580B1 (en) Sensory object creation system using a mobile terminal
US11195290B2 (en) Apparatus and method for encoding in structured depth camera system
JP7298687B2 (en) Object recognition device and object recognition method
CN112016495A (en) Face recognition method and device and electronic equipment

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant