KR102457180B1 - 3D modeling system with integrated control - Google Patents
3D modeling system with integrated control Download PDFInfo
- Publication number
- KR102457180B1 KR102457180B1 KR1020210188559A KR20210188559A KR102457180B1 KR 102457180 B1 KR102457180 B1 KR 102457180B1 KR 1020210188559 A KR1020210188559 A KR 1020210188559A KR 20210188559 A KR20210188559 A KR 20210188559A KR 102457180 B1 KR102457180 B1 KR 102457180B1
- Authority
- KR
- South Korea
- Prior art keywords
- subject
- image
- modeling
- guide information
- expression
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Vascular Medicine (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Studio Devices (AREA)
Abstract
Description
본 발명은 3D 모델링 시스템에 관한 것으로서, 더욱 상세하게는 통합 제어를 통하여 피사체의 얼굴 표정을 3D 모델링하는 시스템에 관한 것이다.The present invention relates to a 3D modeling system, and more particularly, to a system for 3D modeling a facial expression of a subject through integrated control.
포토그래메트리(Photogrammetry)는 2D 사진을 기반으로 3D 형상 정보를 구축하는 방식으로 여러 장의 사진 정보를 활용하여 피사체와 카메라의 위치 정보를 찾아내고 영상 정보의 특정 패턴 및 픽셀에 대한 정보를 찾아서 합성하게 되며, 합성된 데이터는 3D 데이터로 변환되어서 모델링 데이터를 생성하는 방식이다. 특히 다수의 카메라에서 촬영된 2D 이미지를 3D 메시화시키는 기법을 3D 재구성(reconstruction)이라 한다.Photogrammetry is a method of constructing 3D shape information based on 2D photos. It uses information from multiple photos to find the location information of the subject and camera, and finds and synthesizes information about specific patterns and pixels in the image information. The synthesized data is converted into 3D data to generate modeling data. In particular, a technique of 3D meshing 2D images captured by multiple cameras is called 3D reconstruction.
종래에는 다수의 2D 사진을 생성하는 카메라 촬영 단계부터 3D 재구성 단계까지 많은 과정이 통합적으로 제어되지 못하고 관리자에 의해 일일이 수동으로 제어되고 있다. 예를 들어, 카메라 촬영 단계의 경우, 목적에 따라 모든 카메라와 조명이 소정의 셋팅 값을 가지도록 일괄적으로 이들의 설정을 변경해야 하는데, 종래에는 관리자가 각 카메라 및 조명마다 수동으로 설정을 변경함으로써 이들의 셋팅 값에 오차가 쉽게 발생하였다. 만일 모든 카메라 또는 조명이 동일한 세팅 값을 가지지 못할 경우, 다수의 촬영된 이미지에 규칙성이 파괴되어 3D 재구성 과정에서 치명적 오류가 발생할 수 있다.Conventionally, many processes from the camera capturing step for generating a large number of 2D photos to the 3D reconstruction step are not controlled in an integrated way, and are manually controlled by an administrator. For example, in the case of camera shooting, it is necessary to collectively change their settings so that all cameras and lights have predetermined setting values depending on the purpose. Conventionally, the administrator manually changes the settings for each camera and light By doing so, errors easily occurred in their setting values. If all cameras or lights do not have the same setting values, regularity in multiple captured images may be destroyed and fatal errors may occur in the 3D reconstruction process.
또한 종래에는 3D 모델링하기 위한 카메라 촬영을 할 때, 촬영자가 구두로 피사체 또는 피촬영자에게 위치 정렬이나 얼굴 표정을 요청하고 있다. 피촬영자 입장에서는 이러한 구두 요청만으로는 촬영자의 지시를 정확히 파악하기 쉽지 않기 때문에 작업 시간이 많이 소요되는 문제가 있다.Also, in the prior art, when photographing a camera for 3D modeling, a photographer verbally requests a subject or a subject for position alignment or facial expression. From the point of view of the person being photographed, it is not easy to accurately understand the instructions of the photographer only with such verbal requests, so there is a problem that it takes a lot of work time.
본 발명이 해결하고자 하는 과제는, 통합 제어가 가능한 3D 모델링 시스템을 제공하고자 하는 것이다.An object of the present invention is to provide a 3D modeling system capable of integrated control.
본 발명이 해결하고자 하는 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned can be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. will be.
상기 과제를 달성하기 위한 본 발명의 일 실시예에 따른 3D 모델링 시스템은, 포토그래메트리를 이용하여 피사체의 얼굴 표정을 3D 모델링하는 시스템으로서, 상기 피사체의 주변에 배치되어 상기 피사체에 대해 여러 각도로 2D 이미지를 촬영하는 복수의 카메라; 카메라 촬영 전에 상기 피사체를 모니터링하여 준비 영상을 생성하는 모니터링 장치; 상기 피사체에 3D 모델링을 위한 촬영 가이드 정보를 제공하는 디스플레이 장치; 및 상기 복수의 카메라가 촬영한 복수의 2D 이미지로부터 상기 피사체의 얼굴 표정을 3D 모델링하는 제어 장치를 포함한다. A 3D modeling system according to an embodiment of the present invention for achieving the above object is a system for 3D modeling a facial expression of a subject using photogrammetry, and is disposed around the subject and has various angles with respect to the subject. a plurality of cameras for capturing 2D images; a monitoring device for generating a preparation image by monitoring the subject before the camera is photographed; a display device providing photographing guide information for 3D modeling to the subject; and a control device for 3D modeling the facial expression of the subject from a plurality of 2D images captured by the plurality of cameras.
여기서, 상기 제어 장치는 상기 준비 영상 및 상기 촬영 가이드 정보를 상기 디스플레이 장치에 함께 표시할 수 있다. 상기 피사체의 상태 변화에 따라 상기 준비 영상이 변경되어 상기 디스플레이 장치에 표시될 수 있고, 상기 제어 장치는 상기 준비 영상이 상기 촬영 가이드 정보에 정의된 소정의 기준을 만족하는지에 따라 카메라 촬영의 가능 여부를 평가할 수 있다.Here, the control device may display the preparation image and the shooting guide information together on the display device. The preparation image may be changed and displayed on the display device according to a change in the state of the subject, and the control device may determine whether camera shooting is possible according to whether the preparation image satisfies a predetermined criterion defined in the shooting guide information. can be evaluated.
상기 촬영 가이드 정보는, 3D 모델링을 위해 상기 피사체에 요구되는 위치에 대한 위치 가이드 정보; 3D 모델링을 위해 상기 피사체에 요구되는 표정에 대한 표정 가이드 정보; 및 3D 모델링을 위해 상기 피사체에 요구되는 움직임에 대한 움직임 가이드 정보를 포함할 수 있다.The photographing guide information may include: position guide information on a position required for the subject for 3D modeling; Expression guide information for the expression required for the subject for 3D modeling; and motion guide information for a motion required for the subject for 3D modeling.
상기 디스플레이 장치가 제공하는 사용자 인터페이스는, 상기 위치 가이드 정보로서 피사체 가이드 라인이 표시된 상태에서 상기 준비 영상을 실시간으로 표시하는 위치 가이드 영역; 상기 표정 가이드 정보를 텍스트로 표시하는 표정 가이드 텍스트 영역; 상기 표정 가이드 정보를 이미지로 표시하는 표정 가이드 이미지 영역; 및 상기 준비 영상의 움직임에 대한 피드백을 표시하는 움직임 가이드 영역을 포함할 수 있다.The user interface provided by the display device may include: a location guide area for displaying the preparation image in real time while a subject guide line is displayed as the location guide information; an expression guide text area displaying the expression guide information as text; an expression guide image area displaying the expression guide information as an image; and a motion guide area displaying feedback on the motion of the preparation image.
상기 제어 장치는 상기 준비 영상이 상기 피사체 가이드 라인을 벗어나는 경우 경고 메시지를 제공하고, 상기 제어 장치는 상기 준비 영상으로부터 상기 피사체의 표정을 실시간 검출하여 상기 표정 가이드 정보를 기준으로 카메라 촬영 적합성을 평가하고, 상기 제어 장치는 상기 준비 영상으로부터 상기 피사체의 움직임을 실시간 검출하여 카메라 촬영 적합성을 평가할 수 있다.The control device provides a warning message when the preparation image deviates from the subject guide line, and the control unit detects the facial expression of the subject from the preparation image in real time to evaluate camera shooting suitability based on the facial expression guide information, , the control device may detect the movement of the subject from the preparation image in real time to evaluate suitability for camera shooting.
상기 제어 장치는 3D 모델링을 수행하기 전에 상기 복수의 2D 이미지에 대한 이미지 무결성 검증을 수행하고, 상기 이미지 무결성 검증은 상기 복수의 2D 이미지의 개수와 상기 복수의 카메라의 개수의 일치 여부를 판단하는 것과, 상기 복수의 2D 이미지의 노출값이 소정의 범위 내에 있는지를 판단하는 것과, 상기 복수의 2D 이미지의 아웃포커싱 정도를 판단하는 것을 포함할 수 있다.The control device performs image integrity verification on the plurality of 2D images before performing 3D modeling, and the image integrity verification determines whether the number of the plurality of 2D images matches the number of the plurality of cameras , determining whether the exposure values of the plurality of 2D images are within a predetermined range, and determining the degree of defocusing of the plurality of 2D images.
기타 실시예들의 구체적인 사항들은 구체적인 내용 및 도면들에 포함되어 있다.Specific details of other embodiments are included in the detailed description and drawings.
상술한 바와 같이 본 발명에 따른 3D 모델링 시스템에 의하면 다음과 같은 우수한 효과가 있다.As described above, according to the 3D modeling system according to the present invention, there are excellent effects as follows.
첫째, 제어 장치가 모든 카메라를 일괄적으로 제어할 수 있으므로 목적에 따라 카메라 셋팅 값의 변경이 필요할 때 셋팅 값에 오차가 생기는 것을 방지할 수 있다.First, since the control device can control all cameras collectively, it is possible to prevent an error in the setting value when the camera setting value needs to be changed according to the purpose.
둘째, 피사체 또는 피촬영자가 디스플레이 장치를 통해 스스로 본인의 영상(즉, 준비 영상)뿐만 아니라 촬영자의 요구 사항(즉, 촬영 가이드 정보)를 확인함으로써 촬영 전에 본인의 상태가 촬영에 적합한지를 직접 확인할 수 있다. Second, the subject or subject can directly check whether his or her condition is suitable for shooting before shooting by checking his/her own image (i.e., preparation image) as well as the photographer’s requirements (i.e., shooting guide information) through the display device. have.
피촬영자는 디스플레이 장치를 통해 본인의 준비 영상이 피사체 가이드 라인을 벗어나지 않도록 본인의 위치를 정렬할 수 있다. 만일 준비 영상이 피사체 가이드 라인을 벗어날 경우 제어 장치는 경고 메시지를 제공함으로써 피사체 또는 피촬영자의 위치 정렬을 유도할 수 있다. The subject may arrange his/her position through the display device so that his/her preparation image does not deviate from the subject guide line. If the preparation image deviates from the subject guide line, the control device may induce position alignment of the subject or the subject by providing a warning message.
피촬영자는 디스플레이 장치를 통해 촬영자가 요구하는 표정을 텍스트 및 이미지로 확인하고 이에 맞게 표정을 지을 수 있다. 제어 장치는 안면 인식 알고리즘 등을 이용하여 준비 영상으로부터 피사체 또는 피촬영자의 표정을 실시간으로 검출하여 촬영자의 요구 사항(즉, 표정 가이드 정보)를 기준으로 카메라 촬영 적합성을 평가하여 피촬영자에게 피드백을 제공할 수 있다. The person to be photographed may check the expression requested by the photographer in text and images through the display device, and may make an expression according to the text and image. The control device detects the expression of the subject or the subject in real time from the prepared image using a facial recognition algorithm, etc. can do.
피촬영자의 움직임으로 인해 카메라 촬영이 불가능할 경우, 제어 장치는 디스플레이 장치를 통해 피촬영자에게 피드백을 제공할 수 있다.When it is impossible to take a picture with the camera due to the movement of the person to be photographed, the control device may provide feedback to the person to be photographed through the display device.
셋째, 제어 장치는 복수의 카메라에 의해 촬영된 복수의 2D 이미지에 대해 이미지 무결성 검증을 자동으로 수행함으로써 3D 모델링 전에 데이터 신뢰성을 높일 수 있다. 이미지 무결성 검증을 통해 이미지 개수의 일치여부, 이미지 노출값의 적절성, 이미지 포커싱의 적절성 등을 판단할 수 있다.Third, the control device can increase data reliability before 3D modeling by automatically performing image integrity verification on a plurality of 2D images captured by a plurality of cameras. Through image integrity verification, it is possible to determine whether the number of images matches, the appropriateness of the image exposure value, and the appropriateness of image focusing.
넷째, 제어 장치는 무결성이 확보된 이미지 데이터를 피사체(피촬영자), 파일명, 촬영날짜, 표정(촬영 포즈) 등을 기준으로 자동으로 분류하여 그룹핑하여 데이터 베이스에 저장함으로써 데이터 보관 및 재사용이 용이하다.Fourth, the control device automatically classifies and groups the image data with secured integrity based on the subject (subject), file name, shooting date, facial expression (shooting pose), etc., and stores it in a database for easy data storage and reuse .
도 1은 본 발명의 일 실시예에 따른 3D 모델링 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 도 1의 제어 장치의 구성을 개략적으로 나타낸 도면이다.
도 3은 도 1의 디스플레이 장치가 제공하는 사용자 인터페이스를 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 3D 모델링 방법을 순차적으로 나타낸 순서도이다.1 is a diagram schematically showing the configuration of a 3D modeling system according to an embodiment of the present invention.
FIG. 2 is a diagram schematically showing the configuration of the control device of FIG. 1 .
FIG. 3 is a diagram illustrating a user interface provided by the display device of FIG. 1 .
4 is a flowchart sequentially illustrating a 3D modeling method according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in a variety of different forms, only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention belongs It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.
이하 도 1 내지 도 3을 참조하여 본 발명의 일 실시예에 따른 3D 모델링 시스템에 대해 자세히 설명한다. 도 1은 본 발명의 일 실시예에 따른 3D 모델링 시스템의 구성을 개략적으로 나타낸 도면이다. 도 2는 도 1의 제어 장치의 구성을 개략적으로 나타낸 도면이다. 도 3은 도 1의 디스플레이 장치가 제공하는 사용자 인터페이스를 나타낸 도면이다.Hereinafter, a 3D modeling system according to an embodiment of the present invention will be described in detail with reference to FIGS. 1 to 3 . 1 is a diagram schematically showing the configuration of a 3D modeling system according to an embodiment of the present invention. FIG. 2 is a diagram schematically showing the configuration of the control device of FIG. 1 . FIG. 3 is a diagram illustrating a user interface provided by the display device of FIG. 1 .
본 발명의 일 실시예에 따른 3D 모델링 시스템(10)은 포토그래메트리(photogrammetry)를 이용하여 피사체의 얼굴 표정을 3D 모델링하는 시스템으로서, 촬영부스(20), 카메라(22), 모니터링 장치(24), 디스플레이 장치(30) 및 제어 장치(100)를 포함한다.The
촬영 부스(20)는 거의 원통형으로 배치된 지지대들로 이루어져 있으며, 내부에 피사체 또는 피촬영자가 배치되는 촬영공간을 구비한다. 촬영 부스(20)에는 다수의 카메라(22) 및 조명수단(미도시)이 설치된다. 복수의 카메라(22)는 피사체의 주변에 배치되어 피사체에 대해 여러 각도로 2D 이미지를 촬영한다.The photographing
촬영 부스(20) 내에 배치된 피사체 주변에는 카메라 촬영 전에 피사체를 모니터링하여 준비 영상을 생성하는 모니터링 장치(24)가 설치된다. 바람직하게는 모니터링 장치(24)는 피사체의 정면, 좌측면 및 우측면을 촬영할 수 있도록 복수개로 구비될 수 있다. 모니터링 장치(24)는 웹캠, 카메라 등으로 이루어질 수 있다. 본 실시예에서는 모니터링 장치(24)를 촬영 부스(20)에 설치된 카메라(22)와는 구분된 구성으로 예로 들어 설명하고 있으나, 본 발명은 이에 한정되는 것은 아니며 카메라(22) 중 적어도 일부는 모니터링 장치(24)의 역할을 동시에 수행할 수도 있다.A
디스플레이 장치(30)는 피사체의 정면에 배치되며, 상기 모니터링 장치(24)에 의해 촬영된 준비 영상(즉, 피사체의 실시간 영상) 및 3D 모델링을 위한 촬영 가이드 정보를 화면에 표시하여 피사체에 제공한다. 피사체 또는 피촬영자는 디스플레이 장치(30)를 통해 스스로 본인의 영상(즉, 준비 영상)뿐만 아니라 촬영자의 요구 사항(즉, 촬영 가이드 정보)를 확인함으로써 촬영 전에 본인의 상태가 촬영에 적합한지를 직접 확인할 수 있다.The
제어 장치(100)는 카메라(22), 모니터링 장치(24) 및 디스플레이 장치(30)의 동작을 제어한다. 제어 장치(100)는 복수의 카메라(22)가 촬영한 복수의 2D 이미지로부터 피사체의 얼굴 표정을 3D 모델링한다. 제어장치(100)는 카메라 제어부(110), 피사체 가이드부(120), 이미지 검증부(130), 3D 재구성부(140) 및 데이터 베이스(150)를 포함한다.The
카메라 제어부(110)는 복수의 카메라(22)의 촬영 옵션 또는 셋팅 값을 일괄적으로 설정할 수 있다. 이러한 촬영 옵션으로는 예를 들어, ISO(감도), F-Stop(조리개 구경비), Aperture(조리개) 등이 있다. 또한 카메라 제어부(110)는 촬영 부스(20)에 설치된 조명수단의 셋팅 값도 일괄적으로 설정할 수 있다. 이와 같이 카메라 제어부(110)는 촬영 전에 모든 카메라(22) 및 조명수단을 일괄적으로 세팅함으로써 준비시간을 최소화할 수 있다. 또한 카메라 제어부(110)는 모든 카메라(22)가 동시에 촬영할 수 있도록 제어할 수 있다. 따라서 모든 촬영 이미지는 동일한 밝기 및 포커스를 유지할 수 있다.The
피사체 가이드부(120)는 3D 모델링을 위한 촬영 가이드 정보 및 모니터링 장치(24)가 촬영한 준비 영상을 디스플레이 장치(30)에 함께 표시한다. 피사체의 위치, 표정, 움직임 등에 대한 상태 변화가 있는 경우, 디스플레이 장치(30)에 표시되는 준비 영상도 변경된다. 피사체 가이드부(120)는 준비 영상이 촬영 가이드 정보에 정의된 소정의 기준을 만족하는지에 따라 카메라 촬영의 가능 여부를 평가할 수 있다. The
여기서 촬영 가이드 정보는, 위치 가이드 정보, 표정 가이드 정보 및 움직임 가이드 정보를 포함한다. 위치 가이드 정보는 3D 모델링을 위해 피사체에 요구되는 위치를 안내하는 정보이다. 표정 가이드 정보는 3D 모델링을 위해 피사체에 요구되는 표정을 안내하는 정보이다. 움직임 가이드 정보는 3D 모델링을 위해 피사체에 요구되는 움직임 또는 부동자세를 안내하는 정보이다. Here, the photographing guide information includes location guide information, facial expression guide information, and movement guide information. The location guide information is information for guiding a location required for a subject for 3D modeling. The expression guide information is information for guiding an expression required for a subject for 3D modeling. The movement guide information is information for guiding a movement or a floating posture required for a subject for 3D modeling.
도 3에 도시된 바와 같이, 디스플레이 장치(30)가 제공하는 사용자 인터페이스(user interface)는 위치 가이드 영역(38), 표정 가이드 영역(32, 34), 움직임 가이드 영역(36) 및 이들을 둘러싼 배경 영역으로 구성된다.As shown in FIG. 3 , a user interface provided by the
위치 가이드 영역(38)은 위치 가이드 정보로서 피사체 가이드 라인(39)이 표시된 상태에서 피사체의 준비 영상을 실시간으로 표시한다. 피사체 가이드부(120)는 준비 영상이 피사체 가이드 라인(39)을 벗어나는 경우 경고 메시지를 제공할 수 있다. 따라서 피사체 또는 피촬영자는 디스플레이 장치(30)를 통해 본인의 영상(즉, 준비 영상)을 실시간으로 확인할 수 있고 준비 영상이 피사체 가이드 라인(39)을 벗어나지 않도록 위치를 정렬할 수 있다. 위치 가이드 영역(38)에는 피사체의 정면 및/또는 측면이 표시될 수 있다.The
표정 가이드 영역(32, 34)은 표정 가이드 정보가 표시되는 영역으로서, 표정 가이드 정보를 텍스트로 표시하는 표정 가이드 텍스트 영역(32) 및 표정 가이드 정보를 이미지로 표시하는 표정 가이드 이미지 영역(34)을 포함한다. 예를 들어, 촬영자가 피사체에게 AU(action unit) 4를 요구하는 경우, 표정 가이드 텍스트 영역(32)에는 AU 4에 대응하는 "눈썹 안쪽 내리기" 텍스트가 표시되고, 표정 가이드 이미지 영역(34)에는 AU 4에 대응하는 이미지가 표시된다. 피사체 가이드부(120)는 안면 인식 알고리즘 등을 이용하여 준비 영상으로부터 피사체의 표정을 실시간 검출하고 분석하여 표정 가이드 정보를 기준으로 피사체의 표정을 평가하여 카메라 촬영 적합성을 판단할 수 있다. 예를 들어, 피사체 표정이 100점 만점을 기준으로 소정 임계점수 이하로 평가될 경우, 피사체 가이드부(120)는 피사체 표정이 카메라 촬영에 부적합하다고 판단하고 피사체에 피드백을 제공하여 피사체의 표정 변경을 유도할 수 있다.The
움직임 가이드 영역(36)은 피사체에 요구되는 움직임에 대한 움직임 가이드 정보가 표시되는 영역으로서, 준비 영상의 움직임에 대한 피드백을 표시할 수 있다. 피사체 가이드부(120)는 준비 영상으로부터 피사체의 움직임을 실시간 검출하여 카메라 촬영 적합성을 평가할 수 있다. 예를 들어 촬영자가 피사체에게 부동자세를 요구할 경우, 피사체 가이드부(120)는 피사체의 움직임에 기인한 준비 영상의 움직임 거리를 측정하여 상기 움직임 거리가 소정의 임계점보다 큰 경우 디스플레이 장치(30)의 움직임 가이드 영역(36)을 통해 피드백을 제공할 수 있다. 예를 들어, 움직임 가이드 영역(36)은 (i) 피사체가 부재이거나 얼굴 인식이 불가능한 경우 제1 피드백(얼굴 인식 불가)을 표시할 수 있고, (ii) 피사체의 움직임 거리가 임계점보다 큰 경우 제2 피드백(얼굴 움직임)을 표시할 수 있고, (iii) 피사체의 움직임 거리가 임계점보다 작은 경우 제3 피드백(촬영준비 완료)을 표시할 수 있다. 이러한 제1 내지 제3 피드백은 텍스트, 이미지, 색상 등으로 표시될 수 있다.The
이미지 검증부(130)는 카메라 촬영에 의해 생성된 복수의 2D 이미지에 대해 3D 모델링을 수행하기 전에 이미지 무결성 검증을 수행한다. 이미지 무결성 검증은 첫째, 복수의 2D 이미지의 개수가 상기 복수의 카메라의 개수와 일치하는지 여부를 판단하는 것, 둘째, 복수의 2D 이미지의 노출값이 소정의 범위 내에 있는지를 판단하는 것, 셋째, 복수의 2D 이미지의 아웃포커싱 정도를 판단하는 것을 포함한다. 이미지 검증부(130)는 첫째 이미지 개수 검증을 통하여 카메라(22) 개수와 촬영 이미지의 개수가 동일한지를 검사하여 모든 카메라(22)가 촬영이 제대로 수행했는지를 검증한다. 이미지 검증부(130)는 둘째 노출값 검증을 통해 피사체 또는 피촬영자가 빛을 충분히 고르게 받았는지를 검증한다. 여기서 노출값(exposure value)은 카메라의 조리개 및 셔터 스피드의 조합을 규정해 놓은 값으로서 사진술에서 촬상 소자에 감광되는 빛의 양을 나타낸다. 이미지 검증부(130)는 셋째 포커스 검증을 통하여 아웃포커싱으로 인해 이미지가 흐릿하게 나오는지 여부를 검증한다. 이미지 검증부(130)는 복수의 2D 이미지에 대해 썸네일을 생성할 수 있고, 관리자는 상기 썸네일을 통해 해당 이미지의 사용여부에 대한 판단할 수 있다.The
3D 재구성부(140)는 무결성이 확보된 2D 이미지를 3D 메시화시켜 3D 리컨스트럭션(3D reconstruction)을 수행한다. 예를 들어 3D 리컨스트럭션을 위해 상용 프로그램인 Reality Capture 등이 이용될 수 있다. 3D 재구성부(140)는 3D 리컨스트럭션을 수행한 후 3D 모델링과 텍스쳐를 출력한다.The
데이터 베이스(150)는 무결성이 확보된 2D 이미지 데이터를 피사체(피촬영자), 파일명, 촬영날짜, 표정(촬영 포즈) 등을 기준으로 자동으로 분류하여 저장할 수 있다. 데이터 베이스(150)는 그 외 3D 모델링을 위해 필요한 다양한 데이터를 저장할 수 있다.The
이하 도 4를 참조하여 본 발명의 일 실시예에 따른 3D 모델링 방법에 대해 설명한다. 도 4는 본 발명의 일 실시예에 따른 3D 모델링 방법을 순차적으로 나타낸 순서도이다.Hereinafter, a 3D modeling method according to an embodiment of the present invention will be described with reference to FIG. 4 . 4 is a flowchart sequentially illustrating a 3D modeling method according to an embodiment of the present invention.
먼저 카메라 제어부(110)는 복수의 카메라(22)의 촬영 옵션 또는 셋팅 값을 일괄적으로 설정한다(S10).First, the
피사체 가이드부(120)는 3D 모델링을 위한 피사체의 위치 정렬, 표정 및 움직임에 대한 촬영 가이드 정보를 디스플레이 장치(30)에 표시한 상태에서 모니터링 장치(24)가 피사체를 실시간 촬영한 준비 영상을 디스플레이 장치(30)에 함께 표시한다(S20).The
피사체 가이드부(120)가 준비 영상이 촬영 가이드 정보에 정의된 소정의 기준을 만족한다고 판단한 경우, 카메라 제어부(110)는 모든 카메라(22)를 동시에 작동시켜 피사체를 촬영하여 복수의 2D 이미지를 생성한다(S30).When the
이미지 검증부(130)는 복수의 2D 이미지에 대해 3D 모델링을 수행하기 전에 이미지 무결성 검증을 수행한다(S40).The
이미지 검증부(130)는 무결성이 확보된 2D 이미지 데이터를 피사체(피촬영자), 파일명, 촬영날짜, 표정(촬영 포즈) 등을 기준으로 자동으로 분류하여 데이터 베이스(150)에 저장한다(S50).The
3D 재구성부(140)는 무결성이 확보된 2D 이미지에 대해 3D 리컨스트럭션을 수행한 후 3D 모델링과 텍스쳐를 출력한다(S60).The
앞서 언급된 제어 장치, 카메라 제어부, 피사체 가이드부, 이미지 검증부, 3D 재구성부 등은 컴퓨터 프로그램으로서, 예를 들어 컴퓨터 판독가능 저장매체(computer readable storage medium)에 저장(store)되거나 적재(load)된 하나 이상의 프로세서(processor)에 의해 구현되는 복수의 프로그램 모듈(program module)로 구성될 수 있다. 또한 순서도(flowchart)에 언급된 각 단계는 컴퓨터 프로그램, 프로그램 모듈, 또는 컴퓨터 실행 가능 명령(computer-executable instruction) 등으로 이루어질 수 있다.The aforementioned control device, camera control unit, subject guide unit, image verification unit, 3D reconstruction unit, etc. are computer programs, for example, stored or loaded in a computer readable storage medium. It may be composed of a plurality of program modules implemented by one or more processors. Also, each step mentioned in the flowchart may be composed of a computer program, a program module, or a computer-executable instruction.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although the embodiments of the present invention have been described with reference to the accompanying drawings, those of ordinary skill in the art to which the present invention pertains can realize that the present invention can be embodied in other specific forms without changing its technical spirit or essential features. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.
10: 3D 모델링 시스템
20: 촬영 부스
22: 카메라
24: 모니터링 장치
30: 디스플레이 장치
32, 34: 표정 가이드 영역
36: 움직임 가이드 영역
38: 위치 가이드 영역
39: 피사체 가이드 라인
100: 제어 장치
110: 카메라 제어부
120: 피사체 가이드부
130: 이미지 검증부
140: 3D 재구성부
150: 데이터 베이스10: 3D modeling system
20: Shooting booth
22: camera
24: monitoring device
30: display device
32, 34: expression guide area
36: movement guide area
38: position guide area
39: Subject guidelines
100: control device
110: camera control unit
120: subject guide unit
130: image verification unit
140: 3D reconstruction unit
150: database
Claims (5)
상기 피촬영자의 주변에 배치되어 상기 피촬영자에 대해 여러 각도로 복수의 2D 이미지를 동시에 촬영하는 복수의 카메라;
카메라 촬영 전에 상기 피촬영자의 실시간 영상인 준비 영상을 생성하는 모니터링 장치;
상기 피촬영자에 3D 모델링을 위한 촬영 가이드 정보를 제공하는 디스플레이 장치; 및
상기 복수의 카메라가 촬영한 복수의 2D 이미지로부터 상기 피촬영자의 얼굴 표정을 3D 모델링하는 제어 장치를 포함하되,
상기 제어 장치는 상기 준비 영상 및 상기 촬영 가이드 정보를 상기 디스플레이 장치에 함께 표시하고,
상기 피촬영자의 상태 변화에 따라 상기 준비 영상이 변경되어 상기 디스플레이 장치에 표시되고, 상기 제어 장치는 상기 준비 영상이 상기 촬영 가이드 정보에 정의된 소정의 기준을 만족하는지에 따라 카메라 촬영의 가능 여부를 평가하고,
상기 피촬영자가 촬영 전에 상기 디스플레이 장치를 통해 본인의 실시간 영상 및 촬영자의 요구 사항을 직접 확인할 수 있도록, 상기 디스플레이 장치는 상기 피촬영자의 정면에 배치되어 상기 준비 영상 및 상기 촬영 가이드 정보를 화면에 표시하여 상기 피촬영자에게 제공하고,
상기 촬영 가이드 정보는 3D 모델링을 위해 상기 피촬영자에 요구되는 움직임에 대한 움직임 가이드 정보를 포함하고, 상기 제어 장치는 상기 준비 영상으로부터 상기 피촬영자의 움직임을 실시간으로 검출하여 카메라 촬영 적합성을 평가한 후 피드백을 상기 디스플레이 장치에 표시하고,
상기 제어 장치는 3D 모델링을 수행하기 전에 상기 복수의 2D 이미지에 대한 이미지 무결성 검증을 수행하고, 상기 이미지 무결성 검증은 상기 복수의 2D 이미지의 개수와 상기 복수의 카메라의 개수의 일치 여부를 판단하는 것을 포함하는 것을 특징으로 하는 3D 모델링 시스템.A system for 3D modeling the facial expression of a subject using photogrammetry, comprising:
a plurality of cameras disposed in the vicinity of the person to be photographed and simultaneously photographing a plurality of 2D images at various angles with respect to the person to be photographed;
a monitoring device for generating a preparation image, which is a real-time image of the subject, before the camera is photographed;
a display device providing photographing guide information for 3D modeling to the subject; and
Comprising a control device for 3D modeling the facial expression of the subject from a plurality of 2D images taken by the plurality of cameras,
The control device displays the preparation image and the shooting guide information together on the display device,
The preparation image is changed and displayed on the display device according to a change in the state of the subject, and the control device determines whether camera shooting is possible according to whether the preparation image satisfies a predetermined criterion defined in the shooting guide information. evaluate,
The display device is disposed in front of the person to be photographed and displays the preparation image and the photographing guide information on the screen so that the person to be photographed can directly check the real-time image of the person and the requirements of the photographer through the display device before photographing to provide it to the subject,
The photographing guide information includes movement guide information on the movement required for the subject for 3D modeling, and the control device detects the movement of the subject from the preparation image in real time and evaluates camera shooting suitability. displaying feedback on the display device;
The control device performs image integrity verification on the plurality of 2D images before performing 3D modeling, and the image integrity verification determines whether the number of the plurality of 2D images matches the number of the plurality of cameras A 3D modeling system comprising:
상기 촬영 가이드 정보는,
3D 모델링을 위해 상기 피촬영자에 요구되는 위치에 대한 위치 가이드 정보; 및 3D 모델링을 위해 상기 피촬영자에 요구되는 표정에 대한 표정 가이드 정보를 포함하는 3D 모델링 시스템.According to claim 1,
The shooting guide information,
location guide information for a location required for the subject for 3D modeling; and facial expression guide information for facial expressions required for the subject for 3D modeling.
상기 디스플레이 장치가 제공하는 사용자 인터페이스는,
상기 위치 가이드 정보로서 피사체 가이드 라인이 표시된 상태에서 상기 준비 영상을 실시간으로 표시하는 위치 가이드 영역; 상기 표정 가이드 정보를 텍스트로 표시하는 표정 가이드 텍스트 영역; 상기 표정 가이드 정보를 이미지로 표시하는 표정 가이드 이미지 영역; 및 상기 준비 영상의 움직임에 대한 피드백을 표시하는 움직임 가이드 영역을 포함하는 3D 모델링 시스템.3. The method of claim 2,
The user interface provided by the display device,
a location guide area for displaying the preparation image in real time while a subject guide line is displayed as the location guide information; an expression guide text area displaying the expression guide information as text; an expression guide image area displaying the expression guide information as an image; and a motion guide region displaying feedback on the motion of the preparation image.
상기 제어 장치는 상기 준비 영상이 상기 피사체 가이드 라인을 벗어나는 경우 경고 메시지를 제공하고,
상기 제어 장치는 상기 준비 영상으로부터 상기 피촬영자의 표정을 실시간 검출하여 상기 표정 가이드 정보를 기준으로 카메라 촬영 적합성을 평가하는 것을 특징으로 하는 3D 모델링 시스템.4. The method of claim 3,
The control device provides a warning message when the preparation image deviates from the subject guide line,
3D modeling system, characterized in that the control device detects the expression of the subject in real time from the preparation image and evaluates suitability for camera shooting based on the expression guide information.
상기 이미지 무결성 검증은 상기 복수의 2D 이미지의 노출값이 소정의 범위 내에 있는지를 판단하는 것과, 상기 복수의 2D 이미지의 아웃포커싱 정도를 판단하는 것을 더 포함하는 3D 모델링 시스템.According to claim 1,
The verification of the image integrity further comprises determining whether the exposure values of the plurality of 2D images are within a predetermined range and determining the degree of defocusing of the plurality of 2D images.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210188559A KR102457180B1 (en) | 2021-12-27 | 2021-12-27 | 3D modeling system with integrated control |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210188559A KR102457180B1 (en) | 2021-12-27 | 2021-12-27 | 3D modeling system with integrated control |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102457180B1 true KR102457180B1 (en) | 2022-10-20 |
Family
ID=83805086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210188559A KR102457180B1 (en) | 2021-12-27 | 2021-12-27 | 3D modeling system with integrated control |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102457180B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240080969A (en) | 2022-11-30 | 2024-06-07 | 황경환 | 6-sided multi-view image processing system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100027700A (en) * | 2008-09-03 | 2010-03-11 | 삼성디지털이미징 주식회사 | Photographing method and apparatus |
KR20210092983A (en) * | 2020-01-17 | 2021-07-27 | 연봉근 | Method and program for providing user bust information using 3d-scanning guide based on augumented reality |
-
2021
- 2021-12-27 KR KR1020210188559A patent/KR102457180B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100027700A (en) * | 2008-09-03 | 2010-03-11 | 삼성디지털이미징 주식회사 | Photographing method and apparatus |
KR20210092983A (en) * | 2020-01-17 | 2021-07-27 | 연봉근 | Method and program for providing user bust information using 3d-scanning guide based on augumented reality |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240080969A (en) | 2022-11-30 | 2024-06-07 | 황경환 | 6-sided multi-view image processing system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI709091B (en) | Image processing method and device | |
JP5276111B2 (en) | Method and system for supporting so that composition of face can be determined during self-photographing | |
CN202018662U (en) | Image acquisition and processing equipment | |
US12008708B2 (en) | Method and data processing system for creating or adapting individual images based on properties of a light ray within a lens | |
CN110751728B (en) | Virtual reality equipment with BIM building model mixed reality function and method | |
CN112118435B (en) | Multi-projection fusion method and system for special-shaped metal screen | |
WO2022199545A1 (en) | Image processing method and apparatus, computer device, and storage medium | |
CN112595496B (en) | Method, device, equipment and storage medium for detecting faults of near-eye display equipment | |
CN108447105A (en) | A kind of processing method and processing device of panoramic picture | |
TWI484285B (en) | Panorama photographing method | |
KR20180123302A (en) | Method and Apparatus for Visualizing a Ball Trajectory | |
CN108510541B (en) | Information adjusting method, electronic equipment and computer readable storage medium | |
KR102457180B1 (en) | 3D modeling system with integrated control | |
JPWO2017203796A1 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM | |
WO2022046227A1 (en) | Mixed reality image capture and smart inspection | |
CN114295331B (en) | Multi-camera module optical axis testing method, device, equipment and medium | |
TWI731713B (en) | Projection system and adaptive adjustment method thereof | |
JP6817527B1 (en) | Information processing equipment, programs and information processing systems | |
JP6820489B2 (en) | Image processing device and image processing program | |
CN113837917A (en) | Cross-media invisible watermark checking method and system based on AR technology | |
CN111371992A (en) | Image capturing quality control method, system, device, and storage medium | |
JP2007025901A (en) | Image processor and image processing method | |
JP4355853B2 (en) | Image photographing apparatus and program | |
US11880976B2 (en) | Image retention and stitching for minimal-flash eye disease diagnosis | |
CN115359545B (en) | Staff fatigue detection method and device, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |