KR102457180B1 - 3D modeling system with integrated control - Google Patents

3D modeling system with integrated control Download PDF

Info

Publication number
KR102457180B1
KR102457180B1 KR1020210188559A KR20210188559A KR102457180B1 KR 102457180 B1 KR102457180 B1 KR 102457180B1 KR 1020210188559 A KR1020210188559 A KR 1020210188559A KR 20210188559 A KR20210188559 A KR 20210188559A KR 102457180 B1 KR102457180 B1 KR 102457180B1
Authority
KR
South Korea
Prior art keywords
subject
image
modeling
guide information
expression
Prior art date
Application number
KR1020210188559A
Other languages
Korean (ko)
Inventor
김성수
박지원
Original Assignee
주식회사 비브스튜디오스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 비브스튜디오스 filed Critical 주식회사 비브스튜디오스
Priority to KR1020210188559A priority Critical patent/KR102457180B1/en
Application granted granted Critical
Publication of KR102457180B1 publication Critical patent/KR102457180B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Studio Devices (AREA)

Abstract

A 3D modeling system capable of integrated control is provided. The 3D modeling system includes: a plurality of cameras disposed around a subject to shoot 2D images at various angles with respect to a subject; a monitoring device monitoring the subject prior to camera shooting and generating a preparation image; a display device providing shooting guide information for 3D modeling to the subject; and a control device 3D modeling facial expressions of the subject from a plurality of 2D images shot by the plurality of cameras.

Description

통합 제어가 가능한 3D 모델링 시스템{3D modeling system with integrated control}3D modeling system with integrated control

본 발명은 3D 모델링 시스템에 관한 것으로서, 더욱 상세하게는 통합 제어를 통하여 피사체의 얼굴 표정을 3D 모델링하는 시스템에 관한 것이다.The present invention relates to a 3D modeling system, and more particularly, to a system for 3D modeling a facial expression of a subject through integrated control.

포토그래메트리(Photogrammetry)는 2D 사진을 기반으로 3D 형상 정보를 구축하는 방식으로 여러 장의 사진 정보를 활용하여 피사체와 카메라의 위치 정보를 찾아내고 영상 정보의 특정 패턴 및 픽셀에 대한 정보를 찾아서 합성하게 되며, 합성된 데이터는 3D 데이터로 변환되어서 모델링 데이터를 생성하는 방식이다. 특히 다수의 카메라에서 촬영된 2D 이미지를 3D 메시화시키는 기법을 3D 재구성(reconstruction)이라 한다.Photogrammetry is a method of constructing 3D shape information based on 2D photos. It uses information from multiple photos to find the location information of the subject and camera, and finds and synthesizes information about specific patterns and pixels in the image information. The synthesized data is converted into 3D data to generate modeling data. In particular, a technique of 3D meshing 2D images captured by multiple cameras is called 3D reconstruction.

종래에는 다수의 2D 사진을 생성하는 카메라 촬영 단계부터 3D 재구성 단계까지 많은 과정이 통합적으로 제어되지 못하고 관리자에 의해 일일이 수동으로 제어되고 있다. 예를 들어, 카메라 촬영 단계의 경우, 목적에 따라 모든 카메라와 조명이 소정의 셋팅 값을 가지도록 일괄적으로 이들의 설정을 변경해야 하는데, 종래에는 관리자가 각 카메라 및 조명마다 수동으로 설정을 변경함으로써 이들의 셋팅 값에 오차가 쉽게 발생하였다. 만일 모든 카메라 또는 조명이 동일한 세팅 값을 가지지 못할 경우, 다수의 촬영된 이미지에 규칙성이 파괴되어 3D 재구성 과정에서 치명적 오류가 발생할 수 있다.Conventionally, many processes from the camera capturing step for generating a large number of 2D photos to the 3D reconstruction step are not controlled in an integrated way, and are manually controlled by an administrator. For example, in the case of camera shooting, it is necessary to collectively change their settings so that all cameras and lights have predetermined setting values depending on the purpose. Conventionally, the administrator manually changes the settings for each camera and light By doing so, errors easily occurred in their setting values. If all cameras or lights do not have the same setting values, regularity in multiple captured images may be destroyed and fatal errors may occur in the 3D reconstruction process.

또한 종래에는 3D 모델링하기 위한 카메라 촬영을 할 때, 촬영자가 구두로 피사체 또는 피촬영자에게 위치 정렬이나 얼굴 표정을 요청하고 있다. 피촬영자 입장에서는 이러한 구두 요청만으로는 촬영자의 지시를 정확히 파악하기 쉽지 않기 때문에 작업 시간이 많이 소요되는 문제가 있다.Also, in the prior art, when photographing a camera for 3D modeling, a photographer verbally requests a subject or a subject for position alignment or facial expression. From the point of view of the person being photographed, it is not easy to accurately understand the instructions of the photographer only with such verbal requests, so there is a problem that it takes a lot of work time.

본 발명이 해결하고자 하는 과제는, 통합 제어가 가능한 3D 모델링 시스템을 제공하고자 하는 것이다.An object of the present invention is to provide a 3D modeling system capable of integrated control.

본 발명이 해결하고자 하는 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned can be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. will be.

상기 과제를 달성하기 위한 본 발명의 일 실시예에 따른 3D 모델링 시스템은, 포토그래메트리를 이용하여 피사체의 얼굴 표정을 3D 모델링하는 시스템으로서, 상기 피사체의 주변에 배치되어 상기 피사체에 대해 여러 각도로 2D 이미지를 촬영하는 복수의 카메라; 카메라 촬영 전에 상기 피사체를 모니터링하여 준비 영상을 생성하는 모니터링 장치; 상기 피사체에 3D 모델링을 위한 촬영 가이드 정보를 제공하는 디스플레이 장치; 및 상기 복수의 카메라가 촬영한 복수의 2D 이미지로부터 상기 피사체의 얼굴 표정을 3D 모델링하는 제어 장치를 포함한다. A 3D modeling system according to an embodiment of the present invention for achieving the above object is a system for 3D modeling a facial expression of a subject using photogrammetry, and is disposed around the subject and has various angles with respect to the subject. a plurality of cameras for capturing 2D images; a monitoring device for generating a preparation image by monitoring the subject before the camera is photographed; a display device providing photographing guide information for 3D modeling to the subject; and a control device for 3D modeling the facial expression of the subject from a plurality of 2D images captured by the plurality of cameras.

여기서, 상기 제어 장치는 상기 준비 영상 및 상기 촬영 가이드 정보를 상기 디스플레이 장치에 함께 표시할 수 있다. 상기 피사체의 상태 변화에 따라 상기 준비 영상이 변경되어 상기 디스플레이 장치에 표시될 수 있고, 상기 제어 장치는 상기 준비 영상이 상기 촬영 가이드 정보에 정의된 소정의 기준을 만족하는지에 따라 카메라 촬영의 가능 여부를 평가할 수 있다.Here, the control device may display the preparation image and the shooting guide information together on the display device. The preparation image may be changed and displayed on the display device according to a change in the state of the subject, and the control device may determine whether camera shooting is possible according to whether the preparation image satisfies a predetermined criterion defined in the shooting guide information. can be evaluated.

상기 촬영 가이드 정보는, 3D 모델링을 위해 상기 피사체에 요구되는 위치에 대한 위치 가이드 정보; 3D 모델링을 위해 상기 피사체에 요구되는 표정에 대한 표정 가이드 정보; 및 3D 모델링을 위해 상기 피사체에 요구되는 움직임에 대한 움직임 가이드 정보를 포함할 수 있다.The photographing guide information may include: position guide information on a position required for the subject for 3D modeling; Expression guide information for the expression required for the subject for 3D modeling; and motion guide information for a motion required for the subject for 3D modeling.

상기 디스플레이 장치가 제공하는 사용자 인터페이스는, 상기 위치 가이드 정보로서 피사체 가이드 라인이 표시된 상태에서 상기 준비 영상을 실시간으로 표시하는 위치 가이드 영역; 상기 표정 가이드 정보를 텍스트로 표시하는 표정 가이드 텍스트 영역; 상기 표정 가이드 정보를 이미지로 표시하는 표정 가이드 이미지 영역; 및 상기 준비 영상의 움직임에 대한 피드백을 표시하는 움직임 가이드 영역을 포함할 수 있다.The user interface provided by the display device may include: a location guide area for displaying the preparation image in real time while a subject guide line is displayed as the location guide information; an expression guide text area displaying the expression guide information as text; an expression guide image area displaying the expression guide information as an image; and a motion guide area displaying feedback on the motion of the preparation image.

상기 제어 장치는 상기 준비 영상이 상기 피사체 가이드 라인을 벗어나는 경우 경고 메시지를 제공하고, 상기 제어 장치는 상기 준비 영상으로부터 상기 피사체의 표정을 실시간 검출하여 상기 표정 가이드 정보를 기준으로 카메라 촬영 적합성을 평가하고, 상기 제어 장치는 상기 준비 영상으로부터 상기 피사체의 움직임을 실시간 검출하여 카메라 촬영 적합성을 평가할 수 있다.The control device provides a warning message when the preparation image deviates from the subject guide line, and the control unit detects the facial expression of the subject from the preparation image in real time to evaluate camera shooting suitability based on the facial expression guide information, , the control device may detect the movement of the subject from the preparation image in real time to evaluate suitability for camera shooting.

상기 제어 장치는 3D 모델링을 수행하기 전에 상기 복수의 2D 이미지에 대한 이미지 무결성 검증을 수행하고, 상기 이미지 무결성 검증은 상기 복수의 2D 이미지의 개수와 상기 복수의 카메라의 개수의 일치 여부를 판단하는 것과, 상기 복수의 2D 이미지의 노출값이 소정의 범위 내에 있는지를 판단하는 것과, 상기 복수의 2D 이미지의 아웃포커싱 정도를 판단하는 것을 포함할 수 있다.The control device performs image integrity verification on the plurality of 2D images before performing 3D modeling, and the image integrity verification determines whether the number of the plurality of 2D images matches the number of the plurality of cameras , determining whether the exposure values of the plurality of 2D images are within a predetermined range, and determining the degree of defocusing of the plurality of 2D images.

기타 실시예들의 구체적인 사항들은 구체적인 내용 및 도면들에 포함되어 있다.Specific details of other embodiments are included in the detailed description and drawings.

상술한 바와 같이 본 발명에 따른 3D 모델링 시스템에 의하면 다음과 같은 우수한 효과가 있다.As described above, according to the 3D modeling system according to the present invention, there are excellent effects as follows.

첫째, 제어 장치가 모든 카메라를 일괄적으로 제어할 수 있으므로 목적에 따라 카메라 셋팅 값의 변경이 필요할 때 셋팅 값에 오차가 생기는 것을 방지할 수 있다.First, since the control device can control all cameras collectively, it is possible to prevent an error in the setting value when the camera setting value needs to be changed according to the purpose.

둘째, 피사체 또는 피촬영자가 디스플레이 장치를 통해 스스로 본인의 영상(즉, 준비 영상)뿐만 아니라 촬영자의 요구 사항(즉, 촬영 가이드 정보)를 확인함으로써 촬영 전에 본인의 상태가 촬영에 적합한지를 직접 확인할 수 있다. Second, the subject or subject can directly check whether his or her condition is suitable for shooting before shooting by checking his/her own image (i.e., preparation image) as well as the photographer’s requirements (i.e., shooting guide information) through the display device. have.

피촬영자는 디스플레이 장치를 통해 본인의 준비 영상이 피사체 가이드 라인을 벗어나지 않도록 본인의 위치를 정렬할 수 있다. 만일 준비 영상이 피사체 가이드 라인을 벗어날 경우 제어 장치는 경고 메시지를 제공함으로써 피사체 또는 피촬영자의 위치 정렬을 유도할 수 있다. The subject may arrange his/her position through the display device so that his/her preparation image does not deviate from the subject guide line. If the preparation image deviates from the subject guide line, the control device may induce position alignment of the subject or the subject by providing a warning message.

피촬영자는 디스플레이 장치를 통해 촬영자가 요구하는 표정을 텍스트 및 이미지로 확인하고 이에 맞게 표정을 지을 수 있다. 제어 장치는 안면 인식 알고리즘 등을 이용하여 준비 영상으로부터 피사체 또는 피촬영자의 표정을 실시간으로 검출하여 촬영자의 요구 사항(즉, 표정 가이드 정보)를 기준으로 카메라 촬영 적합성을 평가하여 피촬영자에게 피드백을 제공할 수 있다. The person to be photographed may check the expression requested by the photographer in text and images through the display device, and may make an expression according to the text and image. The control device detects the expression of the subject or the subject in real time from the prepared image using a facial recognition algorithm, etc. can do.

피촬영자의 움직임으로 인해 카메라 촬영이 불가능할 경우, 제어 장치는 디스플레이 장치를 통해 피촬영자에게 피드백을 제공할 수 있다.When it is impossible to take a picture with the camera due to the movement of the person to be photographed, the control device may provide feedback to the person to be photographed through the display device.

셋째, 제어 장치는 복수의 카메라에 의해 촬영된 복수의 2D 이미지에 대해 이미지 무결성 검증을 자동으로 수행함으로써 3D 모델링 전에 데이터 신뢰성을 높일 수 있다. 이미지 무결성 검증을 통해 이미지 개수의 일치여부, 이미지 노출값의 적절성, 이미지 포커싱의 적절성 등을 판단할 수 있다.Third, the control device can increase data reliability before 3D modeling by automatically performing image integrity verification on a plurality of 2D images captured by a plurality of cameras. Through image integrity verification, it is possible to determine whether the number of images matches, the appropriateness of the image exposure value, and the appropriateness of image focusing.

넷째, 제어 장치는 무결성이 확보된 이미지 데이터를 피사체(피촬영자), 파일명, 촬영날짜, 표정(촬영 포즈) 등을 기준으로 자동으로 분류하여 그룹핑하여 데이터 베이스에 저장함으로써 데이터 보관 및 재사용이 용이하다.Fourth, the control device automatically classifies and groups the image data with secured integrity based on the subject (subject), file name, shooting date, facial expression (shooting pose), etc., and stores it in a database for easy data storage and reuse .

도 1은 본 발명의 일 실시예에 따른 3D 모델링 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 도 1의 제어 장치의 구성을 개략적으로 나타낸 도면이다.
도 3은 도 1의 디스플레이 장치가 제공하는 사용자 인터페이스를 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 3D 모델링 방법을 순차적으로 나타낸 순서도이다.
1 is a diagram schematically showing the configuration of a 3D modeling system according to an embodiment of the present invention.
FIG. 2 is a diagram schematically showing the configuration of the control device of FIG. 1 .
FIG. 3 is a diagram illustrating a user interface provided by the display device of FIG. 1 .
4 is a flowchart sequentially illustrating a 3D modeling method according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in a variety of different forms, only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention belongs It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

이하 도 1 내지 도 3을 참조하여 본 발명의 일 실시예에 따른 3D 모델링 시스템에 대해 자세히 설명한다. 도 1은 본 발명의 일 실시예에 따른 3D 모델링 시스템의 구성을 개략적으로 나타낸 도면이다. 도 2는 도 1의 제어 장치의 구성을 개략적으로 나타낸 도면이다. 도 3은 도 1의 디스플레이 장치가 제공하는 사용자 인터페이스를 나타낸 도면이다.Hereinafter, a 3D modeling system according to an embodiment of the present invention will be described in detail with reference to FIGS. 1 to 3 . 1 is a diagram schematically showing the configuration of a 3D modeling system according to an embodiment of the present invention. FIG. 2 is a diagram schematically showing the configuration of the control device of FIG. 1 . FIG. 3 is a diagram illustrating a user interface provided by the display device of FIG. 1 .

본 발명의 일 실시예에 따른 3D 모델링 시스템(10)은 포토그래메트리(photogrammetry)를 이용하여 피사체의 얼굴 표정을 3D 모델링하는 시스템으로서, 촬영부스(20), 카메라(22), 모니터링 장치(24), 디스플레이 장치(30) 및 제어 장치(100)를 포함한다.The 3D modeling system 10 according to an embodiment of the present invention is a system for 3D modeling the facial expression of a subject using photogrammetry, and includes a photographing booth 20, a camera 22, and a monitoring device ( 24), the display device 30 and the control device 100 are included.

촬영 부스(20)는 거의 원통형으로 배치된 지지대들로 이루어져 있으며, 내부에 피사체 또는 피촬영자가 배치되는 촬영공간을 구비한다. 촬영 부스(20)에는 다수의 카메라(22) 및 조명수단(미도시)이 설치된다. 복수의 카메라(22)는 피사체의 주변에 배치되어 피사체에 대해 여러 각도로 2D 이미지를 촬영한다.The photographing booth 20 is composed of supports arranged in a substantially cylindrical shape, and has a photographing space in which a subject or a person to be photographed is disposed. A plurality of cameras 22 and lighting means (not shown) are installed in the photographing booth 20 . The plurality of cameras 22 are disposed around the subject to photograph the 2D image at various angles with respect to the subject.

촬영 부스(20) 내에 배치된 피사체 주변에는 카메라 촬영 전에 피사체를 모니터링하여 준비 영상을 생성하는 모니터링 장치(24)가 설치된다. 바람직하게는 모니터링 장치(24)는 피사체의 정면, 좌측면 및 우측면을 촬영할 수 있도록 복수개로 구비될 수 있다. 모니터링 장치(24)는 웹캠, 카메라 등으로 이루어질 수 있다. 본 실시예에서는 모니터링 장치(24)를 촬영 부스(20)에 설치된 카메라(22)와는 구분된 구성으로 예로 들어 설명하고 있으나, 본 발명은 이에 한정되는 것은 아니며 카메라(22) 중 적어도 일부는 모니터링 장치(24)의 역할을 동시에 수행할 수도 있다.A monitoring device 24 for generating a preparation image by monitoring the subject before the camera is photographed is installed around the subject disposed in the photographing booth 20 . Preferably, the monitoring device 24 may be provided in plurality to photograph the front, left, and right sides of the subject. The monitoring device 24 may be formed of a webcam, a camera, or the like. In this embodiment, the monitoring device 24 is described as an example of a configuration separated from the camera 22 installed in the photographing booth 20, but the present invention is not limited thereto, and at least some of the cameras 22 are monitoring devices. (24) may be performed simultaneously.

디스플레이 장치(30)는 피사체의 정면에 배치되며, 상기 모니터링 장치(24)에 의해 촬영된 준비 영상(즉, 피사체의 실시간 영상) 및 3D 모델링을 위한 촬영 가이드 정보를 화면에 표시하여 피사체에 제공한다. 피사체 또는 피촬영자는 디스플레이 장치(30)를 통해 스스로 본인의 영상(즉, 준비 영상)뿐만 아니라 촬영자의 요구 사항(즉, 촬영 가이드 정보)를 확인함으로써 촬영 전에 본인의 상태가 촬영에 적합한지를 직접 확인할 수 있다.The display device 30 is disposed in front of the subject, and displays the preparation image (ie, real-time image of the subject) captured by the monitoring device 24 and shooting guide information for 3D modeling on the screen to provide the subject to the subject. . The subject or the person to be photographed can directly check whether his or her condition is suitable for shooting before shooting by checking his/her own image (ie, preparation image) as well as the requirements of the photographer (ie, shooting guide information) through the display device 30 . can

제어 장치(100)는 카메라(22), 모니터링 장치(24) 및 디스플레이 장치(30)의 동작을 제어한다. 제어 장치(100)는 복수의 카메라(22)가 촬영한 복수의 2D 이미지로부터 피사체의 얼굴 표정을 3D 모델링한다. 제어장치(100)는 카메라 제어부(110), 피사체 가이드부(120), 이미지 검증부(130), 3D 재구성부(140) 및 데이터 베이스(150)를 포함한다.The control device 100 controls operations of the camera 22 , the monitoring device 24 , and the display device 30 . The control device 100 3D models the facial expression of the subject from the plurality of 2D images captured by the plurality of cameras 22 . The control device 100 includes a camera control unit 110 , a subject guide unit 120 , an image verification unit 130 , a 3D reconstruction unit 140 , and a database 150 .

카메라 제어부(110)는 복수의 카메라(22)의 촬영 옵션 또는 셋팅 값을 일괄적으로 설정할 수 있다. 이러한 촬영 옵션으로는 예를 들어, ISO(감도), F-Stop(조리개 구경비), Aperture(조리개) 등이 있다. 또한 카메라 제어부(110)는 촬영 부스(20)에 설치된 조명수단의 셋팅 값도 일괄적으로 설정할 수 있다. 이와 같이 카메라 제어부(110)는 촬영 전에 모든 카메라(22) 및 조명수단을 일괄적으로 세팅함으로써 준비시간을 최소화할 수 있다. 또한 카메라 제어부(110)는 모든 카메라(22)가 동시에 촬영할 수 있도록 제어할 수 있다. 따라서 모든 촬영 이미지는 동일한 밝기 및 포커스를 유지할 수 있다.The camera controller 110 may collectively set shooting options or setting values of the plurality of cameras 22 . These shooting options include, for example, ISO (sensitivity), F-Stop (aperture ratio), and Aperture (aperture). In addition, the camera control unit 110 may collectively set the setting values of the lighting means installed in the photographing booth 20 . In this way, the camera control unit 110 can minimize the preparation time by collectively setting all the cameras 22 and the lighting means before shooting. In addition, the camera controller 110 may control all cameras 22 to shoot simultaneously. Therefore, all captured images can maintain the same brightness and focus.

피사체 가이드부(120)는 3D 모델링을 위한 촬영 가이드 정보 및 모니터링 장치(24)가 촬영한 준비 영상을 디스플레이 장치(30)에 함께 표시한다. 피사체의 위치, 표정, 움직임 등에 대한 상태 변화가 있는 경우, 디스플레이 장치(30)에 표시되는 준비 영상도 변경된다. 피사체 가이드부(120)는 준비 영상이 촬영 가이드 정보에 정의된 소정의 기준을 만족하는지에 따라 카메라 촬영의 가능 여부를 평가할 수 있다. The subject guide unit 120 displays shooting guide information for 3D modeling and a preparation image captured by the monitoring device 24 together on the display device 30 . When there is a change in the state of the subject's position, expression, movement, etc., the preparation image displayed on the display device 30 is also changed. The subject guide unit 120 may evaluate whether the camera can be photographed according to whether the preparation image satisfies a predetermined criterion defined in the photographing guide information.

여기서 촬영 가이드 정보는, 위치 가이드 정보, 표정 가이드 정보 및 움직임 가이드 정보를 포함한다. 위치 가이드 정보는 3D 모델링을 위해 피사체에 요구되는 위치를 안내하는 정보이다. 표정 가이드 정보는 3D 모델링을 위해 피사체에 요구되는 표정을 안내하는 정보이다. 움직임 가이드 정보는 3D 모델링을 위해 피사체에 요구되는 움직임 또는 부동자세를 안내하는 정보이다. Here, the photographing guide information includes location guide information, facial expression guide information, and movement guide information. The location guide information is information for guiding a location required for a subject for 3D modeling. The expression guide information is information for guiding an expression required for a subject for 3D modeling. The movement guide information is information for guiding a movement or a floating posture required for a subject for 3D modeling.

도 3에 도시된 바와 같이, 디스플레이 장치(30)가 제공하는 사용자 인터페이스(user interface)는 위치 가이드 영역(38), 표정 가이드 영역(32, 34), 움직임 가이드 영역(36) 및 이들을 둘러싼 배경 영역으로 구성된다.As shown in FIG. 3 , a user interface provided by the display device 30 includes a location guide area 38 , an expression guide area 32 , 34 , a motion guide area 36 , and a background area surrounding them. is composed of

위치 가이드 영역(38)은 위치 가이드 정보로서 피사체 가이드 라인(39)이 표시된 상태에서 피사체의 준비 영상을 실시간으로 표시한다. 피사체 가이드부(120)는 준비 영상이 피사체 가이드 라인(39)을 벗어나는 경우 경고 메시지를 제공할 수 있다. 따라서 피사체 또는 피촬영자는 디스플레이 장치(30)를 통해 본인의 영상(즉, 준비 영상)을 실시간으로 확인할 수 있고 준비 영상이 피사체 가이드 라인(39)을 벗어나지 않도록 위치를 정렬할 수 있다. 위치 가이드 영역(38)에는 피사체의 정면 및/또는 측면이 표시될 수 있다.The location guide area 38 displays the preparation image of the subject in real time while the subject guide line 39 is displayed as location guide information. The subject guide unit 120 may provide a warning message when the preparation image deviates from the subject guide line 39 . Accordingly, the subject or the photographed person can check his/her own image (ie, the preparation image) through the display device 30 in real time and arrange the positions so that the preparation image does not deviate from the subject guide line 39 . The front and/or side of the subject may be displayed in the location guide area 38 .

표정 가이드 영역(32, 34)은 표정 가이드 정보가 표시되는 영역으로서, 표정 가이드 정보를 텍스트로 표시하는 표정 가이드 텍스트 영역(32) 및 표정 가이드 정보를 이미지로 표시하는 표정 가이드 이미지 영역(34)을 포함한다. 예를 들어, 촬영자가 피사체에게 AU(action unit) 4를 요구하는 경우, 표정 가이드 텍스트 영역(32)에는 AU 4에 대응하는 "눈썹 안쪽 내리기" 텍스트가 표시되고, 표정 가이드 이미지 영역(34)에는 AU 4에 대응하는 이미지가 표시된다. 피사체 가이드부(120)는 안면 인식 알고리즘 등을 이용하여 준비 영상으로부터 피사체의 표정을 실시간 검출하고 분석하여 표정 가이드 정보를 기준으로 피사체의 표정을 평가하여 카메라 촬영 적합성을 판단할 수 있다. 예를 들어, 피사체 표정이 100점 만점을 기준으로 소정 임계점수 이하로 평가될 경우, 피사체 가이드부(120)는 피사체 표정이 카메라 촬영에 부적합하다고 판단하고 피사체에 피드백을 제공하여 피사체의 표정 변경을 유도할 수 있다.The expression guide areas 32 and 34 are areas in which expression guide information is displayed, and include an expression guide text area 32 displaying expression guide information as text and an expression guide image area 34 displaying expression guide information as an image. include For example, when the photographer requests AU (action unit) 4 from the subject, the expression guide text area 32 displays the text "Inner eyebrow lowering" corresponding to AU 4, and the expression guide image area 34 An image corresponding to AU 4 is displayed. The subject guide unit 120 detects and analyzes the expression of the subject from the prepared image in real time using a facial recognition algorithm, etc., and evaluates the expression of the subject based on the expression guide information to determine suitability for camera shooting. For example, when the expression of the subject is evaluated below a predetermined threshold score based on a perfect score of 100, the subject guide unit 120 determines that the expression of the subject is unsuitable for camera shooting and provides feedback to the subject to change the expression of the subject. can induce

움직임 가이드 영역(36)은 피사체에 요구되는 움직임에 대한 움직임 가이드 정보가 표시되는 영역으로서, 준비 영상의 움직임에 대한 피드백을 표시할 수 있다. 피사체 가이드부(120)는 준비 영상으로부터 피사체의 움직임을 실시간 검출하여 카메라 촬영 적합성을 평가할 수 있다. 예를 들어 촬영자가 피사체에게 부동자세를 요구할 경우, 피사체 가이드부(120)는 피사체의 움직임에 기인한 준비 영상의 움직임 거리를 측정하여 상기 움직임 거리가 소정의 임계점보다 큰 경우 디스플레이 장치(30)의 움직임 가이드 영역(36)을 통해 피드백을 제공할 수 있다. 예를 들어, 움직임 가이드 영역(36)은 (i) 피사체가 부재이거나 얼굴 인식이 불가능한 경우 제1 피드백(얼굴 인식 불가)을 표시할 수 있고, (ii) 피사체의 움직임 거리가 임계점보다 큰 경우 제2 피드백(얼굴 움직임)을 표시할 수 있고, (iii) 피사체의 움직임 거리가 임계점보다 작은 경우 제3 피드백(촬영준비 완료)을 표시할 수 있다. 이러한 제1 내지 제3 피드백은 텍스트, 이미지, 색상 등으로 표시될 수 있다.The motion guide area 36 is an area in which motion guide information for a motion required for the subject is displayed, and may display feedback on the motion of the preparation image. The subject guide unit 120 may detect the movement of the subject from the preparation image in real time to evaluate suitability for camera shooting. For example, when the photographer requests the subject to be immobile, the subject guide unit 120 measures the movement distance of the ready image due to the movement of the subject, and when the movement distance is greater than a predetermined threshold, the display device 30 Feedback may be provided via the motion guide area 36 . For example, the movement guide area 36 may display a first feedback (unable to recognize a face) when (i) the subject is absent or face recognition is not possible, and (ii) when the movement distance of the subject is greater than a threshold point, the first feedback can be displayed. 2 feedback (facial movement) may be displayed, and (iii) if the movement distance of the subject is smaller than a critical point, a third feedback (photographing ready completion) may be displayed. The first to third feedbacks may be displayed in text, image, color, or the like.

이미지 검증부(130)는 카메라 촬영에 의해 생성된 복수의 2D 이미지에 대해 3D 모델링을 수행하기 전에 이미지 무결성 검증을 수행한다. 이미지 무결성 검증은 첫째, 복수의 2D 이미지의 개수가 상기 복수의 카메라의 개수와 일치하는지 여부를 판단하는 것, 둘째, 복수의 2D 이미지의 노출값이 소정의 범위 내에 있는지를 판단하는 것, 셋째, 복수의 2D 이미지의 아웃포커싱 정도를 판단하는 것을 포함한다. 이미지 검증부(130)는 첫째 이미지 개수 검증을 통하여 카메라(22) 개수와 촬영 이미지의 개수가 동일한지를 검사하여 모든 카메라(22)가 촬영이 제대로 수행했는지를 검증한다. 이미지 검증부(130)는 둘째 노출값 검증을 통해 피사체 또는 피촬영자가 빛을 충분히 고르게 받았는지를 검증한다. 여기서 노출값(exposure value)은 카메라의 조리개 및 셔터 스피드의 조합을 규정해 놓은 값으로서 사진술에서 촬상 소자에 감광되는 빛의 양을 나타낸다. 이미지 검증부(130)는 셋째 포커스 검증을 통하여 아웃포커싱으로 인해 이미지가 흐릿하게 나오는지 여부를 검증한다. 이미지 검증부(130)는 복수의 2D 이미지에 대해 썸네일을 생성할 수 있고, 관리자는 상기 썸네일을 통해 해당 이미지의 사용여부에 대한 판단할 수 있다.The image verification unit 130 performs image integrity verification before performing 3D modeling on a plurality of 2D images generated by camera photographing. Image integrity verification includes first, determining whether the number of the plurality of 2D images matches the number of the plurality of cameras, second, determining whether exposure values of the plurality of 2D images are within a predetermined range, third, the plurality and determining the degree of defocusing of the 2D image of The image verification unit 130 first checks whether the number of cameras 22 and the number of photographed images are the same through verification of the number of images to verify whether all cameras 22 have properly photographed. The image verification unit 130 verifies whether the subject or the photographed person receives light sufficiently and evenly through the second exposure value verification. Here, the exposure value is a value that defines the combination of the aperture and shutter speed of the camera, and represents the amount of light that is exposed to the image pickup device in photography. The image verification unit 130 verifies whether the image is blurred due to out-of-focus through the third focus verification. The image verification unit 130 may generate thumbnails for a plurality of 2D images, and the administrator may determine whether to use the corresponding images through the thumbnails.

3D 재구성부(140)는 무결성이 확보된 2D 이미지를 3D 메시화시켜 3D 리컨스트럭션(3D reconstruction)을 수행한다. 예를 들어 3D 리컨스트럭션을 위해 상용 프로그램인 Reality Capture 등이 이용될 수 있다. 3D 재구성부(140)는 3D 리컨스트럭션을 수행한 후 3D 모델링과 텍스쳐를 출력한다.The 3D reconstruction unit 140 performs 3D reconstruction by 3D meshing the 2D image with integrity. For example, a commercial program Reality Capture, etc. may be used for 3D reconstruction. The 3D reconstruction unit 140 outputs 3D modeling and texture after performing 3D reconstruction.

데이터 베이스(150)는 무결성이 확보된 2D 이미지 데이터를 피사체(피촬영자), 파일명, 촬영날짜, 표정(촬영 포즈) 등을 기준으로 자동으로 분류하여 저장할 수 있다. 데이터 베이스(150)는 그 외 3D 모델링을 위해 필요한 다양한 데이터를 저장할 수 있다.The database 150 may automatically classify and store the 2D image data for which integrity is secured based on a subject (subject), a file name, a shooting date, an expression (photographing pose), and the like. The database 150 may store various other data required for 3D modeling.

이하 도 4를 참조하여 본 발명의 일 실시예에 따른 3D 모델링 방법에 대해 설명한다. 도 4는 본 발명의 일 실시예에 따른 3D 모델링 방법을 순차적으로 나타낸 순서도이다.Hereinafter, a 3D modeling method according to an embodiment of the present invention will be described with reference to FIG. 4 . 4 is a flowchart sequentially illustrating a 3D modeling method according to an embodiment of the present invention.

먼저 카메라 제어부(110)는 복수의 카메라(22)의 촬영 옵션 또는 셋팅 값을 일괄적으로 설정한다(S10).First, the camera controller 110 collectively sets shooting options or setting values of the plurality of cameras 22 ( S10 ).

피사체 가이드부(120)는 3D 모델링을 위한 피사체의 위치 정렬, 표정 및 움직임에 대한 촬영 가이드 정보를 디스플레이 장치(30)에 표시한 상태에서 모니터링 장치(24)가 피사체를 실시간 촬영한 준비 영상을 디스플레이 장치(30)에 함께 표시한다(S20).The subject guide unit 120 displays a preparation image in which the monitoring device 24 captures the subject in real time in a state in which shooting guide information for position alignment, facial expression, and movement of the subject for 3D modeling is displayed on the display device 30 . It is displayed together on the device 30 (S20).

피사체 가이드부(120)가 준비 영상이 촬영 가이드 정보에 정의된 소정의 기준을 만족한다고 판단한 경우, 카메라 제어부(110)는 모든 카메라(22)를 동시에 작동시켜 피사체를 촬영하여 복수의 2D 이미지를 생성한다(S30).When the subject guide unit 120 determines that the preparation image satisfies a predetermined criterion defined in the shooting guide information, the camera control unit 110 simultaneously operates all the cameras 22 to photograph the subject to generate a plurality of 2D images. do (S30).

이미지 검증부(130)는 복수의 2D 이미지에 대해 3D 모델링을 수행하기 전에 이미지 무결성 검증을 수행한다(S40).The image verification unit 130 performs image integrity verification before performing 3D modeling on a plurality of 2D images (S40).

이미지 검증부(130)는 무결성이 확보된 2D 이미지 데이터를 피사체(피촬영자), 파일명, 촬영날짜, 표정(촬영 포즈) 등을 기준으로 자동으로 분류하여 데이터 베이스(150)에 저장한다(S50).The image verification unit 130 automatically classifies the 2D image data for which integrity is secured based on the subject (subject), file name, shooting date, facial expression (photographing pose), etc. and stores it in the database 150 (S50). .

3D 재구성부(140)는 무결성이 확보된 2D 이미지에 대해 3D 리컨스트럭션을 수행한 후 3D 모델링과 텍스쳐를 출력한다(S60).The 3D reconstruction unit 140 performs 3D reconstruction on the 2D image for which integrity is secured, and then outputs 3D modeling and texture (S60).

앞서 언급된 제어 장치, 카메라 제어부, 피사체 가이드부, 이미지 검증부, 3D 재구성부 등은 컴퓨터 프로그램으로서, 예를 들어 컴퓨터 판독가능 저장매체(computer readable storage medium)에 저장(store)되거나 적재(load)된 하나 이상의 프로세서(processor)에 의해 구현되는 복수의 프로그램 모듈(program module)로 구성될 수 있다. 또한 순서도(flowchart)에 언급된 각 단계는 컴퓨터 프로그램, 프로그램 모듈, 또는 컴퓨터 실행 가능 명령(computer-executable instruction) 등으로 이루어질 수 있다.The aforementioned control device, camera control unit, subject guide unit, image verification unit, 3D reconstruction unit, etc. are computer programs, for example, stored or loaded in a computer readable storage medium. It may be composed of a plurality of program modules implemented by one or more processors. Also, each step mentioned in the flowchart may be composed of a computer program, a program module, or a computer-executable instruction.

이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although the embodiments of the present invention have been described with reference to the accompanying drawings, those of ordinary skill in the art to which the present invention pertains can realize that the present invention can be embodied in other specific forms without changing its technical spirit or essential features. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

10: 3D 모델링 시스템
20: 촬영 부스
22: 카메라
24: 모니터링 장치
30: 디스플레이 장치
32, 34: 표정 가이드 영역
36: 움직임 가이드 영역
38: 위치 가이드 영역
39: 피사체 가이드 라인
100: 제어 장치
110: 카메라 제어부
120: 피사체 가이드부
130: 이미지 검증부
140: 3D 재구성부
150: 데이터 베이스
10: 3D modeling system
20: Shooting booth
22: camera
24: monitoring device
30: display device
32, 34: expression guide area
36: movement guide area
38: position guide area
39: Subject guidelines
100: control device
110: camera control unit
120: subject guide unit
130: image verification unit
140: 3D reconstruction unit
150: database

Claims (5)

포토그래메트리를 이용하여 피촬영자의 얼굴 표정을 3D 모델링하는 시스템으로서,
상기 피촬영자의 주변에 배치되어 상기 피촬영자에 대해 여러 각도로 복수의 2D 이미지를 동시에 촬영하는 복수의 카메라;
카메라 촬영 전에 상기 피촬영자의 실시간 영상인 준비 영상을 생성하는 모니터링 장치;
상기 피촬영자에 3D 모델링을 위한 촬영 가이드 정보를 제공하는 디스플레이 장치; 및
상기 복수의 카메라가 촬영한 복수의 2D 이미지로부터 상기 피촬영자의 얼굴 표정을 3D 모델링하는 제어 장치를 포함하되,
상기 제어 장치는 상기 준비 영상 및 상기 촬영 가이드 정보를 상기 디스플레이 장치에 함께 표시하고,
상기 피촬영자의 상태 변화에 따라 상기 준비 영상이 변경되어 상기 디스플레이 장치에 표시되고, 상기 제어 장치는 상기 준비 영상이 상기 촬영 가이드 정보에 정의된 소정의 기준을 만족하는지에 따라 카메라 촬영의 가능 여부를 평가하고,
상기 피촬영자가 촬영 전에 상기 디스플레이 장치를 통해 본인의 실시간 영상 및 촬영자의 요구 사항을 직접 확인할 수 있도록, 상기 디스플레이 장치는 상기 피촬영자의 정면에 배치되어 상기 준비 영상 및 상기 촬영 가이드 정보를 화면에 표시하여 상기 피촬영자에게 제공하고,
상기 촬영 가이드 정보는 3D 모델링을 위해 상기 피촬영자에 요구되는 움직임에 대한 움직임 가이드 정보를 포함하고, 상기 제어 장치는 상기 준비 영상으로부터 상기 피촬영자의 움직임을 실시간으로 검출하여 카메라 촬영 적합성을 평가한 후 피드백을 상기 디스플레이 장치에 표시하고,
상기 제어 장치는 3D 모델링을 수행하기 전에 상기 복수의 2D 이미지에 대한 이미지 무결성 검증을 수행하고, 상기 이미지 무결성 검증은 상기 복수의 2D 이미지의 개수와 상기 복수의 카메라의 개수의 일치 여부를 판단하는 것을 포함하는 것을 특징으로 하는 3D 모델링 시스템.
A system for 3D modeling the facial expression of a subject using photogrammetry, comprising:
a plurality of cameras disposed in the vicinity of the person to be photographed and simultaneously photographing a plurality of 2D images at various angles with respect to the person to be photographed;
a monitoring device for generating a preparation image, which is a real-time image of the subject, before the camera is photographed;
a display device providing photographing guide information for 3D modeling to the subject; and
Comprising a control device for 3D modeling the facial expression of the subject from a plurality of 2D images taken by the plurality of cameras,
The control device displays the preparation image and the shooting guide information together on the display device,
The preparation image is changed and displayed on the display device according to a change in the state of the subject, and the control device determines whether camera shooting is possible according to whether the preparation image satisfies a predetermined criterion defined in the shooting guide information. evaluate,
The display device is disposed in front of the person to be photographed and displays the preparation image and the photographing guide information on the screen so that the person to be photographed can directly check the real-time image of the person and the requirements of the photographer through the display device before photographing to provide it to the subject,
The photographing guide information includes movement guide information on the movement required for the subject for 3D modeling, and the control device detects the movement of the subject from the preparation image in real time and evaluates camera shooting suitability. displaying feedback on the display device;
The control device performs image integrity verification on the plurality of 2D images before performing 3D modeling, and the image integrity verification determines whether the number of the plurality of 2D images matches the number of the plurality of cameras A 3D modeling system comprising:
제1항에 있어서,
상기 촬영 가이드 정보는,
3D 모델링을 위해 상기 피촬영자에 요구되는 위치에 대한 위치 가이드 정보; 및 3D 모델링을 위해 상기 피촬영자에 요구되는 표정에 대한 표정 가이드 정보를 포함하는 3D 모델링 시스템.
According to claim 1,
The shooting guide information,
location guide information for a location required for the subject for 3D modeling; and facial expression guide information for facial expressions required for the subject for 3D modeling.
제2항에 있어서,
상기 디스플레이 장치가 제공하는 사용자 인터페이스는,
상기 위치 가이드 정보로서 피사체 가이드 라인이 표시된 상태에서 상기 준비 영상을 실시간으로 표시하는 위치 가이드 영역; 상기 표정 가이드 정보를 텍스트로 표시하는 표정 가이드 텍스트 영역; 상기 표정 가이드 정보를 이미지로 표시하는 표정 가이드 이미지 영역; 및 상기 준비 영상의 움직임에 대한 피드백을 표시하는 움직임 가이드 영역을 포함하는 3D 모델링 시스템.
3. The method of claim 2,
The user interface provided by the display device,
a location guide area for displaying the preparation image in real time while a subject guide line is displayed as the location guide information; an expression guide text area displaying the expression guide information as text; an expression guide image area displaying the expression guide information as an image; and a motion guide region displaying feedback on the motion of the preparation image.
제3항에 있어서,
상기 제어 장치는 상기 준비 영상이 상기 피사체 가이드 라인을 벗어나는 경우 경고 메시지를 제공하고,
상기 제어 장치는 상기 준비 영상으로부터 상기 피촬영자의 표정을 실시간 검출하여 상기 표정 가이드 정보를 기준으로 카메라 촬영 적합성을 평가하는 것을 특징으로 하는 3D 모델링 시스템.
4. The method of claim 3,
The control device provides a warning message when the preparation image deviates from the subject guide line,
3D modeling system, characterized in that the control device detects the expression of the subject in real time from the preparation image and evaluates suitability for camera shooting based on the expression guide information.
제1항에 있어서,
상기 이미지 무결성 검증은 상기 복수의 2D 이미지의 노출값이 소정의 범위 내에 있는지를 판단하는 것과, 상기 복수의 2D 이미지의 아웃포커싱 정도를 판단하는 것을 더 포함하는 3D 모델링 시스템.
According to claim 1,
The verification of the image integrity further comprises determining whether the exposure values of the plurality of 2D images are within a predetermined range and determining the degree of defocusing of the plurality of 2D images.
KR1020210188559A 2021-12-27 2021-12-27 3D modeling system with integrated control KR102457180B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210188559A KR102457180B1 (en) 2021-12-27 2021-12-27 3D modeling system with integrated control

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210188559A KR102457180B1 (en) 2021-12-27 2021-12-27 3D modeling system with integrated control

Publications (1)

Publication Number Publication Date
KR102457180B1 true KR102457180B1 (en) 2022-10-20

Family

ID=83805086

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210188559A KR102457180B1 (en) 2021-12-27 2021-12-27 3D modeling system with integrated control

Country Status (1)

Country Link
KR (1) KR102457180B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240080969A (en) 2022-11-30 2024-06-07 황경환 6-sided multi-view image processing system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100027700A (en) * 2008-09-03 2010-03-11 삼성디지털이미징 주식회사 Photographing method and apparatus
KR20210092983A (en) * 2020-01-17 2021-07-27 연봉근 Method and program for providing user bust information using 3d-scanning guide based on augumented reality

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100027700A (en) * 2008-09-03 2010-03-11 삼성디지털이미징 주식회사 Photographing method and apparatus
KR20210092983A (en) * 2020-01-17 2021-07-27 연봉근 Method and program for providing user bust information using 3d-scanning guide based on augumented reality

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240080969A (en) 2022-11-30 2024-06-07 황경환 6-sided multi-view image processing system

Similar Documents

Publication Publication Date Title
TWI709091B (en) Image processing method and device
JP5276111B2 (en) Method and system for supporting so that composition of face can be determined during self-photographing
CN202018662U (en) Image acquisition and processing equipment
US12008708B2 (en) Method and data processing system for creating or adapting individual images based on properties of a light ray within a lens
CN110751728B (en) Virtual reality equipment with BIM building model mixed reality function and method
CN112118435B (en) Multi-projection fusion method and system for special-shaped metal screen
WO2022199545A1 (en) Image processing method and apparatus, computer device, and storage medium
CN112595496B (en) Method, device, equipment and storage medium for detecting faults of near-eye display equipment
CN108447105A (en) A kind of processing method and processing device of panoramic picture
TWI484285B (en) Panorama photographing method
KR20180123302A (en) Method and Apparatus for Visualizing a Ball Trajectory
CN108510541B (en) Information adjusting method, electronic equipment and computer readable storage medium
KR102457180B1 (en) 3D modeling system with integrated control
JPWO2017203796A1 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
WO2022046227A1 (en) Mixed reality image capture and smart inspection
CN114295331B (en) Multi-camera module optical axis testing method, device, equipment and medium
TWI731713B (en) Projection system and adaptive adjustment method thereof
JP6817527B1 (en) Information processing equipment, programs and information processing systems
JP6820489B2 (en) Image processing device and image processing program
CN113837917A (en) Cross-media invisible watermark checking method and system based on AR technology
CN111371992A (en) Image capturing quality control method, system, device, and storage medium
JP2007025901A (en) Image processor and image processing method
JP4355853B2 (en) Image photographing apparatus and program
US11880976B2 (en) Image retention and stitching for minimal-flash eye disease diagnosis
CN115359545B (en) Staff fatigue detection method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant