WO2023074999A1 - System for acquiring 3d ar object image in real time, and operating method therefor - Google Patents

System for acquiring 3d ar object image in real time, and operating method therefor Download PDF

Info

Publication number
WO2023074999A1
WO2023074999A1 PCT/KR2021/017527 KR2021017527W WO2023074999A1 WO 2023074999 A1 WO2023074999 A1 WO 2023074999A1 KR 2021017527 W KR2021017527 W KR 2021017527W WO 2023074999 A1 WO2023074999 A1 WO 2023074999A1
Authority
WO
WIPO (PCT)
Prior art keywords
depth
rgb
image
partial data
cameras
Prior art date
Application number
PCT/KR2021/017527
Other languages
French (fr)
Korean (ko)
Inventor
장준환
박우출
양진욱
윤상필
최민수
이준석
송수호
구본재
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Publication of WO2023074999A1 publication Critical patent/WO2023074999A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Definitions

  • the present invention relates to 3D AR object acquisition, and more particularly, to a 3D AR object image real-time acquisition system that supports acquiring 3AR object images in real time and a method for operating the same.
  • augmented reality since an augmented image is processed based on an image taken by a camera, the amount of data to be processed is very large. Accordingly, in order to implement augmented reality-based content, there is a problem in that use of augmented reality content is not high because a hardware device with high specifications is required or the augmented reality content must be implemented in a very limited environment. In addition, in the case of conventional augmented reality content, since the amount of data processing is large, real-time properties of content applied to augmented reality are poor.
  • the present invention provides a 3D AR object image real-time acquisition system and its operating method capable of acquiring a specific AR object image in real time.
  • the object of the present invention is not limited to the above object, and other objects not mentioned will be clearly understood from the description below.
  • the present invention for achieving the above object is a subject, a plurality of cameras each acquiring an RGB image and a depth image of the subject, 3D for the RGB image and the depth image acquired in real time by the plurality of cameras
  • a 3D AR object image collecting device generating an AR object image, wherein the 3D AR object image collecting device converts RGB partial data corresponding to at least some objects among the subjects and depth partial data corresponding to the at least some objects to the RGB image and filtering from the depth image, generating and storing 3D point cloud data based on the filtered RGB partial data and the depth partial data.
  • the 3D AR object image collection device supports the connection of the plurality of cameras, checks the connection state of the plurality of cameras and the on-off state of the plurality of cameras, and controls the driving of the plurality of cameras.
  • a data acquisition module acquiring the RGB image and the depth image from the plurality of cameras in real time.
  • the camera interface may output error information indicating an inactive or unconnected state of a camera providing the RGB image or the depth image among the plurality of cameras.
  • the 3D AR object image collection device filters the RGB partial data corresponding to a specific object selected from the RGB image and the depth partial data corresponding to the specific object, or filters an object located at a specific depth among the depth images.
  • a correction module filtering the depth part data and the RGB part data corresponding to the object of the specific depth may be included.
  • the 3D AR object image collection device includes a data sync module that converts the resolution of the RGB partial data based on the resolution of the depth partial data to match the resolution of the depth partial data with the resolution of the RGB partial data. can do.
  • a method for operating a 3D AR object image collection device supporting real-time acquisition of 3D AR object images includes an RGB image and a depth image of a subject from a plurality of cameras. obtaining, filtering RGB partial data corresponding to at least some objects among the subjects and depth partial data corresponding to the at least some objects from the RGB image and the depth image; and generating and storing 3D point cloud data based on partial data.
  • the method includes checking a deactivation or disconnection state of a camera providing the RGB image or the depth image among the plurality of cameras, and outputting error information corresponding to the deactivation or disconnection state of the camera. can include more.
  • the filtering may include filtering the RGB partial data corresponding to a specific object selected from the RGB image and the depth partial data corresponding to the specific object, or the depth corresponding to an object located at a specific depth among the depth images. Filtering the partial data and the RGB partial data corresponding to the object of the specific depth may be included.
  • the method may further include converting the resolution of the RGB partial data based on the resolution of the depth partial data so that the resolution of the depth partial data matches the resolution of the RGB partial data.
  • a 3D object can be easily created by combining color data and depth data.
  • the present invention can provide a real-time 3D AR object that can be applied to various additional services, such as E-Sports relay, home fitness and patient management, and smart factory operation, by solving physical limitations.
  • FIG. 1 is a diagram showing an example of a 3D AR object image collection environment capable of acquiring 3D AR object images in real time according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing an example of a camera interface of a 3D AR object image collection device according to an embodiment of the present invention.
  • FIG. 3 is a diagram showing an example of data change between a data acquisition module and a correction module in a 3D AR object image collection device according to an embodiment of the present invention.
  • FIG. 4 is a diagram showing an example of a configuration of a data sync module in a 3D AR object image collection device according to an embodiment of the present invention.
  • FIG. 5 is a diagram showing an example of a data generation module in a 3D AR object image collection device according to an embodiment of the present invention.
  • FIG. 6 is a diagram illustrating an example of a method for obtaining a 3D AR object image in real time according to an embodiment of the present invention.
  • first and second are used to describe various components, and are used only for the purpose of distinguishing one component from other components, and to limit the components. Not used. For example, a second element may be termed a first element, and similarly, a first element may be termed a second element, without departing from the scope of the present invention.
  • embodiments within the scope of the present invention include computer-readable media having or conveying computer-executable instructions or data structures stored thereon.
  • Such computer readable media can be any available media that can be accessed by a general purpose or special purpose computer system.
  • Such computer readable media may be in the form of RAM, ROM, EPROM, CD-ROM or other optical disk storage, magnetic disk storage or other magnetic storage, or computer executable instructions, computer readable instructions or data structures.
  • physical storage media such as, but not limited to, any other medium that can be used to store or convey any program code means in a computer system and which can be accessed by a general purpose or special purpose computer system. .
  • FIG. 1 is a diagram showing an example of a 3D AR object image collection environment capable of acquiring 3D AR object images in real time according to an embodiment of the present invention.
  • a 3D AR object image collection environment 10 may include a subject 11, a plurality of cameras 100, and a 3D AR object image collection device 200.
  • the plurality of cameras 100 may be included as one component of the 3D AR object image collecting device 200 .
  • the subject 11 may be a target to be made into a 3D AR object.
  • the subject 11 may include various targets such as people, animals, objects, tools, and backgrounds.
  • the subject 11 may include at least a part of a photographing environment captured by the plurality of cameras 100 .
  • the plurality of cameras 100 may be disposed at positions capable of photographing the subject 11 .
  • the plurality of cameras 100 may include at least one RGB camera capable of obtaining an RGB image related to the subject 11 and at least one depth camera capable of obtaining depth data of the subject 11. .
  • the at least one RGB camera and the at least one depth camera are disposed to capture the same subject 11 and may have the same or similar shooting distance and shooting angle within a specified range.
  • the 3D AR object image collection device 200 acquires RGB images and depth images obtained by the plurality of cameras 100 in real time, performs filtering on a target object on the obtained real-time images, and then performs data synchronization.
  • Point cloud data can be generated and provided through
  • the 3D AR object image collection device 200 may include a camera interface 210, a data acquisition module 220, a correction module 230, a data sync module 240, and a data generation module 250.
  • the plurality of cameras 100 control the 3D AR object image collection device 200 or the user who controls the 3D AR object image collection device 200 Activated in response to manipulation, the activated plurality of cameras 100 may collect images of the subject 11 and provide the collected images to the 3D AR object image collection device 200 .
  • FIG. 2 is a diagram showing an example of a camera interface of a 3D AR object image collection device according to an embodiment of the present invention.
  • the camera interface 210 may include a camera connection unit 211 , a driving unit 212 and an error handling unit 213 .
  • the camera connection unit 211 may include a configuration for connecting the plurality of cameras 100 and the 3D AR object image collection device 200.
  • the camera connection part 211 may include a wired cable inserted into a connector formed in the plurality of cameras 100 and a connection pin or device connector connected to the wired cable.
  • the camera connection unit 211 may include a wireless communication interface capable of forming a wireless communication channel with the plurality of cameras 100.
  • the camera connection unit 211 may include a wired communication interface (eg, connection through a cable) that can be connected to at least one camera or a wireless communication interface that can form a wireless communication channel with at least one camera.
  • the camera connection part 211 may further include a wire capable of supplying power to the plurality of cameras 100 .
  • the driving unit 212 may be in charge of setting the number of cameras used, setting values, and controlling On/Off. In this regard, when the plurality of cameras 100 are connected through the camera connection unit 211, the driving unit 212 transmits and receives initial data with the plurality of cameras 100 connected to the identification information of the plurality of cameras 100. , the type and specification information of each camera can be collected. Also, the driving unit 212 may drive an application for driving the plurality of cameras 100 . The driving unit 212 may perform initial setting of the plurality of cameras 100 according to predefined settings and may adjust setting values of each camera according to user manipulation.
  • the drive unit 212 controls turn-on of the plurality of cameras 100 according to user manipulation or execution of a specific application (eg, an application supporting a 3D AR object image providing function), and in response to termination of the corresponding application, a plurality of Turn-off control of the camera 100 may be performed.
  • a specific application eg, an application supporting a 3D AR object image providing function
  • the error handling unit 213 may process an error occurring in physical connection with the plurality of cameras 100 or in setting a setting value.
  • the camera interface 210 may include a display or audio device capable of displaying information related to connection of the plurality of cameras 100 .
  • the error handling unit 213 outputs a list of the plurality of cameras 100 connected according to the connection of the plurality of cameras 100, and the status of each of the plurality of cameras 100 (eg, initialization completed, the plurality of cameras 100 ) can be output.
  • the error handling unit 213 may also output identification information and error information about a camera that does not operate normally among the plurality of cameras 100 .
  • the error information may include a problem of a camera in which an error has occurred.
  • FIG. 3 is a diagram showing an example of data change between a data acquisition module and a correction module in a 3D AR object image collection device according to an embodiment of the present invention.
  • the data acquisition module 220 may acquire at least an RGB image and a depth image from among the plurality of cameras 100 according to a user's manipulation or execution of a specific application. In this process, the data acquisition module 220 checks information on the plurality of cameras 100 that are connected and activated through the camera interface 210, and the camera capable of acquiring RGB images from the plurality of cameras 100 and You can check if there is a camera capable of acquiring depth images. The data acquisition module 220 transmits an error message to the error handling unit 213 of the camera interface 210 when a camera capable of obtaining an RGB image and a depth image, respectively, is not included in the plurality of cameras 100.
  • the error handling unit 213 receiving the error message may output error information requesting connection or turn-on of a camera of a type that is not currently connected (eg, an RGB camera or a depth camera).
  • a camera of a type that is not currently connected eg, an RGB camera or a depth camera.
  • the data acquisition module 220 may transmit the acquired RGB image and the depth image correction module 230.
  • the RGB image and the depth image delivered by the data acquisition module 220 may include images of the entire shooting environment including the subject 11 .
  • the correction module 230 may perform filtering to acquire only desired data based on the RGB image and the depth image delivered by the data acquisition module 220 . During this process, the correction module 230 may filter subjects at a certain depth by using the depth value. The correction module 230 may separately extract an RGB image of a subject at a certain depth. In this regard, the correction module 230 may perform object classification based on boundary lines in the RGB image, and selectively filter objects having a certain depth based on depth information. Alternatively, the correction module 230 may perform filtering on a corresponding object based on depth information on an object (eg, a human face pattern or a specific animal pattern) including a specific pattern among RGB images. That is, the correction module 230 may filter and obtain only RGB data and depth data of at least some of the objects 11 .
  • an object eg, a human face pattern or a specific animal pattern
  • FIG. 4 is a diagram showing an example of a configuration of a data sync module in a 3D AR object image collection device according to an embodiment of the present invention.
  • the data sync module 240 may include an info handler 241 , a pixel matching unit 242 and a first data buffer 243 .
  • the info handler 241 may obtain depth data and RGB data from data transmitted from the correction module 230 . In this process, the info handler 241 may obtain resolution information of depth data and resolution of RGB data from the correction module 230 together. Alternatively, the info handler 241 may obtain the resolution information of the RGB camera that provided the RGB image and the resolution information of the depth camera that provided the depth image from the camera interface 210 .
  • the pixel matcher 242 can change the resolution of RGB data. That is, the pixel matching unit 242 converts the size of RGB information among RGB information having different resolutions (resolution: 1920*1080) and depth information (resolution: 1024*1024) to match the depth information to generate a point cloud. can do.
  • the pixel matching unit 242 may store changed information in the first data buffer 243 .
  • the first data buffer 243 may store RGB data and depth data matched by the pixel matching unit 242 .
  • the RGB data stored here may be information converted to suit the resolution of depth data.
  • FIG. 5 is a diagram showing an example of a data generation module in a 3D AR object image collection device according to an embodiment of the present invention.
  • the data generation module 250 of the present invention includes a second data buffer 251, a point cloud generator 252, a point cloud data buffer 253, a video output generator 254, and a data transmitter 255. ) and PLY file manager 256.
  • the second data buffer 251 may receive RGB data and the depth data converted based on the depth data by the data sync module 240 from the first data buffer 243 and temporarily store them.
  • the second data buffer 251 may transmit stored data (eg, resolution-converted RGB data and depth data) to the point cloud generator 252 .
  • the second data buffer 251 stores the data received from the first data buffer 243 in a specified data format format (eg, a format format defined for point cloud generation or the purpose of using the data) for point cloud generation. format) can be converted and saved.
  • a specified data format format eg, a format format defined for point cloud generation or the purpose of using the data
  • the point cloud generator 252 may generate point cloud data based on data stored in the second data buffer 251 .
  • the point cloud generator 252 may allocate coordinates in a 3D space to data stored in the second data buffer 251 and process a collection of points for the allocated coordinates.
  • the point cloud generator 252 may perform an overlay process on the point cloud to build 3D data.
  • the point cloud data buffer 253 may store point cloud data generated by the point cloud generator 252 .
  • Data stored in the point cloud data buffer 253 may include collections of coordinates (or points) corresponding to the 3D AR object image.
  • the video output generator 254 may generate a video file corresponding to the point cloud data stored in the point cloud data buffer 253, and store the generated video file or transmit it to a designated device.
  • the video generated by the video output generator 254 may include a real-time image of the 3D AR object image.
  • the video file generated by the video output generator 254 may include real-time video images of 3D AR object images of some objects based on the subject 11 .
  • the data transmitter 255 may transmit the point cloud data stored in the point cloud data buffer 253 to a designated device. For example, when a 3D AR object image supporting function is performed based on a program such as a video conference or game, the data transmitter 255 transmits the point cloud data corresponding to a specific object to other electronic devices performing the corresponding video conference or game. can be passed to the device.
  • the PLY file manager 256 may create a 3D polygon file based on the point cloud data.
  • the PLY file manager 256 may define a polygonal file format corresponding to at least some objects of the subject 11 based on the point cloud data.
  • the PLY file manager 256 may store various properties including color and transparency of an object corresponding to at least a part of the subject 11, surface normal, texture coordinates, and data reliability value. That is, the PLY file manager 256 may perform PLY data conversion corresponding to the point cloud data.
  • FIG. 6 is a diagram illustrating an example of a method for obtaining a 3D AR object image in real time according to an embodiment of the present invention.
  • the 3D AR object image collection device 200 may activate a plurality of cameras 100 including an RGB camera and a depth camera. During this process, the 3D AR object image collection device 200 may activate the plurality of cameras 100 according to user manipulation or execution of an application designed for a 3D AR object image support function.
  • the 3D AR object image collection device 200 may acquire RGB data and depth data in real time. In this operation, the 3D AR object image collection device 200 may obtain time information on RGB data and depth data together, and maintain time synchronization for each data.
  • the 3D AR object image collection device 200 may perform filtering on acquired data. For example, the 3D AR object image collecting device 200 may filter only depth data of an object located at a specific depth and RGB data corresponding to an object at a corresponding depth based on the depth data. Alternatively, the 3D AR object image collection device 200 may detect a specific object based on the RGB image, and filter RGB partial data corresponding to the object and depth partial data corresponding to the object. After selecting a specific object, the 3D AR object image collecting device 200 may filter data (eg, RGB partial data and depth partial data) of the corresponding object with respect to data obtained in real time.
  • data eg, RGB partial data and depth partial data
  • the 3D AR object image collection device 200 may process data sync.
  • the 3D AR object image collection device 200 may synchronize resolution conversion of RGB data based on the resolution of depth data. That is, the resolution of the RGB image acquired by the RGB camera and the depth image obtained by the depth camera may differ depending on the characteristics of the cameras. Accordingly, the 3D AR object image collection device 200 may process a conversion task of synchronizing the resolution of RGB data based on the resolution of depth data. At this time, the 3D AR object image collection device 200 may process resolution conversion (synchronization or matching operation) of the filtered RGB partial data based on the filtered depth partial data.
  • the 3D AR object image collection device 200 may generate and store point cloud data.
  • the 3D AR object image collection device 200 includes a point cloud generator 252, and uses the point cloud generator 252 to convert the RGB partial data and the depth partial data to points corresponding to 3D coordinates. It can be converted to , and collection processing of the converted points can be performed.
  • the point cloud generator 252 may generate a specific file (eg, a video file or a PLY file) by overlaying point clouds corresponding to RGB partial data and depth partial data obtained in real time. .

Abstract

Disclosed are a method for operating a 3D AR object image collecting apparatus supporting 3D AR object image real-time acquisition, and a system to which the method is applied, the method comprising the steps of: acquiring, by the 3D AR object image collecting apparatus from a plurality of cameras, an RGB image and a depth image for a subject; filtering, from the RGB image and the depth image, RGB partial data corresponding to at least some objects in the subject and depth partial data corresponding to the at least some objects; and generating 3D point cloud data on the basis of the filtered RGB partial data and the filtered depth partial data and storing the 3D point cloud data.

Description

3D AR 객체 영상 실시간 획득 시스템 및 이의 운용 방법3D AR object image real-time acquisition system and its operating method
본 발명은 3D AR 객체 획득에 관한 것으로서, 더욱 상세하게는 실시간으로 3AR 객체 영상을 획득할 수 있도록 지원하는 3D AR 객체 영상 실시간 획득 시스템 및 이의 운용 방법에 관한 것이다.The present invention relates to 3D AR object acquisition, and more particularly, to a 3D AR object image real-time acquisition system that supports acquiring 3AR object images in real time and a method for operating the same.
가상현실(Virtual Reality: VR) 및 증강현실(Augmented Reality: AR)이 등장한 이후, 스마트폰 애플리케이션을 다양한 관심이 증가하는 가운데, 혼합현실(Mixed Reality: MR)이 다양한 분야 예컨대, 교육 및 상업적으로 활용되고 있다. Since the advent of Virtual Reality (VR) and Augmented Reality (AR), interest in various smartphone applications has increased, and Mixed Reality (MR) has been used in various fields, such as education and commercial use. It is becoming.
한편, 증강 현실의 경우, 카메라가 촬영한 영상을 기반으로 증강 이미지를 처리하기 때문에, 처리해야 할 데이터양이 매우 크다. 이에 따라, 증강 현실 기반의 컨텐츠를 구현하기 위해서는 높은 사양의 하드웨어 장치가 필요하거나 매우 제한적인 환경에서 증강 현실 컨텐츠를 구현해야 하기 때문에, 증강 현실 컨텐츠에 대한 이용이 높지 않은 문제가 있다. 또한, 종래 증강 현실 컨텐츠의 경우, 데이터 처리량이 크기 때문에, 증강 현실에 적용되는 컨텐츠의 실시간 성이 떨어지는 문제가 있다. Meanwhile, in the case of augmented reality, since an augmented image is processed based on an image taken by a camera, the amount of data to be processed is very large. Accordingly, in order to implement augmented reality-based content, there is a problem in that use of augmented reality content is not high because a hardware device with high specifications is required or the augmented reality content must be implemented in a very limited environment. In addition, in the case of conventional augmented reality content, since the amount of data processing is large, real-time properties of content applied to augmented reality are poor.
상술한 문제점을 해결하기 위하여, 본 발명은 특정 AR 객체 이미지를 실시간으로 획득할 수 있는 3D AR 객체 영상 실시간 획득 시스템 및 이의 운용 방법을 제공함에 있다.In order to solve the above problems, the present invention provides a 3D AR object image real-time acquisition system and its operating method capable of acquiring a specific AR object image in real time.
한편, 이러한 본 발명의 목적은 상기의 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.On the other hand, the object of the present invention is not limited to the above object, and other objects not mentioned will be clearly understood from the description below.
상술한 바와 같은 목적을 달성하기 위한 본 발명은 피사체, 상기 피사체에 대한 RGB 이미지 및 Depth 이미지를 각각 획득하는 복수의 카메라, 상기 복수의 카메라가 실시간으로 획득한 상기 RGB 이미지 및 상기 Depth 이미지에 대한 3D AR 객체 이미지를 생성하는 3D AR 객체 이미지 수집 장치를 포함하고, 상기 3D AR 객체 이미지 수집 장치는 상기 피사체 중 적어도 일부 객체에 대응하는 RGB 부분 데이터 및 상기 적어도 일부 객체 대응하는 Depth 부분 데이터를 상기 RGB 이미지 및 상기 Depth 이미지에서 필터링하고, 필터링된 상기 RGB 부분 데이터와 상기 Depth 부분 데이터를 기반으로 3D 포인트 클라우드 데이터를 생성하여 저장하는 것을 특징으로 하는 3D AR 객체 영상 실시간 획득 시스템을 개시한다.The present invention for achieving the above object is a subject, a plurality of cameras each acquiring an RGB image and a depth image of the subject, 3D for the RGB image and the depth image acquired in real time by the plurality of cameras A 3D AR object image collecting device generating an AR object image, wherein the 3D AR object image collecting device converts RGB partial data corresponding to at least some objects among the subjects and depth partial data corresponding to the at least some objects to the RGB image and filtering from the depth image, generating and storing 3D point cloud data based on the filtered RGB partial data and the depth partial data.
여기서, 상기 3D AR 객체 이미지 수집 장치는 상기 복수의 카메라 연결을 지원하고, 상기 복수의 카메라들의 연결 상태 및 상기 복수의 카메라들의 온-오프 상태를 확인하고 상기 복수의 카메라들의 구동을 제어하는 카메라 인터페이스, 상기 복수의 카메라들로부터 상기 RGB 이미지 및 상기 Depth 이미지를 실시간으로 획득하는 데이터 획득 모듈을 포함하는 것을 특징으로 한다.Here, the 3D AR object image collection device supports the connection of the plurality of cameras, checks the connection state of the plurality of cameras and the on-off state of the plurality of cameras, and controls the driving of the plurality of cameras. , a data acquisition module acquiring the RGB image and the depth image from the plurality of cameras in real time.
특히, 상기 카메라 인터페이스는 상기 복수의 카메라들 중 상기 RGB 이미지 또는 상기 Depth 이미지를 제공하는 카메라의 비활성화 또는 비연결 상태를 나타내는 에러 정보를 출력하는 것을 특징으로 한다.In particular, the camera interface may output error information indicating an inactive or unconnected state of a camera providing the RGB image or the depth image among the plurality of cameras.
한편, 상기 3D AR 객체 이미지 수집 장치는 상기 RGB 이미지에서 선택된 특정 객체에 대응하는 상기 RGB 부분 데이터 및 상기 특정 객체 대응하는 상기 Depth 부분 데이터를 필터링하거나, 상기 Depth 이미지 중 특정 깊이에 위치한 객체에 해당하는 상기 Depth 부분 데이터 및 상기 특정 깊이의 객체 해당하는 상기 RGB 부분 데이터를 필터링하는 보정 모듈을 포함할 수 있다.On the other hand, the 3D AR object image collection device filters the RGB partial data corresponding to a specific object selected from the RGB image and the depth partial data corresponding to the specific object, or filters an object located at a specific depth among the depth images. A correction module filtering the depth part data and the RGB part data corresponding to the object of the specific depth may be included.
추가로, 상기 3D AR 객체 이미지 수집 장치는 상기 Depth 부분 데이터의 해상도를 기준으로 상기 RGB 부분 데이터의 해상도를 변환하여 상기 Depth 부분 데이터의 해상도와 상기 RGB 부분 데이터의 해상도를 일치시키는 데이터 싱크 모듈을 포함할 수 있다.In addition, the 3D AR object image collection device includes a data sync module that converts the resolution of the RGB partial data based on the resolution of the depth partial data to match the resolution of the depth partial data with the resolution of the RGB partial data. can do.
본 발명의 실시 예에 따른, 3D AR 객체 영상 실시간 획득을 지원하는 3D AR 객체 이미지 수집 장치를 운용하는 방법은, 상기 3D AR 객체 이미지 수집 장치가, 복수의 카메라로부터 피사체에 대한 RGB 이미지 및 Depth 이미지를 획득하는 단계, 상기 피사체 중 적어도 일부 객체에 대응하는 RGB 부분 데이터 및 상기 적어도 일부 객체 대응하는 Depth 부분 데이터를 상기 RGB 이미지 및 상기 Depth 이미지에서 필터링하는 단계, 상기 필터링된 상기 RGB 부분 데이터와 상기 Depth 부분 데이터를 기반으로 3D 포인트 클라우드 데이터를 생성하여 저장하는 단계를 포함하는 것을 특징으로 한다.According to an embodiment of the present invention, a method for operating a 3D AR object image collection device supporting real-time acquisition of 3D AR object images includes an RGB image and a depth image of a subject from a plurality of cameras. obtaining, filtering RGB partial data corresponding to at least some objects among the subjects and depth partial data corresponding to the at least some objects from the RGB image and the depth image; and generating and storing 3D point cloud data based on partial data.
상기 방법은, 상기 복수의 카메라들 중 상기 RGB 이미지 또는 상기 Depth 이미지를 제공하는 카메라의 비활성화 또는 비연결 상태를 확인하는 단계, 상기 카메라의 비활성화 또는 비연결 상태에 대응하는 에러 정보를 출력하는 단계를 더 포함할 수 있다.The method includes checking a deactivation or disconnection state of a camera providing the RGB image or the depth image among the plurality of cameras, and outputting error information corresponding to the deactivation or disconnection state of the camera. can include more.
한편, 상기 필터링하는 단계는 상기 RGB 이미지에서 선택된 특정 객체에 대응하는 상기 RGB 부분 데이터 및 상기 특정 객체 대응하는 상기 Depth 부분 데이터를 필터링하는 단계 또는 상기 Depth 이미지 중 특정 깊이에 위치한 객체에 해당하는 상기 Depth 부분 데이터 및 상기 특정 깊이의 객체 해당하는 상기 RGB 부분 데이터를 필터링하는 단계를 포함하는 포함할 수 있다.Meanwhile, the filtering may include filtering the RGB partial data corresponding to a specific object selected from the RGB image and the depth partial data corresponding to the specific object, or the depth corresponding to an object located at a specific depth among the depth images. Filtering the partial data and the RGB partial data corresponding to the object of the specific depth may be included.
이 경우, 상기 방법은, 상기 Depth 부분 데이터의 해상도를 기준으로 상기 RGB 부분 데이터의 해상도를 변환하여 상기 Depth 부분 데이터의 해상도와 상기 RGB 부분 데이터의 해상도를 일치시키는 단계를 더 포함할 수 있다.In this case, the method may further include converting the resolution of the RGB partial data based on the resolution of the depth partial data so that the resolution of the depth partial data matches the resolution of the RGB partial data.
본 발명에 따르면, 본 발명은 색 데이터와 깊이 데이터를 조합하여 3D 객체를 손쉽게 생성할 수 있도록 지원한다.According to the present invention, a 3D object can be easily created by combining color data and depth data.
또한, 본 발명은 물리적인 제약을 해소하고 부가적인 다양한 서비스 예컨대, E-Sports 중계, 홈 피트니스 및 환자 관리, 스마트 팩토리 운용 등에 적용할 수 있는 실시간 3D AR 객체를 제공할 수 있다. In addition, the present invention can provide a real-time 3D AR object that can be applied to various additional services, such as E-Sports relay, home fitness and patient management, and smart factory operation, by solving physical limitations.
아울러, 상술한 효과 이외의 다양한 효과들이 후술될 본 발명의 실시 예에 따른 상세한 설명에서 직접적 또는 암시적으로 개시될 수 있다.In addition, various effects other than the above effects may be disclosed directly or implicitly in detailed descriptions according to embodiments of the present invention to be described later.
도 1은 본 발명의 실시 예에 따른 3D AR 객체 이미지를 실시간으로 획득할 수 있는 3D AR 객체 이미지 수집 환경의 한 예를 나타낸 도면이다.1 is a diagram showing an example of a 3D AR object image collection environment capable of acquiring 3D AR object images in real time according to an embodiment of the present invention.
도 2는 본 발명의 실시 예에 따른 3D AR 객체 이미지 수집 장치 중 카메라 인터페이스의 한 예를 나타낸 도면이다.2 is a diagram showing an example of a camera interface of a 3D AR object image collection device according to an embodiment of the present invention.
도 3은 본 발명의 실시 예에 따른 3D AR 객체 이미지 수집 장치 중 데이터 획득 모듈과 보정 모듈 간의 데이터 변화의 한 예를 나타낸 도면이다. 3 is a diagram showing an example of data change between a data acquisition module and a correction module in a 3D AR object image collection device according to an embodiment of the present invention.
도 4는 본 발명의 실시 예에 따른 3D AR 객체 이미지 수집 장치 중 데이터 싱크 모듈 구성의 한 예를 나타낸 도면이다.4 is a diagram showing an example of a configuration of a data sync module in a 3D AR object image collection device according to an embodiment of the present invention.
도 5는 본 발명의 실시 예에 따른 3D AR 객체 이미지 수집 장치 중 데이터 생성 모듈의 한 예를 나타낸 도면이다.5 is a diagram showing an example of a data generation module in a 3D AR object image collection device according to an embodiment of the present invention.
도 6은 본 발명의 실시 예에 따른 3D AR 객체 이미지 실시간 획득 방법의 한 예를 나타낸 도면이다.6 is a diagram illustrating an example of a method for obtaining a 3D AR object image in real time according to an embodiment of the present invention.
본 발명의 과제 해결 수단의 특징 및 이점을 보다 명확히 하기 위하여, 첨부된 도면에 도시된 본 발명의 특정 실시 예를 참조하여 본 발명을 더 상세하게 설명한다.In order to clarify the characteristics and advantages of the problem solving means of the present invention, the present invention will be described in more detail with reference to specific embodiments of the present invention shown in the accompanying drawings.
다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 또한, 도면 전체에 걸쳐 동일한 구성 요소들은 가능한 한 동일한 도면 부호로 나타내고 있음에 유의하여야 한다.However, detailed descriptions of well-known functions or configurations that may obscure the gist of the present invention will be omitted in the following description and accompanying drawings. In addition, it should be noted that the same components are indicated by the same reference numerals throughout the drawings as much as possible.
이하의 설명 및 도면에서 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위한 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.The terms or words used in the following description and drawings should not be construed as being limited to a common or dictionary meaning, and the inventor may appropriately define the concept of terms for explaining his/her invention in the best way. It should be interpreted as a meaning and concept consistent with the technical idea of the present invention based on the principle that there is. Therefore, the embodiments described in this specification and the configurations shown in the drawings are only one of the most preferred embodiments of the present invention, and do not represent all of the technical ideas of the present invention. It should be understood that there may be equivalents and variations.
또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하기 위해 사용하는 것으로, 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용될 뿐, 상기 구성요소들을 한정하기 위해 사용되지 않는다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다.In addition, terms including ordinal numbers, such as first and second, are used to describe various components, and are used only for the purpose of distinguishing one component from other components, and to limit the components. Not used. For example, a second element may be termed a first element, and similarly, a first element may be termed a second element, without departing from the scope of the present invention.
또한, 본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 본 명세서에서 기술되는 "포함 한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In addition, terms used in this specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In addition, terms such as "include" or "having" described in this specification are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or the other It should be understood that the above does not preclude the possibility of the presence or addition of other features, numbers, steps, operations, components, parts, or combinations thereof.
또한, 명세서에 기재된 "부", "기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일(a 또는 an)", "하나(one)", "그(the)" 및 유사 관련어는 본 발명을 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.In addition, terms such as “unit”, “unit”, and “module” described in the specification refer to a unit that processes at least one function or operation, and may be implemented as hardware or software or a combination of hardware and software. Also, "a or an", "one", "the" and similar related words in the context of describing the invention (particularly in the context of the claims below) Unless indicated or otherwise clearly contradicted by context, both the singular and the plural can be used.
상술한 용어들 이외에, 이하의 설명에서 사용되는 특정 용어들은 본 발명의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 발명의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.In addition to the above-mentioned terms, specific terms used in the following description are provided to aid understanding of the present invention, and the use of these specific terms may be changed in other forms without departing from the technical spirit of the present invention.
아울러, 본 발명의 범위 내의 실시 예들은 컴퓨터 실행가능 명령어 또는 컴퓨터 판독가능 매체에 저장된 데이터 구조를 가지거나 전달하는 컴퓨터 판독가능 매체를 포함한다. 이러한 컴퓨터 판독가능 매체는, 범용 또는 특수 목적의 컴퓨터 시스템에 의해 액세스 가능한 임의의 이용 가능한 매체일 수 있다. 예로서, 이러한 컴퓨터 판독가능 매체는 RAM, ROM, EPROM, CD-ROM 또는 기타 광 디스크 저장장치, 자기 디스크 저장장치 또는 기타 자기 저장장치, 또는 컴퓨터 실행가능 명령어, 컴퓨터 판독가능 명령어 또는 데이터 구조의 형태로 된 소정의 프로그램 코드 수단을 저장하거나 전달하는 데에 이용될 수 있고, 범용 또는 특수 목적 컴퓨터 시스템에 의해 액세스 될 수 있는 임의의 기타 매체와 같은 물리적 저장 매체를 포함할 수 있지만, 이에 한정되지 않는다.In addition, embodiments within the scope of the present invention include computer-readable media having or conveying computer-executable instructions or data structures stored thereon. Such computer readable media can be any available media that can be accessed by a general purpose or special purpose computer system. By way of example, such computer readable media may be in the form of RAM, ROM, EPROM, CD-ROM or other optical disk storage, magnetic disk storage or other magnetic storage, or computer executable instructions, computer readable instructions or data structures. physical storage media such as, but not limited to, any other medium that can be used to store or convey any program code means in a computer system and which can be accessed by a general purpose or special purpose computer system. .
이하, 각 도면들을 통하여, 본 발명을 구성하는 시스템과 장치 및 방법 등에 대해서 보다 상세히 설명하기로 한다.Hereinafter, the system, apparatus and method constituting the present invention will be described in more detail through each drawing.
도 1은 본 발명의 실시 예에 따른 3D AR 객체 이미지를 실시간으로 획득할 수 있는 3D AR 객체 이미지 수집 환경의 한 예를 나타낸 도면이다.1 is a diagram showing an example of a 3D AR object image collection environment capable of acquiring 3D AR object images in real time according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시 예에 따른 3D AR 객체 이미지 수집 환경(10)은 피사체(11), 복수의 카메라(100) 및 3D AR 객체 이미지 수집 장치(200)를 포함할 수 있다. 여기서, 상기 복수의 카메라(100)는 상기 3D AR 객체 이미지 수집 장치(200)의 한 구성으로 포함될 수도 있다.Referring to FIG. 1 , a 3D AR object image collection environment 10 according to an embodiment of the present invention may include a subject 11, a plurality of cameras 100, and a 3D AR object image collection device 200. Here, the plurality of cameras 100 may be included as one component of the 3D AR object image collecting device 200 .
상기 피사체(11)는 3D AR 객체로 만들기 위한 목표가 될 수 있다. 예컨대, 상기 피사체(11)는 인물, 동물, 물건, 도구, 배경 등 다양한 타겟을 포함할 수 있다. 또는 피사체(11)는 복수의 카메라(100)에 의해 촬영되는 촬영 환경 중 적어도 일부를 포함할 수 있다.The subject 11 may be a target to be made into a 3D AR object. For example, the subject 11 may include various targets such as people, animals, objects, tools, and backgrounds. Alternatively, the subject 11 may include at least a part of a photographing environment captured by the plurality of cameras 100 .
상기 복수의 카메라(100)는 피사체(11)를 촬영할 수 있는 위치에 배치될 수 있다. 상기 복수의 카메라(100)는 적어도 피사체(11)와 관련한 RGB 이미지를 획득할 수 있는 적어도 하나의 RGB 카메라, 피사체(11)의 깊이 데이터를 획득할 수 있는 적어도 하나의 Depth 카메라를 포함할 수 있다. 상기 적어도 하나의 RGB 카메라와 상기 적어도 하나의 Depth 카메라는 동일한 피사체(11)를 촬영할 수 있도록 배치되며 촬영 거리와 촬영 각도가 지정된 범위 이내에서 동일 또는 유사하게 형성될 수 있다. The plurality of cameras 100 may be disposed at positions capable of photographing the subject 11 . The plurality of cameras 100 may include at least one RGB camera capable of obtaining an RGB image related to the subject 11 and at least one depth camera capable of obtaining depth data of the subject 11. . The at least one RGB camera and the at least one depth camera are disposed to capture the same subject 11 and may have the same or similar shooting distance and shooting angle within a specified range.
상기 3D AR 객체 이미지 수집 장치(200)는 상기 복수의 카메라(100)가 획득한 RGB 이미지 및 Depth 이미지를 실시간으로 획득하고, 획득된 실시간 이미지에 대한 타겟 객체에 대한 필터링을 수행한 후, 데이터 싱크를 거쳐 포인트 클라우드 데이터를 생성하여 제공할 수 있다. 이와 관련하여, 상기 3D AR 객체 이미지 수집 장치(200)는 카메라 인터페이스(210), 데이터 획득 모듈(220), 보정 모듈(230), 데이터 싱크 모듈(240) 및 데이터 생성 모듈(250)을 포함할 수 있다. The 3D AR object image collection device 200 acquires RGB images and depth images obtained by the plurality of cameras 100 in real time, performs filtering on a target object on the obtained real-time images, and then performs data synchronization. Point cloud data can be generated and provided through In this regard, the 3D AR object image collection device 200 may include a camera interface 210, a data acquisition module 220, a correction module 230, a data sync module 240, and a data generation module 250. can
상술한 본 발명의 3D AR 객체 이미지 수집 환경(10)에서, 복수의 카메라(100)는 3D AR 객체 이미지 수집 장치(200)의 제어 또는 상기 3D AR 객체 이미지 수집 장치(200)를 제어하는 사용자의 조작에 대응하여 활성화되고, 활성화된 복수의 카메라(100)는 피사체(11)에 대한 영상을 수집하여 3D AR 객체 이미지 수집 장치(200)에 제공할 수 있다. In the 3D AR object image collection environment 10 of the present invention described above, the plurality of cameras 100 control the 3D AR object image collection device 200 or the user who controls the 3D AR object image collection device 200 Activated in response to manipulation, the activated plurality of cameras 100 may collect images of the subject 11 and provide the collected images to the 3D AR object image collection device 200 .
도 2는 본 발명의 실시 예에 따른 3D AR 객체 이미지 수집 장치 중 카메라 인터페이스의 한 예를 나타낸 도면이다.2 is a diagram showing an example of a camera interface of a 3D AR object image collection device according to an embodiment of the present invention.
도 2를 참조하면, 상기 카메라 인터페이스(210)는 카메라 연결부(211), 구동부(212) 및 에러 핸들링부(213)를 포함할 수 있다.Referring to FIG. 2 , the camera interface 210 may include a camera connection unit 211 , a driving unit 212 and an error handling unit 213 .
상기 카메라 연결부(211)는 복수의 카메라(100)와 3D AR 객체 이미지 수집 장치(200)를 연결하는 구성을 포함할 수 있다. 예컨대, 상기 카메라 연결부(211)는 복수의 카메라(100)에 형성된 커넥터에 삽입되는 유선 케이블 및 상기 유선 케이블과 연결되는 연결 핀 또는 장치 커넥터를 포함할 수 있다. 또는, 상기 복수의 카메라(100)가 무선 통신을 통한 이미지 전달을 지원하도록 구성되는 경우 상기 카메라 연결부(211)는 복수의 카메라(100)와 무선 통신 채널을 형성할 수 있는 무선 통신 인터페이스를 포함할 수 있다. 즉, 상기 카메라 연결부(211)는 적어도 하나의 카메라와 연결될 수 있는 유선 통신 인터페이스(예: 케이블을 통한 연결) 또는 적어도 하나의 카메라와 무선 통신 채널을 형성할 수 있는 무선 통신 인터페이스를 포함할 수 있다. 상기 복수의 카메라(100)가 별도의 배터리를 포함하지 않는 경우, 상기 카메라 연결부(211)는 상기 복수의 카메라(100)에 전원을 공급할 수 있는 배선을 더 포함할 수 있다. The camera connection unit 211 may include a configuration for connecting the plurality of cameras 100 and the 3D AR object image collection device 200. For example, the camera connection part 211 may include a wired cable inserted into a connector formed in the plurality of cameras 100 and a connection pin or device connector connected to the wired cable. Alternatively, when the plurality of cameras 100 are configured to support image transfer through wireless communication, the camera connection unit 211 may include a wireless communication interface capable of forming a wireless communication channel with the plurality of cameras 100. can That is, the camera connection unit 211 may include a wired communication interface (eg, connection through a cable) that can be connected to at least one camera or a wireless communication interface that can form a wireless communication channel with at least one camera. . When the plurality of cameras 100 do not include a separate battery, the camera connection part 211 may further include a wire capable of supplying power to the plurality of cameras 100 .
상기 구동부(212)는 사용되는 카메라의 수, 세팅 값 설정 및 On/Off 제어를 담당할 수 있다. 이와 관련하여, 상기 구동부(212)는 상기 카메라 연결부(211)를 통해 복수의 카메라(100)가 연결되면, 연결된 복수의 카메라(100)와 초기 데이터 송수신을 통해 복수의 카메라(100)의 식별 정보, 각각의 카메라의 종류와 스펙 정보를 수집할 수 있다. 또한, 상기 구동부(212)는 복수의 카메라(100) 구동을 위한 어플리케이션을 구동할 수 있다. 상기 구동부(212)는 사전 정의된 설정에 따라 복수의 카메라(100)의 초기 설정을 수행하고, 사용자 조작에 따라 각각의 카메라의 세팅 값 조정을 수행할 수 있다. 상기 구동부(212)는 사용자 조작 또는 특정 어플리케이션(예: 3D AR 객체 이미지 제공 기능을 지원하는 어플리케이션) 실행에 따라 복수의 카메라(100)의 턴-온을 제어하고, 해당 어플리케이션 종료에 대응하여 복수의 카메라(100)의 턴-오프 제어를 수행할 수 있다. The driving unit 212 may be in charge of setting the number of cameras used, setting values, and controlling On/Off. In this regard, when the plurality of cameras 100 are connected through the camera connection unit 211, the driving unit 212 transmits and receives initial data with the plurality of cameras 100 connected to the identification information of the plurality of cameras 100. , the type and specification information of each camera can be collected. Also, the driving unit 212 may drive an application for driving the plurality of cameras 100 . The driving unit 212 may perform initial setting of the plurality of cameras 100 according to predefined settings and may adjust setting values of each camera according to user manipulation. The drive unit 212 controls turn-on of the plurality of cameras 100 according to user manipulation or execution of a specific application (eg, an application supporting a 3D AR object image providing function), and in response to termination of the corresponding application, a plurality of Turn-off control of the camera 100 may be performed.
상기 에러 핸들링부(213)는 상기 복수의 카메라(100)와의 물리적인 연결 또는 세팅 값 설정에서 발생하는 Error에 대한 처리를 수행할 수 있다. 이와 관련하여, 상기 카메라 인터페이스(210)는 복수의 카메라(100) 연결과 관련한 정보를 표시할 수 있는 디스플레이 또는 오디오 장치를 포함할 수 있다. 상기 에러 핸들링부(213)는 복수의 카메라(100)들의 연결에 따라 연결된 복수의 카메라(100) 리스트를 출력하고, 복수의 카메라(100) 각각의 상태(예: 초기화 완료, 복수의 카메라(100)의 설정 값들)를 출력할 수 있다. 이 과정에서, 에러 핸들링부(213)는 복수의 카메라(100) 중 정상적으로 동작하지 않은 카메라에 대한 식별 정보 에러 정보를 함께 출력할 수 있다. 에러 정보에는 에러가 발생한 카메라의 문제점이 포함될 수 있다. The error handling unit 213 may process an error occurring in physical connection with the plurality of cameras 100 or in setting a setting value. In this regard, the camera interface 210 may include a display or audio device capable of displaying information related to connection of the plurality of cameras 100 . The error handling unit 213 outputs a list of the plurality of cameras 100 connected according to the connection of the plurality of cameras 100, and the status of each of the plurality of cameras 100 (eg, initialization completed, the plurality of cameras 100 ) can be output. During this process, the error handling unit 213 may also output identification information and error information about a camera that does not operate normally among the plurality of cameras 100 . The error information may include a problem of a camera in which an error has occurred.
도 3은 본 발명의 실시 예에 따른 3D AR 객체 이미지 수집 장치 중 데이터 획득 모듈과 보정 모듈 간의 데이터 변화의 한 예를 나타낸 도면이다. 3 is a diagram showing an example of data change between a data acquisition module and a correction module in a 3D AR object image collection device according to an embodiment of the present invention.
도 3을 참조하면, 데이터 획득 모듈(220)은 사용자 조작에 따라 또는 특정 어플리케이션 실행에 따라 복수의 카메라(100) 중 적어도 RGB 이미지 및 Depth 이미지를 획득을 수행할 수 있다. 이 과정에서 데이터 획득 모듈(220)은 카메라 인터페이스(210)를 통해 연결되고 활성화된 복수의 카메라(100)에 대한 정보를 확인하고, 복수의 카메라(100)에 RGB 이미지를 획득할 수 있는 카메라 및 Depth 이미지를 획득할 수 있는 카메라가 있는지 확인할 수 있다. 상기 데이터 획득 모듈(220)은 RGB 이미지 및 Depth 이미지를 각각 획득할 수 있는 카메라가 상기 복수의 카메라(100)에 포함되어 있지 않은 경우, 에러 메시지를 카메라 인터페이스(210)의 에러 핸들링부(213)에 전달할 수 있다. 상기 에러 메시지를 수신한 에러 핸들링부(213)는 현재 연결되어 있지 않은 종류(예: RGB 카메라 또는 Depth 카메라)의 카메라의 연결 또는 턴-온을 요청하는 에러 정보를 출력할 수 있다. RGB 카메라 및 Depth 카메라가 모두 연결되고 정상적으로 RGB 이미지 및 Depth 이미지가 전달되면, 상기 데이터 획득 모듈(220)은 획득된 RGB 이미지 및 Depth 이미지 보정 모듈(230)에 전달할 수 있다. 이때, 상기 데이터 획득 모듈(220)이 전달하는 RGB 이미지 및 Depth 이미지는 피사체(11)를 포함하는 촬영 환경 전체에 대한 이미지를 포함할 수 있다.Referring to FIG. 3 , the data acquisition module 220 may acquire at least an RGB image and a depth image from among the plurality of cameras 100 according to a user's manipulation or execution of a specific application. In this process, the data acquisition module 220 checks information on the plurality of cameras 100 that are connected and activated through the camera interface 210, and the camera capable of acquiring RGB images from the plurality of cameras 100 and You can check if there is a camera capable of acquiring depth images. The data acquisition module 220 transmits an error message to the error handling unit 213 of the camera interface 210 when a camera capable of obtaining an RGB image and a depth image, respectively, is not included in the plurality of cameras 100. can be forwarded to The error handling unit 213 receiving the error message may output error information requesting connection or turn-on of a camera of a type that is not currently connected (eg, an RGB camera or a depth camera). When both the RGB camera and the depth camera are connected and the RGB image and the depth image are normally transmitted, the data acquisition module 220 may transmit the acquired RGB image and the depth image correction module 230. At this time, the RGB image and the depth image delivered by the data acquisition module 220 may include images of the entire shooting environment including the subject 11 .
상기 보정 모듈(230)은 데이터 획득 모듈(220)이 전달한 RGB 이미지 및 Depth 이미지를 기반으로, 원하는 데이터만을 획득하는 필터링을 수행할 수 있다. 이 과정에서 보정 모듈(230)은 Depth 값을 활용하여 일정 깊이에 있는 피사체들을 필터링할 수 있다. 상기 보정 모듈(230)은 일정 깊이에 있는 피사체에 대한 RGB 이미지를 별도 추출할 수 있다. 이와 관련하여, 보정 모듈(230)은 RGB 이미지에서 경계선을 기준으로 객체 구분을 수행하고, Depth 정보를 기반으로 일정 깊이의 객체를 선택적으로 필터링할 수 있다. 또는, 상기 보정 모듈(230)은 RGB 이미지 중 특정 패턴을 포함하는 객체(예: 사람의 얼굴 패턴 또는 특정 동물 패턴 등)에 대한 Depth 정보를 기반으로 해당 객체 대한 필터링을 수행할 수 있다. 즉, 보정 모듈(230)은 피사체(11) 중 적어도 일부 객체에 대한 RGB 데이터 및 Depth 데이터만을 필터링하여 획득할 수 있다. The correction module 230 may perform filtering to acquire only desired data based on the RGB image and the depth image delivered by the data acquisition module 220 . During this process, the correction module 230 may filter subjects at a certain depth by using the depth value. The correction module 230 may separately extract an RGB image of a subject at a certain depth. In this regard, the correction module 230 may perform object classification based on boundary lines in the RGB image, and selectively filter objects having a certain depth based on depth information. Alternatively, the correction module 230 may perform filtering on a corresponding object based on depth information on an object (eg, a human face pattern or a specific animal pattern) including a specific pattern among RGB images. That is, the correction module 230 may filter and obtain only RGB data and depth data of at least some of the objects 11 .
도 4는 본 발명의 실시 예에 따른 3D AR 객체 이미지 수집 장치 중 데이터 싱크 모듈 구성의 한 예를 나타낸 도면이다.4 is a diagram showing an example of a configuration of a data sync module in a 3D AR object image collection device according to an embodiment of the present invention.
도 4를 참조하면, 상기 데이터 싱크 모듈(240)은 인포 핸들러(241), 픽셀 매칭부(242) 및 제1 데이터 버퍼(243)를 포함할 수 있다.Referring to FIG. 4 , the data sync module 240 may include an info handler 241 , a pixel matching unit 242 and a first data buffer 243 .
상기 인포 핸들러(241)는 보정 모듈(230)로부터 전달된 데이터에서 Depth 데이터와 RGB 데이터를 획득할 수 있다. 이 과정에서 인포 핸들러(241)는 보정 모듈(230)로부터 Depth 데이터의 해상도 및 RGB 데이터의 해상도 정보를 함께 획득할 수 있다. 또는, 인포 핸들러(241)는 카메라 인터페이스(210)로부터 RGB 이미지를 제공한 RGB 카메라의 해상도, Depth 이미지를 제공한 Depth 카메라의 해상도 정보를 획득할 수도 있다. The info handler 241 may obtain depth data and RGB data from data transmitted from the correction module 230 . In this process, the info handler 241 may obtain resolution information of depth data and resolution of RGB data from the correction module 230 together. Alternatively, the info handler 241 may obtain the resolution information of the RGB camera that provided the RGB image and the resolution information of the depth camera that provided the depth image from the camera interface 210 .
상기 픽셀 매칭부(242)(Pixel Matcher)는 RGB 데이터의 해상도를 변경할 수 있다. 즉, 상기 픽셀 매칭부(242)는 포인트 클라우드 생성을 위해 각각 다른 해상도를 가진 RGB 정보(해상도:1920*1080)와 깊이 정보(해상도:1024*1024) 중 RGB 정보의 크기를 깊이 정보에 맞게 변환할 수 있다. 상기 픽셀 매칭부(242)는 변경된 정보를 상기 제1 데이터 버퍼(243)에 저장할 수 있다. The pixel matcher 242 (Pixel Matcher) can change the resolution of RGB data. That is, the pixel matching unit 242 converts the size of RGB information among RGB information having different resolutions (resolution: 1920*1080) and depth information (resolution: 1024*1024) to match the depth information to generate a point cloud. can do. The pixel matching unit 242 may store changed information in the first data buffer 243 .
상기 제1 데이터 버퍼(243)는 상기 픽셀 매칭부(242)가 매칭한 RGB 데이터 및 Depth 데이터를 저장할 수 있다. 여기서 저장된 RGB 데이터는 Depth 데이터의 해상도에 맞게 변환된 정보가 될 수 있다.The first data buffer 243 may store RGB data and depth data matched by the pixel matching unit 242 . The RGB data stored here may be information converted to suit the resolution of depth data.
도 5는 본 발명의 실시 예에 따른 3D AR 객체 이미지 수집 장치 중 데이터 생성 모듈의 한 예를 나타낸 도면이다.5 is a diagram showing an example of a data generation module in a 3D AR object image collection device according to an embodiment of the present invention.
도 5를 참조하면, 본 발명의 데이터 생성 모듈(250)은 제2 데이터 버퍼(251), 포인트 클라우드 생성기(252), 포인트 클라우드 데이터 버퍼(253), 비디오 출력 생성기(254), 데이터 전송기(255) 및 PLY 파일 매니저(256)를 포함할 수 있다. Referring to FIG. 5, the data generation module 250 of the present invention includes a second data buffer 251, a point cloud generator 252, a point cloud data buffer 253, a video output generator 254, and a data transmitter 255. ) and PLY file manager 256.
상기 제2 데이터 버퍼(251)는 상기 데이터 싱크 모듈(240)에 의해 Depth 데이터를 기반으로 변환된 RGB 데이터 및 상기 Depth 데이터를 제1 데이터 버퍼(243)로부터 전달 받아 임시 저장할 수 있다. 상기 제2 데이터 버퍼(251)는 저장된 데이터들(예: 해상도가 변환된 RGB 데이터 및 Depth 데이터)을 포인트 클라우드 생성기(252)에 전달할 수 있다. 이때, 제2 데이터 버퍼(251)는 포인트 클라우드 생성을 위하여, 제1 데이터 버퍼(243)에서 전달받은 데이터들을 지정된 데이터 포맷 형식(예: 포인트 클라우드 생성을 위해 정의된 포맷 형식 또는 해당 데이터의 사용 목적에 맞는 포맷 형식)으로 변환하여 저장할 수 있다. The second data buffer 251 may receive RGB data and the depth data converted based on the depth data by the data sync module 240 from the first data buffer 243 and temporarily store them. The second data buffer 251 may transmit stored data (eg, resolution-converted RGB data and depth data) to the point cloud generator 252 . At this time, the second data buffer 251 stores the data received from the first data buffer 243 in a specified data format format (eg, a format format defined for point cloud generation or the purpose of using the data) for point cloud generation. format) can be converted and saved.
상기 포인트 클라우드 생성기(252)는 상기 제2 데이터 버퍼(251)에 저장된 데이터를 기반으로 Point Cloud Data를 생성할 수 있다. 예컨대, 포인트 클라우드 생성기(252)는 제2 데이터 버퍼(251)에 저장된 데이터들에 대해 3D 공간에서 좌표를 할당하고, 할당된 좌표들에 대한 포인트 모음을 처리할 수 있다. 여기서, 포인트 클라우드 생성기(252)는 3D 데이터 구축을 위하여 포인트 클라우드에 오버레이 과정을 수행할 수 있다. The point cloud generator 252 may generate point cloud data based on data stored in the second data buffer 251 . For example, the point cloud generator 252 may allocate coordinates in a 3D space to data stored in the second data buffer 251 and process a collection of points for the allocated coordinates. Here, the point cloud generator 252 may perform an overlay process on the point cloud to build 3D data.
상기 포인트 클라우드 데이터 버퍼(253)는 상기 포인트 클라우드 생성기(252)에 의해 생성된 포인트 클라우드 데이터를 저장할 수 있다. 상기 포인트 클라우드 데이터 버퍼(253)에 저장된 데이터는 3D AR 객체 이미지에 대응하는 각각의 좌표 모음들(또는 포인트들)을 포함할 수 있다. The point cloud data buffer 253 may store point cloud data generated by the point cloud generator 252 . Data stored in the point cloud data buffer 253 may include collections of coordinates (or points) corresponding to the 3D AR object image.
상기 비디오 출력 생성기(254)는 상기 포인트 클라우드 데이터 버퍼(253)에 저장된 포인트 클라우드 데이터에 대응하는 비디오 파일을 생성하고, 생성된 비디오 파일을 저장하거나 지정된 장치에 전달할 수 있다. 상기 비디오 출력 생성기(254)에 의해 생성된 비디오는 상기 3D AR 객체 이미지의 실시간 이미지를 포함할 수 있다. 특히, 상기 비디오 출력 생성기(254)가 생성한 비디오 파일은 피사체(11)를 기준으로 일부 객체에 대한 3D AR 객체 이미지의 실시간 비디오 영상을 포함할 수 있다. The video output generator 254 may generate a video file corresponding to the point cloud data stored in the point cloud data buffer 253, and store the generated video file or transmit it to a designated device. The video generated by the video output generator 254 may include a real-time image of the 3D AR object image. In particular, the video file generated by the video output generator 254 may include real-time video images of 3D AR object images of some objects based on the subject 11 .
상기 데이터 전송기(255)는 상기 포인트 클라우드 데이터 버퍼(253)에 저장된 포인트 클라우드 데이터를 지정된 장치로 전송할 수 있다. 예컨대, 3D AR 객체 이미지 지원 기능이 화상 회의 또는 게임 등의 프로그램을 기반으로 수행되는 경우, 상기 데이터 전송기(255)는 특정 객체에 대응하는 상기 포인트 클라우드 데이터를 해당 화상 회의나 게임을 수행하는 다른 전자 장치에 전달할 수 있다. The data transmitter 255 may transmit the point cloud data stored in the point cloud data buffer 253 to a designated device. For example, when a 3D AR object image supporting function is performed based on a program such as a video conference or game, the data transmitter 255 transmits the point cloud data corresponding to a specific object to other electronic devices performing the corresponding video conference or game. can be passed to the device.
상기 PLY 파일 매니저(256)는 상기 포인트 클라우드 데이터를 기반으로 3D 폴리곤 파일을 생성할 수 있다. 상기 PLY 파일 매니저(256)는 상기 포인트 클라우드 데이터를 기반으로 피사체(11)의 적어도 일부 객체에 대응하는 다각형의 파일 형식을 정의할 수 있다. 이 과정에서 상기 PLY 파일 매니저(256)는 상기 피사체(11)의 적어도 일부에 해당하는 객체의 색상 및 투명도, 표면 법선, 텍스처 좌표 및 데이터 신뢰 값을 포함하여 다양한 속성을 저장할 수 있다. 즉, 상기 PLY 파일 매니저(256)는 상기 포인트 클라우드 데이터에 대응하는 PLY데이터 변환을 수행할 수 있다. The PLY file manager 256 may create a 3D polygon file based on the point cloud data. The PLY file manager 256 may define a polygonal file format corresponding to at least some objects of the subject 11 based on the point cloud data. In this process, the PLY file manager 256 may store various properties including color and transparency of an object corresponding to at least a part of the subject 11, surface normal, texture coordinates, and data reliability value. That is, the PLY file manager 256 may perform PLY data conversion corresponding to the point cloud data.
도 6은 본 발명의 실시 예에 따른 3D AR 객체 이미지 실시간 획득 방법의 한 예를 나타낸 도면이다.6 is a diagram illustrating an example of a method for obtaining a 3D AR object image in real time according to an embodiment of the present invention.
도 6을 참조하면, 601 단계에서, 3D AR 객체 이미지 수집 장치(200)는 RGB 카메라 및 깊이 카메라를 포함하는 복수의 카메라(100)를 활성화할 수 있다. 이 과정에서 3D AR 객체 이미지 수집 장치(200)는 사용자 조작 또는 3D AR 객체 이미지 지원 기능을 위해 설계된 어플리케이션 실행에 따라 상기 복수의 카메라(100)를 활성화할 수 있다. Referring to FIG. 6 , in step 601, the 3D AR object image collection device 200 may activate a plurality of cameras 100 including an RGB camera and a depth camera. During this process, the 3D AR object image collection device 200 may activate the plurality of cameras 100 according to user manipulation or execution of an application designed for a 3D AR object image support function.
603 단계에서, 상기 3D AR 객체 이미지 수집 장치(200)는 RGB 데이터 및 깊이 데이터를 실시간 획득할 수 있다. 이 동작에서, 상기 3D AR 객체 이미지 수집 장치(200)는 RGB 데이터 및 깊이 데이터에 대한 시간 정보도 함께 획득하여, 각 데이터들에 대한 시간 동기화를 유지할 수 있다. In step 603, the 3D AR object image collection device 200 may acquire RGB data and depth data in real time. In this operation, the 3D AR object image collection device 200 may obtain time information on RGB data and depth data together, and maintain time synchronization for each data.
605 단계에서, 상기 3D AR 객체 이미지 수집 장치(200)는 획득된 데이터들에 대한 필터링을 수행할 수 있다. 예컨대, 3D AR 객체 이미지 수집 장치(200)는 Depth 데이터를 기반으로 특정 깊이에 위치한 객체의 Depth 데이터 및 해당 깊이의 객체에 해당하는 RGB 데이터만을 필터링할 수 있다. 또는, 상기 3D AR 객체 이미지 수집 장치(200)는 RGB 이미지를 기준으로 특정 객체를 검출하고, 해당 객체에 대응하는 RGB 부분 데이터 및 해당 객체 대응하는 Depth 부분 데이터를 필터링할 수 있다. 상기 3D AR 객체 이미지 수집 장치(200)는 특정 객체 선택 이후에는, 실시간으로 획득되는 데이터들에 대하여 해당 객체에 대한 데이터들(예: RGB 부분 데이터 및 Depth 부분 데이터)을 필터링할 수 있다. In step 605, the 3D AR object image collection device 200 may perform filtering on acquired data. For example, the 3D AR object image collecting device 200 may filter only depth data of an object located at a specific depth and RGB data corresponding to an object at a corresponding depth based on the depth data. Alternatively, the 3D AR object image collection device 200 may detect a specific object based on the RGB image, and filter RGB partial data corresponding to the object and depth partial data corresponding to the object. After selecting a specific object, the 3D AR object image collecting device 200 may filter data (eg, RGB partial data and depth partial data) of the corresponding object with respect to data obtained in real time.
607 단계에서, 3D AR 객체 이미지 수집 장치(200)는 데이터 싱크를 처리할 수 있다. 예컨대, 상기 3D AR 객체 이미지 수집 장치(200)는 Depth 데이터의 해상도를 기반으로 RGB 데이터의 해상도 변환을 동기화할 수 있다. 즉, RGB 카메라가 획득한 RGB 이미지와 Depth 카메라가 획득한 Depth 이미지의 해상도는 가 카메라들의 특성에 따라 다를 수 있다. 이에 따라, 상기 3D AR 객체 이미지 수집 장치(200)는 Depth 데이터의 해상도를 기준으로 RGB 데이터의 해상도를 동기화시키는 변환 작업을 처리할 수 있다. 이때, 상기 3D AR 객체 이미지 수집 장치(200)는 필터링된 Depth 부분 데이터를 기준으로 필터링된 RGB 부분 데이터의 해상도 변환을 처리(동기화 또는 일치 작업을 처리)할 수 있다. In step 607, the 3D AR object image collection device 200 may process data sync. For example, the 3D AR object image collection device 200 may synchronize resolution conversion of RGB data based on the resolution of depth data. That is, the resolution of the RGB image acquired by the RGB camera and the depth image obtained by the depth camera may differ depending on the characteristics of the cameras. Accordingly, the 3D AR object image collection device 200 may process a conversion task of synchronizing the resolution of RGB data based on the resolution of depth data. At this time, the 3D AR object image collection device 200 may process resolution conversion (synchronization or matching operation) of the filtered RGB partial data based on the filtered depth partial data.
609 단계에서, 상기 3D AR 객체 이미지 수집 장치(200)는 포인트 클라우드 데이터 생성 및 저장을 수행할 수 있다. 이를 위하여, 3D AR 객체 이미지 수집 장치(200)는 포인트 클라우드 생성기(252)를 포함하며, 상기 포인트 클라우드 생성기(252)를 이용하여 상기 RGB 부분 데이터 및 Depth 부분 데이터를 3D 좌표들에 해당하는 포인트들로 변환하고, 변환된 포인트들의 모음 처리를 수행할 수 있다. 이 동작에서, 상기 포인트 클라우드 생성기(252)는 실시간으로 획득되는 RGB 부분 데이터 및 Depth 부분 데이터들에 대응하는 포인트 클라우드들의 오버레이를 수행하여 특정 파일(예: 비디오 파일 또는 PLY 파일)을 생성할 수도 있다. In step 609, the 3D AR object image collection device 200 may generate and store point cloud data. To this end, the 3D AR object image collection device 200 includes a point cloud generator 252, and uses the point cloud generator 252 to convert the RGB partial data and the depth partial data to points corresponding to 3D coordinates. It can be converted to , and collection processing of the converted points can be performed. In this operation, the point cloud generator 252 may generate a specific file (eg, a video file or a PLY file) by overlaying point clouds corresponding to RGB partial data and depth partial data obtained in real time. .
이상에서 설명한 바와 같이, 본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안 되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. As set forth above, this specification contains many specific implementation details, but these should not be construed as limiting on the scope of any invention or claimables, but rather may be specific to a particular embodiment of a particular invention. It should be understood as a description of the features in
또한, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 시스템 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안 되며, 설명한 프로그램 컴포넌트와 시스템들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징될 수 있다는 점을 이해하여야 한다.Further, while operations are depicted in the drawings in a specific order, it should not be understood that all illustrated operations must be performed or that those operations must be performed in the specific order shown or in sequential order to obtain desired results. In certain cases, multitasking and parallel processing can be advantageous. Further, the separation of various system components in the embodiments described above should not be understood as requiring such separation in all embodiments, and the described program components and systems are generally integrated together into a single software product or packaged into multiple software products. You have to understand that it can be.
본 기술한 설명은 본 발명의 최상의 모드를 제시하고 있으며, 본 발명을 설명하기 위하여, 그리고 통상의 기술자가 본 발명을 제작 및 이용할 수 있도록 하기 위한 예를 제공하고 있다. 이렇게 작성된 명세서는 그 제시된 구체적인 용어에 본 발명을 제한하는 것이 아니다. 따라서, 상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 통상의 기술자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다.The present description presents the best mode of the invention and provides examples to illustrate the invention and to enable those skilled in the art to make and use the invention. The specification thus prepared does not limit the invention to the specific terms presented. Therefore, although the present invention has been described in detail with reference to the above-described examples, a person skilled in the art may make alterations, changes, and modifications to the present examples without departing from the scope of the present invention.
따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위에 의해 정하여져야 한다.Therefore, the scope of the present invention should not be determined by the described embodiments, but by the claims.

Claims (9)

  1. 피사체;subject;
    상기 피사체에 대한 RGB 이미지 및 Depth 이미지를 각각 획득하는 복수의 카메라;a plurality of cameras each acquiring an RGB image and a depth image of the subject;
    상기 복수의 카메라가 실시간으로 획득한 상기 RGB 이미지 및 상기 Depth 이미지에 대한 3D AR 객체 이미지를 생성하는 3D AR 객체 이미지 수집 장치;를 포함하고, A 3D AR object image collection device for generating a 3D AR object image for the RGB image and the depth image acquired by the plurality of cameras in real time;
    상기 3D AR 객체 이미지 수집 장치는The 3D AR object image collection device
    상기 피사체 중 적어도 일부 객체에 대응하는 RGB 부분 데이터 및 상기 적어도 일부 객체 대응하는 Depth 부분 데이터를 상기 RGB 이미지 및 상기 Depth 이미지에서 필터링하고, 필터링된 상기 RGB 부분 데이터와 상기 Depth 부분 데이터를 기반으로 3D 포인트 클라우드 데이터를 생성하여 저장하는 것을 특징으로 하는 3D AR 객체 영상 실시간 획득 시스템.RGB partial data corresponding to at least some of the objects and depth partial data corresponding to the at least some objects are filtered from the RGB image and the depth image, and a 3D point is obtained based on the filtered RGB partial data and the depth partial data. A 3D AR object image real-time acquisition system, characterized in that for generating and storing cloud data.
  2. 제1항에 있어서, According to claim 1,
    상기 3D AR 객체 이미지 수집 장치는The 3D AR object image collection device
    상기 복수의 카메라 연결을 지원하고, 상기 복수의 카메라들의 연결 상태 및 상기 복수의 카메라들의 온-오프 상태를 확인하고 상기 복수의 카메라들의 구동을 제어하는 카메라 인터페이스;a camera interface that supports connection of the plurality of cameras, checks a connection state of the plurality of cameras and an on-off state of the plurality of cameras, and controls driving of the plurality of cameras;
    상기 복수의 카메라들로부터 상기 RGB 이미지 및 상기 Depth 이미지를 실시간으로 획득하는 데이터 획득 모듈;을 포함하는 것을 특징으로 하는 3D AR 객체 영상 실시간 획득 시스템.A 3D AR object image real-time acquisition system comprising a; data acquisition module for acquiring the RGB image and the depth image from the plurality of cameras in real time.
  3. 제2항에 있어서, According to claim 2,
    상기 카메라 인터페이스는The camera interface is
    상기 복수의 카메라들 중 상기 RGB 이미지 또는 상기 Depth 이미지를 제공하는 카메라의 비활성화 또는 비연결 상태를 나타내는 에러 정보를 출력하는 것을 특징으로 하는 3D AR 객체 영상 실시간 획득 시스템.3D AR object image real-time acquisition system, characterized in that for outputting error information indicating an inactive or unconnected state of a camera providing the RGB image or the depth image among the plurality of cameras.
  4. 제1항에 있어서, According to claim 1,
    상기 3D AR 객체 이미지 수집 장치는The 3D AR object image collection device
    상기 RGB 이미지에서 선택된 특정 객체에 대응하는 상기 RGB 부분 데이터 및 상기 특정 객체 대응하는 상기 Depth 부분 데이터를 필터링하거나,filtering the RGB partial data corresponding to a specific object selected from the RGB image and the depth partial data corresponding to the specific object;
    상기 Depth 이미지 중 특정 깊이에 위치한 객체에 해당하는 상기 Depth 부분 데이터 및 상기 특정 깊이의 객체 해당하는 상기 RGB 부분 데이터를 필터링하는 보정 모듈;을 포함하는 것을 특징으로 하는 3D AR 객체 영상 실시간 획득 시스템.A 3D AR object image real-time acquisition system comprising: a correction module for filtering the depth part data corresponding to an object located at a specific depth and the RGB part data corresponding to an object of the specific depth among the depth images.
  5. 제4항에 있어서, According to claim 4,
    상기 3D AR 객체 이미지 수집 장치는The 3D AR object image collection device
    상기 Depth 부분 데이터의 해상도를 기준으로 상기 RGB 부분 데이터의 해상도를 변환하여 상기 Depth 부분 데이터의 해상도와 상기 RGB 부분 데이터의 해상도를 일치시키는 데이터 싱크 모듈;을 포함하는 것을 특징으로 하는 3D AR 객체 영상 실시간 획득 시스템.and a data sync module for converting the resolution of the RGB partial data based on the resolution of the depth partial data and matching the resolution of the depth partial data with the resolution of the RGB partial data. acquisition system.
  6. 3D AR 객체 영상 실시간 획득을 지원하는 3D AR 객체 이미지 수집 장치를 운용하는 방법에 있어서, In the method of operating a 3D AR object image collection device supporting real-time acquisition of 3D AR object images,
    상기 3D AR 객체 이미지 수집 장치가, 복수의 카메라로부터 피사체에 대한 RGB 이미지 및 Depth 이미지를 획득하는 단계;obtaining, by the 3D AR object image collection device, RGB images and depth images of a subject from a plurality of cameras;
    상기 피사체 중 적어도 일부 객체에 대응하는 RGB 부분 데이터 및 상기 적어도 일부 객체 대응하는 Depth 부분 데이터를 상기 RGB 이미지 및 상기 Depth 이미지에서 필터링하는 단계;filtering RGB partial data corresponding to at least some objects among the subjects and depth partial data corresponding to the at least some objects from the RGB image and the depth image;
    상기 필터링된 상기 RGB 부분 데이터와 상기 Depth 부분 데이터를 기반으로 3D 포인트 클라우드 데이터를 생성하여 저장하는 단계;를 포함하는 것을 특징으로 하는 3D AR 객체 이미지 수집 장치의 운용 방법.A method of operating a 3D AR object image collection device comprising: generating and storing 3D point cloud data based on the filtered RGB partial data and the depth partial data.
  7. 제6항에 있어서, According to claim 6,
    상기 복수의 카메라들 중 상기 RGB 이미지 또는 상기 Depth 이미지를 제공하는 카메라의 비활성화 또는 비연결 상태를 확인하는 단계;Checking a deactivated or unconnected state of a camera providing the RGB image or the depth image among the plurality of cameras;
    상기 카메라의 비활성화 또는 비연결 상태에 대응하는 에러 정보를 출력하는 단계;를 더 포함하는 것을 특징으로 하는 3D AR 객체 이미지 수집 장치의 운용 방법.The operation method of the 3D AR object image collection device, characterized in that it further comprises; outputting error information corresponding to the inactive or unconnected state of the camera.
  8. 제6항에 있어서, According to claim 6,
    상기 필터링하는 단계는The filtering step is
    상기 RGB 이미지에서 선택된 특정 객체에 대응하는 상기 RGB 부분 데이터 및 상기 특정 객체 대응하는 상기 Depth 부분 데이터를 필터링하는 단계; 또는filtering the RGB partial data corresponding to a specific object selected from the RGB image and the depth partial data corresponding to the specific object; or
    상기 Depth 이미지 중 특정 깊이에 위치한 객체에 해당하는 상기 Depth 부분 데이터 및 상기 특정 깊이의 객체 해당하는 상기 RGB 부분 데이터를 필터링하는 단계;를 포함하는 것을 특징으로 하는 3D AR 객체 이미지 수집 장치의 운용 방법.Filtering the depth part data corresponding to an object located at a specific depth and the RGB part data corresponding to an object of the specific depth among the depth images; Operating method of a 3D AR object image collection device comprising:.
  9. 제8항에 있어서, According to claim 8,
    상기 Depth 부분 데이터의 해상도를 기준으로 상기 RGB 부분 데이터의 해상도를 변환하여 상기 Depth 부분 데이터의 해상도와 상기 RGB 부분 데이터의 해상도를 일치시키는 단계;를 더 포함하는 것을 특징으로 하는 3D AR 객체 이미지 수집 장치의 운용 방법.The 3D AR object image collection device further comprising a step of converting the resolution of the RGB partial data based on the resolution of the depth partial data and matching the resolution of the depth partial data with the resolution of the RGB partial data. How to operate.
PCT/KR2021/017527 2021-10-27 2021-11-25 System for acquiring 3d ar object image in real time, and operating method therefor WO2023074999A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0144555 2021-10-27
KR1020210144555A KR102539827B1 (en) 2021-10-27 2021-10-27 Realtime collecting System for 3D Augmented Reality Object image and operating method thereof

Publications (1)

Publication Number Publication Date
WO2023074999A1 true WO2023074999A1 (en) 2023-05-04

Family

ID=86160051

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/017527 WO2023074999A1 (en) 2021-10-27 2021-11-25 System for acquiring 3d ar object image in real time, and operating method therefor

Country Status (2)

Country Link
KR (1) KR102539827B1 (en)
WO (1) WO2023074999A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157606A (en) * 2000-11-17 2002-05-31 Canon Inc Image display controller, composite reality presentation system, image display control method, and medium providing processing program
KR20190105458A (en) * 2018-03-05 2019-09-17 한국전자통신연구원 Holograms reconstruction method
KR20190133867A (en) * 2018-05-24 2019-12-04 (주)네모랩스 System for providing ar service and method for generating 360 angle rotatable image file thereof
KR102113812B1 (en) * 2014-09-19 2020-05-22 한국전자통신연구원 Apparatus and method for implementing immersive augmented reality with RGB-D data
KR20200136432A (en) * 2018-05-18 2020-12-07 이베이 인크. Physical object boundary detection technologies and systems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157606A (en) * 2000-11-17 2002-05-31 Canon Inc Image display controller, composite reality presentation system, image display control method, and medium providing processing program
KR102113812B1 (en) * 2014-09-19 2020-05-22 한국전자통신연구원 Apparatus and method for implementing immersive augmented reality with RGB-D data
KR20190105458A (en) * 2018-03-05 2019-09-17 한국전자통신연구원 Holograms reconstruction method
KR20200136432A (en) * 2018-05-18 2020-12-07 이베이 인크. Physical object boundary detection technologies and systems
KR20190133867A (en) * 2018-05-24 2019-12-04 (주)네모랩스 System for providing ar service and method for generating 360 angle rotatable image file thereof

Also Published As

Publication number Publication date
KR20230060596A (en) 2023-05-08
KR102539827B1 (en) 2023-06-08

Similar Documents

Publication Publication Date Title
WO2016027930A1 (en) Portable device and method for controlling the same
CN104583982B (en) Medical assistance system and method for same
WO2016048020A1 (en) Image generating apparatus and method for generation of 3d panorama image
WO2020197115A2 (en) Intraoral scanner cradle having processor embedded therein and intraoral scanner system comprising same
WO2015102126A1 (en) Method and system for managing electronic album using face recognition technology
WO2023074999A1 (en) System for acquiring 3d ar object image in real time, and operating method therefor
WO2014003509A1 (en) Apparatus and method for displaying augmented reality
WO2021137555A1 (en) Electronic device comprising image sensor and method of operation thereof
WO2019098421A1 (en) Object reconstruction device using motion information and object reconstruction method using same
WO2011071313A2 (en) Apparatus and method for extracting a texture image and a depth image
WO2018110810A1 (en) Vr content creation system
WO2019103193A1 (en) System and method for acquiring 360 vr image in game using distributed virtual camera
WO2017213335A1 (en) Method for combining images in real time
WO2024080438A1 (en) Real-time 3d ar object acquisition device, system, and method
WO2020101431A1 (en) Method for rendering three-dimensional image, image processing device using said method, image capturing device interworking with said image processing device, method for capturing image by said image capturing device, and system for rendering three-dimensional image
WO2017086522A1 (en) Method for synthesizing chroma key image without requiring background screen
WO2020085571A1 (en) Image converting apparatus and system for generating 360 vr image in real time
WO2023085492A1 (en) Method for supporting 3d space map for ar content using kinect devices, and electronic device supporting same
KR20000042653A (en) Apparatus and method for processing snap shot of usb camera
WO2011007970A1 (en) Method and apparatus for processing image
WO2017209468A1 (en) Chroma-key synthesizing system and method for providing three dimensional stereoscopic effects
CN207753797U (en) Video delivery system and cable
WO2018034375A1 (en) Device and method for processing image signal by using object recognition technique
WO2023224169A1 (en) Three-dimensional skeleton estimation system and three-dimensional skeleton estimation method
CN113630592A (en) Augmented reality allopatric co-demonstration system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21962622

Country of ref document: EP

Kind code of ref document: A1