KR102067823B1 - Method and apparatus for operating 2d/3d augument reality technology - Google Patents

Method and apparatus for operating 2d/3d augument reality technology Download PDF

Info

Publication number
KR102067823B1
KR102067823B1 KR1020180011055A KR20180011055A KR102067823B1 KR 102067823 B1 KR102067823 B1 KR 102067823B1 KR 1020180011055 A KR1020180011055 A KR 1020180011055A KR 20180011055 A KR20180011055 A KR 20180011055A KR 102067823 B1 KR102067823 B1 KR 102067823B1
Authority
KR
South Korea
Prior art keywords
information
content
video image
image information
sensor
Prior art date
Application number
KR1020180011055A
Other languages
Korean (ko)
Other versions
KR20190062102A (en
Inventor
김호원
한병옥
정유구
김재환
이지형
박창준
이길행
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US15/888,936 priority Critical patent/US10417829B2/en
Publication of KR20190062102A publication Critical patent/KR20190062102A/en
Application granted granted Critical
Publication of KR102067823B1 publication Critical patent/KR102067823B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 비디오 영상기반 2D/3D AR 실감체험 방법 및 장치에 관한 것이다. 특히, 본 발명은 2D 비디오영상과 대응되는 3D 정보를 동시에 활용하여 2개의 서로 다른 센서시점에서 촬영되고 체험자와 AR 콘텐츠내 정합대상의 3D 공간배치가 다른 2D/3D 콘텐츠를 체험자의 동적 3D 공간배치와 서비스 센서 시점의 동적 변화에 대응하여 고품질의 증강현실 기반의 AR 서비스를 제공하는 방법을 제공한다.The present invention relates to a video image based 2D / 3D AR sensory experience method and apparatus. Particularly, the present invention is a dynamic 3D spatial arrangement of a 2D / 3D content photographed at two different sensor viewpoints using different 3D information corresponding to a 2D video image, and having different 3D spatial arrangements of a matcher in the AR content. And a method for providing high quality AR-based AR services in response to dynamic changes in service sensor viewpoints.

Description

비디오 영상기반 2D/3D AR 실감체험 방법 및 장치 {METHOD AND APPARATUS FOR OPERATING 2D/3D AUGUMENT REALITY TECHNOLOGY} Video image based 2D / 3D AR realistic experience method and device {METHOD AND APPARATUS FOR OPERATING 2D / 3D AUGUMENT REALITY TECHNOLOGY}

본 발명은 증강현실(Augmented Reality: AR) 기술을 이용하여 증강현실 지원 스마트 단말 또는 대형 거울형 TV 패널 등을 통해 증강현실 디스플레이를 수행하는 방법에 관한 것이다. 구체적으로, 증강현실 디스플레이를 통해 스타와 같은 유명인과 가상으로 사진을 촬영하거나 실감 있는 상호작용(Interaction)을 체험할 수 있는 방법에 관한 것이다.The present invention relates to a method for performing augmented reality display through an augmented reality support smart terminal or a large mirror TV panel using augmented reality (AR) technology. In detail, the present invention relates to a method of virtually photographing a celebrity such as a star or experiencing a realistic interaction through an augmented reality display.

증강현실(Augmented Reality: AR) 기술을 이용해 증강현실 디스플레이를 통해 스타와 같은 유명인과 가상으로 사진을 촬영하거나 실감 있는 상호작용(Interaction)을 체험할 수 있는 종래의 AR 서비스 방법은 AR 콘텐츠 내 체험자와 상호작용하고 증강합성의 대상이 되는 AR 콘텐츠의 처리방식에 따라 크게 3D(Three-Dimensional) 방식과 2D(Two-Dimensional) 방식을 고려할 수 있다.Conventional AR service method that can take a photo or experience realistic interaction with celebrities such as stars through augmented reality display using Augmented Reality (AR) technology, Three-Dimensional (2D) and Two-Dimensional (2D) methods can be considered depending on the processing method of AR content that is interactive and augmented.

이때, AR 콘텐츠는 체험자의 AR 실감체험을 위해 사전에 제작된 콘텐츠로 스타와 사진촬영 등의 체험자가 체험하게 될 스타 등의 사진이나 비디오 혹은 3D캐릭터와 모션정보 등을 포함할 수 있다. AR 서비스는 라이브로 입력되는 체험자의 영상, 비디오 상에 체험자 또는 체험자가 위치한 주변 공간인식을 통해 AR 콘텐츠를 증강 합성하여 체험자에게 실감체험을 제공하는 서비스일 수 있다.In this case, the AR content may be a content prepared in advance for the AR experience of the experiencer, and may include a picture or a video of a star or a 3D character and motion information such as a star that the experienced person, such as photographing, will experience. The AR service may be a service that provides a hands-on experience to an experienced user by augmenting and synthesizing AR content through an image of a user who is input live and video of the experienced person or by surrounding space recognition.

먼저, 3D 접근방법은 주로 애니메이션 캐릭터 등과 같이 컴퓨터 그래픽스 기술을 이용해 마야(Maya)와 같은 3D 저작도구로 만들어 낸 3D 캐릭터를 증강 합성하고 체험자의 3D 정보와 상호작용하는 방식을 사용하고 있다. 상술한 방법은 키넥트(Kinect) 등과 같은 사용자의 위치나 자세 등의 체험자의 3D 정보를 실시간 제공하는 센서와 결합할 경우에 실시간 3D 상호작용 처리가 용이할 수 있다. 또한, 디지털 공간의 3D 캐릭터이므로 AR서비스를 위해 사용하는 3D 모델링(Modeling), 캐릭터 리깅(Rigging) 및 3D 렌더링(Rendering) 품질에 따라 기존 캐릭터가 등장하는 디지털 콘텐츠와 동일한 품질의 사실적인 AR 실감체험을 제공할 수 있다. First, the 3D approach mainly uses computer graphics technology such as animation characters to augment and synthesize 3D characters created by 3D authoring tools such as Maya and interact with the 3D information of the experienced person. The above-described method may facilitate the real-time 3D interaction processing when combined with a sensor that provides real-time 3D information of the user, such as the location or posture of the user, such as Kinect. In addition, since it is a 3D character in the digital space, it experiences realistic AR experience with the same quality as the existing digital content, depending on the 3D modeling, character rigging, and 3D rendering quality used for the AR service. Can be provided.

다만, 상술한 방법에 기초하여 실존 인물(e.g K-Pop 스타)과의 AR 서비스를 위해서는 3D 스캔이나 3D 모델링을 통해 실존인물의 3D 아바타를 3D 저작도구를 통해 생성해야 한다. 이러한 3D 아바타 생성은 많은 작업시간을 요구하며 3D 정밀형상 표현이나 표정, 헤어스타일 등의 많은 요소들에 대한 3D 모델링(Modeling), 캐릭터 리깅(Rigging), 3D 렌더링(Rendering) 등의 3D 디지털화 과정의 기술적 제약사항으로 인해 사실적인 증강합성이 어려운 한계가 있다.However, based on the above-described method, for the AR service with the real person (e.g K-Pop star), the 3D avatar of the real person must be generated through the 3D authoring tool through 3D scanning or 3D modeling. Creating 3D avatars requires a lot of work time, and the 3D digitization process such as 3D modeling, character rigging, and 3D rendering of many elements such as 3D precise shape expression, facial expression, and hairstyle Due to technical constraints, realistic augmentation synthesis is difficult.

또한, 2D 접근방법에서는 AR 서비스에 사용될 증강합성 대상에 대해 실존 인물 또는 배경에 대해 비디오 촬영을 수행할 수 있다. 이때, 크로마키 기법 등을 통해 증강대상 부분에 대한 분리를 한 2D 비디오를 사전에 정해진 체험자의 체험위치를 기준으로 전면 또는 후면 등의 특정 레이어(Layer)에 단순 영상 합성하여 AR 서비스를 제공할 수 있다. 일 예로, 현재 체험형 테마파크에 많이 적용된 방법일 수 있다. 이러한 방법은 상술한 실제 인물(e.g. K-Pop 스타)에 대한 촬영 영상을 그대로 AR 콘텐츠에서 정해진 위치에 영상 합성하므로 체험자 관점에서 디스플레이를 통해 서비스되는 증강대상의 사실성은 높을 수 있다. 다만, 체험자와의 3D 상호작용은 어려운 한계가 있다. 또한, AR 콘텐츠 촬영 시의 카메라의 위치와 AR 서비스시의 카메라의 위치가 동일하고 AR 증강합성 대상의 위치와 체험자의 위치가 사전에 정의된 콘텐츠 시나리오 상의 위치를 모두 충족했을 때에만 최상의 AR 실감체험이 가능할 수 있다. 즉, 2D 접근방법을 취하는 대부분의 AR 콘텐츠는 체험자의 동작이나 위치에 관계없이 콘텐츠 제작 당시에 정해진 위치와 스토리로 서비스가 전개되어 체험자가 콘텐츠의 흐름에 맞게 스스로의 위치나 자세를 맞춰야 하는 한계가 있다.In addition, in the 2D approach, video recording may be performed on an existing person or a background of an augmented synthetic object to be used for an AR service. In this case, the AR service can be provided by simply synthesizing 2D video separated from the augmented target part using a chroma key technique to a specific layer such as the front or the rear based on a predetermined experience position of the experienced person. have. For example, it may be a method applied to a current experience-type theme park. In this method, since the captured image of the above-described real person (e.g. K-Pop star) is synthesized as it is in the predetermined position in the AR content, the reality of the augmented target serviced through the display may be high from the experience point of view. However, 3D interaction with the experiencer has a difficult limitation. In addition, the best AR experience can only be achieved when the camera location during AR content shooting and the camera location during AR service are the same, and the location of the AR augmented synthesis target and the experiencer's location meet all the positions in the predefined content scenario. This may be possible. In other words, most AR contents that take a 2D approach have a limitation that the experiencer must adjust its position or posture according to the flow of content because the service is deployed with the location and story determined at the time of content creation regardless of the experience or location of the experiencer. .

본 발명은 비디오 영상기반 AR 실감체험 방법 및 장치를 제공하는데 목적이 있다.An object of the present invention is to provide a video image-based AR experience experience method and apparatus.

본 발명은 비디오 영상기반 2D/3D AR 실감체험 방법 및 장치를 제공하는데 목적이 있다.An object of the present invention is to provide a video image-based 2D / 3D AR sensory experience method and apparatus.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned above will be clearly understood by those skilled in the art from the following description. Could be.

본 발명의 일 실시예에 따라, 증간현실(Augmented Reality, AR) 서비스 제공 방법을 제공할 수 있다. 이때, AR 서비스 제공 방법은 제 1 대상(Object)에 대한 3D 정보 및 2D 비디오 영상 정보를 획득하는 단계, 제 1 대상에 기초하여 AR 콘텐츠의 2D 비디오 영상 정보 및 3D 상호 작용 정보를 획득하는 단계, 제 1 대상에 대한 2D 비디오 영상 정보 및 AR 콘텐츠의 2D 비디오 영상 정보를 결합하는 단계 및 결합된 2D 비디오 영상을 출력하는 단계를 포함할 수 있다. 이때, 제 1 대상에 대한 3D 정보 및 2D 비디오 영상 정보에 기초하여 제 1 대상의 3D 공간 정보를 결정하고, AR 콘텐츠의 3D 공간 정보를 제 1 대상의 결정된 3D 공간 정보에 따라 조정하고, AR 콘텐츠의 2D 비디오 영상 정보는 조정된 AR 콘텐츠의 3D 공간 정보에 기초하여 제 1 대상에 대한 2D 비디오 영상 정보와 결합될 수 있다.According to an embodiment of the present invention, an Augmented Reality (AR) service providing method may be provided. In this case, the AR service providing method may include acquiring 3D information and 2D video image information about a first object, acquiring 2D video image information and 3D interaction information of AR content based on the first object, Combining the 2D video image information and the 2D video image information of the AR content with respect to the first object, and outputting the combined 2D video image. In this case, 3D spatial information of the first object is determined based on 3D information and 2D video image information of the first object, 3D spatial information of the AR content is adjusted according to the determined 3D spatial information of the first object, and the AR content. The 2D video image information may be combined with the 2D video image information for the first object based on the 3D spatial information of the adjusted AR content.

또한, 본 발명의 일 실시예에 따라, AR 서비스를 제공하는 장치를 제공할 수 있다. 이때, AR 서비스를 제공하는 장치는 라이브 RGBD 처리부, AR 콘텐츠 처리부, 3D 상호작용 처리부 및 AR 렌더링 처리부를 포함할 수 있다. 이때, 라이브 RGBD 처리부를 통해 제 1 대상(Object)에 대한 3D 정보 및 2D 비디오 영상 정보를 획득하되, 제 1 대상에 대한 3D 정보 및 2D 비디오 영상 정보에 기초하여 제 1 대상의 3D 공간 정보가 결정되고, AR 콘텐츠 처리부를 통해 AR 콘텐츠의 2D 비디오 영상 정보 및 3D 상호 작용 정보를 획득하되, AR 콘텐츠의 3D 공간 정보를 제 1 대상의 결정된 3D 공간 정보에 따라 조정하고, AR 렌더링 처리부를 통해 제 1 대상에 대한 2D 비디오 영상 정보 및 AR 콘텐츠의 2D 비디오 영상 정보를 결합하되, AR 콘텐츠의 2D 비디오 영상 정보는 조정된 AR 콘텐츠의 3D 공간 정보에 기초하여 제 1 대상에 대한 2D 비디오 영상 정보와 결합될 수 있다.In addition, according to an embodiment of the present invention, an apparatus for providing an AR service may be provided. In this case, the apparatus for providing an AR service may include a live RGBD processor, an AR content processor, a 3D interaction processor, and an AR rendering processor. At this time, the 3D information and the 2D video image information of the first object are obtained through the live RGBD processing unit, and the 3D spatial information of the first object is determined based on the 3D information and the 2D video image information of the first object. And acquire 2D video image information and 3D interaction information of the AR content through the AR content processor, adjust 3D spatial information of the AR content according to the determined 3D spatial information of the first object, and adjust the first through the AR rendering processor. The 2D video image information of the AR content and the 2D video image information of the AR content are combined, wherein the 2D video image information of the AR content is combined with the 2D video image information of the first object based on the 3D spatial information of the adjusted AR content. Can be.

이때, 본 발명의 일 실시예에 따라, 라이브 RGBD 입력 센서 및 AR 콘텐츠부가 서로 다른 센서를 사용하는 경우, 제 1 대상의 3D 정보 및 2D 비디오 영상 정보는 라이브 RGBD 입력 센서 좌표계에 기초하여 획득되고, AR 콘텐츠의 2D 비디오 영상 정보 및 3D 상호 작용 정보는 AR 콘텐츠부 좌표계에 기초하여 획득될 수 있다.In this case, according to an embodiment of the present invention, when the live RGBD input sensor and the AR content unit use different sensors, the 3D information and the 2D video image information of the first object are obtained based on the live RGBD input sensor coordinate system. 2D video image information and 3D interaction information of the AR content may be obtained based on the AR content unit coordinate system.

또한, 본 발명의 일 실시예에 따라, 라이브 RGBD 입력 센서 좌표계 및 AR 콘텐츠부 좌표계는 동일한 체험공간 좌표계로 변환되고, 체험공간 좌표계에 기초하여 AR 콘텐츠의 3D 공간 정보가 제 1 대상의 3D 공간 정보에 따라 조정될 수 있다.Further, according to an embodiment of the present invention, the live RGBD input sensor coordinate system and the AR content unit coordinate system are converted into the same experience space coordinate system, and 3D space information of the AR content is based on the experience space coordinate system. Can be adjusted accordingly.

또한, 본 발명의 일 실시예에 따라, 라이브 RGBD 입력 센서 좌표계 및 AR 콘텐츠부 좌표계는 동일한 체험공간 좌표계로 변환되고, 체험공간 좌표계에 기초하여 AR 콘텐츠의 3D 공간 정보가 제 1 대상의 3D 공간 정보에 따라 조정될 수 있다.Further, according to an embodiment of the present invention, the live RGBD input sensor coordinate system and the AR content unit coordinate system are converted into the same experience space coordinate system, and 3D space information of the AR content is based on the experience space coordinate system. Can be adjusted accordingly.

또한, 본 발명의 일 실시예에 따라, AR 서비스를 제공하는 장치를 제공할 수 있다. 이때, AR 서비스를 제공하는 장치는 라이브 RGBD 입력센서부, AR 콘텐츠부,In addition, according to an embodiment of the present invention, an apparatus for providing an AR service may be provided. In this case, the device providing the AR service is a live RGBD input sensor unit, AR content unit,

AR 실감체험 처리부 및 디스플레이부를 포함할 수 있다. 이때, AR 실감체험 처리부는 라이브 RGBD 입력센서부로부터 제 1 대상(Object)에 대한 3D 정보 및 2D 비디오 영상 정보를 획득하되, 제 1 대상에 대한 3D 정보 및 2D 비디오 영상 정보에 기초하여 제 1 대상의 3D 위치가 결정되고, AR 실감체험 처리부는 AR 콘텐츠부로부터 AR 콘텐츠의 2D 비디오 영상 정보 및 3D 상호 작용 정보를 획득하되, AR 콘텐츠의 3D 공간 정보를 제 1 대상의 결정된 3D 공간 정보에 따라 조정하고, AR 실감체험 처리부는 제 1 대상에 대한 2D 비디오 영상 정보 및 AR 콘텐츠의 2D 비디오 영상 정보를 결합하되, AR 콘텐츠의 2D 비디오 영상 정보는 조정된 AR 콘텐츠의 3D 공간 정보에 기초하여 제 1 대상에 대한 2D 비디오 영상 정보와 결합되고, 디스플레이부는 결합된 2D 비디오 영상 정보를 출력할 수 있다.It may include an AR experience processing unit and a display unit. In this case, the AR sensory experience processing unit obtains 3D information and 2D video image information on the first object from the live RGBD input sensor unit, and based on the 3D information and the 2D video image information on the first object. The 3D position of the 3D position is determined, and the AR sensory experience processing unit obtains 2D video image information and 3D interaction information of the AR content from the AR content unit, and adjusts the 3D spatial information of the AR content according to the determined 3D spatial information of the first object. The AR experience processing unit combines the 2D video image information of the AR content and the 2D video image information of the AR content, wherein the 2D video image information of the AR content is based on the adjusted 3D spatial information of the AR content. The 2D video image information is combined with the display unit, and the display unit may output the combined 2D video image information.

이하의 사항들은 AR 서비스를 제공하는 방법 및 장치에 대해서 동일하게 적용될 수 있다.The following items may be equally applied to a method and an apparatus for providing an AR service.

본 발명의 일 실시예에 따르면, 제 1 대상의 3D 공간 정보는 제 1 대상의 3D 위치, 자세, 각도, 방향, 크기 중 적어도 어느 하나 이상을 포함하고, AR 콘텐츠의 3D 공간 정보는 AR 콘텐츠의 3D 위치, 자세, 각도, 방향, 크기 중 적어도 어느 하나 이상을 포함할 수 있다.According to an embodiment of the present invention, the 3D spatial information of the first object includes at least one or more of a 3D position, attitude, angle, direction, and size of the first object, and the 3D spatial information of the AR content is determined by the AR content. It may include at least one of the 3D position, posture, angle, direction, size.

이때, 본 발명의 일 실시예에 따르면, 제 1 대상에 대한 정보를 획득하는 제 1 센서의 환경 정보와 AR 콘텐츠에 대한 정보를 획득하는 제 2 센서의 환경 정보가 서로 상이한 경우, AR 콘텐츠의 3D 공간 정보를 제 1 대상의 결정된 3D 공간 정보에 따라 조정할 수 있다.At this time, according to an embodiment of the present invention, when the environmental information of the first sensor for obtaining information on the first object and the environmental information of the second sensor for obtaining information on the AR content are different from each other, 3D of the AR content The spatial information may be adjusted according to the determined 3D spatial information of the first object.

또한, 본 발명의 일 실시예에 따르면, 제 1 센서의 환경 정보는 제 1 센서가 제 1 대상에 대한 정보를 획득할 때의 위치, 각도, 방향 및 거리 정보 중 적어도 어느 하나 이상을 포함하고, 제 2 센서의 환경 정보는 제 2 센서가 AR 콘텐츠에 대한 정보를 획득할 때의 위치, 각도, 방향 및 거리 정보 중 적어도 어느 하나 이상을 포함할 수 있다.In addition, according to an embodiment of the present invention, the environmental information of the first sensor includes at least one or more of the position, angle, direction and distance information when the first sensor obtains information about the first object, The environment information of the second sensor may include at least one of position, angle, direction, and distance information when the second sensor acquires information on the AR content.

본 발명의 일 실시예에 따르면, AR 콘텐츠의 3D 상호 작용 정보에 기초하여 제 1 대상에 대한 3D 상호 작용 서비스를 제공할 수 있다.According to an embodiment of the present invention, the 3D interaction service for the first object may be provided based on the 3D interaction information of the AR content.

이때, 본 발명의 일 실시예에 따르면, 3D 상호 작용 서비스는 결합된 2D 비디오 영상과 연동되어 제공되는 서비스일 수 있다.In this case, according to an embodiment of the present invention, the 3D interaction service may be a service provided in association with the combined 2D video image.

또한, 본 발명의 일 실시예에 따르면, 제 1 대상에 대한 3D 정보는 뎁스(Depth) 영상 및 스켈레톤(Skeleton) 정보 중 적어도 어느 하나 이상에 기초하여 획득되는 정보일 수 있다.In addition, according to an embodiment of the present invention, the 3D information on the first object may be information obtained based on at least one or more of a depth image and skeleton information.

이때, 본 발명의 일 실시예에 따르면, 제 1 센서 및 제 2 센서가 서로 다른 센서인 경우, 제 1 대상의 3D 정보 및 2D 비디오 영상 정보는 제 1 좌표계에 기초하여 획득되고, AR 콘텐츠의 2D 비디오 영상 정보 및 3D 상호 작용 정보는 제 2 좌표계에 기초하여 획득될 수 있다.In this case, according to an embodiment of the present invention, when the first sensor and the second sensor are different sensors, the 3D information and the 2D video image information of the first object are obtained based on the first coordinate system, and the 2D of the AR content. Video image information and 3D interaction information may be obtained based on the second coordinate system.

이때, 본 발명의 일 실시예에 따르면, 제 1 좌표계 및 제 2 좌표계는 동일한 제 3 좌표계로 변환되고, 제 1 대상의 3D 공간 정보 및 AR 콘텐츠의 3D 공간 정보는 제 3 좌표계에 기초하여 결정될 수 있다.In this case, according to an embodiment of the present invention, the first coordinate system and the second coordinate system are converted into the same third coordinate system, and the 3D spatial information of the first object and the 3D spatial information of the AR content may be determined based on the third coordinate system. have.

또한, 본 발명의 일 실시예에 따르면, 제 1 대상의 3D 공간 정보에 기초하여 조정선을 생성하고, 생성된 조정선에 기초하여 AR 콘텐츠의 3D 공간 정보를 조정할 수 있다.According to an embodiment of the present invention, an adjustment line may be generated based on the 3D spatial information of the first object, and the 3D spatial information of the AR content may be adjusted based on the generated adjustment line.

이때, 본 발명의 일 실시예에 따르면, 제 1 대상의 3D 공간 정보가 업데이트되는 경우, AR 콘텐츠의 3D 공간 정보는 제 1 대상의 업데이트된 3D 공간 정보에 기초하여 자동으로 업데이트될 수 있다.In this case, according to an embodiment of the present invention, when the 3D spatial information of the first object is updated, the 3D spatial information of the AR content may be automatically updated based on the updated 3D spatial information of the first object.

이때, 본 발명의 일 실시예에 따르면, 제 1 대상에 대한 2D 비디오 영상 정보 및 AR 콘텐츠의 2D 비디오 영상 정보를 결합하는 단계는 제 1 대상에 대한 2D 비디오 영상 정보의 깊이 정보 및 AR 콘텐츠의 2D 비디오 영상 정보의 깊이 정보에 기초하여 증강합성되는 단계를 포함할 수 있다.At this time, according to an embodiment of the present invention, the step of combining the 2D video image information and the AR content of the 2D video image information for the first object is the depth information of the 2D video image information and the 2D AR content of the first object And augmenting synthesis based on depth information of the video image information.

이때, 본 발명의 일 실시예에 따르면, 제 1 대상에 대한 2D 비디오 영상 정보 및 AR 콘텐츠의 2D 비디오 영상 정보는 상호 가림(Occlusion) 및 가시성(Visibility)를 고려하여 증강합성될 수 있다.In this case, according to an embodiment of the present invention, the 2D video image information of the first object and the 2D video image information of the AR content may be augmented and synthesized in consideration of occlusion and visibility.

또한, 본 발명의 일 실시예에 따르면, 결합된 2D 비디오 영상은 HMD(Head Mounted Display)를 통해 디스플레이될 수 있다.In addition, according to an embodiment of the present invention, the combined 2D video image may be displayed through a head mounted display (HMD).

본 발명에 따르면, 2D 접근방법을 기반으로 AR 서비스를 위한 증강 합성 대상의 AR 콘텐츠 촬영 시에 깊이 영상 정보를 추가로 획득할 수 있다.According to the present invention, depth image information may be additionally acquired at the time of capturing AR content of an augmented synthesis target for an AR service based on a 2D approach.

본 발명에 따르면, 깊이 정보를 기반으로 증강합성 대상의 3D 정보를 추가 처리하는 방법을 제공할 수 있다.According to the present invention, it is possible to provide a method of additionally processing 3D information of an augmented synthesis object based on depth information.

본 발명에 따르면, 2D 및 3D AR 콘텐츠 정보를 실제 AR 서비스 시의 카메라의 위치와 체험공간, 체험자의 위치, 조명환경과 연계하는 방법을 제공할 수 있다.According to the present invention, it is possible to provide a method of linking 2D and 3D AR content information with the location and experience space of a camera in actual AR service, the location of the experience person, and the lighting environment.

본 발명에 따르면, 2D 접근방법의 증강합성 영상품질과 2D 비디오 증강 합성시에도 체험자의 3D 정보와 연동하여 3D 접근방법의 3D 상호작용이 가능하게 하는 증강현실 기반의 고품질 3D 실감 체험 서비스가 가능할 수 있다.According to the present invention, an augmented reality based high quality 3D realistic experience service that enables 3D interaction of a 3D approach by interworking with the 3D information of an experienced user even in augmented composite image quality of a 2D approach and 2D video augmented synthesis may be possible. have.

본 발명에 따르면, 기존의 2D콘텐츠 기반의 AR 서비스를 위한 AR콘텐츠 제작시간과 제작비용 정도에 체험자와의 3D 인터랙션이 가능하고, 체험공간의 조명환경에 맞게 자연스러운 증강합성을 지원하는 3D 실감체험 서비스가 가능할 수 있다.According to the present invention, 3D interaction with the experiencer is possible at the AR content production time and production cost for the existing 2D content-based AR service, and a 3D realistic experience service that supports natural augmentation synthesis according to the lighting environment of the experience space. May be possible.

본 발명에 따르면, 기존의 단순 레이어 기반의 2D 비디오 증강합성 기반이나 3D 아바타 기반의 증강합성 기반의 실감체험 대비 체험자에게 제공되는 서비스에서 뚜렷한 가시적 차별성을 제공할 수 있다.According to the present invention, it is possible to provide a distinctive visual differentiation in a service provided to a user in preparation for a realistic experience based on a simple layer-based 2D video augmented synthesis or a 3D avatar-based augmented synthesis.

본 발명에 따르면, 기존 2D 비디오 기반 접근법의 영상품질 대비 3D 아바타 기반의 체험자와의 3D 인터랙션을 제공하는 서비스에 적용될 수 있다. According to the present invention, the present invention can be applied to a service that provides 3D interaction with a 3D avatar-based experience based on the image quality of the existing 2D video-based approach.

본 발명에 따르면, 발명에서 제시한 다양한 실시예를 통해 2D 비디오 기반의 장점과 3D 아바타 기반의 장점들을 결합하여 제공하는 서비스들이 없기 때문에 체험자에게 가시적으로 제공되는 서비스되는 방식을 통해 적용될 있다. According to the present invention, since there are no services provided by combining the advantages of 2D video and the advantages of 3D avatar through various embodiments of the present invention, the present invention can be applied through a service that is visually provided to an experienced person.

본 발명에 따르면, 상술한 서비스를 제공할 경우의 최소 구성과 구현 가능한 실시예를 제공할 수 있다.According to the present invention, it is possible to provide a minimum configuration and an implementable embodiment when providing the above-described service.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned above may be clearly understood by those skilled in the art from the following description. will be.

도 1은 비디오영상기반 2D/3D AR 실감체험 서비스 기술 구성을 나타내는 블록도이다.
도 2는 본 발명의 실시예에 따른, RGBD 정보 처리 예시를 설명하기 위해 도시한 것이다.
도 3은 본 발명의 실시예에 따른, R비디오영상기반 2D/3D AR 실감체험 서비스 기술 세부 구성을 나타내는 블록도이다.
도 4는 본 발명의 실시예에 따른, 체험공간 좌표계를 중심으로 한 체험자와 AR 콘텐츠 좌표계 간 3D 공간변환을 예를 들어 도시한 것이다.
도 5는 본 발명의 실시예에 따른, 체험자 중심의 조정기준을 이용한 AR 콘텐츠의 3D 좌표계 조정을 예를 들어 도시한 것이다.
도 6은 본 발명의 실시예에 따른, AR 콘텐츠의 RGB 영상의 2D 데이터 평면형 바운딩 박스 기반 처리를 예를 들어 도시한 것이다.
도 7은 본 발명의 실시예에 따른, AR 서비스를 제공하는 방법을 나타낸 순서도이다.
1 is a block diagram showing the configuration of video image-based 2D / 3D AR experience experience service.
2 is a diagram for explaining an example of RGBD information processing according to an embodiment of the present invention.
3 is a block diagram illustrating a detailed configuration of an R video image based 2D / 3D AR experience experience service according to an embodiment of the present invention.
FIG. 4 illustrates a 3D spatial transformation between an experience centered on an experience space coordinate system and an AR content coordinate system according to an embodiment of the present invention.
FIG. 5 illustrates an example of adjusting a 3D coordinate system of AR content using an experience-centered adjustment criterion according to an embodiment of the present invention.
6 illustrates, by way of example, 2D data planar bounding box based processing of an RGB image of AR content, according to an embodiment of the invention.
7 is a flowchart illustrating a method of providing an AR service according to an embodiment of the present invention.

이하에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention.

본 발명의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 발명에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In the following description of embodiments of the present invention, when it is determined that a detailed description of a known structure or function may obscure the gist of the present invention, a detailed description thereof will be omitted. In the drawings, parts irrelevant to the description of the present invention are omitted, and like reference numerals denote like parts.

본 발명에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In the present invention, when a component is "connected", "coupled" or "connected" with another component, it is not only a direct connection, but also an indirect connection in which another component exists in between. It may also include. In addition, when a component "includes" or "having" another component, it means that it may further include another component, without excluding the other component unless otherwise stated. .

본 발명에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 발명의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시 예에서의 제2 구성요소를 다른 실시 예에서 제1 구성요소라고 칭할 수도 있다.In the present invention, the terms "first" and "second" are used only for the purpose of distinguishing one component from other components, and do not limit the order or the importance between the components unless otherwise specified. Accordingly, within the scope of the present invention, a first component in one embodiment may be referred to as a second component in another embodiment, and likewise, a second component in one embodiment may be referred to as a first component in another embodiment. It may also be called.

본 발명에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 발명의 범위에 포함된다.In the present invention, the components distinguished from each other to clearly describe each feature, and does not necessarily mean that the components are separated. That is, a plurality of components may be integrated into one hardware or software unit, or one component may be distributed and formed into a plurality of hardware or software units. Therefore, even if not mentioned otherwise, such integrated or distributed embodiments are included in the scope of the present invention.

본 발명에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시예도 본 발명의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 발명의 범위에 포함된다.In the present disclosure, components described in various embodiments of the present disclosure are not necessarily required components, and some of them may be optional components. Therefore, an embodiment consisting of a subset of the components described in one embodiment is also included in the scope of the present invention. In addition, embodiments including other components in addition to the components described in the various embodiments are included in the scope of the present invention.

본 발명에 의하면, 2D 접근방법을 기반으로 AR 서비스를 위한 증강합성 대상의 AR 콘텐츠 촬영 시에 깊이 영상 정보를 추가로 획득할 수 있다. 이때, 깊이 정보를 기반으로 증강합성 대상의 3D 정보를 추가 처리하는 방법과 이러한 2D/3D AR 콘텐츠 정보를 실제 AR 서비스 시의 카메라의 위치와 체험공간, 체험자의 위치와 연계하는 방법을 제안하고자 한다. 이를 통해, 2D 접근방법의 증강합성 영상품질과 2D 비디오 증강 합성 시에도 체험자의 3D 정보와 연동하여 3D 접근방법의 3D 상호작용이 가능하게 하는 비디오영상기반 2D/3D AR 실감체험 방법을 제시할 수 있다.According to the present invention, depth image information may be additionally acquired at the time of capturing AR content of an augmented synthesis target for an AR service based on a 2D approach. In this case, we propose a method of additionally processing 3D information of an augmented composition object based on depth information and a method of linking the 2D / 3D AR content information with the location of the camera, the experience space, and the experience person in the actual AR service. . Through this, we can present a video image-based 2D / 3D AR experience experience that enables 3D interaction of 3D approach by interworking with 3D information of experienced person even in augmented synthesis image quality of 2D approach and 2D video augmentation synthesis. have.

또한 일 예로, 후술할 본 발명은 현재 디지털 콘텐츠 관련 기술분야에서 가장 각광받고 있는 증강현실 기술을 콘텐츠에 적용되어 현재 체험관이나 테마파크에서 상용화가 진행되고 있는 시장의 기술요구사항을 반영할 수 있다. 구체적으로, 후술할 발명을 통해 짧은 제작시간과 저비용으로 고품질의 증강현실 기반의 3D 실감체험 서비스가 가능할 수 있다. 이를 통해, 글로벌 VR(Virtual Reality) 및 AR 시장 분석 중 AR 시장에 직접 활용될 수 있으며, 상술한 실시예로 한정되지 않는다. In addition, as an example, the present invention to be described later may reflect the technical requirements of the market that is currently being commercialized in the experience hall or theme park by applying augmented reality technology that is currently in the spotlight in the field of digital content. Specifically, high quality augmented reality-based 3D realistic experience service may be possible through a short production time and low cost through the invention to be described later. Through this, the global VR and AR market analysis may be directly used in the AR market, and is not limited to the above-described embodiment.

일 에로, 2016년 상용보급이 시작된 RGBD 센서를 내장한 Google Tango 기반 스마트디바이스나 2017년 발표된 RGB센서 기반의 Google AR Core, Apple ARKit을 통해 2018년부터는 대부분의 스마트폰에서 AR 기능이 OS레벨에서 지원되는 인프라를 확보할 수 있다. 이러한 인프라의 1차 응용분야는 본 발명에서 기술하는 실감체험 분야를 포함하는 엔터테인먼트 제공 콘텐츠 서비스가 될 것으로 판단되어 충분한 시장수요를 가질 것으로 판단된다.On the other hand, from 2018, most smartphones have AR function at OS level through Google Tango-based smart device with built-in RGBD sensor that started commercial distribution in 2016 or Google AR Core and Apple ARKit released in 2017. You can get a supported infrastructure. It is determined that the primary application field of this infrastructure will be an entertainment providing content service including the field of experience described in the present invention, and thus it will have sufficient market demand.

이하, 첨부한 도면을 참조하여 본 발명의 실시 예들에 대해서 설명한다.Hereinafter, with reference to the accompanying drawings will be described embodiments of the present invention.

도 1은 비디오영상기반 2D/3D AR 실감체험 서비스 기술 구성을 나타내는 블록도이다. 본 발명은 도 1와 같이 라이브 RGBD 입력 센서부(1000), 2D/3D AR 콘텐츠부(2000), 2D/3D AR 실감체험 처리부(100) 및 디스플레이부(3000)로 구성될 수 있다.1 is a block diagram showing the configuration of video image-based 2D / 3D AR experience experience service. The present invention may be composed of a live RGBD input sensor unit 1000, a 2D / 3D AR content unit 2000, a 2D / 3D AR sensory experience processing unit 100, and a display unit 3000 as shown in FIG. 1.

또한, 본 발명은 2D/3D AR 실감체험 처리부(100)로 특정될 수 있으며, 상술한 라이브 RGBD 입력 센서부(1000), 2D/3D AR 콘텐츠부(2000) 및 디스플레이부(3000)는 본 발명의 동작과 관련된 외부 구성들일 수 있다. 즉, 본 발명은 상술한 구성들을 모두 포함하는 시스템으로서의 발명일 수 있다. 또는, 본 발명은 상술한 2D/3D AR 실감체험 처리부(100) 구성만으로 발명일 수 있으며, 상술한 실시예로 한정되지 않는다. In addition, the present invention can be specified by the 2D / 3D AR sensory experience processing unit 100, the above-described live RGBD input sensor unit 1000, 2D / 3D AR content unit 2000 and the display unit 3000 is the present invention May be external components associated with the operation of. That is, the present invention may be an invention as a system including all of the above-described configurations. Alternatively, the present invention may be the invention only by the configuration of the 2D / 3D AR sensory experience processing unit 100 described above, but is not limited to the above-described embodiment.

이때, 도1을 참조하면, 라이브 RGBD 입력 센서부(1000)는 AR 서비스를 위해 입력되는 체험자의 RGB 비디오 영상과 뎁스(Depth) 영상을 센싱할 수 있다. 2D/3D AR 콘텐츠부(2000)는 사전에 촬영된 2D/3D AR 콘텐츠에서 입력되는 증강합성 대상이 되는 RGB 비디오 입력과 비디오 입력의 프레임 별 3D 정보을 포함할 수 있다. 또한, 2D/3D AR 실감체험 처리부(100)는 라이브 RGBD 입력 센서부(1000)와 2D/3D AR 콘텐츠부(2000)의 입력을 통해 비디오영상 기반 2D/3D AR 실감체험 처리를 담당할 수 있다. 또한, 디스플레이부(3000)는 최종 증강 합성 영상을 사용자에게 제시할 수 있다.In this case, referring to FIG. 1, the live RGBD input sensor unit 1000 may sense an RGB video image and a depth image of an experienced user input for AR service. The 2D / 3D AR content unit 2000 may include an RGB video input, which is an augmented synthesis target input from previously photographed 2D / 3D AR content, and 3D information for each frame of the video input. In addition, the 2D / 3D AR sensory experience processing unit 100 may be in charge of video image-based 2D / 3D AR sensory experience processing through inputs of the live RGBD input sensor unit 1000 and the 2D / 3D AR content unit 2000. . In addition, the display 3000 may present a final augmented composite image to a user.

이때, 일 예로, 라이브 RGBD 입력센서부(1000)은 마이크로소프트 키넥트(Kinect) 센서나 인텔 리얼 센서(Real Sensor)등과 같이 체험자의 RGB 칼라영상과 Depth 영상을 실시간 제공하는 센서를 활용할 수 있다. 인체에 대해서는 인체 골격계의 움직임을 설명하는 스켈렉톤(Skeleton) 정보를 센서에서 직접 얻거나 종래 기술(e.g “J.Shotton et al. Efficient Human Pose Estimation from Single Depth Images, IEEE Trans. On PAMI 2821~2840, 2013”) 등의 방법으로 센서의 Depth 영상분석을 통해 얻어낼 수 있다. 또한 RGB 칼라영상은 RGBD 센서의 RGB 영상 대신 DSLR 카메라나 비디오캠 등과 같은 고품질 RGB 영상의 입력을 대신 사용할 수 있다. Depth 영상은 상기의 적외선 영역의 패턴(Pattern) 방식이나 TOF(Time of Flight) 방식 외에도 2개의 RGB 카메라를 이용하는 듀얼 카메라(Dual Camera) 방식, 혹은 하나의 RGB 카메라를 이용한 Structure-from-motion 이나 SLAM 등의 방식을 통해서도 획득될 수 있다. In this case, as an example, the live RGBD input sensor unit 1000 may use a sensor that provides a real-time RGB color image and depth image such as a Microsoft Kinect sensor or an Intel Real Sensor. For the human body, skeleton information that describes the movement of the human skeletal system can be obtained directly from the sensor or by prior art (eg “J. Shoton et al. Efficient Human Pose Estimation from Single Depth Images, IEEE Trans.On PAMI 2821-2840). , 2013 ”), etc., to obtain it through Depth image analysis of the sensor. In addition, the RGB color image can be used instead of the RGB image of the RGBD sensor input of high-quality RGB image, such as DSLR camera or video cam. Depth image is a dual-camera system using two RGB cameras or a structure-from-motion or SLAM using one RGB camera, in addition to the pattern method or time of flight (TOF) method of the infrared region. It can also be obtained through such a method.

이때, 일 예로, RGB 영상과 Depth 영상, Skeleton 정보는 컴퓨터 비전(Computer Vision) 분야의 카메라 기하보정(Geometric Calibration) 기법을 통해 각 센서 혹은 정보표현 좌표계 간의 상대적 회전/이동 관계, 센서의 렌즈특성 모델 등에 대한 보정이 수행되어 있다고 가정할 수 있다. 이러한 기하보정 가정은 해당분야의 다양한 기하보정 기법을 통해 통상적으로 구현할 수 있다. 기하보정 정보를 이용해 Depth 영상의 각 픽셀 (pixel)별 Depth 값을 통해 Depth 영상 픽셀에 대응되는 칼라영상 내의 Depth 영상 픽셀 대응 픽셀의 3D 위치를 계산할 수 있으며, 각 인접 픽셀들간의 관계를 이용해 체험자의 Depth, Color, Skeleton 정보가 RGBD 센서 좌표계에서 결합되어 3D 공간상에서 표현되는 3D 형상정보를 계산할 수 있다. 이때 RGB 센서에서 초당 획득되는 영상 프레임 수와 Depth 센서에서 초당 획득되는 영상 프레임 수는 다를 수 있으며 Depth 센서의 획득 프레임 수가 다를 경우에는 RGB와 Depth가 동시에 획득되는 프레임을 키프레임으로 하여 Depth가 미획득되는 RGB 프레임은 인접 키프레임의 Depth 정보를 보간(Interpolation) 기법을 통해 활용할 수 있다.At this time, as an example, the RGB image, the depth image, and the skeleton information may be related to the relative rotation / movement relationship between each sensor or the information expression coordinate system, and the lens characteristic model of the sensor through a camera geometric calibration technique in the field of computer vision. It can be assumed that correction is performed for the back and the like. Such geometric correction assumptions can be typically implemented through various geometric correction techniques in the art. The geometric correction information can be used to calculate the 3D position of the pixel corresponding to the Depth image pixel in the color image corresponding to the Depth image pixel by using the Depth value for each pixel of the Depth image. Depth, Color, and Skeleton information can be combined in the RGBD sensor coordinate system to calculate 3D shape information represented in 3D space. In this case, the number of image frames acquired per second by the RGB sensor and the number of image frames acquired per second by the Depth sensor may be different.If the acquired frames of the Depth sensor are different, the Depth is not acquired by using the frame that simultaneously acquires RGB and Depth as key frame. The RGB frame can utilize the depth information of the adjacent key frame through an interpolation technique.

일 예로, 도 2를 참조하면 라이브 RGBD 입력 센서(1000)를 통해 AR 서비스를 위해 입력되는 체험자의 3D 정보를 획득할 수 있다. 이때, 라이브 RGBD 입력 센서(1000)는 상술한 바와 같이 체험자의 RGB 영상, Depth 영상 및 3D Skeleton 정보 중 적어도 어느 하나 이상을 이용하여 체험자의 3D 정보를 획득할 수 있다. 이때, 3D 정보는 체험자의 3D 형상 및 Skeleton 정보가 통합되어 생성되는 정보일 수 있다. 또한, 3D 정보는 RGBD 센서 좌표계를 고려하여 체험자의 3D 위치 정보까지 더 포함할 수 있으며, 상술한 실시예로 한정되지 않는다.For example, referring to FIG. 2, 3D information of an experienced user input for AR service may be obtained through the live RGBD input sensor 1000. In this case, as described above, the live RGBD input sensor 1000 may acquire the experiencer's 3D information using at least one of the experiencer's RGB image, the depth image, and the 3D skeleton information. In this case, the 3D information may be information generated by integrating the 3D shape of the experienced person and the skeleton information. In addition, the 3D information may further include 3D location information of the experienced person in consideration of the RGBD sensor coordinate system, but is not limited to the above-described embodiment.

또한, 상술한 체험자는 라이브 RGBD 입력 센서(1000)가 센싱하는 대상(Object)일 수 있다. 즉, 2D/3D AR 실감체험 서비스를 위해 센싱을 수행하는 입력 정보로서의 대상일 수 있다. 하기에서는 설명의 편의를 위해 체험자라는 용어를 통해 본 발명을 설명하지만, 이에 한정되지 않는다. 즉, 라이브 RGBD 입력 센서(1000)가 센싱할 수 있는 대상은 하기 발명에서 동일하게 적용될 수 있으며, 상술한 실시예로 한정되지 않는다.In addition, the experienced person may be an object sensed by the live RGBD input sensor 1000. That is, it may be an object as input information for performing sensing for a 2D / 3D AR sensory experience service. Hereinafter, the present invention will be described through the term experienced person for convenience of description, but the present invention is not limited thereto. That is, the object that can be sensed by the live RGBD input sensor 1000 may be equally applied in the following invention, and is not limited to the above-described embodiment.

다음으로, 2D/3D AR 콘텐츠(2000)는 라이브 RGBD 입력센서(1000)를 통해 AR 콘텐츠 제공자가 AR 서비스를 통해 체험자에게 제공하고자 하는 실제 인물(e.g K-Pop 스타 등) 및 배경에 대해 사전에 촬영하여 저장할 수 있다. 또한, 촬영된 사진을 처리 한 결과물로 2D RGB 비디오영상과 비디오영상의 각 프레임에 대한 증강합성 대상영역의 Depth 정보를 저장할 수 있다. 이때, 일 예로, 증강합성 대상이 인체인 경우, 2D/3D AR 콘텐츠(2000)는 해당 인체의 프레임별 스켈렉톤 정보 등의 3D 정보를 포함할 수 있다.Next, the 2D / 3D AR content 2000 uses the live RGBD input sensor 1000 to advance the actual person (eg K-Pop star, etc.) and the background that the AR content provider wants to provide to the experienced person through the AR service. You can shoot and save. In addition, as a result of processing the photographed picture, the depth information of the augmented synthesis target region for each frame of the 2D RGB video image and the video image may be stored. In this case, as an example, when the augmented synthesis target is a human body, the 2D / 3D AR content 2000 may include 3D information such as skeleton information for each frame of the human body.

또한, 일 예로, AR 서비스를 제공하는자 하는 대상은 실제 인물뿐만 아니라 다른 대상으로도 확장이 가능할 수 있다. 즉, AR 콘텐츠로서 표현 가능한 대상에도 동일하게 적용할 수 있으며, 상술한 실시예로 한정되지 않는다. 일 예로, AR 콘텐츠가 제공되는 것은 동물 또는 다른 사물 등이 될 수 있다. 구체적인 일 예로, 동물 체험이나 야구, 축구 등과 같이 사물로서 AR 콘텐츠가 제공되는 것도 가능할 수 있다. 즉, AR 서비스를 제공할 수 있는 콘텐츠는 하기에서 설명하는 발명에 동일하게 적용될 수 있으며, 상술한 실시예로 한정되지 않는다. 다만, 하기에서는 설명의 편의를 위해 AR 콘텐츠로서 실제 인물을 기준으로 설명하지만, 이에 한정되는 것은 아니다.In addition, as an example, an object for providing an AR service may be extended to another object as well as an actual person. That is, the same can be applied to the object that can be expressed as AR content, and is not limited to the above-described embodiment. For example, the AR content may be provided by an animal or another object. As a specific example, AR content may be provided as an object such as an animal experience, baseball, soccer, or the like. That is, the content that can provide the AR service can be equally applied to the invention described below, but is not limited to the above-described embodiment. However, in the following description, for convenience of explanation, the AR content is described based on a real person, but is not limited thereto.

다음으로, AR실감체험 처리부(100)에서 AR 서비스 시나리오에 따라 실시간 호출한다. AR 콘텐츠가 인물이 아닌 유명 애니메이션 캐릭터 등과 같은 CG 모델일 경우에도 사전에 고품질 렌더링을 통해 2D RGB 비디오영상을 렌더링하여 사용할 수 있으며 렌더링에 사용된 캐릭터의 스켈레톤이나 저수준 외형 메쉬(Mesh) 모델 등의 3D 정보를 포함할 수 있다.Next, the AR sensory experience processing unit 100 calls in real time according to the AR service scenario. Even if the AR content is not a person, but a CG model such as a famous animated character, it is possible to render and use 2D RGB video images through high quality rendering in advance, and 3D such as a skeleton or a low-level mesh model of the character used for rendering. May contain information.

또한, 도 1을 참조하면, 2D/3D AR 실감체험 처리부(100)는 라이브 RGBD 처리부(200), 2D/3D AR 콘텐츠 처리부(300), 3D 상호작용 처리부(400) 및 AR 렌더링 처리부(500)를 포함할 수 있다. 이때, 라이브 RGBD 처리부(200)는 체험자를 촬영한 영상정보를 처리할 수 있다. 또한, 2D/3D AR 콘텐츠 처리부(300)는 사전에 저장된 2D/3D AR 콘텐츠를 체험자의 위치에 맞게 처리할 수 있다. 또한, 3D 상호작용 처리부(400)는 체험자와 AR 콘텐츠 간의 3D 상호 작용을 제어할 수 있다. 또한, AR 렌더링 처리부(500)는 체험자의 3D 정보와 3D 상호작용에 맞게 AR 콘텐츠를 최종 변형 및 정합할 수 있다.In addition, referring to FIG. 1, the 2D / 3D AR realistic experience processing unit 100 includes a live RGBD processing unit 200, a 2D / 3D AR content processing unit 300, a 3D interaction processing unit 400, and an AR rendering processing unit 500. It may include. In this case, the live RGBD processing unit 200 may process image information photographing the experienced person. In addition, the 2D / 3D AR content processing unit 300 may process the 2D / 3D AR content stored in advance according to the location of the experiencer. In addition, the 3D interaction processor 400 may control the 3D interaction between the experiencer and the AR content. In addition, the AR rendering processor 500 may finally transform and match the AR content according to the 3D information and the 3D interaction of the experiencer.

2D/3D AR 실감체험 처리부(100)의 각 세부 처리부의 상세 세부 구성도는 도 3으로 구성될 수 있으며, 이에 대해서는 후술한다. 2D/3D AR 실감체험 처리부(100)의 세부구성을 설명하기 위해 도 4의 상황을 예로 들어 실시예로 후술한다. 도 5의 체험공간은 고정형 RGBD 센서(1000)를 기준으로 AR 실감체험 서비스 제공자가 임의로 설정해 놓은 고정형 공간일 수 있으며, 이에 대해서는 후술한다. 또한, 체험공간은 사진촬영과 같이 이동형 모바일 RGBD 센서를 이용해 체험자를 촬영해주는 촬영자의 RGBD 센서를 기준으로 한 센서가 바라보는 전방 FOV(field of view) 내의 가변형 공간일 수 있다. 전자의 경우 체험자 RGBD 센서 좌표계와 체험공간 좌표계는 서로 다르며, 후자의 경우 두 좌표계는 동일하거나 다를 수 있으며 RGBD 센서가 장착된 스마트단말을 이용해 지속적으로 움직일 수도 있다. 체험공간 좌표계는 임의의 위치에 설정될 수도 있지만 설명과 이해의 편의를 위해 이하의 설명에서는 실제 체험자가 위치한 공간의 바닥면을 기준으로 설정된다고 가정하나, 이에 한정되지는 않는다. 체험공간의 범위는 체험에 사용된 RGBD 센서의 센싱 범위를 기준으로 사용자의 선택에 의해서나 AR 콘텐츠 제작 시에 사전 정의될 수 있다.A detailed detailed configuration diagram of each detailed processing unit of the 2D / 3D AR sensory experience processing unit 100 may be configured with FIG. 3, which will be described later. In order to explain the detailed configuration of the 2D / 3D AR sensory experience processing unit 100, the situation of FIG. 4 will be described below by way of example. The experience space of FIG. 5 may be a fixed space arbitrarily set by the AR sensory experience service provider based on the fixed RGBD sensor 1000, which will be described later. In addition, the experience space may be a variable space in the front field of view (FOV) viewed by the sensor based on the RGBD sensor of the photographer who photographs the experiencer using a mobile mobile RGBD sensor, such as photographing. In the former case, the experiencer's coordinate system and the experience space coordinate system are different. In the latter case, the two coordinate systems can be the same or different and can be continuously moved using a smart terminal equipped with an RGBD sensor. The experience space coordinate system may be set at any position, but for convenience of explanation and understanding, the following description assumes that the experience space is set based on the floor of the space where the actual experiencer is located, but is not limited thereto. The range of the experience space may be predefined by the user's selection or upon production of AR content based on the sensing range of the RGBD sensor used for the experience.

체험자는 이렇게 정의된 체험공간 상의 임의의 위치에 위치할 수 있다. AR 실감체험 서비스는 체험자 RGBD 센서(1000)를 통해 체험자의 RGB 비디오 영상과 Depth 영상, Skeleton 정보 등의 3D 정보를 체험자 RGBD 센서(1000)의 좌표계를 기준으로 획득할 수 있다. 또한, AR 실감체험 콘텐츠 서비스 제공자는 사전에 체험자 RGBD 센서(1000)와 같은 등가의 RGBD 센서를 이용해 체험대상(e.g K-Pop 스타 등)의 2D/3D AR 콘텐츠를 AR 콘텐츠 RGBD 센서 좌표계를 기준으로 촬영하여 디지털 데이터화할 수 있다.The experiencer can be located at any location on the experience space defined in this way. The AR sensory experience service may acquire 3D information such as RGB video image, depth image, skeleton information, etc. of the experiencer based on the coordinate system of the experiencer RGBD sensor 1000 through the experiencer RGBD sensor 1000. In addition, the AR-experience-experienced content service provider may predetermine 2D / 3D AR content of the subject (eg, K-Pop star, etc.) based on the AR content RGBD sensor coordinate system by using an equivalent RGBD sensor such as the experiencer RGBD sensor 1000 in advance. Can be digitalized by photographing.

이때, 일 예로, 상술한 라이브 RGBD 입력 센서(1000) 및 2D/3D AR 콘텐츠(2000)의 센서는 동일 모델일 수 있다. 또 다른 일 예로, 라이브 RGBD 입력 센서(1000) 및 2D/3D AR 콘텐츠(2000)의 센서는 서로 다른 모델일 수 있으며, 상술한 실시예로 한정되지 않는다.In this case, as an example, the above-described sensor of the live RGBD input sensor 1000 and the 2D / 3D AR content 2000 may be the same model. As another example, the sensors of the live RGBD input sensor 1000 and the 2D / 3D AR content 2000 may be different models, and are not limited to the above-described embodiment.

또한, 일 예로, 라이브 RGBD 입력 센서(1000) 및 2D/3D AR 콘텐츠(2000) 센서의 위치는 체험공간 좌표계 기준으로 동일할 수도 있다. 또 다른 일 예로, 라이브 RGBD 입력 센서(1000) 및 2D/3D AR 콘텐츠(2000)의 센서의 위치는 체험공간 좌표계 기준으로 상이하게 가정하는 것도 가능하며, 상술한 실시예로 한정되지 않는다.Also, as an example, the positions of the live RGBD input sensor 1000 and the 2D / 3D AR content 2000 sensor may be the same based on the experience space coordinate system. As another example, the positions of the sensors of the live RGBD input sensor 1000 and the 2D / 3D AR content 2000 may be differently assumed based on the experience space coordinate system, and are not limited to the above-described embodiment.

이때, 일 예로, 라이브 RGBD 입력 센서(1000) 및 2D/3D AR 콘텐츠(2000)의 좌표계의 데이터는 하나의 체험 공간 좌표계에서 표현될 수 있다.In this case, as an example, the data of the coordinate system of the live RGBD input sensor 1000 and the 2D / 3D AR content 2000 may be expressed in one experience space coordinate system.

도 4를 참조하면, 통상적인 카메라 기하보정을 통해 얻을 수 있는 체험 공간 좌표계와의 좌표계 변환 관계를 이용해 하나의 체험공간 좌표계에서 표현될 수 있다. 이때, 라이브 RGBD 입력 센서(1000) 및 2D/3D AR 콘텐츠(2000)에서 사용된 두 개의 RGBD 센서가 다른 경우, 라이브 RGBD 입력 센서(1000)의 센서를 기준으로 AR 콘텐츠 촬영에 사용된 RGBD 센서의 내외부 기하보정인자와 색공간 등의 정보를 라이브 센서에 맞게 변환하는 과정을 수행할 수 있다.Referring to FIG. 4, it may be expressed in one experience space coordinate system using a coordinate system transformation relationship with an experience space coordinate system obtained through conventional camera geometric correction. In this case, when the two RGBD sensors used in the live RGBD input sensor 1000 and the 2D / 3D AR content 2000 are different from each other, the RGBD sensor used for the AR content shooting based on the sensor of the live RGBD input sensor 1000 is different. The process of converting information such as internal and external geometric correction factors and color spaces according to the live sensor can be performed.

이때, 도 4를 참조하면, 사전에 체험자의 위치를 체험공간 좌표계 기준의 AR 콘텐츠 3D 위치에 강제하지 않는 경우라면, 체험자의 3D 위치와 AR 콘텐츠의 3D 위치는 체험공간 상에서 서로 상이할 수 있다. 일 예로, 현재 체험형 테마파크들에서 서비스되는 스타와 사진촬영 등의 2D 접근방법을 기반으로 한 AR 실감체험 서비스 등에서 이러한 상황이 빈번히 재현되고 있다. 즉, 체험자가 직접 위치를 조정하여 자연스러운 AR 상황을 만들거나 체험위치를 특정한 점으로 제한하는 방법을 사용하고 있다. 이러한 3D 공간 불일치로 인해 체험자와 AR 콘텐츠와의 인터랙션 UX(User Experience)가 자연스럽지 못할 수 있다. In this case, referring to FIG. 4, when the experiencer's position is not forced to the AR content 3D position based on the experience space coordinate system, the experiencer's 3D position and the AR content's 3D position may be different from each other in the experience space. For example, this situation is frequently reproduced in AR realistic experience services based on 2D approaches such as stars and photography, which are currently serviced in experience-type theme parks. In other words, the experienced person directly adjusts the position to create a natural AR situation or limit the experience position to a specific point. Due to this 3D spatial mismatch, the interaction between the experiencer and the AR content may not be natural.

이에, 하기에서는 상술한 상황에서 최종 증강합성 되는 AR 콘텐츠의 2D 비디오 영상을 체험자의 3D 위치와 체험자의 RGBD 센서 위치에 맞게 사실적으로 재구성하여 조정할 수 있는 방법과 3D 상호작용을 처리할 수 있는 방법을 제안한다.Therefore, in the following description, a method of realistically reconstructing and adjusting a 2D video image of the AR content that is finally augmented and synthesized according to the experiencer's 3D position and the experiencer's RGBD sensor position and a method capable of processing 3D interaction are described below. Suggest.

보다 상세하게는, 도 3을 참조하면, 라이브 RGBD 처리부(200)는 체험자의 3D 정보 검출부(201)와 체험자의 3D 데이터 처리부(202), 체험자의 2D RGB 비디오영상 처리부(203)로 구성될 수 있다. 라이브 RGBD 처리부(200)는 체험 공간 내 체험자의 3D 정보와 이를 이용하여 RGB 영상에서 증강 합성될 체험자의 영상 영역을 계산할 수 있다. 또한, 라이브 RGBD 처리부(200)는 AR 콘텐츠와 3D 상호작용을 위한 체험자의 조밀한 3D 정보를 계산할 수 있다. 또 다른 일 예로, 라이브 RGBD 처리부(200)는 AR 콘텐츠와 3D 상호작용을 위한 체험자의 간략화된 3D 정보를 계산할 수 있으며, 상술한 실시예로 한정되지 않는다.More specifically, referring to FIG. 3, the live RGBD processing unit 200 may include a 3D information detection unit 201 of an experienced person, a 3D data processing unit 202 of an experienced person, and a 2D RGB video image processing unit 203 of an experienced person. have. The live RGBD processor 200 may calculate an image area of the experiencer to be augmented and synthesized in the RGB image by using the 3D information of the experiencer in the experience space and the same. In addition, the live RGBD processing unit 200 may calculate the dense 3D information of the experiencer for 3D interaction with the AR content. As another example, the live RGBD processing unit 200 may calculate the simplified 3D information of the experiencer for 3D interaction with the AR content, and is not limited to the above-described embodiment.

구체적으로, 각각의 구성에 대한 동작을 살펴보면, 체험자의 3D 정보 검출부(201)는 라이브 RGBD 입력센서부(1000)로부터 체험자의 Depth 영상과 Skeleton 정보 등의 3D 정보(1001)를 입력 받을 수 있다. 이를 통해, 체험자의 3D 정보 검출부(201)는 체험영역 내 체험자의 위치를 검출할 수 있다. 이때, 상술한 바와 같이, RGBD 센서가 기하보정이 되어 있으므로 체험자의 위치는 RGBD 센서의 3D 좌표계를 기준으로 계산되거나 체험영역의 3D 좌표계를 기준으로 계산될 수 있다. 일 예로, 체험영역의 3D 좌표계를 기준으로 표현할 경우, RGBD 센서의 Depth 영상의 각 픽셀 별 깊이값과 Skeleton 정보값을 RGBD 센서 좌표계와 체험영역 좌표계 간의 회전/이동의 변환관계(Transformation matrix)를 통해 계산할 수 있다.Specifically, referring to the operation of each configuration, the 3D information detector 201 of the experienced person may receive 3D information 1001 such as the depth image and the skeleton information of the experienced person from the live RGBD input sensor unit 1000. In this way, the 3D information detector 201 of the user can detect the location of the user in the experience area. In this case, as described above, since the RGBD sensor is geometrically corrected, the experiencer's position may be calculated based on the 3D coordinate system of the RGBD sensor or based on the 3D coordinate system of the experience area. For example, in the case of expressing the 3D coordinate system of the experience area, the depth value and skeleton information value of each pixel of the Depth image of the RGBD sensor are converted through a transformation matrix of rotation / movement between the RGBD sensor coordinate system and the experience area coordinate system. Can be calculated

체험자의 3D 정보 검출부(201)는 검출된 체험자의 체험공간 내 위치 및 자세정보(1201)를 2D/3D AR 콘텐츠 처리부(300)의 3D 좌표계 조정부(301)에 제공할 수 있다. 즉, 체험자의 3D 정보 검출부(201)는 AR 콘텐츠의 촬영 당시 좌표계를 기준으로 한 AR 콘텐츠의 정보를 조정하기 위해 필요한 정보로서 자세정보(1201)를 제공할 수 있다. 체험자 3D 정보의 연계관계는 3D 좌표계 조정부(301)와 관련하여 후술한다.The experienced person's 3D information detector 201 may provide the detected person's location and attitude information 1201 in the experience space to the 3D coordinate system controller 301 of the 2D / 3D AR content processor 300. That is, the 3D information detector 201 of the experienced person may provide the posture information 1201 as information necessary for adjusting the information of the AR content based on the coordinate system at the time of capturing the AR content. The linkage relationship of the experienced person 3D information will be described later with reference to the 3D coordinate system adjusting unit 301.

체험자의 3D 정보 처리부(202)는 RGBD 센서(1000)에서 입력된 Depth 정보를 이용해 체험자가 체험공간 내에 어떠한 곳을 점유하고 있는지를 Mesh, Point Cloud 형태, 또는 유사 형태의 3D 정보로 콘텐츠 서비스 목적과 HW 연산능력에 맞게 조밀하게 계산한다. 이러한 점유정보는 3D 상호작용 처리부(400)에서 AR 콘텐츠와의 3D 충돌처리 감지 및 상호작용 처리를 위해 사용될 수 있다. Experiencer's 3D information processing unit 202 uses Depth information input from the RGBD sensor 1000 to determine where the experiencer is occupying in the experience space in the form of mesh, point cloud, or similar 3D information. Calculate closely according to HW computing power. The occupancy information may be used for 3D collision processing detection and interaction processing with AR content in the 3D interaction processing unit 400.

이때, 일 예로, 스마트폰 등에서는 연산 능력이 한계가 있을 수 있다. 이에, 제한된 연산환경에서 서비스하기 위해 계산된 조밀한 점유정보를 함께 입력되는 Skeleton 정보와 결합할 수 있다. 그 후, Bounding-Box 기법이나 Spherical-Approximation 기법들을 통해 체험자의 조밀한 공간 점유를 근사화/간략화하는 작업을 수행할 수 있다. 이때, 일 예로, Bounding-Box 기법 및 Spherical-Approximation 기법은 컴퓨터 그래픽스 분야의 캐릭터 애니메이션에서 주변 캐릭터나 환경과의 충돌체크를 위해 활용되는 기법일 수 있다. 이를 통해, 3D 상호 작용 처리부(400)는 연산량을 줄일 수 있으며, 쉽게 연산을 수행할 수 있다.In this case, as an example, a computing capability may be limited in a smartphone. Thus, the dense occupancy information calculated for service in a limited computing environment can be combined with the input Skeleton information. After that, the bounding-box technique or the spherical-approximation technique can be used to approximate / simplify the dense occupancy of the experienced person. In this case, as an example, the bounding-box technique and the spherical-approximation technique may be techniques used for collision checking with surrounding characters or environments in character animation in the field of computer graphics. Through this, the 3D interaction processing unit 400 can reduce the amount of calculation and can easily perform the calculation.

또한, 일 예로, 체험자를 포함하는 3D 바운딩박스(Bounding Box)나 대표 3D 평면(Plane)으로 간소화하여 계산될 수도 있다. 더 나아가 입력되는 Depth 정보와 Skeleton 정보를 이용해 표준적인 인체 캐릭터모델의 관절 길이나 자세, 캐릭터모델의 3D 형상정보를 변형하여 근사화 할 수도 있다.  In addition, as an example, it may be calculated by simplifying to a 3D bounding box or a representative 3D plane including the experiencer. Furthermore, by using the input depth information and skeleton information, it is possible to approximate by modifying the joint length, posture, and 3D shape information of the standard character model.

체험자의 3D 정보 처리부(202)에서 얻어진 체험자의 조밀한 공간점유 정보는 체험자의 2D RGB 비디오영상 처리부(203)에 제공될 수 있다.The dense spatial occupancy information of the experienced person obtained by the experienced person's 3D information processing unit 202 may be provided to the experienced person's 2D RGB video image processing unit 203.

체험자의 2D RGB 비디오영상 처리부(203)는 RGBD 센서에서 입력되는 체험자의 RGB 비디오 영상입력과 체험자의 3D 정보 처리부(202)에서 입력되는 조밀한 공간점유 정보를 이용해 RGB 영상에서 체험자의 영상영역을 전경영상으로 인식하고, 나머지 영상영역을 배경영상으로 식별하는 연산을 수행할 수 있다. 체험자의 3D 정보 처리부(202)에서 입력되는 조밀한 공간점유 정보는 체험자의 영상영역을 구분함에 있어 크로마키(chroma-Key) 기법과 같은 상황이 아닌 복잡하고 일상적인 배경환경에서 체험자의 영상영역영 구분할 때 Graph-Cut과 같은 기법의 Tri-map 구성시 전경후보영역의 사전정보로 활용 될 수 있다. 이렇게 얻어진 전경영상은 서비스 타입에 따라 증강현실 서비스로 사용되거나 체험자 영상을 가상공간에 혼합현실로 정합하여 서비스 될 수 있도록 한다. 또한, 일 에로, 전경영상은 AR 콘텐츠와 상호작용시 상호 가림(Occlusion)이 발생할 수 있다. 이때, 상호 가림이 발생하는 경우, 픽셀단위로 체험자 영상과 AR 콘텐츠 영상중 어떤 정보를 실제 디스플레이부(3000)를 통해 표출할지를 결정할 수 있다. 일 예로, 전경칼라 픽셀별로 대응되는 Depth 영상에서 얻어진 3D 위치정보를 이용해 상호 가림(Occlusion) 또는 가시 영역(Visibility) 판별의 기준정보를 제공할 수 있다.The experiencer's 2D RGB video image processing unit 203 uses the RGB video image input of the experiencer's input from the RGBD sensor and the dense spatial occupancy information input from the experience's 3D information processing unit 202 to view the experience's image area in the RGB image. The operation may be recognized as an image and the remaining image area may be identified as a background image. Dense spatial occupancy information input from the experienced person's 3D information processing unit 202 is used to distinguish the experienced person's image area in a complex and everyday background environment, rather than a chroma-key technique. When classifying, it can be used as the dictionary information of the foreground candidate area when constructing a tri-map using techniques such as Graph-Cut. The foreground image thus obtained may be used as an augmented reality service depending on the service type, or may be serviced by matching the experienced person's image to a mixed reality in a virtual space. Also, in the foreground image, occlusion may occur when the foreground image interacts with the AR content. In this case, when the occlusion occurs, it is possible to determine which information of the experiencer image and the AR content image to be displayed on the actual display unit 3000 in units of pixels. For example, reference information for determining occlusion or visibility may be provided using 3D location information obtained from a depth image corresponding to each foreground color pixel.

또한, 일 예로, 단순 AR 증강합성을 통해 서비스를 제공하는 경우, 체험자의 2D RGB 비디오영상 처리부(203)는 입력 RGB 비디오영상(1002)을 상술한 처리 없이 그대로 다음 단계로 통과시킬 수 있다.In addition, as an example, when providing a service through simple AR augmentation synthesis, the experienced 2D RGB video image processing unit 203 may pass the input RGB video image 1002 to the next step as it is without the above-described processing.

즉, 상술한 바와 같이 체험자와 AR 콘텐츠 간의 상호 가림을 고려한 증강합성이나, AR 서비스 공간의 배경이 아닌 AR 콘텐츠의 배경을 혼합현실(MR: Mixed Reality) 기반으로 합성할 경우가 아닌 때에는 입력 RGB 비디오영상(1002)을 상술한 처리 없이 그대로 다음 단계로 통과시킬 수 있으며, 상술한 실시예로 한정되지 않는다.That is, as described above, when the augmented synthesis considering the mutual blindness between the experiencer and the AR content or the background of the AR content that is not the background of the AR service space is not synthesized on the basis of mixed reality (MR), input RGB video The image 1002 can be passed to the next step as it is without the above-described processing, but is not limited to the above-described embodiment.

2D/3D AR 콘텐츠 처리부(300)는 3D 좌표계 조정부(301), 2D/3D 데이터 정렬부(302), AR 콘텐츠의 3D 데이터 처리부(303) 및 2D 데이터 처리부(304)로 구성될 수 있다. 이때, 3D 좌표계 조정부(301)는 3D 좌표계를 조정할 수 있다. 또한, 2D/3D 데이터 정렬부는 AR 콘텐츠 정보와 AR 콘텐츠 촬영 당시 RGBD 센서의 기하보정 정보를 이용하여 증강합성 대상의 2D RGB 정보(2002)와 Depth 정보, Skeleton 정보 등의 3D 정보(2001)를 라이브 RGBD 처리부(200)의 결과와 같이 계산하여 연산 메모리로 등록할 수 있다. AR 콘텐츠의 3D 데이터 처리부(303)는 AR 콘텐츠의 데이터를 처리할 수 있다. 또한, 2D 데이터 처리부(304)는 체험자 위치 정보에 맞게 조정된 3D 정보를 기반으로 AR 콘텐츠의 RGB 영상정보를 변형할 수 있다. 이때, 도 6의 예시와 같이 체험자의 정보를 기반으로 AR 콘텐츠의 2D 비디오영상과 3D 상호작용 정보를 위한 3D 정보를 계산할 수 있으며, 이에 대해서는 후술한다.The 2D / 3D AR content processor 300 may include a 3D coordinate system adjuster 301, a 2D / 3D data aligner 302, a 3D data processor 303, and a 2D data processor 304 of AR content. In this case, the 3D coordinate system adjusting unit 301 may adjust the 3D coordinate system. In addition, the 2D / 3D data alignment unit uses the AR content information and the geometric correction information of the RGBD sensor at the time of AR content shooting to live 3D information such as 2D RGB information (2002), depth information, skeleton information, etc. of the augmented composition target. The calculation may be performed as in the result of the RGBD processing unit 200 and registered in the operation memory. The 3D data processor 303 of the AR content may process data of the AR content. Also, the 2D data processor 304 may transform the RGB image information of the AR content based on the 3D information adjusted to the experiencer's location information. In this case, as illustrated in FIG. 6, 3D information for 2D video image and 3D interaction information of AR content may be calculated based on the experiencer's information, which will be described later.

보다 상세하게는, 도 5를 참조하면, 3D 좌표계 조정부(301)는 체험자의 3D 정보 검출부(201)에서 계산된 체험자의 3D 위치와 체험공간 좌표계로 변환된 AR 콘텐츠의 3D 위치를 이용하여 계산을 수행할 수 있다. 이때, 3D 좌표계 조정부(301)는 AR 콘텐츠가 체험자의 위치를 기준으로 AR 콘텐츠 서비스 시나리오에 따라 어떻게 조정되어야 하는지에 대한 조정변환 정보를 상술한 정보를 통해 계산할 수 있다.In more detail, referring to FIG. 5, the 3D coordinate system adjusting unit 301 performs calculation using the 3D position of the experienced person calculated by the 3D information detection unit 201 of the experienced person and the 3D position of the AR content converted into the experience space coordinate system. Can be done. In this case, the 3D coordinate system adjusting unit 301 may calculate adjustment conversion information on how the AR content should be adjusted according to the AR content service scenario based on the experiencer's location through the above information.

일 예로, AR 콘텐츠 서비스 시나리오의 예시는 다음과 같을 수 있다. AR 콘텐츠는 체험자의 옆에 자동으로 위치하여 체험자의 자세에 맞게 3D 상호작용하며 사진을 촬영한다는 시나리오를 가정하는 경우, 3D 좌표계 조정부(301)는 도 5의 예시와 같이 체험자의 위치를 기준으로 조정선을 생성할 수 있다. 이때, 3D 좌표계 조정부(301)는 현재 AR 콘텐츠의 3D 위치를 이용해 AR 콘텐츠가 체험자와 조정선에 나란히 위치할 수 있도록 하는 조정 변환 정보를 계산할 수 있다.As an example, an example of an AR content service scenario may be as follows. When the AR content is automatically located next to the experiencer and assumes a scenario in which a 3D interaction is taken according to the experiencer's posture and photographing, the 3D coordinate system adjusting unit 301 adjusts based on the experiencer's position as illustrated in FIG. 5. You can create a line. In this case, the 3D coordinate system adjusting unit 301 may calculate adjustment transformation information for allowing the AR content to be parallel to the experiencer and the adjusting line using the 3D position of the current AR content.

AR 콘텐츠의 3D 데이터 처리부(303)는 실제 디지털 체험공간상에서 도 5와 같이 AR 콘텐츠의 3D 정보가 체험자의 옆에 위치할 수 있도록 업데이트를 수행할 수 있다. 이때, AR 콘텐츠의 3D 데이터 처리부(303)는 조정변환 정보를 미리 저장된 AR 콘텐츠의 Depth 영상과 Skeleton 정보, Skeleton기반 Spherical 또는 Bounding-Box 모델, 3D 바운딩박스, 대표 3D 평면 등의 3D 정보에 적용하여 상술한 업데이트를 수행할 수 있다. 그 후, AR 콘텐츠의 3D 데이터 처리부(303)는 그 결과로 입력 3D 정보(2001) 대비 최종 업데이트 3D 정보 간의 조정 변환정보를 2D 데이터 처리부(304)에 제공할 수 있다. 이를 통해, 2D 데이터 처리부(304)는 RGB 비디오(2002) 정보의 변환에 상술한 정보를 사용할 수 있다. 이 과정에서 AR 콘텐츠 내 3D 정보(2001)에 체험자의 3D 정보 처리부(202)와 같은 Skeleton기반 Spherical 또는 Bounding-Box 모델, 3D 바운딩박스, 대표 3D 평면, low-resolution polygonal mesh등의 정보가 사전에 입력되지 않을 경우, 체험자의 3D 정보 처리부(202)와 같은 방식으로 체험자와의 3D 상호작용 검출 및 처리를 위한 3D 정보의 간략화를 함께 수행할 수 있다.The 3D data processor 303 of the AR content may perform an update so that 3D information of the AR content may be located next to the experienced person in the actual digital experience space as shown in FIG. 5. At this time, the 3D data processing unit 303 of the AR content applies adjustment transformation information to 3D information such as a depth image and skeleton information, a skeleton-based spherical or bounding-box model, a 3D bounding box, and a representative 3D plane of the AR content stored in advance. The above-described update can be performed. Thereafter, the 3D data processor 303 of the AR content may provide the 2D data processor 304 with adjustment conversion information between the last updated 3D information and the input 3D information 2001 as a result. Through this, the 2D data processor 304 may use the above-described information for converting the RGB video 2002 information. In this process, information such as skeleton-based spherical or bounding-box models, 3D bounding boxes, representative 3D planes, low-resolution polygonal meshes, such as the 3D information processing unit 202 of the experienced user, is preliminarily included in the 3D information 2001 in the AR content. When not input, the 3D information processing unit 202 may simplify the 3D information for detecting and processing the 3D interaction with the experiencer in the same manner as the 3D information processing unit 202.

2D/3D 데이터 정렬부(302)는 AR 콘텐츠 정보와 AR 콘텐츠 촬영 당시 RGBD 센서의 기하보정 정보를 이용하여 증강합성 대상의 2D RGB 정보와 Depth 정보, Skeleton 정보를 라이브 RGBD 처리부(200)의 결과와 같이 AR 콘텐츠 촬영 당시 RGBD 센서 좌표계 기준으로 계산하여 연산 메모리로 등록할 수 있다. 다만, 라이브 RGBD 처리부(200)와 달리 체험자의 2D RGB 비디오영상 처리부(203)의 결과물은 미리 계산하여 저장하였다가 메모리로 로드하여 사용할 수 있다. 또한 AR 콘텐츠의 증강합성 품질 향상을 위해 증강합성 대상의 촬영시 일반환경이 아니라 크로마키 환경과 같은 제어된 환경에서 촬영을 하여 증강합성 대상의 전경영역의 품질을 높일 수도 있다. 일 예로, 2D 데이터 처리부(304)는 실제인물(e.g K-Pop 스타) 등을 촬영하는 경우에 크로마키 환경과 같은 제어된 환경에서 촬영을 수행할 수 있다. RGBD 센서의 Depth 정보를 이용한 Skeleton 정보 추출 외에 전문 모션캡쳐 장비와 연동하여 고품질 Skeleton 정보를 획득할 수도 있다. AR 콘텐츠의 2D RGB 영상의 전경영역 정보는 K-Pop 스타의 머리카락이나 전경 실루엣의 경계면의 자연스러운 증강합성 처리를 위해 알파 블랜딩 정보를 포함할 수 있다.The 2D / 3D data aligner 302 uses the AR content information and the geometric correction information of the RGBD sensor at the time of AR content capture to display the 2D RGB information, the depth information, and the skeleton information of the augmented composition target with the result of the live RGBD processing unit 200. Similarly, the AR content can be calculated and registered as an operation memory based on the RGBD sensor coordinate system at the time of shooting. However, unlike the live RGBD processing unit 200, the result of the experiencer's 2D RGB video image processing unit 203 may be calculated and stored in advance and loaded into a memory. In addition, in order to improve AR quality of AR content, the quality of the foreground area of the AR composition may be improved by photographing in a controlled environment such as a chroma key environment instead of a general environment when the AR content is captured. As an example, the 2D data processor 304 may perform shooting in a controlled environment such as a chroma key environment when shooting a real person (e.g K-Pop star). In addition to extracting skeleton information using Depth information of RGBD sensor, high quality skeleton information can be obtained by linking with specialized motion capture equipment. The foreground area information of the 2D RGB image of the AR content may include alpha blending information for a natural augmentation synthesis process of the boundary surface of the K-Pop star's hair or the foreground silhouette.

2D 데이터 처리부(304)는 체험자 위치 정보에 맞게 AR 콘텐츠의 3D 데이터 처리부(303)를 통해 조정된 3D 정보와 체험자의 3D 정보에 기반에 충돌처리를 제어할 수 있다. 또한, 2D 데이터 처리부(304)는 3D 인터랙션에 최종 대응하는 라이브 센서시점에 맞게 AR 콘텐츠를 2D/3D 변형(501) 및 증강합성(502)하기 위한 사전작업을 수행할 수 있다. 또한, 2D/3D 데이터 정렬부(302)를 통해 정렬된 정보를 기반으로 도 4와 같이, 체험공간 좌표계를 기준으로 3D 변형을 위해 2D 비디오영상과 Depth 정보를 이용해 3D 공간상에서 AR 콘텐츠를 표현할 수 있다. 2D 데이터 처리부(304)는 AR 렌더링 처리부(500)의 2D/3D 데이터와 핑부(501)와 상호 연계되어 2D 데이터를 3D 공간상에서 체험자의 라이브 센서 시점에서 증강합성하기 위한 3D 변환 작업을 수행할 수 있다. 이러한 작업은 연산장치의 연산 능력과 서비스되는 디스플레이 해상도 등을 고려하여 다양한 방법으로 수행될 수 있다.The 2D data processor 304 may control the collision process based on the 3D information adjusted by the 3D data processor 303 of the AR content and the 3D information of the experience person according to the experiencer location information. In addition, the 2D data processor 304 may perform a preliminary work for 2D / 3D transformation 501 and augmentation synthesis 502 of AR content in accordance with the live sensor viewpoint corresponding to the 3D interaction. In addition, based on the information arranged through the 2D / 3D data aligning unit 302, as shown in FIG. 4, AR content may be expressed in 3D space using 2D video image and depth information for 3D transformation based on the experiential space coordinate system. have. The 2D data processor 304 may interwork with the 2D / 3D data and the ping unit 501 of the AR rendering processor 500 to perform 3D transformation for augmenting and synthesizing the 2D data from the experience sensor's live sensor point in 3D space. have. This operation may be performed in various ways in consideration of the computing power of the computing device and the display resolution being serviced.

하기는 3D 데이터 처리부(303)와 2D 데이터 처리부(304), 2D/3D 데이터 와핑부(501)의 결합에 의해 AR콘텐츠가 체험자의 라이브 센서 시점에서 어떻게 처리되는지를 몇가지의 실시예를 통해 설명한다.The following describes how the AR content is processed at the live sensor's viewpoint by the combination of the 3D data processor 303, the 2D data processor 304, and the 2D / 3D data warping unit 501, through some embodiments. .

일 예로, 가장 쉬운 구현방법은 가상의 3D 평면을 생성하고 평면에 2D 비디오의 각 프레임 별 영상을 텍스쳐 맵으로 등록하여 렌더링하는 방법을 이용할 수 있다. 이때 3D 평면의 위치와 크기의 선정이 중요하며 위치는 도 6과 같이 AR 콘텐츠 촬영 당시의 증강합성 대상의 3D 공간점유의 평균적 위치가 될 수 있다. 또한, 3D 평면의 크기는 촬영 당시 RGBD 센서의 기하보정 정보를 기반으로 얻어진 증강합성 대상의 3D 공간상의 실제 점유 크기를 가장 타이트하게 포함하는 3D 평면 상의 3D 평면형 바운딩 박스 (Bounding Box)(이하 3D 평면)를 생성하고 바운딩 박스를 AR 콘텐츠 촬영 당시의 RGBD 센서의 카메라 투영모델에 따라 어파인(Affine) 투영 등으로 투영된 바운딩 박스의 RGB 영상영역을 3D 평면형 바운딩 박스의 텍스쳐 맵으로 등록하면 된다. 또한 3D 평면 설정시 가시화 정보량을 극대화하기 위해 3D 평면을 체험공간과 수직으로 배치하고 평면이 카메라와 서로 마주보게 배치할 수 있다. 이때 텍스쳐 맵의 등록을 위해서 생성된 3D 평면의 각 4개 꼭지점을 AR 콘텐츠 촬영 당시의 RGBD 센서 좌표계와 체험공간 좌표계간의 역변환 관계를 이용해 AR 콘텐츠의 RGB 영상에 투영할 수 있다. 투영된 4개 꼭지점을 연결하는 영역을 텍스쳐 맵으로 등록하면 된다. 또한, 증강합성 시 경계면의 자연스러운 합성을 위해 2D RGB 영상에 알파 블랜딩을 위한 알파 맵 (alpha map) 정보가 포함되어 있을 경우, RGB 영상영역을 텍스쳐 맵으로 등록할 때 알파 정보를 텍스쳐 맵의 알파 맵 마스크 정보에 등록하여 주면 3D 렌더링 엔진이 영상 렌더링 시 자연스러운 알파 블랜딩 효과를 계산해 줄 수 있다. 다만, 체험자와 증강합성 대상의 위치 차이가 존재하므로 AR 콘텐츠의 3D 데이터 처리부(303)의 조정변환 정보를 이용해 3D 평면의 위치와 방향를 3D 변환식에 따라 재계산해 주고 이를 체험자의 2D RGB 영상(1002)위에 RGBD 센서와 체험공간간의 역변환 관계를 이용해 투영(Projection)해 주면 원근법에 의한 영상 변환이 반영된 AR 콘텐츠의 RGB 영상을 얻을 수 있다. 체험자는 도 6과 같이 실제 인물(e.g K-Pop 스타)이 실제 옆에 있는 듯한 AR 영상을 디스플레이를 통해 볼 수 있다. 이러한 구현방법은 적은 연산량으로 높은 사실적 증강합성을 구현할 수는 있으나 증강합성 대상의 자세에 따라 실제 공간점유가 생성된 3D 평면의 노멀(normal) 방향과 수직방향으로 많이 분포할 경우(예: 센서를 대상으로 측면으로 서서 팔을 넓게 펼치는 동작 등) 또는 AR 콘텐츠 촬영시의 RGBD 센서의 위치/각도와 AR 서비스시의 RGBD 센서의 위치/각도의 차이가 클수록 영상변환 품질이 왜곡될 수 있다.For example, the easiest implementation method may be a method of generating a virtual 3D plane and registering and rendering the image of each frame of the 2D video as a texture map in the plane. At this time, the selection of the position and size of the 3D plane is important, and the position may be the average position of the 3D space occupancy of the augmented synthesis object at the time of AR content shooting as shown in FIG. In addition, the size of the 3D plane is a 3D planar bounding box (hereinafter referred to as the 3D plane) on the 3D plane that most tightly includes the actual occupied size in the 3D space of the augmented composite object obtained based on the geometric correction information of the RGBD sensor at the time of shooting. ) And register the bounding box RGB image area of the bounding box projected by affine projection or the like according to the camera projection model of the RGBD sensor at the time of AR content shooting as a texture map of the 3D planar bounding box. Also, in order to maximize the amount of visualization information when setting the 3D plane, the 3D plane can be arranged perpendicular to the experience space and the planes can be placed facing each other. In this case, four vertices of the 3D plane generated for the registration of the texture map may be projected onto the RGB image of the AR content by using an inverse transformation relationship between the RGBD sensor coordinate system and the experience space coordinate system at the time of AR content shooting. You can register the area connecting the four projected vertices as a texture map. Also, if the 2D RGB image includes alpha map information for alpha blending for natural composition of the boundary surface during augmented synthesis, when the RGB image area is registered as a texture map, the alpha information is added to the texture map alpha map. Registering the mask information allows the 3D rendering engine to calculate the natural alpha blending effect when rendering the image. However, since there is a difference in the position between the experiencer and the augmented synthesis object, the position and orientation of the 3D plane are recalculated according to the 3D transform equation using the adjustment transformation information of the 3D data processing unit 303 of the AR content, and the 2D RGB image 1002 of the experiencer is calculated. Projection is performed using the inverse transformation relationship between the RGBD sensor and the experience space, and the RGB image of the AR content reflecting the image transformation by perspective can be obtained. The experienced person can see the AR image as if a real person (e.g K-Pop star) is next to the reality as shown in FIG. Such an implementation can realize high realistic augmented synthesis with a small amount of computation, but if the actual spatial occupancy is distributed vertically in the normal direction of the generated 3D plane according to the pose of the augmented composite object (eg, the sensor is The greater the difference between the position / angle of the RGBD sensor during AR content shooting and the position / angle of the RGBD sensor during AR service, the more the image conversion quality may be distorted.

또 다른 구현방법으로는 AR 콘텐츠의 전경영상을 구성하는 각 픽셀들에 대해 3D 데이터 처리부(303)를 통해 RGB 픽셀별로 재계산된 3D 위치정보를 이용해 3D vertex를 생성하고 인접 픽셀들과의 상관관계 정보를 이용하여 삼각형 혹은 사각형으로 구성된 3D 로컬 메쉬 모델(mesh model)를 생성하고 메쉬 모델의 topology를 AR 콘텐츠 촬영 당시의 RGBD 센서 좌표계와 체험공간 좌표계간의 역변환 관계를 이용해 AR 콘텐츠의 RGB 영상에 투영 했을때의 대응되는 RGB 영상영역들을 텍스쳐 맵으로 등록한다. 다음으로는 3D 좌표계 조정부(301)를 통해 계산된 조정변환 정보를 이용해 메쉬 모델을 구성하는 각 vertex들의 위치를 3D 변환해 주고 변환된 결과 메쉬 모델을 체험자의 RGB영상 시점에 3D 렌더링하여 증강 합성하면 체험자는 도 5와 같이 증강합성 대상이 옆에 있는 듯한 AR 효과를 체험하게 된다. 또한, 전자와 같은 방법으로 2D RGB 영상에 알파 블랜딩을 위한 알파 맵(alpha map) 정보가 포함되어 있을 경우 RGB 영상을 텍스쳐 맵으로 등록할 때 텍스쳐 맵의 알파 맵 마스크 정보에 등록하여 준다. 이러한 구현방법은 전자의 3D 평면 근사방법 대비 연산량은 늘어나지만 RGB 영상 변환 시 증강합성 대상의 자세나 위치에 따른 3D 공간 점유 형태에 영향을 받지 않으며 AR 콘텐츠 촬영 당시와 라이브 서비스 시의 센서 시점차에 따른 영상 왜곡의 영향을 받지 않는다.In another implementation method, a 3D vertex is generated using 3D location information recalculated for each RGB pixel by the 3D data processor 303 for each pixel constituting the foreground image of the AR content and correlated with adjacent pixels. Using this information, we generated a 3D local mesh model consisting of triangles or squares and projected the topology of the mesh model onto the RGB image using the inverse transformation relationship between the RGBD sensor coordinate system and the experiential space coordinate system at the time of AR content shooting. Register the corresponding RGB image areas as a texture map. Next, by using the adjustment transformation information calculated by the 3D coordinate system adjusting unit 301, the positions of the vertices constituting the mesh model are 3D transformed, and the resultant mesh model is 3D rendered at the viewpoint of the RGB image of the experienced person and augmented and synthesized. The experienced person will experience the AR effect as if the augmented synthetic target is next to it, as shown in FIG. 5. In addition, if the 2D RGB image includes alpha map information for alpha blending in the same manner as above, when the RGB image is registered as the texture map, the 2D RGB image is registered to the alpha map mask information of the texture map. This implementation method increases the calculation amount compared to the former 3D plane approximation method, but it is not affected by the 3D space occupied form according to the pose or position of the augmented composite object when converting RGB images, and the sensor viewpoint difference between AR content shooting and live service. It is not affected by image distortion.

이 경우, AR 콘텐츠 촬영 당시와 라이브 서비스가 되는 센서의 시점이 일치하지 않고 다를 경우 3D 메쉬화된 AR 콘텐츠의 3D 정보를 라이브 센서 시점에 렌더링하게 되면 AR 콘텐츠 촬영시점에서 보이지 않던 정보가 라이브 시점에서 보일 수 있게 되고 이 경우 체험자는 증강 합성되는 AR 콘텐츠에서 홀(Hole)을 보게 된다. 이러한 문제를 해소하기 위해서 AR 콘텐츠는 시간축으로 전개되는 매 프레임의 RGB와 Depth 영상을 모두 이용해 하나의 글로벌 메쉬 모델(Mesh model)을 생성하고 각 프레임별로 AR 콘텐츠 내 실제 인물(e.g. K-Pop 스타) 등의 움직임에 따른 글로벌 메쉬 모델와 각 프레임별 로컬 메쉬 모델의 변형관계를 설명하는 대응관계를 찾을 수 있다. 이러한 대응관계를 이용해 글로벌 메쉬 모델의 각 메쉬에 대해 특정 프레임에서 상호 가림(occlusion) 때문에 보이지 않던 해당 메쉬의 칼라 정보를 시간축의 다른 가시성(visibility)을 가지는 프레임에서 획득 할 수 있다. 이러한 글로벌 메쉬 모델은 AR 콘텐츠 촬영 이후 오프라인 연산으로 계산되어 제공될 수 있으며, 필요 시 라이브 서비스에서 연산될 수도 있다.In this case, if the point of time when shooting AR content is different from the point of time of the sensor serving as a live service, when the 3D information of the 3D meshed AR content is rendered at the time of the live sensor, the information that was not visible at the time of AR content shooting is not displayed at the time of live content In this case, the experiencer sees a hole in AR content that is augmented and synthesized. In order to solve this problem, AR content creates one global mesh model using both RGB and depth images of each frame that are developed on the time axis, and the actual person (eg K-Pop star) in AR content for each frame. Correspondences that explain the deformation relationship between the global mesh model and the local mesh model for each frame according to the movement of the back can be found. Using this correspondence, color information of the mesh, which was not visible due to occlusion in a specific frame, for each mesh of the global mesh model can be obtained in a frame having different visibility on the time axis. Such a global mesh model may be calculated and provided by offline calculation after AR content shooting, or may be calculated in a live service if necessary.

이러한 글로벌 메쉬 모델을 구축함으로써 라이브 센서 시점에서 현재 AR 콘텐츠의 증강합성 시 홀이 발생할 경우 홀이 발생된 해당 픽셀의 칼라 정보는 글로벌 메쉬 모델에서 칼라값을 찾아 증강합성 시 사용하게 되면 사용자는 홀 대신 해당 시점에서의 AR 콘텐츠의 칼라를 볼 수 있게 된다.By constructing such a global mesh model, if a hole occurs during augmented synthesis of AR content at the time of a live sensor, the color information of the pixel where the hole is generated is used to find a color value in the global mesh model and use it during augmented synthesis. The color of the AR content at that time can be seen.

또 다른 일 예로, Surfel 렌더링 방식을 이용할 수 있다. AR 콘텐츠의 전경영상을 구성하는 각 픽셀의 3D 위치에 Surfel을 생성하고 주변 픽셀들의 3D 정보를 이용해 surfel의 normal 정보를 설정할 수 있다. 다음으로 일정 반경을 가지는 surfel의 영역을 RGB 영상에 투영해 칼라 텍스쳐 정보를 surfel 별로 등록할 수 있다. 다음으로 각 surfel을 체험자의 라이브 시점에 맞게 3D 변환하여 렌더링하게 되면 체험자는 AR 콘텐츠가 체험자와 같은 공간에서 인터랙션하고 있는 증강효과를 가져 올 수 있다. 이 방식이 위의 두 방식에 비해 가지는 장점은 첫 번째 방식의 3D 평면 근사화에 따른 AR콘텐츠와 라이브 센서 시점차가 클 경우의 영상왜곡 문제를 쉽게 해소할 수 있다. 두 번째 방식의 로컬 메쉬모델에 기반한 방법에서 발생하는 시점차에 따른 홀 문제를 surfel의 반경과 normal을 두 센서 간 시점차에 맞게 최적화 기법들을 이용해 조정하여 해소할 수 있다는 것이다.As another example, Surfel rendering may be used. Surfel is created at the 3D position of each pixel constituting the foreground image of the AR content, and the normal information of the surfel can be set using the 3D information of neighboring pixels. Next, color texture information may be registered for each surfel by projecting an area of a surfel having a certain radius onto an RGB image. Next, when each surfel is 3D converted and rendered according to the live view of the experiencer, the experiencer can bring an augmentation effect that the AR content is interacting in the same space as the experiencer. The advantage of this method over the above two methods is that it can easily solve the image distortion problem when the AR content and the live sensor viewpoint difference are large due to the 3D planar approximation of the first method. The hole problem due to the viewpoint difference caused by the method based on the local mesh model of the second method can be solved by using optimization techniques to adjust the radius of the surfel and the normal to the viewpoint difference between the two sensors.

또 다른 방법은 라이트 필드(Light Field) 센서를 이용하는 방법이 있을 수 있다. 라이브 센서 시점에 맞게 시점과 포커스를 정의하고 해당 시점의 영상을 생성 후 상기의 방법론에 적용하여 서비스 할 수 있다.Another method may be using a light field sensor. A view and focus can be defined according to a live sensor view, and an image of a corresponding view can be generated and applied to the methodology above to serve.

이상과 같이 다양한 실시예로 전 처리부에 해당하는 2D 데이터 처리부(304)와 후 처리부에 해당하는 2D/3D 데이터와핑부(501)를 구성할 수 있다.As described above, the 2D data processor 304 corresponding to the preprocessor and the 2D / 3D data warping unit 501 corresponding to the post processor may be configured in various embodiments.

체험자와 AR 콘텐츠 간의 3D 상호작용 처리부(400)는 체험자의 3D 공간 위치에 맞게 AR콘텐츠의 3D 정보를 3D 좌표계 조정부(301)와 AR 콘텐츠의 3D 데이터 처리부(303)를 통해 변형하고 이를 체험자의 3D 정보와 체험공간 좌표계하의 체험공간에서 비교하여 상호작용을 처리할 수 있다.The 3D interaction processor 400 between the experiencer and the AR content transforms the 3D information of the AR content through the 3D coordinate system controller 301 and the 3D data processor 303 of the AR content according to the 3D spatial position of the experiencer, and then changes the 3D information of the experiencer. Interaction can be handled by comparing information and experience space under experience space coordinate system.

상호작용처리부(400)는 체험자를 기준으로 3D 정보가 조정된 AR콘텐츠의 3D 정보를 기준으로 체험자가 인위적으로 3D 인터랙션을 요구하는지를 체크하기 위한 3D충돌처리감지부(401)와 충돌처리가 발생한 경우 체험자의 의도에 맞게 AR 서비스에서 사전 정의된 3D 인터랙션을 통해 상호작용을 생성하는 3D 인터랙션 처리부(402)로 구성될 수 있다.When the interaction processing unit 400 collides with the 3D collision processing detection unit 401 for checking whether the experience person artificially requires 3D interaction based on the 3D information of the AR content whose 3D information is adjusted based on the experience person, 3D interaction processing unit 402 for generating an interaction through a 3D interaction predefined in the AR service according to the intention of the experience.

먼저 3D충동처리감지부(401)는 체험자의 3D 정보 처리부(202)와 AR 콘텐츠의 3D데이터처리부(303)에서 생성된 Skeleton기반 Spherical 혹은 Bounding-Box 모델, 3D 바운딩박스, 대표 3D 평면 등의 정보간의 충돌을 체크할 수 있다. 이때, 충돌이 있을 경우, 3D 충돌이 발생한 유형정보를 3D인터랙션처리부(402)로 보낼 수 있다. 충돌체크는 skeleton 기반으로 인체의 외형을 간소화하여 구성된 sphere 혹은 bounding box, low-resolution polygonal mesh 등의 단위 3D 개체들이 3D 공간상에서 겹쳐짐을 가지는지를 체크하여 확인할 수 있다. 일 예로, 체험자의 왼팔의 골격구조를 대변하는 skeleton에 부속된 왼손을 간략화한 3D 단위 개체가 AR 콘텐츠의 오른손과 충돌이 발생할 경우, 유형정보는 체험자가 AR 콘텐츠의 실제 인물(e.g K-Star)과 손을 잡는 인터랙션을 원한다고 판단할 수 있다. 따라서, 이에 해당하는 충돌 유형정보를 3D인터랙션처리부(402)에 보내게 되면 인터랙션 처리부는 해당 유형정보에 맞게 사전 준비된 2D/3D 리액션 콘텐츠 중 손을 잡고 사진을 촬영하는 콘텐츠를 증강 합성하여 체험자에 보여줄 수 있다. 이를 통해, 2D 비디오영상을 이용해 체험자에게 실제 AR 콘텐츠내 2D/3D 실제 인물(e.g. K-Star) 등과 고품질 영상기반의 3D 인터랙션을 제공할 수 있다.First, the 3D impulse process detecting unit 401 is a skeleton-based spherical or bounding-box model, a 3D bounding box, a representative 3D plane, and the like generated by the 3D information processor 202 and the 3D data processor 303 of the AR content. You can check for conflicts. In this case, when there is a collision, the 3D interaction processing unit 402 may transmit the type information in which the 3D collision occurs. Collision checking can be confirmed by checking whether unit 3D objects, such as spheres or bounding boxes and low-resolution polygonal meshes, which are constructed by simplifying the appearance of the body based on a skeleton, have overlapping in 3D space. For example, if a 3D unit object that simplifies the left hand attached to the skeleton representing the skeleton of the experiencer's left arm collides with the right hand of the AR content, the type information indicates that the experiencer is the real person of the AR content (eg K-Star). You can decide that you want to interact with each other. Therefore, when the corresponding collision type information is sent to the 3D interaction processing unit 402, the interaction processing unit augments and synthesizes the content of taking pictures by holding hands among 2D / 3D reaction contents prepared in advance according to the type information. Can be. Through this, it is possible to provide a high quality image based 3D interaction with the 2D / 3D real person (e.g. K-Star) and the like in the actual AR content using the 2D video image.

AR 렌더링 처리부(500)는 체험자의 3D 정보와 3D 상호작용에 맞게 AR 콘텐츠를 최종 변형, 정합 및 렌더링하여 디스플레이부(3000)에 제공하는 기능을 수행할 수 있다. 이때, AR 렌더링 처리부(500)는 2D/3D데이터와핑부(501), 2D/3D데이터렌링부(502) 및 2D비디오정합부(503)로 구성될 수 있다.The AR rendering processor 500 may perform a function of finally transforming, matching, and rendering AR content to the display 3000 in accordance with the 3D information and 3D interaction of the experienced person. In this case, the AR rendering processor 500 may include a 2D / 3D data mapping unit 501, a 2D / 3D data blending unit 502, and a 2D video matching unit 503.

2D/3D데이터와핑부(501)는 2D 데이터 처리부(304)와 연계된 다양한 실시예를 통해 설명을 하였으며, 이는 상술한 바와 같다. 2D/3D데이터와핑부(501)는 체험공간내 체험자의 3D 공간 위치와 라이브 센서 시점에 맞게 AR 콘텐츠 상의 2D 비디오영상을 3D 공간상에 배치하고 해당 실시예에 따라 3D 공간상에서 위치와 방향을 변형하는 역할을 수행할 수 있다. 이렇게 3D 공간상에서 변형된 2D/3D 데이터는 Unity3D 등과 같은 콘텐츠 저작도구겸 3D 렌더링 엔진상에서 실제 공간과 대응되도록 배치할 수 있다.The 2D / 3D data warping unit 501 has been described through various embodiments associated with the 2D data processing unit 304, as described above. The 2D / 3D data warping unit 501 arranges the 2D video image on the AR content in 3D space according to the 3D space position of the experience person and the live sensor viewpoint in the experience space, and transforms the position and direction in the 3D space according to the embodiment. It can play a role. The 2D / 3D data transformed in the 3D space can be arranged to correspond to the real space on a content authoring tool such as Unity3D and the 3D rendering engine.

2D/3D데이터렌더링부(502)는 사전에 정의된 체험공간의 조명정보를 콘텐츠 내에 배치한 환경 맵(Environment Map)이나 조명(Point/Directional light source)등을 통한 조명효과를 포함하여 3D 렌더링을 수행할 수 있다. 이 과정에서 자연스러운 AR 증강합성 효과를 위해 3D 데이터 처리부(303)에서 2D/3D데이터의 3D 공간배치 과정에 사용된 정보와 배치조명 정보를 이용해 AR콘텐츠 내 실제 인물(e.g. K-Star)의 체험공간 내 배치에 따른 자연스러운 그림자를 생성할 수 있다. 일 예로, 3D 평면상에 배치할 경우 2D 데이터의 알파맵 정보를 이용할 수 있으며, 로컬 메쉬 모델을 이용할 경우는 해당 메쉬 모델에 직접 조명을 물리기반 시뮬레이션하여 사실적 그림자를 생성할 수 있다. 2D 비디오영상의 경우 렌더링 과정에서 AR콘텐츠를 촬영한 센서와 체험서비스용 센서 간의 칼라 색공간 변환정보와 조명 환경 맵 정보를 이용해 2D 비디오의 색공간을 체험공간의 조명환경에 맞게 시뮬레이션하여 자연스러운 체험환경의 조명톤이 AR콘텐츠의 2D비디오에 반영되게 할 수 있다.The 2D / 3D data rendering unit 502 performs 3D rendering including lighting effects through environment map or lighting (Point / Directional light source) in which lighting information of a predefined experience space is placed in the content. Can be done. In this process, the 3D data processing unit 303 uses the information used in the 3D space arrangement process of the 2D / 3D data and the layout lighting information for a natural AR augmented synthesis effect, and an experience space of a real person (eg K-Star) in the AR content. You can create natural shadows according to your placement. For example, when placed on a 3D plane, alphamap information of 2D data may be used, and when using a local mesh model, realistic shadows may be generated by physically simulating lighting directly on the mesh model. In the case of 2D video image, the color space of the 2D video is simulated according to the lighting environment of the experience space using the color space conversion information and the lighting environment map information between the sensor that captured the AR content and the sensor for the experience service during the rendering process. Can be reflected in the 2D video of the AR content.

2D비디오정합부(503)는 라이브입력센서(1000)에서 입력되고 라이브 2D데이터처리부(203)에서 가공된 2D 비디오정보와 2D/3D데이터렌링부(502)에서 최종 렌더링된 AR콘텐츠의 2D 비디오영상을 하나의 영상으로 증강 합성하는 기능을 수행할 수 있다. 증강합성은 두 비디오정보의 실제 체험자와 AR콘텐츠 내 실제 인물(e.g. K-Star)과 해당 그림자의 픽셀정보들이 두 영상의 깊이 정보를 기반으로 한 가시성테스트(visibility test)를 통해 상호 가림(occlusion)을 고려하여 증강 합성될 수 있다.The 2D video matching unit 503 is a 2D video image of the AR content input from the live input sensor 1000 and processed by the live 2D data processing unit 203 and finally rendered by the 2D / 3D data blending unit 502. It can perform a function of augmented synthesis into a single image. Augmented synthesis occludes the actual experience of the two video information, the actual person (eg K-Star) in the AR content, and the pixel information of the shadow through a visibility test based on the depth information of the two images. May be augmented and synthesized.

최종 증강 합성된 2D 비디오영상은 디스플레이부(3000)을 통해 체험자에게 제공되어 체험자는 AR 콘텐츠의 2D 비디오영상의 고품질 영상과 3D 정보를 통한 3D 인터랙션을 통해 실제 AR 콘텐츠의 실제 인물(e.g K-Star)이 바로 옆에서 있는 듯한 체험을 할 수 있다.The final augmented synthesized 2D video image is provided to the experienced person through the display unit 3000 so that the experienced person can see the real person of the actual AR content (eg K-Star) through 3D interaction through high quality video and 3D information of the 2D video image of the AR content. You can experience as if you are right next to).

디스플레이부(3000)가 optical see-through나 video see-through를 지원하는 HMD(Head Mounted Display)일 경우에는 상기 AR 렌더링 처리부(500)에서 체험자의 동공간 거리에 맞게 설정된 2개의 가상카메라를 통해 스테레오스코픽 렌더링을 수행하는 방식으로 상기 실시예를 확장하여 입체적인 체험효과를 제공할 수 있다.When the display unit 3000 is a head mounted display (HMD) that supports optical see-through or video see-through, the AR rendering processor 500 performs stereo through two virtual cameras set according to the interspace distance of the user. The embodiment can be extended to provide a three-dimensional experience by performing a scopic rendering.

도 7은 AR 서비스를 제공하는 방법을 나타낸 순서도이다.7 is a flowchart illustrating a method of providing an AR service.

AR 서비스를 제공하는 장치는 제 1 대상에 대한 3D 정보 및 2D 비디오 영상 정보를 획득할 수 있다. (S710) 이때, 도 1 내지 도 6에서 상술한 바와 같이, AR 서비스를 제공하는 장치는 AR 실감체험 처리부(100)일 수 있고, 라이브 RGBD 입력 센서부(1000), AR 콘텐츠부(2000) 및 디스플레이부(3000)는 외부 장치일 수 있다. 또 다른 일 예로, AR 서비스를 제공하는 장치는 상술한 라이브 RGBD 입력 센서부(1000), AR 콘텐츠부(2000), 디스플레이부(3000) 및 AR 실감체험 처리부(100)를 모두 포함하는 장치일 수 있으며, 상술한 실시예로 한정되지 않는다.The device providing the AR service may acquire 3D information and 2D video image information about the first target. In this case, as described above with reference to FIGS. 1 to 6, the apparatus for providing the AR service may be an AR experience processing unit 100, a live RGBD input sensor unit 1000, an AR content unit 2000, and The display 3000 may be an external device. As another example, an apparatus for providing an AR service may be a device including all of the above-described live RGBD input sensor unit 1000, AR content unit 2000, display unit 3000, and AR sensory experience processing unit 100. The present invention is not limited to the above-described embodiment.

또한, 일 예로, 제 1 대상은 상술한 체험자일 수 있다. 즉, 상술한 바와 같이, 라이브 RGBD 센서부(1000)를 통해 센싱할 수 있는 대상을 지칭할 수 있으며, 상술한 실시예로 한정되지 않는다. 이때, AR 서비스 장치는 제 1 대상(즉, 체험자)에 대한 3D 정보 및 2D 비디오 영상 정보를 획득할 수 있다. 이때, 일 예로, 2D 비디오 영상 정보는 제 1 대상의 RGB 비디오 영상 정보일 수 있다. 또한, 3D 정보는 뎁스 영상 정보 및 스켈레톤 정보 중 적어도 어느 하나 이상을 포함할 수 있다. Also, as an example, the first object may be the experienced person described above. That is, as described above, it may refer to an object that can be sensed through the live RGBD sensor unit 1000, and is not limited to the above-described embodiment. In this case, the AR service apparatus may obtain 3D information and 2D video image information about the first target (ie, the user). In this case, as an example, the 2D video image information may be RGB video image information of the first target. The 3D information may include at least one of depth image information and skeleton information.

다음으로, 제 1 대상에 기초하여 AR 콘텐츠의 2D 비디오 영상 정보 및 3D 상호 작용 정보를 획득할 수 있다. (S720) 이때, 도 1 내지 도 6에서 상술한 바와 같이, AR 콘텐츠는 실제 인물일 수 있다. 또한, AR 콘텐츠는 제공자에 의해 설정되는 콘텐츠일 수 있으며, 실제 인물에 한정되지 않는다. 이때, 일 예로, AR 콘텐츠는 상술한 AR 콘텐츠부(2000)로부터 획득되는 AR 콘텐츠일 수 있다. 이때, AR 콘텐츠는 사전에 획득된 2D/3D AR 콘텐츠에서 입력되는 증강합성 대상이 되는 RGB 비디오 입력과 비디오 입력의 프레임 별 3D 정보를 포함할 수 있다. 즉, 2D 비디오 영상 정보 및 3D 상호 작용 정보를 포함할 수 있다. 이때, 일 예로, 3D 상호 작용 정보는 3D 정보일 수 있다. 즉, 상호 작용만을 위한 정보로 한정되지 않는다.Next, 2D video image information and 3D interaction information of AR content may be acquired based on the first object. In this case, as described above with reference to FIGS. 1 to 6, the AR content may be a real person. Also, the AR content may be content set by a provider, and is not limited to an actual person. In this case, for example, the AR content may be AR content obtained from the above-described AR content unit 2000. In this case, the AR content may include an RGB video input, which is an augmented synthesis target input from the previously obtained 2D / 3D AR content, and 3D information for each frame of the video input. That is, it may include 2D video image information and 3D interaction information. In this case, as an example, the 3D interaction information may be 3D information. That is, the information is not limited only to the interaction.

다음으로, AR 서비스 제공 장치는 제 1 대상에 대한 2D 비디오 영상 정보 및 AR 콘텐츠의 2D 비디오 영상 정보를 결합할 수 있다. (S730) 도 1 내지 도 6에서 상술한 바와 같이, 제 1 대상에 대한 센서(e.g 라이브 RGBD 입력 센서)와 AR 콘텐츠에 대한 센서(e.g AR 콘텐츠부의 센서)가 다른 경우, 각각의 센서에서 사용되는 좌표계가 다를 수 있다. 이때, 상술한 바와 같이 상술한 좌표계를 동일한 좌표계(e.g. 체험 공간 좌표계)로 변환시킬 필요성이 있다. 즉, 제 1 대상의 3D 공간 정보에 기초하여 AR 콘텐츠의 3D 공간 정보를 변환시킬 필요성이 있다. 일 예로, 3D 공간 정보는 대상의 3D 위치, 자세, 각도, 방향 및 크기 중 적어도 어느 하나 이상에 기초하여 결정되는 정보일 수 있다. 즉, 3D 공간 정보는 대상에 대한 3D 공간 상의 정보를 지칭할 수 있으며, 이는 상술한 바와 같다. 보다 상세하게는, 상술한 바와 같이, 제 1 대상의 위치나 자세, 각도 등과 무관하게 AR 서비스를 제공받도록 하기 위해 제 1 대상의 3D 공간 정보를 결정할 필요성이 있다. 이를 통해, 제 1 대상이 지정된 위치로 이동하지 않더라도, AR 서비스를 제공받을 수 있다. 또한, 일 예로, 상술한 제 1 대상에 대한 정보는 제 1 센서를 통해 획득될 수 있고, AR 콘텐츠에 대한 정보는 제 2 센서에 대한 정보일 수 있다. 일 예로, 제 1 센서 및 제 2 센서는 카메라를 포함할 수 있다. 이때, 제 1 센서 및 제 2 센서는 각각의 대상에 대한 정보를 획득할 때의 정보인 환경 정보가 서로 상이할 수 있다. 이때, 환경 정보는 센서가 대상의 정보를 획득할 때의 위치, 각도, 방향 거리 등에 대한 정보 중 적어도 어느 하나 이상일 수 있다. 일 예로, 카메라의 위치, 각도 카메라와 대상까지의 거리 및 방향 등이 상술한 환경 정보일 수 있으며, 상술한 실시예로 한정되지 않는다.Next, the AR service providing apparatus may combine 2D video image information of the first object and 2D video image information of the AR content. As described above with reference to FIGS. 1 to 6, when a sensor (eg, a live RGBD input sensor) for a first object and a sensor for an AR content (eg, a sensor of an AR content unit) are different from each other, it is used in each sensor. The coordinate system can be different. At this time, it is necessary to convert the above-described coordinate system into the same coordinate system (e.g. experience space coordinate system) as described above. That is, there is a need to convert 3D spatial information of the AR content based on the 3D spatial information of the first object. For example, the 3D spatial information may be information determined based on at least one or more of a 3D position, posture, angle, direction, and size of the object. That is, the 3D space information may refer to information on the 3D space for the object, as described above. More specifically, as described above, it is necessary to determine 3D spatial information of the first object in order to receive the AR service regardless of the position, attitude, angle, etc. of the first object. Through this, even if the first target does not move to the designated location, the AR service may be provided. Also, as an example, the above-described information about the first object may be obtained through the first sensor, and the information about the AR content may be information about the second sensor. For example, the first sensor and the second sensor may include a camera. In this case, the first sensor and the second sensor may be different from each other, the environmental information that is information when obtaining information about each object. In this case, the environment information may be at least one or more of information about a position, an angle, a directional distance, etc. when the sensor acquires the target information. For example, the position of the camera, the distance and the direction between the angle camera and the object may be the above-mentioned environmental information, and are not limited to the above-described embodiment.

또한, 일 예로, 제 1 대상에 대한 2D 비디오 영상 정보 및 AR 콘텐츠의 2D 비디오 영상 정보도 변환된 좌표계에 기초하여 결합될 수 있다. In addition, as an example, 2D video image information of the first object and 2D video image information of the AR content may also be combined based on the converted coordinate system.

다음으로, AR 서비스 제공 장치는 결합된 2D 비디오 영상을 출력할 수 있다. (S740) 이때, 도 1 내지 도 6에서 상술한 바와 같이, AR 서비스 제공 장치는 결합된 2D 비디오 영상을 디스플레이부(3000)를 통해 출력할 수 있다. 또한, 일 예로, AR 서비스 제공 장치는 2D 비디오 영상과 함께 3D 상호 작용 서비스를 제공할 수 있다. 즉, 좌표계에 기초하여 변환되어 결합된 AR 콘텐츠를 바탕으로 제 1 대상(또는 체험자)에게 AR 콘텐츠와 관련된 3D 상호 작용 서비스를 제공할 수 있다. 이때, 3D 상호 작용 서비스는 제 1 대상과 인접한 위치에서 제공될 수 있으며, 상술한 실시예로 한정되지 않는다. 이를 통해, 제 1 대상은 결합된 2D 비디오 영상에 기초하여 3D 상호 작용 서비스를 제공받을 수 있다.Next, the AR service providing apparatus may output the combined 2D video image. In this case, as described above with reference to FIGS. 1 to 6, the AR service providing apparatus may output the combined 2D video image through the display 3000. Also, as an example, the AR service providing apparatus may provide a 3D interaction service together with a 2D video image. That is, the 3D interaction service related to the AR content may be provided to the first object (or experiencer) based on the AR content converted and combined based on the coordinate system. In this case, the 3D interaction service may be provided at a location adjacent to the first object, and is not limited to the above-described embodiment. In this way, the first object may be provided with a 3D interaction service based on the combined 2D video image.

본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같은 저장 매체(즉, 메모리 및/또는 스토리지)에 상주할 수도 있다. 예시적인 저장 매체는 프로세서에 커플링되며, 그 프로세서는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로 (ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.The steps of a method or algorithm described in connection with the embodiments disclosed herein may be embodied directly in hardware, a software module, or a combination of the two executed by a processor. The software module may reside in a storage medium (ie, memory and / or storage) such as RAM memory, flash memory, ROM memory, EPROM memory, EEPROM memory, registers, hard disk, removable disk, CD-ROM. An exemplary storage medium is coupled to the processor, which can read information from and write information to the storage medium. In the alternative, the storage medium may be integral to the processor. The processor and the storage medium may reside within an application specific integrated circuit (ASIC). The ASIC may reside in a user terminal. In the alternative, the processor and the storage medium may reside as discrete components in a user terminal.

본 발명의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 발명에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.Exemplary methods of the present invention are presented as a series of operations for clarity of description, but are not intended to limit the order in which the steps are performed, and each step may be performed simultaneously or in a different order as necessary. In order to implement the method according to the present invention, the steps illustrated may include additional steps in addition to, may include other steps except for some steps, or may include additional other steps except for some steps.

본 발명의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 발명의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.The various embodiments of the present invention are not intended to list all possible combinations, but to describe representative aspects of the present invention, and the matters described in various embodiments may be applied independently or in combination of two or more.

또한, 본 발명의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.In addition, various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof. For hardware implementations, one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs), Field Programmable Gate Arrays (FPGAs), General Purpose It may be implemented by a general processor, a controller, a microcontroller, a microprocessor, and the like.

본 발명의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.It is intended that the scope of the invention include software or machine-executable instructions (e.g., operating system, applications, firmware, programs, etc.), and such software or software, for causing operations in accordance with various embodiments of the methods to be executed on a device or computer. Instructions, and the like, including non-transitory computer-readable media that are stored and executable on a device or computer.

100 : AR 실감체험 처리부 200 : 라이브 RGBD 처리부
300 : 2D/3D AR 콘텐츠 처리부 400 : 3D 상호 작용 처리부
500 : AR 랜더링 처리부 1000: 라이브 RGBD 입력센서부
2000 : AR 콘텐츠부 3000: 디스플레이부
100: AR experience experience processing unit 200: live RGBD processing unit
300: 2D / 3D AR content processing unit 400: 3D interaction processing unit
500: AR rendering processing unit 1000: live RGBD input sensor
2000: AR content unit 3000: Display unit

Claims (19)

증강현실(Augmented Reality, AR) 서비스 제공 방법에 있어서,
제 1 대상(Object)에 대한 3D 정보 및 2D 비디오 영상 정보를 획득하는 단계;
상기 제 1 대상에 기초하여 AR 콘텐츠의 2D 비디오 영상 정보 및 3D 상호 작용 정보를 획득하는 단계;
상기 제 1 대상에 대한 상기 2D 비디오 영상 정보 및 상기 AR 콘텐츠의 상기 2D 비디오 영상 정보를 결합하는 단계; 및
상기 결합된 2D 비디오 영상을 출력하는 단계;를 포함하되,
상기 제 1 대상에 대한 상기 3D 정보 및 상기 2D 비디오 영상 정보에 기초하여 상기 제 1 대상의 3D 공간 정보를 결정하고,
상기 AR 콘텐츠의 3D 공간 정보를 상기 제 1 대상의 상기 결정된 3D 공간 정보에 따라 조정하고,
상기 AR 콘텐츠의 상기 2D 비디오 영상 정보는 상기 조정된 AR 콘텐츠의 3D 공간 정보에 기초하여 상기 제 1 대상에 대한 상기 2D 비디오 영상 정보와 결합되되,
상기 AR 콘텐츠의 2D 비디오 영상 정보는 미리 촬영된 2D/3D AR 콘텐츠로부터 입력되는 증강 합성의 대상이 되는 RGB 비디오 입력이며,
상기 AR 콘텐츠의 3D 상호 작용 정보는 상기 RGB 비디오 입력의 프레임 별 3D 정보인 것을 특징으로 하는,
AR 서비스 제공 방법.
In the augmented reality (AR) service providing method,
Acquiring 3D information and 2D video image information on a first object;
Acquiring 2D video image information and 3D interaction information of AR content based on the first object;
Combining the 2D video image information of the first object and the 2D video image information of the AR content; And
And outputting the combined 2D video image.
Determine 3D spatial information of the first object based on the 3D information and the 2D video image information about the first object,
Adjust 3D spatial information of the AR content according to the determined 3D spatial information of the first object,
The 2D video image information of the AR content is combined with the 2D video image information for the first object based on the 3D spatial information of the adjusted AR content.
The 2D video image information of the AR content is an RGB video input that is an object of augmented synthesis inputted from 2D / 3D AR content photographed in advance.
3D interaction information of the AR content is characterized in that the 3D information per frame of the RGB video input,
How to provide AR services.
제 1 항에 있어서,
상기 제 1 대상의 3D 공간 정보는 상기 제 1 대상의 3D 위치, 자세, 각도, 방향, 크기 중 적어도 어느 하나 이상을 포함하고,
상기 AR 콘텐츠의 3D 공간 정보는 상기 AR 콘텐츠의 3D 위치, 자세, 각도, 방향, 크기 중 적어도 어느 하나 이상을 포함하는, AR 서비스 제공 방법.
The method of claim 1,
3D spatial information of the first object includes at least one of 3D position, posture, angle, direction, and size of the first object,
The 3D spatial information of the AR content includes at least one or more of the 3D position, attitude, angle, direction, size of the AR content.
제 2 항에 있어서,
상기 제 1 대상에 대한 정보를 획득하는 제 1 센서의 환경 정보와 상기 AR 콘텐츠에 대한 정보를 획득하는 제 2 센서의 환경 정보가 서로 상이한 경우, 상기 AR 콘텐츠의 3D 공간 정보를 상기 제 1 대상의 상기 결정된 3D 공간 정보에 따라 조정하는, AR 서비스 제공 방법.
The method of claim 2,
When the environmental information of the first sensor obtaining the information on the first object and the environmental information of the second sensor obtaining the information on the AR content are different from each other, 3D spatial information of the AR content may be converted into And adjusting according to the determined 3D spatial information.
제 3 항에 있어서,
상기 제 1 센서의 상기 환경 정보는 상기 제 1 센서가 상기 제 1 대상에 대한 정보를 획득할 때의 위치, 각도, 방향 및 거리 정보 중 적어도 어느 하나 이상을 포함하고,
상기 제 2 센서의 상기 환경 정보는 상기 제 2 센서가 상기 AR 콘텐츠에 대한 정보를 획득할 때의 위치, 각도, 방향 및 거리 정보 중 적어도 어느 하나 이상을 포함하는, AR 서비스 제공 방법.
The method of claim 3, wherein
The environment information of the first sensor includes at least one of position, angle, direction, and distance information when the first sensor obtains information on the first object,
And the environment information of the second sensor includes at least one of position, angle, direction, and distance information when the second sensor obtains information on the AR content.
제 1 항에 있어서,
상기 AR 콘텐츠의 상기 3D 상호 작용 정보에 기초하여 상기 제 1 대상에 대한 3D 상호 작용 서비스를 제공하는, AR 서비스 제공 방법.
The method of claim 1,
And providing a 3D interaction service for the first object based on the 3D interaction information of the AR content.
제 5항에 있어서,
상기 3D 상호 작용 서비스는 상기 결합된 2D 비디오 영상과 연동되어 제공되는 서비스인, AR 서비스 제공 방법.
The method of claim 5,
The 3D interaction service is a service provided in conjunction with the combined 2D video image, AR service providing method.
제 1 항에 있어서,
상기 제 1 대상에 대한 상기 3D 정보는 뎁스(Depth) 영상 및 스켈레톤(Skeleton) 정보 중 적어도 어느 하나 이상에 기초하여 획득되는 정보인, AR 서비스 제공 방법.
The method of claim 1,
The 3D information on the first object is information obtained based on at least one or more of a depth image and skeleton information, AR service providing method.
제 3 항에 있어서,
상기 제 1 센서 및 상기 제 2 센서가 서로 다른 센서인 경우, 상기 제 1 대상의 상기 3D 정보 및 상기 2D 비디오 영상 정보는 제 1 좌표계에 기초하여 획득되고,
상기 AR 콘텐츠의 2D 비디오 영상 정보 및 3D 상호 작용 정보는 제 2 좌표계에 기초하여 획득되는, AR 서비스 제공 방법.
The method of claim 3, wherein
When the first sensor and the second sensor are different sensors, the 3D information and the 2D video image information of the first object are obtained based on a first coordinate system.
2D video image information and 3D interaction information of the AR content is obtained based on a second coordinate system.
제 8 항에 있어서,
상기 제 1 좌표계 및 상기 제 2 좌표계는 동일한 제 3 좌표계로 변환되고, 상기 제 1 대상의 상기 3D 공간 정보 및 상기 AR 콘텐츠의 상기 3D 공간 정보는 상기 제 3 좌표계에 기초하여 결정되는, AR 서비스 제공 방법.
The method of claim 8,
The first coordinate system and the second coordinate system are converted into the same third coordinate system, and the 3D spatial information of the first object and the 3D spatial information of the AR content are determined based on the third coordinate system. Way.
제 1 항에 있어서,
상기 제 1 대상의 상기 3D 공간 정보에 기초하여 조정선을 생성하고,
상기 생성된 조정선에 기초하여 상기 AR 콘텐츠의 상기 3D 공간 정보가 상기 제 1 대상의 상기 3D 공간 정보에 따라 조정되는, AR 서비스 제공 방법.
The method of claim 1,
Generate an adjustment line based on the 3D spatial information of the first object,
And the 3D spatial information of the AR content is adjusted according to the 3D spatial information of the first object based on the generated adjustment line.
제 10 항에 있어서,
상기 제 1 대상의 상기 3D 공간 정보가 업데이트되는 경우, 상기 AR 콘텐츠의 상기 3D 공간 정보는 상기 제 1 대상의 상기 업데이트된 3D 공간 정보에 기초하여 자동으로 업데이트되는, AR 서비스 제공 방법.
The method of claim 10,
And when the 3D spatial information of the first object is updated, the 3D spatial information of the AR content is automatically updated based on the updated 3D spatial information of the first object.
제 1 항에 있어서,
상기 제 1 대상에 대한 상기 2D 비디오 영상 정보 및 상기 AR 콘텐츠의 상기 2D 비디오 영상 정보를 결합하는 단계;는 상기 제 1 대상에 대한 상기 2D 비디오 영상 정보의 깊이 정보 및 상기 AR 콘텐츠의 상기 2D 비디오 영상 정보의 깊이 정보에 기초하여 증강합성되는 단계;를 포함하는, AR 서비스 제공 방법.
The method of claim 1,
Combining the 2D video image information for the first object and the 2D video image information of the AR content; depth information of the 2D video image information for the first object and the 2D video image of the AR content And augmented and synthesized based on depth information of the information.
제 12 항에 있어서,
상기 제 1 대상에 대한 상기 2D 비디오 영상 정보 및 상기 AR 콘텐츠의 상기 2D 비디오 영상 정보는 상호 가림(Occlusion) 및 가시성(Visibility)를 고려하여 증강합성되는, AR 서비스 제공 방법.
The method of claim 12,
And the 2D video image information of the first object and the 2D video image information of the AR content are augmented and synthesized in consideration of occlusion and visibility.
제 1 항에 있어서,
상기 결합된 2D 비디오 영상은 HMD(Head Mounted Display)를 통해 디스플레이되는, AR 서비스 제공 방법.
The method of claim 1,
The combined 2D video image is displayed through a head mounted display (HMD), AR service providing method.
증강현실(Augmented Reality, AR) 서비스를 제공하는 장치에 있어서,
라이브 RGBD 처리부;
AR 콘텐츠 처리부;
3D 상호작용 처리부; 및
AR 렌더링 처리부;를 포함하되,
상기 라이브 RGBD 처리부를 통해 제 1 대상(Object)에 대한 3D 정보 및 2D 비디오 영상 정보를 획득하되,
상기 제 1 대상에 대한 상기 3D 정보 및 상기 2D 비디오 영상 정보에 기초하여 상기 제 1 대상의 3D 공간 정보가 결정되고,
상기 AR 콘텐츠 처리부를 통해 AR 콘텐츠의 2D 비디오 영상 정보 및 3D 상호 작용 정보를 획득하되,
상기 AR 콘텐츠의 3D 공간 정보를 상기 제 1 대상의 상기 결정된 3D 공간 정보에 따라 조정하고,
상기 AR 렌더링 처리부를 통해 상기 제 1 대상에 대한 상기 2D 비디오 영상 정보 및 상기 AR 콘텐츠의 상기 2D 비디오 영상 정보를 결합하되,
상기 AR 콘텐츠의 상기 2D 비디오 영상 정보는 상기 조정된 AR 콘텐츠의 3D 공간 정보에 기초하여 상기 제 1 대상에 대한 상기 2D 비디오 영상 정보와 결합되되,
상기 AR 콘텐츠의 2D 비디오 영상 정보는 미리 촬영된 2D/3D AR 콘텐츠로부터 입력되는 증강 합성의 대상이 되는 RGB 비디오 입력이며,
상기 AR 콘텐츠의 3D 상호 작용 정보는 상기 RGB 비디오 입력의 프레임 별 3D 정보인 것을 특징으로 하는,
AR 서비스 제공 장치.
In the device for providing augmented reality (AR) services,
A live RGBD processor;
AR content processing unit;
3D interaction processing unit; And
Including an AR rendering processor;
Acquire 3D information and 2D video image information on a first object through the live RGBD processor,
3D spatial information of the first object is determined based on the 3D information and the 2D video image information about the first object,
Acquire 2D video image information and 3D interaction information of AR content through the AR content processor,
Adjust 3D spatial information of the AR content according to the determined 3D spatial information of the first object,
Combine the 2D video image information of the AR and the 2D video image information of the AR content through the AR rendering processor,
The 2D video image information of the AR content is combined with the 2D video image information for the first object based on the 3D spatial information of the adjusted AR content.
The 2D video image information of the AR content is an RGB video input that is an object of augmented synthesis inputted from 2D / 3D AR content photographed in advance.
3D interaction information of the AR content is characterized in that the 3D information per frame of the RGB video input,
AR service providing device.
제 15 항에 있어서,
상기 라이브 RGBD 처리부는 상기 제 1 대상(Object)에 대한 상기 3D 정보 및 상기 2D 비디오 영상 정보를 라이브 RGBD 입력 센서로부터 획득하고,
상기 AR 콘텐츠 처리부는 AR 콘텐츠부로부터 상기 AR 콘텐츠의 상기 2D 비디오 영상 정보 및 상기 3D 상호 작용 정보를 획득하고,
상기 제 1 대상에 대한 상기 2D 비디오 영상 정보 및 상기 AR 콘텐츠의 상기 2D 비디오 영상 정보를 결합한 2D 비디오 영상 정보는 디스플레이부를 통해 출력되는, AR 서비스 제공 장치.
The method of claim 15,
The live RGBD processing unit obtains the 3D information and the 2D video image information about the first object from a live RGBD input sensor,
The AR content processor obtains the 2D video image information and the 3D interaction information of the AR content from an AR content unit,
And 2D video image information combining the 2D video image information of the first object and the 2D video image information of the AR content is output through a display unit.
제 16 항에 있어서,
상기 라이브 RGBD 입력 센서 및 상기 AR 콘텐츠부가 서로 다른 센서를 사용하는 경우, 상기 제 1 대상의 상기 3D 정보 및 상기 2D 비디오 영상 정보는 상기 라이브 RGBD 입력 센서 좌표계에 기초하여 획득되고,
상기 AR 콘텐츠의 2D 비디오 영상 정보 및 3D 상호 작용 정보는 상기 AR 콘텐츠부 좌표계에 기초하여 획득되는, AR 서비스 제공 장치.
The method of claim 16,
When the live RGBD input sensor and the AR content unit use different sensors, the 3D information and the 2D video image information of the first object are obtained based on the live RGBD input sensor coordinate system.
2D video image information and 3D interaction information of the AR content is obtained based on the AR content unit coordinate system.
제 17 항에 있어서,
상기 라이브 RGBD 입력 센서 좌표계 및 상기 AR 콘텐츠부 좌표계는 동일한 체험공간 좌표계로 변환되고,
상기 체험공간 좌표계에 기초하여 상기 AR 콘텐츠의 상기 3D 공간 정보가 상기 제 1 대상의 상기 3D 공간 정보에 기초하여 조정되는, AR 서비스 제공 장치.
The method of claim 17,
The live RGBD input sensor coordinate system and the AR content unit coordinate system are converted into the same experience space coordinate system,
And the 3D spatial information of the AR content is adjusted based on the 3D spatial information of the first object based on the experience space coordinate system.
증강현실(Augmented Reality, AR) 서비스를 제공하는 장치에 있어서,
라이브 RGBD 입력센서부;
AR 콘텐츠부;
AR 실감체험 처리부; 및
디스플레이부;를 포함하되,
상기 AR 실감체험 처리부는 상기 라이브 RGBD 입력센서부로부터 제 1 대상(Object)에 대한 3D 정보 및 2D 비디오 영상 정보를 획득하되,
상기 제 1 대상에 대한 상기 3D 정보 및 상기 2D 비디오 영상 정보에 기초하여 상기 제 1 대상의 3D 공간 정보가 결정되고,
상기 AR 실감체험 처리부는 상기 AR 콘텐츠부로부터 AR 콘텐츠의 2D 비디오 영상 정보 및 3D 상호 작용 정보를 획득하되,
상기 AR 콘텐츠의 3D 공간 정보를 상기 제 1 대상의 상기 결정된 3D 공간 정보에 따라 조정하고,
상기 AR 실감체험 처리부는 상기 제 1 대상에 대한 상기 2D 비디오 영상 정보 및 상기 AR 콘텐츠의 상기 2D 비디오 영상 정보를 결합하되,
상기 AR 콘텐츠의 상기 2D 비디오 영상 정보는 상기 조정된 AR 콘텐츠의 3D 공간 정보에 기초하여 상기 제 1 대상에 대한 상기 2D 비디오 영상 정보와 결합되고,
상기 디스플레이부는 상기 결합된 2D 비디오 영상 정보를 출력하되,
상기 AR 콘텐츠의 2D 비디오 영상 정보는 미리 촬영된 2D/3D AR 콘텐츠로부터 입력되는 증강 합성의 대상이 되는 RGB 비디오 입력이며,
상기 AR 콘텐츠의 3D 상호 작용 정보는 상기 RGB 비디오 입력의 프레임 별 3D 정보인 것을 특징으로 하는,
AR 서비스 제공 장치.
In the device for providing augmented reality (AR) services,
A live RGBD input sensor unit;
AR content unit;
AR experience experience processing unit; And
Including; display unit,
The AR sensory experience processing unit obtains 3D information and 2D video image information about a first object from the live RGBD input sensor unit,
3D spatial information of the first object is determined based on the 3D information and the 2D video image information about the first object,
The AR experience processing unit obtains 2D video image information and 3D interaction information of AR content from the AR content unit,
Adjust 3D spatial information of the AR content according to the determined 3D spatial information of the first object,
The AR sensory experience processing unit combines the 2D video image information for the first object and the 2D video image information of the AR content,
The 2D video image information of the AR content is combined with the 2D video image information for the first object based on the 3D spatial information of the adjusted AR content,
The display unit outputs the combined 2D video image information,
The 2D video image information of the AR content is an RGB video input that is an object of augmented synthesis inputted from 2D / 3D AR content photographed in advance.
3D interaction information of the AR content is characterized in that the 3D information per frame of the RGB video input,
AR service providing device.
KR1020180011055A 2017-11-27 2018-01-30 Method and apparatus for operating 2d/3d augument reality technology KR102067823B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/888,936 US10417829B2 (en) 2017-11-27 2018-02-05 Method and apparatus for providing realistic 2D/3D AR experience service based on video image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170159552 2017-11-27
KR20170159552 2017-11-27

Publications (2)

Publication Number Publication Date
KR20190062102A KR20190062102A (en) 2019-06-05
KR102067823B1 true KR102067823B1 (en) 2020-01-17

Family

ID=66845141

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180011055A KR102067823B1 (en) 2017-11-27 2018-01-30 Method and apparatus for operating 2d/3d augument reality technology

Country Status (1)

Country Link
KR (1) KR102067823B1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102220980B1 (en) * 2019-07-15 2021-02-26 주식회사 엘지유플러스 Apparatus and method for providing augmented reality service
US11645756B2 (en) 2019-11-14 2023-05-09 Samsung Electronics Co., Ltd. Image processing apparatus and method
AU2022254531A1 (en) * 2021-04-06 2023-11-23 Niantic, Inc. Panoptic segmentation forecasting for augmented reality
KR102339374B1 (en) * 2021-05-07 2021-12-14 김은진 System for providing augmented reality based plant pot custom-order service
KR20220153396A (en) * 2021-05-11 2022-11-18 삼성전자주식회사 Method and apparatus for AR remote rendering processes
EP4320854A1 (en) 2021-08-23 2024-02-14 Samsung Electronics Co., Ltd. Method and electronic device for auto focus of scene

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101723828B1 (en) * 2016-08-30 2017-04-19 주식회사 케이쓰리아이 Interactive Augmented space available space expansion engines experience applied Cube system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101188105B1 (en) * 2011-02-11 2012-10-09 팅크웨어(주) Apparatus and method for providing argumented reality using image information

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101723828B1 (en) * 2016-08-30 2017-04-19 주식회사 케이쓰리아이 Interactive Augmented space available space expansion engines experience applied Cube system

Also Published As

Publication number Publication date
KR20190062102A (en) 2019-06-05

Similar Documents

Publication Publication Date Title
US10417829B2 (en) Method and apparatus for providing realistic 2D/3D AR experience service based on video image
KR102067823B1 (en) Method and apparatus for operating 2d/3d augument reality technology
US11210838B2 (en) Fusing, texturing, and rendering views of dynamic three-dimensional models
US11869205B1 (en) Techniques for determining a three-dimensional representation of a surface of an object from a set of images
US11354840B2 (en) Three dimensional acquisition and rendering
US11170561B1 (en) Techniques for determining a three-dimensional textured representation of a surface of an object from a set of images with varying formats
CN109615703B (en) Augmented reality image display method, device and equipment
Shen et al. Virtual mirror rendering with stationary rgb-d cameras and stored 3-d background
CN110648274B (en) Method and device for generating fisheye image
US20180310025A1 (en) Method and technical equipment for encoding media content
JPH11175762A (en) Light environment measuring instrument and device and method for shading virtual image using same
Lin et al. A low-cost portable polycamera for stereoscopic 360 imaging
JP2016071645A (en) Object three-dimensional model restoration method, device, and program
US11941729B2 (en) Image processing apparatus, method for controlling image processing apparatus, and storage medium
JP2008217593A (en) Subject area extraction device and subject area extraction program
JP6555755B2 (en) Image processing apparatus, image processing method, and image processing program
JP6799468B2 (en) Image processing equipment, image processing methods and computer programs
KR20190059710A (en) Apparatus and method for acquiring 360 VR images in a game using a virtual camera
JP2021047468A (en) Image processing equipment, image processing method, and image processing program
US20220309733A1 (en) Surface texturing from multiple cameras
JPH10240967A (en) Graphics animation device for three-dimensional object using model picture and method therefor
Woodward et al. An interactive 3D video system for human facial reconstruction and expression modeling
JP2021018570A (en) Image processing apparatus, image processing system, image processing method and program
JP2022093262A (en) Image processing apparatus, method for controlling image processing apparatus, and program
Flasko et al. Heterogeneous binocular camera-tracking in a virtual studio

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant