KR102436403B1 - Multi-tracking augmented reality system - Google Patents

Multi-tracking augmented reality system Download PDF

Info

Publication number
KR102436403B1
KR102436403B1 KR1020210024407A KR20210024407A KR102436403B1 KR 102436403 B1 KR102436403 B1 KR 102436403B1 KR 1020210024407 A KR1020210024407 A KR 1020210024407A KR 20210024407 A KR20210024407 A KR 20210024407A KR 102436403 B1 KR102436403 B1 KR 102436403B1
Authority
KR
South Korea
Prior art keywords
augmented reality
target
tracking
spatial
space
Prior art date
Application number
KR1020210024407A
Other languages
Korean (ko)
Inventor
주우석
박영준
서상철
Original Assignee
(주)디즈콘
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)디즈콘 filed Critical (주)디즈콘
Priority to KR1020210024407A priority Critical patent/KR102436403B1/en
Application granted granted Critical
Publication of KR102436403B1 publication Critical patent/KR102436403B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods

Abstract

The present invention relates to a multi-tracking augmented reality system, which includes: a training module for initial spatial recognition; and an AR tracking module which supports augmented reality services. The system supports precise spatial matching with virtual space for the augmented reality service for the variable space. The present invention supports precise spatial matching in response to changes in space with the first one-time training for the augmented reality service for the variable space, supports precise spatial matching with the virtual space in real time by calibration, and supports precise spatial matching in response to spatial changes with the first one-time training.

Description

멀티트래킹 증강현실 시스템{Multi-tracking augmented reality system}Multi-tracking augmented reality system

본발명은 멀티트래킹 증강현실 시스템에 관한 것으로, 보다 상세하게는 가변적 공간에 대한 증강현실 서비스를 위해 가상공간과의 정밀한 공간정합을 지원하는 실시간 보정기술 기반 멀티트래킹 시스템에 관한 것이다.The present invention relates to a multi-tracking augmented reality system, and more particularly, to a real-time correction technology-based multi-tracking system that supports precise spatial matching with a virtual space for augmented reality service for a variable space.

일반적으로 트래킹 기술은 증강현실 분야의 핵심 기술이다.곧 증강현실(이하 AR) 분야는 물리공간과 가상공간의 정확한 정합을 통해 사용자의 사실적인 체험을 극대화할 수 있는 "트래킹 기술"을 중심으로 연구개발이 진행되고 있다.그리고 종래특허기술로서, 공개특허공보 공개번호 10-2020-0077049호에는 촬영부로부터 물체를 촬영한 이미지를 수신하는 영상수신부;In general, tracking technology is a key technology in the field of augmented reality. In the field of augmented reality (hereinafter referred to as AR), research is focused on "tracking technology" that can maximize the user's realistic experience through precise matching between physical and virtual space. Development is in progress. And as a prior art patent, Laid-Open Patent Publication No. 10-2020-0077049 discloses an image receiving unit for receiving an image of an object from a photographing unit;

상기 이미지로부터 상기 물체의 특징점을 추출하고 미리 저장된 기준 특징점과 비교하여 상기 물체를 식별하고 상기 물체의 정보를 상기 이미지에 중첩시켜 증강현실 이미지를 생성하는 영상처리부; 및an image processing unit that extracts feature points of the object from the image, identifies the object by comparing it with reference feature points stored in advance, and creates an augmented reality image by superimposing information on the object on the image; and

표시부로 상기 증강현실 이미지를 출력하는 영상출력부를 포함하는, 마커리스 방식의 증강현실 제공장치가 공개되어 있다.An apparatus for providing augmented reality of a markerless method, including an image output unit for outputting the augmented reality image to a display unit, is disclosed.

또한 공개특허공보 공개번호 10-2017-0134277호에는 색칠놀이를 위한 증강현실 서비스 방법이 공개되어 있다.In addition, Patent Publication No. 10-2017-0134277 discloses an augmented reality service method for coloring games.

그리고 트래킹 기술은 최근 라이다(LADAR)와 같은 센싱기술이 접목되고 있으나, 고가의 장비, 센싱의 짧은 유효거리 등의 한계로 전통적인 컴퓨터 비전(Computer Vision) 기반의 카메라 영상을 이용한 방식이 범용적으로 사용되고 있다.And, the tracking technology has recently been applied with sensing technology such as LADAR. is being used

기존의 마커, 이미지 등을 이용한 객체 추적은 AR서비스가 객체 중심의 한정적인 영역으로 제한되었지만, 최근 공간추적 기술이 발전하면서 공간 전체를 인식함에 따라 AR서비스 또한 확대되고 다양화되고 있다.In the existing object tracking using markers and images, the AR service was limited to a limited area centered on the object.

그러나 기존 공간 추적기술의 한계로서, 구글의 AR Core, 애플의 AR Kit 등이 대표적이지만, 사용하기에 앞서 공간을 인식하기 위한 트레이닝 단계가 매번 필요하고, 콘텐츠와 주변 사물과의 직접적인 연계 또한 쉽지 않기 때문에, 현실공간과의 맥락이 없는 단순한 가상콘텐츠 공급만 가능하다.However, as a limitation of the existing space tracking technology, Google's AR Core and Apple's AR Kit are representative, but a training step to recognize the space before use is required every time, and direct connection between contents and surrounding objects is also not easy. Therefore, it is only possible to supply simple virtual content without context with the real space.

그리고 모바일 디바이스의 지속적인 발전으로 최근 슬램(SLAM, Simultaneous localization and mapping) 기술 또한 도입되고 있으나, 여전히 무거운 연산량은 모바일 기기에 많은 부담이 되고 있다.And with the continuous development of mobile devices, SLAM (Simultaneous localization and mapping) technology has been recently introduced, but a heavy computational amount is still a burden on the mobile device.

그러므로 가변적 요소가 많은 공간에 대한 정밀한 트래킹 기술이 필요하나Therefore, precise tracking technology for a space with many variable elements is required.

구글의 AR Core, 애플의 AR Kit는 매번 트레이닝을 하기 때문에 가변적 요소에 의한 영향은 없으나, 현실공간과의 맥락이 없으며,Google's AR Core and Apple's AR Kit are trained every time, so there is no effect by variable factors, but there is no context with the real space.

SLAM은 최초 한번의 트레이닝만으로 실행은 되지만, 공간의 구성에 변화가 생길 경우 공간정합에 문제가 발생된다.SLAM can be executed only by training once for the first time, but when there is a change in the configuration of the space, there is a problem in spatial matching.

따라서 본 발명은 상기와 같은 문제점을 해결하고자 안출된 것으로, 최초 한번의 트레이닝으로 공간의 변화에 대응하여 정확한 공간정합을 지원하는 트래킹 기술을 제공하고자 하는 것이다.Therefore, the present invention has been devised to solve the above problems, and it is an object of the present invention to provide a tracking technology that supports accurate spatial matching in response to a change in space through the first training.

본발명은 멀티트래킹 증강현실 시스템에 관한 것으로, 최초 공간인식을 위한 트레이닝 모듈과; 증강현실 서비스를 지원하는 AR트래킹 모듈;을 포함하여 구성되어, 가변적 공간에 대한 증강현실 서비스를 위해 가상공간과의 정밀한 공간정합을 지원하는 것을 특징으로 한다.The present invention relates to a multi-tracking augmented reality system, comprising: a training module for initial spatial recognition; AR tracking module that supports augmented reality service; is configured to support precise spatial matching with virtual space for augmented reality service for variable space.

따라서 본발명은 가변적 공간에 대한 증강현실 서비스를 위해 최초 한번의 트레이닝으로 공간의 변화에 대응하여 정확한 공간정합을 지원하며,Therefore, the present invention supports accurate spatial matching in response to changes in space with the first training for augmented reality service for variable space,

가상공간과의 정밀한 공간정합을 보정에 의해 실시간으로 지원하며,It supports precise spatial matching with virtual space in real time by correction,

최초 한번의 트레이닝으로 공간의 변화에 대응하여 정확한 공간정합을 지원하는 현저한 효과가 있다.It has a remarkable effect of supporting accurate spatial registration in response to spatial changes with the first training.

도 1은 본발명의 멀티 트래킹 시스템 블록도
도 2는 팝업북의 특성상 공간변형이 발생하는 상태도
도 3은 종래의 싱글타스킹의 경우 공간변화인지 불가능상태도
도 4는 본발명의 멀티타스킹 및 보정기반 공간 재구성도
도 5는 본발명의 멀티타스킹 및 보정기반 공간 재구성된 팝업북 상태도
1 is a block diagram of a multi-tracking system of the present invention;
2 is a state diagram in which spatial deformation occurs due to the characteristics of the pop-up book;
3 is a diagram of a state in which spatial change recognition is impossible in the case of a conventional single tasking;
4 is a multitasking and correction-based spatial reconstruction diagram of the present invention
5 is a state diagram of a pop-up book reconfigured based on multitasking and correction of the present invention;

본발명은 멀티트래킹 증강현실 시스템에 관한 것으로, 최초 공간인식을 위한 트레이닝 모듈과; 증강현실 서비스를 지원하는 AR트래킹 모듈;을 포함하여 구성되어, 가변적 공간에 대한 증강현실 서비스를 위해 가상공간과의 정밀한 공간정합을 지원하는 것을 특징으로 한다.The present invention relates to a multi-tracking augmented reality system, comprising: a training module for initial spatial recognition; AR tracking module that supports augmented reality service; is configured to support precise spatial matching with virtual space for augmented reality service for variable space.

또한, 상기 트레이닝 모듈에서는 카메라로부터 입력된 영상 데이터에서 고정된 공간과 가변적 요소에 대한 특징점을 추출하고 분류 및 위치관계 데이터를 등록하는 것을 특징으로 한다.In addition, in the training module, it is characterized in that the feature points for fixed space and variable elements are extracted from the image data input from the camera, and classification and positional relationship data are registered.

또한, 상기 AR트래킹 모듈은 실제 AR서비스를 지원하는 실행기술로 카메라로부터 입력된 영상 데이터를 트레이닝 모듈과의 실시간 매칭을 통해 타겟별 위치관계를 계산하여 보정함으로써 실제공간의 가변적 요소에 의한 변화가 있을 때도 안정적이고 강건한 AR서비스를 지원하는 것을 특징으로 한다.In addition, the AR tracking module is an execution technology that supports the actual AR service, and the image data input from the camera is matched with the training module in real time to calculate and correct the positional relationship for each target. It also features stable and robust AR service support.

본발명을 첨부도면에 의해 상세히 설명하면 다음과 같다. 도 1은 본발명의 멀티 트래킹 시스템 블록도, 도 2는 팝업북의 특성상 공간변형이 발생하는 상태도, 도 3은 종래의 싱글타스킹의 경우 공간변화인지 불가능상태도, 도 4는 본발명의 멀티타스킹 및 보정기반 공간 재구성도, 도 5는 본발명의 멀티타스킹 및 보정기반 공간 재구성된 팝업북 상태도이다. The present invention will be described in detail with reference to the accompanying drawings as follows. 1 is a block diagram of a multi-tracking system of the present invention, FIG. 2 is a diagram of a state in which spatial deformation occurs due to the characteristics of a pop-up book, FIG. 3 is a diagram of a state in which spatial change is impossible in the case of a conventional single tasking, and FIG. Task and correction-based spatial reconstruction diagram, Figure 5 is a state diagram of the multitasking and correction-based spatial reconstructed pop-up book of the present invention.

본발명은 가변적 공간에 대한 증강현실 서비스를 위해 가상공간과의 정밀한 공간정합을 지원하는 실시간 보정기술 기반 멀티트래킹 시스템이다.The present invention is a multi-tracking system based on real-time correction technology that supports precise spatial matching with virtual space for augmented reality service for variable space.

상기 실시간 보정기술 기반 멀티트래킹 시스템은 최초 공간인식을 위한 트레이닝 모듈과 증강현실 서비스를 지원하는 AR트래킹 모듈로 구성된다.The real-time correction technology-based multi-tracking system consists of a training module for initial spatial recognition and an AR tracking module supporting augmented reality services.

트레이닝 모듈에서는 카메라로부터 입력된 영상 데이터에서 고정된 공간과 가변적 요소에 대한 특징점을 추출하고 분류 및 위치관계 데이터를 등록한다.In the training module, feature points for fixed space and variable elements are extracted from the image data input from the camera, and classification and positional relationship data are registered.

그리고 AR트래킹 모듈은 실제 AR서비스를 지원하는 실행기술로 카메라로부터 입력된 영상 데이터를 트레이닝 모듈과의 실시간 매칭을 통해 타겟별 위치관계를 계산하여 보정함으로써 실제공간의 가변적 요소에 의한 변화가 있을 때도 안정적이고 강건한 AR서비스를 지원한다.And the AR tracking module is an execution technology that supports the actual AR service. By matching the video data input from the camera in real time with the training module, it calculates and corrects the positional relationship for each target, so it is stable even when there is a change due to variable elements in the real space. and supports robust AR services.

트레이닝모듈과 AR트래킹 모듈을 구체적으로 기재하면 다음과 같다.The training module and AR tracking module are described in detail as follows.

트레이닝모듈은,training module,

① 카메라로부터 입력되는 영상을 통해 특징점을 추출한다.① Extract feature points from the image input from the camera.

② 고정성이 가장 큰 특징점 영역을 선택하여 좌표 생성 및 글로벌 타겟 등록한다.② Select the feature point area with the greatest fixedness, create coordinates and register global targets.

③ 가변적 공간 요소별 특징점 추출, 영역 선택, 좌표 생성 및 로컬타겟 등록 반복한다.③ Repeat feature point extraction for each variable spatial element, region selection, coordinate generation, and local target registration.

④ 가변적 공간 요소별 등록 완료한다.④ Complete registration for each variable space element.

AR트래킹 모듈은AR tracking module

⑤ 카메라로부터 입력되는 영상을 통해 타겟별 인식한다.⑤ It recognizes each target through the video input from the camera.

⑥ 글로벌 타겟을 중심으로 로컬 타겟별 위치관계 실시간 매칭한다.⑥ Real-time matching of the location relationship of each local target centered on the global target.

⑦ 글로벌 타겟을 중심으로 공간 재구성을 위한 타겟별 좌표 보정한다.⑦ Correct the coordinates of each target for spatial reconstruction centering on the global target.

본발명의 시스템에 대해 설명하면, 앱을 단말인 사용자 스마트폰에 다운받아 깔고 사용자가 스마트폰 카메라를 공간변형된 타겟에 비추면 현실의 타겟과 함께 가상의 3D객체가 나타난다.When the system of the present invention is described, the app is downloaded and installed on the user's smartphone, which is a terminal, and when the user shines the smartphone camera on the spatially deformed target, a virtual 3D object appears together with the real target.

앱은 영상입력부; 필터부로 구성되는 영상처리부; 트레이닝 모듈(트레이닝부);증강현실화하는 AR트래킹 모듈(AR트래킹 모듈); 데이터를 저장하는 저장부; 제어부를 포함하여 구성된다.The app is a video input unit; an image processing unit comprising a filter unit; Training module (training unit); AR tracking module for augmented reality (AR tracking module); a storage unit for storing data; It is configured to include a control unit.

따라서 본발명은 가변적 공간에 대한 증강현실 서비스를 위해 최초 한 번의 트레이닝으로 공간의 변화에 대응하여 정확한 공간정합을 지원하며, 가상공간과의 정밀한 공간정합을 보정에 의해 실시간으로 지원하며, 최초 한번의 트레이닝으로 공간의 변화에 대응하여 정확한 공간정합을 지원하는 현저한 효과가 있다.Therefore, the present invention supports accurate spatial matching in response to changes in space with the first training for augmented reality service for variable space, and supports precise spatial matching with virtual space in real time by correction, It has a remarkable effect of supporting accurate spatial registration in response to spatial changes through training.

Claims (3)

최초 공간인식을 위한 트레이닝 모듈과; 증강현실 서비스를 지원하는 AR트래킹 모듈;을 포함하여 구성되어, 가변적 공간에 대한 증강현실 서비스를 위해 가상공간과의 정밀한 공간정합을 지원하는 것으로, 상기 트레이닝 모듈에서는 카메라로부터 입력된 영상 데이터에서 고정된 공간과 가변적 요소에 대한 특징점을 추출하고 분류 및 위치관계 데이터를 등록하는 것이며,
상기 AR트래킹 모듈은 실제 AR서비스를 지원하는 실행구성으로 카메라로부터 입력된 영상 데이터를 트레이닝 모듈과의 실시간 매칭을 통해 타겟별 위치관계를 계산하여 보정함으로써 실제공간의 가변적 요소에 의한 변화가 있을 때도 안정적이고 강건한 AR서비스를 지원하는 멀티트래킹 증강현실 시스템에 있어서,
상기 트레이닝모듈은,
① 카메라로부터 입력되는 영상을 통해 특징점을 추출하며,
② 고정성이 가장 큰 특징점 영역을 선택하여 좌표 생성 및 글로벌 타겟 등록하며,
③ 가변적 공간 요소별 특징점 추출, 영역 선택, 좌표 생성 및 로컬타겟 등록 반복하며,
가변적 공간 요소별로 등록 완료하는 것이며,
AR트래킹 모듈은
⑤ 카메라로부터 입력되는 영상을 통해 타겟별 인식하며,
⑥ 글로벌 타겟을 중심으로 로컬 타겟별 위치관계 실시간 매칭하며,
⑦ 글로벌 타겟을 중심으로 공간 재구성을 위한 타겟별 좌표 보정하는 것으로,
상기 시스템은 앱을 단말인 사용자 스마트폰에 다운받아 깔고 사용자가 스마트폰 카메라를 공간변형된 타겟에 비추면 현실의 타겟과 함께 가상의 3D객체가 나타나는 것으로,
앱은 영상입력부; 필터부로 구성되는 영상처리부; 트레이닝 모듈(트레이닝부);증강현실화하는 AR트래킹 모듈(AR트래킹 모듈); 데이터를 저장하는 저장부; 제어부를 포함하여 구성되는 것을 특징으로 하는 멀티트래킹 증강현실 시스템
a training module for initial spatial recognition; AR tracking module that supports augmented reality service; is configured to support precise spatial matching with virtual space for augmented reality service for variable space, and in the training module, fixed Extracting feature points for spatial and variable elements, and registering classification and positional relationship data,
The AR tracking module is an execution configuration that supports the actual AR service, and it is stable even when there is a change due to a variable element in the real space by calculating and correcting the positional relationship for each target through real-time matching with the training module for the image data input from the camera. And in the multi-tracking augmented reality system that supports the robust AR service,
The training module,
① Extracting feature points from the video input from the camera,
② Create coordinates and register global targets by selecting the feature point area with the greatest stability,
③ Repeat extraction of feature points for each variable spatial element, selection of an area, creation of coordinates and registration of local targets,
Registration is completed for each variable space element,
AR tracking module
⑤ Through the video input from the camera, each target is recognized,
⑥ Real-time matching of the location relationship of each local target centered on the global target,
⑦ By correcting the coordinates of each target for spatial reconstruction centered on the global target,
The system downloads and installs the app on the user's smartphone, which is a terminal, and when the user illuminates the smartphone camera on the spatially deformed target, a virtual 3D object appears along with the real target,
The app is a video input unit; an image processing unit comprising a filter unit; Training module (training unit); AR tracking module for augmented reality (AR tracking module); a storage unit for storing data; Multi-tracking augmented reality system, characterized in that it comprises a control unit
삭제delete 삭제delete
KR1020210024407A 2021-02-23 2021-02-23 Multi-tracking augmented reality system KR102436403B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210024407A KR102436403B1 (en) 2021-02-23 2021-02-23 Multi-tracking augmented reality system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210024407A KR102436403B1 (en) 2021-02-23 2021-02-23 Multi-tracking augmented reality system

Publications (1)

Publication Number Publication Date
KR102436403B1 true KR102436403B1 (en) 2022-08-29

Family

ID=83113760

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210024407A KR102436403B1 (en) 2021-02-23 2021-02-23 Multi-tracking augmented reality system

Country Status (1)

Country Link
KR (1) KR102436403B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160001699A (en) * 2014-06-26 2016-01-06 한국과학기술원 Method and apparatus for providing service for augmented reality interaction
KR20180059171A (en) * 2016-11-25 2018-06-04 한국전자통신연구원 Apparatus and method for providing augmented reality supporting 3d interactions

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160001699A (en) * 2014-06-26 2016-01-06 한국과학기술원 Method and apparatus for providing service for augmented reality interaction
KR20180059171A (en) * 2016-11-25 2018-06-04 한국전자통신연구원 Apparatus and method for providing augmented reality supporting 3d interactions

Similar Documents

Publication Publication Date Title
US11393173B2 (en) Mobile augmented reality system
US10489930B2 (en) Digitally encoded marker-based augmented reality (AR)
CN110427917B (en) Method and device for detecting key points
TW201715476A (en) Navigation system based on augmented reality technique analyzes direction of users' moving by analyzing optical flow through the planar images captured by the image unit
US20200167568A1 (en) Image processing method, device, and storage medium
CN109635752B (en) Method for positioning key points of human face, method for processing human face image and related device
KR20180082170A (en) Method and system for detection of three dimension face model
CN104156998A (en) Implementation method and system based on fusion of virtual image contents and real scene
CN113744394B (en) Shoe tree three-dimensional modeling method, device, equipment and storage medium
CN111273772B (en) Augmented reality interaction method and device based on slam mapping method
CN110163898A (en) A kind of depth information method for registering and device
US10762713B2 (en) Method for developing augmented reality experiences in low computer power systems and devices
US20220139030A1 (en) Method, apparatus and system for generating a three-dimensional model of a scene
CN113282171B (en) Oracle text augmented reality content interaction system, method, equipment and terminal
CN112017212B (en) Training and tracking method and system of face key point tracking model
CN111192323B (en) Object positioning method and device based on image
Santos et al. Hybrid approach using sensors, GPS and vision based tracking to improve the registration in mobile augmented reality applications
KR102436403B1 (en) Multi-tracking augmented reality system
US11657568B2 (en) Methods and systems for augmented reality tracking based on volumetric feature descriptor data
KR101586071B1 (en) Apparatus for providing marker-less augmented reality service and photographing postion estimating method therefor
CN113934297A (en) Interaction method and device based on augmented reality, electronic equipment and medium
CN112396654A (en) Method and device for determining pose of tracking object in image tracking process
CN112102404A (en) Object detection tracking method and device and head-mounted display equipment
US20190378339A1 (en) Method for implementing augmented reality image using vector
JP2021005147A (en) Dataset creation method, dataset creation system, calculation system, worksheet, client device, server device, and program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant