KR20120067806A - Multiple-object operating method through multiple-copy of recognition fiducial point in augmented reality video - Google Patents
Multiple-object operating method through multiple-copy of recognition fiducial point in augmented reality video Download PDFInfo
- Publication number
- KR20120067806A KR20120067806A KR1020100129400A KR20100129400A KR20120067806A KR 20120067806 A KR20120067806 A KR 20120067806A KR 1020100129400 A KR1020100129400 A KR 1020100129400A KR 20100129400 A KR20100129400 A KR 20100129400A KR 20120067806 A KR20120067806 A KR 20120067806A
- Authority
- KR
- South Korea
- Prior art keywords
- recognition
- reference point
- screen
- color
- copy
- Prior art date
Links
- 230000003190 augmentative effect Effects 0.000 title claims description 12
- 238000011017 operating method Methods 0.000 title abstract description 4
- 238000000034 method Methods 0.000 claims description 24
- 239000003550 marker Substances 0.000 claims description 13
- 238000004042 decolorization Methods 0.000 claims 1
- 238000003909 pattern recognition Methods 0.000 claims 1
- 238000010276 construction Methods 0.000 abstract description 2
- 238000000605 extraction Methods 0.000 abstract description 2
- 238000007781 pre-processing Methods 0.000 abstract description 2
- 230000008447 perception Effects 0.000 abstract 4
- 230000010485 coping Effects 0.000 abstract 1
- 238000004519 manufacturing process Methods 0.000 abstract 1
- 238000012545 processing Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 3
- 230000003416 augmentation Effects 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005549 size reduction Methods 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000000265 homogenisation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G06T5/70—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Abstract
Description
본 발명은 증강현실 영상에서 인식 기준점의 다중복사를 통한 다중 객체 운용 방법에 관한 것이다.The present invention relates to a method for operating multiple objects through multiplexing of recognition reference points in an augmented reality image.
증강현실을 구현하기 위해서는 카메라가 받은 영상의 어느 곳에 물체를 증강시킬 것인지 결정해야하며, 이를 구현하는 증강 방식에 따라 마커 기반 인식(Maker base Recognition)과 비마커 기반 인식(Markerless base Recognition) 방식으로 분류된다. 마커 기반 인식은 영상내의 특정 위치를 정의하기 위해 고유의 패턴 (마커)을 사용하는 방식이며, 비마커 기반은 인식된 자연물에 대한 정보를 증강 객체생성의 기준점으로 하는 방식이다. In order to implement augmented reality, it is necessary to determine where the object is to be augmented by the camera and classify it into marker base recognition and markerless base recognition according to the augmentation method. do. Marker-based recognition uses a unique pattern (marker) to define a specific position within an image, and non-marker-based recognition is a method of using information about a recognized natural object as a reference point for augmented object generation.
마커등 지정된 위치에 증강된 객체를 나타내기 위해서는 객체의 앞, 옆, 뒤가 실시간으로 보이도록 하기 위해 매트릭스 계산이 필요하며, 화면 내에서 증강현실의 객체를 추가하는 경우에는 마커 기반 방식의 경우 1개의 마커를 실제로 추가 하는 방식을 적용하게 되는네, 이를 반복하는 다중 객체 증강의 경우 계산량이 급속히 증가한다. In order to show an augmented object at a designated location such as a marker, matrix calculation is required to make the front, side, and back of the object visible in real time. We actually apply a way to add markers, and in the case of multiple object augmentation that iterates, the computations increase rapidly.
기존의 마커 기반 인식과 비마커 기반 인식 방식은 모두 다중 객체 운용이 가능하나, 기존의 방식들은 모두 다중 객체를 운용하기 위해서 시간이 오래 걸리는 행렬 값의 실시간 연산을 필요로 하여, 실시간으로 영상에 융합되어야 하는 증강현실의 특성상 이러한 계산량의 증가는 다중 객체 운용 성능을 크게 저하시킨다. Conventional marker-based recognition and non-marker-based recognition methods are both capable of operating multiple objects, but all of the existing methods require time-consuming real-time calculation of matrix values to operate multiple objects. Due to the nature of augmented reality that should be increased, this increase in computations significantly degrades the performance of multi-object operations.
본 발명이 이루고자 하는 기술적 과제는 기존 마커 기반 인식과 비 마커 기반 인식 방식 모두의 문제점 중 하나인 다중객체 운용 시의 성능 문제를 획기적으로 향상 시킬 수 있는 방법을 제공하는 것이다.The technical problem to be achieved by the present invention is to provide a method that can significantly improve the performance problem when operating multiple objects, which is one of the problems of both conventional marker-based recognition and non-marker-based recognition.
상술한 바와 같이, 본 발명은 증강현실 영상에서 인식 기준점의 다중복사를 통한 다중 객체 운용이 가능함으로써, 기존 방식 대비 성능을 효율적으로 향상시킬 수 있다.As described above, the present invention enables the multi-object operation by multiplexing the recognition reference point in the augmented reality image, it is possible to efficiently improve the performance compared to the conventional method.
본 발명에 의하면, 영상 내 인식 기준점 추출을 통해 소프트웨어 적으로 일괄 랜덤 복사 처리를 하기 때문에 근본적인 성능 저하 문제를 해결할 수 있다. 본 발명은 향후 증강현실 영상이 적용된 거의 모든 분야에서 적용 가능할 것으로 예상되며, 증강현실이 처음 적용된 연구 영역뿐만 아니라, 다양한 문화 콘텐츠 환경에서도 적용될 수 있다.According to the present invention, since the batch random copy processing is performed in software through extraction of the recognition reference point in the image, a fundamental problem of performance degradation can be solved. The present invention is expected to be applicable to almost all fields to which augmented reality images are applied in the future, and may be applied to various cultural content environments as well as a research area to which augmented reality is first applied.
도 1은 다중 객체 운용의 개념적인 구성도이다.
도 2는 인식 기준점 데이터를 화면상에 복사 가능한 기초 데이터로 변환하는 방식을 도시한 것이다.
도 3은 인식 기준점 기초 데이터를 화면상에 안전하게 복사하는 과정을 도시한 것이다.
도 4는 복사된 인식 기준점을 이용한 다중 객체 운용 과정을 도시한 것이다.1 is a conceptual diagram of a multi-object operation.
2 illustrates a method of converting recognition reference point data into basic data which can be copied onto a screen.
3 illustrates a process of safely copying recognition reference point data on a screen.
4 illustrates a multi-object operation process using the copied recognition reference point.
상술한 기술적 과제를 해결하기 위한 본 발명에 따른 다중 객체 운용 방법은, 다중 객체 증강을 위한 추가 객체의 기준점이 되는 마커 데이터를 소프트웨어적으로 생성하여 동일한 값으로 화면 내에서 반복 복사함으로써 다중객체의 운용을 위한 매트릭스 계산 값을 최초 연산 결과와 동일한 값으로 반복 사용할 수 있도록 한다. In order to solve the above technical problem, the multi-object operating method according to the present invention operates the multi-object by repeatedly generating the marker data, which is a reference point of an additional object for augmenting the multi-objective software, and repeatedly copying the same within the screen with the same value. It is possible to repeat the matrix calculation value for the same value as the initial calculation result.
이를 구성하는 방법은, 인식 기준점 패턴을 허프 변환 (Hough Ttransform) 을 통해 인식하는 부분; 인식된 패턴의 선 궤적을 둘러 싼 병행하는 에지 (edge) 들 간의 내부를 색상으로 채워 원 궤적을 복구하되 각 에지의 마주보는 방향으로 색상을 채워 패턴의 확장을 방지하는 부분; 인지점의 동질화를 위한 단색 다중객체 환경 구축을 위한 색상제거 처리부; 복사 위치 지정시, 원 영상 영역과 중첩되지 않는 복사 영역 처리부; 다중 복사시 각 기준점과 겹치지 않도록 영역 보호 및 상호 회피를 통해 랜덤하게 출력 처리부; 영역을 초과하는 지정에 대한 제한 출력 및 마커 크기 축소 처리부; 영상 잡은 제거를 통한 인식률 개선 처리부를 포함한다.A method of configuring the same may include: recognizing a recognition reference point pattern through a Hough Ttransform; Restoring the original trajectory by filling the interior between the parallel edges surrounding the line trajectory of the recognized pattern with colors to prevent the expansion of the pattern by filling the colors in opposite directions of each edge; A color removing processing unit for constructing a monochromatic multi-object environment for homogenizing recognition points; A copy area processing unit that does not overlap with the original image area when specifying a copy position; An output processor randomly through region protection and mutual avoidance so as not to overlap each reference point when multiple copies are performed; A restriction output and marker size reduction processing section for designation exceeding an area; The image capture may include a recognition rate improvement processing unit.
이하에서, 도면을 참조하여 본 발명의 실시 예에 대하여 상세히 설명하기로 한다.Hereinafter, with reference to the drawings will be described in detail an embodiment of the present invention.
도 1은 다중 객체 운용의 개념적인 구성도이다. 영상 입력(10), 인식 기준점 인식(11), 기초 데이터로 변환(12), 화면상에 복사(13), 다중 객체 운용(14), 영상 출력(15)으로 구성된다.1 is a conceptual diagram of a multi-object operation. It consists of
영상 입력(10)이 시작되면 인식 기준점 인식(11)을 위해 허프 변환 알고리즘을 사용하여 외곽선을 추출한다. 추출된 외곽선에 1방향 내부 채우기를 수행한다. 내부가 채워진 영상을 기초 데이터로 변환(12)하기 위해 이진화로 전처리한다. 전처리 된 영상은 인지점의 동질화를 통한 단색의 다중객체 환경 구축 기초 데이터가 된다. 기초 데이터를 화면상에 복사(13)하기 위해 기초 데이터가 겹치지 않도록 브레슨햄 알고리즘 (Bresenham Algorithm) 을 통해 보호 영역을 생성한다. 화면 영역을 초과하는 경우에는 인지 기준점의 크기 축소, 제한 출력을 통해 제어한다. 복사된 인지 기준점으로 다중 객체 운용(14)을 위해 복사된 인지 기준점에 Mean-Shift 알고리즘을 적용하여 영상 잡음을 제거하여 인식률을 개선한다. 최종 처리된 영상은 다중 객체를 포함하여 영상 출력(15)한다.When the
도 2는 인식 기준점 데이터를 화면상에 복사 가능한 기초 데이터로 변환하는 방식을 나타낸다. 입력된 영상에서 인식 기준점을 인식(20)하고, 허프 변환 알고리즘을 통해 외곽선 추출(21)을 한다. 추출된 인식 기준점 외곽선에 1방향 내부 채우기를 한다. 전처리를 위해 인식 기준점을 이진화(22)하여 기초데이터(23)를 생성한다.2 illustrates a method of converting recognition reference point data into basic data that can be copied onto a screen. A recognition reference point is recognized 20 from an input image, and an
도 3은 인식 기준점 기초를 화면상에 안전하게 복사하는 과정을 나타낸다. 브레슨햄 알고리즘을 통해 원형의 인식 기준점 영역 보호(30)를 위한 영역을 지정 한다. 지정된 영역에 상호 회피 값 적용(31)을 하여 다중 복사시 인식 기준점이 중첩되지 않도록 한다. 한 화면에 출력될 수 있는 인식 기준점의 수를 지정하기 위해 제한 출력 값 적용(32)을 통한 개수 지정 및 크기 축소를 수행한다. 영역 보호 기초 데이터(33)를 통해 인식 기준점을 복사한다.3 illustrates a process of safely copying a recognition reference point base on a screen. The Bresonham algorithm designates an area for circular recognition reference point area protection (30). The
도 4는 복사된 인식 기준점을 이용한 다중 객체 운용 과정을 도시한 것이다. 영역 보호 기초 데이터(40)에 Mean-Shift 알고리즘을 적용하여 영상 잡음 제거(41)를 수행한다. Randomize 함수를 이용해 화면에 다중 객체 복사(42)를 수행한다. 최종 영상 출력(43)을 수행한다.4 illustrates a multi-object operation process using the copied recognition reference point. The
기존의 다중 객체 운용 방식은 연산 속도가 느리기 때문에 하드웨어 성능을 고려해야 하며, 하드웨어 성능이 개선되어도 더 많은 다중 객체 운용에는 한계를 나타낼 수밖에 없다.Since the existing multi-object operation method is slow in computing speed, hardware performance must be taken into consideration, and even if the hardware performance is improved, there is no limit to operating more multi-objects.
본 발명은 또한 다른 방식의 외곽선 탐지 방법으로도 구현이 가능하다. 허프 변환 알고리즘을 사용하였으나, 기타 같은 기능을 수행하는 알고리즘이 적용 가능하기 때문에 보다 빠르고 효율적인 기법으로 실행될 수 있다.The present invention can also be implemented with other methods of outline detection. Although the Hough transform algorithm is used, other algorithms that perform the same function are applicable, and thus can be executed with faster and more efficient techniques.
이상 도면과 명세서에서 최적 실시 예들이 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구 범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.
The best embodiments have been disclosed in the drawings and specification. Although specific terms have been used herein, they are used only for the purpose of describing the present invention and are not used to limit the scope of the present invention as defined in the meaning or claims. Therefore, those skilled in the art will understand that various modifications and equivalent other embodiments are possible from this. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.
Claims (10)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100129400A KR20120067806A (en) | 2010-12-16 | 2010-12-16 | Multiple-object operating method through multiple-copy of recognition fiducial point in augmented reality video |
US13/287,636 US20120154439A1 (en) | 2010-12-16 | 2011-11-02 | Apparatus and method for operating multiple object of augmented reality system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100129400A KR20120067806A (en) | 2010-12-16 | 2010-12-16 | Multiple-object operating method through multiple-copy of recognition fiducial point in augmented reality video |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20120067806A true KR20120067806A (en) | 2012-06-26 |
Family
ID=46686730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100129400A KR20120067806A (en) | 2010-12-16 | 2010-12-16 | Multiple-object operating method through multiple-copy of recognition fiducial point in augmented reality video |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20120067806A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150025115A (en) * | 2013-08-28 | 2015-03-10 | 엘지전자 주식회사 | Apparatus and Method for Portable Device displaying Augmented Reality image |
WO2015148082A1 (en) * | 2014-03-27 | 2015-10-01 | Intel Corporation | Imitating physical subjects in photos and videos with augmented reality virtual objects |
-
2010
- 2010-12-16 KR KR1020100129400A patent/KR20120067806A/en not_active Application Discontinuation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150025115A (en) * | 2013-08-28 | 2015-03-10 | 엘지전자 주식회사 | Apparatus and Method for Portable Device displaying Augmented Reality image |
WO2015148082A1 (en) * | 2014-03-27 | 2015-10-01 | Intel Corporation | Imitating physical subjects in photos and videos with augmented reality virtual objects |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dong et al. | Digital watermarking robust to geometric distortions | |
US9865042B2 (en) | Image semantic segmentation | |
EP3048579B1 (en) | Structure analysis method for recovering missing structures in an image after object removal | |
Farzana FM et al. | Design and Analysis for Removing Salt and Pepper Noise in Image Processing | |
KR20160006595A (en) | Augmenting barcodes with secondary encoding for anti-counterfeiting | |
WO2006062221A2 (en) | Method for processing an input image securely | |
CN105069754A (en) | System and method for carrying out unmarked augmented reality on image | |
CN112651953A (en) | Image similarity calculation method and device, computer equipment and storage medium | |
KR102158390B1 (en) | Method and apparatus for image processing | |
KR102509823B1 (en) | Method and apparatus for estimating plane based on grids | |
KR102316165B1 (en) | Apparatus and method for generating attack image of deep learning based face recognition system | |
US20150139487A1 (en) | Image processor with static pose recognition module utilizing segmented region of interest | |
KR20120067806A (en) | Multiple-object operating method through multiple-copy of recognition fiducial point in augmented reality video | |
Parande et al. | Concealed weapon detection in a human body by infrared imaging | |
Saeed et al. | Implementation and advanced results on the non-interrupted skeletonization algorithm | |
CN114758145A (en) | Image desensitization method and device, electronic equipment and storage medium | |
CN111508045B (en) | Picture synthesis method and device | |
Xue et al. | Removing watermarks for image processing networks via referenced subspace attention | |
Oliveira et al. | Accelerated unsupervised filtering for the smoothing of road pavement surface imagery | |
Kang et al. | STAug: Copy-Paste Based Image Augmentation Technique Using Salient Target | |
TWI444908B (en) | Hand gesture image recognition method and system using image orientation alignment | |
JP7117177B2 (en) | Area identification device and program | |
Akojwar et al. | Image Copy-Move Forgery Detection Using Block Matching Probabilities | |
Ananth et al. | Enhancement of segmentation and zoning to improve the accuracy of handwritten character recognition | |
Lin et al. | Accumulative energy-based seam carving for image resizing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |