KR20190048635A - Indication Objects Augmenting Apparatus using Base Point of 3D Object Recognition of Facilities and Buildings with Relative Coordinates of Indication Objects and Method thereof, and Computer readable storage medium - Google Patents

Indication Objects Augmenting Apparatus using Base Point of 3D Object Recognition of Facilities and Buildings with Relative Coordinates of Indication Objects and Method thereof, and Computer readable storage medium Download PDF

Info

Publication number
KR20190048635A
KR20190048635A KR1020170143754A KR20170143754A KR20190048635A KR 20190048635 A KR20190048635 A KR 20190048635A KR 1020170143754 A KR1020170143754 A KR 1020170143754A KR 20170143754 A KR20170143754 A KR 20170143754A KR 20190048635 A KR20190048635 A KR 20190048635A
Authority
KR
South Korea
Prior art keywords
image
unit
marker
reference point
camera
Prior art date
Application number
KR1020170143754A
Other languages
Korean (ko)
Other versions
KR101988278B1 (en
Inventor
김강식
오기대
김상봉
Original Assignee
한국전력공사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전력공사 filed Critical 한국전력공사
Priority to KR1020170143754A priority Critical patent/KR101988278B1/en
Publication of KR20190048635A publication Critical patent/KR20190048635A/en
Application granted granted Critical
Publication of KR101988278B1 publication Critical patent/KR101988278B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to augmented reality technology and, more specifically, to a device to augment the position of a signal on a real-time image, capable of forming an augmented reality service displaying the positions of various signals installed on a facility or machine by matching the positions with real-time images, and a method thereof. The device includes: an image obtaining part obtaining an image containing an object; an object recognizing part recognizing the object in the image; and a three-dimensional image processing part three-dimensionally processing the image.

Description

영상 속 사물의 3D 인식 및 사물의 기준점과 표지물과의 상대좌표 정보를 이용한 실시간 영상에 표지물 위치 증강 장치, 이의 방법 및 이 방법을 저장한 컴퓨터 판독 가능 저장 매체{Indication Objects Augmenting Apparatus using Base Point of 3D Object Recognition of Facilities and Buildings with Relative Coordinates of Indication Objects and Method thereof, and Computer readable storage medium}TECHNICAL FIELD [0001] The present invention relates to a device for enhancing a position of a marker on a real-time image using three-dimensional recognition of objects in a video and relative coordinate information between the reference point of the object and the marker, and a computer readable storage medium storing the method. Object Recognition of Facilities and Buildings with Relative Coordinates of Indication Objects and Method thereof, and Computer Readable Storage Medium}

본 발명은 증강 현실 기술에 관한 것으로서, 더 상세하게는 설비 또는 시설에 설치되어 있는 각종 표시물의 위치를 실시간 영상에 정합하여 보여주는 증강현실 서비스를 구현하는 실시간 영상에 표지물 위치 증강 장치 및 방법에 대한 것이다.Field of the Invention [0002] The present invention relates to augmented reality technology, and more particularly, to an apparatus and method for enhancing a marker position in real time image realizing an augmented reality service that displays positions of various displays installed in a facility or a facility in real time .

또한, 본 발명은 현장에 대한 실시간 영상에 센서의 위치와 측정 데이터를 전력설비와 정확하게 정합하여 보여줄 수 있는 실시간 영상에 표지물 위치 증강 장치 및 방법에 대한 것이다.The present invention also relates to an apparatus and method for enhancing the position of a marker on a real-time image that can accurately show a position and a measurement data of a sensor in a real-time image on a scene with a power facility.

기존에서는 표지물에 GPS(Global Positioning System)를 이용하여 공간좌표를 부여하고 공간화한 실시간 영상에 표지물의 위치를 정합하여 보여주거나, 표지물의 위치 인근에 접근하면 표지물이 있음을 알리고 연관된 텍스트 형태의 정보를 실시간 영상에 겹쳐서 보여주는 방법이 사용되어 왔다.In the past, it has been proposed to use a GPS (Global Positioning System) to provide the coordinates of the markers, to match the position of the markers to the real time image of the space, or to inform the markers that the markings are present, A method of overlaying real-time images has been used.

GPS에 의한 공간좌표 이용방식은 공간좌표의 오차가 일반GPS의 경우

Figure pat00001
이상으로 커서 실시간 영상에 있는 설비 또는 시설에 설치되어 있는 다수의 표지물을 차별되게 위치에 정합하여 보여주는 것은 매우 어려운 실정이다. 이를 보여주는 도면이 도 1에 도시된다. 도 1을 참조하면, 좌표상의 전류센서1과 실제 위치간에 증강오차가 발생하곤 한다. 또는 좌표상의 전주01과 실제 위치간에 증강오차가 발생한다.The method of using the spatial coordinates by the GPS is as follows:
Figure pat00001
It is very difficult to display a plurality of markings installed in a facility or a facility in a real-time image differently from the position. A diagram showing this is shown in Fig. Referring to FIG. 1, an augmentation error between the current sensor 1 on the coordinate and the actual position is often generated. Or an incremental error occurs between the pole 01 on the coordinate and the actual position.

부연하면, 현장에 설치하여 운영하고 있는 전력설비에는 온도, 진동, 풍속 등 각종 센서와 같은 표지물을 부착하여 운전상황을 모니터링 하고 있다. 『전력설비 스마트웨어러블 기술연구』,『안전 재난 관리 Fool Proof 시스템개발 사전연구』를 통하여 고안된 특허기술이다. In addition, electric power facilities installed and operated on the spot are monitored by monitoring signs such as temperature, vibration, wind speed, and various sensors. It is a patented technology designed through "Research on smart facility wearable technology of electric power facility" and "Preliminary study of development of safety disaster management fool proof system".

기존 증강 현실 기술에서는 설비에 부착한 센서에서 측정된 값들이 어느 위치에 있는 값인지를 나타내어 알려주기 위하여 GPS 좌표를 이용하거나 설비를 촬영한 사진위에 센서의 부착 위치와 번호 등을 표시하고 측정 데이터를 표형식으로 나타내는 방식을 채택하고 있다. 따라서, 자료를 구축하는데 어려움과 현장에서 측정 데이터를 확인하기에 불편함이 많았다. In existing augmented reality technology, the position and number of the sensor are displayed on the photograph using the GPS coordinates or the equipment to indicate the position where the measured values are on the sensor attached to the facility, and the measurement data And adopts a method of expressing in a tabular form. Therefore, it was difficult to construct the data and it was inconvenient to check the measurement data in the field.

또한, 표지물에 대한 연관된 정보를 텍스트 형태로 보여주는 것은 표지물의 위치를 파악하기 어려워 현실감이 떨어지는 단점을 가지고 있다.In addition, showing the related information about the sign in the form of a text has a disadvantage that the position of the sign is difficult to be grasped and the reality is poor.

1. 한국공개특허번호 제10-2017-0088501호1. Korean Patent Publication No. 10-2017-0088501 2. 한국등록특허번호 제10-1755248호(등록일자: 2017.07.03)2. Korean Registered Patent No. 10-1755248 (Registration Date: Jul. 07, 2013) 3. 한국등록특허번호 제10-1356644호(등록일자: 2014.01.22)3. Korean Registered Patent No. 10-1356644 (Registration date: 2014.01.22)

본 발명은 위 배경기술에 따른 문제점을 해소하기 위해 제안된 것으로서, 설비 또는 시설에 설치되어 있는 각종 표시물의 위치를 실시간 영상에 정합하여 보여주는 증강현실 서비스를 구현하는 실시간 영상에 표지물 위치 증강 장치 및 방법을 제공하는데 그 목적이 있다.The present invention has been proposed in order to solve the problem according to the above background art, and it is an object of the present invention to provide an apparatus and method for enhancing a marker position in a real-time image realizing an augmented reality service that shows the positions of various displays installed in a facility or a facility, The purpose is to provide.

또한, 본 발명은 현장에 대한 실시간 영상에 센서의 위치와 측정 데이터를 전력설비와 정확하게 정합하여 보여줄 수 있는 실시간 영상에 표지물 위치 증강 장치 및 방법을 제공하는데 그 목적이 있다.It is another object of the present invention to provide an apparatus and method for enhancing the position of a marker on a real-time image that can precisely match a position and a measurement data of a sensor with a power facility in a real-time image on the spot.

본 발명은 위에서 제시된 과제를 달성하기 위해, 설비 또는 시설에 설치되어 있는 각종 표시물의 위치를 실시간 영상에 정합하여 보여주는 증강현실 서비스를 구현하는 실시간 영상에 표지물 위치 증강 장치를 제공한다.In order to achieve the above object, the present invention provides an apparatus for enhancing a marker position in a real-time image realizing an augmented reality service that displays the positions of various displays installed in a facility or a facility in real time.

상기 표지물 위치 증강 장치는,The marker position enhancing apparatus includes:

사물을 담은 영상을 취득하는 영상 취득부;An image acquiring unit acquiring an image containing an object;

상기 영상 속의 사물을 인식하는 사물 인식부;An object recognition unit for recognizing an object in the image;

사물 인식을 통하여 영상을 3D 영상 처리하는 영상 3D 처리부;An image 3D processing unit for processing a 3D image through an object recognition;

상기 사물의 기준점으로부터 상대좌표를 갖는 표지물 정보를 조회하는 표지물 정보 조회부;A cover information inquiry unit for inquiring cover information having relative coordinates from a reference point of the object;

3D 영상과 표지물의 좌표(위치)를 정합하는 실시간 좌표 정합부; 및A real-time coordinate matching unit for matching the coordinates (positions) of the 3D image and the markers; And

3D 영상과 표지물의 좌표(위치)를 증강하여 보여주는 증강 현실 표시부;를 포함하는 것을 특징으로 할 수 있다.And an augmented reality display unit for enhancing and displaying the coordinates (positions) of the 3D image and the beacon.

이때, 상기 영상 속의 사물을 인식하여 사물의 기준점을 정하는 경우 사물의 범위를 지정하여 사물의 기준점을 정할 수 있는 것을 특징으로 할 수 있다.At this time, when a reference point of an object is recognized by recognizing an object in the image, a reference point of the object can be determined by designating a range of the object.

또한, 상기 3D 영상 처리는 사물인식, 특이점 인식, 엣지(Edge) 인식 기술 중 어느 하나인 것을 특징으로 할 수 있다.In addition, the 3D image processing may be any one of object recognition, singularity recognition, and edge recognition.

또한, 상기 증강은 표지물의 데이터 정보도 함께 증강할 수 있는 것을 특징으로 할 수 있다.Also, the enhancement may be characterized by being able to enhance data information of the mark.

또한, 상기 사물 인식부는, 영상속의 사물을 인식하는 사물 형상 인식부; 및 영상 속 사물에서 사물의 기준점을 정하도록 하는 사물 기준점 처리부;를 포함하는 것을 특징으로 할 수 있다.The object recognizing unit may further include: a object shape recognizing unit for recognizing an object in the image; And a object reference point processing unit for determining a reference point of the object in the image in the image.

또한, 상기 영상 3D 처리부는, 인식된 사물의 특징점과 카메라가 이루는 각도를 이용하여 사물과 카메라와의 거리를 계산하는 사물-카메라 거리 계산부; 위치 확인 수단을 이용하여 사물을 바라보는 자세(각도)를 계산하는 카메라 자세(각도) 계산부; 및 사물-카메라 거리계산 결과와 카메라 자세(각도) 값을 측량이론에 이용하여 영상을 3D화하는 영상 3D 좌표 계산부;를 포함하는 것을 특징으로 할 수 있다.Also, the image 3D processing unit may include a object-camera distance calculation unit for calculating a distance between the object and the camera using the feature point of the recognized object and the angle formed by the camera; A camera posture (angle) calculation unit for calculating a posture (angle) of gazing an object using the position confirmation means; And an image 3D coordinate calculator for converting an object-camera distance calculation result and a camera posture (angle) value into a measurement theory to convert the image into a 3D image.

또한, 상기 표지물 정보 조회부는, 증강할 사물과 표지물에 관련한 정보를 DB(Database) 형태로 구축하는 사물-표지물 DB부;를 포함할 수 있다. 이때, 상기 표지물 정보 조회부는, 상기 사물 인식부의 사물 기준점 처리부에서 취득한 기준점의 위치를 이용하여 인근에 있는 설비 및 시설(사물)을 찾아 이에 연결되어 있는 표지물 정보를 조회하는 것을 특징으로 할 수 있다.Also, the cover information inquiry unit may include a object-cover DB unit for constructing information related to the enhancement object and the cover in a DB form. At this time, the cover information inquiry unit searches for facilities and facilities (objects) located nearby using the position of the reference point acquired by the object reference point processing unit of the object recognizing unit, and inquires about the cover information connected thereto.

또한, 상기 사물-표지물 DB부는 외부 DB와 연결하여 사용되는 것을 특징으로 할 수 있다.Also, the object-marker DB unit may be used in connection with an external DB.

또한, 상기 실시간 좌표 정합부는, 정보를 화면에 증강할 때 카메라의 자세(각도)가 변경되면 증강할 정보의 좌표를 재계산하여야 할지를 판단하고, 판단 결과에 따라 영상 3D 좌표와 표지물의 좌표를 연산을 통하여 정합하는 것을 특징으로 할 수 있다.The real-time coordinate matching unit may determine whether to re-calculate coordinates of information to be augmented when the attitude (angle) of the camera changes when information is augmented on the screen, and calculate the coordinates of the image 3D coordinate and the mark according to the determination result And the matching is performed.

다른 한편으로, 본 발명의 다른 일실시예는, (a) 영상 취득부가 사물을 담은 영상을 취득하는 단계; (b) 사물 인식부가 상기 영상 속의 사물을 인식하는 단계;(c) 영상 3D 처리부가 사물 인식을 통하여 영상을 3D 영상 처리하는 단계; (d) 표지물 정보 조회부가 상기 사물의 기준점으로부터 상대좌표를 갖는 표지물 정보를 조회하는 단계; (e) 실시간 좌표 정합부가 3D 영상과 표지물의 좌표(위치)를 정합하는 단계; 및 (f) 증강 현실 표시부가 3D 영상과 표지물의 좌표(위치)를 증강하여 보여주는 단계;를 포함하는 것을 특징으로 하는 실시간 영상에 표지물 위치 증강 방법을 제공할 수 있다.On the other hand, another embodiment of the present invention includes: (a) acquiring an image containing an object by an image acquiring unit; (b) recognizing an object in the image by the object recognizing unit; (c) performing 3D image processing on the image through object recognition by the image 3D processing unit; (d) a marker information inquiry unit inquiring marker information having relative coordinates from a reference point of the object; (e) matching the coordinates (positions) of the 3D image with the markers of the real time coordinate matching unit; And (f) augmenting and displaying the 3D image and the coordinates of the marker on the augmented reality display unit.

또한, 상기 (b) 단계는, 사물 형상 인식부가 영상속의 사물을 인식하는 단계; 및In the step (b), the object shape recognizing unit recognizes an object in the image; And

사물 기준점 처리부가 영상 속 사물에서 사물의 기준점을 정하도록 하는 단계;를 포함하는 것을 특징으로 할 수 있다.And determining a reference point of the object in the object by the object reference point processing unit.

또한, 상기 (c) 단계는, 사물-카메라 거리 계산부가 인식된 사물의 특징점과 카메라가 이루는 각도를 이용하여 사물과 카메라와의 거리를 계산하는 단계; 카메라 자세(각도) 계산부가 위치 확인 수단을 이용하여 사물을 바라보는 자세(각도)를 계산하는 단계; 및 영상 3D 좌표 계산부가 사물-카메라 거리계산 결과와 카메라 자세(각도) 값을 측량이론에 이용하여 영상을 3D화하는 단계;를 포함하는 것을 특징으로 할 수 있다.The step (c) may include calculating the distance between the object and the camera using the object-camera distance calculation unit and the angle between the camera and the feature point of the recognized object. Calculating a posture (angle) of gazing at an object using the camera posture (angle) calculating position checking means; And a step of 3Dizing the image using the object-camera distance calculation result and the camera posture (angle) value in the measurement theory, and the image 3D coordinate calculation unit.

또한, 상기 (d) 단계는, 사물-표지물 DB부가 증강할 사물과 표지물에 관련한 정보를 DB(Database) 형태로 구축하는 단계;를 포함할 수 있다.The step (d) may include constructing information related to objects and markers to be enhanced by the object-and-markers DB in the form of a database (DB).

또한, 상기 (e) 단계는, 실시간 좌표 정합부가 정보를 화면에 증강할 때 카메라의 자세(각도)가 변경되면 증강할 정보의 좌표를 재계산하여야 할지를 판단하는 단계; 및 판단 결과에 따라 영상 3D 좌표와 표지물의 좌표를 연산을 통하여 정합하는 단계;를 포함하는 것을 특징으로 할 수 있다.The step (e) includes the steps of: determining whether coordinates of information to be augmented should be recalculated when the posture (angle) of the camera changes when the real-time coordinate-matching unit information is augmented on the screen; And matching coordinates of the image 3D coordinate and the coordinates of the image by calculation according to the determination result.

또 다른 한편으로, 본 발명의 또 다른 일실시예는, 위에서 기술된 실시간 영상에 표지물 위치 증강 방법을 실행하는 프로그램 코드를 저장한 컴퓨터 판독 가능 저장 매체를 제공할 수 있다. On the other hand, another embodiment of the present invention can provide a computer-readable storage medium storing the program code for executing the method for enhancing the position of a marker on the real-time image described above.

본 발명에 따르면, 현장에 대한 실시간 영상에 센서의 위치와 측정 데이터를 전력설비와 정확하게 정합하여 보여줄 수 있는 증강현실 기술을 구현할 수 있다. According to the present invention, an augmented reality technology that can precisely match the position and measurement data of a sensor with a power facility in a real-time image on the spot can be implemented.

또한, 본 발명의 다른 효과로서는 기존의 사진이용 방식이나 GPS이용 증강현실방식 보다 획기적으로 관리업무 단순화 및 현실감 증대에 따른 업무효율을 높일 수 있다는 점을 들 수 있다.Further, another advantage of the present invention is that the management efficiency can be dramatically improved and the work efficiency can be improved by increasing the reality.

도 1은 일반적인 GPS에 의한 표지물 증강 오류의 예이다.
도 2는 사물 인식 및 기준점을 정의하는 화면예이다.
도 3은 본 발명의 일실시예에 따른 표지물 위치 증강(오차 감소)을 보여주는 개념도이다.
도 4는 본 발명의 일실시예에 따른 실시간 영상에 표지물 위치 증강 장치(100)의 구성도이다.
도 5는 본 발명의 다른 일실시예에 따른 전주 엣지(Edge) 검출 테스트의 개념도이다.
도 6은 도 5에서 검출 테스트 결과 사물 인식을 보여주는 개념도이다.
FIG. 1 is an example of an error of marker enhancement by general GPS.
2 is an example of a screen for defining object recognition and reference points.
FIG. 3 is a conceptual diagram showing a marker position increase (error reduction) according to an embodiment of the present invention.
4 is a block diagram of an apparatus 100 for enhancing a marker position in a real-time image according to an embodiment of the present invention.
5 is a conceptual diagram of a pole edge detection test according to another embodiment of the present invention.
FIG. 6 is a conceptual diagram showing object recognition as a result of the detection test in FIG.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 구체적으로 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용한다.Like reference numerals are used for similar elements in describing each drawing.

제 1, 제 2등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. "및/또는" 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. The term " and / or " includes any combination of a plurality of related listed items or any of a plurality of related listed items.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않아야 한다.Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Should not.

이하 첨부된 도면을 참조하여 본 발명의 일실시예에 따른 실시간 영상에 표지물 위치 증강 장치 및 방법을 상세하게 설명하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an apparatus and method for enhancing a marker position in a real-time image according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 2는 사물 인식 및 기준점을 정의하는 화면예이다. 도 2를 참조하면, 실시간 영상의 설비 또는 시설의 형태(전주, 완철 등을 들 수 있음)를 인식(사물인식:Object Recognition)하여 실시간 영상을 공간화하여 설비 또는 시설의 일정 위치를 기준점으로 정의한다. 기준점은 사물인식을 통해 인식된 사물의 끝, 중앙점, 교차점 등을 말한다. 2 is an example of a screen for defining object recognition and reference points. Referring to FIG. 2, a real-time image is space-recognized by recognizing the type of facility or facility (real or imaginary) of a real-time image, and defines a certain position of the facility or facility as a reference point . The reference point refers to the end, middle point, intersection point, etc. of an object recognized through object recognition.

도 3은 본 발명의 일실시예에 따른 표지물 위치 증강(오차 감소)을 보여주는 개념도이다. 도 3을 참조하면, 실시간 영상에 정합하여 나타낼 표지물의 위치는 일정 위치로부터 각방향의 상대좌표를 부여하고, 실시간 영상에 보여지는 설비 또는 시설의 형태를 인식하여 실시간 영상을 공간화하여 설비 또는 시설의 일정 위치를 기준점으로 정하여 이 기준점으로부터 표지물의 상대좌표를 통하여 공간화한 실시간 영상에 표지물의 위치를 정합하여 정확하게 나타낸다. 도 3에서 상대좌표는 X,Y,Z 축으로 표시되며, 특히 Z축 방향은 완철 방향이다.FIG. 3 is a conceptual diagram showing a marker position increase (error reduction) according to an embodiment of the present invention. Referring to FIG. 3, the location of a marker to be displayed in real time is assigned relative coordinates in each direction from a certain position, recognizes the type of facility or facility shown in the real-time image, The position of the marker is defined as a reference point and the position of the marker is matched to the real-time image which is spatialized through the relative coordinates of the marker from the reference point. In FIG. 3, the relative coordinates are represented by the X, Y, and Z axes, and particularly, the Z axis direction is the coarsened direction.

정확도를

Figure pat00002
이내로 대폭 향상시킬 수 있으며, 설비 또는 시설과 표지물을 동시에 현실감 있게 나타낼 수 있어 기존에서 표지물의 위치를 표현하기 위해서 설비 또는 시설 사진에 표지물 번호 및 위치 표시 등의 자료작성이 필요 없게 되어 관리업무 단순화 및 효율개선 등 효과가 크다Accuracy
Figure pat00002
And it is possible to display the facilities or the facilities and the signs at the same time in a realistic manner. Therefore, it is not necessary to create the data such as the marker number and the location indication in the facility or the facility photograph in order to express the position of the marker in the past, Efficiency improvement is great.

도 4는 본 발명의 일실시예에 따른 실시간 영상에 표지물 위치 증강 장치(400)의 구성도이다. 도 4를 참조하면, 표지물 위치 증강 장치(400)는 영상 취득부(410), 사물 인식부(420), 영상 3D 처리부(430), 표지물 정보 조회부(440), 실시간 좌표 정합부(450), 증강현실 표시부(470) 등을 포함하여 구성될 수 있다.4 is a block diagram of an apparatus 400 for enhancing a marker position in a real-time image according to an embodiment of the present invention. 4, the marker position enhancing apparatus 400 includes an image acquiring unit 410, an object recognizing unit 420, an image 3D processing unit 430, a cover information inquiry unit 440, a real time coordinate aligning unit 450, Augmented reality display unit 470, and the like.

영상 취득부(410)는 보고자 하는 대상물에 대한 영상을 취득하는 장치로, 카메라 등과 같은 영상 센서이다. The image acquisition unit 410 is an image sensor such as a camera for acquiring an image of an object to be viewed.

사물 인식부(420)는 영상 취득부(410)를 통하여 취득한 설비 및/또는 시설에 대한 영상에서 사물의 외곽선, 크기, 형태 등 형상을 인식하는 기능을 수행한다. 이를 위해, 사물 인식부(420)는 사물 형상을 인식하는 사물 형상 인식부(421), 인식된 사물 형상을 이용하여 기준점을 정의하는 사물 기준점 처리부(422)를 포함하여 구성될 수 있다.The object recognizing unit 420 recognizes the shape of an object, such as an outline, a size, and a shape, of an object of the facility and / or facility acquired through the image acquiring unit 410. For this purpose, the object recognition unit 420 may include a object shape recognition unit 421 for recognizing the object shape, and a object reference point processing unit 422 for defining the reference point using the recognized object shape.

3D 영상 처리부(430)는 사물 형상 인식부(421)에서 인식한 형상의 크기를 이용하여 사물과 카메라 간의 거리를 계산하는 기능을 수행하는 사물-카메라 거리 계산부(431), 영상 취득부(카메라)를 통하여 취득한 인식된 사물의 형상으로부터 카메라의 상하 좌우 자세(각도)를 계산하는 카메라 자세 계산부(432), 영상 취득부(410)를 통하여 나타나는 실시간 영상을 사물-카메라 거리와 카메라 자세(각도)를 이용하여 삼각함수 측량이론에 따라 3D 좌표를 갖는 영상으로 계산하는 기능을 수행하는 실시간 영상 3D 좌표 계산부(433) 등을 포함하여 구성될 수 있다.The 3D image processing unit 430 includes a object-camera distance calculation unit 431 that calculates a distance between an object and a camera using the shape size recognized by the object shape recognition unit 421, A camera posture calculation unit 432 for calculating the posture (angle) of the camera from the shape of the recognized object acquired through the image acquisition unit 410, And a real-time image 3D coordinate calculator 433 for calculating an image having 3D coordinates in accordance with the trigonometrical surveying theory using the real-time image 3D coordinate calculator 433 and the like.

카메라 자세 계산부(432)는 지자계 센서, 나침반 등의 위치 확인 수단을 이용하여 카메라가 사물을 바라보는 자세(각도)를 계산한다.The camera posture calculation unit 432 calculates the posture (angle) of the camera to look at an object by using a position check means such as a geomagnetic sensor, a compass, or the like.

이러한 3D 영상 처리는 위에서 기술된 사물인식 기술이외에도, 특이점 인식, 엣지(Edge) 인식 기술 등이 이용될 수 있다. In addition to the object recognition technology described above, the 3D image processing can be classified into a singularity recognition and an edge recognition technology.

표지물 정보 조회부(440)는 사물 인식부(420)의 사물 기준점 처리부(422)에서 취득한 기준점의 위치를 이용하여 인근에 있는 설비 및/또는 시설(사물)을 찾아 이에 연결 되어 있는 표지물 정보를 기업 데이터베이스(40)로부터 조회하여 사물-표지물 DB를 생성하는 기능을 수행한다. 사물-표지물 DB는 설비 및 시설(사물)의 위치, 표지물의 이름, 표지물의 사물의 기준점으로 부터 상대좌표, 표시 데이터 정보 등으로 구성되며 외부 기업DB와 유무선으로 연결되어 실시간으로 업데이트되는 DB이다.The cover information inquiry unit 440 searches for nearby facilities and / or facilities (objects) by using the positions of the reference points acquired by the object reference point processing unit 422 of the object recognition unit 420, From the database 40, and generates a object-markup DB. The object-marker DB is composed of the location of facilities and facilities (objects), the name of the marker, the relative coordinates from the reference point of the marker, and the display data information.

실시간 좌표 정합부(450)는 3D 영상과 사물-표지물 DB에 대한 좌표를 정합하기 전에 영상 센서의 자세 변경 여부를 판단하여 좌표를 재계산하여 영상 3D 좌표와 표지물 상대좌표를 정합하는 기능을 수행한다. 부연하면, 영상과 사물-표지물 DB에 대한 좌표를 정합하기 전에 영상 센서의 자세 변경 여부를 확인하여 자세가 변경되면 사물 인식부(420)가 사물 인식을 다시 수행한다(451). 이와 달리, 자세 변경이 없다면 사물 인식을 통하여 3D 좌표화된 실시간 영상과 상대좌표 정보를 갖는 표지물을 실시간 영상과 정합한다(452).The real-time coordinate matching unit 450 determines whether the posture of the image sensor is changed before the coordinates of the 3D image and the object-mark DB are matched and recalculates coordinates to match the 3D coordinate of the image and the relative coordinates of the mark . In other words, if the posture of the image sensor is changed before the coordinates of the image and the object-mark DB are matched, the object recognition unit 420 performs object recognition again (451). Otherwise, if there is no change of posture, the 3D coordinate-based real-time image and the marker having relative coordinate information are matched with the real-time image through object recognition (452).

증강현실 표시부(470)는 영상 취득부(410)를 통하여 들어온 실시간 영상에 표지물을 증강하여 나타내는 기능을 수행한다. 증강현식 표시부(470)는 LCD(Liquid Crystal Display), LED(Light Emitting Diode) 디스플레이, PDP(Plasma Display Panel), OLED(Organic LED) 디스플레이, 터치스크린, CRT(Cathode Ray Tube), 플렉시블 디스플레이 등이 될 수 있다.The augmented reality display unit 470 performs a function of augmenting and displaying a marker on a real-time image input through the image acquisition unit 410. [ The incremental display unit 470 may include a liquid crystal display (LCD), a light emitting diode (LED) display, a plasma display panel (PDP), an organic light emitting diode (OLED) display, a touch screen, a cathode ray tube (CRT) .

도 5는 본 발명의 다른 일실시예에 따른 전주 엣지(Edge) 검출 테스트의 개념도이다. 도 5를 참조하면, 전주 엣지를 검출한다. 즉 좌측 화면은 대상물인 전주에서 전주 엣지의 검출 화면이고, 우측 화면은 미리 데이터베이스에 저장된 전주의 형상이다. 5 is a conceptual diagram of a pole edge detection test according to another embodiment of the present invention. Referring to Fig. 5, the electric pole edge is detected. In other words, the left screen is the detection screen of the electric pole edge in the pole of the object, and the right screen is the pole shape stored in advance in the database.

도 6은 도 5에서 검출 테스트 결과 사물 인식을 보여주는 개념도이다. 도 6을 참조하면, 도 5의 좌측 화면과 우측 화면을 비교하여 검출된 전주 엣지에서 사물인식을 통하여 교차점, 기준점 등을 정의한다.FIG. 6 is a conceptual diagram showing object recognition as a result of the detection test in FIG. Referring to FIG. 6, the left screen and the right screen of FIG. 5 are compared with each other, and crossing points, reference points, and the like are defined through object recognition at detected pole edges.

명세서에 기재된 "~부" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Means a unit for processing at least one function or operation, and may be implemented by hardware, software, or a combination of hardware and software.

하드웨어 구현에 있어, 상술한 기능을 수행하기 위해 디자인된 ASIC(application specific integrated circuit), DSP(digital signal processing), PLD(programmable logic device), FPGA(field programmable gate array), 프로세서, 제어기, 마이크로프로세서, 다른 전자 유닛 또는 이들의 조합으로 구현될 수 있다. 소프트웨어 구현에 있어, 상술한 기능을 수행하는 모듈로 구현될 수 있다. 소프트웨어는 메모리 유닛에 저장될 수 있고, 프로세서에 의해 실행된다. 메모리 유닛이나 프로세서는 당업자에게 잘 알려진 다양한 수단을 채용할 수 있다.(DSP), a programmable logic device (PLD), a field programmable gate array (FPGA), a processor, a controller, a microprocessor, and the like, which are designed to perform the above- , Other electronic units, or a combination thereof. In software implementation, it may be implemented as a module that performs the above-described functions. The software may be stored in a memory unit and executed by a processor. The memory unit or processor may employ various means well known to those skilled in the art.

본 발명에 따른 실시간 영상에 표지물 위치 증강 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. The method of enhancing the position of a marker in the real-time image according to the present invention may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination.

상기 매체에 기록되는 프로그램 코드(명령)는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. The program code (command) recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.

상기 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The medium may be a transmission medium such as an optical or metal line, a wave guide, or the like, including a carrier wave for transmitting a signal designating a program command, a data structure, or the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

400: 표지물 위치 증강 장치 410: 영상 취득부
420: 사물 인식부 430: 영상 3D 처리부
440: 표지물 정보 조회부 450: 실시간 좌표 정합부
470: 증강 현실 표시부
400: marker position enhancer 410: image acquiring unit
420: object recognition unit 430: image 3D processing unit
440: marker information inquiry unit 450: real-time coordinate matching unit
470: Augmented Reality Display

Claims (19)

사물을 담은 영상을 취득하는 영상 취득부;
상기 영상 속의 사물을 인식하는 사물 인식부;
사물 인식을 통하여 영상을 3D 영상 처리하는 영상 3D 처리부;
상기 사물의 기준점으로부터 상대좌표를 갖는 표지물 정보를 조회하는 표지물 정보 조회부;
3D 영상과 표지물의 좌표(위치)를 정합하는 실시간 좌표 정합부; 및
3D 영상과 표지물의 좌표(위치)를 증강하여 보여주는 증강 현실 표시부;
을 포함하는 것을 특징으로 하는 실시간 영상에 표지물 위치 증강 장치.
An image acquiring unit acquiring an image containing an object;
An object recognition unit for recognizing an object in the image;
An image 3D processing unit for processing a 3D image through an object recognition;
A cover information inquiry unit for inquiring cover information having relative coordinates from a reference point of the object;
A real-time coordinate matching unit for matching the coordinates (positions) of the 3D image and the markers; And
An augmented reality display unit for enhancing and displaying the coordinates (position) of the 3D image and the beacon;
And a controller for controlling the position of the marker in the real-time image.
제 1 항에 있어서,
상기 영상 속의 사물을 인식하여 사물의 기준점을 정하는 경우 사물의 범위를 지정하여 사물의 기준점을 정할 수 있는 것을 특징으로 하는 실시간 영상에 표지물 위치 증강 장치.
The method according to claim 1,
Wherein when a reference point of an object is recognized by determining an object in the image, a reference point of the object can be determined by designating a range of the object.
제 1 항에 있어서,
상기 3D 영상 처리는 사물인식, 특이점 인식, 엣지(Edge) 인식 기술 중 어느 하나인 것을 특징으로 하는 실시간 영상에 표지물 위치 증강 장치.
The method according to claim 1,
Wherein the 3D image processing is any one of object recognition, singularity recognition, and edge recognition.
제 1 항에 있어서,
상기 증강은 표지물의 데이터 정보도 함께 증강할 수 있는 것을 특징으로 하는 실시간 영상에 표지물 위치 증강 장치.
The method according to claim 1,
Wherein the enhancement can also enhance the data information of the markers.
제 1 항에 있어서,
상기 사물 인식부는,
영상속의 사물을 인식하는 사물 형상 인식부; 및
영상 속 사물에서 사물의 기준점을 정하도록 하는 사물 기준점 처리부;를 포함하는 것을 특징으로 하는 실시간 영상에 표지물 위치 증강 장치.
The method according to claim 1,
The object recognizing unit,
An object shape recognition unit for recognizing an object in the image; And
And a object reference point processing unit for determining a reference point of the object in the image in the real time image.
제 1 항에 있어서,
상기 영상 3D 처리부는,
인식된 사물의 특징점과 카메라가 이루는 각도를 이용하여 사물과 카메라와의 거리를 계산하는 사물-카메라 거리 계산부;
위치 확인 수단을 이용하여 사물을 바라보는 자세(각도)를 계산하는 카메라 자세(각도) 계산부; 및
사물-카메라 거리계산 결과와 카메라 자세(각도) 값을 측량이론에 이용하여 영상을 3D화하는 영상 3D 좌표 계산부;를 포함하는 것을 특징으로 하는 실시간 영상에 표지물 위치 증강 장치.
The method according to claim 1,
The image 3D processing unit,
An object-camera distance calculation unit for calculating a distance between the object and the camera using the feature point of the recognized object and the angle formed by the camera;
A camera posture (angle) calculation unit for calculating a posture (angle) of gazing an object using the position confirmation means; And
And an image 3D coordinate calculation unit that uses the object-camera distance calculation result and the camera posture (angle) value as the measurement theory to make the image 3D.
제 1 항에 있어서,
표지물 정보 조회부는,
증강할 사물과 표지물에 관련한 정보를 DB(Database) 형태로 구축하는 사물-표지물 DB부;를 포함하며, 상기 사물 인식부의 사물 기준점 처리부에서 취득한 기준점의 위치를 이용하여 인근에 있는 설비 및 시설(사물)을 찾아 이에 연결되어 있는 표지물 정보를 조회하는 것을 특징으로 하는 실시간 영상에 표지물 위치 증강 장치.
The method according to claim 1,
The cover information inquiry unit,
And a object-markup DB unit for constructing information related to the object to be augmented in the form of a database (DB), wherein the location of the reference point acquired by the object reference point processing unit of the object recognizing unit And searches for the marker information connected to the marker.
제 7 항에 있어서,
상기 사물-표지물 DB부는 외부 DB와 연결하여 사용되는 것을 특징으로 하는 실시간 영상에 표지물 위치 증강 장치.
8. The method of claim 7,
Wherein the object-marker DB unit is used in connection with an external DB.
제 1 항에 있어서,
상기 실시간 좌표 정합부는, 정보를 화면에 증강할 때 카메라의 자세(각도)가 변경되면 증강할 정보의 좌표를 재계산하여야 할지를 판단하고, 판단 결과에 따라 영상 3D 좌표와 표지물의 좌표를 연산을 통하여 정합하는 것을 특징으로 하는 실시간 영상에 표지물 위치 증강 장치.
The method according to claim 1,
The real-time coordinate matching unit determines whether to re-calculate the coordinates of information to be augmented when the attitude (angle) of the camera changes when the information is augmented on the screen, and calculates the coordinate of the image 3D coordinate and the mark according to the determination result And the position of the marker in the real time image is matched.
(a) 영상 취득부가 사물을 담은 영상을 취득하는 단계;
(b) 사물 인식부가 상기 영상 속의 사물을 인식하는 단계;
(c) 영상 3D 처리부가 사물 인식을 통하여 영상을 3D 영상 처리하는 단계;
(d) 표지물 정보 조회부가 상기 사물의 기준점으로부터 상대좌표를 갖는 표지물 정보를 조회하는 단계;
(e) 실시간 좌표 정합부가 3D 영상과 표지물의 좌표(위치)를 정합하는 단계; 및
(f) 증강 현실 표시부가 3D 영상과 표지물의 좌표(위치)를 증강하여 보여주는 단계;
을 포함하는 것을 특징으로 하는 실시간 영상에 표지물 위치 증강 방법.
(a) acquiring an image containing an object by an image acquiring unit;
(b) the object recognition unit recognizes an object in the image;
(c) 3D image processing of the image through object recognition by the image 3D processing unit;
(d) a marker information inquiry unit inquiring marker information having relative coordinates from a reference point of the object;
(e) matching the coordinates (positions) of the 3D image with the markers of the real time coordinate matching unit; And
(f) the augmented reality display unit enhances and displays the coordinates (position) of the 3D image and the marker;
The method comprising the steps of:
제 10 항에 있어서,
상기 영상 속의 사물을 인식하여 사물의 기준점을 정하는 경우 사물의 범위를 지정하여 사물의 기준점을 정할 수 있는 것을 특징으로 하는 실시간 영상에 표지물 위치 증강 방법.
11. The method of claim 10,
Wherein when a reference point of an object is recognized by recognizing an object in the image, a reference point of the object can be determined by designating a range of the object.
제 10 항에 있어서,
상기 3D 영상 처리는 사물인식, 특이점 인식, 엣지(Edge) 인식 기술 중 어느 하나인 것을 특징으로 하는 실시간 영상에 표지물 위치 증강 방법.
11. The method of claim 10,
Wherein the 3D image processing is any one of object recognition, singularity recognition, and edge recognition.
제 10 항에 있어서,
상기 증강은 표지물의 데이터 정보도 함께 증강할 수 있는 것을 특징으로 하는 실시간 영상에 표지물 위치 증강 방법.
11. The method of claim 10,
Wherein the enhancement can also enhance the data information of the markers.
제 10 항에 있어서,
상기 (b) 단계는,
사물 형상 인식부가 영상속의 사물을 인식하는 단계; 및
사물 기준점 처리부가 영상 속 사물에서 사물의 기준점을 정하도록 하는 단계;를 포함하는 것을 특징으로 하는 실시간 영상에 표지물 위치 증강 방법.
11. The method of claim 10,
The step (b)
Recognizing the object in the image by the object shape recognizing unit; And
And determining a reference point of the object in the object based on the object reference point processing unit.
제 10 항에 있어서,
상기 (c) 단계는,
사물-카메라 거리 계산부가 인식된 사물의 특징점과 카메라가 이루는 각도를 이용하여 사물과 카메라와의 거리를 계산하는 단계;
카메라 자세(각도) 계산부가 위치 확인 수단을 이용하여 사물을 바라보는 자세(각도)를 계산하는 단계; 및
영상 3D 좌표 계산부가 사물-카메라 거리계산 결과와 카메라 자세(각도) 값을 측량이론에 이용하여 영상을 3D화하는 단계;를 포함하는 것을 특징으로 하는 실시간 영상에 표지물 위치 증강 방법.
11. The method of claim 10,
The step (c)
Calculating a distance between the object and the camera using the object-camera distance calculation unit and the angle between the camera and the feature point of the recognized object;
Calculating a posture (angle) of gazing at an object using the camera posture (angle) calculating position checking means; And
And a step of 3Dizing the image by using the image-camera distance calculation result and the camera posture (angle) value in the image 3D coordinate calculation unit to the measurement theory.
제 10 항에 있어서,
상기 (d) 단계는,
사물-표지물 DB부가 증강할 사물과 표지물에 관련한 정보를 DB(Database) 형태로 구축하는 단계;를 포함하며, 상기 사물 인식부의 사물 기준점 처리부에서 취득한 기준점의 위치를 이용하여 인근에 있는 설비 및 시설(사물)을 찾아 이에 연결되어 있는 표지물 정보를 조회하는 것을 특징으로 하는 실시간 영상에 표지물 위치 증강 방법.
11. The method of claim 10,
The step (d)
And constructing information related to objects and markers to be augmented by the object-markup DB unit in the form of a database (DB), wherein the location of the reference points acquired by the object reference point processing unit of the object recognizing unit And searching for the marker information associated with the marker.
제 16 항에 있어서,
상기 사물-표지물 DB부는 외부 DB와 연결하여 사용되는 것을 특징으로 하는 실시간 영상에 표지물 위치 증강 방법.
17. The method of claim 16,
Wherein the object-marker DB unit is used in connection with an external DB.
제 10 항에 있어서,
상기 (e) 단계는, 실시간 좌표 정합부가 정보를 화면에 증강할 때 카메라의 자세(각도)가 변경되면 증강할 정보의 좌표를 재계산하여야 할지를 판단하는 단계; 및
판단 결과에 따라 영상 3D 좌표와 표지물의 좌표를 연산을 통하여 정합하는 단계;를 포함하는 것을 특징으로 하는 실시간 영상에 표지물 위치 증강 방법.
11. The method of claim 10,
The step (e) includes the steps of: determining whether coordinates of information to be augmented should be recalculated when a posture (angle) of the camera changes when real-time coordinate-matching-unit information is augmented on the screen; And
And matching the 3D coordinates of the image with the coordinates of the cover through computation according to the determination result.
제 10 항 내지 제 18 항 중 어느 한 항에 따른 실시간 영상에 표지물 위치 증강 방법을 실행하는 프로그램 코드를 저장한 컴퓨터 판독 가능 저장 매체.18. A computer-readable storage medium storing program code for executing a method for enhancing a marker position in a real-time image according to any one of claims 10 to 18.
KR1020170143754A 2017-10-31 2017-10-31 Indication Objects Augmenting Apparatus using Base Point of 3D Object Recognition of Facilities and Buildings with Relative Coordinates of Indication Objects and Method thereof, and Computer readable storage medium KR101988278B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170143754A KR101988278B1 (en) 2017-10-31 2017-10-31 Indication Objects Augmenting Apparatus using Base Point of 3D Object Recognition of Facilities and Buildings with Relative Coordinates of Indication Objects and Method thereof, and Computer readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170143754A KR101988278B1 (en) 2017-10-31 2017-10-31 Indication Objects Augmenting Apparatus using Base Point of 3D Object Recognition of Facilities and Buildings with Relative Coordinates of Indication Objects and Method thereof, and Computer readable storage medium

Publications (2)

Publication Number Publication Date
KR20190048635A true KR20190048635A (en) 2019-05-09
KR101988278B1 KR101988278B1 (en) 2019-06-12

Family

ID=66545658

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170143754A KR101988278B1 (en) 2017-10-31 2017-10-31 Indication Objects Augmenting Apparatus using Base Point of 3D Object Recognition of Facilities and Buildings with Relative Coordinates of Indication Objects and Method thereof, and Computer readable storage medium

Country Status (1)

Country Link
KR (1) KR101988278B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112348876A (en) * 2019-08-08 2021-02-09 北京地平线机器人技术研发有限公司 Method and device for acquiring space coordinates of signboards
WO2021040107A1 (en) * 2019-08-30 2021-03-04 엘지전자 주식회사 Ar device and method for controlling same

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060021001A (en) * 2004-09-02 2006-03-07 (주)제니텀 엔터테인먼트 컴퓨팅 Implementation of marker-less augmented reality and mixed reality system using object detecting method
KR20130014760A (en) * 2011-08-01 2013-02-12 김현아 Method and recording medium for providing/recording/playing augmented-reality-based information mobile terminal
KR101356644B1 (en) 2009-02-25 2014-02-04 삼성전자주식회사 System for localization and method thereof
KR20140082610A (en) * 2014-05-20 2014-07-02 (주)비투지 Method and apaaratus for augmented exhibition contents in portable terminal
KR101755248B1 (en) 2016-01-27 2017-07-07 (주)에이아이퍼스트 Method and system of generating 3D model and mobile device for the same
KR20170088501A (en) 2016-01-25 2017-08-02 주식회사 이지시스 Local Positioning System

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060021001A (en) * 2004-09-02 2006-03-07 (주)제니텀 엔터테인먼트 컴퓨팅 Implementation of marker-less augmented reality and mixed reality system using object detecting method
KR101356644B1 (en) 2009-02-25 2014-02-04 삼성전자주식회사 System for localization and method thereof
KR20130014760A (en) * 2011-08-01 2013-02-12 김현아 Method and recording medium for providing/recording/playing augmented-reality-based information mobile terminal
KR20140082610A (en) * 2014-05-20 2014-07-02 (주)비투지 Method and apaaratus for augmented exhibition contents in portable terminal
KR20170088501A (en) 2016-01-25 2017-08-02 주식회사 이지시스 Local Positioning System
KR101755248B1 (en) 2016-01-27 2017-07-07 (주)에이아이퍼스트 Method and system of generating 3D model and mobile device for the same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112348876A (en) * 2019-08-08 2021-02-09 北京地平线机器人技术研发有限公司 Method and device for acquiring space coordinates of signboards
CN112348876B (en) * 2019-08-08 2024-06-11 北京地平线机器人技术研发有限公司 Space coordinate acquisition method and device for signboards
WO2021040107A1 (en) * 2019-08-30 2021-03-04 엘지전자 주식회사 Ar device and method for controlling same
US11164383B2 (en) 2019-08-30 2021-11-02 Lg Electronics Inc. AR device and method for controlling the same

Also Published As

Publication number Publication date
KR101988278B1 (en) 2019-06-12

Similar Documents

Publication Publication Date Title
CN110595494B (en) Map error determination method and device
TWI574223B (en) Navigation system using augmented reality technology
US10482659B2 (en) System and method for superimposing spatially correlated data over live real-world images
CN109270545B (en) Positioning true value verification method, device, equipment and storage medium
US10769802B2 (en) Indoor distance measurement method
JP6296056B2 (en) Image processing apparatus, image processing method, and program
CN107328420A (en) Localization method and device
CN112101339B (en) Map interest point information acquisition method and device, electronic equipment and storage medium
CN101833115A (en) Life detection and rescue system based on augment reality technology and realization method thereof
CN111536990A (en) On-line external reference mis-calibration detection between sensors
CN113570664A (en) Augmented reality navigation display method and device, electronic equipment and computer medium
CN112147632A (en) Method, device, equipment and medium for testing vehicle-mounted laser radar perception algorithm
KR20210022343A (en) Method and system for providing mixed reality contents related to underground facilities
US11395102B2 (en) Field cooperation system and management device
KR101988278B1 (en) Indication Objects Augmenting Apparatus using Base Point of 3D Object Recognition of Facilities and Buildings with Relative Coordinates of Indication Objects and Method thereof, and Computer readable storage medium
KR20220100813A (en) Automatic driving vehicle registration method and device, electronic equipment and a vehicle
CN111612851B (en) Method, apparatus, device and storage medium for calibrating camera
CN111932611B (en) Object position acquisition method and device
CN113566847B (en) Navigation calibration method and device, electronic equipment and computer readable medium
CN114266876B (en) Positioning method, visual map generation method and device
US20220236069A1 (en) Method and apparatus for route navigation, electronic device, computer readable medium
EP4057127A2 (en) Display method, display apparatus, device, storage medium, and computer program product
US10614308B2 (en) Augmentations based on positioning accuracy or confidence
CN111506280A (en) Graphical user interface for indicating off-screen points of interest
CN113566846B (en) Navigation calibration method and device, electronic equipment and computer readable medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant