KR102541265B1 - Augmented reality service apparatus and method for providing appropriate distance indication - Google Patents
Augmented reality service apparatus and method for providing appropriate distance indication Download PDFInfo
- Publication number
- KR102541265B1 KR102541265B1 KR1020220080913A KR20220080913A KR102541265B1 KR 102541265 B1 KR102541265 B1 KR 102541265B1 KR 1020220080913 A KR1020220080913 A KR 1020220080913A KR 20220080913 A KR20220080913 A KR 20220080913A KR 102541265 B1 KR102541265 B1 KR 102541265B1
- Authority
- KR
- South Korea
- Prior art keywords
- distance
- ground
- augmented reality
- camera
- analysis unit
- Prior art date
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 76
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000003416 augmentation Effects 0.000 claims abstract description 29
- 238000005266 casting Methods 0.000 claims abstract description 17
- 238000010191 image analysis Methods 0.000 claims abstract description 16
- 238000004458 analytical method Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000004088 simulation Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/06—Ray-tracing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/0202—Child monitoring systems using a transmitter-receiver system carried by the parent and the child
- G08B21/0261—System arrangements wherein the object is to detect trespassing over a fixed physical boundary, e.g. the end of a garden
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/18—Status alarms
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Emergency Management (AREA)
- Business, Economics & Management (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Optics & Photonics (AREA)
- Processing Or Creating Images (AREA)
- Health & Medical Sciences (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
Abstract
Description
본 발명은 증강현실 서비스 장치 및 방법에 관한 것으로, 상세하게는 증강 대상에 따른 적정 거리를 표시해 주는 증강현실(Augmented Reality; AR) 서비스 장치 및 방법에 관한 것이다.The present invention relates to an augmented reality service apparatus and method, and more particularly, to an augmented reality (AR) service apparatus and method for displaying an appropriate distance according to an augmented object.
최근 들어, 영상 분야의 비약적인 발전으로 인해 컴퓨터 또는 사용자 단말을 통해 가상현실(Virtual Reality; VR) 또는 증강현실(Augmented Reality; AR)을 제공하는 기술이 등장하고 있다. Recently, due to the rapid development in the field of imaging, a technology for providing virtual reality (VR) or augmented reality (AR) through a computer or user terminal has emerged.
가상현실(Virtual Reality; VR)은 실제 현실은 아니지만 사용자가 현실과 같은 환경을 3차원적인 시각(Sight)을 통해 경험할 수 있는 시뮬레이션 기술을 의미하며, 증강현실(Augmented Reality; AR)은 사용자가 눈으로 보는 현실 세계에 가상의 오브젝트(Object)를 겹쳐 보여주는 시뮬레이션 기술을 의미한다. Virtual Reality (VR) refers to a simulation technology that allows users to experience a reality-like environment through a three-dimensional view, although it is not real reality, and Augmented Reality (AR) refers to a simulation technology It means a simulation technology that superimposes virtual objects on the real world viewed as
특히, 증강현실(Augmented Reality; AR)은 현실 세계에 실시간으로 부가 정보를 갖는 가상의 오브젝트를 합쳐 하나의 영상으로 보여주는 특징으로 인해 혼합 현실(Mixed Reality; MR)이라고도 불리운다. In particular, Augmented Reality (AR) is also called Mixed Reality (MR) due to its feature of displaying a single image by combining virtual objects having additional information in real time in the real world.
이러한 증강현실(Augmented Reality; AR) 기술은 가상의 환경만으로 구성된 가상현실(Virtual Reality; VR)과는 달리, 실제 환경과 가상의 오브젝트가 혼합된 영상을 제공하는 것이므로, 사용자로서는 가상의 오브젝트를 실제 환경과 함께 볼 수 있다.Unlike Virtual Reality (VR), which consists of only a virtual environment, this Augmented Reality (AR) technology provides an image in which the real environment and virtual objects are mixed. can be seen with the environment.
따라서, 증강현실(Augmented Reality; AR) 기술은 가상현실(Virtual Reality; VR)과 비교할 때 보다 나은 현실감과 부가 정보를 제공할 수 있다는 장점이 있어, 이를 활용한 어플리케이션이 연구되어 왔다. Therefore, augmented reality (AR) technology has the advantage of providing a better sense of reality and additional information when compared to virtual reality (VR), and applications utilizing this technology have been studied.
그 일례로, 대한민국 등록특허공보 제10-1944823호에서는 증강현실 기술을 활용하여 지하시설물 준공상황을 일괄적으로 탐지하여 지하시설물에 대한 시공 이후의 안전사고를 예방하면서 신규 지하시설물 매설작업 시 효율적으로 시공하는 방법을 제안하였다. For example, in Korean Patent Registration No. 10-1944823, augmented reality technology is used to comprehensively detect the completion status of underground facilities, preventing safety accidents after the construction of underground facilities, while efficiently burying new underground facilities. A construction method was proposed.
그러나, 종래에는 사용자의 위치에 따라 그 주변의 오브젝트를 단순 증강하는 방식이어서, 증강 대상 오브젝트의 크기 등 오브젝트의 특성에 따라 달라지는 최적의 증강 서비스가 가능한 적정 거리를 알 수 없었고, 이로 인해 사용자는 오브젝트에 대한 적절한 증강이 이루어졌는지 신속하고 정확하게 파악하기가 어려웠다. However, in the prior art, it was a method of simply augmenting objects around the user according to the location of the user, so it was not possible to know the appropriate distance for the optimal augmentation service that varies depending on the characteristics of the object, such as the size of the object to be augmented. It was difficult to quickly and accurately ascertain whether adequate augmentation had been achieved.
또한, 굴삭기의 회전 반경 등과 같이 증강 대상이 되는 오브젝트에 사용자의 안전을 위한 일정 정도의 이격 거리가 필요한 경우, 증강 서비스의 제공 중에도 사용자의 안전을 보장할 수 있는 방법이 요구되어 왔다. In addition, when an object to be augmented, such as the rotation radius of an excavator, requires a certain degree of separation distance for user safety, a method capable of ensuring user safety while providing an augmented service has been required.
본 발명의 목적은, 증강 대상 오브젝트의 크기 등 오브젝트의 특성에 따라 달라지는 최적의 증강 서비스가 가능한 적정 거리를 사용자가 신속하고 정확하게 파악할 수 있는 증강현실 서비스 장치 및 방법을 제공하는 것이다. An object of the present invention is to provide an augmented reality service apparatus and method in which a user can quickly and accurately determine an appropriate distance for an optimal augmented service that varies depending on the characteristics of an object, such as the size of an augmented target object.
본 발명은 굴삭기의 회전 반경 등과 같이 증강 대상이 되는 오브젝트에 사용자의 안전을 위한 일정 정도의 이격 거리가 필요한 경우, 증강 서비스의 제공 중에도 사용자의 안전을 보장할 수 있는 증강현실 서비스 장치 및 방법을 제공하는데 또 다른 목적이 있다. The present invention provides an augmented reality service apparatus and method capable of ensuring the user's safety even during the provision of the augmented service when an object to be augmented, such as the turning radius of an excavator, requires a certain distance for the user's safety. It has another purpose.
본 발명의 일측면에 따른 적정 거리 표시를 제공하는 증강현실 서비스 장치는, 지면을 인식하고 인식한 지면 데이터를 수집하는 카메라; 상기 카메라로부터 상기 지면으로 레이캐스팅(Raycasting)을 수행하는 레이캐스팅부; 및 상기 레이캐스팅에 따른 수집한 지면 데이터와의 충돌 지점을 체크하고, 상기 충돌 지점과 상기 카메라 간의 거리를 측정하여 상기 거리에 따른 영역분류를 수행하는 영상 분석부;를 포함할 수 있다.According to an aspect of the present invention, an augmented reality service device for providing an appropriate distance display includes a camera for recognizing a ground and collecting recognized ground data; a raycasting unit performing raycasting from the camera to the ground; and an image analysis unit that checks a collision point with ground data collected through ray casting, measures a distance between the collision point and the camera, and performs region classification according to the distance.
여기서, 상기 카메라에서 상기 지면을 인식하고 인식한 지면 데이터를 수집하는 것은, 상기 카메라의 영상을 통해 상기 지면을 인식하고 상기 지면에 대한 지면 데이터를 수집하는 방식으로 이루어질 수 있다.Here, recognizing the ground by the camera and collecting the recognized ground data may be performed by recognizing the ground through an image of the camera and collecting ground data of the ground.
한편, 상기 영상 분석부는, 증강 대상의 오브젝트의 특성을 반영한 적정 거리를 토대로, 적어도 2개 이상의 영역으로 상기 영역분류를 수행할 수 있다.Meanwhile, the image analyzer may perform the region classification into at least two or more regions based on an appropriate distance reflecting characteristics of an object to be augmented.
이때, 상기 증강 대상의 오브젝트의 특성은, 상기 오브젝트의 크기, 상기 오브젝트에 설정된 주석(annotation), 또는 상기 오브젝트의 안전 거리 중 적어도 하나를 포함할 수 있다.In this case, the characteristics of the object of the augmentation target may include at least one of a size of the object, an annotation set on the object, or a safety distance of the object.
또한, 상기 영상 분석부는, 상기 오브젝트의 안전 거리를 토대로 상기 영역분류를 수행한 경우, 상기 안전 거리를 포함하는 영역 상에 안전 라인을 별도로 표시해 줄 수 있다.In addition, when the area classification is performed based on the safety distance of the object, the image analyzer may separately display a safety line on an area including the safety distance.
또한, 상기 영상 분석부는, 사용자가 상기 안전 라인을 침범할 경우, 이에 대한 알람을 발생시킬 수 있다.In addition, the video analysis unit may generate an alarm when the user violates the safety line.
한편, 상기 영상 분석부에 의한 상기 영역분류는, 너무 가까움, 좋음, 및 너무 멂의 3개 영역으로 영역분류 될 수 있다. Meanwhile, the region classification by the image analyzer may be classified into three regions: too close, good, and too far.
또한, 상기 영상 분석부에 의한 상기 영역분류는, 위험 영역, 안전 영역의 2개 영역으로 영역분류 될 수 있다.In addition, the area classification by the image analysis unit may be classified into two areas, a danger area and a safe area.
본 발명의 다른 측면에 따른 적정 거리 표시를 제공하는 증강현실 서비스 방법은, 카메라에서 지면을 인식하고 인식한 지면 데이터를 수집하는 단계; 레이캐스팅부에서 상기 카메라로부터 상기 지면으로 레이캐스팅을 수행하는 단계; 영상 분석부에서 상기 레이캐스팅에 따른 수집한 지면 데이터와의 충돌 지점을 체크하는 단계; 상기 영상 분석부에서 상기 충돌 지점과 상기 카메라 간의 거리를 측정하는 단계; 및 상기 영상 분석부에서 거리에 따른 영역분류를 수행하는 단계;를 포함할 수 있다.An augmented reality service method for providing an appropriate distance indication according to another aspect of the present invention includes the steps of recognizing the ground in a camera and collecting the recognized ground data; performing ray casting from the camera to the ground in a ray casting unit; Checking a collision point with ground data collected according to the ray casting in an image analysis unit; measuring a distance between the collision point and the camera in the image analyzer; and performing region classification according to the distance in the image analyzer.
여기서, 상기 카메라에서 상기 지면을 인식하고 인식한 지면 데이터를 수집하는 단계는, 상기 카메라의 영상을 통해 상기 지면을 인식하고 상기 지면에 대한 지면 데이터를 수집하는 방식으로 이루어질 수 있다.Here, recognizing the ground by the camera and collecting the recognized ground data may be performed by recognizing the ground through an image of the camera and collecting ground data of the ground.
또한, 상기 영상 분석부에서 거리에 따른 영역분류를 수행하는 단계는, 증강 대상의 오브젝트의 특성을 반영한 적정 거리를 토대로, 적어도 2개 이상의 영역으로 상기 영역분류를 수행할 수 있다.In addition, in the step of performing region classification according to the distance in the image analyzer, the region classification may be performed into at least two or more regions based on an appropriate distance reflecting characteristics of an object of an augmentation target.
또한, 상기 증강 대상의 오브젝트의 특성은, 상기 오브젝트의 크기, 상기 오브젝트에 설정된 주석(annotation), 또는 상기 오브젝트의 안전 거리 중 적어도 하나를 포함할 수 있다.Also, the characteristics of the object of the augmentation target may include at least one of a size of the object, an annotation set on the object, or a safety distance of the object.
한편, 상기 영상 분석부가 상기 오브젝트의 안전 거리를 토대로 상기 영역분류를 수행한 경우, 상기 영상 분석부는 상기 안전 거리를 포함하는 영역 상에 안전 라인을 별도로 표시해 줄 수 있다.Meanwhile, when the image analyzer performs the area classification based on the safety distance of the object, the image analyzer may separately display a safety line on the area including the safety distance.
또한, 상기 영상 분석부는, 사용자가 상기 안전 라인을 침범할 경우, 이에 대한 알람을 발생시킬 수 있다.In addition, the video analysis unit may generate an alarm when the user violates the safety line.
또한, 상기 영상 분석부에서 거리에 따른 영역분류를 수행하는 단계는, 너무 가까움, 좋음, 및 너무 멂의 3개 영역 또는 위험 영역, 안전 영역의 2개 영역으로 영역분류 될 수 있다.Also, in the step of classifying regions according to the distance in the image analysis unit, regions may be classified into three regions of too close, good, and too far, or two regions of danger and safety.
본 발명에 의한 적정 거리 표시를 제공하는 증강현실 서비스 장치 및 방법은 증강 대상 오브젝트의 크기 등 오브젝트의 특성에 따라 달라지는 최적의 증강 서비스가 가능한 적정 거리를 사용자가 신속하고 정확하게 파악할 수 있는 장점이 있다. The augmented reality service apparatus and method for providing an appropriate distance display according to the present invention has an advantage in that a user can quickly and accurately grasp an appropriate distance capable of providing an optimal augmented service that varies depending on the characteristics of an object such as the size of an object to be augmented.
또한, 본 발명에 의한 적정 거리 표시를 제공하는 증강현실 서비스 장치 및 방법은 굴삭기의 회전 반경 등과 같이 증강 대상이 되는 오브젝트에 사용자의 안전을 위한 일정 정도의 이격 거리가 필요한 경우, 증강 서비스의 제공 중에도 사용자의 안전을 보장할 수 있는 장점이 있다. In addition, the augmented reality service apparatus and method for providing an appropriate distance display according to the present invention, when an object to be augmented, such as the rotation radius of an excavator, requires a certain distance for the user's safety, even during the provision of the augmented service. It has the advantage of ensuring user safety.
도 1은 본 발명의 일 실시예에 따른 적정 거리 표시를 제공하는 증강현실 서비스 장치의 구성을 간략히 나타낸 구성 개요도이다.
도 2는 본 발명에서 지면과의 거리 측정을 위해 사용하는 레이캐스팅(Raycasting) 기법의 원리에 대해 설명하기 위한 도면이다.
도 3은 도 1의 영상 분석부에서 분석하는 지면의 거리에 따른 영역분류의 일예를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 적정 거리 표시를 제공하는 증강현실 서비스 방법을 나타낸 동작 흐름도 이다.1 is a configuration schematic diagram briefly showing the configuration of an augmented reality service device that provides an appropriate distance indication according to an embodiment of the present invention.
2 is a diagram for explaining the principle of a raycasting technique used for measuring a distance to the ground in the present invention.
FIG. 3 is a diagram for explaining an example of region classification according to the distance of the ground analyzed by the image analyzer of FIG. 1 .
4 is an operational flowchart illustrating an augmented reality service method for providing an appropriate distance display according to an embodiment of the present invention.
이하, 본 발명의 실시를 위한 구체적인 실시예를 첨부된 도면들을 참조하여 설명한다. Hereinafter, specific embodiments for carrying out the present invention will be described with reference to the accompanying drawings.
본 발명을 설명함에 있어서 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되지 않을 수 있다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. In describing the present invention, terms such as first and second may be used to describe various components, but the components may not be limited by the terms. Terms are only for the purpose of distinguishing one element from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.
어떤 구성요소가 다른 구성요소에 연결되어 있다거나 접속되어 있다고 언급되는 경우는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해될 수 있다.When a component is referred to as being connected or connected to another component, it may be directly connected or connected to the other component, but it may be understood that another component may exist in the middle. .
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. Terms used in this specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions may include plural expressions unless the context clearly dictates otherwise.
본 명세서에서, 포함하다 또는 구비하다 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로서, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해될 수 있다. In this specification, the terms include or include are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features or numbers, It can be understood that the presence or addition of steps, operations, components, parts, or combinations thereof is not precluded.
또한, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.In addition, shapes and sizes of elements in the drawings may be exaggerated for clearer description.
본 발명은 증강현실 서비스 장치에서의 오브젝트(object)의 증강을 위한 지면 인식 단계에서 사용되는 것으로서, 지면 인식 시 사용자가 증강하고자 하는 오브젝트가 사용자로부터 적정 거리에 있는지를 쉽고 빠르게 파악할 수 있도록 가이드해 줄 수 있는 증강현실 서비스 장치 및 방법을 제공한다.The present invention is used in the ground recognition step for augmenting an object in an augmented reality service device, and guides the user to quickly and easily determine whether an object to be augmented is at an appropriate distance from the user when recognizing the ground. Provides an augmented reality service device and method capable of
이하, 첨부된 도면을 참조하여 본 발명에 따른 적정 거리 표시를 제공하는 증강현실 서비스 장치 및 방법에 대해 상세히 설명한다. Hereinafter, an augmented reality service apparatus and method for providing an appropriate distance display according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 적정 거리 표시를 제공하는 증강현실 서비스 장치의 구성을 간략히 나타낸 구성 개요도이며, 도 2 및 도 3은 도 1을 상세히 설명하기 위한 세부 도면이다. 1 is a configuration schematic diagram briefly showing the configuration of an augmented reality service device that provides an appropriate distance indication according to an embodiment of the present invention, and FIGS. 2 and 3 are detailed views for explaining FIG. 1 in detail.
이하, 도 1 내지 도 3을 참조하여 본 발명의 일 실시예에 따른 적정 거리 표시를 제공하는 증강현실 서비스 장치에 대해 설명한다. Hereinafter, with reference to FIGS. 1 to 3 , an augmented reality service device providing an appropriate distance indication according to an embodiment of the present invention will be described.
먼저, 도 1을 참조하면, 본 발명의 일 실시예에 따른 적정 거리 표시를 제공하는 증강현실 서비스 장치(100)는 지면(500)을 인식하고 인식한 지면 데이터를 수집하는 카메라(110), 카메라(110)로부터 지면(500)으로 레이캐스팅을 수행하는 레이캐스팅부(120), 및 레이캐스팅에 따른 수집한 지면 데이터와의 충돌 지점을 체크하고 충돌 지점과 카메라(110)의 거리를 측정하여 거리에 따른 영역분류를 수행하는 영상 분석부(130)로 이루어진다. First, referring to FIG. 1, the augmented
이때, 카메라(110)에서 지면(500)을 인식하고 인식한 지면 데이터를 수집하는 것은 카메라(110)의 영상을 통해 지면을 인식하고 지면에 대한 지면 데이터를 수집하는 방식으로 이루어질 수 있다.At this time, recognizing the
또한, 영상 분석부(130)는 증강 대상의 오브젝트(400)의 특성을 반영한 적정 거리로 영역분류를 수행할 수 있다. 일예로, 오브젝트(400)의 크기가 큰 경우, 오브젝트(400)의 증강에 적합한 적정 거리를 그에 비례해 증가시키고, 오브젝트(400)의 크기가 작은 경우에는 오브젝트(400)의 증강에 적합한 적정 거리를 그에 따라 감소시키게 된다.Also, the
한편, 구현예에 따라서는 영상 분석부(130)는 증강 대상의 오브젝트(400)에 설정된 주석(annotation)을 증강 후 용이하게 인식할 수 있는 거리를 적정 거리로 하여 영역분류를 수행할 수 있다. 이때, 오브젝트(400)에 설정된 주석의 인식이 용이한 거리는 미리 설정되어 있는 값을 사용할 수도 있다. Meanwhile, depending on the embodiment, the
즉, 오브젝트(400)를 설명하기 위한 주석(annotation)이 너무 가까울 때는 증강 후 전체적인 주석 내용을 볼 수가 없고, 반대로 주석이 너무 멀리 있게 되는 경우에는 증강 후 주석이 작아 식별이 용이하지 않으므로, 본 발명에서는 사용자가 주석을 인식하기 용이한 적정 거리를 기준으로 영역분류를 수행할 수 있다. That is, when the annotation to describe the
이러한 일 실시예로, 증강 대상의 오브젝트에 발생한 고장에 따른 유지보수를 위해 해당 오브젝트 내에 구비된 회로도 사양 등에 대한 주석을 증강하여 확인하여야 하는 경우, 본 발명의 증강현실 서비스 장치(100)에서 가이드하는 적정 거리를 활용함으로써, 사용자는 해당 오브젝트에 대한 주석을 쉽고 빠르게 확인할 수 있고 유지보수 작업을 효율적으로 수행할 수 있다. As such an embodiment, when it is necessary to augment and check annotations on circuit diagram specifications, etc. provided in the object for maintenance due to a failure occurring in the object of the augmentation target, the augmented
한편, 영상 분석부(130)는 증강 대상의 오브젝트(400)의 특성 상, 사용자의 안전 거리의 유지가 필요한 경우에는 적절한 안전 거리를 확보할 수 있는 거리를 적정 거리로 하여 영역분류를 수행할 수 있다. On the other hand, the
이때, 영상 분석부(130)는 안전 거리를 포함하는 영역 상에 안전 라인을 별도로 표시해 줄 수 있으며, 또한 사용자가 해당 안전 라인을 침범할 경우 이에 대한 알람을 발생시키도록 할 수 있다. 여기서, 알람은 가청 알람을 발생할 수도 있고, 또는 증강현실 내에 시각적으로 표시할 수도 있다.At this time, the
일예로, 증강 대상의 오브젝트(400)가 굴삭기인 경우, 굴삭기의 회전 반경에 따라 안전 거리를 확보하여야 할 필요가 있으며, 사용자의 안전을 위해 상기 굴삭기의 회전 반경 이내로 진입하지 않도록 가이드할 필요가 있다. For example, if the
이때, 본 발명의 증강현실 서비스 장치(100)는 증강 대상의 오브젝트(400)의 특성에 따른 적절한 안전 거리를 확보할 수 있는 거리를 적정 거리로 하여 영역분류를 수행하는 한편, 카메라(110)와 오브젝트(400)와의 거리가 안전 라인 이내인 경우, 사용자의 주의 환기를 위해 알람을 제공할 수 있다. At this time, the augmented
다음, 본 발명에서 사용하고 있는 레이캐스팅(Raycasting) 기법에 대해 도 2를 참조하여 설명한다. 도 2는 본 발명에서 지면의 거리 측정을 위해 사용하는 레이캐스팅(Raycasting) 기법의 원리에 대해 설명하기 위한 도면이다.Next, a raycasting technique used in the present invention will be described with reference to FIG. 2. 2 is a diagram for explaining the principle of a raycasting technique used for measuring a distance on the ground in the present invention.
본 발명에서는 지면(500)과 충돌하는 지점을 체크하여 거리를 측정하기 위해 레이캐스팅(Raycasting) 기법을 사용한다. 레이캐스팅(Raycasting) 기법이란 가상의 공간에 보이지 않는 빛(Ray)를 투사해서 빛에 닿는 표면을 파악하는 기술이다.In the present invention, a raycasting technique is used to measure a distance by checking a point colliding with the
본 발명에서는 카메라(Camera)가 바라보고 있는 전방(Forward)으로 레이캐스팅(Raycasting)을 수행하여 지면과 충돌하는 지점인 충돌포인트(Collision point)를 체크하고, 이를 통해 거리를 측정하는 방식으로 거리 측정이 이루어지게 된다.In the present invention, the distance is measured by performing raycasting in the forward direction where the camera is looking, checking the collision point, which is the point at which it collides with the ground, and measuring the distance through this this will be done
도 3은 도 1의 영상 분석부에서 분석하는 지면의 거리에 따른 영역분류의 일예를 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining an example of region classification according to the distance of the ground analyzed by the image analyzer of FIG. 1 .
도 3에서 볼 수 있는 바와 같이, 본 발명에서의 영역분류는 인식된 지면(510)에 대해 일정 거리 이하로 가까운 영역을 포함한 적어도 두 개 이상의 영역으로 수행될 수 있으며, 그 일예로 도 3에서는 너무 가까움(511), 좋음(512), 및 너무 멂(513)으로 영역분류 한 결과를 나타내고 있다.As can be seen in FIG. 3, area classification in the present invention can be performed with at least two or more areas including areas close to the recognized
이때, 상술한 바와 같이 본 발명의 증강현실 서비스 장치(100)는 증강 대상의 오브젝트(400)의 특성을 반영하여 거리에 따른 영역분류를 수행할 수 있으며, 이때 영역분류는 최소 거리를 포함한 두 개 이상의 영역으로 수행될 수 있다. At this time, as described above, the augmented
도 3에서와 같이, 본 발명은 먼저, 지면을 인식된 지면(510)과 미인식 지면(520)으로 구분할 수 있다.As shown in FIG. 3 , the present invention may first divide the ground into a recognized
그리고, 인식된 지면(510)에 대해 증강 대상의 오브젝트(400)의 특성을 반영해 해당 지면과의 거리에 따라 너무 가까움(511), 좋음(512), 너무 멂(513)으로 영역분류를 수행한다. Then, the characteristics of the
일예로, 본 발명의 증강현실 서비스 장치(100)는 상기 영역분류를 위해 오브젝트(400)에 설정된 주석(annotation)의 인식이 용이할 수 있는 거리를 영역분류의 기준으로 사용할 수 있다. For example, the augmented
즉, 오브젝트(400)를 설명하기 위한 주석이 너무 가까울 때는 증강 후 전체적인 주석 내용을 볼 수가 없고, 반대로 주석이 너무 멀리 있게 되는 경우에는 증강 후 주석이 작아 식별이 용이하지 않으므로, 사용자가 주석을 인식하기 용이한 적정 거리를 기준으로 영역분류를 수행할 수 있으며, 이 경우 오브젝트(400)에 설정된 주석의 크기, 또는 주석의 많고 적음에 따라 미리 설정된 값을 적용할 수 있다.That is, when the annotation for describing the
이를 통해, 사용자는 본 발명의 증강현실 서비스 장치(100)에 의해 분류된 영역을 토대로 증강 대상의 오브젝트(400)를 증강하기 위한 최적의 거리를 쉽고 빠르게 확인할 수 있다.Through this, the user can easily and quickly check the optimal distance for augmenting the
한편, 상기의 예에서는 영역분류를 3개 영역으로 분류하였으나, 본 발명은 이에 한정되는 것은 아니며, 안전 거리를 기준으로 한 2개 영역으로 분류할 수도 있다.Meanwhile, in the above example, the area classification was classified into three areas, but the present invention is not limited thereto and may be classified into two areas based on the safety distance.
예를 들어, 증강 대상의 오브젝트(400)가 굴삭기와 같은 회전 반경에 따른 안전 거리가 요구되는 오브젝트인 경우에는, 적절한 안전 거리를 확보할 수 있는 거리를 적정 거리로 하여 영역분류를 수행할 수 있다. For example, if the
이 경우, 본 발명의 증강현실 서비스 장치(100)는 인식된 지면(510)에 대해 안전 거리 이내의 영역은 위험 영역(511), 안전 거리 밖의 영역은 안전 영역(512,513)의 2개 영역으로 영역분류를 수행할 수 있으며, 이를 통해 본 발명은 증강 서비스의 제공 중에도 사용자의 안전을 보장할 수 있다. In this case, the augmented
구현예에 따라서는, 위험 영역(511)에 최소한의 안전 거리를 표시하는 안전 라인을 별도로 표시해 줄 수 있으며, 해당 안전 라인을 이탈 시, 사용자의 주의 환기를 위해 알람을 제공할 수 있다.Depending on implementation, a safety line indicating a minimum safety distance may be separately displayed in the
또한, 본 발명의 증강현실 서비스 장치(100)는 영역분류된 각 영역에 대해 도 3에서와 같이 다른 색상으로 표시할 수 있으며, 이를 통해 사용자는 더욱 쉽고 빠르게 증강 대상의 오브젝트(400)를 증강하기 위한 최적의 거리를 확인할 수 있다.In addition, the augmented
도 4는 본 발명의 일 실시예에 따른 적정 거리 표시를 제공하는 증강현실 서비스 방법을 나타낸 동작 흐름도 이다.4 is an operational flowchart illustrating an augmented reality service method for providing an appropriate distance display according to an embodiment of the present invention.
도 4에서 알 수 있는 바와 같이, 본 발명의 일 실시예에 따른 적정 거리 표시를 제공하는 증강현실 서비스 방법은, 카메라(110)에서 지면을 인식하고 인식한 지면 데이터를 수집하는 단계(S100), 레이캐스팅부(120)에서 카메라(110)로부터 지면(500)으로 레이캐스팅을 수행하는 단계(S200), 영상 분석부(130)에서 레이캐스팅에 따른 수집한 지면 데이터와의 충돌 지점을 체크하는 단계(S300), 영상 분석부(130)에서 충돌 지점과 카메라(110) 간의 거리를 측정하는 단계(S400), 및 영상 분석부(130)에서 거리에 따른 영역분류를 수행하는 단계(S500)로 이루어진다. As can be seen in Figure 4, the augmented reality service method for providing an appropriate distance display according to an embodiment of the present invention, recognizing the ground in the
이때, 카메라(110)에서 지면을 인식하고 인식한 지면 데이터를 수집하는 것은 카메라(110)의 영상을 통해 지면을 인식하고 지면에 대한 지면 데이터를 수집하는 방식으로 이루어질 수 있다.In this case, the
여기서, 영상 분석부(130)는 오브젝트(400)의 크기 등 증강 대상의 오브젝트(400)의 특성을 반영한 적정한 거리로 영역분류를 수행할 수 있다. Here, the
일예로, 영상 분석부(130)는 증강 대상의 오브젝트(400)에 설정된 주석(annotation)을 증강 후 용이하게 인식할 수 있는 거리를 적정 거리로 하여 영역분류를 수행할 수도 있다. 이때, 오브젝트(400)에 설정된 주석의 인식이 용이할 수 있는 거리는 미리 설정된 값을 사용할 수도 있다. For example, the
한편, 영상 분석부(130)는 증강 대상의 오브젝트(400)의 특성 상, 사용자의 안전 거리의 유지가 필요한 경우에는 적절한 안전 거리를 확보할 수 있는 거리를 적정 거리로 하여 영역분류를 수행할 수 있다. On the other hand, the
이때, 영상 분석부(130)는 안전 거리를 포함하는 영역 상에 안전 라인을 별도로 표시해 줄 수 있으며, 또한 사용자가 해당 안전 라인을 침범할 경우 이에 대한 알람을 발생시키도록 할 수 있다. 여기서, 알람은 가청 알람을 발생할 수도 있고, 또는 증강현실 내에 시각적으로 표시할 수도 있다.At this time, the
또한, 영상 분석부(130)는 영역분류된 각 영역에 대해 도 3에서와 같이 다른 색상으로 표시할 수 있으며, 이를 통해 사용자는 더욱 쉽고 빠르게 증강 대상의 오브젝트(400)를 증강하기 위한 최적의 거리를 확인할 수 있다.In addition, the
상기와 같은 본 발명에 따른 적정 거리 표시를 제공하는 증강현실 서비스 장치 및 방법은 증강 대상 오브젝트의 크기 등 오브젝트의 특성에 따라 달라지는, 최적의 증강 서비스가 가능한 적정 거리를 사용자가 신속하고 정확하게 파악할 수 있으며, 또한 굴삭기의 회전 반경 등과 같이 증강 대상이 되는 오브젝트에 사용자의 안전을 위한 일정 정도의 이격 거리가 필요한 경우, 증강 서비스의 제공 중에도 사용자의 안전을 보장할 수 있다. In the augmented reality service apparatus and method for providing an appropriate distance display according to the present invention as described above, the user can quickly and accurately grasp the appropriate distance for the optimal augmented service, which varies depending on the characteristics of the object such as the size of the augmented target object, , In addition, when an object to be augmented, such as the rotation radius of an excavator, requires a certain distance for the user's safety, the user's safety can be guaranteed even while the augmented service is provided.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소 (processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서 (parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions. The processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Also, other processing configurations are possible, such as parallel processors.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. Computer readable media may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. A hardware device may be configured to act as one or more software modules to perform the operations of the embodiments and vice versa.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on this. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.
Claims (15)
상기 카메라로부터 상기 지면으로 레이캐스팅(Raycasting)을 수행하는 레이캐스팅부; 및
상기 레이캐스팅에 따른 수집한 지면 데이터와의 충돌 지점을 체크하고, 상기 충돌 지점과 상기 카메라 간의 거리를 측정하여 상기 거리에 따른 영역분류를 수행하는 영상 분석부;
를 포함하고,
상기 영상 분석부는,
증강 대상의 오브젝트의 특성을 반영한 적정 거리를 토대로, 적어도 2개 이상의 영역으로 상기 영역분류를 수행하고,
상기 증강 대상의 오브젝트의 특성은,
상기 오브젝트의 크기, 상기 오브젝트에 설정된 주석(annotation), 또는 상기 오브젝트의 안전 거리 중 적어도 하나를 포함하는 것을 특징으로 하는 적정 거리 표시를 제공하는 증강현실 서비스 장치.
A camera that recognizes the ground and collects the recognized ground data;
a raycasting unit performing raycasting from the camera to the ground; and
an image analysis unit that checks a collision point with ground data collected through the ray casting, measures a distance between the collision point and the camera, and performs region classification according to the distance;
including,
The video analysis unit,
Performing the region classification into at least two or more regions based on an appropriate distance reflecting the characteristics of an object of an augmentation target;
The characteristics of the object of the augmentation target are,
An augmented reality service device that provides an appropriate distance display, characterized in that it includes at least one of the size of the object, an annotation set on the object, or a safety distance of the object.
상기 카메라에서 상기 지면을 인식하고 인식한 지면 데이터를 수집하는 것은,
상기 카메라의 영상을 통해 상기 지면을 인식하고 상기 지면에 대한 지면 데이터를 수집하는 방식으로 이루어지는 것을 특징으로 하는 적정 거리 표시를 제공하는 증강현실 서비스 장치.
According to claim 1,
Recognizing the ground in the camera and collecting the recognized ground data,
Augmented reality service device for providing an appropriate distance display, characterized in that made in a way to recognize the ground through the image of the camera and collect ground data for the ground.
상기 영상 분석부는,
상기 오브젝트의 안전 거리를 토대로 상기 영역분류를 수행한 경우, 상기 안전 거리를 포함하는 영역 상에 안전 라인을 별도로 표시해 주는 것을 특징으로 하는 적정 거리 표시를 제공하는 증강현실 서비스 장치.
According to claim 1,
The video analysis unit,
When the area classification is performed based on the safety distance of the object, a safety line is separately displayed on the area including the safety distance.
상기 영상 분석부는,
사용자가 상기 안전 라인을 침범할 경우, 이에 대한 알람을 발생시키는 것을 특징으로 하는 적정 거리 표시를 제공하는 증강현실 서비스 장치.
According to claim 5,
The video analysis unit,
Augmented reality service device that provides an appropriate distance display, characterized in that for generating an alarm when the user violates the safety line.
상기 영상 분석부에 의한 상기 영역분류는,
너무 가까움, 좋음, 및 너무 멂의 3개 영역으로 영역분류되는 것을 특징으로 하는 적정 거리 표시를 제공하는 증강현실 서비스 장치.
According to claim 1,
The region classification by the image analysis unit,
Augmented reality service device that provides an appropriate distance display, characterized in that the area is classified into three areas of too close, good, and too far.
상기 영상 분석부에 의한 상기 영역분류는,
위험 영역, 안전 영역의 2개 영역으로 영역분류되는 것을 특징으로 하는 적정 거리 표시를 제공하는 증강현실 서비스 장치.
According to claim 1,
The region classification by the image analysis unit,
Augmented reality service device that provides an appropriate distance display, characterized in that the area is classified into two areas, a danger area and a safety area.
카메라에서 지면을 인식하고 인식한 지면 데이터를 수집하는 단계;
레이캐스팅부에서 상기 카메라로부터 상기 지면으로 레이캐스팅을 수행하는 단계;
영상 분석부에서 상기 레이캐스팅에 따른 수집한 지면 데이터와의 충돌 지점을 체크하는 단계;
상기 영상 분석부에서 상기 충돌 지점과 상기 카메라 간의 거리를 측정하는 단계; 및
상기 영상 분석부에서 거리에 따른 영역분류를 수행하는 단계;
를 포함하고,
상기 영상 분석부에서 거리에 따른 영역분류를 수행하는 단계는,
증강 대상의 오브젝트의 특성을 반영한 적정 거리를 토대로, 적어도 2개 이상의 영역으로 상기 영역분류를 수행하고,
상기 증강 대상의 오브젝트의 특성은,
상기 오브젝트의 크기, 상기 오브젝트에 설정된 주석(annotation), 또는 상기 오브젝트의 안전 거리 중 적어도 하나를 포함하는 것을 특징으로 하는 적정 거리 표시를 제공하는 증강현실 서비스 방법.
As an augmented reality service method,
Recognizing the ground by the camera and collecting the recognized ground data;
performing ray casting from the camera to the ground in a ray casting unit;
Checking a collision point with ground data collected according to the ray casting in an image analysis unit;
measuring a distance between the collision point and the camera in the image analyzer; and
performing region classification according to distance in the image analysis unit;
including,
The step of performing region classification according to the distance in the image analysis unit,
Performing the region classification into at least two or more regions based on an appropriate distance reflecting the characteristics of an object of an augmentation target;
The characteristics of the object of the augmentation target are,
Augmented reality service method for providing an appropriate distance indication, characterized in that it includes at least one of the size of the object, an annotation set on the object, or a safety distance of the object.
상기 카메라에서 상기 지면을 인식하고 인식한 지면 데이터를 수집하는 단계는,
상기 카메라의 영상을 통해 상기 지면을 인식하고 상기 지면에 대한 지면 데이터를 수집하는 방식으로 이루어지는 것을 특징으로 하는 적정 거리 표시를 제공하는 증강현실 서비스 방법.
According to claim 9,
Recognizing the ground in the camera and collecting the recognized ground data,
Augmented reality service method for providing an appropriate distance display, characterized in that made by recognizing the ground through the image of the camera and collecting ground data for the ground.
상기 영상 분석부가 상기 오브젝트의 안전 거리를 토대로 상기 영역분류를 수행한 경우, 상기 영상 분석부는 상기 안전 거리를 포함하는 영역 상에 안전 라인을 별도로 표시해 주는 것을 특징으로 하는 적정 거리 표시를 제공하는 증강현실 서비스 방법.
According to claim 9,
When the image analysis unit performs the area classification based on the safety distance of the object, the image analysis unit separately displays a safety line on the area including the safety distance. service method.
상기 영상 분석부는,
사용자가 상기 안전 라인을 침범할 경우, 이에 대한 알람을 발생시키는 것을 특징으로 하는 적정 거리 표시를 제공하는 증강현실 서비스 방법.
According to claim 13,
The video analysis unit,
Augmented reality service method for providing an appropriate distance indication, characterized in that when the user invades the safety line, generating an alarm for this.
상기 영상 분석부에서 거리에 따른 영역분류를 수행하는 단계는,
너무 가까움, 좋음, 및 너무 멂의 3개 영역 또는 위험 영역, 안전 영역의 2개 영역으로 영역분류되는 것을 특징으로 하는 적정 거리 표시를 제공하는 증강현실 서비스 방법.According to claim 9,
The step of performing region classification according to the distance in the image analysis unit,
An augmented reality service method for providing an appropriate distance indication, characterized in that the areas are classified into three areas of too close, good, and too far, or two areas of danger area and safe area.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220080913A KR102541265B1 (en) | 2022-06-30 | 2022-06-30 | Augmented reality service apparatus and method for providing appropriate distance indication |
PCT/KR2023/008832 WO2024005474A1 (en) | 2022-06-30 | 2023-06-26 | Augmented-reality service device and method for providing proper distance display |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220080913A KR102541265B1 (en) | 2022-06-30 | 2022-06-30 | Augmented reality service apparatus and method for providing appropriate distance indication |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102541265B1 true KR102541265B1 (en) | 2023-06-13 |
Family
ID=86762664
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220080913A KR102541265B1 (en) | 2022-06-30 | 2022-06-30 | Augmented reality service apparatus and method for providing appropriate distance indication |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102541265B1 (en) |
WO (1) | WO2024005474A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024005474A1 (en) * | 2022-06-30 | 2024-01-04 | 주식회사 와이엠엑스 | Augmented-reality service device and method for providing proper distance display |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016218610A (en) * | 2015-05-18 | 2016-12-22 | 本田技研工業株式会社 | Motion estimation device, robot, and motion estimation method |
KR101944823B1 (en) | 2018-06-07 | 2019-02-07 | (주)영신디엔씨 | Underground Facilities Detection System Using Augmented Reality and Virtual Reality |
KR20220056046A (en) * | 2020-10-27 | 2022-05-04 | (주)투핸즈인터랙티브 | Method for measuring individual exercise amount using augmented reality interactive sports apparatus |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101319528B1 (en) * | 2012-05-30 | 2013-10-21 | 에이알비전 (주) | Method to measure the distance of object attached using augmented reality |
KR101253644B1 (en) * | 2012-12-28 | 2013-04-11 | 주식회사 맥스트 | Apparatus and method for displaying augmented reality content using geographic information |
KR20150088525A (en) * | 2014-01-24 | 2015-08-03 | 연세대학교 산학협력단 | Method and apparatus for estimating the current position using video information |
KR102541265B1 (en) * | 2022-06-30 | 2023-06-13 | (주)위즈베이스 | Augmented reality service apparatus and method for providing appropriate distance indication |
-
2022
- 2022-06-30 KR KR1020220080913A patent/KR102541265B1/en active IP Right Grant
-
2023
- 2023-06-26 WO PCT/KR2023/008832 patent/WO2024005474A1/en unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016218610A (en) * | 2015-05-18 | 2016-12-22 | 本田技研工業株式会社 | Motion estimation device, robot, and motion estimation method |
KR101944823B1 (en) | 2018-06-07 | 2019-02-07 | (주)영신디엔씨 | Underground Facilities Detection System Using Augmented Reality and Virtual Reality |
KR20220056046A (en) * | 2020-10-27 | 2022-05-04 | (주)투핸즈인터랙티브 | Method for measuring individual exercise amount using augmented reality interactive sports apparatus |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024005474A1 (en) * | 2022-06-30 | 2024-01-04 | 주식회사 와이엠엑스 | Augmented-reality service device and method for providing proper distance display |
Also Published As
Publication number | Publication date |
---|---|
WO2024005474A1 (en) | 2024-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11400928B2 (en) | Driverless vehicle testing method and apparatus, device and storage medium | |
CN111782583B (en) | Intelligent drawing examining method and related device | |
Tuttas et al. | Validation of BIM components by photogrammetric point clouds for construction site monitoring | |
CN111428572B (en) | Information processing method, device, electronic equipment and medium | |
JP2023527100A (en) | Event detection method, device, electronic device, readable storage medium, and computer program | |
CN110533940B (en) | Method, device and equipment for identifying abnormal traffic signal lamp in automatic driving | |
KR102541265B1 (en) | Augmented reality service apparatus and method for providing appropriate distance indication | |
KR102441276B1 (en) | Method, device and system for managing and providing safety information of structure based on mobile terminal | |
US20080225131A1 (en) | Image Analysis System and Image Analysis Method | |
WO2021135321A1 (en) | Object positioning method and apparatus, and computer system | |
CN118096733B (en) | Packaging carton quality assessment method and system based on image analysis | |
KR101916753B1 (en) | Apparatus for measuring the pipe bending angle | |
KR20200050573A (en) | Method for large sructures safety diagnosis using drone, device and computer readable medium for performing the method | |
CN113092079A (en) | Definition detection target plate and method and system, electronic equipment and detection platform | |
CN114792024A (en) | Building safety inspection system and method based on BIM model | |
CN111914841B (en) | CT image processing method and device | |
Chen et al. | Implementation of fire and smoke detection using deepstream and edge computing approachs | |
CN112149693A (en) | Training method of contour recognition model and detection method of target object | |
CN114816670A (en) | Virtual machine detection method and device, electronic equipment and storage medium | |
Jeelani et al. | Real-time hazard proximity detection—Localization of workers using visual data | |
CN111753625B (en) | Pedestrian detection method, device, equipment and medium | |
CN113971414A (en) | Label identification method and device, electronic equipment and storage medium | |
CN111860419A (en) | Method for compliance detection in power overhaul process, electronic equipment and storage medium | |
CN118092654B (en) | Virtual reality application method, system, terminal and storage medium for operation and maintenance industry | |
KR102603286B1 (en) | Server, method and program for designing, constructing and supervising buildings |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |