KR20230051138A - Method for Providing Augmented Reality by using Distance Sensing - Google Patents

Method for Providing Augmented Reality by using Distance Sensing Download PDF

Info

Publication number
KR20230051138A
KR20230051138A KR1020230043647A KR20230043647A KR20230051138A KR 20230051138 A KR20230051138 A KR 20230051138A KR 1020230043647 A KR1020230043647 A KR 1020230043647A KR 20230043647 A KR20230043647 A KR 20230043647A KR 20230051138 A KR20230051138 A KR 20230051138A
Authority
KR
South Korea
Prior art keywords
distance
area
recognition
real
data
Prior art date
Application number
KR1020230043647A
Other languages
Korean (ko)
Inventor
김재형
권봉기
Original Assignee
주식회사 비즈모델라인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 비즈모델라인 filed Critical 주식회사 비즈모델라인
Priority to KR1020230043647A priority Critical patent/KR20230051138A/en
Publication of KR20230051138A publication Critical patent/KR20230051138A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • H04W4/022Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences with dynamic range variability

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Economics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

According to the present invention, a method for providing augmented reality by using distance sensing of the present invention, executed by an apparatus that is provided with a camera receiving actual reality data, in which an object in a real world is filmed, and is provided with a distance recognition sensor capable of sensing a distance between the object in the real world and the camera comprises: synchronizing a sight direction of the distance recognition sensor and the camera, or maintaining a synchronized state; checking, when the augmented reality is implemented through the actual reality data input through the camera, a distance recognition value for each of n (n>1) distance recognition areas, obtained by sensing a distance between the camera and the object through the distance recognition sensor for each of n distance recognition areas that are one-to-one matched with areas divided from an area including a pixel area capable of doubly marking virtual data of the augmented reality from among pixel areas of the actual real data; recognizing an object area corresponding to the object, on which the virtual data is doubly marked, separately from a background area corresponding to a background based on a distance relation between distance recognition values for each of the sensed n distance recognition areas; and implementing the augmented reality by doubly marking the virtual data in an area, including the separately recognized object area, from among the pixel areas of the actual real data. Accordingly, the present invention can clearly determine an object for outputting virtual reality data.

Description

거리 센싱을 이용한 증강현실 제공 방법{Method for Providing Augmented Reality by using Distance Sensing}Method for Providing Augmented Reality by using Distance Sensing

본 발명은, 현실세계의 피사체를 촬영한 실제현실 데이터를 입력받는 카메라를 구비하고 상기 현실세계의 피사체와 카메라 사이의 거리를 센싱 가능한 거리인식센서를 구비한 장치를 통해 실행되는 방법에 있어서, 상기 카메라와 거리인식센서의 시선 방향을 동기화하거나 동기화된 상태를 유지하고, 상기 카메라를 통해 입력되는 실제현실 데이터를 통해 증강현실을 구현하는 경우 상기 실제현실 데이터의 픽셀 영역 중 증강현실의 가상 데이터를 중첩 표시 가능한 픽셀 영역을 포함하는 영역을 n(n>1)개로 분할한 영역에 일대일 매칭되는 n개의 거리인식 영역 별로 상기 거리인식센서를 통해 상기 카메라와 피사체 사이의 거리를 센싱한 n개의 거리인식 영역 별 거리인식 값을 확인하고, 상기 센싱된 n개의 거리인식 영역 별 거리인식 값 사이의 거리 관계를 근거로 가상 데이터를 중첩 표시할 피사체에 대응하는 객체 영역을 배경에 대응하는 배경 영역과 구분하여 인식하며, 상기 실제현실 데이터의 픽셀 영역 중 상기 구분 인식된 객체 영역을 포함하는 영역에 가상 데이터를 중첩 표시하여 증강현실을 구현하는 거리 센싱을 이용한 증강현실 제공 방법에 관한 것이다.The present invention is a method implemented by a device having a camera for receiving real data obtained by photographing a subject in the real world and a distance recognition sensor capable of sensing a distance between the subject in the real world and the camera, wherein the When synchronizing or maintaining the gaze direction of the camera and the distance sensor, and realizing augmented reality through real reality data input through the camera, virtual data of augmented reality is superimposed among the pixel areas of the real reality data. n distance recognition areas in which the distance between the camera and the subject is sensed through the distance recognition sensor for each n distance recognition areas matched one-to-one with the area including the displayable pixel area divided into n (n>1) pieces After confirming the distance recognition value for each distance, and based on the distance relationship between the sensed distance recognition values for each of the n distance recognition areas, the object area corresponding to the subject to be overlapped and displayed with virtual data is separated from the background area corresponding to the background and recognized. and a method for providing augmented reality using distance sensing, which implements augmented reality by overlapping and displaying virtual data in an area including the segmented and recognized object area among pixel areas of the real reality data.

디스플레이 장치를 통해 표시되는 현실은 카메라를 통해 실제 세계를 촬영한 실제현실(Full Reality)과 실제 세계에는 존재하지 않으나 컴퓨터를 통해 만들어진 가상 세계를 표현하는 가상현실(Virtual Reality)로 나뉘며, SF(Science Fiction) 영화와 같이 미리 정해진 장면 시나리오에 따라 블루스크린 앞에서 실제현실을 촬영하고 여기에 가상현실을 조합한 크로마키현실(Chroma-Key Reality)이 존재하며, 크로마키현실은 분류 상 가상현실에 속한다.The reality displayed through the display device is divided into full reality, which captures the real world through a camera, and virtual reality, which expresses a virtual world that does not exist in the real world but is created through a computer. Fiction) There is a chroma-key reality that combines virtual reality by filming real reality in front of a blue screen according to a predetermined scene scenario like a movie, and chroma-key reality belongs to virtual reality in terms of classification.

최근 정보 통신 지속적인 기술의 발전으로 실제현실 상의 객체에 실시간으로 가상현실 데이터를 표시하는 증강현실(Augmented Reality)이 제안되었다. 증강현실은 SF영화와 같이 미리 정해진 장면 시나리오가 없다는 점, 실제현실을 블루스크린 앞에서 촬영하지 않는 점에서 크로마키현실과 구분된다.Recently, with the continuous development of information communication technology, augmented reality (Augmented Reality), which displays virtual reality data in real time on objects in real reality, has been proposed. Augmented reality is different from chroma key reality in that it does not have a pre-determined scene scenario like SF movies and does not shoot real reality in front of a blue screen.

상기 증강현실에서 실제현실 상에 가상현실 데이터를 표시할 객체를 결정하는 방법으로는, 실제현실에 마커(Marker)를 표시한 후 상기 마커를 인식하여 상기 마커 상에 가상현실 데이터를 표시하는 마커 방식 증강현실과, 실제현실에 마커를 표시하지 않고 실제현실 상의 객체를 직접 인식하여 가상현실 데이터를 표시하는 마커리스(Markerless) 증강현실이 존재한다. 현재 마커 방식 증강현실은 각각의 마커를 이용하여 몇 가지 시범 서비스가 제공되고 있으나 마커 구성에 대한 표준화가 전혀 존재하지 않으며, 마커리스 증강현실은 스튜디오에서 미리 정해진 객체를 촬영한 실제현실을 이용하는 경우를 제외하고는 객체 인식의 불안정성으로 인해 시범되지 못하고 있다.As a method of determining an object to display virtual reality data on real reality in the augmented reality, a marker method of displaying a marker in real reality and then recognizing the marker and displaying the virtual reality data on the marker There is augmented reality and markerless augmented reality that displays virtual reality data by directly recognizing objects in real reality without displaying markers in real reality. Currently, marker-based augmented reality is providing several pilot services using each marker, but there is no standardization of marker configuration at all, and markerless augmented reality uses real reality in which a predetermined object is photographed in a studio. Except for this, it has not been demonstrated due to the instability of object recognition.

또한, 상기 증강현실에서 실제현실에 가상현실 데이터를 표시하는 방법으로는, 카메라를 통해 촬영되어 저장매체에 저장된 실제현실로부터 마커/마커리스 방식으로 객체를 인식하고 상기 인식된 객체 상에 가상현실 데이터를 표시하는 방법과, 카메라를 통해 실시간 촬영되는 실제현실로부터 마커/마커리스 방식으로 객체를 인식하고 상기 인식된 객체 상에 가상현실 데이터를 표시하는 방법이 존재하며, 상술된 방법 이외에 카메라를 통해 실제현실을 촬영하지 않고 인간의 눈이 그 너머의 실제현실을 바라보는 투명한 물건(예컨대, 안경, 고글, 유리창 등)을 투명 디스플레이로 이용하고 센서 기술을 통해 상기 인간의 눈이 투명 디스플레이 너머의 객체를 인식하여 상기 투명 디스플레이 상에 가상현실 데이터를 표시하는 방법이 이론적으로 존재한다.In addition, as a method of displaying virtual reality data in real reality in the augmented reality, an object is recognized in a marker/markerless method from real reality photographed through a camera and stored in a storage medium, and the virtual reality data is displayed on the recognized object. There is a method of displaying an object and a method of recognizing an object in a marker/markerless manner from real reality captured in real time through a camera and displaying virtual reality data on the recognized object. A transparent object (eg, glasses, goggles, glass windows, etc.) through which the human eye looks at the real reality beyond it is used as a transparent display without capturing reality, and through sensor technology, the human eye can see the object beyond the transparent display. A method of recognizing and displaying virtual reality data on the transparent display theoretically exists.

한편 상기 마커리스 방식으로 객체를 인식하는 경우, 객체를 인식할 수 있는 조건이 설정된 스튜디오에서 촬영된 실제현실 데이터를 판독하는 경우 상기 가상현실 데이터를 출력할 객체를 비교적 용이하게 인식할 수 있지만, 상기와 같은 조건이 설정되지 않은 환경 또는 실제현실 데이터에 노이즈가 발생한 환경에서 촬영된 실제현실 데이터를 판독하여 객체를 인식하는 것은 매우 난해하다.On the other hand, when recognizing an object in the markerless method, when reading real reality data photographed in a studio in which conditions for recognizing an object are set, it is relatively easy to recognize an object to output the virtual reality data, but the It is very difficult to recognize an object by reading real reality data photographed in an environment in which such conditions are not set or in an environment in which noise is generated in real reality data.

본 발명의 목적은, 현실세계의 피사체를 촬영한 실제현실 데이터를 입력받는 카메라를 구비하고 상기 현실세계의 피사체와 카메라 사이의 거리를 센싱 가능한 거리인식센서를 구비한 장치를 통해 실행되는 방법에 있어서, 상기 카메라와 거리인식센서의 시선 방향을 동기화하거나 동기화된 상태를 유지하는 제1 단계와 상기 카메라를 통해 입력되는 실제현실 데이터를 통해 증강현실을 구현하는 경우 상기 실제현실 데이터의 픽셀 영역 중 증강현실의 가상 데이터를 중첩 표시 가능한 픽셀 영역을 포함하는 영역을 n(n>1)개로 분할한 영역에 일대일 매칭되는 n개의 거리인식 영역 별로 상기 거리인식센서를 통해 상기 카메라와 피사체 사이의 거리를 센싱한 n개의 거리인식 영역 별 거리인식 값을 확인하는 제2 단계와 상기 센싱된 n개의 거리인식 영역 별 거리인식 값 사이의 거리 관계를 근거로 가상 데이터를 중첩 표시할 피사체에 대응하는 객체 영역을 배경에 대응하는 배경 영역과 구분하여 인식하는 제3 단계 및 상기 실제현실 데이터의 픽셀 영역 중 상기 구분 인식된 객체 영역을 포함하는 영역에 가상 데이터를 중첩 표시하여 증강현실을 구현하는 제4 단계를 포함하는 거리 센싱을 이용한 증강현실 제공 방법을 제공함에 있다.An object of the present invention is to provide a method that is implemented through a device having a camera for receiving real data obtained by photographing a subject in the real world and a distance recognition sensor capable of sensing the distance between the subject in the real world and the camera. , In the case of implementing augmented reality through the first step of synchronizing or maintaining the gaze direction of the camera and the distance recognition sensor and the real reality data input through the camera, the augmented reality of the pixel area of the real reality data Sensing the distance between the camera and the subject through the distance recognition sensor for each n distance recognition area that is one-to-one matched to an area obtained by dividing an area including a pixel area capable of overlapping display of virtual data of n into n (n>1) pieces Based on the distance relationship between the second step of checking the distance recognition value for each n distance recognition area and the sensed distance recognition value for each n distance recognition area, an object area corresponding to the subject to be overlapped with virtual data is displayed in the background. A distance including a third step of distinguishing and recognizing a corresponding background region and a fourth step of implementing augmented reality by overlapping and displaying virtual data in an area including the identified object region among pixel regions of the real reality data. It is to provide an augmented reality providing method using sensing.

본 발명에 따른 거리 센싱을 이용한 증강현실 제공 방법은, 현실세계의 피사체를 촬영한 실제현실 데이터를 입력받는 카메라를 구비하고 상기 현실세계의 피사체와 카메라 사이의 거리를 센싱 가능한 거리인식센서를 구비한 장치를 통해 실행되는 방법에 있어서, 상기 카메라와 거리인식센서의 시선 방향을 동기화하거나 동기화된 상태를 유지하는 제1 단계와 상기 카메라를 통해 입력되는 실제현실 데이터를 통해 증강현실을 구현하는 경우 상기 실제현실 데이터의 픽셀 영역 중 증강현실의 가상 데이터를 중첩 표시 가능한 픽셀 영역을 포함하는 영역을 n(n>1)개로 분할한 영역에 일대일 매칭되는 n개의 거리인식 영역 별로 상기 거리인식센서를 통해 상기 카메라와 피사체 사이의 거리를 센싱한 n개의 거리인식 영역 별 거리인식 값을 확인하는 제2 단계와 상기 센싱된 n개의 거리인식 영역 별 거리인식 값 사이의 거리 관계를 근거로 가상 데이터를 중첩 표시할 피사체에 대응하는 객체 영역을 배경에 대응하는 배경 영역과 구분하여 인식하는 제3 단계 및 상기 실제현실 데이터의 픽셀 영역 중 상기 구분 인식된 객체 영역을 포함하는 영역에 가상 데이터를 중첩 표시하여 증강현실을 구현하는 제4 단계를 포함하는 것을 특징으로 한다.A method for providing augmented reality using distance sensing according to the present invention includes a camera for receiving real data obtained by photographing a subject in the real world and a distance recognition sensor capable of sensing the distance between the subject in the real world and the camera. In the method executed through the device, when the first step of synchronizing or maintaining the gaze direction of the camera and the distance recognition sensor and implementing augmented reality through real reality data input through the camera, the actual The camera through the distance recognition sensor for each n distance recognition area that is one-to-one matched to an area obtained by dividing an area including a pixel area in which virtual data of augmented reality can be overlapped and displayed among pixel areas of real data into n (n>1) pieces. The second step of checking the distance recognition value for each n distance recognition area by sensing the distance between the subject and the subject to be overlapped with virtual data based on the distance relationship between the sensed distance recognition value for each n distance recognition area A third step of distinguishing and recognizing the object area corresponding to the background area corresponding to the background and realizing augmented reality by overlapping and displaying virtual data in the area including the identified object area among the pixel areas of the real reality data. It is characterized in that it comprises a fourth step of doing.

본 발명에 따른 거리 센싱을 이용한 증강현실 제공 방법에 있어서, 상기 제1 단계는, 상기 카메라의 피사체 인식 범위와 상기 거리인식센서의 거리인식 범위를 동기화하는 단계를 더 포함하며, 상기 제3 단계는, 상기 카메라의 피사체 인식 범위와 상기 거리인식센서의 거리인식 범위가 동기화된 상태에서 상기 실제현실 데이터의 픽셀 영역 중 증강현실의 가상 데이터를 중첩 표시 가능한 픽셀 영역에 일대일 매칭되는 n개의 거리인식 영역 별로 상기 거리인식센서를 통해 상기 카메라와 피사체 사이의 거리를 센싱한 n개의 거리인식 영역 별 거리인식 값을 확인하는 것을 특징으로 한다.In the method for providing augmented reality using distance sensing according to the present invention, the first step further includes synchronizing a subject recognition range of the camera and a distance recognition range of the distance recognition sensor, and the third step comprises: , In a state in which the subject recognition range of the camera and the distance recognition range of the distance recognition sensor are synchronized, for each n distance recognition area that is one-to-one matched with a pixel area in which virtual data of augmented reality can be overlapped and displayed among pixel areas of the real reality data. It is characterized in that the distance recognition value for each n distance recognition area sensed by the distance between the camera and the subject through the distance recognition sensor is checked.

본 발명에 따른 거리 센싱을 이용한 증강현실 제공 방법에 있어서, 상기 카메라를 통해 입력되는 실제현실 데이터를 통해 증강현실을 구현하는 경우 상기 실제현실 데이터의 픽셀 영역을 판독하여 상기 픽셀 영역의 색상/채도를 통해 구분되는 영역의 경계 선을 기준으로 가상 데이터를 중첩 표시 가능한 픽셀 판독 기반 객체 영역을 1차 인식하는 단계를 더 포함하며, 상기 제2 단계는, 상기 1차 인식된 픽셀 판독 기반 객체 영역을 포함하는 영역을 n개로 분할한 영역에 일대일 매칭되는 n개의 거리인식 영역 별로 상기 거리인식센서를 통해 상기 카메라와 피사체 사이의 거리를 센싱한 n개의 거리인식 영역 별 거리인식 값을 확인하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the augmented reality providing method using distance sensing according to the present invention, when augmented reality is implemented through real reality data input through the camera, a pixel area of the real reality data is read and the color/saturation of the pixel area is determined. and firstly recognizing a pixel reading-based object region capable of overlapping and displaying virtual data based on a boundary line of the region divided by the above, wherein the second step includes the first recognized pixel reading-based object region. Checking the distance recognition value for each n distance recognition area where the distance between the camera and the subject is sensed through the distance recognition sensor for each n distance recognition area that is one-to-one matched to the area obtained by dividing the area to be divided into n areas; characterized by being made.

본 발명에 따른 거리 센싱을 이용한 증강현실 제공 방법에 있어서,상기 제3 단계는, 상기 센싱된 n개의 거리인식 영역 별 거리인식 값 사이의 거리 차이를 포함하는 거리 관계를 판독하여 가상 데이터를 중첩 표시할 피사체에 대응하는 객체 영역과 배경에 대응하는 배경 영역을 구분하여 인식하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the method for providing augmented reality using distance sensing according to the present invention, in the third step, the distance relationship including the distance difference between the sensed distance recognition values for each of the n distance recognition areas is read and virtual data is overlapped and displayed. It is characterized in that it comprises the step of distinguishing and recognizing an object area corresponding to the subject to be performed and a background area corresponding to the background.

본 발명에 따른 거리 차이를 이용한 증강현실 제공 방법은, 현실세계를 촬영한 실제현실 데이터를 입력받는 카메라를 구비하고 현실세계에 존재하는 객체와의 거리를 인식하는 거리인식센서를 구비한 장치를 통해 실행되는 방법에 있어서, 상기 카메라와 거리인식센서의 시선 방향을 동기화하거나 동기화된 상태를 유지하는 제1 단계와 상기 카메라를 통해 실제현실 데이터를 입력받는 경우 상기 실제현실 데이터의 픽셀 영역을 판독하여 상기 픽셀 영역의 색상/채도를 통해 구분되는 영역의 경계 선을 기준으로 가상 데이터를 중첩 표시 가능한 객체에 대응하는 픽셀 판독 기반 객체 영역을 1차 인식하는 제2 단계와 상기 1차 인식된 픽셀 판독 기반 객체 영역을 포함하는 영역을 n(n>1)개의 거리인식 영역으로 분할하고, 상기 카메라의 시선 방향과 동기화된 거리인식센서를 통해 상기 픽셀 판독 기반 객체 영역에 대응하는 현실세계의 객체나 배경에서 상기 카메라까지의 직선 거리에 대응하는 n개의 거리인식 영역 별 거리인식 값을 센싱하고, 상기 센싱된 n개의 거리인식 영역 별 거리인식 값을 이용하여 상기 n개의 거리인식 영역과 매칭된 픽셀 판독 기반 객체 영역에 대한 복수의 픽셀 영역 별 거리 차이를 산출하고 상기 산출된 복수의 픽셀 영역 별 거리 차이가 기 설정된 범위 이내인 픽셀 영역을 판별하여 상기 1차 인식된 픽셀 판독 기반 객체 영역 중 실제 객체에 대응하는 실제 객체 영역과 배경에 대응하는 배경 영역을 구분하여 2차 인식하는 제3 단계 및 상기 실제현실 데이터의 픽셀 영역 중 상기 2차 인식된 실제 객체 영역에 대응하는 영역에 지정된 가상 데이터를 중첩 표시하는 제4 단계를 포함하는 것을 특징으로 한다.A method for providing augmented reality using a distance difference according to the present invention is provided through a device having a camera for receiving real reality data photographed in the real world and a distance recognition sensor for recognizing a distance to an object existing in the real world. In the method to be executed, the first step of synchronizing or maintaining the gaze direction of the camera and the distance sensor, and reading a pixel area of the real reality data when receiving real reality data through the camera, A second step of firstly recognizing a pixel reading-based object region corresponding to an object capable of overlapping and displaying virtual data based on the boundary line of the region distinguished by the color/saturation of the pixel region, and the first recognized pixel reading-based object The area including the area is divided into n (n>1) distance recognition areas, and the object or background in the real world corresponding to the pixel read-based object area is detected through a distance recognition sensor synchronized with the gaze direction of the camera. A pixel read-based object area that is matched with the n distance-recognition areas by sensing distance-recognition values for each n distance-recognition areas corresponding to the straight-line distance to the camera, and using the sensed distance-recognition values for each n-number of distance-recognition areas. A distance difference between a plurality of pixel areas is calculated, and a pixel area in which the calculated distance difference between a plurality of pixel areas is within a preset range is determined, and a pixel area corresponding to a real object among the firstly recognized pixel read-based object areas is determined. A third step of secondary recognition by dividing the object region and the background region corresponding to the background, and a fourth step of superimposing and displaying designated virtual data on the region corresponding to the secondly recognized real object region among the pixel regions of the real reality data. It is characterized by including steps.

본 발명에 따른 거리 차이를 이용한 증강현실 제공 방법에 있어서, 상기 제1 단계는, 상기 카메라의 피사체 인식 범위와 상기 거리인식센서의 거리인식 범위를 동기화하는 단계를 더 포함하며, 상기 제3 단계는, 상기 카메라의 피사체 인식 범위와 상기 거리인식센서의 거리인식 범위가 동기화된 상태에서 상기 픽셀 판독 기반 객체 영역을 포함하는 영역을 n개의 거리인식 영역으로 분할하여 상기 거리인식센서를 통해 n개의 거리인식 영역 별 거리인식 값을 센싱하는 것을 특징으로 한다.In the method for providing augmented reality using a distance difference according to the present invention, the first step further includes synchronizing a subject recognition range of the camera and a distance recognition range of the distance recognition sensor, and the third step comprises: In a state where the subject recognition range of the camera and the distance recognition range of the distance recognition sensor are synchronized, the area including the pixel reading based object area is divided into n distance recognition areas, and n distance recognition is performed through the distance recognition sensor. It is characterized by sensing the distance recognition value for each area.

본 발명에 따른 거리 차이를 이용한 증강현실 제공 방법에 있어서, 상기 거리인식센서는,상기 카메라 외에 화상을 입력 가능한 별도의 카메라를 포함하여 이루어지는 것을 특징으로 한다.In the augmented reality providing method using a distance difference according to the present invention, the distance recognition sensor is characterized in that it comprises a separate camera capable of inputting an image in addition to the camera.

본 발명에 따른 거리 차이를 이용한 증강현실 제공 방법에 있어서, 상기 거리인식센서는,광학 신호, 전자파 신호, 음파 신호 중 적어도 하나의 신호를 이용하여 현실세계에 존재하는 객체와의 거리를 인식하는 센서를 포함하여 이루어지는 것을 특징으로 한다.In the method for providing augmented reality using a distance difference according to the present invention, the distance recognition sensor is a sensor that recognizes a distance to an object existing in the real world using at least one of an optical signal, an electromagnetic signal, and a sound wave signal. It is characterized by comprising a.

본 발명에 따른 거리 차이를 이용한 증강현실 제공 방법은, 현실세계를 촬영한 실제현실 데이터를 입력받는 카메라를 구비하고 현실세계에 존재하는 객체와 상기 카메라 사이의 거리를 인식하는 거리인식센서를 구비한 장치를 통해 실행되는 방법에 있어서, 상기 카메라의 피사체 인식 범위와 상기 거리인식센서의 거리인식 범위를 동기화하는 제1 단계와 상기 카메라를 통해 실제현실 데이터를 입력받는 경우 상기 실제현실 데이터의 픽셀 영역을 판독하여 상기 픽셀 영역의 색상/채도를 통해 구분되는 영역의 경계 선을 기준으로 가상 데이터를 중첩 표시 가능한 픽셀 판독 기반 객체 영역을 1차 인식하는 제2 단계와 상기 1차 인식된 픽셀 판독 기반 객체 영역을 포함하는 영역을 n(n>1)개의 거리인식 영역으로 분할하고, 상기 동기화된 거리인식센서를 통해 상기 카메라 전면의 객체와 상기 카메라 사이의 거리에 대응하는 n개의 거리인식 영역 별 거리인식 값을 센싱하고, 상기 센싱된 n개의 거리인식 영역 별 거리인식 값을 이용하여 상기 n개의 거리인식 영역과 매칭된 픽셀 판독 기반 객체 영역에 대한 복수의 픽셀 영역 별 거리 차이를 산출하고, 상기 1차 인식된 픽셀 판독 기반 객체 영역 중 상기 산출된 복수의 픽셀 영역 별 거리 차이가 기 설정된 범위 이내인 픽셀 영역을 포함하는 실제 객체 영역을 2차 인식하는 제3 단계 및 상기 실제현실 데이터의 픽셀 영역 중 상기 2차 인식된 실제 객체 영역에 대응하는 영역에 지정된 가상 데이터를 중첩 표시하는 제4 단계를 포함하는 것을 특징으로 한다.A method for providing augmented reality using a distance difference according to the present invention includes a camera for receiving real reality data photographed in the real world and a distance recognition sensor for recognizing the distance between an object existing in the real world and the camera. In the method executed by the device, in the first step of synchronizing the object recognition range of the camera and the distance recognition range of the distance recognition sensor, and when receiving real reality data through the camera, a pixel area of the real reality data A second step of firstly recognizing a pixel reading-based object region capable of superimposing and displaying virtual data based on a boundary line of the region that is read and distinguished through the color/saturation of the pixel region, and the first recognized pixel reading-based object region Divides the area including n into n (n>1) distance recognition areas, and the distance recognition value for each n distance recognition area corresponding to the distance between the camera and the object in front of the camera through the synchronized distance recognition sensor. is sensed, and distance differences are calculated for each of a plurality of pixel areas with respect to pixel read-based object areas matched with the n distance-recognition areas using the sensed distance recognition values for each n distance-recognition areas, and the first recognition A third step of secondarily recognizing a real object region including a pixel region in which a distance difference between a plurality of calculated pixel regions is within a preset range among the pixel read-based object regions and the second among the pixel regions of the real reality data and a fourth step of overlapping and displaying the specified virtual data on an area corresponding to the second recognized real object area.

본 발명에 따른 거리 차이를 이용한 증강현실 제공 방법에 있어서, 상기 카메라의 줌인 또는 줌아웃에 의해 상기 카메라의 피사체 인식 범위 변경 시 상기 거리인식센서의 거리인식 범위를 상기 카메라의 줌인 또는 줌아웃에 의해 변경된 피사체 인식 범위와 매칭되게 동기화시키는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.In the method for providing augmented reality using a distance difference according to the present invention, when the subject recognition range of the camera is changed by zooming in or zooming out of the camera, the distance recognition range of the distance sensor is changed by zooming in or zooming out of the camera. It is characterized in that it is made by further comprising the step of synchronizing to match the recognition range.

본 발명에 따른 거리 차이를 이용한 증강현실 제공 방법에 있어서, 상기 거리인식센서는, 인체의 감각기관을 통해 인지하기 난해한 광학 신호, 전자파 신호, 음파 신호 중 적어도 하나의 신호를 이용하여 현실세계에 존재하는 객체와의 거리를 인식하는 센서를 포함하여 이루어지는 것을 특징으로 한다.In the method for providing augmented reality using a distance difference according to the present invention, the distance recognition sensor exists in the real world using at least one of an optical signal, an electromagnetic signal, and a sound wave signal, which are difficult to perceive through the sense organs of the human body. It is characterized in that it comprises a sensor for recognizing the distance to the object to be.

본 발명에 따른 거리 차이를 이용한 증강현실 제공 방법은, 현실세계를 촬영한 실제현실 데이터를 입력받는 카메라를 구비하고 현실세계에 존재하는 객체와의 거리를 인식하는 거리인식센서를 구비한 장치를 통해 실행되는 방법에 있어서, 상기 카메라의 피사체 인식 범위와 상기 거리인식센서의 거리인식 범위를 동기화하는 제1 단계와 상기 카메라를 통해 실제현실 데이터를 입력받는 경우 상기 실제현실 데이터의 픽셀 영역을 판독하여 상기 픽셀 영역의 색상/채도를 통해 구분되는 영역의 경계 선을 기준으로 가상 데이터를 중첩 표시 가능한 픽셀 판독 기반 객체 영역을 1차 인식하는 제2 단계와 상기 카메라의 피사체 인식 범위와 동기화된 거리인식센서의 거리인식 범위를 상기 1차 인식된 픽셀 판독 기반 객체 영역으로 조정한 후 상기 조정된 거리인식센서를 통해 상기 픽셀 판독 기반 객체 영역에 대응하는 복수의 픽셀 영역 별 거리 차이를 산출하고 상기 1차 인식된 픽셀 판독 기반 객체 영역 중 상기 산출된 픽셀 영역 별 거리 차이가 기 설정된 범위 이내인 픽셀 영역을 포함하는 실제 객체 영역을 2차 인식하는 제3 단계 및 상기 실제현실 데이터 상의 영역 중 상기 인식된 실제 객체 영역에 대응하는 영역에 지정된 가상 데이터를 중첩 표시하는 제4 단계를 포함하는 것을 특징으로 한다.A method for providing augmented reality using a distance difference according to the present invention is provided through a device having a camera for receiving real reality data photographed in the real world and a distance recognition sensor for recognizing a distance to an object existing in the real world. In the method to be executed, the first step of synchronizing the subject recognition range of the camera and the distance recognition range of the distance recognition sensor, and reading a pixel area of the real reality data when receiving real reality data through the camera, The second step of firstly recognizing an object area based on pixel readout that can overlap and display virtual data based on the boundary line of the area distinguished through the color/saturation of the pixel area and the distance recognition sensor synchronized with the subject recognition range of the camera After adjusting the distance recognition range to the primarily recognized pixel read-based object area, a distance difference for each of a plurality of pixel areas corresponding to the pixel read-based object area is calculated through the adjusted distance sensor, and the first recognized A third step of secondarily recognizing a real object region including a pixel region in which a difference in distance between the calculated pixel regions is within a preset range among object regions based on pixel reading; and the recognized real object region among regions on the real reality data. and a fourth step of overlapping and displaying designated virtual data in an area corresponding to .

본 발명에 따른 거리 차이를 이용한 증강현실 제공 방법에 있어서, 상기 카메라의 줌인 또는 줌아웃에 의해 상기 카메라의 피사체 인식 범위 변경 시 상기 거리인식센서의 거리인식 범위를 상기 카메라의 줌인 또는 줌아웃에 의해 변경된 피사체 인식 범위와 매칭되게 동기화시키는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.In the method for providing augmented reality using a distance difference according to the present invention, when the subject recognition range of the camera is changed by zooming in or zooming out of the camera, the distance recognition range of the distance sensor is changed by zooming in or zooming out of the camera. It is characterized in that it is made by further comprising the step of synchronizing to match the recognition range.

본 발명에 따른 거리 차이를 이용한 증강현실 제공 방법에 있어서, 상기 거리인식센서는, 인체의 감각기관을 통해 인지하기 난해한 광학 신호, 전자파 신호, 음파 신호 중 적어도 하나의 신호를 이용하여 현실세계에 존재하는 객체와의 거리를 인식하는 센서를 포함하여 이루어지는 것을 특징으로 한다.In the method for providing augmented reality using a distance difference according to the present invention, the distance recognition sensor exists in the real world using at least one of an optical signal, an electromagnetic signal, and a sound wave signal, which are difficult to perceive through the sense organs of the human body. It is characterized in that it comprises a sensor for recognizing the distance to the object to be.

본 발명에 따른 거리 차이를 이용한 증강현실 제공 방법은, 현실세계를 촬영한 실제현실 데이터를 입력받는 카메라를 구비하고 현실세계에 존재하는 객체와의 거리를 인식하는 거리인식센서를 구비한 장치를 통해 실행되는 방법에 있어서, 상기 카메라의 피사체 인식 범위와 상기 거리인식센서의 거리인식 범위를 동기화하는 제1 단계와 상기 카메라를 통해 실제현실 데이터를 입력받는 경우 상기 실제현실 데이터 상의 픽셀 영역을 판독하여 가상 데이터를 중첩 표시 가능한 실제현실 데이터 상의 픽셀 판독 기반 객체 영역을 1차 인식하는 제2 단계와 상기 카메라의 피사체 인식 범위와 동기화된 거리인식센서의 거리인식 범위를 상기 실제현실 데이터 상의 1차 인식된 픽셀 판독 기반 객체 영역에 매칭시킨 후 상기 픽셀 판독 기반 객체 영역과 매칭된 거리인식 범위에 대응하는 현실세계의 객체와 상기 거리인식센서 간 거리 차이를 선택적 센싱하고 상기 센싱된 거리 차이를 근거로 상기 실제현실 데이터 상의 픽셀 판독 기반 객체 영역에 존재하는 실제 객체 영역과 배경 영역을 분리하여 상기 실제현실 데이터 상의 실제 객체 영역을 인식하는 제3 단계 및 상기 실제현실 데이터 상에서 상기 인식된 상기 실제 객체 영역에 지정된 가상 데이터를 중첩 표시하는 제4 단계를 포함하는 것을 특징으로 한다.A method for providing augmented reality using a distance difference according to the present invention is provided through a device having a camera for receiving real reality data photographed in the real world and a distance recognition sensor for recognizing a distance to an object existing in the real world. In the method to be executed, the first step of synchronizing the subject recognition range of the camera and the distance recognition range of the distance recognition sensor, and reading a pixel area on the real reality data when real reality data is input through the camera A second step of firstly recognizing an object area based on pixel reading on the real reality data capable of overlapping data, and the distance recognition range of the distance recognition sensor synchronized with the subject recognition range of the camera as the first recognized pixel on the real reality data After matching with the reading-based object area, the distance difference between the distance recognition sensor and an object in the real world corresponding to the distance recognition range matched with the pixel reading-based object area is selectively sensed, and based on the sensed distance difference, the real reality A third step of recognizing a real object area on the real reality data by separating a real object area and a background area existing in the object area based on pixel reading on the data, and virtual data assigned to the recognized real object area on the real reality data. It is characterized in that it includes a fourth step of overlapping displaying.

본 발명에 따른 거리 차이를 이용한 증강현실 제공 방법에 있어서, 상기 카메라의 줌인 또는 줌아웃에 의해 상기 카메라의 피사체 인식 범위 변경 시 상기 거리인식센서의 거리인식 범위를 상기 카메라의 줌인 또는 줌아웃에 의해 변경된 피사체 인식 범위와 매칭되게 동기화시키는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.In the method for providing augmented reality using a distance difference according to the present invention, when the subject recognition range of the camera is changed by zooming in or zooming out of the camera, the distance recognition range of the distance sensor is changed by zooming in or zooming out of the camera. It is characterized in that it is made by further comprising the step of synchronizing to match the recognition range.

본 발명에 따른 거리 차이를 이용한 증강현실 제공 방법에 있어서, 상기 거리인식센서는, 인체의 감각기관을 통해 인지하기 난해한 광학 신호, 전자파 신호, 음파 신호 중 적어도 하나의 신호를 이용하여 현실세계에 존재하는 객체와의 거리를 인식하는 센서를 포함하여 이루어지는 것을 특징으로 한다.In the method for providing augmented reality using a distance difference according to the present invention, the distance recognition sensor exists in the real world using at least one of an optical signal, an electromagnetic signal, and a sound wave signal, which are difficult to perceive through the sense organs of the human body. It is characterized in that it comprises a sensor for recognizing the distance to the object to be.

본 발명에 따른 거리 차이를 이용한 증강현실 제공 방법에 있어서, 상기 제3 단계는, 상기 거리인식센서를 통해 상기 1차 인식된 객체 영역에 대응하는 현실세계에 존재하는 객체에 대한 픽셀 영역 별 거리 값을 산출하고 상기 산출된 픽셀 영역 별 거리 값이 기 설정된 범위 이내로 유사한 픽셀 영역을 선별하여 지정된 가상 데이터를 중첩 표시할 실제 객체 영역으로 인식하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the method for providing augmented reality using a distance difference according to the present invention, in the third step, the distance value for each pixel area of an object existing in the real world corresponding to the firstly recognized object area through the distance recognition sensor and recognizing designated virtual data as a real object area to be overlapped and displayed by selecting a pixel area having a similar distance value within a preset range.

본 발명에 따른 거리 차이를 이용한 증강현실 제공 방법은, 현실세계를 촬영한 실제현실 데이터를 입력받는 카메라를 구비하고 지정된 신호를 이용하여 현실세계에 존재하는 객체와의 거리를 인식하는 거리인식센서를 구비한 장치를 통해 실행되는 방법에 있어서, 상기 카메라를 통해 지정된 피사체 인식 범위의 실제현실 데이터를 입력받는 제1 단계와 상기 실제현실 데이터의 색상과 채도를 판독하여 증강현실을 구현하기 위해 가상 데이터를 중첩 표시 가능한 객체 영역을 1차 인식하는 제2 단계와 상기 객체 영역을 인식한 실제현실 데이터를 입력받는 카메라의 피사체 인식 범위와 동기화된 거리인식 범위를 구비한 거리인식센서를 통해 상기 1차 인식된 실제현실 데이터 상의 객체 영역 내의 객체에 대응하는 하나 이상의 피사체와 상기 거리인식센서 사이의 거리를 선택적으로 센싱하는 제3 단계 상기 객체 영역 내에 거리 차이가 존재하는 둘 이상의 객체가 존재하는 경우, 상기 거리인식센서를 통해 상기 객체 영역 내의 거리 차이를 선택적으로 센싱한 결과를 근거로 상기 실제현실 데이터 상의 객체 영역 내에 존재하는 둘 이상의 객체 중 가상 데이터를 중첩 표시할 실제 객체에 대응하는 실제 객체 영역을 구별 인식하는 제4 단계 및 상기 실제현실 데이터 상에서 구별 인식된 상기 실제 객체 영역에 지정된 가상 데이터를 중첩 표시하는 제5 단계를 포함하는 것을 특징으로 한다.A method for providing augmented reality using a distance difference according to the present invention includes a distance recognition sensor having a camera for receiving real-reality data photographed in the real world and recognizing a distance to an object existing in the real world using a designated signal. A method executed by a device having a first step of receiving real-reality data of a specified subject recognition range through the camera, and reading the color and saturation of the real-reality data to obtain virtual data to implement augmented reality. A second step of firstly recognizing an object area that can be overlapped and displayed, and a distance recognition sensor having a distance recognition range synchronized with a subject recognition range of a camera that receives real reality data recognizing the object area. A third step of selectively sensing a distance between one or more subjects corresponding to objects in an object area on real reality data and the distance recognition sensor. When two or more objects having a difference in distance exist in the object area, the distance recognition Based on a result of selectively sensing a distance difference in the object area through a sensor, distinguishing and recognizing a real object area corresponding to a real object to be overlapped with virtual data among two or more objects existing in the object area on the real reality data A fourth step and a fifth step of overlapping and displaying designated virtual data on the real object area recognized as distinguishable on the real reality data.

본 발명에 따른 거리 차이를 이용한 증강현실 제공 방법에 있어서, 상기 객체 영역을 인식한 실제현실 데이터를 입력받는 카메라의 줌인 또는 줌아웃에 의해 상기 카메라의 피사체 인식 범위 변경 시 상기 카메라의 줌인 또는 줌아웃에 의해 변경된 피사체 인식 범위와 상기 거리인식센서의 거리인식 범위를 동기화시키는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the method for providing augmented reality using a distance difference according to the present invention, by zooming in or zooming out of a camera receiving real reality data recognizing the object area, by zooming in or zooming out of the camera when the subject recognition range of the camera is changed. It is characterized in that it comprises the step of synchronizing the changed object recognition range and the distance recognition range of the distance recognition sensor.

본 발명에 따른 거리 차이를 이용한 증강현실 제공 방법에 있어서, 상기 지정된 신호는, 인체의 감각기관을 통해 인지하기 난해한 광 신호, 전자파 신호, 음파 신호 중 적어도 하나의 신호를 포함하여 이루어지는 것을 특징으로 한다.In the method for providing augmented reality using a distance difference according to the present invention, the designated signal is characterized in that it includes at least one of a light signal, an electromagnetic wave signal, and a sound wave signal that are difficult to perceive through the sense organs of the human body. .

본 발명에 따른 거리 차이를 이용한 증강현실 제공 방법에 있어서, 상기 제4 단계는, 상기 거리인식센서의 거리인식 범위와 동기화된 카메라부의 피사체 인식 범위를 근거로 상기 센싱 영역의 거리인식 값을 상기 실제현실 데이터의 픽셀 영역에 매핑 적용하여 픽셀 영역 별 거리 값을 산출하고 상기 픽셀 영역 별 거리 값을 근거로 상기 실제현실 데이터 상의 실제 객체 영역을 인식하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the method for providing augmented reality using a distance difference according to the present invention, in the fourth step, the distance recognition value of the sensing area is calculated based on the subject recognition range of the camera unit synchronized with the distance recognition range of the distance recognition sensor. and calculating a distance value for each pixel region by applying mapping to pixel regions of the real data, and recognizing a real object region on the real reality data based on the distance value for each pixel region.

본 발명에 따른 거리 차이를 이용한 증강현실 제공 방법은, 시선방향이 동기화된 카메라와 별도의 거리인식센서를 구비하며 상기 카메라를 통해 현실세계를 촬영한 실제현실 데이터 상의 객체에 가상현실 데이터를 표시하는 증강현실장치에서 실행되는 방법에 있어서, 상기 카메라를 통해 피사체 인식 범위의 실제현실 데이터를 입력받는 제1 단계와 상기 실제현실 데이터의 색상과 채도를 판독하여 상기 실제현실 데이터 상에서 객체가 존재 가능한 객체 영역을 1차 인식하는 제2 단계와 상기 실제현실 데이터를 입력받는 카메라의 줌인 또는 줌아웃에 따라 변경된 피사체 인식 범위와 상기 거리인식센서의 거리 센싱을 위한 거리인식 범위를 동기화시키는 제3 단계와 상기 카메라의 피사체 인식 범위와 동기화된 거리인식 범위를 지닌 상기 거리인식센서의 동기화된 거리인식 범위 내에서 상기 1차 인식된 객체 영역에 대응하는 피사체의 거리를 인식하여 상기 실제현실 데이터 상에 존재하는 실제 객체에 대응하는 객체 영역을 2차 인식하는 제4 단계 및 상기 2차 인식된 객체 영역에 대응하는 실제현실 데이터 상에 지정된 가상현실 데이터를 표시하는 제5 단계를 포함하는 것을 특징으로 한다.A method for providing augmented reality using a distance difference according to the present invention includes a camera with synchronized gaze directions and a separate distance recognition sensor, and displaying virtual reality data on an object on real reality data photographed through the camera In the method executed in the augmented reality device, a first step of receiving real reality data of a subject recognition range through the camera, and reading the color and saturation of the real reality data to an object area where an object can exist on the real reality data The second step of firstly recognizing , the third step of synchronizing the subject recognition range changed according to the zoom-in or zoom-out of the camera receiving the real reality data and the distance recognition range for distance sensing of the distance sensor, and the camera Within the distance recognition range synchronized with the distance recognition sensor having a distance recognition range synchronized with the object recognition range, the distance of the subject corresponding to the firstly recognized object area is recognized to determine the real object existing on the real reality data. A fourth step of secondarily recognizing a corresponding object region and a fifth step of displaying designated virtual reality data on real reality data corresponding to the secondarily recognized object region.

본 발명에 따른 거리 차이를 이용한 증강현실 제공 방법에 있어서, 상기 거리인식 범위를 분할하여 n(n>1)개의 거리인식 영역을 결정하는 단계와 상기 거리인식센서를 통해 상기 n개의 거리인식 영역에 대한 n개의 거리인식 값을 측정하는 단계 및 상기 n개의 거리인식 영역과 상기 피사체 인식 범위에서 촬영된 실제현실 데이터의 픽셀 영역을 매칭시켜 상기 실제현실 데이터에 대한 픽셀 영역 별 거리 값을 산출하는 단계를 더 포함하며, 상기 제4 단계는, 상기 1차 인식된 객체 영역에 포함된 픽셀 영역 별 거리 값을 비교하여 상기 거리 값이 기 설정된 범위 내에서 유사한 픽셀 영역을 포함하는 객체 영역을 2차 인식하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the method for providing augmented reality using a distance difference according to the present invention, the step of dividing the distance recognition range to determine n (n>1) distance recognition areas, and determining the n distance recognition areas through the distance recognition sensor. measuring n distance recognition values for and calculating distance values for each pixel area of the real reality data by matching the n distance recognition areas with pixel areas of real reality data captured in the subject recognition range. In the fourth step, distance values of each pixel area included in the firstly recognized object area are compared to secondarily recognize an object area including a pixel area having a similar distance value within a preset range. It is characterized by comprising a step.

본 발명에 따른 거리 차이를 이용한 증강현실 제공 방법에 있어서, 상기 n개의 거리인식 영역은, 상기 피사체 인식 범위에 대한 픽셀 영역과 매칭되도록 결정되거나, 상기 거리인식 범위를 가로 세로 균등 영역으로 분할하여 결정되거나, 상기 피사체 인식 범위에 포함된 색상 값과 채도 값을 기준으로 기 설정된 범위 내에서 유사한 색상 값과 채도 값을 갖는 픽셀 영역과 매칭되어 결정되는 것을 특징으로 한다.In the method for providing augmented reality using a distance difference according to the present invention, the n distance recognition areas are determined to match pixel areas for the object recognition range, or are determined by dividing the distance recognition range into equal horizontal and vertical regions. or determined by matching with pixel areas having similar color and saturation values within a predetermined range based on the color and saturation values included in the subject recognition range.

본 발명에 따른 거리 차이를 통해 객체를 인식하는 증강현실 장치는, 카메라와 거리인식 센서를 구비하며, 현실세계를 촬영한 실제현실 데이터 상의 객체에 가상현실 데이터를 표시하는 증강현실 장치에 있어서, 상기 카메라를 통해 피사체 인식 범위의 실제현실 데이터를 입력하는 실제현실 입력부와, 상기 실제현실 데이터의 색상/채도를 판독하여 상기 실제현실 데이터의 객체 영역을 1차 인식하는 객체 인식부(1)와, 상기 카메라의 피사체 인식 범위와 거리인식 센서의 거리인식 범위를 동기화 시키는 인식 범위 결정부와, 상기 거리인식 범위를 분할하여 n(n>1)개의 거리인식 영역을 결정하는 인식 영역 결정부와, 상기 거리인식 센서를 통해 상기 n개의 거리인식 영역에 대한 n개의 거리인식 값을 측정하는 거리 측정부와, 상기 n개의 거리인식 영역과 상기 피사체 인식 범위에서 촬영된 실제현실 데이터의 픽셀 영역을 매칭시켜 상기 실제현실 데이터에 대한 픽셀 영역 별 거리 값을 산출하는 거리 산출부와, 상기 1차 인식된 객체 영역에 포함된 픽셀 영역 별 거리 값을 비교하여 상기 거리 값이 기 설정된 범위 내에서 유사한 픽셀 영역을 포함하는 객체 영역을 2차 인식하는 객체 인식부(2)를 구비한다.An augmented reality device for recognizing an object through a distance difference according to the present invention includes a camera and a distance recognition sensor, and displays virtual reality data on an object on real-reality data obtained by photographing the real world. A real reality input unit that inputs real reality data of a subject recognition range through a camera, and an object recognition unit 1 that primarily recognizes an object area of the real reality data by reading color/saturation of the real reality data; a recognition range determining unit that synchronizes a subject recognition range of a camera with a distance recognition range of a distance detection sensor; a recognition area determination unit that determines n (n>1) distance recognition areas by dividing the distance recognition range; A distance measurement unit that measures n distance recognition values for the n distance recognition areas through a recognition sensor, and matches pixel areas of real reality data captured in the subject recognition range with the n distance recognition areas to determine the actual distance. A distance calculation unit that calculates a distance value for each pixel region for real data, and a distance value for each pixel region included in the first recognized object region is compared to include a pixel region where the distance value is similar within a preset range. An object recognizing unit 2 for secondarily recognizing an object area is provided.

본 발명에 따른 거리 차이를 통해 객체를 인식하는 증강현실 장치는, 상기 실제현실 데이터와 상기 산출된 픽셀 영역 별 거리 값을 연결하여 저장하는 데이터 저장부를 더 구비할 수 있다.The augmented reality device for recognizing an object through a distance difference according to the present invention may further include a data storage unit that connects and stores the real reality data and the calculated distance value for each pixel area.

본 발명에 따른 거리 차이를 통해 객체를 인식하는 증강현실 장치에 있어서, 상기 n개의 거리인식 영역은, 상기 피사체 인식 범위에 대한 픽셀 영역과 매칭되도록 결정되거나, 상기 거리인식 범위를 가로/세로 균등 영역으로 분할하여 결정되거나, 상기 피사체 인식 범위에 포함된 색상/채도 값을 기준으로 기 설정된 범위 내에서 유사한 색상/채도 값을 갖는 픽셀 영역과 매칭되어 결정될 수 있다.In the augmented reality device for recognizing an object through a distance difference according to the present invention, the n distance recognition areas are determined to match pixel areas for the object recognition range, or the distance recognition range is equal horizontally/vertically. , or may be determined by matching with pixel areas having similar hue/saturation values within a preset range based on the hue/saturation values included in the subject recognition range.

본 발명에 따르면, 마커리스 방식으로 객체를 인식할 수 있는 조건이 만족되지 않는 환경에서 촬영된 실제현실 데이터 또는 노이즈가 발생하여 마커리스 방식으로 객체를 인식할 수 없는 실제현실 데이터로부터 객체 간(또는 객체와 배경 간) 거리차이를 통해 가상현실 데이터를 출력할 객체를 명확하게 판별할 수 있는 이점이 있다.According to the present invention, between objects (or It has the advantage of being able to clearly determine the object to output virtual reality data through the distance difference between the object and the background.

도 1은 본 발명의 실시 방법에 따른 증강현실 장치 구성을 도시한 도면이다.
도 2는 본 발명의 실시 방법에 따라 거리 차이를 통해 객체를 인식하는 과정을 도시한 도면이다.
도 3은 본 발명의 실시 방법에 따라 거리 차이를 통해 객체를 인식하는 구성을 예시한 도면이다.
도 4는 본 발명의 실시 방법에 따라 거리 차이를 통해 객체를 인식하는 예시도이다.
1 is a diagram showing the configuration of an augmented reality device according to an implementation method of the present invention.
2 is a diagram illustrating a process of recognizing an object through a distance difference according to an embodiment of the present invention.
3 is a diagram illustrating a configuration for recognizing an object through a distance difference according to an embodiment of the present invention.
4 is an exemplary view of recognizing an object through a distance difference according to an exemplary embodiment of the present invention.

이하 첨부된 도면과 설명을 참조하여 본 발명의 바람직한 실시예에 대한 동작 원리를 상세히 설명한다. 다만, 하기에 도시되는 도면과 후술되는 설명은 본 발명의 특징을 효과적으로 설명하기 위한 여러 가지 방법 중에서 바람직한 실시 방법에 대한 것이며, 본 발명이 하기의 도면과 설명만으로 한정되는 것은 아니다. 또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명에서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Hereinafter, the operating principle of the preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings and description. However, the drawings shown below and the description below relate to preferred implementation methods among various methods for effectively explaining the features of the present invention, and the present invention is not limited to only the drawings and description below. In addition, in the following description of the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted. In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of a user or operator. Therefore, the definition should be made based on the contents throughout the present invention.

아울러 하기에 도시되는 실시예에서 본 발명의 기술적 특징을 보다 명확하게 설명하기 위해 각 용어의 말미에 "(숫자)" 또는 "(영문이니셜)"과 같은 형태의 식별부호를 첨부하여 설명할 것이나, 상기 식별부호는 각 용어를 식별하기 위한 것일 뿐 상기 식별부호에 의해 각 용어가 다른 기능과 역할을 수행하는 것으로 구별 또는 한정되는 것은 결코 아님을 명백하게 밝혀두는 바이다.In addition, in the embodiments shown below, an identification code in the form of "(number)" or "(English initial)" will be attached to the end of each term in order to more clearly explain the technical features of the present invention. The identification code is only for identifying each term, and it is clearly stated that each term is not distinguished or limited to perform different functions and roles by means of the identification code.

결과적으로, 본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하 실시예는 진보적인 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 일 수단일 뿐이다.As a result, the technical spirit of the present invention is determined by the claims, and the following embodiments are a means for efficiently explaining the technical spirit of the present invention to those skilled in the art to which the present invention belongs. only

도면1은 본 발명의 실시 방법에 따른 증강현실 장치(100) 구성을 도시한 도면이다.Figure 1 is a diagram showing the configuration of the augmented reality device 100 according to the implementation method of the present invention.

보다 상세하게 본 도면1은 카메라와 거리인식 센서를 구비하며, 현실세계를 촬영한 실제현실 데이터 상의 객체에 가상현실 데이터를 표시하는 증강현실 장치(100)에서 상기 카메라의 피사체 인식 범위와 거리인식 센서의 거리인식 범위를 동기화 시킨 후, 상기 거리인식 범위를 분할하여 n(n>1)개의 거리인식 영역을 결정하여 상기 거리인식 센서를 통해 n개의 거리인식 값을 측정하고, 상기 n개의 거리인식 영역과 실제현실 데이터의 픽셀 영역을 매칭시켜 상기 실제현실 데이터에 대한 픽셀 영역 별 거리 값을 산출하여 상기 실제현실 데이터 상의 객체를 인식하는 구성을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면1을 참조 및/또는 변형하여 상기 증강현실 장치(100) 구성에 대한 다양한 실시 방법(예컨대, 일부 구성부가 생략되거나, 또는 세분화되거나, 또는 합쳐진 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면1에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다. In more detail, this drawing 1 is provided with a camera and a distance recognition sensor, and in the augmented reality device 100 displaying virtual reality data on an object on real reality data photographed in the real world, the subject recognition range of the camera and the distance recognition sensor After synchronizing the distance recognition range of , n (n>1) distance recognition areas are determined by dividing the distance recognition range, n distance recognition values are measured through the distance recognition sensor, and the n distance recognition areas are determined. It shows a configuration for recognizing an object on the real reality data by matching a pixel area of the real reality data to calculate a distance value for each pixel area of the real reality data, which is based on common knowledge in the technical field to which the present invention belongs. If you have it, you can infer various implementation methods for the configuration of the augmented reality device 100 (eg, implementation methods in which some components are omitted, subdivided, or combined) by referring to and/or modifying this Figure 1. However, the present invention is made including all the implementation methods inferred above, and its technical characteristics are not limited only to the implementation method shown in FIG. 1.

본 발명의 증강현실 장치(100)는 실제현실 데이터를 획득하는 기능, 가상현실 데이터를 획득하는 기능, 상기 실제현실 데이터로부터 가상현실 데이터를 표시할 객체를 결정하는 기능, 상기 실제현실 데이터 상의 객체에 가상현실 데이터를 표시하여 출력하는 기능을 구비한 장치의 총칭으로서, 상기 실제현실 데이터를 획득하는 방식, 가상현실 데이터를 획득하는 방식, 객체를 결정하는 방식 및 상기 객체에 가상현실 데이터를 표시하는 방식에 의해 한정되지 아니한다. 예를들어, 상기 가상현실 데이터는 장치 내 메모리에 저장되어 있거나, 또는 통신망을 통해 수신되거나, 또는 미리 준비된 하나 이상의 폴리곤(Polygon) 데이터와 텍스쳐(Texture) 데이터를 조합하여 실시간 생성될 수 있다. 상기 객체에 가상현실 데이터를 표시하는 방식은 실제현실 데이터와 가상현실 데이터를 조합한 하나의 출력 데이터를 생성하여 표시하는 방식, 출력 데이터에 실제현실 계층(Layer)와 가상현실 계층을 구비하고 실제현실 데이터는 실제현실 계층에 표시하고 가상현실 데이터는 가상현실 계층에 표시하는 방식, 투명 디스플레이 너머의 객체 위치에 가상현실 데이터만 표시하는 방식이 사용될 수 있다.The augmented reality device 100 of the present invention has a function of acquiring real reality data, a function of acquiring virtual reality data, a function of determining an object to display virtual reality data from the real reality data, and a function of determining an object on the real reality data. As a generic term for a device having a function of displaying and outputting virtual reality data, a method of acquiring the real reality data, a method of acquiring the virtual reality data, a method of determining an object, and a method of displaying the virtual reality data on the object not limited by For example, the virtual reality data may be stored in a memory of a device, received through a communication network, or generated in real time by combining one or more previously prepared polygon data and texture data. The method of displaying virtual reality data on the object is a method of generating and displaying one output data combining real reality data and virtual reality data, providing a real reality layer and a virtual reality layer in the output data, and A method of displaying data on a real reality layer and displaying virtual reality data on a virtual reality layer, or a method of displaying only virtual reality data at an object position beyond a transparent display may be used.

또한, 상기 증강현실 장치(100)는 장치를 구성하는 구조에 의해 한정되지 아니한다. 예를들어, 상기 증강현실 장치(100)는 하나의 케이스 내에 각 구성부가 통합 구비된 독립 장치 형태, 연결된 두개 이상의 장치에 각 구성부가 분리되어 구비된 연동 장치 형태, 특정 물건/건물/공간에 설치된 형태 등으로 구현될 수 있다.In addition, the augmented reality device 100 is not limited by the structure constituting the device. For example, the augmented reality device 100 may be in the form of an independent device in which each component is integrated in one case, in the form of an interlocking device in which each component is separately provided in two or more connected devices, and installed in a specific object/building/space. It can be implemented in a form or the like.

도면1을 참조하면, 상기 증강현실 장치(100)는, 제어부(105), 메모리부(135) 및 출력부(110)를 구비하며, 실제현실 데이터를 획득하는 방식에 따라 카메라부(130)를 더 구비하고, 가상현실 데이터를 획득하는 방식에 따라 통신부(120)를 더 구비하고, 실제현실 데이터 상의 객체를 결정하는 방식에 따라 센서부(125)를 더 구비하고, 사용자 조작을 위한 조작부(115)를 더 구비할 수 있다.Referring to Figure 1, the augmented reality device 100 includes a control unit 105, a memory unit 135 and an output unit 110, and uses a camera unit 130 according to a method of obtaining real reality data. Further, a communication unit 120 is further provided according to a method of acquiring virtual reality data, a sensor unit 125 is further provided according to a method of determining an object on real reality data, and a control unit 115 for user manipulation ) may be further provided.

상기 제어부(105)는 물리적으로 프로세서와 실행 메모리와 버스를 포함하며, 기능적으로 상기 증강현실 장치(100)에 구비된 프로그램이 상기 실행 메모리로 로드되어 상기 프로세서에 의해 연산되도록 처리하는 기록매체 기능을 수행한다. 이에 본 도면1은 상기 증강현실 장치(100)에 구비되는 프로그램 구성부를 편의상 상기 제어부(105) 내에 도시하여 설명하기로 한다.The control unit 105 physically includes a processor, an execution memory, and a bus, and functionally functions as a recording medium for processing programs included in the augmented reality device 100 to be loaded into the execution memory and operated by the processor. carry out Accordingly, in FIG. 1 , a program component provided in the augmented reality device 100 is shown in the control unit 105 for convenience.

상기 메모리부(135)는 비휘발성 메모리를 포함하며, 기능적으로 상기 제어부(105)로 로딩될 프로그램 코드와 상기 프로그램 코드가 사용하는 데이터 셋트를 저장/유지하는 저장매체 기능을 수행한다. 여기서, 상기 프로그램 코드는 상기 증강현실 장치(100)의 기본 동작을 운영/제어하는 시스템 프로그램 코드와, 상기 증강현실 장치(100)에 구비되는 각종 애플리케이션 서비스를 제공하는 응용 프로그램 코드를 포함한다.The memory unit 135 includes a non-volatile memory and functions as a storage medium to store/maintain program codes to be loaded into the control unit 105 and data sets used by the program codes. Here, the program code includes a system program code for operating/controlling basic operations of the augmented reality device 100 and an application code for providing various application services provided in the augmented reality device 100 .

본 발명의 실시 방법에 따르면, 상기 메모리부(135)는 상기 가상현실 데이터를 저장할 수 있으며, 이 경우 상기 메모리부(135)는 상기 가상현실 데이터를 획득하는 가상현실 획득수단의 기능을 수행할 수 있다.According to the implementation method of the present invention, the memory unit 135 may store the virtual reality data, and in this case, the memory unit 135 may perform a function of a virtual reality acquisition means for acquiring the virtual reality data. there is.

상기 출력부(110)는 실제현실 데이터 상의 객체에 가상현실 데이터를 표시하는 출력장치를 포함하며, LCD와 같은 일반 출력장치와 안경, 고글, 유리창과 같은 투명 출력장치 중 어느 하나를 포함할 수 있다.The output unit 110 includes an output device for displaying virtual reality data on an object on real reality data, and may include any one of a general output device such as an LCD and a transparent output device such as glasses, goggles, and glass windows. .

상기 카메라부(130)는 광학부와 CCD(Charge Coupled Device)로 구성된 카메라로부터 래스터(Raster) 기반의 실제현실 데이터를 비트맵 방식으로 독출하는 장치를 포함한다. 여기서, 상기 실제현실 데이터는 이미지 데이터 또는 동영상 데이터를 포함할 수 있다. 본 발명에 따르면, 상기 카메라부(130)는 상기 획득되는 실제현실 데이터 중 센서 입력에 필요한 특정 데이터만 선택적으로 획득하는 센서부(125)의 기능을 더 수행할 수 있다.The camera unit 130 includes a device for reading raster-based real reality data in a bitmap format from a camera composed of an optical unit and a CCD (Charge Coupled Device). Here, the real reality data may include image data or video data. According to the present invention, the camera unit 130 may further perform the function of the sensor unit 125 that selectively acquires only specific data required for sensor input among the obtained real reality data.

본 발명의 실시 방법에 따르면, 상기 카메라부(130)는 상기 실제현실 데이터를 실시간 획득하는 실제현실 획득수단의 기능을 수행하며, 피사체 인식 범위를 동적으로 결정하는 줌인/줌아웃 기능을 내장할 수 있다.According to the implementation method of the present invention, the camera unit 130 performs a function of a real reality acquisition means for acquiring the real reality data in real time, and may include a zoom-in/zoom-out function for dynamically determining a subject recognition range. .

본 발명의 실시 방법에 따르면, 상기 카메라부(130)는 피사체의 거리를 인식하는 거리인식 센서와 통합되거나, 또는 시선 방향이 동기화된다.According to the implementation method of the present invention, the camera unit 130 is integrated with a distance recognition sensor for recognizing the distance to the subject, or the gaze direction is synchronized.

상기 통신부(120)는 어느 하나의 통신 규격과 프로토콜에 따라 유선 통신망과 무선 통신망 중 어느 하나의 통신망에 접속하는 통신모듈을 포함하며, 상기 통신망을 서버(또는 장치)와 통신채널을 연결하거나 또는 다른 증강현실 장치(100)와 통신채널을 연결하는 기능을 수행한다.The communication unit 120 includes a communication module that connects to any one of a wired communication network and a wireless communication network according to any one communication standard and protocol, and connects the communication network to a server (or device) and a communication channel, or It performs a function of connecting the augmented reality device 100 and a communication channel.

본 발명의 실시 방법에 따르면, 상기 통신부(120)는 통신망 상의 서버(또는 장치)에 저장된 가상현실 데이터를 수신하는 가상현실 획득수단의 기능을 수행할 수 있다.According to the implementation method of the present invention, the communication unit 120 may perform a function of a virtual reality obtaining means for receiving virtual reality data stored in a server (or device) on a communication network.

상기 센서부(125)는 거리인식 센서로부터 아날로그 신호 또는 디지털 신호 형태의 센서신호를 획득하는 센서모듈을 포함한다. 상기 센서는 광학 방식, 화상 입력 방식, 전자파 방식, 객체 연동 방식, 사운드 판독 방식 중 어느 하나의 센서 방식을 통해 객체의 거리를 센싱한다.The sensor unit 125 includes a sensor module that obtains a sensor signal in the form of an analog signal or a digital signal from a distance sensor. The sensor senses the distance of the object through any one of an optical method, an image input method, an electromagnetic wave method, an object linkage method, and a sound reading method.

여기서, 상기 광학 방식 거리인식 센서는 육안으로 식별이 난해하며 인체에 무해한 광선(예컨대, 적외선)을 현실세계 공간에 주사하고, 상기 현실세계 공간 내 객체를 통해 반사되는 광선을 인식하여 객체의 거리를 센싱하는 센서를 포함한다.Here, the optical distance sensor scans light rays (eg, infrared rays) that are difficult to identify with the naked eye and are harmless to the human body into the real world space, recognizes the light rays reflected through objects in the real world space, and determines the distance of the object. It includes a sensor that senses.

상기 화상 입력 방식 거리인식 센서는 CCD(Charge Coupled Device) 소자를 포함하는 카메라를 통해 현실세계 공간 내 화상 데이터를 입력하고, 상기 화상 데이터를 판독하여 상기 화상 데이터 내 포함된 상기 현실세계 공간 내 객체의 거리를 센싱하는 센서를 포함한다.The image input method distance recognition sensor inputs image data in the real world space through a camera including a CCD (Charge Coupled Device) element, reads the image data, and measures the object in the real world space included in the image data. It includes a sensor that senses the distance.

상기 전자파 방식 거리인식 센서는 상기 현실세계 공간 내 객체에 전자파 송출장치가 구비된 경우, 상기 객체로부터 송출되는 전자파 신호를 수신하고, 삼각측량 방식으로 상기 객체의 거리를 센싱하는 센서를 포함한다.The electromagnetic wave distance detection sensor includes a sensor that receives an electromagnetic wave signal transmitted from an object and senses a distance of the object by a triangulation method when the object in the real world space has an electromagnetic wave transmitting device.

상기 객체 연동 방식 거리인식 센서는 상기 현실세계 공간 내 객체에 자신의 거리를 센싱하는 센서모듈과 상기 센서모듈에 의해 센싱된 센싱 데이터를 상기 증강현실 장치(100)로 전송하는 통신모듈이 구비된 경우, 상기 센서부(125)에서 객체와 통신채널을 연결하고, 상기 통신채널을 통해 상기 객체로부터 상기 객체의 센서모듈을 통해 센싱된 센싱 데이터를 수신 및 판독하여 상기 객체의 거리를 센싱하는 센서를 포함한다.When the object interlocking method distance recognition sensor is provided with a sensor module for sensing its distance to an object in the real world space and a communication module for transmitting sensing data sensed by the sensor module to the augmented reality device 100 , A sensor that connects an object and a communication channel in the sensor unit 125, receives and reads sensing data sensed through a sensor module of the object from the object through the communication channel, and senses the distance of the object. do.

상기 사운드 판독 방식 거리인식 센서는 사람의 귀에는 들리지 않는 사운드(예컨대, 초음파)를 현실세계 공간에 주사하고, 상기 현실세계 공간 내 객체를 통해 반사되는 사운드를 인식 및 판독하여 상기 객체의 거리를 센싱하는 센서를 포함한다.The sound reading method distance recognition sensor scans the distance of the object by injecting sound (eg, ultrasonic wave) inaudible to the human ear into the real world space, and recognizing and reading the sound reflected through the object in the real world space. It includes a sensor that

**

**

**

**

**

그러나, 상기 거리인식 센서가 상술된 방식의 센서로 한정되는 것은 결코 아니며, 당업자에 따라 상기 거리인식 센서는 다양하게 변형하여 실시할 수 있으며, 본 발명은 상기 변형 가능한 모든 실시예를 포함한다.However, the distance detection sensor is by no means limited to the above-described type of sensor, and the distance detection sensor may be variously modified and implemented according to those skilled in the art, and the present invention includes all of the above-deformable embodiments.

본 발명의 실시 방법에 따르면, 상기 센서부(125)는 피사체를 인식하여 실제현실 데이터를 입력하는 카메라부(130)와 통합되거나, 또는 시선 방향이 동기화된다.According to the implementation method of the present invention, the sensor unit 125 is integrated with the camera unit 130 for recognizing a subject and inputting real-world data, or the gaze direction is synchronized.

상기 조작부(115)는 상기 증강현실 장치(100)에 사용자 조작이 필요한 경우, 상기 사용자 조작을 입력받는 장치를 포함한다. 상기 조작부(115)는 키 버튼을 구비하여 사용자 조작에 필요한 정보를 키 입력받는 키 입력 모듈과, 상기 출력부(110)와 연동하여 통해 사용자 조작에 필요한 정보를 입력받는 터치 스크린 모듈을 포함하며, 상기 카메라부(130) 또는 센서부(125)와 연동하여 사용자의 손 동작, 몸 동작 및 눈 움직임 중 어느 하나를 인식하여 사용자 조작에 필요한 정보를 입력받는 사용자 인식 모듈을 더 포함할 수 있다.The manipulation unit 115 includes a device that receives a user manipulation when a user manipulation is required for the augmented reality device 100 . The control unit 115 includes a key input module having key buttons to receive information required for user operation through a key input, and a touch screen module to receive information necessary for user operation through interworking with the output unit 110, A user recognition module that recognizes any one of the user's hand motion, body motion, and eye motion in conjunction with the camera unit 130 or the sensor unit 125 and receives information necessary for user manipulation may be further included.

본 발명의 실시 방법에 따르면, 상기 카메라부(130)의 피사체 인식 범위를 조작하는 기능을 구비하며, 상기 피사체 인식 범위를 조작하는 조작 값이 상기 제어부(105)로 전달된다.According to the implementation method of the present invention, a function of manipulating a subject recognition range of the camera unit 130 is provided, and an operation value for manipulating the subject recognition range is transmitted to the control unit 105 .

도면1을 참조하면, 상기 증강현실 장치(100)는, 상기 카메라부(130)를 통해 피사체 인식 범위의 실제현실 데이터를 입력하는 실제현실 입력부(140)와, 상기 실제현실 데이터의 색상/채도를 판독하여 상기 실제현실 데이터의 객체 영역을 1차 인식하는 객체 인식부(1)(145)와, 상기 카메라부(130)의 피사체 인식 범위와 거리인식 센서의 거리인식 범위를 동기화 시키는 인식 범위 결정부(150)와, 상기 거리인식 범위를 분할하여 n(n>1)개의 거리인식 영역을 결정하는 인식 영역 결정부(155)와, 상기 거리인식 센서를 통해 상기 n개의 거리인식 영역에 대한 n개의 거리인식 값을 측정하는 거리 측정부(160)와, 상기 n개의 거리인식 영역과 상기 피사체 인식 범위에서 촬영된 실제현실 데이터의 픽셀 영역을 매칭시켜 상기 실제현실 데이터에 대한 픽셀 영역 별 거리 값을 산출하는 거리 산출부(165)와, 상기 1차 인식된 객체 영역에 포함된 픽셀 영역 별 거리 값을 비교하여 상기 거리 값이 기 설정된 범위 내에서 유사한 픽셀 영역을 포함하는 객체 영역을 2차 인식하는 객체 인식부(2)(170)를 구비하며, 상기 실제현실 데이터와 상기 산출된 픽셀 영역 별 거리 값을 연결하여 저장하는 데이터 저장부(175)를 더 구비할 수 있다. 본 발명의 실시 방법에 따르면, 상기 실제현실 입력부(140), 객체 인식부(1)(145), 인식 범위 결정부(150), 거리 측정부(160), 거리 산출부(165), 객체 인식부(2)(170) 중 하나 이상의 구성부는 상기 제어부(105), 메모리부(135), 출력부(110), 센서부(125), 카메라부(130) 및 통신부(120)를 구비한 증강현실 장치(100)와 연결된 서버에 구비될 수 있으며, 실시 방법에 따라 일부 구성요소는 증강현실 장치(100)에 구비되고 나머지 구성부는 상기 서버에 구비될 수 있다.Referring to Figure 1, the augmented reality device 100, through the camera unit 130, the real reality input unit 140 for inputting the real reality data of the subject recognition range, and the color / saturation of the real reality data An object recognizing unit (1) 145 that firstly recognizes the object area of the real reality data by reading the data, and a recognition range determining unit that synchronizes the subject recognition range of the camera unit 130 with the distance recognition range of the distance detection sensor 150; a recognition area determination unit 155 for determining n (n>1) distance recognition areas by dividing the distance recognition range; and n distance recognition areas for the n distance recognition areas through the distance recognition sensor. The distance measurement unit 160 that measures the distance recognition value and calculates the distance value for each pixel area of the real reality data by matching the n distance recognition areas with the pixel areas of the real reality data captured in the subject recognition range. and a distance calculation unit 165 that compares distance values for each pixel area included in the firstly recognized object area, and secondarily recognizes an object area including a pixel area with a similar distance value within a preset range. It includes a recognizer (2) 170, and may further include a data storage unit 175 for connecting and storing the actual reality data and the calculated distance value for each pixel area. According to the implementation method of the present invention, the actual reality input unit 140, the object recognition unit (1) 145, the recognition range determination unit 150, the distance measurement unit 160, the distance calculation unit 165, the object recognition At least one component of unit (2) 170 is augmented with the control unit 105, memory unit 135, output unit 110, sensor unit 125, camera unit 130 and communication unit 120. It may be provided in a server connected to the reality device 100, and depending on an implementation method, some components may be provided in the augmented reality device 100 and the remaining components may be provided in the server.

상기 실제현실 입력부(140)는 상기 카메라부(130)를 통해 결정된 피사체 인식 범위에 대응하여 입력되는 데이터를 상기 출력부(110)를 통해 출력할 실제현실 데이터로 입력한다.The real reality input unit 140 inputs data input corresponding to the subject recognition range determined through the camera unit 130 as real reality data to be output through the output unit 110 .

상기 객체 인식부(1)(145)는 상기 실제현실 데이터로부터 색상/채도 값을 추출하고, 상기 추출된 색상/채도 값을 판독하여 상기 색상/채도를 기준으로 구분되는 영역의 경계 선을 확인한 후, 상기 경계 선을 기준으로 상기 실제현실 데이터에 포함된 객체 영역을 1차 인식한다.The object recognizing unit (1) 145 extracts a color/saturation value from the real reality data, reads the extracted color/saturation value, and checks a boundary line of an area divided based on the color/saturation. , The object area included in the real reality data is firstly recognized based on the boundary line.

상기 인식 범위 결정부(150)는 상기 실제현실 입력부(140)를 통해 상기 실제현실 데이터가 입력되는 과정에서 상기 조작부(115)에 의해 조작된 피사체 인식 범위 값을 확인하고, 상기 피사체 인식 범위 값과 상기 센서부(125)를 통해 제어되는 거리인식 센서의 거리인식 범위를 동기화시킨다.The recognition range determination unit 150 checks the subject recognition range value manipulated by the manipulation unit 115 in the process of inputting the real reality data through the real reality input unit 140, and determines the subject recognition range value and The distance recognition range of the distance recognition sensor controlled through the sensor unit 125 is synchronized.

상기 거리인식 센서의 거리인식 범위가 상기 실제현실 데이터를 입력하는 카메라부(130)의 피사체 인식 범위와 동기화되면, 상기 인식 영역 결정부(155)는 상기 거리인식 범위를 분할하여 n(n>1)개의 거리인식 영역을 결정한다. When the distance recognition range of the distance recognition sensor is synchronized with the subject recognition range of the camera unit 130 that inputs the real reality data, the recognition area determination unit 155 divides the distance recognition range to n (n>1 ) distance recognition areas are determined.

여기서, 상기 n개의 거리인식 영역은, 상기 피사체 인식 범위에 대한 픽셀 영역과 매칭되도록 결정되거나, 또는 상기 거리인식 범위를 가로/세로 균등 영역으로 분할하여 결정되거나, 또는 상기 피사체 인식 범위에 포함된 색상/채도 값을 기준으로 기 설정된 범위 내에서 유사한 색상/채도 값을 갖는 픽셀 영역과 매칭되어 결정될 수 있다.Here, the n distance recognition areas are determined to match pixel areas for the object recognition range, or determined by dividing the distance recognition range into equal horizontal/vertical areas, or colors included in the object recognition range. It may be determined by matching with a pixel area having a similar hue/saturation value within a preset range based on the /saturation value.

본 발명의 실시 방법에 따르면, 상기 거리인식 영역의 개수 n은 상기 거리인식 센서의 거리인식 속도에 비례하여 결정된다. 예컨대, 상기 카메라부(130)가 320*200의 실제현실 데이터를 초단 20번 획득하는데, 상기 거리인식 센서가 초당 1,280,000 회의 거리인식이 가능하다면, 상기 인식 영역 결정부(155)는 상기 거리인식 영역의 개수 n을 상기 320*200의 픽셀 수에 대응하는 64,000으로 결정할 수 있다.According to the implementation method of the present invention, the number n of the distance detection areas is determined in proportion to the distance recognition speed of the distance detection sensor. For example, if the camera unit 130 acquires real reality data of 320*200 20 times per second and the distance recognition sensor is capable of recognizing distance 1,280,000 times per second, the recognition area determination unit 155 determines the distance recognition area The number n of may be determined to be 64,000 corresponding to the number of pixels of 320*200.

상기 n개의 거리인식 영역이 결전되면, 상기 거리 측정부(160)는 상기 센서부(125)와 연동하여 상기 카메라부(130)와 시선 방향이 동기화된 거리인식 센서를 통해 상기 n개의 거리인식 영역에 대한 n개의 거리인식 값을 측정한다.When the n distance recognition areas are determined, the distance measurement unit 160 interlocks with the sensor unit 125 and uses a distance recognition sensor synchronized with the camera unit 130 in the line of sight direction to determine the n distance recognition areas. Measure n distance recognition values for .

본 발명의 실시 방법에 따르면, 상기 거리 측정부(160)는 상기 n개의 거리인식 영역 중 상기 객체 인식부(1)(145)를 통해 1차 인식된 객체 영역에 대응하는 거리인식 영역에 대한 거리인식 값을 선택적으로 측정할 수 있으며, 이에 의해 상기 거리 측정을 위한 거리인식 센서의 부하가 감소될 수 있다.According to the implementation method of the present invention, the distance measurement unit 160 determines the distance to the distance recognition area corresponding to the object area primarily recognized through the object recognition unit (1) 145 among the n distance recognition areas. A recognition value may be selectively measured, thereby reducing the load of the distance recognition sensor for measuring the distance.

상기 n개의 거리인식 값이 측정되면, 상기 거리 산출부(165)는 상기 n개의 거리인식 영역과 상기 피사체 인식 범위에서 촬영된 실제현실 데이터의 픽셀 영역을 매칭시켜 상기 실제현실 데이터에 대한 픽셀 영역 별 거리 값을 산출한다.When the n distance recognition values are measured, the distance calculating unit 165 matches the n distance recognition areas with pixel areas of real reality data photographed in the subject recognition range, so that each pixel area of the real reality data is matched. Calculate the distance value.

**

**

**

**

*상기 픽셀 영역 별 거리 값이 산출되면, 상기 객체 인식부(2)(170)는 상기 객체 인식부(1)(145)를 통해 실제현실 데이터의 색상/채도를 기준으로 1차 인식된 객체 영역에 포함된 픽셀 영역 별 거리 값을 비교하여 상기 거리 값이 기 설정된 범위 내에서 유사한 픽셀 영역을 포함하는 객체 영역을 2차 인식한다.* When the distance value for each pixel area is calculated, the object recognition unit (2) 170 is primarily recognized based on the color/saturation of real reality data through the object recognition unit (1) 145. By comparing distance values for each pixel area included in , an object area including a pixel area having a similar distance value within a preset range is secondarily recognized.

상기 픽셀 영역 별 거리 값이 산출되면, 상기 데이터 저장부(175)는 상기 거리 산출부(165)를 통해 산출된 픽셀 영역 별 거리 값을 상기 카메라부(130)를 통해 입력된 실제현실 데이터의 메타 정보(또는 파일) 형태로 연계하거나, 또는 상기 실제현실 데이터에 상기 픽셀 영역 별 거리 값을 포함시켜 상기 메모리부(135)에 저장할 수 있다.When the distance value for each pixel area is calculated, the data storage unit 175 converts the distance value for each pixel area calculated through the distance calculation unit 165 to the meta of real reality data input through the camera unit 130. It may be linked in the form of information (or a file), or may be stored in the memory unit 135 by including the distance value for each pixel area in the real reality data.

도면1을 참조하면, 상기 증강현실 장치(100)는, 상기 최종 인식된 객체 영역에 대응하는 객체에 표시할 가상현실 데이터를 결정하는 가상현실 결정부(180)와, 하나 이상의 가상현실 획득수단을 통해 상기 결정된 가사현실 데이터를 입력하는 가상현실 입력부(185)와, 상기 가상현실 데이터를 상기 실제현실 데이터 상의 객체에 표시하여 상기 출력부(110)를 통해 출력하는 증강현실 출력부(190)를 구비한다.Referring to Figure 1, the augmented reality device 100 includes a virtual reality determining unit 180 that determines virtual reality data to be displayed on an object corresponding to the finally recognized object area, and one or more virtual reality obtaining means. a virtual reality input unit 185 that inputs the determined lyric reality data through a virtual reality input unit 185 and an augmented reality output unit 190 that displays the virtual reality data on an object on the real reality data and outputs the output through the output unit 110 do.

상기 가상현실 결정부(180)는 상기 실제현실 데이터로부터 최종 인식된 객체 영역에 대응하는 객체에 표시할 가상현실 데이터를 결정한다. 만약 상기 실제현실 데이터 상의 객체에 표시할 가사현실 데이터가 어느 하나의 가상현실 데이터로 고정되는 경우, 상기 가상현실 결정부(180)는 상기 고정된 상기 객체 인식부를 통해 인식된 객체에 표시할 가상현실 데이터를 결정할 수 있다.The virtual reality determining unit 180 determines virtual reality data to be displayed on an object corresponding to a finally recognized object area from the real reality data. If the lyric reality data to be displayed on the object on the real reality data is fixed as one virtual reality data, the virtual reality determining unit 180 determines the virtual reality to be displayed on the object recognized through the fixed object recognizing unit. data can be determined.

상기 가상현실 입력부(185)는 메모리에 저장되어 있거나, 또는 통신망을 통해 수신되거나, 또는 실시간 생성되는 가상현실 데이터 중 상기 가상현실 결정부(180)를 통해 결정된 가상현실 데이터를 상기 실제현실 데이터의 객체에 표시할 가상현실 데이터로 입력한다.The virtual reality input unit 185 converts virtual reality data determined through the virtual reality determination unit 180 among virtual reality data stored in a memory, received through a communication network, or generated in real time to an object of the real reality data. Enter virtual reality data to be displayed.

상기 증강현실 출력부(190)는 상기 실제현실 입력부(140)를 통해 입력되는 실제현실 데이터 상의 객체에 상기 가상현실 입력부(185)를 통해 입력되는 가상현실 데이터를 표시한 후, 상기 출력부(110)를 통해 출력한다.After the augmented reality output unit 190 displays the virtual reality data input through the virtual reality input unit 185 on an object on the real reality data input through the real reality input unit 140, the output unit 110 ) through the output.

본 발명의 일 실시 방법에 따르면, 상기 증강현실 출력부(190)는 상기 실제현실 데이터 상의 객체에 투명영역을 포함하는 가상현실 데이터를 중첩시켜 증강현실 데이터를 생성한 후, 상기 증강현실 데이터를 상기 출력부(110)를 통해 출력할 수 있다.According to one embodiment of the present invention, the augmented reality output unit 190 generates augmented reality data by overlapping virtual reality data including a transparent area with an object on the real reality data, and then converts the augmented reality data to the It can be output through the output unit 110.

본 발명의 다른 일 실시 방법에 따르면, 상기 증강현실 출력부(190)는 실제현실 계층과 가상현실 계층을 포함하는 증강현실 데이터 포맷을 구성한 후, 상기 증강현실 데이터 포맷의 실제현실 계층에 상기 실제현실 데이터를 출력하고 상기 실제현실 데이터의 객체 위치에 대응하는 가상현실 계층에 가상현실 데이터를 출력하여 상기 출력부(110)를 통해 출력할 수 있다.According to another implementation method of the present invention, the augmented reality output unit 190 configures an augmented reality data format including a real reality layer and a virtual reality layer, and then adds the real reality layer of the augmented reality data format to the real reality layer. Data may be output and the virtual reality data may be output to a virtual reality layer corresponding to an object position of the real reality data and output through the output unit 110 .

본 발명의 또다른 일 실시 방법에 따르면, 상기 출력부(110)가 투명 디스플레이를 포함하는 경우, 상기 증강현실 출력부(190)는 상기 객체 인식부를 통해 결정된 투명 디스플레이 상의 객체 위치에 상기 가상현실 데이터만 표시하여 출력할 수 있다.According to another implementation method of the present invention, when the output unit 110 includes a transparent display, the augmented reality output unit 190 places the virtual reality data at an object location on the transparent display determined through the object recognition unit. It can only be displayed and printed.

도면2는 본 발명의 실시 방법에 따라 거리 차이를 통해 객체를 인식하는 과정을 도시한 도면이다.Figure 2 is a diagram illustrating a process of recognizing an object through a distance difference according to an embodiment of the present invention.

보다 상세하게 본 도면2는 상기 도면1에 도시된 증강현실 장치(100)에서 카메라의 피사체 인식 범위와 거리인식 센서의 거리인식 범위를 동기화 시킨 후, 상기 거리인식 범위를 분할하여 n(n>1)개의 거리인식 영역을 결정하여 상기 거리인식 센서를 통해 n개의 거리인식 값을 측정하고, 상기 n개의 거리인식 영역과 실제현실 데이터의 픽셀 영역을 매칭시켜 상기 실제현실 데이터에 대한 픽셀 영역 별 거리 값을 산출하여 상기 실제현실 데이터 상의 객체를 인식하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면2를 참조 및/또는 변형하여 상기 거리 차이를 통해 객체를 인식하는 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면2에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, FIG. 2 shows that after synchronizing the subject recognition range of the camera and the distance recognition range of the distance recognition sensor in the augmented reality device 100 shown in FIG. 1, the distance recognition range is divided to n (n>1 ) distance recognition areas are determined, n distance recognition values are measured through the distance recognition sensors, and distance values for each pixel area of the real reality data are matched with the n distance recognition areas and pixel areas of real reality data. It shows a process of recognizing an object on the real reality data by calculating Various implementation methods for the recognition process (eg, implementation methods in which some steps are omitted or the order is changed) may be inferred, but the present invention includes all the implementation methods inferred above, and shown in FIG. The technical characteristics are not limited only to the illustrated implementation method.

도면2를 참조하면, 증강현실 장치(100)는 카메라를 통해 피사체 인식 범위의 실제현실 데이터를 입력하고(200), 상기 입력된 실제현실 데이터를 판독하여 색상/채도를 기반으로 객체 영역을 1차 인식함과 동시에(205), 상기 카메라를 통해 입력되는 실제현실 데이터에 대한 피사체 인식 범위 값을 확인하고(210), 상기 확인된 피사체 인식 범위 값을 통해 상기 거리인식 센서의 거리인식 범위를 상기 피사체 인식 범위와 동기화 시킨다(215).Referring to Figure 2, the augmented reality device 100 inputs real-reality data of a subject recognition range through a camera (200), reads the input real-reality data, and first determines an object area based on color/saturation. At the same time as recognizing (205), a subject recognition range value for real reality data input through the camera is checked (210), and the distance recognition range of the distance sensor is set to the subject through the checked subject recognition range value. Synchronize with the recognition range (215).

만약 상기 인식 범위가 동기화되면(220), 상기 증강현실 장치(100)는 상기 거리인식 범위를 분할하여 n(n>1)개의 거리인식 영역을 결정하고(225), 상기 거리인식 센서를 통해 상기 n개의 거리인식 영역에 대한 n개의 거리인식 값을 측정한 후(230), 상기 n개의 거리인식 영역과 상기 피사체 인식 범위에서 촬영된 실제현실 데이터의 픽셀 영역을 매칭시켜 상기 실제현실 데이터에 대한 픽셀 영역 별 거리 값을 산출한다(235).If the recognition range is synchronized (220), the augmented reality device 100 divides the distance recognition range to determine n (n>1) distance recognition areas (225), and through the distance recognition sensor After measuring n distance recognition values for n distance recognition areas (230), pixels for the real reality data are matched with pixel areas of the real reality data captured in the n distance recognition areas and the subject recognition range. A distance value for each area is calculated (235).

만약 상기 픽셀 영역 별 거리 값이 산출되면(240), 상기 증강현실 장치(100)는 상기 1차 인식된 객체 영역에 포함된 픽셀 영역 별 거리 값을 비교하여 상기 거리 값이 기 설정된 범위 내에서 유사한 픽셀 영역을 포함하는 객체 영역을 2차 인식하고(245), 상기 최종 인식된 객체 영역에 대응하는 객체에 대한 가상현실 데이터를 결정한 후(250), 상기 실제현실 데이터의 객체에 상기 결정된 가상현실 데이터를 출력한다(255).If the distance value for each pixel area is calculated (240), the augmented reality device 100 compares the distance value for each pixel area included in the first recognized object area so that the distance value is similar within a preset range. After secondarily recognizing an object area including a pixel area (245) and determining virtual reality data for an object corresponding to the finally recognized object area (250), the determined virtual reality data is assigned to the object of the real reality data. is output (255).

도면3은 본 발명의 실시 방법에 따라 거리 차이를 통해 객체를 인식하는 구성을 예시한 도면이다.Figure 3 is a diagram illustrating a configuration for recognizing an object through a distance difference according to an embodiment of the present invention.

도면3을 참조하면, 파란색의 배경 앞에 일정한 거리 차이를 두고 파란색 객체가 존재하는 경우, 카메라를 통해 입력되는 실제현실 데이터의 색상/채도를 판독해서는 상기 객체와 배경을 구분할 수 없으나, 상기 객체와 배경 사이에는 일정한 거리 차이가 존재한다.Referring to Figure 3, when a blue object exists at a certain distance in front of a blue background, the object and the background cannot be distinguished by reading the color/saturation of real data input through the camera, but the object and the background There is a certain distance difference between them.

본 발명에 따르면, 상기 객체와 배경에 대한 실제현실 데이터를 입력하는 카메라부(130)의 피사체 인식 범위와 거리인식 센서의 거리인식 범위를 동기화시켜 상기 거리인식 센서를 통해 측정되는 거리 차이를 판별하면, 상기 객체와 배경을 구분하여 상기 실제현실 데이터에 존재하는 객체를 인식할 수 있다.According to the present invention, if the distance difference measured through the distance recognition sensor is determined by synchronizing the subject recognition range of the camera unit 130 that inputs real reality data for the object and the background with the distance recognition range of the distance recognition sensor. , It is possible to recognize an object existing in the real reality data by distinguishing the object from the background.

도면4는 본 발명의 실시 방법에 따라 거리 차이를 통해 객체를 인식하는 예시도이다.4 is an exemplary view of recognizing an object through a distance difference according to an embodiment of the present invention.

도면4를 참조하면, 상기 도면4와 같이 파란색의 배경 앞에 일정한 거리에 객체가 위치한 경우, 상기 객체 실제현실 데이터의 픽셀 중 포인트(A)의 픽셀은 객체에 대응하는 픽셀이고, 포인트(B)는 배경에 대응하는 픽셀이지만, 상기 카메라를 통해 입력되는 실제현실 데이터의 색상/채도를 판독해서는 상기 객체와 배경을 구분할 수 없다.Referring to Figure 4, when an object is located at a certain distance in front of a blue background as shown in Figure 4, the pixel of point A among the pixels of the object real reality data is a pixel corresponding to the object, and the point B is Although it is a pixel corresponding to the background, it is impossible to distinguish the object from the background by reading the color/saturation of real reality data input through the camera.

만약 상기 포인트(A)와 포인트(B)가 상기 인식 영역 결정부(155)를 통해 구분되는 거리인식 영역 중 서로 다른 영역에 존재하는 경우, 상기 포인트(A)에 대응하는 픽셀 영역 별 거리 값과 상기 포인트(B)에 대응하는 픽셀 영역 별 거리 값이 다르므로, 상기 객체 인식부(2)(170)는 상기 파란색 배경 앞에 일정한 거리에 위치한 객체를 명확하게 식별하여 인식할 수 있게 된다.If the point (A) and the point (B) exist in different areas among the distance recognition areas classified through the recognition area determination unit 155, the distance value for each pixel area corresponding to the point (A) and Since the distance value for each pixel area corresponding to the point (B) is different, the object recognizing unit (2) 170 can clearly identify and recognize an object located at a certain distance in front of the blue background.

100 : 증강현실 장치 125 : 센서부
130 : 카메라부 140 : 실제현실 입력부
145 : 객체 인식부(1) 150 : 인식 범위 결정부
155 : 인식 영역 결정부 160 :거리 측정부
165 : 거리 산출부 170 : 객체 인식부(2)
175 : 데이터 저장부 180 : 가상현실 결정부
185 : 가상현실 입력부 190 : 증강현실 출력부
100: augmented reality device 125: sensor unit
130: camera unit 140: real reality input unit
145: object recognition unit (1) 150: recognition range determination unit
155: Recognition area determining unit 160: Distance measuring unit
165: distance calculation unit 170: object recognition unit (2)
175: data storage unit 180: virtual reality determination unit
185: virtual reality input unit 190: augmented reality output unit

Claims (4)

현실세계의 피사체를 촬영한 실제현실 데이터를 입력받는 카메라를 구비하고 상기 현실세계의 피사체와 카메라 사이의 거리를 센싱 가능한 거리인식센서를 구비한 장치를 통해 실행되는 방법에 있어서,
상기 카메라와 거리인식센서의 시선 방향을 동기화하거나 동기화된 상태를 유지하는 제1 단계;
상기 카메라를 통해 입력되는 실제현실 데이터를 통해 증강현실을 구현하는 경우 상기 실제현실 데이터의 픽셀 영역 중 증강현실의 가상 데이터를 중첩 표시 가능한 픽셀 영역을 포함하는 영역을 n(n>1)개로 분할한 영역에 일대일 매칭되는 n개의 거리인식 영역 별로 상기 거리인식센서를 통해 상기 카메라와 피사체 사이의 거리를 센싱한 n개의 거리인식 영역 별 거리인식 값을 확인하는 제2 단계;
상기 센싱된 n개의 거리인식 영역 별 거리인식 값 사이의 거리 관계를 근거로 가상 데이터를 중첩 표시할 피사체에 대응하는 객체 영역을 배경에 대응하는 배경 영역과 구분하여 인식하는 제3 단계; 및
상기 실제현실 데이터의 픽셀 영역 중 상기 구분 인식된 객체 영역을 포함하는 영역에 가상 데이터를 중첩 표시하여 증강현실을 구현하는 제4 단계;를 포함하는 거리 센싱을 이용한 증강현실 제공 방법.
In the method executed by a device having a camera for receiving real data obtained by photographing a subject in the real world and a distance recognition sensor capable of sensing a distance between the subject in the real world and the camera, the method comprising:
A first step of synchronizing or maintaining the gaze directions of the camera and the distance sensor;
When implementing augmented reality through real-reality data input through the camera, a region including a pixel region in which virtual data of augmented reality can be overlapped and displayed among pixel regions of the real-reality data is divided into n (n>1) pieces. a second step of checking a distance recognition value for each n distance recognition area where the distance between the camera and the subject is sensed through the distance recognition sensor for each n distance recognition area that is one-to-one matched to the area;
a third step of distinguishing and recognizing an object area corresponding to a subject for which virtual data is to be overlapped and displayed from a background area corresponding to a background based on a distance relationship between the sensed distance recognition values for each n distance sensing area; and
A fourth step of implementing augmented reality by overlapping and displaying virtual data on an area including the segmented and recognized object area among pixel areas of the real reality data;
제 1항에 있어서,
상기 제1 단계는, 상기 카메라의 피사체 인식 범위와 상기 거리인식센서의 거리인식 범위를 동기화하는 단계를 더 포함하며,
상기 제3 단계는, 상기 카메라의 피사체 인식 범위와 상기 거리인식센서의 거리인식 범위가 동기화된 상태에서 상기 실제현실 데이터의 픽셀 영역 중 증강현실의 가상 데이터를 중첩 표시 가능한 픽셀 영역에 일대일 매칭되는 n개의 거리인식 영역 별로 상기 거리인식센서를 통해 상기 카메라와 피사체 사이의 거리를 센싱한 n개의 거리인식 영역 별 거리인식 값을 확인하는 것을 특징으로 하는 거리 센싱을 이용한 증강현실 제공 방법.
According to claim 1,
The first step further includes synchronizing a subject recognition range of the camera and a distance recognition range of the distance detection sensor,
In the third step, in a state where the subject recognition range of the camera and the distance recognition range of the distance recognition sensor are synchronized, n is matched one-to-one to a pixel area in which virtual data of augmented reality can be overlapped and displayed among pixel areas of the real reality data. A method for providing augmented reality using distance sensing, characterized in that for each distance recognition area, a distance recognition value for each n distance recognition area sensed by the distance sensor through the distance between the camera and the subject is checked.
제 1항에 있어서,
상기 카메라를 통해 입력되는 실제현실 데이터를 통해 증강현실을 구현하는 경우 상기 실제현실 데이터의 픽셀 영역을 판독하여 상기 픽셀 영역의 색상/채도를 통해 구분되는 영역의 경계 선을 기준으로 가상 데이터를 중첩 표시 가능한 픽셀 판독 기반 객체 영역을 1차 인식하는 단계를 더 포함하며,
상기 제2 단계는,
상기 1차 인식된 픽셀 판독 기반 객체 영역을 포함하는 영역을 n개로 분할한 영역에 일대일 매칭되는 n개의 거리인식 영역 별로 상기 거리인식센서를 통해 상기 카메라와 피사체 사이의 거리를 센싱한 n개의 거리인식 영역 별 거리인식 값을 확인하는 단계를 포함하여 이루어지는 것을 특징으로 하는 거리 센싱을 이용한 증강현실 제공 방법.
According to claim 1,
When augmented reality is implemented through real-reality data input through the camera, a pixel area of the real-reality data is read and virtual data is overlapped and displayed based on the boundary line of the area distinguished by the color/saturation of the pixel area. Further comprising the step of first recognizing possible pixel read-based object regions;
The second step,
N distance recognition by sensing the distance between the camera and the subject through the distance recognition sensor for each n distance recognition area that is one-to-one matched to the area obtained by dividing the area including the firstly recognized pixel read-based object area into n areas A method for providing augmented reality using distance sensing, comprising the step of checking a distance recognition value for each area.
제 1항에 있어서, 상기 제3 단계는,
상기 센싱된 n개의 거리인식 영역 별 거리인식 값 사이의 거리 차이를 포함하는 거리 관계를 판독하여 가상 데이터를 중첩 표시할 피사체에 대응하는 객체 영역과 배경에 대응하는 배경 영역을 구분하여 인식하는 단계를 포함하여 이루어지는 것을 특징으로 하는 거리 센싱을 이용한 증강현실 제공 방법.

The method of claim 1, wherein the third step,
Recognizing an object region corresponding to a subject to be overlapped with virtual data and a background region corresponding to a background by reading a distance relationship including a distance difference between distance recognition values for each of the sensed n distance recognition regions. A method for providing augmented reality using distance sensing, comprising:

KR1020230043647A 2020-10-13 2023-04-03 Method for Providing Augmented Reality by using Distance Sensing KR20230051138A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230043647A KR20230051138A (en) 2020-10-13 2023-04-03 Method for Providing Augmented Reality by using Distance Sensing

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020200131768A KR20200120594A (en) 2020-10-13 2020-10-13 Method for Providing Augmented Reality by using Distance Difference
KR1020210108888A KR20210105325A (en) 2020-10-13 2021-08-18 Method for Providing Augmented Reality by using Distance Difference
KR1020230043647A KR20230051138A (en) 2020-10-13 2023-04-03 Method for Providing Augmented Reality by using Distance Sensing

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020210108888A Division KR20210105325A (en) 2020-10-13 2021-08-18 Method for Providing Augmented Reality by using Distance Difference

Publications (1)

Publication Number Publication Date
KR20230051138A true KR20230051138A (en) 2023-04-17

Family

ID=73035000

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020200131768A KR20200120594A (en) 2020-10-13 2020-10-13 Method for Providing Augmented Reality by using Distance Difference
KR1020210108888A KR20210105325A (en) 2020-10-13 2021-08-18 Method for Providing Augmented Reality by using Distance Difference
KR1020230043647A KR20230051138A (en) 2020-10-13 2023-04-03 Method for Providing Augmented Reality by using Distance Sensing

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020200131768A KR20200120594A (en) 2020-10-13 2020-10-13 Method for Providing Augmented Reality by using Distance Difference
KR1020210108888A KR20210105325A (en) 2020-10-13 2021-08-18 Method for Providing Augmented Reality by using Distance Difference

Country Status (1)

Country Link
KR (3) KR20200120594A (en)

Also Published As

Publication number Publication date
KR20210105325A (en) 2021-08-26
KR20200120594A (en) 2020-10-21

Similar Documents

Publication Publication Date Title
US9959681B2 (en) Augmented reality contents generation and play system and method using the same
KR101553273B1 (en) Method and Apparatus for Providing Augmented Reality Service
JP3729533B2 (en) Pointing system
US20190304122A1 (en) Image processing device, image processing method, recording medium storing image processing program and image pickup apparatus
KR20110136038A (en) System for tracking augmented reality device using several sensor
WO2002061583A2 (en) A system and method for robust foreground and background image data separation for location of objects in front of a controllable display within a camera view
KR20110136018A (en) Augmented reality device to include rfid reader
KR20110136024A (en) Method for interchanging between augmented reality device
KR20110136026A (en) System for optimizing a augmented reality data
KR101692764B1 (en) Method for Providing Augmented Reality by using Virtual Point
CN112073640B (en) Panoramic information acquisition pose acquisition method, device and system
KR20170086005A (en) Method for Providing Augmented Reality by using Distance Difference
KR102059114B1 (en) Image compensation device for matching virtual space and real space and image matching system using the same
KR20110136035A (en) Adaptive augmented reality device to real world
KR101518696B1 (en) System for augmented reality contents and method of the same
KR20230051138A (en) Method for Providing Augmented Reality by using Distance Sensing
KR100917615B1 (en) Method and apparatus for detecting location of laser beam with minimized error using mono-camera
KR101792250B1 (en) Method for Providing Adaptive Augmented Reality to Real World
KR20190122618A (en) Method for Providing Augmented Reality by using Distance Difference
KR20150024169A (en) Image fusion system and image fusion method
KR20180135842A (en) Method for Providing Augmented Reality by using Distance Difference
KR101680124B1 (en) Method for Transferring Augmented Reality between Different Platform
KR20120115898A (en) Display apparatus having camera, remote controller for controlling the display apparatus, and display control method thereof
KR20190100122A (en) Image compensation device using space synchronization based on the measurement of virtual space and real space and image matching system using the same
KR20120009639A (en) Method for Managing Selectable Virtual-Object Data using User's Order, Augmented Reality Device and Recording Medium

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E601 Decision to refuse application