WO2019027060A1 - 가상 객체 증강 장치 및 방법 - Google Patents

가상 객체 증강 장치 및 방법 Download PDF

Info

Publication number
WO2019027060A1
WO2019027060A1 PCT/KR2017/008236 KR2017008236W WO2019027060A1 WO 2019027060 A1 WO2019027060 A1 WO 2019027060A1 KR 2017008236 W KR2017008236 W KR 2017008236W WO 2019027060 A1 WO2019027060 A1 WO 2019027060A1
Authority
WO
WIPO (PCT)
Prior art keywords
real world
position information
virtual object
world object
information
Prior art date
Application number
PCT/KR2017/008236
Other languages
English (en)
French (fr)
Inventor
박재영
안상철
이주현
Original Assignee
주식회사 렛시
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 렛시 filed Critical 주식회사 렛시
Publication of WO2019027060A1 publication Critical patent/WO2019027060A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/40Network security protocols
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Definitions

  • the present invention relates to a virtual object enhancement apparatus and method. And more particularly, to an apparatus and method for accurately enhancing a virtual object through a location information of a real world object and a virtual object intensifier.
  • Augmented Reality (AR) technology refers to a technique of superimposing virtual objects created by computer graphics on objects existing in the real world and providing them to users. Recently, augmented reality (AR) technology has been applied to endpoints such as smart phones and smart glasses It is a technology that is concentrated on research and development as it extends to devices.
  • LBS location based service
  • a marker-based technique is a technique for realizing an augmented reality using a predetermined marker.
  • a marker is installed in a real space, a distance between a marker and a user is calculated, and a user's position is estimated to augment a virtual object.
  • the markers since the markers must be installed in the real world, there is a limitation in space, and there is a problem that the markers must be carried at all times.
  • the location information based technology is based on GPS (Global Positioning System) information for the user, there is an inevitable error in a place where reception sensitivity of the GPS signal is low, such as inside a building or a tunnel, There is a problem that it is difficult.
  • GPS Global Positioning System
  • Another object of the present invention is to provide an apparatus and method for enhancing a virtual object capable of accurately recognizing a position of a user and a position of a real world object, thereby enhancing a virtual object accurately.
  • a virtual object enhancement apparatus including a recognition unit for recognizing a real world object, a position information loading unit for loading position information of a real world object recognized by the recognition unit, A relative position calculation unit for calculating relative position information of the virtual object augmenting device with respect to the real world object from recognition information of a real world object recognized by the recognition unit, An absolute position calculator for calculating absolute position information of the virtual object augmenting device based on the position information of the real world object and a coordinate system which is the same as absolute position information calculated by the absolute position calculator of the real world object And a content output unit for augmenting the virtual object to the real world object .
  • the virtual-object augmenting apparatus compares identification information on the recognized real-world object with identification information on an object previously stored in the virtual-object augmentor or an external server, And an identification unit for determining whether the virtual object enhancement apparatus is an identifiable object.
  • the location information loading unit may load location information of a real world object recognized by the recognizing unit from location information about an object held by the virtual object augmenting apparatus.
  • the location information loading unit may load location information of a real world object recognized by the recognition unit from location information about an object held by an external server.
  • the relative position calculation unit compares a minutiae point of the real world object previously stored in the virtual-object augmentor or an external server with minutiae points extracted from recognition information of a real-world object recognized by the recognition unit And calculate a relative position information of the virtual object augmenting device with respect to the real world object by calculating a 4 x 4 matrix having the positional relationship information of the real world object and the virtual object augmenting device.
  • the virtual object enhancement method includes the steps of: recognizing a real world object by a virtual object enhancement apparatus; loading location information of the recognized real world object by the virtual object enhancement apparatus; Calculating relative position information of the virtual object augmenting device with respect to the real world object from the recognition information of the real world object recognized as an additional object; and calculating the relative position information of the virtual object augmenting device with respect to the real world object,
  • the virtual object augmenting apparatus further comprises a step of calculating the absolute position information of the virtual object augmenting apparatus through the position information of the real world object and the virtual object augmenting apparatus using the same coordinate system as the position information of the real world object and the absolute position information, And augmenting the object.
  • a virtual object enhancement apparatus including a processor, a memory, and a recognition unit for recognizing a real world object, the processor including: Calculating a relative position information of the virtual object augmenting device with respect to the real world object from the recognition information of the real world object recognized by the recognizing unit, calculating the relative position information of the virtual object augmenting device with respect to the loaded real world object, A step of computing the absolute position information of the virtual object augmenting apparatus through the position information of the world object and a step of augmenting the virtual object in the real world object using the same coordinate system as the position information and absolute position information of the real world object .
  • the present invention overcomes the physical limitation that markers need to be installed and carried in a marker-based technology, and allows accurate recognition of the position of a user and the position of a real world object, .
  • FIG. 1 is a diagram showing the overall configuration of a virtual object enhancing apparatus according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing a recognition unit implemented by a camera recognizing a car as a real-world object.
  • FIG. 3 is a diagram illustrating a position information loading unit loading position information of a vehicle based on FIG.
  • FIG. 4 is a diagram illustrating a process of calculating a 4x4 matrix by the relative position calculation unit.
  • FIG. 5 is a diagram illustrating a relative position calculation unit for calculating relative position information of a virtual object augmenting apparatus.
  • FIG. 6 is a diagram illustrating an absolute position calculation unit for calculating absolute position information of a virtual object augmenting apparatus.
  • FIG. 7 is a view showing a content output unit augmenting a virtual object to a real world object.
  • FIG. 8 is a diagram illustrating a hardware configuration of a virtual object augmenting apparatus according to another embodiment of the present invention.
  • FIG. 9 is a flowchart illustrating representative steps of a virtual object enhancement method according to another embodiment of the present invention.
  • FIG. 1 is a diagram showing the overall configuration of a virtual object enhancement apparatus 100 according to an embodiment of the present invention.
  • the virtual object enhancement apparatus 100 includes a recognition unit 10, an identification unit 15, a position information loading unit 20, a relative position calculation unit 30, an absolute position calculation unit 40, And a content output unit 50.
  • a recognition unit 10 an identification unit 15
  • a position information loading unit 20 a position information loading unit 20
  • a relative position calculation unit 30 an absolute position calculation unit 40
  • a content output unit 50 a content output unit 50.
  • the recognition unit 10 recognizes an object in the real world.
  • the recognition is performed by recognizing information that can be provided by the position information loading unit 20, which will be described later, in loading the position information of the real world object.
  • the recognition unit 10 may include a camera having a built-in size measurement software, a color of a real world object A camera with color discrimination software, a camera with material discrimination software if the material of the real world object is to be recognized, and a scale capable of measuring the weight when the real world object needs to be recognized.
  • the recognition unit 10 may further include a configuration such as a converter (not shown) for converting the contents recognized by the camera or the balance into data, and the software built in the above-mentioned input device performs a data conversion function You may.
  • the identification unit 15 compares the identification information of the recognized real world object with the identification information of the real world object stored in advance in the virtual object enhancement apparatus 100 or the external server (not shown) , And determines whether the virtual object enhancer can identify the real world object recognized by the recognition unit 10.
  • the identification unit 15 extracts the minutiae points of the real world objects from the image information recognized by the recognition unit 10, compares the extracted minutiae points with the minutiae points of the real world objects stored in advance in the virtual object enhancement apparatus or the external server, It is possible to determine whether the real-world object is identifiable in the virtual object augmenting apparatus.
  • it is possible to determine whether or not the bar code or the QR code can be discriminated by using the bar code or the QR code as identification information.
  • the external server (not shown) holds the identification information of the object, the external server (not shown) can determine whether the external server (not shown) matches or not.
  • the identification unit 15 extracts only the identification information It will suffice if you only have the built-in software.
  • FIG. 2 shows a recognition unit 10 recognizing a car as a real-world object, and the recognition unit 10 recognizes the size, color, and the like of the car and converts it into data.
  • the position information loading unit 20 loads the position information of the real world object recognized by the recognition unit 10.
  • the location information of the real world object may be held by the virtual object augmentor 100 in a configuration such as a memory (not shown), etc.
  • the virtual object enhancer 100 needs to have position information on as many objects as possible
  • the location information of the bar and the real world object is held by the external server (not shown), and the location information loading unit 20 simply loads the location information of the real world object from the external server (not shown) Lt; / RTI >
  • the position information may be not only map coordinate information but also coordinate information in various ways that can represent the position.
  • the location information may be coordinate information about a coordinate system applied to a limited space such as a specific space (building interior, office, etc.). In this case, when it is determined that the device user is within the specific space, the coordinate information for the coordinate system of the specific space of the real-world object in the specific space is loaded.
  • the relative position calculation unit 30 calculates relative position information for the virtual object enhancement apparatus 100 from the recognition information of the real world object recognized by the recognition unit 10.
  • the relative position means the position of the virtual object augmentor 100 viewed from the position of the real world object
  • the relative position information can be information represented using, for example, a coordinate system.
  • the recognition information recognized by the recognition unit 10 may be an image such as an appearance of a car, a license plate of a car, an outer wall of a building, a signboard, an indoor picture, and the like.
  • the relative position calculation unit 30 calculates the relative position information of the virtual object enhancement apparatus 100 with respect to the real world object from the recognition information of the real world object.
  • the relative position calculation unit 30 compares the feature point of the real world object with the previously stored stored feature point information from the image, which is the recognition information,
  • the 4x4 matrix (ModelView Matrix) shown in FIG. 4 can be calculated by calculating the attitude information of the recognized real world object.
  • the relative position information of the virtual object enhancement apparatus 100 with respect to the real world object can be calculated through the operation of the inverse matrix, the transpose matrix, and the like of the 4 x 4 matrix thus obtained.
  • the relative position information of the virtual object enhancement apparatus for the real world object is calculated using the NFT technique with the image information as the recognition information.
  • the recognition information recognized by the recognition unit it is obvious that it can be applied.
  • the absolute position calculation unit 40 calculates the absolute position information of the virtual object enhancement apparatus 100 through the relative position information calculated by the relative position calculation unit 30 and the position information of the real world object loaded by the position information loading unit 20 .
  • the absolute position means an absolute position of the virtual-object augmentor 100 itself, which is independent of the position of the virtual-object augmentor 100 viewed from the position of the real-world object, and the absolute positional information is, for example, And may be a coordinate in a coordinate system of a specific limited space.
  • the absolute position information of the virtual object enhancement apparatus 100 may include position information of the real world object loaded by the position information loading unit 20 and relative position information of the virtual object enhancement apparatus 100 calculated by the relative position computing unit 30 .
  • the position information of the real world object loaded by the position information loading unit 20 is (37.521880, 127.033243), and the virtual object enhancer 100 (0.1, 0.3), the absolute position information of the virtual object enhancement apparatus 100 can be calculated as (37.621880, 127.333243).
  • the absolute position calculator 40 may further perform an appropriate correction by comparing the GPS reception information with the calculated absolute position information when the virtual object enhancement apparatus 100 includes a GPS module.
  • the absolute position calculation unit 40 corrects the calculated absolute position information as (37.571879, 127.133243) .
  • the content output unit 50 enhances the virtual objects in the real world objects by using the same positional information of the real world objects and the same absolute coordinate information as the absolute position information calculated by the absolute position calculator 40.
  • the same coordinate system uses the map coordinate system if the position information of the real world object is based on the map coordinate system, and the position information and the absolute position information of the real world object are used in various coordinate systems The same coordinate system is used.
  • the virtual object enhancement apparatus 100 has been described above. According to the present invention, it is not necessary to install and carry a separate marker in determining the position information of the real world object, and it is possible to accurately recognize the position of the user having the virtual object enhancement apparatus 100 and the position of the real world object So that it is possible to accurately increase the virtual object.
  • the virtual object enhancement apparatus 100 includes a processor 11, a memory 12, a recognition unit 13 for recognizing an object in the real world, And a virtual object enhancing device 200 including a bus 14.
  • the processor 11 loads the location information of the real world object recognized by the recognizing unit 13 from the memory 12, extracts the real world object from the recognition information of the real world object recognized by the recognizing unit, Calculating absolute position information of the virtual object augmenting device through the calculated relative position information and the loaded real world object position information, And augmenting the virtual object to the real world object using the same coordinate system as the position information of the object and the absolute position information of the virtual object augmentor.
  • the virtual object enhancement apparatus 100 includes a processor 11 and a recognition unit 13 that can be implemented as an augmented reality system including a server (not shown) and a virtual object augmentation apparatus 100,
  • the processor 11 loads the location information of the real world object recognized by the recognizing unit 13 from the server (not shown), and extracts, from the recognition information of the real world object recognized by the recognizing unit 13, Calculating relative position information of the virtual object augmenting device with respect to a world object, calculating absolute position information of the virtual object augmenting device through the calculated relative position information and position information of the loaded real world object, A step of augmenting a virtual object to the real world object using the same coordinate system as the recognition information of the real world object and the absolute position information of the virtual object augmentor ,
  • a server (not shown) may include a memory (not shown).
  • the virtual object enhancement apparatus 100 may be implemented by a virtual object enhancement method according to the flowchart shown in FIG.
  • the virtual-object augmenting apparatus recognizes the real-world object (S810), loads the position information of the recognized real-world object (S820), extracts from the recognition information of the real- (S830) calculating relative position information of the virtual object augmenting apparatus, computing absolute position information of the virtual object augmenting apparatus through the calculated relative position information and the loaded real world object position information (S840 And augmenting the virtual object to the real world object using the same coordinate system as the absolute position information of the virtual object augmenting apparatus and the position information of the real world object (S850).
  • the present invention uses position information of a real world object and relative position information of a virtual object augmenting device with respect to a real world object, even if there is an error in user position information (for example, GPS information) It is possible to accurately match virtual objects to real-world buildings or objects.

Abstract

본 발명의 일 실시예에 따른, 가상 객체 증강 장치는, 현실 세계 객체를 인식하는 인식부, 상기 인식부가 인식한 현실 세계 객체의 위치 정보를 로딩하는 위치 정보 로딩부, 상기 인식부가 인식한 현실 세계 객체의 인식 정보로부터 상기 현실 세계 객체에 대한 가상 객체 증강 장치의 상대 위치 정보를 연산하는 상대 위치 연산부, 상기 상대 위치 연산부가 연산한 상대 위치 정보와 상기 현실 세계 객체의 위치 정보를 통해 상기 가상 객체 증강 장치의 절대 위치 정보를 연산하는 절대 위치 연산부 및 상기 현실 세계 객체의 위치 정보 및 상기 절대 위치 연산부가 연산한 절대 위치 정보와 동일한 좌표 체계를 이용하여 상기 현실 세계 객체에 가상 객체를 증강하는 콘텐츠 출력부를 포함한다.

Description

가상 객체 증강 장치 및 방법
본 발명은 가상 객체 증강 장치 및 방법에 관한 것이다. 보다 자세하게는 현실 세계 객체와 가상 객체 증강 장치의 위치 정보를 통해 가상 객체를 정확하게 증강할 수 있는 장치 및 방법에 관한 것이다.
증강현실(AR, Augmented Reality) 기술은 현실 세계에 존재하는 객체에 컴퓨터 그래픽으로 만들어진 가상 객체를 중첩하여 사용자에게 제공하는 기술을 의미하며, 최근 증강현실의 구현이 스마트폰이나 스마트 글라스 등과 같은 엔드 포인트 디바이스로까지 연장됨에 따라, 연구 개발이 집중되고 있는 기술에 해당한다.
이러한 증강현실 기술은 현실 세계의 객체에 가상 객체를 합성하여 증강해야 하므로, 사용자의 위치 및 현실 세계 객체의 위치에 대한 정확한 인식이 필요하다. 이를 위해 마커(Marker) 기반의 기술과 위치 정보 기반(LBS, Location Based Service)기술이 출현하였다.
마커 기반의 기술은 소정의 마커를 사용하여 증강현실을 구현하는 기술로서, 현실 공간에 마커를 설치하고 마커와 사용자간의 거리나 경사도 등을 연산하여 사용자의 위치를 추정해 가상 객체를 증강한다. 그러나 현실 세계에 마커를 반드시 설치해야 하므로 공간상의 제약이 있다는 문제점이 있으며, 마커를 항상 휴대하고 다녀야 한다는 불편함도 있다.
위치 정보 기반 기술은 사용자에 대한 GPS(Global Positioning System) 정보를 기반으로 하는바, 건물이나 터널 내부와 같이 GPS 신호의 수신 감도가 떨어지는 장소에서는 오차가 발생할 수밖에 없으며, 그에 따라 가상 객체의 정확한 증강이 어렵다는 문제점이 있다.
따라서, 종래의 증강현실 기술의 문제점들을 극복하여 사용이 편리함과 동시에 어느 장소에서라도 가상 객체의 정확한 증강이 가능한 새롭고 진보적인 증강현실 기술이 요구된다. 본 발명은 이와 관련된 것이다.
본 발명이 해결하고자 하는 기술적 과제는 마커의 설치 및 휴대의 필요 없이 사용자가 손쉽게 이용할 수 있는 가상 객체 증강 장치 및 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 또 다른 기술적 과제는, 사용자의 위치 및 현실 세계 객체의 위치에 대한 정확한 인식이 가능하여 가상 객체의 정확한 증강이 가능한 가상 객체 증강 장치 및 방법을 제공하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상기 기술적 과제를 달성하기 위한 본 발명의 일 실시 예에 따른 가상 객체 증강 장치는, 현실 세계 객체를 인식하는 인식부, 상기 인식부가 인식한 현실 세계 객체의 위치 정보를 로딩하는 위치 정보 로딩부, 상기 인식부가 인식한 현실 세계 객체의 인식 정보로부터 상기 현실 세계 객체에 대한 상기 가상 객체 증강 장치의 상대 위치 정보를 연산하는 상대 위치 연산부, 상기 상대 위치 연산부가 연산한 상대 위치 정보와 상기 위치정보 로딩부가 로딩한 상기 현실 세계 객체의 위치 정보를 통해 상기 가상 객체 증강 장치의 절대 위치 정보를 연산하는 절대 위치 연산부 및 상기 현실 세계 객체의 위치 정보 및 상기 절대 위치 연산부가 연산한 절대 위치 정보와 동일한 좌표 체계를 이용하여 상기 현실 세계 객체에 가상 객체를 증강하는 콘텐츠 출력부를 포함한다.
일 실시 예에 따르면, 상기 가상 객체 증강 장치는, 상기 인식한 현실 세계 객체에 대한 식별 정보를 상기 가상 객체 증강 장치 또는 외부 서버에 미리 저장된 객체에 대한 식별 정보와 비교하여, 상기 현실 세계 객체가 상기 가상 객체 증강 장치가 식별 가능한 객체인지 여부를 판단하는 식별부를 더 포함할 수 있다.
일 실시 예에 따르면, 위치 정보 로딩부는, 상기 가상 객체 증강 장치가 보유하고 있는 객체에 대한 위치 정보로부터 상기 인식부가 인식한 현실 세계 객체의 위치 정보를 로딩할 수 있다.
일 실시 예에 따르면, 위치 정보 로딩부는, 외부 서버가 보유하고 있는 객체에 대한 위치 정보로부터 상기 인식부가 인식한 현실 세계 객체의 위치 정보를 로딩할 수 있다.
일 실시 예에 따르면, 상기 상대 위치 연산부는, 상기 가상 객체 증강 장치 또는 외부 서버에 미리 저장된 상기 현실 세계 객체에 대한 특징점과 상기 인식부에 의해 인식된 현실 세계 객체의 인식 정보로부터 추출되는 특징점을 비교하여, 상기 현실 세계 객체와 상기 가상 객체 증강 장치의 위치 관계 정보를 갖는 4 x 4 행렬을 연산하여, 상기 현실 세계 객체에 대한 상기 가상 객체 증강 장치의 상대 위치 정보를 연산할 수 있다.
상기 기술적 과제를 달성하기 위한 본 발명의 또 다른 실시 예에 따른
가상 객체 증강 방법은, 가상 객체 증강 장치가, 현실 세계 객체를 인식하는 단계, 상기 가상 객체 증강 장치가, 상기 인식한 현실 세계 객체의 위치 정보를 로딩하는 단계, 상기 가상 객체 증강 장치가, 상기 인식부가 인식한 현실 세계 객체의 인식 정보로부터 상기 현실 세계 객체에 대한 상기 가상 객체 증강 장치의 상대 위치 정보를 연산하는 단계, 상기 가상 객체 증강 장치가, 상기 연산한 상대 위치 정보와 상기 로딩한 현실 세계 객체의 위치 정보를 통해 상기 가상 객체 증강 장치의 절대 위치 정보를 연산하는 단계 및 상기 가상 객체 증강 장치가, 상기 현실 세계 객체의 위치 정보 및 절대 위치 정보와 동일한 좌표 체계를 이용하여 상기 현실 세계 객체에 가상 객체를 증강하는 단계를 포함한다.
상기 기술적 과제를 달성하기 위한 본 발명의 또 다른 실시 예에 따른 가상 객체 증강 장치는, 프로세서, 메모리 및 현실 세계 객체를 인식하는 인식부를 포함하고, 상기 프로세서는, 상기 인식부가 인식한 현실 세계 객체의 위치 정보를 로딩하는 단계, 상기 인식부가 인식한 현실 세계 객체의 인식 정보로부터 상기 현실 세계 객체에 대한 상기 가상 객체 증강 장치의 상대 위치 정보를 연산하는 단계, 상기 연산한 상대 위치 정보와 상기 로딩한 현실 세계 객체의 위치 정보를 통해 상기 가상 객체 증강 장치의 절대 위치 정보를 연산하는 단계 및 상기 현실 세계 객체의 위치 정보 및 절대 위치 정보와 동일한 좌표 체계를 이용하여 상기 현실 세계 객체에 가상 객체를 증강하는 단계를 수행한다.
본 발명은 마커 기반 기술에 있어서의 마커의 설치 및 휴대가 필요하다는 물리적인 한계를 극복함과 동시에 사용자의 위치 및 현실 세계 객체의 위치에 대한 정확한 인식이 가능하여 가상 객체의 정확한 증강이 가능하다는 효과를 가진다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.
도 1은 본 발명의 일 실시 예에 따른 가상 객체 증강 장치의 전체적인 구성을 나타낸 도면이다.
도 2에는 카메라로 구현된 인식부가 현실 세계 객체인 자동차를 인식하는 모습을 나타낸 도면이다.
도 3은 도 2를 기초로 위치 정보 로딩부가 자동차의 위치 정보를 로딩하는 모습을 나타낸 도면이다.
도 4는 상대 위치 연산부가 4 x 4 행렬을 연산하는 과정을 나타낸 도면이다.
도 5는 상대 위치 연산부가 가상 객체 증강 장치의 상대 위치 정보를 연산하는 모습을 나타낸 도면이다.
도 6은 절대 위치 연산부가 가상 객체 증강 장치의 절대 위치 정보를 연산하는 모습을 나타낸 도면이다.
도 7은 콘텐츠 출력부가 현실 세계 객체에 가상 객체를 증강하는 모습을 나타낸 도면이다.
도 8은 본 발명의 또 다른 실시 예에 따른 가상 객체 증강 장치의 하드웨어 구성도를 나타낸 도면이다.
도 9는 본 발명의 또 다른 실시 예에 따른 가상 객체 증강 방법의 대표적인 단계를 나타낸 순서도이다.
한편, 도면에 사용된 도면 부호는 다음과 같다.
100, 200: 가상 객체 증강 장치
10, 13: 인식부
15: 식별부
11: 프로세서
12: 메모리
14: 시스템 버스
20: 위치 정보 로딩부
30: 상대 위치 연산부
40: 절대 위치 연산부
50: 콘텐츠 출력부
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.
본 명세서에서 사용되는 "포함한다 (comprises)" 및/또는 "포함하는 (comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
도 1은 본 발명의 일 실시 예에 따른 가상 객체 증강 장치(100)의 전체적인 구성을 나타낸 도면이다.
이는 본 발명의 목적을 달성하기 위한 바람직한 실시 예일 뿐이며, 필요에 따라 일부 구성이 추가 또는 삭제될 수 있음은 물론이고, 일 구성의 기능을 다른 구성이 흡수하여 수행할 수도 있다.
본 발명의 일 실시 예에 따른 가상 객체 증강 장치(100)는 인식부(10), 식별부(15), 위치 정보 로딩부(20), 상대 위치 연산부(30), 절대 위치 연산부(40) 및 콘텐츠 출력부(50)를 포함한다. 이하, 인식부(10)를 시작으로 본 발명의 일 실시 예에 따른 가상 객체 증강 장치(100)가 포함하는 모든 구성을 설명하도록 한다.
인식부(10)는 현실 세계의 객체를 인식한다.
여기서 인식은 후술할 위치 정보 로딩부(20)가 현실 세계 객체의 위치 정보를 로딩함에 있어서 이바지할 수 있는 정보를 인식하는 것인바, 인식은 예를 들어, 현실 세계 객체의 크기, 색상, 재질, 무게 등과 같은 속성을 나타내는 외관 및 그 밖에 해당 현실 세계 객체를 식별할 수 있는 모든 속성을 인식하는 것일 수 있다. 따라서 인식부(10)는 각각의 속성을 인식할 수 있는 별도의 구성을 포함할 수 있으며, 예를 들어, 현실 세계 객체의 크기를 인식해야 한다면 크기 측정 소프트웨어가 내장된 카메라, 현실 세계 객체의 색상을 인식해야 한다면 색상 구별 소프트웨어가 내장된 카메라, 현실 세계 객체의 재질을 인식해야 한다면 재질 구별 소프트웨어가 내장된 카메라, 현실 세계 객체의 무게를 인식해야 한다면 무게 측정이 가능한 저울 등을 포함할 수 있다.
그러나, 이러한 카메라나 저울 등은 현실 세계 객체의 속성을 인식하기 위한 일종의 입력 장치에 불과하며, 이를 통해 후술할 위치 정보 로딩부(20)가 위치 정보를 로딩하려면 입력 장치가 인식한 내용을 데이터로 변환하고 식별 정보를 추출해야 한다. 따라서 인식부(10)는 카메라나 저울 등이 인식한 내용을 데이터로 변환하는 변환기(미도시)와 같은 구성을 추가적으로 포함할 수 있으며, 상기 언급한 입력 장치에 내장된 소프트웨어가 데이터 변환 기능을 수행할 수도 있다.
식별부(15)는 인식한 현실 세계 객체에 대한 식별 정보를 가상 객체 증강 장치(100) 또는 외부 서버(미도시)에 미리 저장되어 있는 현실 세계 객체에 대한 식별 정보와 비교하여 일치 여부를 판단하여, 인식부(10)가 인식한 현실 세계 객체가 가상 객체 증강 장치가 식별할 수 있는지 여부를 판단한다. 예를 들어, 식별부(15)는 인식부(10)가 인식한 이미지 정보로부터 현실 세계 객체의 특징점을 추출하여, 가상 객체 증강 장치 또는 외부 서버에 미리 저장된 현실 세계 객체에 대한 특징점과 비교하여, 상기 현실 세계 객체가 가상 객체 증강 장치에서 식별가능한 지 여부를 판단할 수 있다. 다른 일례로서, 바코드나 QR코드를 식별 정보로 이용하여 식별가능 여부를 판단할 수도 있다.
한편, 객체에 대한 식별 정보를 외부 서버(미도시)가 보유하고 있다면 외부 서버(미도시) 자체가 일치 여부를 판단할 수 있으며, 식별부(15)에는 인식한 현실 세계 객체로부터 식별 정보만을 추출하는 소프트웨어만 내장되어 있으면 충분할 것이다.
도 2에는 인식부(10)가 현실 세계 객체인 자동차를 인식하는 모습이 도시되어 있으며, 인식부(10)는 자동차의 크기, 색상 등을 인식하여 데이터로 변환할 수 있을 것이다.
위치 정보 로딩부(20)는 인식부(10)가 인식한 현실 세계 객체의 위치 정보를 로딩한다.
여기서 현실 세계 객체의 위치 정보는 가상 객체 증강 장치(100)가 메모리(미도시) 등과 같은 구성에 자체적으로 보유하고 있을 수 있으나, 최대한 많은 객체에 대한 위치 정보를 보유하고 있어야 하는 용량적인 문제가 있는바, 현실 세계 객체의 위치 정보는 외부 서버(미도시)가 보유하고, 위치 정보 로딩부(20)는 외부 서버(미도시)로부터 현실 세계 객체의 위치 정보를 단순 로딩하는 것이 프로세스의 효율성 측면에서 바람직할 것이다.
한편, 위치 정보는 지도 좌표 정보뿐만 아니라 위치를 나타낼 수 있는 다양한 방식의 좌표 정보일 수 있다.
예를 들어, 도 2에서 인식부(10)가 인식한 현실 세계 객체가 "서울시 강남구 도산대로 239 한성 자동차 벤츠 전시장 2층에 전시된 CLS 350"이라면, 위치 정보 로딩부(20)는 도 3에 도시된 바와 같이 "서울시 강남구 도산대로 239 한성 자동차 벤츠 전시장 2층"의 위치 정보, 보다 구체적으로 (37.521880, 127.033243)이라는 지도 좌표 정보를 로딩한다.
또한, 상기 위치 정보는 특정 공간(건물 내부, 사무실 등)과 같은 한정된 공간에 적용되는 좌표계에 관한 좌표 정보일 수 있다. 이 경우, 장치 사용자가 상기 특정 공간 내에 있다고 판정되는 경우, 그 특정 공간 내의 현실 세계 객체의 상기 특정 공간의 좌표계에 대한 좌표 정보를 로딩한다.
상대 위치 연산부(30)는 인식부(10)가 인식한 현실 세계 객체의 인식 정보로부터 가상 객체 증강 장치(100)에 대한 상대 위치 정보를 연산한다.
여기서 상대 위치란, 현실 세계 객체의 입장에서 바라보는 가상 객체 증강 장치(100)의 위치를 의미하며, 상대 위치 정보는 예를 들어 좌표 체계를 이용하여 나타낸 정보일 수 있다.
또한, 인식부(10)가 인식한 인식 정보는 자동차의 외관, 자동차의 번호판, 건물의 외벽, 간판, 실내 그림 등과 같은 이미지일 수 있다.
이하, 상대 위치 연산부(30)가 현실 세계 객체의 인식 정보로부터 현실 세계 객체에 대한 가상 객체 증강 장치(100)의 상대 위치 정보를 연산하는 일 실시예를 설명한다.
상기 인식부(10)가 현실 세계 객체의 이미지를 인식하는 경우, 상대 위치 연산부(30)는 상기 인식 정보인 이미지로부터 현실 세계 객체의 특징점과 미리 저장된 특징점 정보를 비교하여 NFT(Natural Feature Tracking) 기법에 인식된 현실 세계 객체의 자세 정보를 계산하여 도 4와 같은 4 x 4 행렬(ModelView Matrix)를 연산할 수 있다. 이렇게 얻어진 4 x 4 행렬을 역행렬, 전치행렬 등의 연산 과정을 통해, 상기 현실 세계 객체에 대한 가상 객체 증강 장치(100)의 상대 위치 정보를 연산할 수 있다.
위에서는 이미지 정보를 인식 정보로 하여 NFT 기법을 이용하여 현실 세계 객체에 대한 가상 객체 증강 장치의 상대 위치 정보를 연산하는 것을 일례로 설명하였으나, 인식부가 인식하는 인식 정보의 속성에 따라, 다양한 연산 방법을 적용할 수 있음은 당연하다.
절대 위치 연산부(40)는 상대 위치 연산부(30)가 연산한 상대 위치 정보와 위치 정보 로딩부(20)가 로딩한 현실 세계 객체의 위치 정보를 통해 가상 객체 증강 장치(100)의 절대 위치 정보를 연산한다.
여기서 절대 위치란, 현실 세계 객체의 입장에서 바라보는 가상 객체 증강 장치(100)의 위치와 상관없는 가상 객체 증강 장치(100) 자체의 절대적인 위치를 의미하며, 절대 위치 정보는 예를 들어 경위도좌표계에서의 좌표일 수 있으며, 특정한 한정된 공간의 좌표 체계 내에서의 좌표일 수 있다.
가상 객체 증강 장치(100)의 절대 위치 정보는 위치 정보 로딩부(20)가 로딩한 현실 세계 객체의 위치 정보와 상대 위치 연산부(30)가 연산한 가상 객체 증강 장치(100)의 상대 위치 정보를 통해 연산 가능하다.
예를 들어, 도 6에 도시된 바와 같이 위치 정보 로딩부(20)가 로딩한 현실 세계 객체의 위치 정보가 (37.521880, 127.033243)이고, 상대 위치 연산부(30)가 연산한 가상 객체 증강 장치(100)의 상대 위치 정보가 (0.1, 0.3)라면, 가상 객체 증강 장치(100)의 절대 위치 정보를 (37.621880, 127.333243)와 같이 연산할 수 있다.
절대 위치 연산부(40)는 더 나아가, 가상 객체 증강 장치(100)가 GPS 모듈을 포함하고 있는 경우, GPS 수신 정보와 연산한 절대 위치 정보를 비교하여 적절한 보정을 수행할 수도 있다.
예를 들어, 연산한 절대 위치 정보가 (37.621880, 127.333243)이고, GPS 수신 정보가 (37.521879, 127.033243)이라면, 절대 위치 연산부(40)는 연산한 절대 위치 정보를 (37.571879, 127.183243)와 같이 보정할 수 있다.
콘텐츠 출력부(50)는 상기 현실 세계 객체의 위치 정보 및 절대 위치 연산부(40)가 연산한 절대 위치 정보와 동일한 좌표 체계를 이용하여 현실 세계 객체에 가상 객체를 증강한다.
여기서 동일한 좌표 체계란 상기 현실 세계 객체의 위치 정보가 지도 좌표 체계를 이용한 것이라면 동일하게 지도 좌표 체계를 이용하는 것이며, 상기 현실 세계 객체의 위치 정보 및 절대 위치 정보가 위치를 나타낼 수 있는 다양한 방식의 좌표 체계라면 그와 동일한 좌표 체계를 이용하는 것이다.
콘텐츠 출력부(50)가 현실 세계 객체에 가상 객체를 증강하는 모습은 도 7에 도시되어 있다.
지금까지 본 발명의 일 실시 예에 따른 가상 객체 증강 장치(100)에 대하여 설명하였다. 본 발명에 따르면, 현실 세계 객체의 위치 정보를 확정함에 있어서 별도의 마커의 설치 및 휴대가 필요 없으며, 가상 객체 증강 장치(100)를 보유한 사용자의 위치 및 현실 세계 객체의 위치에 대한 정확한 인식이 가능하여 가상 객체의 정확한 증강이 가능하다.
한편, 본 발명의 일 실시 예에 따른 가상 객체 증강 장치(100)는 도 8에 도시된 바와 같이, 프로세서(11), 메모리(12) 및 현실 세계의 객체를 인식하는 인식부(13) 및 시스템 버스(14)를 포함하는 가상 객체 증강 장치(200)로 구현할 수도 있다. 이 경우 프로세서(11)는 상기 인식부(13)가 인식한 현실 세계 객체의 위치 정보를 상기 메모리(12)로부터 로딩하는 단계, 상기 인식부가 인식한 현실 세계 객체의 인식 정보로부터 상기 현실 세계 객체에 대한 상기 가상 객체 증강 장치의 상대 위치 정보를 연산하는 단계, 상기 연산한 상대 위치 정보와 상기 로딩한 현실 세계 객체의 위치 정보를 통해 상기 가상 객체 증강 장치의 절대 위치 정보를 연산하는 단계 및 상기 현실 세계 객체의 위치 정보 및 상기 가상 객체 증강 장치의 절대 위치 정보와 동일한 좌표 체계를 이용하여 상기 현실 세계 객체에 가상 객체를 증강하는 단계를 수행할 수 있다.
또한, 서버(미도시)와 가상 객체 증강 장치(100)를 포함하는 증강현실 시스템으로도 구현할 수 있는바, 가상 객체 증강 장치(100)는 프로세서(11) 및 인식부(13)를 포함하고, 프로세서(11)는 상기 인식부(13)가 인식한 현실 세계 객체의 위치 정보를 상기 서버(미도시)로부터 로딩하는 단계, 상기 인식부(13)가 인식한 현실 세계 객체의 인식 정보로부터 상기 현실 세계 객체에 대한 상기 가상 객체 증강 장치의 상대 위치 정보를 연산하는 단계, 상기 연산한 상대 위치 정보와 상기 로딩한 현실 세계 객체의 위치 정보를 통해 상기 가상 객체 증강 장치의 절대 위치 정보를 연산하는 단계 및 상기 현실 세계 객체의 인식 정보 및 상기 가상 객체 증강 장치의 절대 위치 정보와 동일한 좌표 체계를 이용하여 상기 현실 세계 객체에 가상 객체를 증강하는 단계를 수행하며, 서버(미도시)는 메모리(미도시)를 포함할 수 있다.
또한, 본 발명의 일 실시 예에 따른 가상 객체 증강 장치(100)는 도 9에 도시된 순서도에 따른 가상 객체 증강 방법으로 구현할 수도 있다. 이 경우, 가상 객체 증강 장치가 현실 세계 객체를 인식하는 단계(S810), 상기 인식한 현실 세계 객체의 위치 정보를 로딩하는 단계(S820), 상기 현실 세계 객체의 인식 정보로부터 상기 현실 세계 객체에 대한 상기 가상 객체 증강 장치의 상대 위치 정보를 연산하는 단계(S830), 상기 연산한 상대 위치 정보와 상기 로딩한 현실 세계 객체의 위치 정보를 통해 상기 가상 객체 증강 장치의 절대 위치 정보를 연산하는 단계(S840) 및 상기 현실 세계 객체의 위치 정보 및 상기 가상 객체 증강 장치의 절대 위치 정보와 동일한 좌표 체계를 이용하여 상기 현실 세계 객체에 가상 객체를 증강하는 단계(S850)를 포함할 수 있다.
본 발명의 일 실시 예에 따른 가상 객체 증강 장치(100)의 모든 기술적 특징은 또 다른 실시 예에 따른 가상 객체 증강 장치(200) 및 가상 객체 증강 방법에 모두 적용될 수 있다.
본 발명은 현실 세계 객체의 위치 정보와 현실 세계 객체에 대한 가상 객체 증강 장치의 상대 위치 정보를 이용하기 때문에, 종래의 위치 기반 기술에 있어서의 사용자 위치 정보(예를 들어 GPS 정보)에 오차가 있더라도 현실 세계의 건물이나 사물에 가상 객체를 정확하게 매칭하는 것이 가능하다.
또한, 종래의 마커 기반 기술에 있어서 현실 공간에 마커를 설치해야 하기 때문에 발생하는 물리적인 제한을 극복할 수 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시 예들을 설명하였지만, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.

Claims (7)

  1. 현실 세계 객체를 인식하는 인식부;
    상기 인식부가 인식한 현실 세계 객체의 위치 정보를 로딩하는 위치 정보 로딩부;
    상기 인식부가 인식한 현실 세계 객체의 인식 정보로부터 상기 현실 세계 객체에 대한 가상 객체 증강 장치의 상대 위치 정보를 연산하는 상대 위치 연산부;
    상기 상대 위치 연산부가 연산한 상대 위치 정보와 상기 위치정보 수신부가 수신한 상기 현실 세계 객체의 위치 정보를 통해 상기 가상 객체 증강 장치의 절대 위치 정보를 연산하는 절대 위치 연산부; 및
    상기 현실 세계 객체의 위치 정보 및 상기 절대 위치 연산부가 연산한 절대 위치 정보와 동일한 좌표 체계를 이용하여 상기 현실 세계 객체에 가상 객체를 증강하는 콘텐츠 출력부;
    를 포함하는 가상 객체 증강 장치.
  2. 제1항에 있어서,
    상기 인식한 현실 세계 객체에 대한 식별 정보를 상기 가상 객체 증강 장치 또는 외부 서버에 미리 저장된 객체에 대한 식별 정보와 비교하여, 상기 현실 세계 객체가 상기 가상 객체 증강 장치가 식별 가능한 객체인지 여부를 판단하는 식별부를 더 포함하는
    가상 객체 증강 장치.
  3. 제1항에 있어서,
    상기 위치 정보 로딩부는,
    상기 가상 객체 증강 장치가 보유하고 있는 객체에 대한 위치 정보로부터 상기 인식부가 인식한 현실 세계 객체의 위치 정보를 로딩하는,
    가상 객체 증강 장치.
  4. 제1항에 있어서,
    상기 위치 정보 로딩부는,
    외부 서버가 보유하고 있는 객체에 대한 위치 정보로부터 상기 인식부가 인식한 현실 세계 객체의 위치 정보를 로딩하는,
    가상 객체 증강 장치.
  5. 제1항에 있어서,
    상기 상대 위치 연산부는,
    상기 가상 객체 증강 장치 또는 외부 서버에 미리 저장된 상기 현실 세계 객체에 대한 특징점과 상기 인식부에 의해 인식된 현실 세계 객체의 인식 정보로부터 추출되는 특징점을 비교하여, 상기 현실 세계 객체와 상기 가상 객체 증강 장치의 위치 관계 정보를 갖는 4 x 4 행렬을 연산하여, 상기 현실 세계 객체에 대한 가상 객체 증강 장치의 상대 위치 정보를 연산하는
    가상 객체 증강 장치.
  6. 가상 객체 증강 장치를 이용하여, 현실 세계 객체에 가상 객체를 증강하는 가상 객체 증강 방법에 있어서,
    현실 세계 객체를 인식하는 단계;
    상기 인식한 현실 세계 객체의 위치 정보를 로딩하는 단계;
    상기 인식한 현실 세계 객체의 인식 정보로부터 상기 현실 세계 객체에 대한 상기 가상 객체 증강 장치의 상대 위치 정보를 연산하는 단계;
    상기 연산한 상대 위치 정보와 상기 로딩한 현실 세계 객체의 위치 정보를 통해 상기 가상 객체 증강 장치의 절대 위치 정보를 연산하는 단계; 및
    상기 현실 세계 객체의 위치 정보 및 상기 절대 위치 정보와 동일한 좌표 체계를 이용하여 상기 현실 세계 객체에 가상 객체를 증강하는 단계;
    를 포함하는 가상 객체 증강 방법.
  7. 가상 객체 증강 장치에 있어서,
    상기 가상 객체 증강 장치는,
    프로세서;
    메모리; 및
    현실 세계 객체를 인식하는 인식부;
    를 포함하고,
    상기 프로세서는,
    상기 인식부가 인식한 현실 세계 객체의 위치 정보를 상기 메모리로부터 로딩하는 단계;
    상기 인식부가 인식한 현실 세계 객체의 인식 정보로부터 상기 현실 세계 객체에 대한 상기 가상 객체 증강 장치의 상대 위치 정보를 연산하는 단계;
    상기 연산한 상대 위치 정보와 상기 로딩한 현실 세계 객체의 위치 정보를 통해 상기 가상 객체 증강 장치의 절대 위치 정보를 연산하는 단계; 및
    상기 현실 세계 객체의 위치 정보 및 절대 위치 정보와 동일한 좌표 체계를 이용하여 상기 현실 세계 객체에 가상 객체를 증강하는 단계;
    를 수행하는 가상 객체 증강 장치.
PCT/KR2017/008236 2017-07-31 2017-07-31 가상 객체 증강 장치 및 방법 WO2019027060A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0096778 2017-07-31
KR1020170096778A KR101981314B1 (ko) 2017-07-31 2017-07-31 가상 객체 증강 장치 및 방법

Publications (1)

Publication Number Publication Date
WO2019027060A1 true WO2019027060A1 (ko) 2019-02-07

Family

ID=65233873

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/008236 WO2019027060A1 (ko) 2017-07-31 2017-07-31 가상 객체 증강 장치 및 방법

Country Status (2)

Country Link
KR (1) KR101981314B1 (ko)
WO (1) WO2019027060A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140102831A (ko) * 2013-02-15 2014-08-25 브이앤아이 주식회사 모바일 기반의 부가정보를 이용한 위치 보정 방법
KR20150001580A (ko) * 2013-06-25 2015-01-06 한양대학교 산학협력단 실제 객체를 증강하는 방법, 장치 및 컴퓨터 프로그램 제품
KR20150075532A (ko) * 2013-12-26 2015-07-06 한국전자통신연구원 증강 현실 제공 장치 및 방법
KR20160045098A (ko) * 2013-08-19 2016-04-26 노키아 테크놀로지스 오와이 객체 검출 및 세그먼트화를 위한 방법, 장치 및 컴퓨터 프로그램 제품
KR20170053198A (ko) * 2015-11-05 2017-05-16 리치앤타임(주) 뎁스 이미지를 이용한 마커리스 증강현실 데이터처리 디바이스 및 뎁스 이미지를 이용한 증강현실 데이터처리방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101627169B1 (ko) * 2013-09-27 2016-06-07 한국과학기술연구원 증강현실 컨텐츠 저작 및 제공 시스템
KR20170005373A (ko) 2016-12-29 2017-01-12 주식회사 비즈모델라인 맞춤형 증강현실 제공 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140102831A (ko) * 2013-02-15 2014-08-25 브이앤아이 주식회사 모바일 기반의 부가정보를 이용한 위치 보정 방법
KR20150001580A (ko) * 2013-06-25 2015-01-06 한양대학교 산학협력단 실제 객체를 증강하는 방법, 장치 및 컴퓨터 프로그램 제품
KR20160045098A (ko) * 2013-08-19 2016-04-26 노키아 테크놀로지스 오와이 객체 검출 및 세그먼트화를 위한 방법, 장치 및 컴퓨터 프로그램 제품
KR20150075532A (ko) * 2013-12-26 2015-07-06 한국전자통신연구원 증강 현실 제공 장치 및 방법
KR20170053198A (ko) * 2015-11-05 2017-05-16 리치앤타임(주) 뎁스 이미지를 이용한 마커리스 증강현실 데이터처리 디바이스 및 뎁스 이미지를 이용한 증강현실 데이터처리방법

Also Published As

Publication number Publication date
KR101981314B1 (ko) 2019-05-22
KR20190012966A (ko) 2019-02-11

Similar Documents

Publication Publication Date Title
WO2021187793A1 (ko) 카메라와 레이더 센서 융합 기반 3차원 객체 검출을 위한 전자 장치 및 그의 동작 방법
WO2012134069A2 (ko) 모바일 센서를 이용한 증강 현실 콘텐츠 추적 장치 및 방법
WO2022050473A1 (ko) 카메라 포즈 추정 장치 및 방법
WO2016003191A1 (ko) Ocr를 기반으로 지도 이미지를 인식하는 시스템과 방법, 그리고 기록 매체 및 파일 배포 시스템
CN110095752B (zh) 定位方法、装置、设备和介质
CN109194436A (zh) 传感器时间戳同步测试方法、装置、设备、介质及车辆
WO2016024797A1 (ko) 트랙킹 시스템 및 이를 이용한 트랙킹 방법
WO2015014018A1 (zh) 移动终端基于图像识别技术的室内定位与导航方法
WO2014073841A1 (ko) 영상기반 실내 위치 검출방법 및 이를 이용한 휴대용 단말기
WO2015174729A1 (ko) 공간 정보를 제공하기 위한 증강 현실 제공 방법과 시스템, 그리고 기록 매체 및 파일 배포 시스템
WO2019139243A1 (ko) 자율주행을 위한 고정밀 지도의 업데이트 장치 및 방법
WO2020075954A1 (ko) 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법
WO2021075772A1 (ko) 복수 영역 검출을 이용한 객체 탐지 방법 및 그 장치
WO2015122658A1 (ko) 비전 센서 데이터베이스를 이용한 거리 측정 방법
WO2011078596A2 (ko) 상황에 따라 적응적으로 이미지 매칭을 수행하기 위한 방법, 시스템, 및 컴퓨터 판독 가능한 기록 매체
WO2015199479A1 (ko) 이동체의 자세 인식 장치 및 위치기반 부가 서비스 제공 시스템
US9286689B2 (en) Method and device for detecting the gait of a pedestrian for a portable terminal
WO2019132504A1 (ko) 목적지 안내 장치 및 방법
WO2020067751A1 (ko) 이종 센서 간의 데이터 융합 장치 및 방법
KR20210081576A (ko) 실내 측위를 제공하는 전자 장치 및 그 방법
WO2011083929A2 (ko) 뷰잉 프러스텀을 이용하여 객체에 대한 정보를 제공하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
WO2021241847A1 (ko) 시각 특징 맵 생성 방법 및 시스템
WO2019027060A1 (ko) 가상 객체 증강 장치 및 방법
WO2021221334A1 (ko) Gps정보 및 라이다 신호를 기초로 형성되는 컬러 맵 생성 장치 및 그 제어방법
WO2011034306A2 (ko) 파노라마 이미지 사이의 중복을 제거하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17920453

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17920453

Country of ref document: EP

Kind code of ref document: A1