KR20130007142A - 이동 단말에서의 증강현실 기반 정보 제공 방법 및 기록 매체 - Google Patents

이동 단말에서의 증강현실 기반 정보 제공 방법 및 기록 매체 Download PDF

Info

Publication number
KR20130007142A
KR20130007142A KR1020110063906A KR20110063906A KR20130007142A KR 20130007142 A KR20130007142 A KR 20130007142A KR 1020110063906 A KR1020110063906 A KR 1020110063906A KR 20110063906 A KR20110063906 A KR 20110063906A KR 20130007142 A KR20130007142 A KR 20130007142A
Authority
KR
South Korea
Prior art keywords
view
augmented reality
mobile terminal
information
virtual
Prior art date
Application number
KR1020110063906A
Other languages
English (en)
Other versions
KR101280210B1 (ko
Inventor
김현아
Original Assignee
김현아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김현아 filed Critical 김현아
Priority to KR1020110063906A priority Critical patent/KR101280210B1/ko
Publication of KR20130007142A publication Critical patent/KR20130007142A/ko
Application granted granted Critical
Publication of KR101280210B1 publication Critical patent/KR101280210B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/03Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Abstract

본 발명의 실시예는 이동 단말의 카메라를 통한 실사 뷰(Live View)와 그 실사 뷰에 대응하는 3차원 가상 뷰(Virtual View) 간의 정합을 이용하여 지상은 물론 지하 시설물에 대한 각종 정보를 증강현실 정보로 이동 단말의 사용자에게 제공하기 위한, 이동 단말에서의 증강현실 기반 정보 제공 방법에 관한 것으로, (a) 실제 카메라를 실행하여 그 실제 카메라를 통한 실사 뷰를 획득하는 단계; (b) 상기 실제 카메라에 대응하는 가상 카메라를 실행하여 상기 실사 뷰에 대응하는 3차원 가상 뷰를 생성하는 단계; (c) 상기 실제 카메라의 위치 및 방향성정보 등을 포함하는 실사 뷰 관련 정보를 기준으로, 상기 실사 뷰에 x, y, z 축의 벡터 뷰 값을 갖는 3차원 격자 큐브로 이루어진 상기 3차원 가상 뷰를 정합하여 합성하는 단계; (d) 상기 가상 카메라의 현재 위치에 대응하는 좌표값을 기준으로 상기 3차원 가상 뷰의 상기 벡터 뷰 값을 실세계의 3차원 좌표값과 매칭하는 단계; 및 (e) 상기 실세계의 3차원 좌표값에 대응하는 증강현실 정보를 상기 합성 뷰 상의 해당 위치에 표시하는 단계를 포함할 수 있다.

Description

이동 단말에서의 증강현실 기반 정보 제공 방법 및 기록 매체{Method and Recording Medium for providing Information based on Augmented Reality in Mobile Terminal}
본 발명은 증강현실을 기반으로 각종 정보를 제공하기 위한 기술에 관한 것으로, 보다 상세하게는 이동 단말의 카메라를 통한 실사 뷰(Live View)와 그 실사 뷰에 대응하는 3차원 가상 뷰(Virtual View) 간의 정합을 이용하여 지상은 물론 지하 시설물에 대한 각종 정보를 증강현실 정보로 이동 단말의 사용자에게 제공하기 위한, 이동 단말에서의 증강현실 기반 정보 제공 방법 및 기록 매체에 관한 것이다.
일반적으로, 기존의 지하시설물의 위치파악 방식은 종이도면을 이용한 방법, GIS를 이용한 방법, 자석이나 RFID를 이용한 마커탐지식방법이 있으나, 종이도면의 경우 휴대의 불편함과 현장에서 확인하는데 어려운 문제점이 있고, GIS를 이용한 방식의 경우 종이도면과 마찬가지로 현장확인의 문제점이 있으며, 마커탐지식의 경우 모든 지하시설물에 마커를 부착해야하는 초기 도입과 시설투자의 어려움이 있다.
또한, 현재 상수도관, 하수도관, 가스관 등의 지하시설물의 위치는 정확한 위치 파악이 중요함에도 불구하고, 공사업무 수행자들의 경험과 숙련도에 따라 수도관 파열, 가스 폭발 사고와 같은 크고 작은 사고로 이어질 수 있는 가능성과 불편함이 지속 되고 있다.
이에 따라, 해당 기술 분야에 있어서는, 최근 출시되고 있는 모바일 단말(또는 이동 단말이라 칭함)의 일종인 스마트폰에 탑재된 GPS 및 가속도 센서, 방향 센서 등 다양한 센서와 카메라를 이용하여 지하 시설물을 관리 또는 공사하는 현장 업무자에게 보다 현실적인 현장의 지하 시설물 관리 정보를 제공하여 사고방지는 물론 업무의 편의성 및 효율성을 제고하도록 하기 위한 기술 개발이 요구되고 있다.
본 발명은 상기와 같은 요구에 따라 종래의 문제점을 해결하기 위한 것으로, 그 목적은 이동 단말의 카메라를 통한 실사 뷰(Live View)와 그 실사 뷰에 대응하는 3차원 가상 뷰(Virtual View) 간의 정합을 이용하여 지상은 물론 지하 시설물에 대한 각종 정보를 증강현실 정보로 이동 단말의 사용자에게 제공하는, 이동 단말에서의 증강현실 기반 정보 제공 방법 및 기록 매체를 제공하는 것이다.
상기와 같은 목적을 달성하기 위해 본 발명의 일 측면에 따른 이동 단말에서의 증강현실 기반 정보 제공 방법은, 적어도 실제 카메라와 3차원 가상 카메라를 포함하는 이동 단말에서의 증강현실 기반 정보 제공 방법으로서, (a) 상기 실제 카메라를 실행하여 그 실제 카메라를 통한 실사 뷰를 획득하는 단계; (b) 상기 실제 카메라에 대응하는 상기 가상 카메라를 실행하여 상기 실사 뷰에 대응하는 3차원 가상 뷰를 생성하는 단계; (c) 상기 실제 카메라의 위치 및 방향성정보 등을 포함하는 실사 뷰 관련 정보를 기준으로, 상기 실사 뷰에 x, y, z 축의 벡터 뷰 값을 갖는 3차원 격자 큐브로 이루어진 상기 3차원 가상 뷰를 정합하여 합성하는 단계; (d) 상기 가상 카메라의 현재 위치에 대응하는 좌표값을 기준으로 상기 3차원 가상 뷰의 상기 벡터 뷰 값을 실세계의 3차원 좌표값과 매칭하는 단계; 및 (e) 상기 실세계의 3차원 좌표값에 대응하는 증강현실 정보를 상기 단계 (c)에서 합성된 합성 뷰 상의 해당 위치에 표시하는 단계를 포함할 수 있고, (f) 상기 실사 뷰, 상기 3차원 가상 뷰, 및 상기 증강현실 정보가 합성된 최종 뷰를 저장하는 단계를 더 포함할 수 있다.
상기 가상 카메라의 현재 위치에 대응하는 좌표값은 GPS 및 GIS 중 적어도 하나에 의한 상기 이동 단말의 위치 정보일 수 있고, 상기 증강현실 정보는 원격의 데이터베이스 또는 상기 이동 단말에 내장된 데이터베이스로부터 제공된 것일 수 있으며, 상기 3차원 가상 뷰로서의 상기 3차원 격자 큐브는 3차원 그래픽 라이브러리를 이용하여 생성할 수 있고, 이와 같은 3차원 격자 큐브는 히든(hidden)처리될 수 있다.
상기와 같은 목적을 달성하기 위해 본 발명의 다른 측면에 따르면, 전술한 이동 단말에서의 증강현실 기반 정보 제공 방법이 프로그램으로 기록된 컴퓨터로 읽을 수 있는 기록 매체가 제공될 수 있다.
이상 설명한 바와 같이 본 발명의 다양한 측면에 따르면, 이동 단말의 카메라를 통한 실사 뷰(Live View)와 그 실사 뷰에 매칭되는 3차원 가상 뷰(Virtual View) 간의 정합을 이용하여 지상은 물론 지하 시설물에 대한 각종 정보를 3차원적 증강현실 정보로 이동 단말의 사용자에게 제공할 수 있다. 따라서, 기존의 2차원적인 증강현실 정보와 비교하여 3차원적으로 증강현실 정보 특히, 지하 시설물의 위치, 형상 등에 대한 정보를 보다 정확하고 가시적으로 명확하게 제공할 수 있는 효과가 있다.
도 1은 본 발명의 실시예에 따른 증강현실 기반 정보 제공 시스템의 구성도,
도 2는 본 발명의 실시예에 따른 증강현실 기반 정보 제공을 위한 이동 단말의 블록 구성도,
도 3은 본 발명의 실시예에 따른 이동 단말에서의 증강현실 기반 정보 제공 방법의 흐름도,
도 4는 본 발명의 실시예에 따른 이동 단말의 실제 카메라 모듈로부터 획득된 실사 뷰의 예시도,
도 5는 본 발명의 실시예에 따른 이동 단말의 가상 카메라 모듈로부터 생성된 3차원 가상 뷰의 예시도,
도 6은 도 4의 실사 뷰와 도 5의 3차원 가상 뷰가 결합된 예시도,
도 7은 본 발명의 실시예에 따른 이동 단말에서의 증강현실 기반 정보 제공 방법에 의한 예시 화면의 일 예를 나타낸 도면,
도 8은 본 발명의 실시예에 따른 이동 단말에서의 증강현실 기반 정보 제공 방법에 의한 예시 화면의 다른 예를 나타낸 도면,
도 9는 본 발명의 실시예에 따른 이동 단말에서의 증강현실 기반 정보 제공 방법에 의한 예시 화면의 또 다른 예를 나타낸 도면,
도 10은 본 발명의 실시예에 따른 이동 단말에서의 증강현실 기반 정보 제공 방법에 의한 예시 화면의 또 다른 예를 나타낸 도면이다.
이하, 첨부도면을 참조하여 본 발명의 실시예에 대해 구체적으로 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하였다. 또한, 본 발명의 실시예에 대한 설명 시 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
도 1은 본 발명의 실시예에 따른 증강현실 기반 정보 제공 시스템의 구성도로, 동 도면에 도시된 바와 같이, 통신망(100)과, 그 통신망(100)을 통하여 일방 또는 쌍방 통신할 수 있도록 서로 연결된 이동 단말(200), 증강현실 정보서버(300), GPS(Global Positioning System), 및 GIS(Geographic Information System)를 포함할 수 있다.
본 실시예에 따른 이동 단말(200)은 적어도 카메라, GPS 모듈 및 이동통신 모뎀 등을 구비하고 증강현실 기능을 수행할 수 있는 단말로서, 일 예로 스마트 폰(smart phone)이나 태블릿 피시(tablet PC) 등으로 구성할 수 있다.
본 실시예에 따른 증강현실 정보서버(300)는 증강현실 정보를 저장 및 관리하는 데이터베이스를 구축하고서 이동 단말(200)과의 통신으로 해당 증강현실 정보를 이동 단말(200)에게 제공하기 위한 것이다.
본 실시예에 따른 GPS(400)는 이동 단말(200)과의 통신으로 해당 GPS 정보를 이동 단말(200)에게 제공하기 위한 것이다.
본 실시예에 따른 GIS(500)는 이동 단말(200)과의 통신으로 해당 GIS 정보를 이동 단말(200)에게 제공하기 위한 것이다.
도 2는 본 발명의 실시예에 따른 증강현실 기반 정보 제공을 위한 이동 단말의 블록 구성도로, 도 1의 이동 단말(200)의 세부 구성도이며, 동 도면에 도시된 바와 같이, GPS 모듈(210), GIS 모듈(220), 실제 카메라 모듈(230), 가상 카메라 모듈(240), 데이터베이스(250), 및 증강현실 앱(APP)(260)을 포함할 수 있다.
본 실시예에 따른 GPS 모듈(210)은 통신망(100)을 통한 GPS(400)와의 통신으로 해당 GPS 정보를 GPS(400)로부터 수신하기 위한 것이고, IMU(Inertial Measurement Unit)와 같은 각종 센서 모듈을 포함할 수 있다.
본 실시예에 따른 GIS 모듈(220)은 통신망(100)을 통한 GIS(500)와의 통신으로 해당 GIS 정보를 GIS(500)로부터 제공받기 위한 것이다.
본 실시예에 따른 실제 카메라 모듈(230)은 실제 카메라의 렌즈를 통해 들어오는 실사 뷰(Live View)를 획득하여 화면상에 표시하기 위한 것이다.
본 실시예에 따른 가상 카메라 모듈(240)은 실제 카메라 모듈(230)에 대응하여 실행되는 어플리케이션 모듈로서, 실사 뷰에 대응하는 3차원 가상 뷰(3D Virtual View)를 생성하는 것이다. 본 실시예에서 3차원 가상 뷰는 3차원 그래픽 라이브러리를 이용하여 생성할 수 있고, 일 예로 가상 카메라의 위치를 기준으로 x, y, z 축의 벡터 뷰 값을 갖는 3차원 격자 큐브로 형성할 수 있다. 또한 본 실시예에서 생성된 3차원 가상 뷰로서의 3차원 격자 큐브는, 일 예로 숨김(hidden)처리하여 화면상에 표시되지 않도록 할 수 있고, 다른 예로 숨김처리하지 않고 화면상에 표시되도록 할 수 있다.
본 실시예에 따른 데이터베이스(250)는 실세계 좌표에 대응하는 증강현실 정보를 저장, 관리 및 제공하기 위한 데이터베이스이다. 본 실시예에서 증강현실 정보는 2D 또는 3D 도형, 숫자, 이미지, 텍스트 등의 형태로 구성할 수 있다.
본 실시예에 따른 증강현실 앱(APP)(260)은 전술한 모든 구성(210~250)을 총괄 제어하여 본 발명의 실시예에 따른 이동 단말에서의 증강현실 기반 정보 제공 방법을 구현하기 위한 어플리케이션의 구동부를 나타낸다.
도 3은 본 발명의 실시예에 따른 이동 단말에서의 증강현실 기반 정보 제공 방법의 흐름도로, 일 예로 도 2의 이동 단말(200)의 증강현실 앱(260)에 적용되므로 그 이동 단말(200)의 동작과 병행하여 설명한다.
먼저, 실제 카메라 모듈(230)의 실제 카메라 구동을 실행하여 그 실제 카메라의 렌즈를 통해 들어오는 도 4와 같은 실사 뷰를 획득하여 화면상에 표시하고(S301), 그 카메라 모듈(230)의 실제 카메라에 대응하는 가상 카메라 모듈(240)의 가상 카메라를 실행하여 해당 실사 뷰에 대응하는 도 5와 같은 3차원 가상 뷰를 생성한다(S303). 도 4는 본 발명의 실시예에 따른 이동 단말의 실제 카메라 모듈로부터 획득된 실사 뷰의 예시도이고, 도 5는 본 발명의 실시예에 따른 이동 단말의 가상 카메라 모듈로부터 생성된 3차원 가상 뷰의 예시이다.
단계 S303에서 3차원 가상 뷰는 3차원 그래픽 라이브러리를 이용하여 생성할 수 있고, 일 예로 도 5에 도시된 바와 같이 가상 카메라의 위치(501)를 기준(0,0,0)으로 x, y, z 축의 벡터 뷰 값을 갖는 3차원 격자 큐브로 형성할 수 있다. 또한, 단계 S303에서 생성된 도 5의 3차원 가상 뷰로서의 3차원 격자 큐브는, 일 예로 히든(hidden)처리하여 화면상에 표시되지 않도록 할 수 있고, 다른 예로 히든처리하지 않고 화면상에 표시되도록 할 수 있다.
이어, 단계 S301에서 획득된 도 4의 실사 뷰와 단계 S303에서 생성된 3차원 가상 뷰를 정합하여 합성하는데,
예를 들어, 실제 카메라 모듈(230)의 실제 카메라의 적어도 위치 및 방향성 정보 등을 포함하는 실사 뷰 관련 정보를 생성하고, 그 생성된 실사 뷰 관련 정보와 도 5의 3차원 가상 뷰의 x, y, z 축의 벡터 뷰 값을 서로 매칭하여, 도 4의 실사 뷰와 도 5의 3차원 가상 뷰를 정합하고 도 6과 같이 실사 뷰와 3차원 가상 뷰가 합성된 합성 뷰를 생성한다(S305). 도 6은 도 4의 실사 뷰와 도 5의 3차원 가상 뷰가 결합된 예시도이다.
단계 S305에서 실사 뷰 관련 정보는 해당 카메라와 피사체 간의 거리 및 해당 피사체의 높이 등의 정보를 포함할 수 있으며, 이와 같은 정보에 대한 생성은 카메라 영상 분야에서 잘 알려진 기술이므로 상세한 설명은 생략한다.
이어, 단계 S303에서 생성된 3차원 가상 뷰의 x, y, z 축의 벡터 뷰 값을 실세계 좌표값에 매칭한다(S307). 예를 들어,단계 S307은 이동 단말(200)의 현재 실제 위치를 GPS(400) 및 GIS(500)로부터 제공되는 GPS 정보 및 GIS 정보 중 적어도 하나에 따라 획득하고, 그 획득된 위치 정보의 좌표값을 도 5의 3차원 가상 뷰의 가상 카메라의 위치(501)에 대한 기준 좌표값(0,0,0)에 대입한 후, 그 대입비를 기준으로 상대적인 x, y, z 축의 벡터 뷰 값을 실세계 좌표값으로 환산할 수 있다.
이어, 단계 S307에서의 3차원 가상 뷰의 실세계 좌표값에 대응하는 증강현실 정보를 증강현실 정보서버(300)에 구축된 데이터베이스 또는 이동 단말(200)내의 데이터베이스(250)로부터 획득하여 단계 S305에서 합성된 합성 뷰(실사 뷰 + 가상 뷰) 상에 표시한다(S309). 단계 S309에서의 증강현실 정보는 2D 또는 3D 도형, 숫자, 이미지, 텍스트 등의 형태로 구성할 수 있다.
마지막으로, 단계 S309에서 최종적으로 실사 뷰와 3차원 가상 뷰와 증강현실정보가 모두 합성된 최종 뷰(즉, 실사 뷰 + 3차원 가상 뷰 + 증강현실 정보)를 저장하고 종료한다.
도 7은 본 발명의 실시예에 따른 이동 단말에서의 증강현실 기반 정보 제공 방법에 의한 예시 화면의 일 예를 나타낸 도면으로, 동 도면에 도시된 바와 같이, 피사체로서 아파트 건물과 도로 등을 포함하는 실사 뷰와, 그 실사 뷰내의 피사체로서의 아파트 건물 상에 텍스트로 표시된 '101동', '102동'의 증강현실 정보와, 그 실사 뷰내의 다른 피사체로서의 도로의 양측에 그래픽으로 표시된 하수관로, 상수관로, 상수맨홀, 하수맨홀 등의 그래픽 증강현실 정보와, 및 그 그래픽 증강현실 정보를 설명하는 텍스트 증강현실 정보 등을 이동 단말(200)의 화면에 표시할 수 있다. 도 7에서 3차원 가상 뷰는 히든처리된 것이다.
도 7에서 하수관로, 상수관로, 상수맨홀, 하수맨홀 등의 지하시설물에 대한 그래픽 증강현실 정보가 도로 상에 표시된 것을 일 예로 나타내었지만, 다른 예로 본 발명에 따르면 지하시설물은 3차원 가상 뷰의 x, y, z 축의 벡터 뷰 값이 마이너스 값을 가질 수 있으므로, 이 경우 해당 지하시설물에 대한 그래픽 증강현실 정보를 도로 밑의 해당 위치에 입체적으로 나타낼 수 있을 것이다.
도 8은 본 발명의 실시예에 따른 이동 단말에서의 증강현실 기반 정보 제공 방법에 의한 예시 화면의 다른 예를 나타낸 도면으로, 동 도면에 도시된 바와 같이, 도 7의 화면에 3차원 가상 뷰의 일부 격자가 더 표시될 수 있다.
도 9는 본 발명의 실시예에 따른 이동 단말에서의 증강현실 기반 정보 제공 방법에 의한 예시 화면의 또 다른 예를 나타낸 도면으로, 3차원 건물 보기의 일 예를 도시한 것이다.
도 10은 본 발명의 실시예에 따른 이동 단말에서의 증강현실 기반 정보 제공 방법에 의한 예시 화면의 또 다른 예를 나타낸 도면으로, 건물 정보 및 도로 명 등을 증강현실 정보로 표시한 일 예이다.
이상 전술한 바와 같이 본 발명의 실시예에 따른 이동 단말에서의 증강현실 기반 정보 제공 방법은 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터 판독가능 기록 매체로 구현될 수 있다. 상기 컴퓨터 판독 가능 기록 매체는 프로그램 명령, 로컬 데이터 파일, 로컬 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기록 매체는 본 발명의 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크와 같은 자기-광 매체, 및 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 상기 기록 매체는 프로그램 명령, 로컬 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100: 통신망
200: 이동 단말
210: GPS 모듈
220: GIS 모듈
230: 실제 카메라 모듈
240: 가상 카메라 모듈
250: 데이터베이스
260: 증강현실 앱
300: 증강현실 정보서버
400: GPS
500: GIS

Claims (6)

  1. 실제 카메라와 3차원 가상 카메라를 포함하는 이동 단말에서의 증강현실 기반 정보 제공 방법으로서,
    (a) 상기 실제 카메라를 실행하여 그 실제 카메라를 통한 실사 뷰를 획득하는 단계;
    (b) 상기 실제 카메라에 대응하는 상기 가상 카메라를 실행하여 상기 실사 뷰에 대응하는 3차원 가상 뷰를 생성하는 단계;
    (c) 상기 실제 카메라의 위치 및 방향성정보 등을 포함하는 실사 뷰 관련 정보를 기준으로, 상기 실사 뷰에 x, y, z 축의 벡터 뷰 값을 갖는 3차원 격자 큐브로 이루어진 상기 3차원 가상 뷰를 정합하여 합성하는 단계;
    (d) 상기 가상 카메라의 현재 위치를 기준으로 상기 3차원 가상 뷰의 상기 벡터 뷰 값을 실세계의 3차원 좌표값과 매칭하는 단계; 및
    (e) 상기 실세계의 3차원 좌표값에 대응하는 증강현실 정보를 상기 실사 뷰와 상기 3차원 가상 뷰가 정합되어 생성된 합성 뷰 상의 해당 위치에 표시하는 단계를 포함하는 이동 단말에서의 증강현실 기반 정보 제공 방법.
  2. 제1항에 있어서,
    (f) 상기 실사 뷰, 상기 3차원 가상 뷰, 및 상기 증강현실 정보가 합성된 최종 뷰를 저장하는 단계를 더 포함하는 것을 특징으로 하는 이동 단말에서의 증강현실 기반 정보 제공 방법.
  3. 제1항에 있어서,
    상기 가상 카메라의 현재 위치는 GPS 및 GIS 중 적어도 하나 이상으로부터 제공된 상기 이동 단말의 위치 정보인 것을 특징으로 하는 이동 단말에서의 증강현실 기반 정보 제공 방법.
  4. 제1항에 있어서,
    상기 증강현실 정보는 원격의 데이터베이스 또는 상기 이동 단말에 내장된 데이터베이스로부터 제공된 것을 특징으로 하는 이동 단말에서의 증강현실 기반 정보 제공 방법.
  5. 제1항에 있어서,
    상기 3차원 가상 뷰로서의 상기 3차원 격자 큐브는 3차원 그래픽 라이브러리를 이용하여 생성하고, 숨김(hidden)처리된 것을 특징으로 하는 이동 단말에서의 증강현실 기반 정보 제공 방법.
  6. 제1항 내지 제5항 중 어느 한 항의 상기 이동 단말에서의 증강현실 기반 정보 제공 방법이 프로그램으로 기록된 컴퓨터로 읽을 수 있는 기록 매체.
KR1020110063906A 2011-06-29 2011-06-29 이동 단말에서의 증강현실 기반 정보 제공 방법 KR101280210B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110063906A KR101280210B1 (ko) 2011-06-29 2011-06-29 이동 단말에서의 증강현실 기반 정보 제공 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110063906A KR101280210B1 (ko) 2011-06-29 2011-06-29 이동 단말에서의 증강현실 기반 정보 제공 방법

Publications (2)

Publication Number Publication Date
KR20130007142A true KR20130007142A (ko) 2013-01-18
KR101280210B1 KR101280210B1 (ko) 2013-06-28

Family

ID=47837773

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110063906A KR101280210B1 (ko) 2011-06-29 2011-06-29 이동 단말에서의 증강현실 기반 정보 제공 방법

Country Status (1)

Country Link
KR (1) KR101280210B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160073025A (ko) 2014-12-16 2016-06-24 이주성 실측을 통한 증강현실기반의 객체 생성장치 및 그 방법
CN105929949A (zh) * 2016-04-15 2016-09-07 北京小鸟看看科技有限公司 一种虚拟现实系统开机效果呈现方法和装置
CN109839105A (zh) * 2017-11-29 2019-06-04 深圳市掌网科技股份有限公司 一种基于增强现实的位置导航方法及系统
KR20220058169A (ko) * 2020-10-30 2022-05-09 주식회사 엘지유플러스 Ar 컨텐츠의 렌더링을 위한 클라우드 및 그 동작 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102530278B1 (ko) 2018-10-18 2023-05-10 삼성디스플레이 주식회사 표시 유닛을 구비한 전자 장치 및 ar 영상 표시 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100962557B1 (ko) 2009-02-05 2010-06-11 한국과학기술원 증강현실 구현 장치 및 증강현실 구현 방법
KR101312576B1 (ko) * 2009-12-18 2013-09-30 한국전자통신연구원 시설물 정보 제공 장치 및 방법
KR100997084B1 (ko) 2010-06-22 2010-11-29 (주)올포랜드 지하시설물의 실시간 정보제공 방법 및 시스템, 이를 위한 서버 및 그 정보제공방법, 기록매체

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160073025A (ko) 2014-12-16 2016-06-24 이주성 실측을 통한 증강현실기반의 객체 생성장치 및 그 방법
CN105929949A (zh) * 2016-04-15 2016-09-07 北京小鸟看看科技有限公司 一种虚拟现实系统开机效果呈现方法和装置
CN109839105A (zh) * 2017-11-29 2019-06-04 深圳市掌网科技股份有限公司 一种基于增强现实的位置导航方法及系统
KR20220058169A (ko) * 2020-10-30 2022-05-09 주식회사 엘지유플러스 Ar 컨텐츠의 렌더링을 위한 클라우드 및 그 동작 방법

Also Published As

Publication number Publication date
KR101280210B1 (ko) 2013-06-28

Similar Documents

Publication Publication Date Title
KR101280170B1 (ko) 이동 단말에서의 증강현실 기반 정보 처리 방법
US9619944B2 (en) Coordinate geometry augmented reality process for internal elements concealed behind an external element
US20190272676A1 (en) Local positioning system for augmented reality applications
JP5682060B2 (ja) 画像合成装置、画像合成プログラム、及び画像合成システム
KR102032974B1 (ko) 모바일 단말, 지하 시설물 관리서버 및 이를 포함하는 3d 공간정보에 기반한 지하 시설물 관리 시스템
KR100997084B1 (ko) 지하시설물의 실시간 정보제공 방법 및 시스템, 이를 위한 서버 및 그 정보제공방법, 기록매체
KR102097416B1 (ko) 표고차를 고려한 지하관로의 관리를 위한 증강 현실 표현 방법 및 이를 기록한 기록매체
KR101305059B1 (ko) 수치지도의 실시간 편집 방법 및 시스템, 이를 위한 서버 및 기록매체
CN103578141A (zh) 基于三维地图系统的增强现实实现方法及装置
KR101659780B1 (ko) 3차원 지리 공간 시스템에서 2차원 도면 데이터를 지구 구면 공간에 표현하는 방법
KR101280210B1 (ko) 이동 단말에서의 증강현실 기반 정보 제공 방법
JP5883818B2 (ja) 3次元地図表示システム
Gomez-Jauregui et al. Quantitative evaluation of overlaying discrepancies in mobile augmented reality applications for AEC/FM
CN102647512A (zh) 一种空间信息全方位的展示方法
US20220138467A1 (en) Augmented reality utility locating and asset management system
JP2005283221A (ja) 測量データ処理システム、電子地図を格納する記憶媒体及び電子地図表示装置
Fukuda et al. Improvement of registration accuracy of a handheld augmented reality system for urban landscape simulation
KR20210022343A (ko) 지하시설물 관련 혼합현실 제공방법 및 시스템
Muthalif et al. A review of augmented reality visualization methods for subsurface utilities
CN108957507A (zh) 基于增强现实技术的燃气管道泄漏处置方法
JP5862865B2 (ja) 合成画像表示装置及び合成画像表示プログラム
CN113269892B (zh) 提供增强视图的方法、移动增强现实查看装置
Yokoi et al. Way-finding assistance system for underground facilities using augmented reality
CN108954016A (zh) 基于增强现实技术的燃气管道泄漏处置系统
KR20120048888A (ko) 3차원 광고 시스템 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee