KR101180459B1 - 스마트폰을 이용한 증강현실 구현 시스템 및 증강현실 구현 방법 - Google Patents

스마트폰을 이용한 증강현실 구현 시스템 및 증강현실 구현 방법 Download PDF

Info

Publication number
KR101180459B1
KR101180459B1 KR1020100099373A KR20100099373A KR101180459B1 KR 101180459 B1 KR101180459 B1 KR 101180459B1 KR 1020100099373 A KR1020100099373 A KR 1020100099373A KR 20100099373 A KR20100099373 A KR 20100099373A KR 101180459 B1 KR101180459 B1 KR 101180459B1
Authority
KR
South Korea
Prior art keywords
augmented reality
view
image
smartphone
touch screen
Prior art date
Application number
KR1020100099373A
Other languages
English (en)
Other versions
KR20120037735A (ko
Inventor
강지영
Original Assignee
강지영
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 강지영 filed Critical 강지영
Priority to KR1020100099373A priority Critical patent/KR101180459B1/ko
Publication of KR20120037735A publication Critical patent/KR20120037735A/ko
Application granted granted Critical
Publication of KR101180459B1 publication Critical patent/KR101180459B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2242/00Special services or facilities
    • H04M2242/14Special services or facilities with services dependent on location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/10Details of telephonic subscriber devices including a GPS signal receiver

Abstract

본 발명은 스마트폰을 이용한 증강현실 구현 시스템 및 구현 방법에 관한 것으로서, 터치스크린, 디지털카메라, GPS안테나, 및 증강현실애플리케이션이 설치되고 무선 인터넷 기능이 구비된 운영시스템을 탑재한 스마트폰(100); 및, 상기 스마트폰(100)으로부터 전송된 위치좌표에 따라 해당 장소의 영상을 검색하여 무선 인터넷을 통하여 상기 스마트폰(100)에 제공하는 증강현실 영상 제공 웹사이트(200);를 포함하여 구성되는 것을 특징으로 한다.

Description

스마트폰을 이용한 증강현실 구현 시스템 및 증강현실 구현 방법{Augmented Reality System and Method using Smart Phone}
본 발명은 스마트폰의 터치스크린 화면 상에 스마트폰의 카메라뷰에 해당하는 과겅 영상을 제공하는 증강현실 구현 시스템에 관한 것으로서, 증강현실애플리케이션이 실행되는 과정에서 스마트폰에 장착된 디지털카메라에 포착되는 영상과 현재의 위치좌표를 무선 인터넷을 통하여 웹사이트로 전송하면 해당 웹사이트는 전송된 카메라뷰와 위치좌표에 해당하는 공간의 과거 영상을 찾아 무선 인터넷을 통하여 스마트폰으로 전송하는 것을 특징으로 한다.
증강현실(Augmented Reality)이란 사용자가 눈으로 보는 현실세계와 부가정보를 갖는 가상세계를 합쳐 새로운 환경을 생성한다. 현실환경과 가상환경을 융합하는 증강현실 시스템은 1990년대 후반부터 미국?일본을 중심으로 연구?개발이 진행되고 있다. 현실세계를 가상세계로 보완해주는 개념인 증강현실은 컴퓨터 그래픽으로 만들어진 가상환경을 사용하지만 주역은 현실환경이다. 컴퓨터 그래픽은 현실환경에 필요한 정보를 추가 제공하는 역할을 한다. 사용자가 보고 있는 실사 영상에 3차원 가상영상을 정합함(register)으로써 현실환경과 가상환경과의 구분이 모호해지도록 한다는 뜻이다. 가상현실기술은 가상환경에 사용자를 몰입하게 하여 실제환경을 볼 수 없다. 하지만 실제환경과 가상의 객체가 혼합된 증강현실기술은 사용자가 실제환경을 볼 수 있게 하여 보다 나은 현실감을 제공한다.
본 발명은 이러한 증강현실기술을 구현하는 애플리케이션(일종의 응용프로그램)이 탑재된 스마트폰을 이용하여 현재의 카메라뷰에 대응하는 과거 영상을 오버랩시켜 제공하는 시스템에 관한 것이다.
본 발명은 증강현실애플리케이션 실행이 가능한 운영시스템(OS)을 탑재한 스마트폰을 이용하여 스마트폰 사용자의 현재 위치에 대한 맵뷰(map view), 카메라뷰(camera view), 증강현실 영상(augmented reality view)을 제공하는 것을 그 목적으로 한다.
상기한 목적을 달성하기 위하여 창작된 본 발명의 기술적 구성은 다음과 같다.
본 발명은 스마트폰을 이용한 증강현실 구현 시스템 및 방법에 관한 것으로서, 터치스크린, 디지털카메라, GPS안테나, 및 증강현실애플리케이션이 설치되고 무선 인터넷 기능이 구비된 운영시스템을 탑재한 스마트폰(100); 및, 상기 스마트폰(100)으로부터 전송된 위치좌표에 따라 해당 장소의 영상을 검색하여 무선 인터넷을 통하여 상기 스마트폰(100)에 제공하는 증강현실 영상 제공 웹사이트(200);로 구성되는 것을 특징으로 한다.
본 발명의 구성에 따르면, 스마트폰을 이용하여 사용자의 현 위치 또는 사용자가 선택하는 지점에 관련된 영상을 스마트폰의 터치스크린을 통하여 제공할 수 있다.
즉, 역사적이나 문화적으로 유명한 고적지나 관광지 등에 대한 다양한 영상(현재의 모습과는 다른 과거의 모습)을 획득하여 저장하고 있는 웹사이트에서 스마트폰 사용자의 요청에 따라 해당 지점의 영상을 제공할 수 있으며, 터치스크린을 통하여 제공되는 AR뷰(augmented reality view) 영상을 마스킹 레이어를 이용한 마스킹 기법으로 희미하게 처리하거나 선명하게 처리하여 사용자의 감성을 자극할 수 있다.
도1은 본 발명의 주요 구성을 도시하는 구성도이다.
도2는 터치스크린 상에 표시되는 맵뷰의 실시예이다.
도3은 터치스크린 상에 표시되는 카메라뷰의 실시예이다.
도4는 터치스크린 상에 표시되는 AR뷰(augmented reality view)로서, (a)회색으로 채워진 마스킹 레이어에 의하여 화면이 뿌옇게 처리된 경우, (b)마스킹 레이어가 흰색으로 채워지면서 부분적으로 화면이 선명하게 처리된 경우를 각각 도시하고 있다.
이하에서는 본 발명의 구체적 실시예를 첨부도면을 참조하여 보다 상세히 설명한다.
본 발명은 도1에 도시된 바와 같이 스마트폰을 이용한 증강현실 구현 시스템에 관한 것이다.
본 발명에 사용되는 스마트폰(100)은 단순한 무선통화 수단만으로 활용되는 것이 아니라 터치스크린, 디지털카메라, 및 GPS안테나가 구비되어 있고, 증강현실을 구현할 수 있는 응용프로그램인 증강현실애플리케이션이 설치되고 무선 인터넷 기능이 구비된 운영시스템을 탑재하고 있다.
증강현실 영상 제공 웹사이트(200)는 스마트폰(100)으로부터 전송된 위치좌표에 따라 해당 장소의 영상을 검색하여 무선 인터넷을 통하여 스마트폰(100)에 제공하는 역할을 하는데, 이러한 증강현실 영상 제공 웹사이트는 증강현실애플리케이션과 연계된 사이트로서 예를 들어 github.com과 같은 사이트가 여기에 해당한다. 이러한 증강현실 영상 제공 웹사이트(200)는 미리 수집된 영상을 위치좌표와 함께 저장해 두고 스마트폰(100)으로부터 위치좌표가 수신되면 이로부터 일정 영역 내의 위치좌표에 해당하는 영상을 찾아서 스마트폰(100)으로 전송하게 된다.
맵뷰 제공 웹사이트(300)는 스마트폰(100) 사용자의 요청에 따라 맵뷰(map view)를 무선 인터넷을 통하여 스마트폰(100)에 제공하는 역할을 하는데, 구글과 같은 사이트가 여기에 해당될 수 있다. 스마트폰(100)에 제공된 맵뷰는 도2에 도시된 바와 같이 터치스크린을 통하여 표시된다.
이러한 맵뷰 제공 웹사이트(300)는 스마트폰(100)으로부터 위치좌표와 함께 맵뷰 제공 요청이 수신되면 해당 지점의 맵뷰를 전송하게 된다. 여기서 위치좌표는 스마트폰(100)의 위치좌표가 될 수도 있고 사용자가 임의로 지정하여 입력한 위치좌표가 될 수도 있다.
증강현실애플리케이션이 실행되는 상태에서 스마트폰(100)의 터치스크린 상에 표시되는 맵뷰의 특정 지점을 선택하면 선택된 지점의 위치좌표가 증강현실 영상 제공 웹사이트(200)로 전송된다.
증강현실 영상 제공 웹사이트(200)는 전송된 위치좌표에 대응하는 장소의 영상(위치좌표로부터 일정 영역 이내에 위치좌표에 해당하는 영상)을 스마트폰(100)으로 전송하고, 스마트폰(100)의 터치스크린 상에 표시되는 맵뷰 위에는 증강현실 영상 제공 웹사이트(200)에서 전송된 AR뷰(augmented reality view) 영상을 선택하여 볼 수 있는 아이콘이 표시(오버랩)된다.
사용자는 이러한 아이콘을 터치(선택)하여 해당 영상을 감상하게 되는 것이다.
또한 증강현실애플리케이션이 실행되는 상태에서 스마트폰(100)의 카메라뷰(camera view) 기능이 선택되면 스마트폰(100)에 장착된 디지털카메라에 포착되는 영상이 도3에 도시된 바와 같이 스마트폰(100) 터치스크린 상에 카메라뷰로 표시되는데, 이러한 카메라뷰는 스마트폰(100)의 위치좌표와 함께 증강현실 영상 제공 웹사이트(200)로 전송된다. 일반적으로 스마트폰에는 카메라뷰 기능을 선택하는 아이콘이나 별도의 버튼이 구비되어 있다.
증강현실 영상 제공 웹사이트(200)는 전송된 위치좌표와 카메라뷰에 대응하는 장소의 영상을 검색하여 스마트폰(100)으로 전송하게 되는데, 증강현실 영상 제공 웹사이트(200)는 전송된 위치좌표와 함께 카메라뷰의 영상을 고려하여 이에 대응하는 영상을 찾게 된다.
스마트폰(100)의 터치스크린 상에 표시되는 카메라뷰 위에는 증강현실 영상 제공 웹사이트(200)에서 전송된 AR뷰(augmented reality view) 영상을 선택하여 볼 수 있는 아이콘이 표시(오버랩)된다. 사용자는 이러한 아이콘을 터치(선택)하여 해당 영상을 감상하게 된다.
이와 같이 터치스크린 상에 표시된 아이콘을 선택하면 증강현실 영상 제공 웹사이트(200)에서 전송된 AR뷰(augmented reality view) 영상이 터치스크린 상에 표시되는데, 스마트폰(100)의 마이크를 통하여 일정 크기 이상의 소음이 입력될 경우 도4(a)에 도시된 것처럼 터치스크린을 통하여 제공되는 AR뷰(augmented reality view) 영상 위에 회색으로 채워진 마스킹 레이어(masking layer)를 마스킹하여 터치스크린을 통하여 표시되는 AR뷰 영상을 뿌옇게(희미하게) 처리하게 된다.
이렇게 뿌옇게 처리된 AR뷰 영상은 스마트폰(100)의 터치스크린을 손가락으로 누른 상태로 움직이면 손가락의 동선을 따라 마스킹 레이어를 흰색으로 채우면서 증강현실 영상 위에 마스킹하여 증강현실 영상을 부분적으로 선명하게 보여주게 된다.
이와 같은 마스킹 레이어의 처리는 스마트폰에 탑재된 운영시스템에 포함된 기능에 의하여 이루어지는데, 일반적인 이미지 처리 과정과 동일한 바 별도의 상세한 설명은 생략하도록 한다.
스마트폰을 이용한 증강현실 구현 시스템으로 증강현실을 구현하는 방법은 다음과 같은 단계로 이루어진다.
(1)카메라뷰 선택단계
스마트폰(100)의 카메라뷰(camera view)를 선택하여 스마트폰(100)에 장착된 디지털카메라에 포착되는 영상이 스마트폰(100) 터치스크린 상에 카메라뷰로 표시되도록 하는 단계이다.
(2)증강현실 요청단계
상기 카메라뷰 선택단계에서 표시된 카메라뷰와 함께 스마트폰(100)의 위치좌표를 무선 인터넷을 통하여 접속한 증강현실 영상 제공 웹사이트(200)로 전송하는 단계이다.
(3)증강현실 전송단계
증강현실 영상 제공 웹사이트(200)는 전송된 위치좌표와 카메라뷰에 대응하는 장소의 영상을 검색하여 스마트폰(100)으로 전송하는 단계이다.
(4)아이콘 표시단계
스마트폰(100)의 터치스크린 상에 표시되는 카메라뷰 위에 증강현실 영상 제공 웹사이트(200)에서 전송된 AR뷰(augmented reality view) 영상을 선택하여 볼 수 있는 아이콘이 표시되는 단계이다.
(5)AR뷰 표시단계
터치스크린 상에 표시된 아이콘을 선택하면 증강현실 영상 제공 웹사이트(200)에서 전송된 AR뷰(augmented reality view) 영상이 터치스크린 상에 표시되는 단계이다.
(6)영상처리 1단계
스마트폰(100)의 마이크를 통하여 일정 크기 이상의 소음을 입력하여 터치스크린을 통하여 제공되는 AR뷰(augmented reality view) 영상 위에 회색으로 채워진 마스킹 레이어(masking layer)를 마스킹하여 터치스크린을 통하여 표시되는 AR뷰 영상을 뿌옇게 처리하는 단계이다.
(7)영상처리 2단계
뿌옇게 처리된 AR뷰 영상이 표시된 스마트폰(100)의 터치스크린을 손가락으로 누른 상태로 움직이면 손가락의 동선을 따라 마스킹 레이어를 흰색으로 채우면서 증강현실 영상 위에 마스킹하여 증강현실 영상을 선명하게 보여주는 단계이다.
증강현실 구현 방법은 다음과 같은 과정으로 이루어질 수도 있다.
(1)맵뷰 요청단계
무선 인터넷을 통하여 접속한 맵뷰 제공 웹사이트(300)로 위치좌표와 함께 맵뷰 제공 요청을 전송하는 단계이다.
(2)맵뷰 제공단계
맵뷰 제공 웹사이트(300)에서 요청한 스마트폰(100)으로 해당 지점의 맵뷰를 전송하는 단계이다.
(3)좌표 전송단계
스마트폰(100)의 터치스크린 상에 표시되는 맵뷰의 특정 지점을 선택하여 선택된 지점의 위치좌표를 증강현실 영상 제공 웹사이트(200)로 전송하는 단계이다.
(4)증강현실 전송단계
증강현실 영상 제공 웹사이트(200)는 위치좌표에 대응하는 장소의 영상을 검색하여 스마트폰(100)으로 전송하는 단계이다.
(5)아이콘 표시단계
스마트폰(100)의 터치스크린 상에 표시되는 맵뷰 위에 증강현실 영상 제공 웹사이트(200)에서 전송된 AR뷰(augmented reality view) 영상을 선택하여 볼 수 있는 아이콘이 표시되는 단계이다. 이후 단계는 상기한 바와 같은 AR뷰 표시단계, 영상처리 1단계, 영상처리 2단계가 이루어지게 된다.
상기한 바와 같이 본 발명의 구체적 실시예를 참조하여 본 발명의 기술적 사상을 설명하였으나 본 발명의 보호범위가 받드시 이러한 실시예에만 한정되는 것은 아니며 본 발명의 기술적 요지를 변경하지 않는 범위 내에서 다양한 설계변경, 공지기술의 부가나 삭제, 단순한 수치한정 등의 경우에도 본 발명의 보호범위에 속함을 분명히 한다.
100:스마트폰
200:증강현실 영상 제공 웹사이트
300:맵뷰 제공 웹사이트

Claims (8)

  1. 스마트폰을 이용한 증강현실 구현 시스템에 관한 것으로서,
    터치스크린, 디지털카메라, GPS안테나, 및 증강현실애플리케이션이 설치되고 무선 인터넷 기능이 구비된 운영시스템을 탑재한 스마트폰(100);
    상기 스마트폰(100)으로부터 전송된 위치좌표에 따라 해당 장소의 영상을 검색하여 무선 인터넷을 통하여 상기 스마트폰(100)에 제공하는 증강현실 영상 제공 웹사이트(200); 및,
    상기 스마트폰(100) 사용자의 요청에 따라 맵뷰(map view)를 무선 인터넷을 통하여 상기 스마트폰(100)에 제공하는 맵뷰 제공 웹사이트(300);
    를 포함하여 구성되는 것을 특징으로 하는 스마트폰을 이용한 증강현실 구현 시스템.
  2. 제1항에서,
    상기 스마트폰(100)은 카메라뷰(camera view) 기능을 선택하면 상기 스마트폰(100)에 장착된 디지털카메라에 포착되는 영상을 상기 스마트폰(100)의 터치스크린 상에 카메라뷰로 표시하고, 이러한 카메라뷰를 상기 스마트폰(100)의 위치좌표와 함께 상기 증강현실 영상 제공 웹사이트(200)로 전송하며,
    상기 증강현실 영상 제공 웹사이트(200)가 상기 스마트폰(100)에서 전송된 위치좌표와 카메라뷰에 대응하는 장소의 영상을 검색하여 상기 스마트폰(100)으로 전송하면 상기 스마트폰(100)의 터치스크린 상에 표시되는 카메라뷰 위에 상기 증강현실 영상 제공 웹사이트(200)에서 전송된 AR뷰(augmented reality view) 영상을 선택하여 볼 수 있는 아이콘이 표시되는 것을 특징으로 하는 스마트폰을 이용한 증강현실 구현 시스템.
  3. 제1항에서,
    상기 맵뷰 제공 웹사이트(300)는 상기 스마트폰(100)으로부터 위치좌표와 함께 맵뷰 제공 요청이 수신되면 해당 지점의 맵뷰를 전송하고,
    상기 스마트폰(100)의 터치스크린 상에 표시되는 맵뷰의 특정 지점을 선택하면 선택된 지점의 위치좌표가 상기 증강현실 영상 제공 웹사이트(200)로 전송되고, 상기 증강현실 영상 제공 웹사이트(200)는 위치좌표에 대응하는 장소의 영상을 상기 스마트폰(100)으로 전송하고, 상기 스마트폰(100)의 터치스크린 상에 표시되는 맵뷰 위에 상기 증강현실 영상 제공 웹사이트(200)에서 전송된 AR뷰(augmented reality view) 영상을 선택하여 볼 수 있는 아이콘이 표시되는 것을 특징으로 하는 스마트폰을 이용한 증강현실 구현 시스템.
  4. 제2항 또는 제3항에서,
    상기 스마트폰(100)의 터치스크린 상에 표시된 AR뷰(augmented reality view) 영상을 선택하여 볼 수 있는 아이콘을 선택하면 상기 증강현실 영상 제공 웹사이트(200)에서 전송된 AR뷰(augmented reality view) 영상이 터치스크린 상에 표시되고,
    상기 스마트폰(100)의 마이크를 통하여 일정 크기 이상의 소음이 입력될 경우 터치스크린을 통하여 제공되는 AR뷰(augmented reality view) 영상 위에 회색으로 채워진 마스킹 레이어(masking layer)를 마스킹하여 터치스크린을 통하여 표시되는 AR뷰 영상을 뿌옇게 처리하는 것을 특징으로 하는 스마트폰을 이용한 증강현실 구현 시스템.
  5. 제4항에서,
    상기 스마트폰(100)의 터치스크린을 손가락으로 누른 상태로 움직이면 손가락의 동선을 따라 마스킹 레이어를 흰색으로 채우면서 증강현실 영상 위에 마스킹하여 증강현실 영상을 선명하게 보여주는 것을 특징으로 하는 스마트폰을 이용한 증강현실 구현 시스템.
  6. 제1항에 기재된 스마트폰을 이용한 증강현실 구현 시스템으로 증강현실을 구현하는 방법에 관한 것으로서,
    스마트폰(100)의 카메라뷰(camera view)를 선택하여 스마트폰(100)에 장착된 디지털카메라에 포착되는 영상이 스마트폰(100) 터치스크린 상에 카메라뷰로 표시되도록 하는 카메라뷰 선택단계;
    상기 카메라뷰 선택단계에서 표시된 카메라뷰와 함께 스마트폰(100)의 위치좌표를 무선 인터넷을 통하여 접속한 증강현실 영상 제공 웹사이트(200)로 전송하는 증강현실 요청단계;
    증강현실 영상 제공 웹사이트(200)는 전송된 위치좌표와 카메라뷰에 대응하는 장소의 영상을 검색하여 스마트폰(100)으로 전송하는 증강현실 전송단계; 및,
    스마트폰(100)의 터치스크린 상에 표시되는 카메라뷰 위에 증강현실 영상 제공 웹사이트(200)에서 전송된 AR뷰(augmented reality view) 영상을 선택하여 볼 수 있는 아이콘이 표시되는 아이콘 표시단계;
    를 포함하여 구성되는 것을 특징으로 하는 증강현실 구현 방법.
  7. 제1항에 기재된 스마트폰을 이용한 증강현실 구현 시스템으로 증강현실을 구현하는 방법에 관한 것으로서,
    무선 인터넷을 통하여 접속한 맵뷰 제공 웹사이트(300)로 위치좌표와 함께 맵뷰 제공 요청을 전송하는 맵뷰 요청단계;
    맵뷰 제공 웹사이트(300)에서 요청한 스마트폰(100)으로 해당 지점의 맵뷰를 전송하는 맵뷰 제공단계;
    스마트폰(100)의 터치스크린 상에 표시되는 맵뷰의 특정 지점을 선택하여 선택된 지점의 위치좌표를 증강현실 영상 제공 웹사이트(200)로 전송하는 좌표 전송단계;
    증강현실 영상 제공 웹사이트(200)는 위치좌표에 대응하는 장소의 영상을 검색하여 스마트폰(100)으로 전송하는 증강현실 전송단계; 및,
    스마트폰(100)의 터치스크린 상에 표시되는 맵뷰 위에 증강현실 영상 제공 웹사이트(200)에서 전송된 AR뷰(augmented reality view) 영상을 선택하여 볼 수 있는 아이콘이 표시되는 아이콘 표시단계;
    를 포함하여 구성되는 것을 특징으로 하는 증강현실 구현 방법.
  8. 제6항 또는 제7항에서,
    터치스크린 상에 표시된 아이콘을 선택하면 증강현실 영상 제공 웹사이트(200)에서 전송된 AR뷰(augmented reality view) 영상이 터치스크린 상에 표시되는 AR뷰 표시단계;
    스마트폰(100)의 마이크를 통하여 일정 크기 이상의 소음을 입력하여 터치스크린을 통하여 제공되는 AR뷰(augmented reality view) 영상 위에 회색으로 채워진 마스킹 레이어(masking layer)를 마스킹하여 터치스크린을 통하여 표시되는 AR뷰 영상을 뿌옇게 처리하는 영상처리 1단계; 및,
    뿌옇게 처리된 AR뷰 영상이 표시된 스마트폰(100)의 터치스크린을 손가락으로 누른 상태로 움직이면 손가락의 동선을 따라 마스킹 레이어를 흰색으로 채우면서 증강현실 영상 위에 마스킹하여 증강현실 영상을 선명하게 보여주는 영상처리 2단계;
    가 더 포함되는 것을 특징으로 하는 증강현실 구현 방법.
KR1020100099373A 2010-10-12 2010-10-12 스마트폰을 이용한 증강현실 구현 시스템 및 증강현실 구현 방법 KR101180459B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100099373A KR101180459B1 (ko) 2010-10-12 2010-10-12 스마트폰을 이용한 증강현실 구현 시스템 및 증강현실 구현 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100099373A KR101180459B1 (ko) 2010-10-12 2010-10-12 스마트폰을 이용한 증강현실 구현 시스템 및 증강현실 구현 방법

Publications (2)

Publication Number Publication Date
KR20120037735A KR20120037735A (ko) 2012-04-20
KR101180459B1 true KR101180459B1 (ko) 2012-09-06

Family

ID=46138773

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100099373A KR101180459B1 (ko) 2010-10-12 2010-10-12 스마트폰을 이용한 증강현실 구현 시스템 및 증강현실 구현 방법

Country Status (1)

Country Link
KR (1) KR101180459B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101413011B1 (ko) 2013-01-17 2014-07-02 국방과학연구소 위치 정보 기반 증강현실 시스템 및 제공 방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102293827B1 (ko) * 2015-11-16 2021-08-25 에스케이텔레콤 주식회사 증강 현실에서 표현되는 html 컨텐츠와의 인터액션을 제공하는 증강 현실 제공 장치 및 방법
KR102420503B1 (ko) * 2020-11-11 2022-07-14 엔티콘 주식회사 증강현실 기반의 공연 콘텐츠 제공 방법 및 제공장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101413011B1 (ko) 2013-01-17 2014-07-02 국방과학연구소 위치 정보 기반 증강현실 시스템 및 제공 방법

Also Published As

Publication number Publication date
KR20120037735A (ko) 2012-04-20

Similar Documents

Publication Publication Date Title
US10863168B2 (en) 3D user interface—360-degree visualization of 2D webpage content
CA2804096C (en) Methods, apparatuses and computer program products for automatically generating suggested information layers in augmented reality
CN109939440B (zh) 三维游戏地图的生成方法、装置、处理器及终端
EP2589024B1 (en) Methods, apparatuses and computer program products for providing a constant level of information in augmented reality
US9122707B2 (en) Method and apparatus for providing a localized virtual reality environment
US8884986B2 (en) Method and terminal for providing different image information in accordance with the angle of a terminal, and computer-readable recording medium
US20120050332A1 (en) Methods and apparatuses for facilitating content navigation
US11003305B2 (en) 3D user interface
US20120075341A1 (en) Methods, apparatuses and computer program products for grouping content in augmented reality
KR20130138141A (ko) 주변 위치 정보의 증강 현실 배치
EP3635339A1 (en) Dynamically varying visual properties of indicators on a digital map
KR101180459B1 (ko) 스마트폰을 이용한 증강현실 구현 시스템 및 증강현실 구현 방법
US10623713B2 (en) 3D user interface—non-native stereoscopic image conversion
US20170011064A1 (en) Methods and Apparatus for Sending or Receiving an Image
CN112083845B (zh) 气泡控件处理方法及装置
KR20210003512A (ko) 스마트폰을이용한증강현실구현시스템및구현방법
CN110941389A (zh) 一种焦点触发ar信息点的方法及装置
JP6050616B2 (ja) 地図表示装置、地図表示方法および地図表示用プログラム
JP2023003489A (ja) 映像処理システム、映像処理プログラム及び映像処理方法
CN115774589A (zh) 界面显示方法、装置、电子设备和存储介质
JP6050615B2 (ja) 地図表示装置、地図表示方法および地図表示用プログラム
CN114168063A (zh) 虚拟按键显示方法、头戴式显示设备和计算机可读介质
WO2010050237A1 (ja) データ圧縮システム、表示システムおよびデータ圧縮方法
KR20150088537A (ko) 디지털 지도의 공간감을 향상시키는 방법 및 프로그램된 기록매체

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170928

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee