KR20100138556A - 가상공간에서 실생활 기반의 정보 제공방법 - Google Patents

가상공간에서 실생활 기반의 정보 제공방법 Download PDF

Info

Publication number
KR20100138556A
KR20100138556A KR1020090057142A KR20090057142A KR20100138556A KR 20100138556 A KR20100138556 A KR 20100138556A KR 1020090057142 A KR1020090057142 A KR 1020090057142A KR 20090057142 A KR20090057142 A KR 20090057142A KR 20100138556 A KR20100138556 A KR 20100138556A
Authority
KR
South Korea
Prior art keywords
information
real
space
virtual world
virtual
Prior art date
Application number
KR1020090057142A
Other languages
English (en)
Other versions
KR101112190B1 (ko
Inventor
권용진
Original Assignee
한국항공대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공대학교산학협력단 filed Critical 한국항공대학교산학협력단
Priority to KR1020090057142A priority Critical patent/KR101112190B1/ko
Priority to PCT/KR2010/003649 priority patent/WO2010150991A2/ko
Publication of KR20100138556A publication Critical patent/KR20100138556A/ko
Application granted granted Critical
Publication of KR101112190B1 publication Critical patent/KR101112190B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/954Navigation, e.g. using categorised browsing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Health & Medical Sciences (AREA)
  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)

Abstract

현실에서는 불가능한 시간을 기반으로 한 정보(이하, "시간축 정보"라고 약칭함)의 저장을 가상공간에서 위치정보를 기반으로 저장한 후 제공할 수 있도록 한 가상공간에서 실생활 기반의 정보 제공방법이 개시된다.
개시된 가상공간에서 실생활 기반의 정보 제공방법은, 현실공간을 가상세계에 매핑하는 단계와; 상기 가상세계에 현실에서 얻은 사용자의 위치에 대한 시간축 정보를 결합하고, 움직임을 기록하는 단계와; 상기 가상세계에서 불특정 다수와 실시간으로 대화를 수행하는 단계를 포함한다.
시간축 정보, 가상세계, 가상공간, 시간축 정보 저장

Description

가상공간에서 실생활 기반의 정보 제공방법{Method for information service based real life in a cyber-space}
본 발명은 가상공간에서 실생활 기반의 정보 제공방법에 관한 것으로서, 더욱 상세하게는 현실에서는 불가능한 시간을 기반으로 한 정보(이하, "시간축 정보"라고 약칭함)의 저장을 가상공간에서 위치정보를 기반으로 저장한 후 제공할 수 있도록 한 가상공간에서 실생활 기반의 정보 제공방법에 관한 것이다.
일반적으로, 현실 생활에서 개인이 하는 모든 상황을 기록해 놓는다는 것은 거의 불가능하다. 특히 현실에서는 시간축 정보의 저장은 불가능하다.
지금까지 제안된 개인의 현실 생활 기록 방법은, 캠코더 등의 촬영 장비를 이용하여 필요할 때마다 촬영하여 영상으로 기록해 놓거나, 개인이 직접 자신의 실생활을 수기로 남기거나 컴퓨터 등에 파일로 저장해 놓는 방법이다.
이러한 경우 모든 실생활을 기록하는 것은 현실적으로 어려우며, 좀 특별하다는 생활에 대해서만 기록으로 남겨놓는 것이 대부분으로서, 매우 제한적이라고 할 수 있다.
인간은 시간이 흐른 후 자신의 실생활을 되돌아보거나 추억을 회상하는 경우 가 많은 데, 현실적으로 자신의 실생활에 대한 기록 정보가 없기 때문에 오로지 자신의 기억에 의지해서만 추억을 회상하는 제약이 따른다.
한편, 여행이나 현실공간에 실제로 상징물 등을 설치하는 경우, 현재는 여행지를 직접 답사해야만 해당 여행지에 대한 평가가 가능하며, 상징물 또한 현실 공간에 실제로 설치해야만 적합성 등을 평가할 수 있게 된다.
따라서 가상공간에 실생활과 동일한 환경을 구축하는 것이 요구되고 있으며, 현재 많은 곳에서 이러한 연구가 진행되고 있는 추세이다.
이에 본 발명은 상기와 같은 기존 현실 생활에 대한 시간축 정보의 저장이 불가능함으로써 발생하는 여러 가지 단점을 해결하기 위해서 제안된 것으로서,
본 발명이 해결하고자 하는 과제는, 현실에서는 불가능한 시간을 기반으로 한 정보(이하, "시간축 정보"라고 약칭함)의 저장을 가상공간에서 위치정보를 기반으로 저장한 후 제공할 수 있도록 한 가상공간에서 실생활 기반의 정보 제공방법을 제공하는 데 있다.
본 발명이 해결하고자 하는 다른 과제는, 현실공간과 가상공간의 정보가 자연스럽게 오가도록 유도해주어, 현실과 가상의 경계를 모호하게 함으로써 자연스럽게 가상세계에서 현실공간을 시뮬레이션할 수 있도록 한 가상공간에서 실생활 기반의 정보 제공방법을 제공하는 데 있다.
본 발명이 해결하고자 하는 또 다른 과제는, 가상세계의 정보를 이용하여 사용자의 라이프로그와 위치정보에 기반한 인간중심의 정보 서비스를 제공해주기 위한 가상공간에서 실생활 기반의 정보 제공방법을 제공하는 데 있다.
여기서 라이프로그는 디지털 장치를 활용하여 동영상과 음성/사진 등으로 일상생활에서 경험하는 모든 정보를 기록/검색할 수 있는 하나의 기술을 의미한다. 즉, 자신이 무엇을 했는지, 누구를 만났는지, 무엇을 먹었는지, 이벤트와 경험을 동영상과 음성/사진 등으로 재현할 수 있는 것을 의미한다.
다시 말해, 라이프로그란 개인이 가지고 있는 휴대폰, 디지털카메라, 시계, MP3, 그리고 주위의 TV, 컴퓨터, 내비게이션, 센서(RFID) 등 모든 기기에서 나의 데이터를 자동으로 저장할 수 있고, 나와 관련된 모든 데이터들이 나를 중심으로 하여 한곳에 집약되고 다시 확인/가공할 수 있는 기술 및 서비스를 의미한다.
상기와 같은 과제들을 해결하기 위한 본 발명에 따른 "가상공간에서 실생활 기반의 정보 제공방법"은,
현실공간을 가상세계에 매핑하는 단계와;
상기 가상세계에 현실에서 얻은 사용자의 위치에 대한 시간축 정보를 결합하고, 움직임을 기록하는 단계와;
상기 가상세계에서 불특정 다수와 실시간으로 대화를 수행하는 단계를 포함한다.
상기에서 현실공간을 가상세계에 매핑하는 단계는,
DXF(Drawing eXchange Format) 구문분석기(Parser)와 지형객체 변환기를 이용한 u-map을 통해 현실공간을 3D가상공간으로 구축하는 단계를 포함한다.
상기에서 가상세계에 현실에서 얻은 사용자의 위치에 대한 시간축 정보를 결합하고, 움직임을 기록하는 단계는,
위치정보와 방향 정보 기반 시간축 정보와 개인의 프로파일을 이용하여 현실공간을 가상세계에 결합하는 것을 특징으로 한다.
상기에서 위치정보는 GPS를 이용하여 획득하고, 방향 정보는 방위각 센서를 이용하여 획득하는 것을 특징으로 한다.
또한, 상기 움직임 기록은 개인의 캐릭터를 구현하고, 상기 방향 정보를 인식한 후 상기 캐릭터와 연동하여 개인의 실제 움직임을 상기 캐릭터에 반영하여 움직임을 구현하는 것을 특징으로 한다.
또한, 상기 가상세계에서 불특정 다수와 실시간으로 대화를 수행하는 단계는, OpenSim과 접목 가능한 음성 대화를 수행하되, 클라이언트에서 그래픽 서버와 보이스 서버를 동시에 접속하여 그래픽에 맞추어 음성을 송출하는 것으로 대화를 구현하는 것을 특징으로 한다.
본 발명에 따르면, 개인의 실제 생활에 따른 시간 축 정보의 저장이 가능한 장점이 있다.
또한, 개인이 여행지를 직접 답사하는 대신에 가상공간에서 사전답사를 한 후 여행지를 평가하는 것이 가능하고, 가상공간에서 상징물을 설치한 후 평가를 통해 현실공간에 실제로 상징물 설치에 대한 적합성 등을 사전에 확인할 수 있는 장점이 있다.
또한, 가상세계의 정보를 이용하여 사용자의 라이프로그와 위치정보에 기반한 인간중심의 정보 서비스를 제공할 수 있는 장점이 있다.
이하 본 발명의 바람직한 실시 예를 첨부한 도면에 의거 상세히 설명하면 다음과 같다. 본 발명을 설명하기에 앞서 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다.
도 1 및 도 2는 본 발명에 따른 가상공간에서 실생활 기반의 정보 제공방법이 적용되는 시스템의 개략구성도로서, 사용자 인식센서(110)와, 통합 플랫폼(120)과, 엠비언트 브라우저(130)와, 수치지도 데이터베이스(DB)(140), OpenSim DB(150), 개인 프로파일 DB(160) 및 시간축 정보 데이터베이스(DB)(170), 그래픽 서버(210) 및 보이스 서버(220)로 구성된다.
도 3은 본 발명에 따른 "가상공간에서 실생활 기반의 정보 제공방법"을 보인 흐름도로서, 현실공간을 가상세계에 매핑하는 단계(S100)와; 상기 가상세계에 현실 에서 얻은 사용자의 위치에 대한 시간 축 정보를 결합하고, 움직임을 기록하는 단계(S200) 및 상기 가상세계에서 불특정 다수와 실시간으로 대화를 수행하는 단계(S300)를 포함한다.
이와 같이 이루어지는 본 발명에 따른 "가상공간에서 실생활 기반의 정보 제공방법"을 구체적으로 설명하면 다음과 같다.
사용자 인식센서(110)는 실생활에서 현재 사용자의 위치와 방향을 확인하기 위한 것으로서, 사용자 위치는 GPS와 같은 측위 기술을 이용하고, 방향은 방위각 센서 등을 이용함으로써, 용이하게 사용자의 현실 세계에서의 위치와 방향을 알 수 있게 된다.
이렇게 확인된 현실 세계에서의 사용자의 위치 정보와 방향 정보가 통합 플랫폼(120)에 제공되면, 상기 통합 플랫폼(120)은 시간축 정보를 저장하기 위한 전단계로 현실을 반영하는 가상세계를 만들게 된다. 여기서 가상세계는 DXF(Drawing eXchange Format) 구문분석기(Parser)와 지형객체 변환기를 이용하며, 현재 SecondLife와 OpenSim을 이용하여 가상세계를 만들게 되는 데, 이를 위한 기반 기술로 통합 플랫폼(U-MAP: Universal Map Access Platform)(120)을 이용한다(S100).
여기서 DXF(Drawing eXchange Format) 구문분석기(Parser)와 지형객체 변환기는, 국토지리정보원의 DXF 형식을 가지는 수치지도를 분석하여 공개 Web 3D 서버인 OpenSim의 데이터 형태로 변환해주는 프로그램을 의미한다.
상기 지형객체 변환기가 필요한 이유는, 수치지도를 자동으로 OpenSim 데이터로 변환해줌으로써 기존에 수작업에 의존해야 했던 가상공간 구축을 일부 자동화 할 수 있는 장점이 있기 때문이다. 본 발명은 수치지도를 이용하기 때문에 위치적으로 현실공간과 가상공간 객체의 오차가 없게 된다.
현실공간(수치지도)을 가상공간에 1:1 매핑시, SecondLife 클라이언트와 OpenSim 서버를 이용한다.
예를 들어 DXF(Drawing eXchange Format)는 AutoDesk사의 AutoCAD와 다른 수많은 CAD 소프트웨어 간의 파일교환을 위한 포맷으로서, 표준 ASCII 포맷으로 되어 있으며, 두 줄로 구성된 여러 개의 연속된 그룹들이 공간 객체를 표현한다.
수치지도 입장에서의 DXF 구성을 살펴보면, HEADER섹션은 지도가 나타내는 범위를 TM좌표로 가지고 있으며, CLASSES 섹션은 의미 없는 것이고, TABLES 섹션은 스타일 등의 내용을 정의한 것이며, BLOCKS 섹션은 도면에서 사용되는 블록을 정의하는 것이고, ENTITIES 섹션은 실제 도면의 형상정보가 들어 있는 것이며, OBJECTS 섹션은 의미 없는 섹션이다.
DXF에서 수치지도의 형상정보를 살펴보면, 모든 형상정보는 ENTITIES 섹션에 들어 있으며, 도 5는 DXF에서 수치지도의 구조를 보인 것이다.
수치지도 데이터(140)와 OpenSim DB(150)의 데이터를 살펴보면 다음과 같다.
도 6에 도시된 바와 같이, 수치지도의 모든 데이터는 정점(vertex)로 이루어져 있으며, 순서대로 점과 점 사이에 선을 그어 지도를 완성한다.
이와는 달리 OpenSim DB의 데이터는 도 7에 도시된 바와 같이 중심점 x,y,z 축 크기, 각도를 기본 정보로 담고 있다. 기본 정보 외에 텍스처, 파임, 휨 등의 부가정보도 같이 존재한다.
따라서 수치지도(현실공간) 데이터를 OpenSim DB용 데이터(가상세계)로 변환하기 위해서는 도 8에 도시한 바와 같이, 점으로 이루어져 있는 평면 데이터를 중심점 x,y,z 축의 크기와 각도를 갖는 입체 데이터로 변환해야한다.
도 8을 예로 들어 설명하면, 점 두 개 사이에 그어지는 선이 하나의 물체(Object)가 되며, 점 두 개의 중간점을 찾아 물체의 중심점에 대응시키고, 점 두 개 사이의 길이와 각도를 구하여 물체의 x축 크기와 z축 각도에 대응시킨다.
다음으로, 평면 데이터를 입체 데이터로 바꾸기 위해 임의로 x,y,z축의 크기를 정해준다. 이를 위해 모든 물체의 x,y축 크기(두께)는 0.2m로 할당하고, 건물 데이터일 경우 z축 크기를 10m로 할당하며, 도로 등의 지면표시 데이터일 경우 z축 크기를 0.2m로 할당하게 되며, 도 9에 그 일 예가 도시된다.
또한, 수치지도 데이터를 OpenSim DB용 데이터로 변환시, 면의 성질을 갖는 레이어와 선의 성질을 갖는 레이어를 구분하게 된다. 수치지도 레이어 표에 점/선/면의 성질이 명기되어 있다. 선의 성질을 갖는 레이어의 경우, 도 10에 도시된 바와 같이 점과 점 사이에 그어지는 선을 하나의 물체로 보면 되고, 면의 성질을 갖는 레이어의 경우 도 11에 도시한 바와 같이, 제일 처음 점과 제일 마지막 점 사이에 그어지는 선을 하나의 물체로 그려줘야 한다.
또한, 수치지도 데이터를 OpenSim DB용 데이터로 변환시, 각도 계산의 문제가 발생한다. x,y,z축 각각 360°씩 할당하는 각도(오일러 각도)를 사용하지 않는다. 복소수의 확장 형태인 사원수(quaternion)를 사용하여 각도를 표시하고, x,y,z외에 w라는 값을 추가하여 사용하며, 물체의 3D 회전을 적용하는 데 있어서 오일러 각도보다 유리하다. EulerToQuaternion 클래스가 점 두 개 사이에서 구한 오일러 각도를 사원수로 바꾸어주는 역할을 하는 것으로서, 도 12에 각도 계산을 수행하는 알고리즘이 개시된다.
이러한 과정을 통해 수치지도를 가상세계의 3D 입체공간으로 변환한 결과가 도 13에 개시된다.
다음으로, 상기와 같이 형성한 가상세계에 현실에서 얻은 정보를 쌓는 기술과 움직임을 기록하는 기술이 필요하다(S200). 즉, 가상세계에 시간축 정보를 저장하게 된다.
도 14 내지 도 16은 현실공간에서 저장하지 못하는 시간축 정보를 가상세계에 대신 저장하는 매핑 개념을 도시한 것으로서, 도 14는 가상공간에 건물에 대한 시간축 정보를 매핑한 것이고, 도 15는 상기 가상세계에 사용자가 현실에서 이동한 경로를 포함하는 시간축 정보를 매핑한 것이고, 도 16은 위치정보 기반 시간축 정보와 개인의 프로파일을 이용하여 개인형 맞춤 정보 서비스를 제공하는 개념도이다. 엠비언트 브라우저(130)에는 일 예로 사용자가 어제 이동한 기록이 디스플레이되고, 이동한 경로 중간 중간에 관련 정보들이 디스플레이된다.
여기서 현실에서 얻은 정보를 쌓는 기술과 움직임을 기록하는 기술을 구현할 경우, 데이터베이스의 테이블의 구성이 필요하고, 위치와 방향 기록에 대한 정의가 필요하며, 기타 사용자 정의 정보 기록에 대한 정의가 필요하다. 예를 들어, 사용자가 어떠한 액션을 취하였을 때 데이터 저장의 문제, 즉, 현실에서 사용자가 상대방과 명함을 주고 받았을 경우, 현실에서 사용자가 사진을 찍었을 경우 데이터 저 장의 문제가 발생하며, 이를 해결하기 위해서 사전에 기록에 대한 정의를 수행함으로써, 상기와 같은 데이터 저장의 문제를 해결하게 된다.
다음으로, 가상의 공간에서 불특정 다수와 실시간으로 대화할 수 있는 개념이 구현되어야 한다(S300). 현실공간을 그대로 매핑한 가상세계에서 돌아다니면서 여러 사람을 만나고 이야기할 수 있으며, 매장 등을 돌아다니면서 직접 주인과 대화하면서 쇼핑할 수 있으며, 친구들과 함께 놀러갈 곳을 미리 탐방하면서 이야기할 수도 있다. 이것을 구현하기 위해서는 OpenSim과 접목 가능한 음성 대화 기술이 구현되어야 하며, 도 17에 음성 채팅 구현의 일 예를 도시하였다. 그래픽 서버(210)와 보이스 서버(220)를 클라이언트가 동시 접속하고, 각 서버에서 각자 데이터를 관리하는 방법을 사용함으로써, 용이하게 음성 채팅을 구현할 수 있다.
이러한 과정을 통해 본 발명은 3D 가상세계에 현실공간에서 획득한 사용자의 위치정보 및 방향정보를 기반으로 3D 캐릭터와 연동하여 실제 사람의 움직임을 캐릭터에 반영하여 시간축 정보를 가상공간에 결합하여 저장하게 되는 것이다.
본 발명은 상술한 특정의 바람직한 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.
도 1은 본 발명에 의한 가상공간에서 실생활 기반의 정보 제공방법이 적용되는 시스템 구성도.
도 2는 도 1에 그래픽 서버와 보이스 서버를 부가한 시스템의 구성도.
도 3은 본 발명에 따른 가상공간에서 실생활 기반의 정보 제공방법을 보인 흐름도.
도 4는 본 발명에서 현실공간을 가상공간으로 매핑하는 개념도.
도 5는 DXF에서 수치지도의 구조도.
도 6은 수치지도의 데이터 구조.
도 7은 OpenSim DB의 데이터 구조도.
도 8 내지 도 11은 수치지도 데이터를 OpenSim DB용 데이터로 변환하는 과정도.
도 12는 수치지도 데이터를 OpenSim DB용 데이터로 변화하는 과정 중 사원수를 사용하여 각도를 표시하는 알고리즘.
도 13은 현실공간을 가상세계의 3D 입체 데이터로 변환한 결과도.
도 14 내지 도 16은 현실공간에서 저장하지 못하는 시간축 정보를 가상세계에 매핑하는 개념도.
도 17은 음성 채팅의 구현 일 예도.

Claims (7)

  1. 가상공간에서 실생활 기반의 정보를 제공하는 방법에 있어서,
    현실공간을 가상세계에 매핑하는 단계와;
    상기 가상세계에 현실에서 얻은 사용자의 위치에 대한 시간 축 정보를 결합하고, 움직임을 기록하는 단계를 포함하는 것을 특징으로 하는 가상공간에서 실생활 기반의 정보 제공방법.
  2. 제1항에 있어서, 상기 현실공간을 가상세계에 매핑하는 단계는,
    DXF(Drawing eXchange Format) 구문분석기(Parser)와 지형객체 변환기를 이용한 U-MAP을 통해 현실공간을 3D가상공간으로 구축하는 것을 특징으로 하는 가상공간에서 실생활 기반의 정보 제공방법.
  3. 제1항에 있어서, 상기 가상세계에 현실에서 얻은 사용자의 위치에 대한 시간축 정보를 결합하고, 움직임을 기록하는 단계는,
    위치정보와 방향 정보 기반 시간축 정보와 개인의 프로파일을 이용하여 현실공간을 가상세계에 결합하는 것을 특징으로 하는 가상공간에서 실생활 기반의 정보 제공방법.
  4. 제3항에 있어서, 상기 위치정보는 GPS를 이용하여 획득하고, 방향 정보는 방위각 센서를 이용하여 획득하는 것을 특징으로 하는 가상공간에서 실생활 기반의 정보 제공방법.
  5. 제1항에 있어서, 상기 움직임 기록은 개인의 캐릭터를 구현하고, 방향 정보를 인식한 후 상기 캐릭터와 연동하여 개인의 실제 움직임을 상기 캐릭터에 반영하여 움직임을 구현하는 것을 특징으로 하는 가상공간에서 실생활 기반의 정보 제공방법.
  6. 제1항에 있어서, 상기 가상세계에서 불특정 다수와 실시간으로 대화를 수행하는 단계를 더 포함하는 것을 특징으로 하는 가상공간에서 실생활 기반의 정보 제공방법.
  7. 제6항에 있어서, 상기 가상세계에서 불특정 다수와 실시간으로 대화를 수행하는 단계는, OpenSim과 접목 가능한 음성 대화를 수행하되, 클라이언트에서 그래 픽 서버와 보이스 서버를 동시에 접속하여 그래픽에 맞추어 음성을 송출하는 것으로 대화를 구현하는 것을 특징으로 하는 가상공간에서 실생활 기반의 정보 제공방법.
KR1020090057142A 2009-06-25 2009-06-25 가상공간에서 실생활 기반의 정보 제공방법 KR101112190B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020090057142A KR101112190B1 (ko) 2009-06-25 2009-06-25 가상공간에서 실생활 기반의 정보 제공방법
PCT/KR2010/003649 WO2010150991A2 (ko) 2009-06-25 2010-06-08 가상공간에서 실생활 기반의 정보 제공방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090057142A KR101112190B1 (ko) 2009-06-25 2009-06-25 가상공간에서 실생활 기반의 정보 제공방법

Publications (2)

Publication Number Publication Date
KR20100138556A true KR20100138556A (ko) 2010-12-31
KR101112190B1 KR101112190B1 (ko) 2012-02-24

Family

ID=43387002

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090057142A KR101112190B1 (ko) 2009-06-25 2009-06-25 가상공간에서 실생활 기반의 정보 제공방법

Country Status (2)

Country Link
KR (1) KR101112190B1 (ko)
WO (1) WO2010150991A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8649804B2 (en) 2011-08-24 2014-02-11 Samsung Electronics Co., Ltd. Method and apparatus for accessing location based services by determining current location information and virtual location information of portable terminal in a wireless communication network

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07325934A (ja) * 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
WO2000076154A1 (fr) * 1999-06-02 2000-12-14 Fujitsu Limited Systeme de construction d'espace de communication virtuel correspondant a de l'information de detection du monde reel
JP2003216981A (ja) * 2002-01-25 2003-07-31 Iwane Kenkyusho:Kk 自動作業システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8649804B2 (en) 2011-08-24 2014-02-11 Samsung Electronics Co., Ltd. Method and apparatus for accessing location based services by determining current location information and virtual location information of portable terminal in a wireless communication network
US9621506B2 (en) 2011-08-24 2017-04-11 Samsung Electronics Co., Ltd. Method and apparatus for accessing location based service

Also Published As

Publication number Publication date
WO2010150991A3 (ko) 2011-03-31
KR101112190B1 (ko) 2012-02-24
WO2010150991A2 (ko) 2010-12-29

Similar Documents

Publication Publication Date Title
US11368557B2 (en) Platform for constructing and consuming realm and object feature clouds
JP6064544B2 (ja) 画像処理装置、画像処理方法、プログラム及び端末装置
EP2572336B1 (en) Mobile device, server arrangement and method for augmented reality applications
Nurminen m-LOMA-a mobile 3D city map
Zlatanova Augmented reality technology
US20120256917A1 (en) Augmented Reality System
US20120105440A1 (en) Augmented Reality System
JP5401387B2 (ja) 地図画像処理装置、地図画像処理方法及び地図画像処理プログラム
CN103003847A (zh) 用于渲染基于位置的用户界面的方法和装置
CN102741797A (zh) 用于转换三维地图对象以呈现导航信息的方法和装置
JP2009527031A (ja) 個人ウェブページでの地理情報提供方法及びシステム
CN109242966A (zh) 一种基于激光点云数据的3d全景模型建模方法
US20140351284A1 (en) System for performing a personalized information search
US20080043040A1 (en) System and method for combining satellite imagery with virtual imagery
KR20230121952A (ko) 가상공간에서 실생활 기반의 정보 제공방법
KR101112190B1 (ko) 가상공간에서 실생활 기반의 정보 제공방법
Simon et al. Beyond location based–the spatially aware mobile phone
Yasuoka et al. The advancement of world digital cities
CN108765275A (zh) 三维地图的建立方法及装置
US20150177935A1 (en) Digital map based 3D-character virtual interaction system for social networking
CN111476873B (zh) 一种基于增强现实的手机虚拟涂鸦方法
JPS62274469A (ja) 景観画像合成処理方式
US12101371B2 (en) Platform for constructing and consuming realm and object feature clouds
US11762453B2 (en) Method performed by a computer system for creation of augmented reality experiences and connection of these to the real world
Rosser et al. Crowdsourcing Building Interior Models

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
J201 Request for trial against refusal decision
AMND Amendment
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150115

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170103

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180129

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190729

Year of fee payment: 8