KR20180003009A - 증강/가상 현실 기반 동적 정보 처리 방법 및 시스템 - Google Patents

증강/가상 현실 기반 동적 정보 처리 방법 및 시스템 Download PDF

Info

Publication number
KR20180003009A
KR20180003009A KR1020160082250A KR20160082250A KR20180003009A KR 20180003009 A KR20180003009 A KR 20180003009A KR 1020160082250 A KR1020160082250 A KR 1020160082250A KR 20160082250 A KR20160082250 A KR 20160082250A KR 20180003009 A KR20180003009 A KR 20180003009A
Authority
KR
South Korea
Prior art keywords
information
user terminal
interest
view image
uri
Prior art date
Application number
KR1020160082250A
Other languages
English (en)
Other versions
KR101925181B1 (ko
Inventor
우운택
김재인
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020160082250A priority Critical patent/KR101925181B1/ko
Publication of KR20180003009A publication Critical patent/KR20180003009A/ko
Application granted granted Critical
Publication of KR101925181B1 publication Critical patent/KR101925181B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

일실시예에 따르면, 증강/가상 현실 기반 동적 정보 처리 방법은 사용자 단말의 위치 정보를 획득하는 단계; 상기 사용자 단말의 위치 정보에 기초하여 데이터베이스로부터 적어도 어느 하나의 관심 객체의 URI(uniform resource identifier)를 선택하는 단계-상기 데이터베이스에는 복수의 관심 객체들 각각의 URI가 상기 복수의 관심 객체들 각각의 위치 정보와 연관되어 저장됨-; 상기 적어도 어느 하나의 관심 객체의 URI를 기반으로 상기 적어도 어느 하나의 관심 객체의 정보를 호출하는 단계; 및 상기 적어도 어느 하나의 관심 객체의 정보를 상기 사용자 단말로 전송하여, 상기 사용자 단말의 카메라를 통하여 상기 사용자 단말의 화면에 디스플레이되는 뷰(view) 이미지 상에 상기 적어도 어느 하나의 관심 객체의 정보를 디스플레이하는 단계를 포함한다.

Description

증강/가상 현실 기반 동적 정보 처리 방법 및 시스템{AUGMENTED/VIRTUAL REALITY BASED DYNAMIC INFORMATION PROCESSING METHOD AND SYSTEM}
아래의 실시예들은 증강/가상 현실 기반 동적 정보 처리 시스템 및 그 방법에 관한 것으로, 보다 상세하게는 사용자 단말의 카메라를 통하여 사용자 단말의 화면에 디스플레이되는 뷰(view) 이미지 상에, 적어도 어느 하나의 관심 객체의 정보를 디스플레이하는 기술에 관한 것이다.
여기서, 적어도 어느 하나의 관심 객체는 현실세계에 존재하는 건물, 도로 등의 객체들 중 사용자 단말과 근접한 위치에 존재하며, 사용자가 관심을 갖는 객체를 의미하고, 뷰 이미지는 사용자 단말의 카메라를 통하여 사용자 단말의 화면에 비춰지는 배경, 객체 등을 포함하는 이미지를 의미한다.
최근 증강/가상 현실 기술에서 실험적인 서비스가 활발히 진행되고 있는 곳은 모바일 분야이다. 모바일 단말기는 광범위한 실외에서의 트래킹에 필요한, 카메라, 통신 모듈, 다양한 센서들 및 마이크로프로세서를 갖추고 있다.
이에, 증강/가상 현실 기술은 2차원 맵 또는 3차원 맵 상에 사용자의 위치를 표시하고, 사용자가 원하는 목적지를 안내하거나, 사용자가 관심을 갖는 객체(관심 객체)의 정보를 디스플레이하는 서비스를 제공한다.
그러나, 기존의 증강/가상 현실 기술은 관심 객체의 정보를 단순히 2차원 맵 또는 3차원 맵 상에 디스플레이하기 때문에, 관심 객체의 정보가 덜 실감나게 사용자에게 제공되는 단점이 있다.
이에, 아래의 실시예들은 관심 객체의 정보를 실감나게 시각화하여 사용자에게 제공하는 기술을 제안한다.
일실시예들은 사용자 단말의 카메라를 통하여 사용자 단말의 화면에 디스플레이되는 뷰 이미지 상에, 적어도 어느 하나의 관심 객체의 정보를 디스플레이하는, 증강/가상 현실 기반 동적 정보 처리 방법 및 시스템을 제공한다.
구체적으로, 일실시예들은 사용자 단말의 위치 정보 및 시선 정보에 기초하여 적어도 어느 하나의 관심 객체의 URI(uniform resource identifier) 선택한 뒤, 적어도 어느 하나의 관심 객체의 URI를 기반으로 적어도 어느 하나의 관심 객체의 정보를 호출하는, 증강/가상 현실 기반 동적 정보 처리 방법 및 시스템을 제공한다.
또한, 일실시예들은 적어도 어느 하나의 관심 객체와 관련된 가상 객체를 뷰 이미지 상에 디스플레이하는, 증강/가상 현실 기반 동적 정보 처리 방법 및 시스템을 제공한다.
일실시예에 따르면, 증강/가상 현실 기반 동적 정보 처리 방법은 사용자 단말의 위치 정보를 획득하는 단계; 상기 사용자 단말의 위치 정보에 기초하여 데이터베이스로부터 적어도 어느 하나의 관심 객체의 URI(uniform resource identifier)를 선택하는 단계-상기 데이터베이스에는 복수의 관심 객체들 각각의 URI가 상기 복수의 관심 객체들 각각의 위치 정보와 연관되어 저장됨-; 상기 적어도 어느 하나의 관심 객체의 URI를 기반으로 상기 적어도 어느 하나의 관심 객체의 정보를 호출하는 단계; 및 상기 적어도 어느 하나의 관심 객체의 정보를 상기 사용자 단말로 전송하여, 상기 사용자 단말의 카메라를 통하여 상기 사용자 단말의 화면에 디스플레이되는 뷰(view) 이미지 상에 상기 적어도 어느 하나의 관심 객체의 정보를 디스플레이하는 단계를 포함한다.
상기 사용자 단말의 위치 정보를 획득하는 단계는 상기 사용자 단말의 시선 정보를 획득하는 단계를 포함하고, 상기 데이터베이스로부터 적어도 어느 하나의 관심 객체의 URI를 선택하는 단계는 상기 사용자 단말의 위치 정보 및 시선 정보에 기초하여 상기 데이터베이스로부터 상기 적어도 어느 하나의 관심 객체의 URI를 선택하는 단계를 포함할 수 있다.
상기 사용자 단말의 시선 정보를 획득하는 단계는 상기 사용자 단말의 중력 센서 또는 가속도 센서를 이용하여 상기 사용자 단말이 향하는 방향 또는 회전하는 방향을 계산하는 단계; 및 상기 사용자 단말이 향하는 방향 또는 회전하는 방향에 기초하여 상기 사용자 단말의 시선 정보를 획득하는 단계를 포함할 수 있다.
상기 사용자 단말의 시선 정보를 획득하는 단계는 상기 사용자 단말의 화면에 디스플레이되는 뷰 이미지를 분석하는 단계; 및 상기 뷰 이미지를 분석한 결과에 기초하여 상기 사용자 단말의 시선 정보를 획득하는 단계를 포함할 수 있다.
상기 증강/가상 현실 기반 동적 정보 처리 방법은 상기 사용자 단말의 화면에 디스플레이되는 뷰 이미지를 분석하는 단계; 상기 뷰 이미지를 분석한 결과를 기반으로 상기 적어도 어느 하나의 관심 객체와 관련된 가상 객체를 생성하는 단계; 및 상기 뷰 이미지 상에 상기 가상 객체를 디스플레이하는 단계를 더 포함할 수 있다.
상기 뷰 이미지 상에 상기 적어도 어느 하나의 관심 객체의 정보를 디스플레이하는 단계는 상기 뷰 이미지 상에 상기 적어도 어느 하나의 관심 객체의 정보를 텍스트 또는 이미지의 형태로 디스플레이하는 단계를 포함할 수 있다.
상기 뷰 이미지 상에 상기 적어도 어느 하나의 관심 객체의 정보를 텍스트 또는 이미지의 형태로 디스플레이하는 단계는 상기 사용자 단말의 화면에 디스플레이되는 뷰 이미지를 분석하는 단계; 및 상기 뷰 이미지에 포함되는 상기 적어도 어느 하나의 관심 객체 상에 상기 적어도 어느 하나의 관심 객체의 정보를 이미지의 형태로 오버랩하여 디스플레이하는 단계를 더 포함할 수 있다.
상기 뷰 이미지 상에 상기 적어도 어느 하나의 관심 객체의 정보를 디스플레이하는 단계는 상기 사용자 단말의 화면에서, 상기 적어도 어느 하나의 관심 객체의 정보를 포함하는 상기 뷰 이미지와 상기 사용자 단말의 위치 정보가 표시되는 맵을 자동으로 전환하며 디스플레이하는 단계를 더 포함할 수 있다.
상기 사용자 단말의 위치 정보를 획득하는 단계는 상기 사용자 단말의 GPS 신호 또는 통신 신호를 기반으로 상기 사용자 단말의 위치 정보를 추측하는 단계를 포함할 수 있다.
일실시예에 따르면, 증강/가상 현실 기반 동적 정보 처리 시스템은 사용자 단말의 위치 정보를 획득하는 획득부; 상기 사용자 단말의 위치 정보에 기초하여 데이터베이스로부터 적어도 어느 하나의 관심 객체의 URI(uniform resource identifier)를 선택하는 선택부-상기 데이터베이스에는 복수의 관심 객체들 각각의 URI가 상기 복수의 관심 객체들 각각의 위치 정보와 연관되어 저장됨-; 상기 적어도 어느 하나의 관심 객체의 URI를 기반으로 상기 적어도 어느 하나의 관심 객체의 정보를 호출하는 호출부; 및 상기 적어도 어느 하나의 관심 객체의 정보를 상기 사용자 단말로 전송하여, 상기 사용자 단말의 카메라를 통하여 상기 사용자 단말의 화면에 디스플레이되는 뷰(view) 이미지 상에 상기 적어도 어느 하나의 관심 객체의 정보를 디스플레이하는 정보 제공부를 포함한다.
상기 획득부는 상기 사용자 단말의 시선 정보를 획득하고, 상기 선택부는 상기 사용자 단말의 위치 정보 및 시선 정보에 기초하여 상기 데이터베이스로부터 상기 적어도 어느 하나의 관심 객체의 URI를 선택할 수 있다.
상기 정보 제공부는 상기 뷰 이미지 상에 상기 적어도 어느 하나의 관심 객체의 정보를 텍스트 또는 이미지의 형태로 디스플레이할 수 있다.
상기 획득부는 상기 사용자 단말의 화면에 디스플레이되는 뷰 이미지를 분석하고, 상기 정보 제공부는 상기 뷰 이미지를 분석한 결과를 기반으로 상기 적어도 어느 하나의 관심 객체와 관련된 가상 객체를 생성하며, 상기 뷰 이미지 상에 상기 가상 객체를 디스플레이할 수 있다.
일실시예들은 사용자 단말의 카메라를 통하여 사용자 단말의 화면에 디스플레이되는 뷰 이미지 상에, 적어도 어느 하나의 관심 객체의 정보를 디스플레이하는, 증강/가상 현실 기반 동적 정보 처리 방법 및 시스템을 제공할 수 있다.
구체적으로, 일실시예들은 사용자 단말의 위치 정보 및 시선 정보에 기초하여 적어도 어느 하나의 관심 객체의 URI(uniform resource identifier) 선택한 뒤, 적어도 어느 하나의 관심 객체의 URI를 기반으로 적어도 어느 하나의 관심 객체의 정보를 호출하는, 증강/가상 현실 기반 동적 정보 처리 방법 및 시스템을 제공할 수 있다.
또한, 일실시예들은 적어도 어느 하나의 관심 객체와 관련된 가상 객체를 뷰 이미지 상에 디스플레이하는, 증강/가상 현실 기반 동적 정보 처리 방법 및 시스템을 제공할 수 있다.
따라서, 일실시예들은 적어도 어느 어느 하나의 관심 객체의 정보를 실감나게 시각화하여 사용자에게 제공할 수 있다.
도 1 내지 3은 일실시예에 따른 증강/가상 현실 기반 동적 정보 처리 방법을 설명하기 위한 도면이다.
도 4 내지 5는 다른 일실시예에 따른 증강/가상 현실 기반 동적 정보 처리 방법을 설명하기 위한 도면이다.
도 6은 또 다른 일실시예에 따른 따른 증강/가상 현실 기반 동적 정보 처리 방법을 설명하기 위한 도면이다.
도 7은 일실시예에 따른 증강/가상 현실 기반 동적 정보 처리 방법이 수행되어 가상 객체가 디스플레이되는 사용자 단말의 화면을 나타낸 도면이다.
도 8은 일실시예에 따른 증강/가상 현실 기반 동적 정보 처리 방법을 나타낸 플로우 차트이다.
도 9는 일실시예에 따른 증강/가상 현실 기반 동적 정보 처리 시스템을 나타낸 블록도이다.
이하, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
또한, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 시청자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1 내지 3은 일실시예에 따른 증강/가상 현실 기반 동적 정보 처리 방법을 설명하기 위한 도면이다.
도 1 내지 도 3을 참조하면, 사용자 단말(110)이 복수의 관심 객체들(120, 130, 140) 중 제1 관심 객체(120)에 근접한 위치에 있는 경우, 일실시예에 따른 증강/가상 현실 기반 동적 정보 처리 시스템은 사용자 단말(110)의 위치 정보를 획득한 뒤, 데이터베이스에 저장된 복수의 관심 객체들(120, 130, 140) 중 사용자 단말(110)의 위치 정보와 가장 근접한 위치 정보를 갖는 제1 관심 객체(120)의 URI(uniform resource identifier)(410)를 선택할 수 있다.
이 때, 증강/가상 현실 기반 동적 정보 처리 시스템은 사용자 단말(110)의 GPS 신호 또는 통신 신호를 기반으로 사용자 단말(110)의 위치 정보를 추측할 수 있다.
여기서, 데이터베이스에는 복수의 관심 객체들(120, 130, 140) 각각의 URI가 복수의 관심 객체들(120, 130, 140) 각각의 위치 정보와 연관되어 저장된다. 예를 들어, 데이터베이스에는 제1 관심 객체(120)의 URI(410)가 제1 관심 객체(120)의 위치 정보와 연관되어 저장되고, 제2 관심 객체(130)의 URI가 제2 관심 객체(130)의 위치 정보와 연관되어 저장되며, 제3 관심 객체(140)의 URI가 제3 관심 객체(140)의 위치 정보와 연관되어 저장되어 있을 수 있다. 이러한 데이터베이스는 증강/가상 현실 기반 동적 정보 처리 방법이 수행되기 위하여, 미리 구축되어 있을 수 있다.
제1 관심 객체(120)의 URI(410)이 선택되면, 증강/가상 현실 기반 동적 정보 처리 시스템은 도 3의 URI 기반의 정보 처리 예시와 같이 제1 관심 객체(120)의 URI(410)를 기반으로 적어도 어느 하나의 관심 객체(120)의 정보(121)를 호출할 수 있다. 이 때, 적어도 어느 하나의 관심 객체(120)의 정보(121)는 위의 데이터베이스와 구별되는 복수의 데이터베이스들에 분산 저장될 수 있다. 즉, 증강/가상 현실 기반 동적 정보 처리 시스템은 인터넷 상에 떠도는 적어도 어느 하나의 관심 객체(120)의 명칭, 정의, 상세 설명, 또는 이미지 등의 정보(121)를 호출할 수 있도록 제1 관심 객체(120)의 URI(410)를 적어도 어느 하나의 관심 객체(120)의 정보(121)와 연결시켜 둘 수 있다.
이와 같이, 데이터베이스가 복수의 관심 객체들(120, 130, 140) 각각의 정보를 직접 저장하는 대신에, 복수의 관심 객체들(120, 130, 140) 각각의 정보를 호출하는 URI만을 저장함으로써, 적은 저장 용량으로 구성될 수 있다.
이에, 증강/가상 현실 기반 동적 정보 처리 시스템은 제1 관심 객체(120)의 URI(410)를 기반으로 호출된 적어도 어느 하나의 관심 객체(120)의 정보(121)를 사용자 단말(110)로 전송함으로써, 사용자 단말(110)로 하여금 사용자 단말(110)의 카메라를 통하여 사용자 단말(110)의 화면에 디스플레이되는 뷰 이미지(210) 상에 제1 관심 객체(120)의 정보(121)를 디스플레이하도록 할 수 있다.
여기서, 증강/가상 현실 기반 동적 정보 처리 시스템은 제1 관심 객체(120)의 정보(121)를 텍스트 또는 이미지의 형태로 디스플레이할 수 있다. 예를 들어, 도 2에 도시된 바와 같이, 증강/가상 현실 기반 동적 정보 처리 시스템은 제1 관심 객체(120)의 명칭 및 정의(122)를 텍스트 형태로 뷰 이미지(210) 상에 디스플레이할 수 있고, 제1 관심 객체(120)이 명칭 및 정의(122)에 대한 사용자의 터치 입력에 응답하여, 제1 관심 객체(120)의 상세 설명을 텍스트 형태로 뷰 이미지(210) 상에 더 디스플레이할 수 있다.
또한, 증강/가상 현실 기반 동적 정보 처리 시스템은 뷰 이미지(210)를 분석하여, 뷰 이미지(210) 상 제1 관심 객체(120)의 위치 상태를 확인함으로써, 뷰 이미지(210)에 포함되는 제1 관심 객체(120) 상에 제1 관심 객체(120)의 정보(121)를 디스플레이할 수 있다.
또한, 증강/가상 현실 기반 동적 정보 처리 시스템은 제1 관심 객체(120)의 정보(121)를 텍스트 또는 이미지의 형태로 디스플레이하는 과정에서, 추가적인 사운드를 재생할 수도 있다.
이와 같이 증강/가상 현실 기반 동적 정보 처리 시스템은 사용자가 사용자 단말(110)을 통하여 현실 세계의 객체들을 보고 있는 뷰 이미지(210) 상에 제1 관심 객체(120)의 정보(121)를 디스플레이함으로써, 제1 관심 객체(120)의 정보(121)를 실감나게 시각화하여 사용자에게 제공할 수 있다.
또한, 증강/가상 현실 기반 동적 정보 처리 시스템은 사용자 단말(110)의 화면에 디스플레이되는 맵 상에 사용자 단말(110)의 위치 정보를 표시할 수도 있다. 이러한 경우, 증강/가상 현실 기반 동적 정보 처리 시스템은 도 1에 도시된 맵과 같은 2차원 맵(또는 3차원 맵)을 사용자 단말(110)의 화면에 디스플레이한 뒤, 획득되는 사용자 단말(110)의 위치 정보를 맵 상에 표시하며, 사용자 단말(110)의 위치 정보와 가장 근접한 위치 정보를 갖는 제1 관심 객체(120)의 정보(121)를 맵 상에 더 디스플레이할 수 있다.
또한, 증강/가상 현실 기반 동적 정보 처리 시스템은 사용자 단말(110)의 화면에서, 적어도 하나의 관심 객체(120)의 정보(121)를 포함하는 뷰 이미지(210)와 사용자 단말(110)의 위치 정보가 표시되는 맵을 자동으로 전환하며 디스플레이할 수 있다.
예를 들어, 사용자 단말(110)이 이동하지 않고, 특정 위치에서 머무는 경우, 증강/가상 현실 기반 동적 정보 처리 시스템은 사용자 단말(110)의 화면에 적어도 하나의 관심 객체(120)의 정보(121)를 포함하는 뷰 이미지(210)를 디스플레이하다가, 사용자 단말(110)의 이동이 감지되는 경우, 사용자 단말(110)의 화면에 사용자 단말(110)의 위치 정보가 표시되는 맵을 디스플레이할 수 있다. 이 때, 사용자 단말(110)의 이동은 미리 설정된 시간 단위로 사용자 단말(110)의 위치 정보를 확인함으로써, 감지될 수 있다.
다른 예를 들면, 증강/가상 현실 기반 동적 정보 처리 시스템은 사용자 단말(110)의 이동이 감지되고 있는 경우, 사용자 단말(110)의 화면에 사용자 단말(110)의 위치 정보가 표시되는 맵을 디스플레이하다가, 사용자 단말(110)의 이동하지 않고, 특정 위치에서 머물게 되면, 사용자 단말(110)의 화면에 적어도 하나의 관심 객체(120)의 정보(121)를 포함하는 뷰 이미지(210)를 디스플레이할 수 있다.
도 4 내지 5는 다른 일실시예에 따른 증강/가상 현실 기반 동적 정보 처리 방법을 설명하기 위한 도면이다.
도 4 내지 5를 참조하면, 사용자 단말(410)이 복수의 관심 객체들(420, 330, 340) 중 제1 관심 객체(420) 및 제2 관심 객체(430) 모두에 근접한 위치에 있고, 제1 관심 객체(420)를 향하고 있는 경우, 도 1 내지 3을 참조하여 기재된 방식만으로는 데이터베이스에 저장된 복수의 관심 객체들 중 사용자 단말(410)의 위치 정보와 가장 근접한 위치 정보를 갖는 관심 객체의 URI를 선택할 수 없는 문제가 있다.
이에, 다른 일실시예에 따른 증강/가상 현실 기반 동적 정보 처리 시스템은 사용자 단말(410)의 위치 정보를 획득하는 과정에서, 사용자 단말(410)의 시선 정보(411)를 획득함으로써, 데이터베이스에 저장된 복수의 관심 객체들(420, 430, 440) 중 사용자 단말(410)의 위치 정보와 가장 근접한 위치 정보를 갖는 제1 관심 객체(420) 및 제2 관심 객체(430) 각각의 URI를 선택한 뒤, 제1 관심 객체(420) 및 제2 관심 객체(430) 중 사용자 단말(410)의 시선 정보(411)에 대응하는 제1 관심 객체(420)의 URI를 최종적으로 선택할 수 있다.
여기서, 증강/가상 현실 기반 동적 정보 처리 시스템은 사용자 단말(410)의 중력 센서 또는 가속도 센서를 이용하여 사용자 단말(410)이 향하는 방향 또는 회전하는 방향을 계산함으로써, 사용자 단말(410)의 위치 정보를 기반으로 사용자 단말(410)이 향하는 방향 또는 회전하는 방향에 기초하여 사용자 단말(410)의 시선 정보(411)를 획득할 수 있다.
이러한 경우, 데이터베이스에는 복수의 관심 객체들(420, 430, 440) 각각의 위치 정보가 특정 좌표를 기준으로 하는 방향 정보를 포함하도록 현실 세계의 2차원 좌표 값으로 표현됨으로써, 복수의 관심 객체들(420, 430, 440) 각각의 정보에 연관되어 저장될 수 있다. 예를 들어, 데이터베이스에는 제1 관심 객체(420)가 특정 좌표를 기준으로 북서쪽에 위치한다는 좌표 값이 제1 관심 객체(420)의 URI와 연관되어 저장되고, 제2 관심 객체(430)가 특정 좌표를 기준으로 북동쪽에 위치한다는 좌표 값이 제2 관심 객체(430)의 URI와 연관되어 저장되며, 제3 관심 객체(440)가 특정 좌표를 기준으로 남동쪽에 위치한다는 좌표 값이 제3 관심 객체(440)의 URI와 연관되어 저장될 수 있다. 마찬가지로, 데이터베이스는 증강/가상 현실 기반 동적 정보 처리 방법이 수행되기 위하여, 미리 구축되어 있을 수 있다.
또한, 증강/가상 현실 기반 동적 정보 처리 시스템은 사용자 단말(410)의 화면에 디스플레이되는 뷰 이미지(510)를 분석함으로써, 뷰 이미지(510)를 분석한 결과에 기초하여 사용자 단말(410)의 시선 정보(411)를 획득할 수도 있다. 예를 들어, 증강/가상 현실 기반 동적 정보 처리 시스템은 사용자 단말(410)의 화면에 디스플레이되는 뷰 이미지(510)를 분석한 뒤, 데이터베이스에 저장된 복수의 관심 객체들(420, 430, 440) 각각의 URI를 통하여 복수의 관심 객체들(420, 430, 440) 각각의 이미지를 호출함으로써, 뷰 이미지(510)와 복수의 관심 객체들(420, 430, 440) 각각의 이미지를 매칭할 수 있다. 따라서, 증강/가상 현실 기반 동적 정보 처리 시스템은 사용자 단말(410)이 복수의 관심 객체들(420, 430, 440) 중 제1 관심 객체(420)를 향하고 있음(사용자 단말(410)의 시선 정보(411)가 제1 관심 객체(420)를 향한 방향 정보라는 점)을 인식할 수 있다.
상술한 바와 같이 사용자 단말(410)의 위치 정보 및 시선 정보(411)에 기초하여 제1 관심 객체(420)의 URI를 선택한 뒤, 증강/가상 현실 기반 동적 정보 처리 시스템은 제1 관심 객체(420)의 URI를 기반으로 제1 관심 객체(420)의 정보(421)를 호출하고, 이를 사용자 단말(410)로 전송함으로써, 사용자 단말(410)로 하여금 사용자 단말(410)의 카메라를 통하여 사용자 단말(410)의 화면에 디스플레이되는 뷰 이미지(510) 상에 제1 관심 객체(420)의 정보(421)를 디스플레이하도록 할 수 있다.
이 때, 증강/가상 현실 기반 동적 정보 처리 시스템은 제1 관심 객체(420)의 정보(421)를 텍스트의 형태로 디스플레이할 뿐만 아니라, 이미지의 형태로 디스플레이하는 과정에서, 뷰 이미지(510)에 포함되는 제1 관심 객체(420) 상에 제1 관심 객체(420)의 정보(421)를 오버랩하여 디스플레이할 수도 있다. 이에 대한 상세한 설명은 도 6를 참조하여 기재하기로 한다.
이와 같이 증강/가상 현실 기반 동적 정보 처리 시스템은 사용자 단말(410)의 위치 정보뿐만 아니라, 사용자 단말(410)의 시선 정보를 더 이용함으로써, 사용자가 주시하며 정보를 원하는 대상을 정확하게 선택하여 그 정보를 사용자에게 제공할 수 있다.
도 6은 또 다른 일실시예에 따른 따른 증강/가상 현실 기반 동적 정보 처리 방법을 설명하기 위한 도면이다.
도 6을 참조하면, 또 다른 일실시예에 따른 증강/가상 현실 기반 동적 정보 처리 시스템은 도 1 내지 5를 참조하여 기재된 바와 같이 사용자 단말(610)의 뷰 이미지(630)에 제1 관심 객체(620)의 정보(621)를 디스플레이하는 과정에서, 제1 관심 객체(620)의 정보(621)를 뷰 이미지(630)에 포함되는 제1 관심 객체(620) 상에 오버랩하여 디스플레이할 수 있다.
구체적으로, 증강/가상 현실 기반 동적 정보 처리 시스템은 뷰 이미지(630)를 분석한 뒤, 분석 결과에 기초하여, 데이터베이스에 저장된 제1 관심 객체(620)의 URI를 기반으로 호출되는 제1 관심 객체(620)의 복수의 이미지들 중 뷰 이미지(630)에 대응되는 이미지(621)를 선택함으로써, 뷰 이미지(630)에 포함되는 제1 관심 객체(620) 상에 이미지(621)를 오버랩하여 디스플레이할 수 있다.
예를 들어, 증강/가상 현실 기반 동적 정보 처리 시스템은 뷰 이미지(630)에 포함되는 어느 하나의 객체를 기반으로 3차원 좌표계를 생성하고, 3차원 좌표계에 기초하여 뷰 이미지(630) 상 제1 관심 객체(620)의 위치 상태를 분석할 수 있다. 이에, 증강/가상 현실 기반 동적 정보 처리 시스템은 데이터베이스에 저장된 제1 관심 객체(620)의 URI를 기반으로 제1 관심 객체(620)의 복수의 이미지들을 호출하고, 복수의 이미지들 중 뷰 이미지(630) 상 제1 관심 객체(620)의 위치 상태와 동일한 위치 상태를 갖는 이미지(621)를 선택함으로써, 뷰 이미지(630)에 포함되는 제1 관심 객체(620) 상에 이미지(621)를 오버랩하여 디스플레이할 수 있다.
여기서, 제1 관심 객체(620)의 이미지(621)는 전제가 제1 관심 객체(620) 상에 오버랩되어 디스플레이될 뿐만 아니라, 일부만이 오버랩되어 디스플레이될 수 있다.
이와 같이, 증강/가상 현실 기반 동적 정보 처리 시스템은 뷰 이미지(630)를 통하여 실제와 다른 제1 관심 객체(620)를 제공함으로써, 제1 관심 객체(620)에 대한 다양한 정보를 사용자에게 가시화할 수 있다.
또한, 증강/가상 현실 기반 동적 정보 처리 시스템은 제1 관심 객체(620)의 정보(621)뿐만 아니라, 제1 관심 객체(620)와 관련된 가상 객체를 생성하여, 뷰 이미지(630) 상에 가상 객체를 디스플레이할 수도 있다. 이에 대한 상세한 설명은 도 7을 참조하여 기재하기로 한다.
도 7은 일실시예에 따른 증강/가상 현실 기반 동적 정보 처리 방법이 수행되어 가상 객체가 디스플레이되는 사용자 단말의 화면을 나타낸 도면이다.
도 7을 참조하면, 일실시예에 따른 증강/가상 현실 기반 동적 정보 처리 시스템은 도 1 내지 5를 참조하여 기재된 바와 같이 사용자 단말(710)의 뷰 이미지(730)에 제1 관심 객체(720)의 정보(721)를 디스플레이하는 과정에서, 제1 관심 객체(720)와 관련된 가상 객체(740)를 더 디스플레이할 수 있다.
구체적으로, 증강/가상 현실 기반 동적 정보 처리 시스템은 뷰 이미지(730)를 분석한 뒤, 분석 결과에 기초하여, 데이터베이스에 저장된 제1 관심 객체(720)의 URI를 기반으로 호출되는 제1 관심 객체(720)의 정보(721)와 관련된 가상 객체(740)를 생성함으로써, 가상 객체(740)를 뷰 이미지(730)에 디스플레이할 수 있다.
이러한 경우, 데이터베이스에는 복수의 관심 객체들 각각의 URI에 복수의 가상 객체들 각각의 정보가 연관되어 저장될 수 있다.
예를 들어, 증강/가상 현실 기반 동적 정보 처리 시스템은 제1 관심 객체(720)의 URI를 기반으로 제1 관심 객체(720)의 정보(721)와 관련된 가상 객체(640)를 선택한 뒤, 뷰 이미지(730)에 포함되는 어느 하나의 객체를 기반으로 생성된 3차원 좌표계 상에 가상 객체(740)를 가시화함으로써, 뷰 이미지(730) 상에 가상 객체(740)를 실감나게 디스플레이할 수 있다.
이 때, 가상 객체(740)는 사용자 단말(710)을 통한 사용자의 입력과 상호 작용하는 아바타의 형태로 구현되며, 제1 관심 객체(720)의 정보(721)를 사운드 또는 움직임으로 재생하는 역할을 함으로써, 사용자로 하여금, 제1 관심 객체(720)의 정보(721)를 보다 재미있고 직관적으로 수용하도록 도울 수 있다.
도 8은 일실시예에 따른 증강/가상 현실 기반 동적 정보 처리 방법을 나타낸 플로우 차트이다.
도 8을 참조하면, 일실시예에 따른 증강/가상 현실 기반 동적 정보 처리 방법은 증강/가상 현실 기반 동적 정보 처리 시스템에 의해 수행된다. 여기서, 증강/가상 현실 기반 동적 정보 처리 시스템은 하드웨어 모듈로 구현될 뿐만 아니라, 전자 기기를 구현하는 컴퓨터와 결합하는 매체에 저장된 컴퓨터 프로그램의 형태로 구현될 수도 있다.
증강/가상 현실 기반 동적 정보 처리 시스템은 사용자 단말의 위치 정보를 획득한다(810). 예를 들어, 증강/가상 현실 기반 동적 정보 처리 시스템은 사용자 단말의 GPS 신호 또는 통신 신호를 기반으로 사용자 단말의 위치 정보를 추측함으로써, 사용자 단말의 위치 정보를 획득할 수 있다.
또한, 810 단계에서, 증강/가상 현실 기반 동적 정보 처리 시스템은 사용자 단말의 화면에 디스플레이되는 맵 상에 사용자 단말의 위치 정보를 표시할 수도 있다.
또한, 810 단계에서, 증강/가상 현실 기반 동적 정보 처리 시스템은 사용자 단말의 시선 정보를 획득할 수 있다.
예를 들어, 증강/가상 현실 기반 동적 정보 처리 시스템은 사용자 단말의 중력 센서 또는 가속도 센서를 이용하여 사용자 단말이 향하는 방향 또는 회전하는 방향을 계산함으로써, 사용자 단말이 향하는 방향 또는 회전하는 방향에 기초하여 사용자 단말의 시선 정보를 획득할 수 있다.
다른 예를 들면, 증강/가상 현실 기반 동적 정보 처리 시스템은 사용자 단말의 화면에 디스플레이되는 뷰 이미지를 분석함으로써, 뷰 이미지를 분석한 결과에 기초하여 사용자 단말의 시선 정보를 획득할 수 있다.
그 다음, 증강/가상 현실 기반 동적 정보 처리 시스템은 사용자 단말의 위치 정보에 기초하여 데이터베이스-데이터베이스에는 복수의 관심 객체들 각각의 URI(uniform resource identifier)가 복수의 관심 객체들 각각의 위치 정보와 연관되어 저장됨-로부터 적어도 어느 하나의 관심 객체의 URI를 선택한다(820).
특히, 820 단계에서, 증강/가상 현실 기반 동적 정보 처리 시스템은 사용자 단말의 위치 정보 및 시선 정보에 기초하여 데이터베이스로부터 적어도 어느 하나의 관심 객체의 URI를 선택할 수 있다.
그 다음, 증강/가상 현실 기반 동적 정보 처리 시스템은 적어도 어느 하나의 관심 객체의 URI를 기반으로 적어도 어느 하나의 관심 객체의 정보를 호출한다(830).
그 후, 증강/가상 현실 기반 동적 정보 처리 시스템은 적어도 어느 하나의 관심 객체의 정보를 사용자 단말로 전송하여, 사용자 단말의 카메라를 통하여 사용자 단말의 화면에 디스플레이되는 뷰(view) 이미지 상에 적어도 어느 하나의 관심 객체의 정보를 디스플레이한다(840).
여기서, 증강/가상 현실 기반 동적 정보 처리 시스템은 뷰 이미지 상에 적어도 어느 하나의 관심 객체의 정보를 텍스트 또는 이미지의 형태로 디스플레이할 수 있다.
더 나아가, 증강/가상 현실 기반 동적 정보 처리 시스템은 사용자 단말의 화면에 디스플레이되는 뷰 이미지를 분석함으로써, 뷰 이미지에 포함되는 적어도 어느 하나의 관심 객체 상에 적어도 어느 하나의 관심 객체의 정보를 이미지의 형태로 오버랩하여 디스플레이할 수 있다.
또한, 도면에는 도시되지 않았지만, 증강/가상 현실 기반 동적 정보 처리 시스템은 사용자 단말의 화면에 디스플레이되는 뷰 이미지를 분석함으로써, 뷰 이미지를 분석한 결과를 기반으로 적어도 어느 하나의 관심 객체와 관련된 가상 객체를 생성할 수 있고, 이에 따라, 뷰 이미지 상에 가상 객체를 디스플레이할 수 있다.
또한, 증강/가상 현실 반 동적 정보 처리 시스템은 사용자 단말의 화면에서, 적어도 어느 하나의 관심 객체의 정보를 포함하는 뷰 이미지와 사용자 단말의 위치 정보가 표시되는 맵을 자동으로 전환하며 디스플레이할 수 있다.
도 9는 일실시예에 따른 증강/가상 현실 기반 동적 정보 처리 시스템을 나타낸 블록도이다.
도 9를 참조하면, 일실시예에 따른 증강/가상 현실 기반 동적 정보 처리 시스템은 획득부(910), 선택부(920), 호출부(930) 및 정보 제공부(940)를 포함한다.
획득부(910)는 사용자 단말의 위치 정보를 획득한다. 예를 들어, 획득부(910)는 사용자 단말의 GPS 신호 또는 통신 신호를 기반으로 사용자 단말의 위치 정보를 추측함으로써, 사용자 단말의 위치 정보를 획득할 수 있다.
또한, 획득부(910)는 사용자 단말의 시선 정보를 획득할 수 있다.
예를 들어, 획득부(910)는 사용자 단말의 중력 센서 또는 가속도 센서를 이용하여 사용자 단말이 향하는 방향 또는 회전하는 방향을 계산함으로써, 사용자 단말이 향하는 방향 또는 회전하는 방향에 기초하여 사용자 단말의 시선 정보를 획득할 수 있다.
다른 예를 들면, 획득부(910)는 사용자 단말의 화면에 디스플레이되는 뷰 이미지를 분석함으로써, 뷰 이미지를 분석한 결과에 기초하여 사용자 단말의 시선 정보를 획득할 수 있다.
선택부(920)는 사용자 단말의 위치 정보에 기초하여 데이터베이스-데이터베이스에는 복수의 관심 객체들 각각의 URI(uniform resource identifier)가 복수의 관심 객체들 각각의 위치 정보와 연관되어 저장됨-로부터 적어도 어느 하나의 관심 객체의 URI를 선택한다.
특히, 선택부(920)는 사용자 단말의 위치 정보 및 시선 정보에 기초하여 데이터베이스로부터 적어도 어느 하나의 관심 객체의 URI를 선택할 수 있다.
호출부(930)는 적어도 어느 하나의 관심 객체의 URI를 기반으로 적어도 어느 하나의 관심 객체의 정보를 호출한다.
정보 제공부(940)는 적어도 어느 하나의 관심 객체의 정보를 사용자 단말로 전송하여, 사용자 단말의 카메라를 통하여 사용자 단말의 화면에 디스플레이되는 뷰(view) 이미지 상에 적어도 어느 하나의 관심 객체의 정보를 디스플레이한다.
여기서, 정보 제공부(940)는 뷰 이미지 상에 적어도 어느 하나의 관심 객체의 정보를 텍스트 또는 이미지의 형태로 디스플레이할 수 있다.
더 나아가, 정보 제공부(940)는 획득부(910)가 사용자 단말의 화면에 디스플레이되는 뷰 이미지를 분석함에 따라, 뷰 이미지에 포함되는 적어도 어느 하나의 관심 객체 상에 적어도 어느 하나의 관심 객체의 정보를 이미지의 형태로 오버랩하여 디스플레이할 수 있다.
또한, 도면에는 도시되지 않았지만, 정보 제공부(940)는 획득부(910)가 사용자 단말의 화면에 디스플레이되는 뷰 이미지를 분석함에 따라, 뷰 이미지를 분석한 결과를 기반으로 적어도 어느 하나의 관심 객체와 관련된 가상 객체를 생성할 수 있고, 이에 따라, 뷰 이미지 상에 가상 객체를 디스플레이할 수 있다.
또한, 정보 제공부(940)는 사용자 단말의 화면에 디스플레이되는 맵 상에 사용자 단말의 위치 정보를 표시할 수도 있다.
또한, 정보 제공부(940)는 사용자 단말의 화면에서, 적어도 어느 하나의 관심 객체의 정보를 포함하는 뷰 이미지와 사용자 단말의 위치 정보가 표시되는 맵을 자동으로 전환하며 디스플레이할 수 있다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (15)

  1. 사용자 단말의 위치 정보를 획득하는 단계;
    상기 사용자 단말의 위치 정보에 기초하여 데이터베이스로부터 적어도 어느 하나의 관심 객체의 URI(uniform resource identifier)를 선택하는 단계-상기 데이터베이스에는 복수의 관심 객체들 각각의 URI가 상기 복수의 관심 객체들 각각의 위치 정보와 연관되어 저장됨-;
    상기 적어도 어느 하나의 관심 객체의 URI를 기반으로 상기 적어도 어느 하나의 관심 객체의 정보를 호출하는 단계; 및
    상기 적어도 어느 하나의 관심 객체의 정보를 상기 사용자 단말로 전송하여, 상기 사용자 단말의 카메라를 통하여 상기 사용자 단말의 화면에 디스플레이되는 뷰(view) 이미지 상에 상기 적어도 어느 하나의 관심 객체의 정보를 디스플레이하는 단계
    를 포함하는 증강/가상 현실 기반 동적 정보 처리 방법.
  2. 제1항에 있어서,
    상기 사용자 단말의 위치 정보를 획득하는 단계는
    상기 사용자 단말의 시선 정보를 획득하는 단계
    를 포함하고,
    상기 데이터베이스로부터 적어도 어느 하나의 관심 객체의 URI를 선택하는 단계는
    상기 사용자 단말의 위치 정보 및 시선 정보에 기초하여 상기 데이터베이스로부터 상기 적어도 어느 하나의 관심 객체의 URI를 선택하는 단계
    를 포함하는 증강/가상 현실 기반 동적 정보 처리 방법.
  3. 제2항에 있어서,
    상기 사용자 단말의 시선 정보를 획득하는 단계는
    상기 사용자 단말의 중력 센서 또는 가속도 센서를 이용하여 상기 사용자 단말이 향하는 방향 또는 회전하는 방향을 계산하는 단계; 및
    상기 사용자 단말이 향하는 방향 또는 회전하는 방향에 기초하여 상기 사용자 단말의 시선 정보를 획득하는 단계
    를 포함하는 증강/가상 현실 기반 동적 정보 처리 방법.
  4. 제2항에 있어서,
    상기 사용자 단말의 시선 정보를 획득하는 단계는
    상기 사용자 단말의 화면에 디스플레이되는 뷰 이미지를 분석하는 단계; 및
    상기 뷰 이미지를 분석한 결과에 기초하여 상기 사용자 단말의 시선 정보를 획득하는 단계
    를 포함하는 증강/가상 현실 기반 동적 정보 처리 방법.
  5. 제1항에 있어서,
    상기 사용자 단말의 화면에 디스플레이되는 뷰 이미지를 분석하는 단계;
    상기 뷰 이미지를 분석한 결과를 기반으로 상기 적어도 어느 하나의 관심 객체와 관련된 가상 객체를 생성하는 단계; 및
    상기 뷰 이미지 상에 상기 가상 객체를 디스플레이하는 단계
    를 더 포함하는 증강/가상 현실 기반 동적 정보 처리 방법.
  6. 제1항에 있어서,
    상기 뷰 이미지 상에 상기 적어도 어느 하나의 관심 객체의 정보를 디스플레이하는 단계는
    상기 뷰 이미지 상에 상기 적어도 어느 하나의 관심 객체의 정보를 텍스트 또는 이미지의 형태로 디스플레이하는 단계
    를 포함하는 증강/가상 현실 기반 동적 정보 처리 방법.
  7. 제6항에 있어서,
    상기 뷰 이미지 상에 상기 적어도 어느 하나의 관심 객체의 정보를 텍스트 또는 이미지의 형태로 디스플레이하는 단계는
    상기 사용자 단말의 화면에 디스플레이되는 뷰 이미지를 분석하는 단계; 및
    상기 뷰 이미지에 포함되는 상기 적어도 어느 하나의 관심 객체 상에 상기 적어도 어느 하나의 관심 객체의 정보를 이미지의 형태로 오버랩하여 디스플레이하는 단계
    를 더 포함하는 증강/가상 현실 기반 동적 정보 처리 방법.
  8. 제1항에 있어서,
    상기 뷰 이미지 상에 상기 적어도 어느 하나의 관심 객체의 정보를 디스플레이하는 단계는
    상기 사용자 단말의 화면에서, 상기 적어도 어느 하나의 관심 객체의 정보를 포함하는 상기 뷰 이미지와 상기 사용자 단말의 위치 정보가 표시되는 맵을 자동으로 전환하며 디스플레이하는 단계
    를 더 포함하는 증강/가상 현실 기반 동적 정보 처리 방법.
  9. 제1항에 있어서,
    상기 사용자 단말의 위치 정보를 획득하는 단계는
    상기 사용자 단말의 GPS 신호 또는 통신 신호를 기반으로 상기 사용자 단말의 위치 정보를 추측하는 단계
    를 포함하는 증강/가상 현실 기반 동적 정보 처리 방법.
  10. 전자 기기를 구현하는 컴퓨터와 결합하여 증강/가상 현실 기반 동적 정보 처리 방법을 실행시키기 위해 매체에 저장된 컴퓨터 프로그램에 있어서,
    상기 증강/가상 현실 기반 동적 정보 처리 방법은
    사용자 단말의 위치 정보를 획득하는 단계;
    상기 사용자 단말의 위치 정보에 기초하여 데이터베이스로부터 적어도 어느 하나의 관심 객체의 URI(uniform resource identifier)를 선택하는 단계-상기 데이터베이스에는 복수의 관심 객체들 각각의 URI가 상기 복수의 관심 객체들 각각의 위치 정보와 연관되어 저장됨-;
    상기 적어도 어느 하나의 관심 객체의 URI를 기반으로 상기 적어도 어느 하나의 관심 객체의 정보를 호출하는 단계; 및
    상기 적어도 어느 하나의 관심 객체의 정보를 상기 사용자 단말로 전송하여, 상기 사용자 단말의 카메라를 통하여 상기 사용자 단말의 화면에 디스플레이되는 뷰(view) 이미지 상에 상기 적어도 어느 하나의 관심 객체의 정보를 디스플레이하는 단계
    를 포함하는 컴퓨터 프로그램.
  11. 제10항에 있어서,
    상기 사용자 단말의 위치 정보를 획득하는 단계는
    상기 사용자 단말의 시선 정보를 획득하는 단계
    를 포함하고,
    상기 데이터베이스로부터 적어도 어느 하나의 관심 객체의 URI를 선택하는 단계는
    상기 사용자 단말의 위치 정보 및 시선 정보에 기초하여 상기 데이터베이스로부터 상기 적어도 어느 하나의 관심 객체의 URI를 선택하는 단계
    를 포함하는 컴퓨터 프로그램.
  12. 사용자 단말의 위치 정보를 획득하는 획득부;
    상기 사용자 단말의 위치 정보에 기초하여 데이터베이스로부터 적어도 어느 하나의 관심 객체의 URI(uniform resource identifier)를 선택하는 선택부-상기 데이터베이스에는 복수의 관심 객체들 각각의 URI가 상기 복수의 관심 객체들 각각의 위치 정보와 연관되어 저장됨-;
    상기 적어도 어느 하나의 관심 객체의 URI를 기반으로 상기 적어도 어느 하나의 관심 객체의 정보를 호출하는 호출부; 및
    상기 적어도 어느 하나의 관심 객체의 정보를 상기 사용자 단말로 전송하여, 상기 사용자 단말의 카메라를 통하여 상기 사용자 단말의 화면에 디스플레이되는 뷰(view) 이미지 상에 상기 적어도 어느 하나의 관심 객체의 정보를 디스플레이하는 정보 제공부
    를 포함하는 증강/가상 현실 기반 동적 정보 처리 시스템.
  13. 제12항에 있어서,
    상기 획득부는
    상기 사용자 단말의 시선 정보를 획득하고,
    상기 선택부는
    상기 사용자 단말의 위치 정보 및 시선 정보에 기초하여 상기 데이터베이스로부터 상기 적어도 어느 하나의 관심 객체의 URI를 선택하는, 증강/가상 현실 기반 동적 정보 처리 시스템.
  14. 제12항에 있어서,
    상기 정보 제공부는
    상기 뷰 이미지 상에 상기 적어도 어느 하나의 관심 객체의 정보를 텍스트 또는 이미지의 형태로 디스플레이하는, 증강/가상 현실 기반 동적 정보 처리 시스템.
  15. 제12항에 있어서,
    상기 획득부는
    상기 사용자 단말의 화면에 디스플레이되는 뷰 이미지를 분석하고,
    상기 정보 제공부는
    상기 뷰 이미지를 분석한 결과를 기반으로 상기 적어도 어느 하나의 관심 객체와 관련된 가상 객체를 생성하며, 상기 뷰 이미지 상에 상기 가상 객체를 디스플레이하는, 증강/가상 현실 기반 동적 정보 처리 시스템.
KR1020160082250A 2016-06-30 2016-06-30 증강/가상 현실 기반 동적 정보 처리 방법 및 시스템 KR101925181B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160082250A KR101925181B1 (ko) 2016-06-30 2016-06-30 증강/가상 현실 기반 동적 정보 처리 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160082250A KR101925181B1 (ko) 2016-06-30 2016-06-30 증강/가상 현실 기반 동적 정보 처리 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20180003009A true KR20180003009A (ko) 2018-01-09
KR101925181B1 KR101925181B1 (ko) 2018-12-04

Family

ID=61000284

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160082250A KR101925181B1 (ko) 2016-06-30 2016-06-30 증강/가상 현실 기반 동적 정보 처리 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR101925181B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023282571A1 (ko) * 2021-07-05 2023-01-12 주식회사 애니랙티브 차량용 ar 디스플레이 장치 및 ar 서비스 플랫폼

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102571981B1 (ko) * 2023-05-24 2023-08-30 주식회사 엘에스엠케이 증강현실 기반의 시설물 점검 및 유지관리 시스템

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101380854B1 (ko) 2013-03-21 2014-04-04 한국과학기술연구원 웹 정보구조에 기반한 증강현실 콘텐츠 제공장치 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023282571A1 (ko) * 2021-07-05 2023-01-12 주식회사 애니랙티브 차량용 ar 디스플레이 장치 및 ar 서비스 플랫폼

Also Published As

Publication number Publication date
KR101925181B1 (ko) 2018-12-04

Similar Documents

Publication Publication Date Title
AU2020202551B2 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
US11880951B2 (en) Method for representing virtual information in a view of a real environment
US11710322B2 (en) Surveillance information generation apparatus, imaging direction estimation apparatus, surveillance information generation method, imaging direction estimation method, and program
US8121353B2 (en) Apparatus, system and method for mapping information
US20110279478A1 (en) Virtual Tagging Method and System
CN112396686A (zh) 三维场景工程模拟与实景融合系统及方法
US9392248B2 (en) Dynamic POV composite 3D video system
JP5413170B2 (ja) アノテーション表示システム,方法及びサーバ装置
US20130176337A1 (en) Device and Method For Information Processing
CN107084740B (zh) 一种导航方法和装置
CN111737603B (zh) 判断兴趣点是否可视的方法、装置、设备以及存储介质
US10295403B2 (en) Display a virtual object within an augmented reality influenced by a real-world environmental parameter
KR101925181B1 (ko) 증강/가상 현실 기반 동적 정보 처리 방법 및 시스템
JP5664215B2 (ja) 拡張現実感表示システム、該システムに用いられる拡張現実感表示方法及び拡張現実感表示プログラム
US20210224537A1 (en) Identification system, model re-learning method and program
KR20170042039A (ko) 모바일 디바이스를 이용한 증강 현실 기반 가이드 방법
CN108235764B (zh) 信息处理方法、装置、云处理设备及计算机程序产品
Möller et al. Tool support for prototyping interfaces for vision-based indoor navigation
JP2016133701A (ja) 情報提供システム、及び情報提供方法
KR20130123340A (ko) 3차원 매칭을 이용한 영상 기반의 보행 경로 poi표출 시스템
KR20180074182A (ko) 증강현실 시스템 구현 방법
KR101964227B1 (ko) 군사 작전 통제 장치 및 방법
JP2005134242A (ja) ナビゲーションシステム、ナビゲーション装置、ナビゲーション方法、及びナビゲーションプログラム
KR102443049B1 (ko) 전자 장치 및 그 동작 방법
CN115129585A (zh) 增强现实测试方法、装置、终端设备、服务端及存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant