KR20240070951A - 증강 현실 콘텐츠 제공 방법 및 시스템 - Google Patents

증강 현실 콘텐츠 제공 방법 및 시스템 Download PDF

Info

Publication number
KR20240070951A
KR20240070951A KR1020220152486A KR20220152486A KR20240070951A KR 20240070951 A KR20240070951 A KR 20240070951A KR 1020220152486 A KR1020220152486 A KR 1020220152486A KR 20220152486 A KR20220152486 A KR 20220152486A KR 20240070951 A KR20240070951 A KR 20240070951A
Authority
KR
South Korea
Prior art keywords
augmented reality
user
uwb
reality glasses
location information
Prior art date
Application number
KR1020220152486A
Other languages
English (en)
Inventor
정채현
이유은
Original Assignee
주식회사 딥파인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 딥파인 filed Critical 주식회사 딥파인
Priority to KR1020220152486A priority Critical patent/KR20240070951A/ko
Publication of KR20240070951A publication Critical patent/KR20240070951A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/02Systems for determining distance or velocity not using reflection or reradiation using radio waves
    • G01S11/06Systems for determining distance or velocity not using reflection or reradiation using radio waves using intensity measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0205Details
    • G01S5/0226Transmitters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B17/00Monitoring; Testing
    • H04B17/30Monitoring; Testing of propagation channels
    • H04B17/309Measuring or estimating channel quality parameters
    • H04B17/318Received signal strength

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Electromagnetism (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

증강 현실 콘텐츠 제공 방법 및 시스템이 개시된다. 일 실시예에 따른 증강 현실 콘텐츠 제공 방법은, 공간 내 서로 이격된 위치들에 배치되는 적어도 세 개 이상의 UWB 앵커들 및 상기 공간에 위치하는 사용자가 착용한 증강 현실 글라스를 포함하는 서비스 환경에서 수행되는 것을 전제로 하며, 상기 적어도 세 개 이상의 UWB 앵커들 및 상기 증강 현실 글라스에 포함되는 UWB 모듈 사이에서 UWB 신호가 송수신됨에 응답하여, 상기 증강 현실 글라스를 착용한 상기 사용자의 위치 정보를 산출하는 단계; 상기 증강 현실 글라스에 포함되는 IMU 센서를 이용하여 상기 사용자의 시선 정보를 획득하는 단계; 및 상기 산출된 위치 정보 및 상기 획득된 시선 정보에 기초하여 상기 증강 현실 글라스를 통해 적어도 하나의 가상 객체를 제공하는 단계를 포함할 수 있다.

Description

증강 현실 콘텐츠 제공 방법 및 시스템{METHOD AND SYSTEM FOR PROVIDING AUGMENTED REALITY CONTENTS}
아래의 실시예들은 증강 현실 콘텐츠 제공 방법 및 시스템에 대한 것이다.
증강 현실(augmented reality, AR)은 실제로 존재하는 현실 공간에 가상의 객체를 증강시켜 현실 공간에 존재하는 사물처럼 보이도록 하는 동시에, 사용자가 가상의 객체와 인터렉션(Interaction) 하도록 지원하는 것이다.
이러한 증강 현실 기반의 콘텐츠는 다양한 현실 공간에서 다양한 가상의 객체들과 인터랙션할 수 있는 서비스를 제공할 수 있기에, 많은 분야에 널리 응용되고 있다.
이와 같은 증강 현실 콘텐츠를 제공함에 있어 가장 중요한 포인트는, 사용자의 위치와 시선을 정확히 파악하는 것이다.
이에, 증강 현실 콘텐츠를 제공하기 위해 사용자의 위치와 시선을 정확히 파악하는 기술이 제안될 필요가 있다.
일 실시예들이 이루고자 하는 기술적 과제는, 증강 현실 콘텐츠를 제공하기 위한 사용자의 위치와 시선을 정확히 파악하고자, 적어도 세 개 이상의 UWB 앵커들과 증강 현실 글라스의 UWB 모듈 사이에서 송수신되는 UWB 신호를 이용하여 사용자의 위치 정보를 산출하고 증강 현실 글라스의 IMU 센서를 이용하여 사용자의 시선 정보를 획득하는 증강 현실 콘텐츠 제공 방법 및 시스템을 제안하고자 한다.
실시예들이 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기 기술적 과제를 달성하기 위하여, 일 실시예에 따른 공간 내 서로 이격된 위치들에 배치되는 적어도 세 개 이상의 UWB 앵커들 및 상기 공간에 위치하는 사용자가 착용한 증강 현실 글라스를 포함하는 서비스 환경에서 수행되는 증강 현실 콘텐츠 제공 방법은, 상기 적어도 세 개 이상의 UWB 앵커들 및 상기 증강 현실 글라스에 포함되는 UWB 모듈 사이에서 UWB 신호가 송수신됨에 응답하여, 상기 증강 현실 글라스를 착용한 상기 사용자의 위치 정보를 산출하는 단계; 상기 증강 현실 글라스에 포함되는 IMU 센서를 이용하여 상기 사용자의 시선 정보를 획득하는 단계; 및 상기 산출된 위치 정보 및 상기 획득된 시선 정보에 기초하여 상기 증강 현실 글라스를 통해 적어도 하나의 가상 객체를 제공하는 단계를 포함할 수 있다.
일 측에 따르면, 상기 제공하는 단계는, 상기 산출된 위치 정보를 이용하여 상기 공간의 3차원 좌표계 상 상기 적어도 하나의 가상 객체가 매핑된 특정 좌표에 상기 사용자가 기 설정된 범위 내로 접근하는지 여부를 판단한 결과 상기 특정 좌표에 상기 사용자가 기 설정된 범위 내로 접근하는 것으로 판단된 동시에, 상기 획득된 시선 정보를 이용하여 상기 특정 좌표가 상기 사용자의 시선 범위 내에 포함되는지 여부를 판단한 결과 상기 특정 좌표가 상기 사용자의 시선 범위 내에 포함되는 것으로 판단된 경우, 상기 증강 현실 글라스를 통해 상기 적어도 하나의 가상 객체를 제공하는 단계인 것을 특징으로 할 수 있다.
다른 일 측에 따르면, 상기 획득하는 단계는, 상기 산출된 위치 정보를 이용하여 상기 특정 좌표에 상기 사용자가 기 설정된 범위 내로 접근하는지 여부를 판단한 결과 상기 특정 좌표에 상기 사용자가 기 설정된 범위 내로 접근하는 것으로 판단된 경우에만 수행되는 것을 특징으로 할 수 있다.
또 다른 일 측에 따르면, 상기 산출하는 단계는, 상기 산출된 위치 정보를 이용하여 상기 특정 좌표에 상기 사용자가 기 설정된 범위 내로 접근하는지 여부를 판단한 결과 상기 특정 좌표에 상기 사용자가 기 설정된 범위 내로 접근하지 않는 것으로 판단된 경우, 상기 특정 좌표로 이동을 가이드하는 가이드 객체를 상기 증강 현실 글라스를 통해 출력하는 단계를 더 포함하는 것을 특징으로 할 수 있다.
또 다른 일 측에 따르면, 상기 획득하는 단계는, 상기 획득된 시선 정보를 이용하여 상기 특정 좌표가 상기 사용자의 시선 범위 내에 포함되는지 여부를 판단한 결과 상기 특정 좌표가 상기 사용자의 시선 범위 내에 포함되지 않는 것으로 판단된 경우, 상기 사용자의 시선 변경을 요구하는 시선 변경 객체를 상기 증강 현실 글라스를 통해 출력하는 단계를 더 포함하는 것을 특징으로 할 수 있다.
또 다른 일 측에 따르면, 상기 산출하는 단계는, 상기 적어도 세 개 이상의 UWB 앵커들이 상기 UWB 모듈에서 송신하는 UWB 신호를 각기 수신하는 신호 강도를 기초로 삼각측량법(Triangulation)을 이용하여 상기 사용자의 위치 정보를 산출하는 단계인 것을 특징으로 할 수 있다.
또 다른 일 측에 따르면, 상기 산출하는 단계는, 상기 세 개 이상의 UWB 앵커들을 기준으로 하는 3차원 좌표계에서의 상기 사용자의 위치 정보를 산출하는 단계인 것을 특징으로 할 수 있다.
또 다른 일 측에 따르면, 상기 세 개 이상의 UWB 앵커들은, 상기 삼각측량법의 계산 복잡도를 감소시키기 위해, 동일한 높이에 배치되는 것을 특징으로 할 수 있다.
또 다른 일 측에 따르면, 상기 세 개 이상의 UWB 앵커들 중 두 개의 UWB 앵커들은, 상기 삼각측량법의 계산 복잡도를 감소시키기 위해, 평면에서 동일한 직선 상에 배치되는 것을 특징으로 할 수 있다.
또 다른 일 측에 따르면, 상기 획득하는 단계는, 상기 IMU 센서에서 센싱되는 방향 정보, 속도 정보 또는 위치 정보 중 적어도 하나를 이용하여 상기 증강 현실 글라스를 기준으로 하는 상기 사용자의 시선 정보를 획득하는 단계인 것을 특징으로 할 수 있다.
일 실시예에 따르면, 공간 내 서로 이격된 위치들에 배치되는 적어도 세 개 이상의 UWB 앵커들 및 상기 공간에 위치하는 사용자가 착용한 증강 현실 글라스를 포함하는 서비스 환경에서 증강 현실 콘텐츠 제공 방법을 컴퓨터 장치에 실행시키기 위한 컴퓨터 프로그램이 기록되어 있는 컴퓨터 판독 가능한 기록매체에 있어서, 상기 증강 현실 콘텐츠 제공 방법은, 상기 적어도 세 개 이상의 UWB 앵커들 및 상기 증강 현실 글라스에 포함되는 UWB 모듈 사이에서 UWB 신호가 송수신됨에 응답하여, 상기 증강 현실 글라스를 착용한 상기 사용자의 위치 정보를 산출하는 단계; 상기 증강 현실 글라스에 포함되는 IMU 센서를 이용하여 상기 사용자의 시선 정보를 획득하는 단계; 및 상기 산출된 위치 정보 및 상기 획득된 시선 정보에 기초하여 상기 증강 현실 글라스를 통해 적어도 하나의 가상 객체를 제공하는 단계를 포함할 수 있다.
일 실시예에 따르면, 공간 내 서로 이격된 위치들에 배치되는 적어도 세 개 이상의 UWB 앵커들 및 상기 공간에 위치하는 사용자가 착용한 증강 현실 글라스를 포함하는 서비스 환경에서 증강 현실 콘텐츠 제공 방법을 수행하도록 컴퓨터 판독 가능한 명령들을 실행하는 적어도 하나의 프로세서는, 상기 적어도 세 개 이상의 UWB 앵커들 및 상기 증강 현실 글라스에 포함되는 UWB 모듈 사이에서 UWB 신호가 송수신됨에 응답하여, 상기 증강 현실 글라스를 착용한 상기 사용자의 위치 정보를 산출하는 위치 정보 산출부; 상기 증강 현실 글라스에 포함되는 IMU 센서를 이용하여 상기 사용자의 시선 정보를 획득하는 시선 정보 획득부; 및 상기 산출된 위치 정보 및 상기 획득된 시선 정보에 기초하여 상기 증강 현실 글라스를 통해 적어도 하나의 가상 객체를 제공하는 가상 객체 제공부를 포함할 수 있다.
일 실시예에 따르면, 증강 현실 콘텐츠 제공 시스템은, 공간 내 서로 이격된 위치들에 배치되는 적어도 세 개 이상의 UWB 앵커들; 상기 공간에 위치하는 사용자가 착용한 증강 현실 글라스; 및 상기 증강 현실 글라스에 포함되거나, 별도의 컴퓨터 장치에 포함되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 적어도 세 개 이상의 UWB 앵커들 및 상기 증강 현실 글라스에 포함되는 UWB 모듈 사이에서 UWB 신호가 송수신됨에 응답하여, 상기 증강 현실 글라스를 착용한 상기 사용자의 위치 정보를 산출하는 위치 정보 산출부; 상기 증강 현실 글라스에 포함되는 IMU 센서를 이용하여 상기 사용자의 시선 정보를 획득하는 시선 정보 획득부; 및 상기 산출된 위치 정보 및 상기 획득된 시선 정보에 기초하여 상기 증강 현실 글라스를 통해 적어도 하나의 가상 객체를 제공하는 가상 객체 제공부를 포함할 수 있다.
일 실시예들이 이루고자 하는 기술적 과제는, 적어도 세 개 이상의 UWB 앵커들과 증강 현실 글라스의 UWB 모듈 사이에서 송수신되는 UWB 신호를 이용하여 사용자의 위치 정보를 산출하고 증강 현실 글라스의 IMU 센서를 이용하여 사용자의 시선 정보를 획득하는 증강 현실 콘텐츠 제공 방법 및 시스템을 제안함으로써, 증강 현실 콘텐츠를 제공하기 위한 사용자의 위치와 시선을 정확히 파악할 수 있는 기술적 효과를 달성할 수 있다.
설명된 기술적 효과는 상기한 효과들로 한정되는 것은 아니며, 아래의 상세한 설명 또는 청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.
도 1은 일 실시예에 따른 서비스 환경의 예를 도시한 도면이다.
도 2는 일 실시예에 따른 컴퓨터 장치의 예를 도시한 블록도이다.
도 3은 도 2에 도시된 프로세서가 포함할 수 있는 구성요소의 예를 도시한 블록도이다.
도 4는 도 2에 도시된 컴퓨터 장치가 수행할 수 있는 증강 현실 콘텐츠 제공 방법을 도시한 플로우 차트이다.
도 5는 도 4에 도시된 증강 현실 콘텐츠 제공 방법에서 사용자의 위치 정보를 산출하는 것을 설명하기 위한 도면이다.
도 6은 도 4에 도시된 증강 현실 콘텐츠 제공 방법에서 적어도 하나의 가상 객체를 제공하는 것을 설명하기 위한 도면이다.
이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉, 결합)"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 실시예들에서는 배터리 모니터링 방법 및 시스템이 설명된다. 배터리 모니터링 방법은 프로세서를 포함하는 적어도 하나의 컴퓨터 장치인 배터리 모니터링 시스템에 의해 수행될 수 있으며, 배터리 모니터링 시스템은 컴퓨터 프로그램의 제어에 따라 구동될 수 있다. 상술한 컴퓨터 프로그램은 컴퓨터 장치와 결합되어 배터리 모니터링 방법을 컴퓨터 장치에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장될 수 있다. 여기서 설명한 컴퓨터 프로그램은 독립된 하나의 프로그램 패키지의 형태를 가질 수도 있고, 독립된 하나의 프로그램 패키지의 형태가 컴퓨터 장치에 기 설치되어 운영체제나 다른 프로그램 패키지들과 연계되는 형태를 가질 수도 있다.
도 1은 일 실시예에 따른 서비스 환경의 예를 도시한 도면이다. 도 1의 서비스 환경은 공간 내에 위치하는 적어도 세 개 이상의 UWB(Ultra-WideBand) 앵커(Anchor)들(110) 및 사용자가 착용한 증강 현실 글라스(120)와, 후술되는 증강 현실 콘텐츠 제공 방법을 수행하는 주체인 컴퓨터 장치(130)를 포함할 수 있다. 이하, 증강 현실 콘텐츠 제공 방법을 수행하는 주체인 컴퓨터 장치(130)가 UWB 앵커들(110) 및 증강 현실 글라스(120)와 별도로 구비되는 것으로 설명되나, 이에 제한되거나 한정되지 않고, UWB 앵커들(110) 중 어느 하나 또는 증강 현실 글라스(120)에 내장될 수 있다.
UWB 앵커들(110)은, UWB 신호를 송수신할 수 있도록 구성되는 일종의 AP(Access Point)로서, 사용자의 위치 정보를 산출하는데 이용되도록 공간 내 서로 이격된 위치들에 배치될 수 있다.
증강 현실 글라스(120)는, 공간 내에 위치하는 사용자의 눈에 착용된 채 사용자에게 증강 현실을 제공하는 디스플레이 기기로서, UWB 앵커들(110)과 UWB 신호를 송수신할 수 있는 UWB 모듈(미도시) 및 사용자의 시선 정보를 획득하는데 필요한 정보들을 센싱하는 IMU(Inertial Measurement Unit) 센서를 포함할 수 있다.
컴퓨터 장치(130)는 네트워크를 통해 증강 현실 글라스(120) 및 UWB 앵커들(110)과 통신하며 명령, 코드, 파일, 콘텐츠, 서비스 등을 제공하는 기기로서, 고정형, 이동형 단말 또는 서버일 수 있다.
컴퓨터 장치(130)와 증강 현실 글라스(120) 및 UWB 앵커들(110) 사이의 통신 방식은 제한되지 않으며, 네트워크가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들 간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.
이상 설명된 서비스 환경에서 증강 현실 콘텐츠 제공 방법이 수행되는 바, 서비스 환경은 증강 현실 콘텐츠 제공 시스템을 의미할 수 있다.
도 2는 일 실시예에 따른 컴퓨터 장치의 예를 도시한 블록도이다. 앞서 설명한 컴퓨터 장치(130)는 도 2를 통해 도시된 구조로 구현될 수 있다.
이러한 컴퓨터 장치(130)는 도 2에 도시된 바와 같이, 메모리(210), 프로세서(220), 통신 모듈(230), 그리고 입출력 인터페이스(240)를 포함할 수 있다. 메모리(210)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서, ROM과 디스크 드라이브와 같은 비소멸성 대용량 기록장치는 메모리(210)와는 구분되는 별도의 영구 저장 장치로서 컴퓨터 장치(130)에 포함될 수도 있다. 또한, 메모리(210)에는 운영체제와 적어도 하나의 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(210)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 메모리(210)로 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 모듈(230)을 통해 메모리(210)에 로딩될 수도 있다. 예를 들어, 소프트웨어 구성요소들은 네트워크를 통해 수신되는 파일들에 의해 설치되는 컴퓨터 프로그램에 기반하여 컴퓨터 장치(130)의 메모리(210)에 로딩될 수 있다.
프로세서(220)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(210) 또는 통신 모듈(230)에 의해 프로세서(220)로 제공될 수 있다. 예를 들어 프로세서(220)는 메모리(210)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
통신 모듈(230)은 네트워크를 통해 컴퓨터 장치(130)가 다른 장치(일례로, 앞서 설명한 저장 장치들)와 서로 통신하기 위한 기능을 제공할 수 있다. 일례로, 컴퓨터 장치(130)의 프로세서(220)가 메모리(210)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이나 명령, 데이터, 파일 등이 통신 모듈(230)의 제어에 따라 네트워크를 통해 다른 장치들로 전달될 수 있다. 역으로, 다른 장치로부터의 신호나 명령, 데이터, 파일 등이 네트워크를 거쳐 컴퓨터 장치(130)의 통신 모듈(230)을 통해 컴퓨터 장치(130)로 수신될 수 있다. 통신 모듈(230)을 통해 수신된 신호나 명령, 데이터 등은 프로세서(220)나 메모리(210)로 전달될 수 있고, 파일 등은 컴퓨터 장치(130)가 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.
입출력 인터페이스(240)는 입출력 장치(250)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 마이크, 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(240)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(250)는 컴퓨터 장치(130)와 하나의 장치로 구성될 수도 있다.
또한, 다른 실시예들에서 컴퓨터 장치(130)는 도 2의 구성요소들보다 더 적은 혹은 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 컴퓨터 장치(130)는 상술한 입출력 장치(250) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다.
이하에서는 증강 현실 콘텐츠 제공 방법의 구체적인 실시예를 설명하기로 한다.
도 3은 도 2에 도시된 프로세서가 포함할 수 있는 구성요소의 예를 도시한 블록도이고, 도 4는 도 2에 도시된 컴퓨터 장치가 수행할 수 있는 증강 현실 콘텐츠 제공 방법을 도시한 플로우 차트이며, 도 5는 도 4에 도시된 증강 현실 콘텐츠 제공 방법에서 사용자의 위치 정보를 산출하는 것을 설명하기 위한 도면이고, 도 6은 도 4에 도시된 증강 현실 콘텐츠 제공 방법에서 사용자의 시선 정보를 획득하는 것을 설명하기 위한 도면이다.
본 발명의 실시예들에서 컴퓨터 장치(130)는 후술되는 증강 현실 콘텐츠 제공 방법을 수행함으로써, UWB 앵커들(110) 및 증강 현실 글라스(120)와 통신하며 산출 및 획득되는 사용자의 위치 정보 및 사용자의 시선 정보를 이용하여 증강 현실 글라스(120)를 통해 적어도 하나의 가상 객체를 제공할 수 있다.
이를 위해, 컴퓨터 장치(130)의 프로세서(220)는 도 4에 따른 증강 현실 콘텐츠 제공 방법을 수행하기 위한 구성요소로 구현될 수 있다. 일례로, 프로세서(220)는 도 4에 도시된 단계들(S410 내지 S430)을 수행할 수 있도록 도 3에 도시된 바와 같이 위치 정보 산출부(310), 시선 정보 획득부(320) 및 가상 객체 제공부(330)를 포함할 수 있다. 실시예에 따라 프로세서(220)의 구성요소들은 선택적으로 프로세서(220)에 포함되거나 제외될 수도 있다. 또한, 실시예에 따라 프로세서(220)의 구성요소들은 프로세서(220)의 기능의 표현을 위해 분리 또는 병합될 수도 있다.
이러한 프로세서(220) 및 프로세서(220)의 구성요소들은 도 4의 증강 현실 콘텐츠 제공 방법이 포함하는 단계들(S410 내지 S430)을 수행하도록 컴퓨터 장치(130)를 제어할 수 있다. 예를 들어, 프로세서(220) 및 프로세서(220)의 구성요소들은 메모리(210)가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다.
여기서, 프로세서(220)의 구성요소들은 컴퓨터 장치(130)에 저장된 프로그램 코드가 제공하는 명령에 따라 프로세서(220)에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다. 예컨대, 증강 현실 글라스(120)에 포함되는 IMU 센서를 이용하여 사용자의 시선 정보를 획득하도록 컴퓨터 장치(130)를 제어하는 프로세서(220)의 기능적 표현으로서 시선 정보 획득부(320)가 이용될 수 있다.
프로세서(220)는 컴퓨터 장치(130)의 제어와 관련된 명령이 로딩된 메모리(210)로부터 필요한 명령을 읽어들일 수 있다. 이 경우, 상기 읽어 들인 명령은 프로세서(220)가 이후 설명될 단계들(S410 내지 S430)을 실행하도록 제어하기 위한 명령을 포함할 수 있다.
이후 설명될 단계들(S410 내지 S430)은 도 4에 도시된 순서와 다른 순서로 수행될 수 있으며, 단계들(S410 내지 S430) 중 일부가 생략되거나 추가의 과정이 더 포함될 수 있다.
단계(S410)에서 프로세서(220)(보다 정확하게는 프로세서(220)에 포함되는 위치 정보 산출부(310))는, 적어도 세 개 이상의 UWB 앵커들(110) 및 증강 현실 글라스에 포함되는 UWB 모듈 사이에서 UWB 신호가 송수신됨에 응답하여, 증강 현실 글라스(120)를 착용한 사용자의 위치 정보를 산출할 수 있다.
보다 상세하게, 위치 정보 산출부(310)는 적어도 세 개 이상의 UWB 앵커들(110)이 증강 현실 글라스(320)에 포함되는 UWB 모듈에서 송신하는 UWB 신호를 각기 수신하는 신호 강도를 기초로 삼각측량법(Triangulation)을 이용하여 사용자의 위치 정보를 산출할 수 있다.
예를 들어, 위치 정보 산출부(310)는, 세 개 이상의 UWB 앵커들(110)을 기준으로 하는 3차원 좌표계를 구성한 뒤, 3차원 좌표계에서의 사용자의 위치 정보를 산출
보다 구체적인 예를 들면, 3차원 좌표계 상 UWB 앵커들(110) 각각의 위치 좌표 및 증강 현실 글라스(120)에 포함되는 UWB 모듈의 위치 좌표가 도 5에 도시된 바와 같다면, UWB 앵커들(110) 각각으로부터 증강 현실 글라스(120)까지의 거리는 아래 식 1 내지 3으로 표현될 수 있다.
<식 1>
<식 2>
<식 3>
식 1에서, 는 3차원 좌표계 상 (0, 0, h)의 위치 좌표를 갖는 UWB 앵커 0로부터 3차원 좌표계 상 (x, y, z)의 위치 좌표를 갖는 증강 현실 글라스(120)에 포함되는 UWB 모듈까지의 거리를 의미하고, 식 2에서 는 3차원 좌표계 상 (, 0, h)의 위치 좌표를 갖는 UWB 앵커 1로부터 3차원 좌표계 상 (x, y, z)의 위치 좌표를 갖는 증강 현실 글라스(120)에 포함되는 UWB 모듈까지의 거리를 의미하며, 식 3에서 는 3차원 좌표계 상 (, , h)의 위치 좌표를 갖는 UWB 앵커 2로부터 3차원 좌표계 상 (x, y, z)의 위치 좌표를 갖는 증강 현실 글라스(120)에 포함되는 UWB 모듈까지의 거리를 의미한다.
한편, 증강 현실 글라스(120)에 포함되는 UWB 모듈로부터 송신된 UWB 신호가 UWB 앵커들(110) 중 어느 하나의 UWB 앵커에서 수신되는 신호 강도는 UWB 모듈로부터 송신된 UWB 신호의 손실을 나타내며, 이를 이용해 증강 현실 글라스(120)에 포함되는 UWB 모듈과 UWB 신호를 수신하는 어느 하나의 UWB 앵커까지의 거리가 아래 식 4와 같이 계산될 수 있다.
<식 4>
식 4에서 r은 증강 현실 글라스(120)에 포함되는 UWB 모듈로부터 UWB 신호를 수신한 어느 하나의 UWB 앵커 사이의 거리를 의미하며, 은 UWV 신호의 파장을 의미하고, 은 UWB 모듈로부터 송신된 UWB 신호의 손실을 의미한다.
따라서, 식 4가 식 1, 2, 3에 각기 적용됨으로써, UWB 앵커들(110) 각각에서 UWB 신호를 수신하는 신호 강도를 기초로 삼각측량법이 이용되어 증강 현실 글라스(120)에 포함되는 UWB 모듈의 3차원 좌표계 상 위치 좌표가 계산될 수 있다. 증강 현실 글라스(120)에 포함되는 UWB 모듈의 3차원 좌표계 상 위치 좌표는 증강 현실 글라스(120)를 착용한 사용자의 위치 정보를 의미하는 바, 설명된 과정을 통해 사용자의 위치 정보가 산출될 수 있다.
이 때, 삼각측량법의 계산 복잡도는 설명된 식 1, 2, 3에서 나타나듯이 , UWB 앵커들(110) 각각의 3차원 좌표계 상 위치 좌표에 의해 결정된다.
이에, UWB 앵커들(110)은 삼각측량법의 계산 복잡도를 감소시키기 위해, 공간 내에서 동일한 높이에 배치됨으로써, 도 5에 도시된 바와 같이 3차원 좌표계 상 h의 z축 좌표 값을 갖게 될 수 있다.
또한, UWB 앵커들(110) 중 두 개의 UWB 앵커들(UWB 앵커 0, UWB 앵커 1)은 삼각측량법의 계산 복잡도를 감소시키기 위해, 평면에서 동일한 직선 상에 배치됨으로써, 도 5에 도시된 바와 같이 3차원 좌표계 상 "0"의 y축 좌표 값을 갖게 될 수 있다.
단계(S420)에서 프로세서(220)(보다 정확하게는 프로세서(220)에 포함되는 시선 정보 획득부(320))는, 증강 현실 글라스에 포함되는 IMU 센서를 이용하여 사용자의 시선 정보를 획득할 수 있다.
보다 상세하게, 시선 정보 획득부(320)는, 증강 현실 글라스(120)에 포함되는 IMU 센서에서 센싱되는 방향 정보, 속도 정보 또는 위치 정보 중 적어도 하나를 이용하여 증강 현실 글라스(120)를 기준으로 하는 사용자의 시선 정보를 획득할 수 있다. IMU 센서를 이용해 사용자의 시선 정보를 획득하는 방법은 기존에 공지된 것이므로, 이에 대한 상세한 설명은 생략하기로 한다.
단계(S430)에서 프로세서(220)(보다 정확하게는 프로세서(220)에 포함되는 가상 객체 제공부(330))는, 단계(S410)를 통해 산출된 위치 정보 및 단계(S420)를 통해 획득된 시선 정보에 기초하여 증강 현실 글라스(120)를 통해 적어도 하나의 가상 객체를 제공할 수 있다. 이를 위해, 적어도 하나의 가상 객체는 공간의 3차원 좌표계 상 특정 좌표에 사전에 매핑되어 있을 수 있다.
이하, 증강 현실 글라스(120)를 통해 적어도 하나의 가상 객체를 제공한다는 것은, 증강 현실 글라스(120)를 통해 현실 공간을 배경으로 적어도 하나의 가상 객체가 증강되는 것을 의미하는 바, 증강 현실 콘텐츠를 제공하는 것을 의미할 수 있다.
보다 상세하게, 가상 객체 제공부(330)는, 도 6에 도시된 바와 같이, 단계(S410)를 통해 산출된 위치 정보를 이용하여 공간의 3차원 좌표계 상 적어도 하나의 가상 객체가 매핑된 특정 좌표에 사용자가 기 설정된 범위 내로 접근하는지 여부를 판단한 결과 특정 좌표에 사용자가 기 설정된 범위 내로 접근하는 것으로 판단된 동시에, 단계(S420)를 통해 획득된 시선 정보를 이용하여 특정 좌표가 사용자의 시선 범위 내에 포함되는지 여부를 판단한 결과 특정 좌표가 사용자의 시선 범위 내에 포함되는 것으로 판단된 경우, 증강 현실 글라스를 통해 적어도 하나의 가상 객체를 제공할 수 있다.
여기서, 단계(S410)를 통해 산출된 위치 정보를 이용하여 공간의 3차원 좌표계 상 적어도 하나의 가상 객체가 매핑된 특정 좌표에 사용자가 기 설정된 범위 내로 접근하는지 여부를 판단하는 단계(미도시), 그리고 단계(S420)를 통해 획득된 시선 정보를 이용하여 특정 좌표가 사용자의 시선 범위 내에 포함되는지 여부를 판단하는 단계(미도시)는, 단계(S430)에서 수행될 수 있다.
그러나 이에 제한되거나 한정되지 않고, 단계(S410)를 통해 산출된 위치 정보를 이용하여 공간의 3차원 좌표계 상 적어도 하나의 가상 객체가 매핑된 특정 좌표에 사용자가 기 설정된 범위 내로 접근하는지 여부를 판단하는 단계는 단계(S410)에서 위치 정보를 산출한 직후 수행될 수 있으며, 단계(S420)를 통해 획득된 시선 정보를 이용하여 특정 좌표가 사용자의 시선 범위 내에 포함되는지 여부를 판단하는 단계는 단계(S420)에서 시선 정보를 획득한 직후 수행될 수도 있다.
따라서, 단계(S410)를 통해 산출된 위치 정보를 이용하여 공간의 3차원 좌표계 상 적어도 하나의 가상 객체가 매핑된 특정 좌표에 사용자가 기 설정된 범위 내로 접근하는지 여부를 판단하는 단계가 단계(S410)에서 위치 정보를 산출한 직후 수행되는 경우, 단계(S420)는 산출된 위치 정보를 이용하여 특정 좌표에 사용자가 기 설정된 범위 내로 접근하는지 여부를 판단한 결과 특정 좌표에 사용자가 기 설정된 범위 내로 접근하는 것으로 판단된 경우에만 수행될 수 있다. 이는, 사용자가 특정 좌표에 기 설정된 범위 내로 접근하지 않았음에도 불구하고 불필요하게 단계(S420)가 수행되는 것을 방지하기 위한 것이다.
만약, 단계(S410)를 통해 산출된 위치 정보를 이용하여 공간의 3차원 좌표계 상 적어도 하나의 가상 객체가 매핑된 특정 좌표에 사용자가 기 설정된 범위 내로 접근하는지 여부를 판단하는 단계가 단계(S410)에서 위치 정보를 산출한 직후 수행되는 경우, 산출된 위치 정보를 이용하여 특정 좌표에 사용자가 기 설정된 범위 내로 접근하는지 여부를 판단한 결과 특정 좌표에 사용자가 기 설정된 범위 내로 접근하지 않는 것으로 판단되었다면, 위치 정보 산출부(310)는 특정 좌표로 이동을 가이드하는 가이드 객체를 증강 현실 글라스(120)를 통해 출력할 수 있다.
또한, 단계(S420)를 통해 획득된 시선 정보를 이용하여 특정 좌표가 사용자의 시선 범위 내에 포함되는지 여부를 판단하는 단계가 단계(S420)에서 시선 정보를 획득한 직후 수행되는 경우, 획득된 시선 정보를 이용하여 특정 좌표가 사용자의 시선 범위 내에 포함되는지 여부를 판단한 결과 특정 좌표가 사용자의 시선 범위 내에 포함되지 않는 것으로 판단되었다면, 시선 정보 획득부(320)는 사용자의 시선 변경을 요구하는 시선 변경 객체를 증강 현실 글라스(120)를 통해 출력할 수 있다.
가이드 객체 및 시선 변경 객체가 각기 위치 정보 산출부(310) 및 시선 정보 획득부(320)에 의해 증강 현실 글라스(120)를 통해 출력되는 것으로 설명되었으나, 위치 정보 산출부(310) 및 시선 정보 획득부(320)가 가상 객체 제공부(330)로 명령을 내려 가상 객체 제공부(330)에 의해 증강 현실 글라스(120)를 통해 출력될 수도 있다.
이처럼 적어도 세 개 이상의 UWB 앵커들(110)과 증강 현실 글라스(120)의 UWB 모듈 사이에서 송수신되는 UWB 신호를 이용하여 사용자의 위치 정보를 산출하고 증강 현실 글라스(120)의 IMU 센서를 이용하여 사용자의 시선 정보를 획득함으로써, 증강 현실 콘텐츠를 제공하기 위한 사용자의 위치와 시선을 정확히 파악할 수 있는 기술적 효과가 달성될 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 후술하는 청구범위에 의하여 나타내어지며, 청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
110: 적어도 세 개 이상의 UWB 앵커들 120: 증강 현실 글라스
130: 컴퓨터 장치

Claims (13)

  1. 공간 내 서로 이격된 위치들에 배치되는 적어도 세 개 이상의 UWB 앵커들 및 상기 공간에 위치하는 사용자가 착용한 증강 현실 글라스를 포함하는 서비스 환경에서 수행되는 증강 현실 콘텐츠 제공 방법에 있어서,
    상기 적어도 세 개 이상의 UWB 앵커들 및 상기 증강 현실 글라스에 포함되는 UWB 모듈 사이에서 UWB 신호가 송수신됨에 응답하여, 상기 증강 현실 글라스를 착용한 상기 사용자의 위치 정보를 산출하는 단계;
    상기 증강 현실 글라스에 포함되는 IMU 센서를 이용하여 상기 사용자의 시선 정보를 획득하는 단계; 및
    상기 산출된 위치 정보 및 상기 획득된 시선 정보에 기초하여 상기 증강 현실 글라스를 통해 적어도 하나의 가상 객체를 제공하는 단계
    를 포함하는 증강 현실 콘텐츠 제공 방법.
  2. 제1항에 있어서,
    상기 제공하는 단계는,
    상기 산출된 위치 정보를 이용하여 상기 공간의 3차원 좌표계 상 상기 적어도 하나의 가상 객체가 매핑된 특정 좌표에 상기 사용자가 기 설정된 범위 내로 접근하는지 여부를 판단한 결과 상기 특정 좌표에 상기 사용자가 기 설정된 범위 내로 접근하는 것으로 판단된 동시에, 상기 획득된 시선 정보를 이용하여 상기 특정 좌표가 상기 사용자의 시선 범위 내에 포함되는지 여부를 판단한 결과 상기 특정 좌표가 상기 사용자의 시선 범위 내에 포함되는 것으로 판단된 경우, 상기 증강 현실 글라스를 통해 상기 적어도 하나의 가상 객체를 제공하는 단계인 것을 특징으로 하는 증강 현실 콘텐츠 제공 방법.
  3. 제2항에 있어서,
    상기 획득하는 단계는,
    상기 산출된 위치 정보를 이용하여 상기 특정 좌표에 상기 사용자가 기 설정된 범위 내로 접근하는지 여부를 판단한 결과 상기 특정 좌표에 상기 사용자가 기 설정된 범위 내로 접근하는 것으로 판단된 경우에만 수행되는 것을 특징으로 하는 증강 현실 콘텐츠 제공 방법.
  4. 제2항에 있어서,
    상기 산출하는 단계는,
    상기 산출된 위치 정보를 이용하여 상기 특정 좌표에 상기 사용자가 기 설정된 범위 내로 접근하는지 여부를 판단한 결과 상기 특정 좌표에 상기 사용자가 기 설정된 범위 내로 접근하지 않는 것으로 판단된 경우, 상기 특정 좌표로 이동을 가이드하는 가이드 객체를 상기 증강 현실 글라스를 통해 출력하는 단계
    를 더 포함하는 것을 특징으로 하는 증강 현실 콘텐츠 제공 방법.
  5. 제2항에 있어서,
    상기 획득하는 단계는,
    상기 획득된 시선 정보를 이용하여 상기 특정 좌표가 상기 사용자의 시선 범위 내에 포함되는지 여부를 판단한 결과 상기 특정 좌표가 상기 사용자의 시선 범위 내에 포함되지 않는 것으로 판단된 경우, 상기 사용자의 시선 변경을 요구하는 시선 변경 객체를 상기 증강 현실 글라스를 통해 출력하는 단계
    를 더 포함하는 것을 특징으로 하는 증강 현실 콘텐츠 제공 방법.
  6. 제1항에 있어서,
    상기 산출하는 단계는,
    상기 적어도 세 개 이상의 UWB 앵커들이 상기 UWB 모듈에서 송신하는 UWB 신호를 각기 수신하는 신호 강도를 기초로 삼각측량법(Triangulation)을 이용하여 상기 사용자의 위치 정보를 산출하는 단계인 것을 특징으로 하는 증강 현실 콘텐츠 제공 방법.
  7. 제6항에 있어서,
    상기 산출하는 단계는,
    상기 세 개 이상의 UWB 앵커들을 기준으로 하는 3차원 좌표계에서의 상기 사용자의 위치 정보를 산출하는 단계인 것을 특징으로 하는 증강 현실 콘텐츠 제공 방법.
  8. 제7항에 있어서,
    상기 세 개 이상의 UWB 앵커들은,
    상기 삼각측량법의 계산 복잡도를 감소시키기 위해, 동일한 높이에 배치되는 것을 특징으로 하는 증강 현실 콘텐츠 제공 방법.
  9. 제8항에 있어서,
    상기 세 개 이상의 UWB 앵커들 중 두 개의 UWB 앵커들은,
    상기 삼각측량법의 계산 복잡도를 감소시키기 위해, 평면에서 동일한 직선 상에 배치되는 것을 특징으로 하는 증강 현실 콘텐츠 제공 방법.
  10. 제1항에 있어서,
    상기 획득하는 단계는,
    상기 IMU 센서에서 센싱되는 방향 정보, 속도 정보 또는 위치 정보 중 적어도 하나를 이용하여 상기 증강 현실 글라스를 기준으로 하는 상기 사용자의 시선 정보를 획득하는 단계인 것을 특징으로 하는 증강 현실 콘텐츠 제공 방법.
  11. 공간 내 서로 이격된 위치들에 배치되는 적어도 세 개 이상의 UWB 앵커들 및 상기 공간에 위치하는 사용자가 착용한 증강 현실 글라스를 포함하는 서비스 환경에서 증강 현실 콘텐츠 제공 방법을 컴퓨터 장치에 실행시키기 위한 컴퓨터 프로그램이 기록되어 있는 컴퓨터 판독 가능한 기록매체에 있어서,
    상기 증강 현실 콘텐츠 제공 방법은,
    상기 적어도 세 개 이상의 UWB 앵커들 및 상기 증강 현실 글라스에 포함되는 UWB 모듈 사이에서 UWB 신호가 송수신됨에 응답하여, 상기 증강 현실 글라스를 착용한 상기 사용자의 위치 정보를 산출하는 단계;
    상기 증강 현실 글라스에 포함되는 IMU 센서를 이용하여 상기 사용자의 시선 정보를 획득하는 단계; 및
    상기 산출된 위치 정보 및 상기 획득된 시선 정보에 기초하여 상기 증강 현실 글라스를 통해 적어도 하나의 가상 객체를 제공하는 단계
    를 포함하는 컴퓨터 판독 가능한 기록매체.
  12. 공간 내 서로 이격된 위치들에 배치되는 적어도 세 개 이상의 UWB 앵커들 및 상기 공간에 위치하는 사용자가 착용한 증강 현실 글라스를 포함하는 서비스 환경에서 증강 현실 콘텐츠 제공 방법을 수행하도록 컴퓨터 판독 가능한 명령들을 실행하는 적어도 하나의 프로세서에 있어서,
    상기 적어도 세 개 이상의 UWB 앵커들 및 상기 증강 현실 글라스에 포함되는 UWB 모듈 사이에서 UWB 신호가 송수신됨에 응답하여, 상기 증강 현실 글라스를 착용한 상기 사용자의 위치 정보를 산출하는 위치 정보 산출부;
    상기 증강 현실 글라스에 포함되는 IMU 센서를 이용하여 상기 사용자의 시선 정보를 획득하는 시선 정보 획득부; 및
    상기 산출된 위치 정보 및 상기 획득된 시선 정보에 기초하여 상기 증강 현실 글라스를 통해 적어도 하나의 가상 객체를 제공하는 가상 객체 제공부
    를 포함하는 적어도 하나의 프로세서.
  13. 증강 현실 콘텐츠 제공 시스템에 있어서,
    공간 내 서로 이격된 위치들에 배치되는 적어도 세 개 이상의 UWB 앵커들;
    상기 공간에 위치하는 사용자가 착용한 증강 현실 글라스; 및
    상기 증강 현실 글라스에 포함되거나, 별도의 컴퓨터 장치에 포함되는 적어도 하나의 프로세서
    를 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 적어도 세 개 이상의 UWB 앵커들 및 상기 증강 현실 글라스에 포함되는 UWB 모듈 사이에서 UWB 신호가 송수신됨에 응답하여, 상기 증강 현실 글라스를 착용한 상기 사용자의 위치 정보를 산출하는 위치 정보 산출부;
    상기 증강 현실 글라스에 포함되는 IMU 센서를 이용하여 상기 사용자의 시선 정보를 획득하는 시선 정보 획득부; 및
    상기 산출된 위치 정보 및 상기 획득된 시선 정보에 기초하여 상기 증강 현실 글라스를 통해 적어도 하나의 가상 객체를 제공하는 가상 객체 제공부
    를 포함하는 증강 현실 콘텐츠 제공 시스템.
KR1020220152486A 2022-11-15 2022-11-15 증강 현실 콘텐츠 제공 방법 및 시스템 KR20240070951A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220152486A KR20240070951A (ko) 2022-11-15 2022-11-15 증강 현실 콘텐츠 제공 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220152486A KR20240070951A (ko) 2022-11-15 2022-11-15 증강 현실 콘텐츠 제공 방법 및 시스템

Publications (1)

Publication Number Publication Date
KR20240070951A true KR20240070951A (ko) 2024-05-22

Family

ID=91329735

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220152486A KR20240070951A (ko) 2022-11-15 2022-11-15 증강 현실 콘텐츠 제공 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR20240070951A (ko)

Similar Documents

Publication Publication Date Title
US11323843B2 (en) Efficient geo-fence data transfer and notifications using a time to reach value
US10249095B2 (en) Context-based discovery of applications
US10984601B2 (en) Data visualization objects in a virtual environment
EP3345073B1 (en) Localizing devices in an augmented reality environment
CN107407567B (zh) 增强现实导航
KR102212250B1 (ko) 증강 현실 오브젝트의 신체 고정식 배치
KR101800109B1 (ko) Iot 기기를 이용해서 증강 현실을 구현한 전장 온라인 게임
KR101650269B1 (ko) 화면 제어를 위한 효율적인 인터페이스를 제공하는 시스템 및 방법
US20200218426A1 (en) Runtime adaptation of augmented reality gaming content based on context of surrounding physical environment
US20180007488A1 (en) Sound source rendering in virtual environment
US20220058823A1 (en) Method and system for displaying a large 3d model on a remote device
US10410425B1 (en) Pressure-based object placement for augmented reality applications
US20190122408A1 (en) Conversion of 2d diagrams to 3d rich immersive content
KR20240070951A (ko) 증강 현실 콘텐츠 제공 방법 및 시스템
CN108595095B (zh) 基于手势控制模拟目标体运动轨迹的方法和装置
US10895913B1 (en) Input control for augmented reality applications
KR101162703B1 (ko) 3차원 가상 공간을 기반으로 원격 제어를 수행하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
US11100521B2 (en) Dynamic boundary implementation for an augmented reality application
KR102317103B1 (ko) Iot 기기를 이용해서 증강 현실을 구현한 전장 온라인 게임
EP3695622B1 (en) Adaptation of presentation speed
CN113132051A (zh) 减少电磁跟踪系统之间的干扰
KR20240071489A (ko) 증강 현실 콘텐츠 제작 방법 및 시스템
KR102243138B1 (ko) 환경 정보 취득을 이용한 혼합 현실 기기 지원 장치 및 그 방법
US20230401873A1 (en) Ar assisted safe cycling
CN118131910A (zh) 虚拟对象交互方法、头戴式显示设备和计算机可读介质