KR20220083346A - 영상 표시 장치의 위치를 추정하는 방법 및 장치 - Google Patents

영상 표시 장치의 위치를 추정하는 방법 및 장치 Download PDF

Info

Publication number
KR20220083346A
KR20220083346A KR1020200173495A KR20200173495A KR20220083346A KR 20220083346 A KR20220083346 A KR 20220083346A KR 1020200173495 A KR1020200173495 A KR 1020200173495A KR 20200173495 A KR20200173495 A KR 20200173495A KR 20220083346 A KR20220083346 A KR 20220083346A
Authority
KR
South Korea
Prior art keywords
display device
image display
neck
information
filtering
Prior art date
Application number
KR1020200173495A
Other languages
English (en)
Inventor
주호진
사공동훈
피재환
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020200173495A priority Critical patent/KR20220083346A/ko
Priority to US17/324,146 priority patent/US11556004B2/en
Publication of KR20220083346A publication Critical patent/KR20220083346A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

영상 표시 장치의 위치를 추정하는 방법은 사용자가 착용한 영상 표시 장치의 위치 정보를 기초로, 사용자의 목의 위치 정보를 산출하고, 목의 위치 정보를 필터링하며, 필터링한 목의 위치 정보를 기초로 영상 표시 장치의 위치를 추정한다.

Description

영상 표시 장치의 위치를 추정하는 방법 및 장치{METHOD AND APPARATUS OF CALCULATING POSITION OF VIDEO DISPLAY DEVICE}
아래의 실시예들은 영상 표시 장치의 위치를 추정하는 방법 및 장치에 관한 것이다.
VR(Virtual Reality) 기기 또는 AR(Augmented Reality) 기기는 대부분 사용자의 머리에 장착되고, 사용자의 위치를 필요로 한다. 사용자의 위치를 추정하는 경우, 작은 크기의 지터(jitter)가 발생할 수 있고, 지터는 사용자의 몰입감을 낮추는 요인이 될 수 있다. 지터를 제거하기 위해 로우 패스 필터(low pass filter)에 의한 필터링을 수행할 수 있으나, 필터링의 수행 시에 레이턴시(latency)가 발생할 수 있다.
일 실시예에 따르면, 영상 표시 장치의 위치를 추정하는 방법은 사용자가 착용한 영상 표시 장치의 위치 정보를 기초로, 상기 사용자의 목의 위치 정보를 산출하는 단계; 상기 목의 위치 정보를 필터링(filtering)하는 단계; 및 상기 필터링한 목의 위치 정보를 기초로, 상기 영상 표시 장치의 위치를 추정하는 단계를 포함한다.
상기 목의 위치 정보를 필터링하는 단계는 상기 목의 위치 정보 중 상기 목을 중심으로 하는 회전에 의해 발생하는 자세 변화 정보를 제외한 나머지에 해당하는 위치 변화 정보를 필터링하는 단계를 포함할 수 있다.
상기 목의 위치 정보를 필터링하는 단계는 로우 패스 필터(Low Pass Filter)에 의해 상기 목의 위치 정보 중 위치 변화 정보를 필터링하는 단계를 포함할 수 있다.
상기 위치 변화 정보를 필터링하는 단계는 상기 위치 변화 정보와 기준치를 비교하는 단계; 및 상기 비교 결과에 기초하여 상기 로우 패스 필터의 컷-오프 주파수(cut-off frequency)를 설정함으로써 상기 위치 변화 정보를 필터링하는 단계를 포함할 수 있다.
상기 위치 변화 정보를 필터링하는 단계는 상기 비교 결과, 상기 위치 변화 정보가 상기 기준치 보다 큰 경우, 상기 로우 패스 필터의 컷-오프 주파수를 일정 기준보다 높게 설정하여 상기 위치 변화 정보를 필터링하는 단계; 및 상기 비교 결과, 상기 위치 변화 정보가 상기 기준치 보다 작거나 같은 경우, 상기 로우 패스 필터의 컷-오프 주파수를 상기 일정 기준보다 낮게 설정하여 상기 위치 변화 정보를 필터링하는 단계를 포함할 수 있다.
상기 영상 표시 장치의 위치를 추정하는 단계는 상기 필터링한 목의 위치 정보에 상기 영상 표시 장치와 상기 목 간의 상대적인 위치 정보를 반영함으로써 상기 영상 표시 장치의 위치를 추정하는 단계를 포함할 수 있다.
상기 목의 위치 정보를 산출하는 단계는 상기 사용자가 착용한 상기 영상 표시 장치의 위치 정보를 산출하는 단계; 및 상기 영상 표시 장치의 위치 정보에 센서들에 의해 감지한 상기 목의 자세 변화를 반영함으로써 상기 목의 위치 정보를 산출하는 단계를 포함할 수 있다.
상기 영상 표시 장치의 위치 정보를 산출하는 단계는 SLAM(Simultaneous Localization And Mapping) 기법에 의해 상기 영상 표시 장치의 위치 정보를 산출하는 단계를 포함할 수 있다.
상기 센서들은 IMU(Inertial Measurement Unit) 센서, 카메라 센서 및 깊이 센서 중 적어도 둘을 포함할 수 있다.
상기 영상 표시 장치의 위치를 추정하는 방법은 상기 추정한 위치를 기초로 렌더링을 수행하는 단계; 및 상기 렌더링한 영상을 상기 사용자에게 제공하는 단계를 더 포함할 수 있다.
상기 영상 표시 장치는 스마트 글래스(smart glass)를 포함하는 웨어러블 디바이스(wearable device); 및 AR(Augmented Reality) 기기, VR(Virtual Reality) 기기, 및 MR(Mixed Reality) 기기를 포함하는 헤드 마운티드 디바이스(Head Mounted Device; HMD) 중 적어도 하나를 포함할 수 있다.
일 실시예에 따르면, 영상 표시 장치는 사용자가 착용한 상기 영상 표시 장치의 위치 정보를 기초로, 상기 사용자의 목의 위치 정보를 산출하고, 상기 목의 위치 정보를 필터링하며, 상기 필터링한 목의 위치 정보를 기초로, 상기 영상 표시 장치의 위치를 추정하는 프로세서를 포함한다.
상기 프로세서는 상기 목의 위치 정보 중 상기 목을 중심으로 하는 회전에 의해 발생하는 자세 변화 정보를 제외한 나머지에 해당하는 위치 변화 정보를 필터링할 수 있다.
상기 프로세서는 로우 패스 필터에 의해 상기 목의 위치 정보 중 위치 변화 정보를 필터링할 수 있다.
상기 프로세서는 상기 위치 변화 정보와 기준치를 비교하고, 상기 비교 결과에 기초하여 상기 로우 패스 필터의 컷-오프 주파수를 설정함으로써 상기 위치 변화 정보를 필터링할 수 있다.
상기 프로세서는 상기 비교 결과, 상기 위치 변화 정보가 상기 기준치 보다 큰 경우, 상기 로우 패스 필터의 컷-오프 주파수를 일정 기준보다 높게 설정하여 상기 위치 변화 정보를 필터링하고, 상기 비교 결과, 상기 위치 변화 정보가 상기 기준치 보다 작거나 같은 경우, 상기 로우 패스 필터의 컷-오프 주파수를 상기 일정 기준보다 낮게 설정하여 상기 위치 변화 정보를 필터링할 수 있다.
상기 프로세서는 상기 필터링한 목의 위치 정보에 상기 영상 표시 장치와 상기 목 간의 상대적인 위치 정보를 반영함으로써 상기 영상 표시 장치의 위치를 추정할 수 있다.
상기 영상 표시 장치는 상기 목의 자세 변화를 감지하는 센서들을 더 포함하고, 상기 프로세서는 상기 사용자가 착용한 상기 영상 표시 장치의 위치 정보를 산출하고, 상기 영상 표시 장치의 위치 정보에 상기 목의 자세 변화를 반영함으로써 상기 목의 위치 정보를 산출할 수 있다.
상기 영상 표시 장치는 상기 추정한 위치를 기초로 렌더링한 영상을 표시하는 디스플레이를 더 포함할 수 있다.
도 1은 일 실시예에 따른 영상 표시 장치의 위치를 추정하는 방법을 나타내 흐름도.
도 2는 일 실시예에 따라 영상 표시 장치의 위치를 추정하는 방법을 설명하기 위한 도면.
도 3은 일 실시예에 따라 위치 변화 정보를 필터링하는 방법을 나타낸 흐름도.
도 4는 다른 실시예에 따른 영상 표시 장치의 위치를 추정하는 방법을 나타낸 흐름도.
도 5는 일 실시예에 따른 영상 표시 장치의 블록도.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 일 실시예에 따른 영상 표시 장치의 위치를 추정하는 방법을 나타내 흐름도이고, 도 2는 일 실시예에 따라 영상 표시 장치의 위치를 추정하는 방법을 설명하기 위한 도면이다. 도 1을 참조하면, 영상 표시 장치가 단계(110) 내지 단계(130)을 통해 영상 표시 장치의 위치를 추정하는 과정이 도시된다. 또한, 도 2를 참조하면, 일 실시예에 따른 필터링을 수행하기 이전의 영상 표시 장치의 위치를 나타낸 도면(210) 및 필터링을 수행한 이후의 영상 표시 장치의 위치를 나타낸 도면(230)이 도시된다.
단계(110)에서, 영상 표시 장치는 사용자가 착용한 영상 표시 장치의 위치 정보를 기초로, 사용자의 목의 위치 정보를 산출한다. 영상 표시 장치의 위치 정보는 영상 표시 장치의 위치를 나타내는 정보로서, 예를 들어, 카메라가 설치된 위치 등과 같이 영상 표시 장치의 특정 지점의 위치에 해당할 수 있다. 목의 위치 정보는 목의 위치를 나타내는 정보에 해당할 수 있다. 목의 위치 정보는 예를 들어, 6자유도로 표현될 수 있으며, 반드시 이에 한정되는 것은 아니다, 목의 위치 정보는 6자유도 이외의 다양한 형태로도 표현될 수 있다.
단계(110)에서, 영상 표시 장치는 사용자가 착용한 영상 표시 장치의 위치 정보를 산출할 수 있다. 영상 표시 장치는 예를 들어, SLAM(Simultaneous Localization And Mapping) 기법에 의해 영상 표시 장치의 위치 정보를 산출할 수 있다. 영상 표시 장치는 영상 표시 장치의 위치 정보에, 센서들(예를 들어, 도 5의 센서들(510) 참조)에 의해 감지한 목의 자세 변화를 반영함으로써 목의 위치 정보를 산출할 수 있다. 아래에서 보다 구체적으로 설명하겠지만, 목의 자세 변화는 예를 들어, 제1 프레임과 제2 프레임에서의 목의 위치 변화에 해당할 수 있다. 목의 자세 변화는 영상 표시 장치와 목 간의 상대적인 위치 벡터(
Figure pat00001
)와 자세 텀(
Figure pat00002
)에 의해 구할 수 있다.
영상 표시 장치는 사용자의 목의 위치 정보를 산출하는 센서들을 포함하고, 센서들을 통해 목의 자세 변화를 감지할 수 있다. 센서들은 IMU(Inertial Measurement Unit) 센서, 카메라 센서 및 깊이 센서 중 적어도 둘을 포함할 수 있으며, 반드시 이에 한정되는 것은 아니다. 영상 표시 장치는 이 밖에 영상 표시 장치를 착용한 사용자의 목의 자세 변화를 산출할 수 있는 다양한 유형의 센서들을 포함할 수 있다. 영상 표시 장치는 가상 현실 영상, 증강 현실 영상, 및 혼합 현실 영상 등을 사용자에게 표시할 수 있는 장치에 해당할 수 있다. 영상 표시 장치의 구성의 일 예시는 아래 도 5의 영상 표시 장치(500)를 참조할 수 있다.
영상 표시 장치는 예를 들어, 스마트 글래스(smart glass)를 포함하는 웨어러블 디바이스(wearable device); 및 AR(Augmented Reality) 기기, VR(Virtual Reality) 기기, 및 MR(Mixed Reality) 기기를 포함하는 헤드 마운티드 디바이스(Head Mounted Device; HMD)을 포함할 수 있으며, 반드시 이에 한정되지는 않는다. 영상 표시 장치는 예를 들어, 카메라, 관성 센서, 및 깊이 측정 센서 등을 장착하여 사용자의 위치를 추정하는 모든 장치들에 해당할 수 있다. 영상 표시 장치는 안경, 헬멧, 모자, 이어폰 등과 같이 다양한 형태로도 구성될 수 있다.
단계(110)에서, 영상 표시 장치는 도면(210)에 도시된 것과 같이 사용자가 착용한 영상 표시 장치의 위치 정보(예를 들어, 카메라의 위치)(
Figure pat00003
)(211)를 기초로, 사용자의 목의 위치 정보(
Figure pat00004
)(213)를 산출할 수 있다. 영상 표시 장치는 아래의 수학식 1과 같이 사용자의 목의 위치 정보(
Figure pat00005
)(213)를 산출할 수 있다. 이때, 영상 표시 장치의 위치 정보(
Figure pat00006
)(211)는 SLAM 기법을 통해 산출될 수 있다.
Figure pat00007
여기서,
Figure pat00008
는 카메라 좌표계(camera coordinate)에 따른 카메라 프레임을 월드 좌표계(world coordinate)에 따른 내비게이션 프레임으로 변환해 주기 위한 파라미터에 해당할 수 있다.
Figure pat00009
는 영상 표시 장치에 대한 목의 자세 변화를 나타내는 텀(term)에 해당할 수 있다.
Figure pat00010
는 예를 들어, 내비게이션 프레임에서의 영상 표시 장치의 방향 코사인 행렬(direction cosine matrix)에 해당할 수 있다.
또한,
Figure pat00011
은 사용자의 자세 변화로 인한 영상 표시 장치와 사용자의 목 간의 상대적인 위치 또는 상관 관계를 나타내는 위치 벡터에 해당할 수 있다.
Figure pat00012
은 예를 들어, 영상 표시 장치에서 목 방향으로의 벡터에 해당할 수 있다.
Figure pat00013
은 사용자가 착용한 영상 표시 장치의 일 지점(예를 들어, 카메라가 위치하는 지점)과 사용자의 목 간의 거리에 대한 대략적인 평균값과 같이 고정된 값으로 설정될 수 있다. 실시예에 따라서, 영상 표시 장치는 영상 표시 장치와 사용자의 목 간의 실제 거리에 의해
Figure pat00014
이 사용자 별로 상이하게 설정되도록 할 수도 있다.
단계(120)에서, 영상 표시 장치는 목의 위치 정보를 필터링(filtering)한다. 영상 표시 장치는 단계(110)에서 산출한 목의 위치 정보 중 목을 중심으로 하는 회전에 의해 발생하는 자세 변화 정보를 제외한 나머지에 해당하는 위치 변화 정보를 필터링할 수 있다. 이하에서, '자세 변화 정보'는 사용자의 목을 중심으로 하는 회전에 의해 발생하는 위치 변화를 나타내는 정보로 이해될 수 있다. 자세 변화 정보는 예를 들어, 사용자의 목을 중심으로 하는 회전에 의해 발생하는 피치(pitch), 요우(yaw), 롤(roll)을 포함할 수 있으며, 반드시 이에 한정되는 것은 아니다. 영상 표시 장치는 로우 패스 필터(Low Pass Filter)에 의해 목의 위치 정보 중 위치 변화 정보를 필터링할 수 있다. 로우 패스 필터는 예를 들어, 적응적 로우 패스 필터(adaptive Low Pass Filter; aLPF)일 수 있다. 적응적 로우 패스 필터(aLPF)에 의해 필터링된 위치 변화 정보는
Figure pat00015
(231)와 같이 나타낼 수 있다.
예를 들어, 영상 표시 장치에 대한 위치 추정과 렌더링 과정에서 레이턴시(latency)가 발생할 수 있다. 이러한 레이턴시의 발생을 막기 위해 영상 표시 장치의 예측된 위치에서 렌더링을 수행하며, 이후, IMU 센서 등의 측정치를 사용하여 워핑(warping)을 수행할 수 있다. 워핑 시에 짧은 시간동안 IMU 센서만을 사용하여 영상 표시 장치의 위치를 추정하는 경우, 지터(jitter)가 발생할 수 있다.
일 실시예에 따른 영상 표시 장치는 가상 현실 영상 및/또는 증강 현실 영상 등을 제공하는 경우에 사용자의 몰입감을 방해하는 지터의 제거 시에 발생하는 레이턴시를 줄이기 위해 영상 표시 장치의 위치가 아닌, 목 위치에서 로우 패스 필터링을 수행할 수 있다. 영상 표시 장치는 목의 위치 정보 중 일부(예를 들어, 목의 위치 정보 중 목을 중심으로 하는 회전에 의해 발생하는 자세 변화 정보를 제외한 나머지에 해당하는 위치 변화 정보)를 필터링 함으로써 지터를 제거하면서도 사용자가 레이턴시를 느끼지 못하도록 필터링을 최소화할 수 있다.
단계(120)에서, 영상 표시 장치는 예를 들어, 위치 변화 정보와 기준치를 비교하고, 비교 결과에 기초하여 로우 패스 필터의 컷-오프 주파수(cut-off frequency)를 설정함으로써 위치 변화 정보를 필터링할 수 있다. 영상 표시 장치가 위치 변화 정보를 필터링하는 방법은 아래의 도 3을 참조하여 보다 구체적으로 설명한다.
단계(130)에서, 영상 표시 장치는 단계(120)에서 필터링한 목의 위치 정보를 기초로, 영상 표시 장치의 위치를 추정한다. 영상 표시 장치는 단계(120)에서 필터링한 목의 위치 정보에, 영상 표시 장치와 목 간의 상대적인 위치 정보를 반영함으로써 영상 표시 장치의 위치를 추정할 수 있다.
영상 표시 장치는 도면(230)에 도시된 것과 같이, 단계(120)에서 필터링한 목의 위치 정보(
Figure pat00016
)(231)를 기초로, 예를 들어, 아래의 수학식 2와 같이 영상 표시 장치의 위치(
Figure pat00017
)(233)를 추정할 수 있다.
Figure pat00018
여기서,
Figure pat00019
을 영상 표시 장치의 추정된 위치에 해당할 수 있다.
Figure pat00020
를 위치 추정치로 활용하는 경우, 목을 중심으로 하는 회전에 의해 발생하는 위치 변화에 해당하는 자세 변화 정보에 대해서는 필터링을 수행하기 않으므로 레이턴시 발생을 감소시킬 수 있다.
예를 들어, 관성 측정 장치(inertial measurement unit)의 자이로스코프(gyroscope)를 통해 회전을 계산할 경우, 회전에 따른 위치 변화에 대한 지터가 매우 적게 발생하므로 회전에 의해 발생하는 자세 변화 정보에 대해서는 필터링을 수행하지 않을 수 있다.
예를 들어, 30Hz로 동작하는 카메라(camera)를 사용하는 SLAM 시스템을 가정해 보자. SLAM 시스템에서 자이로 바이어스(gyro bias)가 0.1°/s 이하로 추정되는 경우, 파라미터
Figure pat00021
는 0.033s 동안에는 0.0033°이하의 지터를 유발할 수 있다. 또한, 저가형 관성 센서의 경우, 0.014°/s/
Figure pat00022
의 랜덤 워크 노이즈(random walk noise)를 가지므로 0.0024°의 지터를 유발할 수 있다.
따라서, 약 0.0057°의 지터를 발생시키며,
Figure pat00023
이 약 0.2m의 길이를 가지는 벡터인 경우, 약 0.02mm의 지터를 유발할 수 있다. 다시 말해,
Figure pat00024
을 이용하여 목의 위치를 계산함으로써 발생하는 지터는 0.02 mm수준이라고 할 수 있다. 사람이 인지할 수 있는 지터의 수준은 0.2mm 보다 매우 작다. 일 실시예에서는 회전에 의해 발생하는 자세 변화 정보에 대한 필터링을 수행하지 않음으로써 레이턴시의 발생을 줄일 수 있다.
영상 표시 장치는 단계(130)에서 추정한 위치를 기초로 렌더링을 수행하고, 렌더링한 영상을 사용자에게 제공함으로써 가상 현실 영상 및/또는 증강 현실 영상에 대한 사용자의 몰입감을 향상시킬 수 있다.
도 3은 일 실시예에 따라 위치 변화 정보를 필터링하는 방법을 나타낸 흐름도이다. 도 3을 참조하면, 일 실시예에 따른 영상 표시 장치가 단계(310) 내지 단계(340)의 과정을 통해 위치 변화 정보를 필터링하는 과정이 도시된다.
단계(310)에서, 영상 표시 장치는 전술한 단계(120)에서 산출한 위치 변화 정보와 기준치를 비교할 수 있다.
단계(320)에서 영상 표시 장치는 위치 변화 정보가 기준치보다 큰지 여부를 결정할 수 있다.
단계(320)에서 위치 변화 정보가 기준치보다 크다고 결정되면, 단계(330)에서 영상 표시 장치는 로우 패스 필터의 컷-오프 주파수를 일정 기준보다 높게 설정하여 위치 변화 정보를 필터링할 수 있다. '위치 변화 정보가 기준치보다 크다'는 것은 위치 변화 정보가 움직임이 큰 동적 변화에 해당함을 의미하므로 영상 표시 장치는 컷-오프 주파수를 높여 필터링 강도를 높일 수 있다.
이와 달리, 단계(320)에서 위치 변화 정보가 기준치보다 작거나 같다고 결정되면, 단계(340)에서 영상 표시 장치는 로우 패스 필터의 컷-오프 주파수를 일정 기준보다 낮게 설정하여 위치 변화 정보를 필터링할 수 있다. '위치 변화 정보가 기준치보다 작거나 같다'는 것은 위치 변화 정보가 움직임이 없거나 움직임이 미미한 정적 변화에 해당함을 의미하므로 영상 표시 장치는 컷-오프 주파수를 낮춰 필터링 강도를 낮출 수 있다.
도 4는 다른 실시예에 따른 영상 표시 장치의 위치를 추정하는 방법을 나타낸 흐름도이다. 도 4를 참조하면, 일 실시예에 따른 영상 표시 장치가 단계(410) 내지 단계(460)를 통해 영상 표시 장치의 위치를 추정하는 과정이 도시된다.
단계(410)에서, 영상 표시 장치는 영상 표시 장치가 장착된 사용자의 머리 위치(Head position)를 산출할 수 있다.
단계(420)에서, 영상 표시 장치는 단계(410)에서 산출한 머리 위치를 기준으로 목의 위치 정보를 산출할 수 있다.
단계(430)에서, 영상 표시 장치는 단계(420)에서 산출한 목의 위치 정보에 대해 적응적 로우 패스 필터에 의한 필터링을 수행할 수 있다.
단계(440)에서, 영상 표시 장치는 단계(430)에서 필터링된 목의 위치 정보를 기초로 영상 표시 장치를 착용한 사용자의 머리 위치를 새로이 추정할 수 있다.
단계(450)에서, 영상 표시 장치는 단계(440)에서 산출한 위치를 기초로 영상을 렌더링(rendering) 및/또는 워핑(warping)할 수 있다. 이때, 영상은 예를 들어, 가상 현실 영상, 증강 현실 영상 및/또는 혼합 현실 영상 중 어느 하나일 수 있다.
단계(460)에서, 영상 표시 장치는 단계(450)에서 렌더링 및/또는 워핑한 영상을 표시(display)할 수 있다.
도 5는 일 실시예에 따른 영상 표시 장치의 블록도이다. 도 5를 참조하면, 일 실시예에 따른 영상 표시 장치(500)는 센서들(510), 프로세서(530), 메모리(550), 통신 인터페이스(570), 및 디스플레이(590)를 포함한다. 센서들(510), 프로세서(530), 메모리(550), 통신 인터페이스(570), 및 디스플레이(590)는 통신 버스(505)를 통해 서로 연결될 수 있다.
센서들(510)은 영상 표시 장치를 착용한 사용자의 목의 위치 정보를 산출한다. 센서들(510)은 사용자의 목을 포함하는 머리 부분에 대한 6자유도의 목의 위치 정보를 감지할 수 있다. 센서들(510)은 예를 들어, IMU(Inertial Measurement Unit) 센서, 카메라 센서 및 깊이 센서 등을 포함할 수 있으며, 반드시 이에 한정되지는 않는다.
프로세서(530)는 센서들(510)에 의해 감지된 목의 위치 정보를 기초로, 목을 중심으로 하는 이동에 의한 위치 변화 정보 및 목을 중심으로 하는 회전에 의한 회전 변환 정보를 산출한다. 프로세서(530)는 위치 변화 정보를 필터링한다. 프로세서(530)는 회전 변환 정보 및 필터링한 위치 변화 정보를 기초로, 상기 영상 표시 장치의 위치를 추정한다. 다만, 프로세서(530)의 동작을 상술한 바로 한정하는 것은 아니고, 프로세서(530)는 도 1 내지 도 4를 통해 전술한 동작들 중 적어도 하나와 함께 상술한 동작을 수행할 수도 있다.
프로세서(530)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 신경망 또는 영상 표시 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 보정 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(Central Processing Unit; CPU), 그래픽 처리 장치(Graphic Processing Unit; GPU), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array), NPU(Neural Processing Unit) 등을 포함할 수 있다.
프로세서(530)는 프로그램을 실행하고, 영상 표시 장치(500)를 제어할 수 있다. 프로세서(530)에 의하여 실행되는 프로그램 코드는 메모리(550)에 저장될 수 있다.
메모리(550)는 센서들(510)이 감지한 목에 대한 위치 변화와 관련된 정보를 저장할 수 있다. 메모리(550)는 프로세서(530)가 산출한 위치 변화 정보 및 회전 변환 정보를 저장할 수 있다. 또한, 메모리(550)는 프로세서(530)가 산출한 영상 표시 장치(500)의 위치를 저장할 수 있다.
또한, 메모리(550)는 상술한 프로세서(530)의 처리 과정에서 생성되는 다양한 정보들을 저장할 수 있다. 이 밖에도, 메모리(550)는 각종 데이터와 프로그램 등을 저장할 수 있다. 메모리(550)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(550)는 하드 디스크 등과 같은 대용량 저장 매체를 구비하여 각종 데이터를 저장할 수 있다.
통신 인터페이스(570)는 프로세서(530)가 산출한 영상 표시 장치의 위치를 영상 표시 장치의 외부로 전송할 수 있다.
디스플레이(590)는 프로세서(530)에 의해 추정된 위치를 기초로 프로세서(530)가 렌더링한 영상을 표시할 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 사용자가 착용한 영상 표시 장치의 위치 정보를 기초로, 상기 사용자의 목의 위치 정보를 산출하는 단계;
    상기 목의 위치 정보를 필터링(filtering)하는 단계; 및
    상기 필터링한 목의 위치 정보를 기초로, 상기 영상 표시 장치의 위치를 추정하는 단계
    를 포함하는, 영상 표시 장치의 위치를 추정하는 방법.
  2. 제1항에 있어서,
    상기 목의 위치 정보를 필터링하는 단계는
    상기 목의 위치 정보 중 상기 목을 중심으로 하는 회전에 의해 발생하는 자세 변화 정보를 제외한 나머지에 해당하는 위치 변화 정보를 필터링하는 단계
    를 포함하는, 영상 표시 장치의 위치를 추정하는 방법.
  3. 제1항에 있어서,
    상기 목의 위치 정보를 필터링하는 단계는
    로우 패스 필터(Low Pass Filter)에 의해 상기 목의 위치 정보 중 위치 변화 정보를 필터링하는 단계
    를 포함하는, 영상 표시 장치의 위치를 추정하는 방법.
  4. 제3항에 있어서,
    상기 위치 변화 정보를 필터링하는 단계는
    상기 위치 변화 정보와 기준치를 비교하는 단계; 및
    상기 비교 결과에 기초하여 상기 로우 패스 필터의 컷-오프 주파수(cut-off frequency)를 설정함으로써 상기 위치 변화 정보를 필터링하는 단계
    를 포함하는, 영상 표시 장치의 위치를 추정하는 방법.
  5. 제4항에 있어서,
    상기 위치 변화 정보를 필터링하는 단계는
    상기 비교 결과, 상기 위치 변화 정보가 상기 기준치 보다 큰 경우, 상기 로우 패스 필터의 컷-오프 주파수를 일정 기준보다 높게 설정하여 상기 위치 변화 정보를 필터링하는 단계; 및
    상기 비교 결과, 상기 위치 변화 정보가 상기 기준치 보다 작거나 같은 경우, 상기 로우 패스 필터의 컷-오프 주파수를 상기 일정 기준보다 낮게 설정하여 상기 위치 변화 정보를 필터링하는 단계
    를 포함하는, 영상 표시 장치의 위치를 추정하는 방법.
  6. 제1항에 있어서,
    상기 영상 표시 장치의 위치를 추정하는 단계는
    상기 필터링한 목의 위치 정보에 상기 영상 표시 장치와 상기 목 간의 상대적인 위치 정보를 반영함으로써 상기 영상 표시 장치의 위치를 추정하는 단계
    를 포함하는, 영상 표시 장치의 위치를 추정하는 방법.
  7. 제1항에 있어서,
    상기 목의 위치 정보를 산출하는 단계는
    상기 사용자가 착용한 상기 영상 표시 장치의 위치 정보를 산출하는 단계; 및
    상기 영상 표시 장치의 위치 정보에 센서들에 의해 감지한 상기 목의 자세 변화를 반영함으로써 상기 목의 위치 정보를 산출하는 단계
    를 포함하는, 영상 표시 장치의 위치를 추정하는 방법.
  8. 제7항에 있어서,
    상기 영상 표시 장치의 위치 정보를 산출하는 단계는
    SLAM(Simultaneous Localization And Mapping) 기법에 의해 상기 영상 표시 장치의 위치 정보를 산출하는 단계
    를 포함하는, 영상 표시 장치의 위치를 추정하는 방법.
  9. 제7항에 있어서,
    상기 센서들은
    IMU(Inertial Measurement Unit) 센서, 카메라 센서 및 깊이 센서 중 적어도 둘을 포함하는, 영상 표시 장치의 위치를 추정하는 방법.
  10. 제1항에 있어서,
    상기 추정한 위치를 기초로 렌더링을 수행하는 단계; 및
    상기 렌더링한 영상을 상기 사용자에게 제공하는 단계
    를 더 포함하는, 영상 표시 장치의 위치를 추정하는 방법.
  11. 제1항에 있어서,
    상기 영상 표시 장치는
    스마트 글래스(smart glass)를 포함하는 웨어러블 디바이스(wearable device); 및
    AR(Augmented Reality) 기기, VR(Virtual Reality) 기기, 및 MR(Mixed Reality) 기기를 포함하는 헤드 마운티드 디바이스(Head Mounted Device; HMD)
    중 적어도 하나를 포함하는, 영상 표시 장치의 위치를 추정하는 방법.
  12. 하드웨어와 결합되어 제1항 내지 제11항 중 어느 하나의 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.
  13. 영상 표시 장치에 있어서,
    사용자가 착용한 상기 영상 표시 장치의 위치 정보를 기초로, 상기 사용자의 목의 위치 정보를 산출하고, 상기 목의 위치 정보를 필터링하며, 상기 필터링한 목의 위치 정보를 기초로, 상기 영상 표시 장치의 위치를 추정하는 프로세서
    를 포함하는, 영상 표시 장치.
  14. 제13항에 있어서,
    상기 프로세서는
    상기 목의 위치 정보 중 상기 목을 중심으로 하는 회전에 의해 발생하는 자세 변화 정보를 제외한 나머지에 해당하는 위치 변화 정보를 필터링하는, 영상 표시 장치.
  15. 제13항에 있어서,
    상기 프로세서는
    로우 패스 필터에 의해 상기 목의 위치 정보 중 위치 변화 정보를 필터링하는, 영상 표시 장치.
  16. 제15항에 있어서,
    상기 프로세서는
    상기 위치 변화 정보와 기준치를 비교하고, 상기 비교 결과에 기초하여 상기 로우 패스 필터의 컷-오프 주파수를 설정함으로써 상기 위치 변화 정보를 필터링하는, 영상 표시 장치.
  17. 제16항에 있어서,
    상기 프로세서는
    상기 비교 결과, 상기 위치 변화 정보가 상기 기준치 보다 큰 경우, 상기 로우 패스 필터의 컷-오프 주파수를 일정 기준보다 높게 설정하여 상기 위치 변화 정보를 필터링하고,
    상기 비교 결과, 상기 위치 변화 정보가 상기 기준치 보다 작거나 같은 경우, 상기 로우 패스 필터의 컷-오프 주파수를 상기 일정 기준보다 낮게 설정하여 상기 위치 변화 정보를 필터링하는, 영상 표시 장치.
  18. 제13항에 있어서,
    상기 프로세서는
    상기 필터링한 목의 위치 정보에 상기 영상 표시 장치와 상기 목 간의 상대적인 위치 정보를 반영함으로써 상기 영상 표시 장치의 위치를 추정하는, 영상 표시 장치.
  19. 제13항에 있어서,
    상기 목의 자세 변화를 감지하는 센서들을 더 포함하고,
    상기 프로세서는
    상기 사용자가 착용한 상기 영상 표시 장치의 위치 정보를 산출하고, 상기 영상 표시 장치의 위치 정보에 상기 목의 자세 변화를 반영함으로써 상기 목의 위치 정보를 산출하는, 영상 표시 장치.
  20. 제13항에 있어서,
    상기 추정한 위치를 기초로 렌더링한 영상을 표시하는 디스플레이
    를 더 포함하는, 영상 표시 장치.
KR1020200173495A 2020-12-11 2020-12-11 영상 표시 장치의 위치를 추정하는 방법 및 장치 KR20220083346A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200173495A KR20220083346A (ko) 2020-12-11 2020-12-11 영상 표시 장치의 위치를 추정하는 방법 및 장치
US17/324,146 US11556004B2 (en) 2020-12-11 2021-05-19 Method and apparatus for estimating position of image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200173495A KR20220083346A (ko) 2020-12-11 2020-12-11 영상 표시 장치의 위치를 추정하는 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20220083346A true KR20220083346A (ko) 2022-06-20

Family

ID=81942401

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200173495A KR20220083346A (ko) 2020-12-11 2020-12-11 영상 표시 장치의 위치를 추정하는 방법 및 장치

Country Status (2)

Country Link
US (1) US11556004B2 (ko)
KR (1) KR20220083346A (ko)

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5742264A (en) * 1995-01-24 1998-04-21 Matsushita Electric Industrial Co., Ltd. Head-mounted display
US9389419B2 (en) * 2008-08-14 2016-07-12 Honeywell International Inc. Near-to-eye display artifact reduction system and method
US8947323B1 (en) * 2012-03-20 2015-02-03 Hayes Solos Raffle Content display methods
CN105188516B (zh) 2013-03-11 2017-12-22 奇跃公司 用于增强和虚拟现实的系统与方法
US9898866B2 (en) 2013-03-13 2018-02-20 The University Of North Carolina At Chapel Hill Low latency stabilization for head-worn displays
US9600993B2 (en) * 2014-01-27 2017-03-21 Atlas5D, Inc. Method and system for behavior detection
JP2017520336A (ja) * 2014-03-17 2017-07-27 コア スポーツ テクノロジー グループCore Sports Technology Group 人体および物体運動への生体力学フィードバックを送達するための方法およびシステム
US10055887B1 (en) * 2015-02-19 2018-08-21 Google Llc Virtual/augmented reality transition system and method
US10268268B1 (en) * 2016-09-02 2019-04-23 Facebook Technologies, Llc Waveguide integrated eye tracking
US10861142B2 (en) 2017-07-21 2020-12-08 Apple Inc. Gaze direction-based adaptive pre-filtering of video data
US20190041978A1 (en) 2017-08-01 2019-02-07 Intel Corporation User defined head gestures methods and apparatus
US20190094955A1 (en) 2017-09-27 2019-03-28 Apple Inc. Range finding and accessory tracking for head-mounted display systems
US10506217B2 (en) 2017-10-09 2019-12-10 Facebook Technologies, Llc Head-mounted display tracking system
KR101987090B1 (ko) 2017-10-31 2019-06-10 용비에이티(주) 드론을 제어하는 방법 및 이를 위한 증강현실 관광 시스템
EP3782125A1 (en) 2018-04-19 2021-02-24 PCMS Holdings, Inc. Systems and methods employing predictive overfilling for virtual reality
WO2019228633A1 (en) 2018-05-31 2019-12-05 Tobii Ab Zero delay gaze filter
EP3827417A4 (en) 2018-07-23 2022-04-27 Magic Leap, Inc. RECURRENT NEURAL NETWORK WITH DEPTH PREDICTOR FOR HEADPOST PREDICTION
KR102049506B1 (ko) 2018-10-23 2019-11-27 주식회사 엠투미 IoT 센서가 구비된 VR 운동 지원 장치
US11156830B2 (en) * 2019-11-14 2021-10-26 Facebook Technologies, Llc Co-located pose estimation in a shared artificial reality environment

Also Published As

Publication number Publication date
US20220187598A1 (en) 2022-06-16
US11556004B2 (en) 2023-01-17

Similar Documents

Publication Publication Date Title
KR102442780B1 (ko) 장치의 자세 추정 방법 및 그 장치
JP6198230B2 (ja) 深度カメラを使用した頭部姿勢トラッキング
KR102462799B1 (ko) 자세 추정 방법 및 자세 추정 장치
US7613356B2 (en) Position and orientation detection method and apparatus
US20140347390A1 (en) Body-locked placement of augmented reality objects
US20070171202A1 (en) Trajectory estimation apparatus, method, and medium for estimating two-dimensional trajectory of gesture
US10204445B2 (en) Information processing apparatus, method, and storage medium for determining a failure of position and orientation measurement of an image capturing device
KR20210042011A (ko) 자세 추적 방법 및 이를 수행하는 장치
CN110530356B (zh) 位姿信息的处理方法、装置、设备及存储介质
KR20200037502A (ko) 포즈 정보를 출력하는 방법 및 장치
EP4050564A1 (en) Method and apparatus with augmented reality pose determination
WO2014125809A1 (ja) 姿勢算出装置、姿勢算出方法、携帯機器およびプログラム
CN114003126A (zh) 虚拟现实设备的交互控制方法、装置及设备
KR20220083346A (ko) 영상 표시 장치의 위치를 추정하는 방법 및 장치
JP6434136B2 (ja) 電子デバイスのためのデュアル磁力計を使用する仮想ジャイロスコープ
CN115690201A (zh) 姿势估计方法和装置
KR102460842B1 (ko) 센서 퓨전에 의한 차량의 위치 추정 방법
KR20180061956A (ko) 눈 위치 예측 방법 및 장치
KR102489652B1 (ko) 가상 현실을 위한 동적 오버필링 방식의 결정 방법
KR20210022354A (ko) 가상 현실 영상 제공 방법
KR102489632B1 (ko) 가상 현실을 위한 동적 오버필링 방법 및 이를 수행하는 시스템
KR102127052B1 (ko) 회전체의 자세각 결정 방법 및 장치
KR20240023934A (ko) 가속도계를 이용하여 자이로스코프를 대상으로 하는 공격을 탐지 및 복원하기 위한 장치 및 방법
CN111489376A (zh) 跟踪交互设备的方法、装置、终端设备及存储介质
JP6958951B2 (ja) 操作推定装置、操作推定方法、及びプログラム

Legal Events

Date Code Title Description
A201 Request for examination