KR20240020143A - 모션 정보에 의한 제어 신호를 식별하는 전자 장치 및 그 제어 방법 - Google Patents

모션 정보에 의한 제어 신호를 식별하는 전자 장치 및 그 제어 방법 Download PDF

Info

Publication number
KR20240020143A
KR20240020143A KR1020220120199A KR20220120199A KR20240020143A KR 20240020143 A KR20240020143 A KR 20240020143A KR 1020220120199 A KR1020220120199 A KR 1020220120199A KR 20220120199 A KR20220120199 A KR 20220120199A KR 20240020143 A KR20240020143 A KR 20240020143A
Authority
KR
South Korea
Prior art keywords
portable device
user
motion information
processor
orientation
Prior art date
Application number
KR1020220120199A
Other languages
English (en)
Inventor
강근석
아난트 바이잘
윤현규
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2023/006541 priority Critical patent/WO2024029695A1/ko
Priority to US18/223,257 priority patent/US20240045520A1/en
Publication of KR20240020143A publication Critical patent/KR20240020143A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

전자 장치가 개시된다. 본 전자 장치는 프로젝션부, 통신 인터페이스 및 프로젝션부 및 통신 인터페이스와 연결되어 전자 장치를 제어하는 적어도 하나의 프로세서를 포함하며, 프로세서는 이미지를 투사 영역에 투사하도록 프로젝션부를 제어하고, 사용자에 의해 착용된 제1 휴대용 장치, 제2 휴대용 장치 및 웨어러블 장치가 이미지에 대응되도록 배치된 후, 통신 인터페이스를 통해 제1 휴대용 장치, 제2 휴대용 장치 및 웨어러블 장치 각각으로부터 제1 모션 정보를 수신하고, 제1 모션 정보에 기초하여 제1 휴대용 장치, 제2 휴대용 장치 및 웨어러블 장치 각각의 배향(orientation)을 식별하며, 식별된 배향에 기초하여 사용자의 위치를 식별할 수 있다.

Description

모션 정보에 의한 제어 신호를 식별하는 전자 장치 및 그 제어 방법 { ELECTRONIC APPARATUS FOR IDENTIFYING A CONTROL SIGNAL BASED ON MOTION INFORMATION AND CONTROL METHOD THEREOF }
본 개시는 전자 장치들 및 그 제어 방법에 대한 것으로, 더욱 상세하게는 모션 정보에 의한 제어 신호를 식별하는 전자 장치 및 그 제어 방법에 대한 것이다.
전자 기술의 발달에 힘입어 다양한 종류의 전자 장치가 개발되고 있다. 특히, 최근에는 사용자에게 대형 스크린 또는 몰입형(immersive) 스크린을 통해 컨텐츠를 제공하기 위한 전자 장치가 개발되고 있다.
사용자는 휴대용 장치를 통해 전자 장치를 제어할 수 있다. 휴대용 장치는 포인팅 방향을 추정하기 위해 적외선(IR)과 같은 광학 센서를 이용할 수 있다. 다만, 대형 스크린, 몰입형 스크린 또는 다중 투사 디스플레이가 포함된 공간에서는 사용자가 자유롭게 이동할 수 있어 LOS(line-of-sight) 작동이 필요한 광학 센서를 이용하는 데는 한계가 있다.
또한, 넓은 공간에 표시되는 컨텐츠와 상호 작용을 위해서는 사용자의 위치가 필요할 수 있으나, 사용자의 위치를 추적하기 위해서 카메라 또는 복잡한 센서가 필요한 문제가 있다.
이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따르면, 전자 장치는 프로젝션부, 통신 인터페이스 및 상기 프로젝션부 및 상기 통신 인터페이스와 연결되어 상기 전자 장치를 제어하는 적어도 하나의 프로세서를 포함하며, 상기 프로세서는 이미지를 투사 영역에 투사하도록 상기 프로젝션부를 제어하고, 사용자에 의해 착용된 제1 휴대용 장치, 제2 휴대용 장치 및 웨어러블 장치가 상기 이미지에 대응되도록 배치된 후, 상기 통신 인터페이스를 통해 상기 제1 휴대용 장치, 상기 제2 휴대용 장치 및 상기 웨어러블 장치 각각으로부터 제1 모션 정보를 수신하고, 상기 제1 모션 정보에 기초하여 상기 제1 휴대용 장치, 상기 제2 휴대용 장치 및 상기 웨어러블 장치 각각의 배향(orientation)을 식별하며, 상기 식별된 배향에 기초하여 상기 사용자의 위치를 식별할 수 있다.
또한, 상기 프로세서는 상기 사용자의 위치를 식별한 후, 상기 통신 인터페이스를 통해 상기 제1 휴대용 장치, 상기 제2 휴대용 장치 및 상기 웨어러블 장치 각각으로부터 제2 모션 정보를 수신하고, 상기 제2 모션 정보에 기초하여 상기 사용자의 위치를 업데이트할 수 있다.
그리고, 룩업 테이블이 저장된 메모리를 더 포함하며, 상기 프로세서는 상기 사용자로부터 상기 사용자의 정면을 향하는 직선 및 상기 제1 휴대용 장치의 배향에 평행한 직선이 이루는 제1 각도 및 상기 사용자로부터 상기 사용자의 정면을 향하는 직선 및 상기 제2 휴대용 장치의 배향에 평행한 직선이 이루는 제2 각도를 식별하고, 상기 룩업 테이블에 기초하여 상기 제1 각도 및 상기 제2 각도에 대응되는 거리를 식별하고, 상기 식별된 거리에 기초하여 상기 사용자의 위치를 식별할 수 있다.
또한, 상기 제1 휴대용 장치, 상기 제2 휴대용 장치 및 상기 웨어러블 장치 각각은 관성 측정 센서를 포함하며, 상기 제1 모션 정보는 상기 제1 휴대용 장치, 상기 제2 휴대용 장치 및 상기 웨어러블 장치 각각의 관성 측정 센서를 통해 측정된 롤(roll), 피치(pitch) 또는 요(yaw) 중 적어도 하나에 대한 정보를 포함할 수 있다.
그리고, 상기 프로세서는 상기 제1 휴대용 장치 또는 상기 제2 휴대용 장치 중 적어도 하나의 배향에 기초하여 상기 투사 영역의 일 지점에 포인터를 투사하도록 상기 프로젝션부를 제어할 수 있다.
또한, 상기 프로세서는 상기 웨어러블 장치로부터 수신된 제1 모션 정보에 기초하여 상기 사용자의 시선을 식별하고, 상기 사용자의 시선에 기초하여 상기 사용자의 시야(field of view)에 대응되는 상기 투사 영역의 일 영역을 식별할 수 있다.
그리고, 상기 프로세서는 상기 제1 휴대용 장치 또는 상기 제2 휴대용 장치 중 적어도 하나의 배향에 대응되는 상기 투사 영역의 일 지점이 상기 일 영역을 벗어나는 경우, 상기 일 영역의 테두리에 상기 포인터를 투사하도록 상기 프로젝션부를 제어할 수 있다.
또한, 상기 프로세서는 상기 포인터가 상기 일 영역의 테두리에 투사된 상태에서, 상기 통신 인터페이스를 통해 상기 제1 휴대용 장치 또는 상기 제2 휴대용 장치 중 적어도 하나로부터 기설정된 제어 신호가 수신되면, 상기 일 영역의 크기를 변경할 수 있다.
그리고, 상기 투사 영역은 기설정된 크기 이상의 스크린 또는 적어도 두 개의 투사면을 포함하는 몰입형(immersive) 스크린으로 구현될 수 있다.
또한, 상기 제1 휴대용 장치 및 상기 제2 휴대용 장치는 상기 사용자에 의해 파지되고, 상기 웨어러블 장치는 상기 사용자의 머리에 착용될 수 있다.
한편, 본 개시의 일 실시 예에 따르면, 전자 장치는 디스플레이, 통신 인터페이스 및 상기 디스플레이 및 상기 통신 인터페이스와 연결되어 상기 전자 장치를 제어하는 적어도 하나의 프로세서를 포함하며, 상기 프로세서는 이미지를 디스플레이하도록 상기 디스플레이를 제어하고, 사용자에 의해 착용된 제1 휴대용 장치, 제2 휴대용 장치 및 웨어러블 장치가 상기 이미지에 대응되도록 배치된 후, 상기 통신 인터페이스를 통해 상기 제1 휴대용 장치, 상기 제2 휴대용 장치 및 상기 웨어러블 장치 각각으로부터 제1 모션 정보를 수신하고, 상기 제1 모션 정보에 기초하여 상기 제1 휴대용 장치, 상기 제2 휴대용 장치 및 상기 웨어러블 장치 각각의 배향(orientation)을 식별하며, 상기 식별된 배향에 기초하여 상기 사용자의 위치를 식별할 수 있다.
한편, 본 개시의 일 실시 예에 따르면, 전자 장치의 제어 방법은 이미지를 투사 영역에 투사하는 단계, 사용자에 의해 착용된 제1 휴대용 장치, 제2 휴대용 장치 및 웨어러블 장치가 상기 이미지에 대응되도록 배치된 후, 상기 제1 휴대용 장치, 상기 제2 휴대용 장치 및 상기 웨어러블 장치 각각으로부터 제1 모션 정보를 수신하는 단계, 상기 제1 모션 정보에 기초하여 상기 제1 휴대용 장치, 상기 제2 휴대용 장치 및 상기 웨어러블 장치 각각의 배향(orientation)을 식별하는 단계 및 상기 식별된 배향에 기초하여 상기 사용자의 위치를 식별하는 단계를 포함한다.
또한, 상기 사용자의 위치를 식별한 후, 상기 제1 휴대용 장치, 상기 제2 휴대용 장치 및 상기 웨어러블 장치 각각으로부터 제2 모션 정보를 수신하는 단계 및 상기 제2 모션 정보에 기초하여 상기 사용자의 위치를 업데이트하는 단계를 더 포함할 수 있다.
그리고, 상기 사용자의 위치를 식별하는 단계는 상기 사용자로부터 상기 사용자의 정면을 향하는 직선 및 상기 제1 휴대용 장치의 배향에 평행한 직선이 이루는 제1 각도 및 상기 사용자로부터 상기 사용자의 정면을 향하는 직선 및 상기 제2 휴대용 장치의 배향에 평행한 직선이 이루는 제2 각도를 식별하고, 룩업 테이블에 기초하여 상기 제1 각도 및 상기 제2 각도에 대응되는 거리를 식별하고, 상기 식별된 거리에 기초하여 상기 사용자의 위치를 식별할 수 있다.
또한, 상기 제1 모션 정보는 상기 제1 휴대용 장치, 상기 제2 휴대용 장치 및 상기 웨어러블 장치 각각의 관성 측정 센서를 통해 측정된 롤(roll), 피치(pitch) 또는 요(yaw) 중 적어도 하나에 대한 정보를 포함할 수 있다.
그리고, 상기 제1 휴대용 장치 또는 상기 제2 휴대용 장치 중 적어도 하나의 배향에 기초하여 상기 투사 영역의 일 지점에 포인터를 투사하는 단계를 더 포함할 수 있다.
또한, 상기 웨어러블 장치로부터 수신된 제1 모션 정보에 기초하여 상기 사용자의 시선을 식별하는 단계 및 상기 사용자의 시선에 기초하여 상기 사용자의 시야(field of view)에 대응되는 상기 투사 영역의 일 영역을 식별하는 단계를 더 포함할 수 있다.
그리고, 상기 포인터를 투사하는 단계는 상기 제1 휴대용 장치 또는 상기 제2 휴대용 장치 중 적어도 하나의 배향에 대응되는 상기 투사 영역의 일 지점이 상기 일 영역을 벗어나는 경우, 상기 일 영역의 테두리에 상기 포인터를 투사할 수 있다.
또한, 상기 포인터가 상기 일 영역의 테두리에 투사된 상태에서, 상기 제1 휴대용 장치 또는 상기 제2 휴대용 장치 중 적어도 하나로부터 기설정된 제어 신호가 수신되면, 상기 일 영역의 크기를 변경하는 단계를 더 포함할 수 있다.
그리고, 상기 투사 영역은 기설정된 크기 이상의 스크린 또는 적어도 두 개의 투사면을 포함하는 몰입형(immersive) 스크린으로 구현될 수 있다.
또한, 상기 제1 휴대용 장치 및 상기 제2 휴대용 장치는 상기 사용자에 의해 파지되고, 상기 웨어러블 장치는 상기 사용자의 머리에 착용될 수 있다.
도 1은 본 개시의 일 실시 예에 따른 전자 시스템을 나타내는 블럭도이다.
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 구성을 나타내는 블럭도이다.
도 3은 본 개시의 일 실시 예에 따른 전자 장치의 세부 구성을 나타내는 블럭도이다.
도 4는 본 개시의 일 실시 예에 따른 전자 장치의 동작을 전반적으로 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따른 전자 장치의 동작을 전반적으로 설명하기 위한 흐름도이다.
도 6은 본 개시의 일 실시 예에 따른 휴대용 장치를 설명하기 위한 도면이다.
도 7은 본 개시의 일 실시 예에 따른 사용자 주변의 투사 영역을 설명하기 위한 도면이다.
도 8 및 도 9는 본 개시의 일 실시 예에 따른 사용자의 위치를 식별하는 방법을 설명하기 위한 도면들이다.
도 10 및 도 11은 본 개시의 일 실시 예에 따른 사용자의 시야에 대응되는 투사 영역의 일 영역을 설명하기 위한 도면들이다.
도 12 및 도 13은 본 개시의 일 실시 예에 따른 사용자의 시야에 대응되는 투사 영역의 일 영역과 포인터의 투사 위치를 설명하기 위한 도면들이다.
도 14는 본 개시의 일 실시 예에 따른 전자 장치 및 휴대용 장치의 세부 구성을 설명하기 위한 도면이다.
도 15는 본 개시의 일 실시하기 위한 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
본 개시의 목적은 광학 센서를 이용하지 않고도 모션 정보를 전송하는 휴대용 장치/웨어러블 장치 및 이로부터 수신된 모션 정보에 의한 제어 신호를 식별하는 전자 장치 및 그 제어 방법을 제공함에 있다.
이하에서는 첨부 도면을 참조하여 본 개시를 상세히 설명한다.
본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
A 또는/및 B 중 적어도 하나라는 표현은 "A" 또는 "B" 또는 "A 및 B" 중 어느 하나를 나타내는 것으로 이해되어야 한다.
본 명세서에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공 지능 전자 장치)를 지칭할 수 있다.
이하 첨부된 도면들을 참조하여 본 개시의 다양한 실시 예를 보다 상세하게 설명한다.
도 1은 본 개시의 일 실시 예에 따른 전자 시스템(1000)을 나타내는 블럭도이다. 도 1에 도시된 바와 같이, 전자 시스템(1000)은 전자 장치(100), 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300)를 포함한다. 다만, 이에 한정되는 것은 아니며, 전자 시스템(1000)은 전자 장치(100)를 포함하고, 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 또는 웨어러블 장치(300) 중 적어도 하나를 더 포함할 수도 있다.
전자 장치(100)는 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 또는 웨어러블 장치(300) 중 적어도 하나로부터 모션 정보를 수신하고, 모션 정보에 기초하여 모션 정보에 대응되는 장치의 배향(orientation)을 식별할 수 있다. 여기서, 배향은 자세 정보일 수 있다. 전자 장치(100)는 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300) 각각의 배향 정보에 기초하여 사용자의 위치를 식별할 수 있다.
전자 장치(100)는 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300) 각각의 배향 정보에 기초하여 제어 명령을 식별할 수 있다. 예를 들어, 전자 장치(100)는 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300) 각각의 배향 정보의 변화에 기초하여 제어 명령을 식별하고, 식별된 제어 명령에 대응되는 동작을 수행할 수 있다.
전자 장치(100)는 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300) 중 하나의 배향 정보에 기초하여 제어 명령을 식별하고, 식별된 제어 명령에 대응되는 동작을 수행할 수 있다. 또는, 전자 장치(100)는 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300) 중 적어도 둘의 배향 정보를 조합하여 제어 명령을 식별할 수도 있다.
전자 장치(100)는 프로젝션부를 통해 이미지를 투사 영역에 투사하는 장치로서, 프로젝터일 수 있다. 또는, 전자 장치(100)는 디스플레이를 통해 이미지를 디스플레이하는 장치로서, TV 등일 수 있다.
다만, 이에 한정되는 것은 아니며, 전자 장치(100)는 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 또는 웨어러블 장치(300) 중 적어도 하나로부터 모션 정보를 수신하고, 대응되는 동작을 수행하는 장치라면 어떠한 장치라도 무방하다. 가령, 전자 장치(100)는 모션 정보를 수신하고, 모션 정보에 대응되는 화면을 프로젝터, TV 등으로 제공하는 장치로서, 스마트폰, 태블릿, AR 글래스, 데스크탑 PC, 노트북 등으로 구현될 수도 있다.
이하에서는 설명의 편의를 위해, 전자 장치(100)가 프로젝터로 구현된 경우로 설명한다.
제1 휴대용 장치(200-1) 및 제2 휴대용 장치(200-2) 각각은 관성 측정 센서를 통해 제1 휴대용 장치(200-1) 및 제2 휴대용 장치(200-2) 각각의 모션 정보를 획득할 수 있다. 예를 들어, 제1 휴대용 장치(200-1) 및 제2 휴대용 장치(200-2) 각각은 관성 측정 센서를 통해 제1 휴대용 장치(200-1) 및 제2 휴대용 장치(200-2) 각각의 롤(roll), 피치(pitch) 또는 요(yaw) 중 적어도 하나에 대한 정보를 획득할 수 있다.
제1 휴대용 장치(200-1) 및 제2 휴대용 장치(200-2)는 모션 정보를 전자 장치(100)로 전송할 수 있다. 예를 들어, 제1 휴대용 장치(200-1) 및 제2 휴대용 장치(200-2)는 블루투스 통신 또는 와이파이 통신을 통해 모션 정보를 전자 장치(100)로 전송할 수 있다.
제1 휴대용 장치(200-1)는 사용자의 좌측 손에 의해 파지되고, 제2 휴대용 장치(200-2)는 사용자의 우측 손에 의해 파지되는 형태로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 제1 휴대용 장치(200-1) 및 제2 휴대용 장치(200-2)는 사용자에 의해 파지 가능하다면 어떠한 형태라도 무방하다.
제1 휴대용 장치(200-1) 및 제2 휴대용 장치(200-2)는 결합 및 분리가 가능한 형태로 구현될 수도 있다. 예를 들어, 제1 휴대용 장치(200-1) 및 제2 휴대용 장치(200-2)의 접합 부분에는 자석이 구비되어, 탈부착이 가능할 수 있다.
웨어러블 장치(300)는 관성 측정 센서를 통해 웨어러블 장치(300)의 모션 정보를 획득할 수 있다. 예를 들어, 웨어러블 장치(300)는 관성 측정 센서를 통해 웨어러블 장치(300)의 롤, 피치 또는 요 중 적어도 하나에 대한 정보를 획득할 수 있다.
웨어러블 장치(300)는 모션 정보를 전자 장치(100)로 전송할 수 있다. 예를 들어, 웨어러블 장치(300)는 블루투스 통신 또는 와이파이 통신을 통해 모션 정보를 전자 장치(100)로 전송할 수 있다.
웨어러블 장치(300)는 사용자의 귀에 착용하는 한 쌍의 이어폰 형태로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 웨어러블 장치(300)는 사용자의 머리에 착용될 수 있다면 어떠한 형태라도 무방하다. 또한, 웨어러블 장치(300)는 사용자의 몸통에 착용되는 형태로 구현될 수도 있다.
도 2는 본 개시의 일 실시 예에 따른 전자 장치(100)의 구성을 나타내는 블럭도이다. 도 2에 따르면, 전자 장치(100)는 프로젝션부(110), 통신 인터페이스(120) 및 프로세서(130)를 포함한다.
프로젝션부(110)는 이미지를 투사 영역에 투사할 수 있다. 구체적으로, 프로젝션부(110)는 램프 또는 LED와 같은 광원을 이용하여 소스 장치로부터 수신된 컨텐츠 및 기저장되어 있는 컨텐츠 중 적어도 하나를 포함하는 이미지를 투사 영역으로 투사할 수 있다.
통신 인터페이스(120)는 다양한 유형의 통신 방식에 따라 다양한 유형의 외부 장치와 통신을 수행하는 구성이다. 예를 들어, 전자 장치(100)는 통신 인터페이스(120)를 통해 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 또는 웨어러블 장치(300)와 통신을 수행할 수 있다.
통신 인터페이스(120)는 와이파이 모듈, 블루투스 모듈, 적외선 통신 모듈 및 무선 통신 모듈 등을 포함할 수 있다. 여기서, 각 통신 모듈은 적어도 하나의 하드웨어 칩 형태로 구현될 수 있다.
와이파이 모듈, 블루투스 모듈은 각각 WiFi 방식, 블루투스 방식으로 통신을 수행한다. 와이파이 모듈이나 블루투스 모듈을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 적외선 통신 모듈은 시 광선과 밀리미터파 사이에 있는 적외선을 이용하여 근거리에 무선으로 데이터를 전송하는 적외선 통신(IrDA, infrared Data Association)기술에 따라 통신을 수행한다.
무선 통신 모듈은 상술한 통신 방식 이외에 지그비(zigbee), 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), LTE-A(LTE Advanced), 4G(4th Generation), 5G(5th Generation)등과 같은 다양한 무선 통신 규격에 따라 통신을 수행하는 적어도 하나의 통신 칩을 포함할 수 있다.
또는, 통신 인터페이스(120)는 HDMI, DP, 썬더볼트, USB, RGB, D-SUB, DVI 등과 같은 유선 통신 인터페이스를 포함할 수 있다.
그 밖에 통신 인터페이스(120)는 LAN(Local Area Network) 모듈, 이더넷 모듈, 또는 페어 케이블, 동축 케이블 또는 광섬유 케이블 등을 이용하여 통신을 수행하는 유선 통신 모듈 중 적어도 하나를 포함할 수도 있다.
프로세서(130)는 전자 장치(100)의 동작을 전반적으로 제어한다. 구체적으로, 프로세서(130)는 전자 장치(100)의 각 구성과 연결되어 전자 장치(100)의 동작을 전반적으로 제어할 수 있다. 예를 들어, 프로세서(130)는 프로젝션부(110), 통신 인터페이스(120), 메모리(미도시) 등과 같은 구성과 연결되어 전자 장치(100)의 동작을 제어할 수 있다.
적어도 하나의 프로세서(130)는 CPU(Central Processing Unit), GPU(Graphics Processing Unit), APU(Accelerated Processing Unit), MIC(Many Integrated Core), DSP(Digital Signal Processor), NPU(Neural Processing Unit), 하드웨어 가속기 또는 머신 러닝 가속기 중 하나 이상을 포함할 수 있다. 적어도 하나의 프로세서(130)는 전자 장치(100)의 다른 구성 요소 중 하나 또는 임의의 조합을 제어할 수 있으며, 통신에 관한 동작 또는 데이터 처리를 수행할 수 있다. 적어도 하나의 프로세서(130)는 메모리에 저장된 하나 이상의 프로그램 또는 명령어(instruction)을 실행할 수 있다. 예를 들어, 적어도 하나의 프로세서(130)는 메모리에 저장된 하나 이상의 명령어를 실행함으로써, 본 개시의 일 실시 예에 따른 방법을 수행할 수 있다.
본 개시의 일 실시 예에 따른 방법이 복수의 동작을 포함하는 경우, 복수의 동작은 하나의 프로세서에 의해 수행될 수도 있고, 복수의 프로세서에 의해 수행될 수도 있다. 예를 들어, 일 실시 예에 따른 방법에 의해 제1 동작, 제2 동작, 제3 동작이 수행될 때, 제1 동작, 제2 동작 및 제3 동작 모두 제1 프로세서에 의해 수행될 수도 있고, 제1 동작 및 제2 동작은 제1 프로세서(예를 들어, 범용 프로세서)에 의해 수행되고 제3 동작은 제2 프로세서(예를 들어, 인공지능 전용 프로세서)에 의해 수행될 수도 있다.
적어도 하나의 프로세서(130)는 하나의 코어를 포함하는 단일 코어 프로세서(single core processor)로 구현될 수도 있고, 복수의 코어(예를 들어, 동종 멀티 코어 또는 이종 멀티 코어)를 포함하는 하나 이상의 멀티 코어 프로세서(multicore processor)로 구현될 수도 있다. 적어도 하나의 프로세서(130)가 멀티 코어 프로세서로 구현되는 경우, 멀티 코어 프로세서에 포함된 복수의 코어 각각은 캐시 메모리, 온 칩(On-chip) 메모리와 같은 프로세서 내부 메모리를 포함할 수 있으며, 복수의 코어에 의해 공유되는 공통 캐시가 멀티 코어 프로세서에 포함될 수 있다. 또한, 멀티 코어 프로세서에 포함된 복수의 코어 각각(또는 복수의 코어 중 일부)은 독립적으로 본 개시의 일 실시 예에 따른 방법을 구현하기 위한 프로그램 명령을 판독하여 수행할 수도 있고, 복수의 코어 전체(또는 일부)가 연계되어 본 개시의 일 실시 예에 따른 방법을 구현하기 위한 프로그램 명령을 판독하여 수행할 수도 있다.
본 개시의 일 실시 예에 따른 방법이 복수의 동작을 포함하는 경우, 복수의 동작은 멀티 코어 프로세서에 포함된 복수의 코어 중 하나의 코어에 의해 수행될 수도 있고, 복수의 코어에 의해 수행될 수도 있다. 예를 들어, 일 실시 예에 따른 방법에 의해 제1 동작, 제2 동작 및 제3 동작이 수행될 때, 제1 동작, 제2 동작 및 제3 동작 모두 멀티 코어 프로세서에 포함된 제1 코어에 의해 수행될 수도 있고, 제1 동작 및 제2 동작은 멀티 코어 프로세서에 포함된 제1 코어에 의해 수행되고 제3 동작은 멀티 코어 프로세서에 포함된 제2 코어에 의해 수행될 수도 있다.
본 개시의 실시 예들에서, 적어도 하나의 프로세서(130)는 하나 이상의 프로세서 및 기타 전자 부품들이 집적된 시스템 온 칩(SoC), 단일 코어 프로세서, 멀티 코어 프로세서, 또는 단일 코어 프로세서 또는 멀티 코어 프로세서에 포함된 코어를 의미할 수 있으며, 여기서 코어는 CPU, GPU, APU, MIC, DSP, NPU, 하드웨어 가속기 또는 기계 학습 가속기 등으로 구현될 수 있으나, 본 개시의 실시 예들이 이에 한정되는 것은 아니다. 다만, 이하에서는 설명의 편의를 위해, 프로세서(130)라는 표현으로 전자 장치(100)의 동작을 설명한다.
프로세서(130)는 이미지를 투사 영역에 투사하도록 프로젝션부(110)를 제어하고, 사용자에 의해 착용된 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300)가 이미지에 대응되도록 배치된 후, 통신 인터페이스(120)를 통해 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300) 각각으로부터 제1 모션 정보를 수신할 수 있다. 예를 들어, 프로세서(130)는 3개의 점을 포함하는 이미지를 투사 영역에 투사하도록 프로젝션부(110)를 제어할 수 있다. 사용자는 3개의 점 중 가운데 점을 응시하고, 제1 휴대용 장치(200-1)를 좌측 점을 향하도록 배치하고, 제2 휴대용 장치(200-2)를 우측 점을 향하도록 배치할 수 있고, 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300)는 각각의 제1 모션 정보를 전자 장치(100)로 전송할 수 있다. 여기서, 제1 모션 정보는 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300) 각각의 관성 측정 센서를 통해 측정된 롤, 피치 또는 요 중 적어도 하나에 대한 정보를 포함할 수 있다.
전자 장치(100)는 제1 모션 정보에 기초하여 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300) 각각의 배향을 식별하며, 식별된 배향에 기초하여 사용자의 위치를 식별할 수 있다. 예를 들어, 전자 장치(100)는 룩업 테이블이 저장된 메모리를 더 포함하며, 프로세서(130)는 사용자로부터 사용자의 정면을 향하는 직선 및 제1 휴대용 장치(200-1)의 배향에 평행한 직선이 이루는 제1 각도 및 사용자로부터 사용자의 정면을 향하는 직선 및 제2 휴대용 장치(200-2)의 배향에 평행한 직선이 이루는 제2 각도를 식별하고, 룩업 테이블에 기초하여 제1 각도 및 제2 각도에 대응되는 거리를 식별하고, 식별된 거리에 기초하여 사용자의 위치를 식별할 수 있다. 즉, 룩업 테이블은 투사 영역으로부터의 거리 별 제1 각도 및 제2 각도를 포함하는 테이블일 수 있다.
프로세서(130)는 사용자의 위치를 식별한 후, 통신 인터페이스(120)를 통해 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300) 각각으로부터 제2 모션 정보를 수신하고, 제2 모션 정보에 기초하여 사용자의 위치를 업데이트할 수 있다. 예를 들어, 프로세서(130)는 웨어러블 장치(300)의 제2 모션 정보에 기초하여 사용자의 위치를 업데이트하고, 제1 휴대용 장치(200-1) 및 제2 휴대용 장치(200-2)의 제2 모션 정보에 대응되는 동작을 수행할 수 있다. 여기서, 프로세서(130)는 업데이트된 사용자의 위치에 기초하여 제1 휴대용 장치(200-1) 및 제2 휴대용 장치(200-2)의 제2 모션 정보에 대응되는 동작을 수행할 수도 있다.
프로세서(130)는 제1 휴대용 장치(200-1) 또는 제2 휴대용 장치(200-2) 중 적어도 하나의 배향에 기초하여 투사 영역의 일 지점에 포인터를 투사하도록 프로젝션부(110)를 제어할 수 있다. 프로세서(130)는 웨어러블 장치(300)로부터 수신된 제1 모션 정보에 기초하여 사용자의 시선을 식별하고, 사용자의 시선에 기초하여 사용자의 시야(field of view)에 대응되는 투사 영역의 일 영역을 식별할 수 있다. 프로세서(130)는 제1 휴대용 장치(200-1) 또는 제2 휴대용 장치(200-2) 중 적어도 하나의 배향에 대응되는 투사 영역의 일 지점이 일 영역을 벗어나는 경우, 일 영역의 테두리에 포인터를 투사하도록 프로젝션부(110)를 제어할 수 있다.
다만, 이에 한정되는 것은 아니며, 프로세서(130)는 제1 휴대용 장치(200-1) 또는 제2 휴대용 장치(200-2) 중 적어도 하나의 배향에 대응되는 투사 영역의 일 지점이 일 영역을 벗어나는 경우, 일 영역의 테두리에 깜박거리는 포인터를 투사하도록 프로젝션부(110)를 제어할 수도 있다. 또는, 프로세서(130)는 일 영역의 테두리에 포인터를 투사하며, 스피커를 통해 경고음을 제공할 수도 있다.
프로세서(130)는 포인터가 일 영역의 테두리에 투사된 상태에서, 통신 인터페이스(120)를 통해 제1 휴대용 장치(200-1) 또는 제2 휴대용 장치(200-2) 중 적어도 하나로부터 기설정된 제어 신호가 수신되면, 일 영역의 크기를 변경할 수 있다.
한편, 투사 영역은 기설정된 크기 이상의 스크린 또는 적어도 두 개의 투사면을 포함하는 몰입형(immersive) 스크린으로 구현될 수 있다.
한편, 전자 장치(100)가 디스플레이를 포함하는 형태로 구현된 경우, 프로세서(130)는 이미지를 디스플레이하도록 디스플레이를 제어하고, 사용자에 의해 착용된 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300)가 이미지에 대응되도록 배치된 후, 통신 인터페이스(120)를 통해 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300) 각각으로부터 제1 모션 정보를 수신하고, 제1 모션 정보에 기초하여 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300) 각각의 배향을 식별하며, 식별된 배향에 기초하여 사용자의 위치를 식별할 수도 있다.
도 3은 본 개시의 일 실시 예에 따른 전자 장치(100)의 세부 구성을 나타내는 블럭도이다.
도 3은 본 개시의 일 실시 예에 따른 전자 장치(100)의 세부 구성을 나타내는 블럭도이다. 전자 장치(100)는 프로젝션부(110), 통신 인터페이스(120) 및 프로세서(130)를 포함할 수 있다. 또한, 도 3에 따르면, 전자 장치(100)는 메모리(140), 디스플레이(150), 사용자 인터페이스(160), 마이크(170), 스피커(180)를 더 포함할 수도 있다. 도 3에 도시된 구성 요소들 중 도 2에 도시된 구성 요소와 중복되는 부분에 대해서는 자세한 설명을 생략하도록 한다.
메모리(140)는 프로세서(130) 등이 접근할 수 있도록 데이터 등의 정보를 전기 또는 자기 형태로 저장하는 하드웨어를 지칭할 수 있다. 이를 위해, 메모리(140)는 비휘발성 메모리, 휘발성 메모리, 플래시 메모리(Flash Memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD), RAM, ROM 등 중에서 적어도 하나의 하드웨어로 구현될 수 있다.
메모리(140)에는 전자 장치(100) 또는 프로세서(130)의 동작에 필요한 적어도 하나의 인스트럭션(instruction)이 저장될 수 있다. 여기서, 인스트럭션은 전자 장치(100) 또는 프로세서(130)의 동작을 지시하는 부호 단위로서, 컴퓨터가 이해할 수 있는 언어인 기계어로 작성된 것일 수 있다. 또는, 메모리(140)에는 전자 장치(100) 또는 프로세서(130)의 특정 작업을 수행하는 복수의 인스트럭션이 인스트럭션 집합체(instruction set)로서 저장될 수도 있다.
메모리(140)에는 문자, 수, 영상 등을 나타낼 수 있는 비트 또는 바이트 단위의 정보인 데이터가 저장될 수 있다. 예를 들어, 메모리(140)에는 사용자의 위치를 식별하기 위한 룩업 테이블, 모션 정보에 기초한 동작에 대한 정보 등이 저장될 수 있다.
메모리(140)는 프로세서(130)에 의해 액세스되며, 프로세서(130)에 의해 인스트럭션, 인스트럭션 집합체 또는 데이터에 대한 독취/기록/수정/삭제/갱신 등이 수행될 수 있다.
디스플레이(150)는 이미지를 디스플레이하는 구성으로, LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이(150) 내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 한편, 디스플레이(150)는 터치 센서와 결합된 터치 스크린, 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 등으로 구현될 수 있다.
전자 장치(100)가 프로젝터로 구현되더라도 별도의 디스플레이(150)를 더 포함하며, 프로세서(130)는 디스플레이(150)를 통해 전자 장치(100)의 동작 상태에 대한 정보를 제공할 수 있다.
사용자 인터페이스(160)는 버튼, 터치 패드, 마우스 및 키보드 등으로 구현되거나, 디스플레이 기능 및 조작 입력 기능도 함께 수행 가능한 터치 스크린으로도 구현될 수 있다. 여기서, 버튼은 전자 장치(100)의 본체 외관의 전면부나 측면부, 배면부 등의 임의의 영역에 형성된 기계적 버튼, 터치 패드, 휠 등과 같은 다양한 유형의 버튼이 될 수 있다.
마이크(170)는 사운드를 입력받아 오디오 신호로 변환하기 위한 구성이다. 마이크(170)는 프로세서(130)와 전기적으로 연결되며, 프로세서(130)의 제어에 의해 사운드를 수신할 수 있다.
예를 들어, 마이크(170)는 전자 장치(100)의 상측이나 전면 방향, 측면 방향 등에 일체화된 일체형으로 형성될 수 있다. 또는, 마이크(170)는 전자 장치(100)와는 별도의 리모컨 등에 구비될 수도 있다. 이 경우, 리모컨은 마이크(170)를 통해 사운드를 수신하고, 수신된 사운드를 전자 장치(100)로 제공할 수도 있다.
마이크(170)는 아날로그 형태의 사운드를 수집하는 마이크, 수집된 사운드를 증폭하는 앰프 회로, 증폭된 사운드를 샘플링하여 디지털 신호로 변환하는 A/D 변환회로, 변환된 디지털 신호로부터 노이즈 성분을 제거하는 필터 회로 등과 같은 다양한 구성을 포함할 수 있다.
한편, 마이크(170)는 사운드 센서의 형태로 구현될 수도 있으며, 사운드를 수집할 수 있는 구성이라면 어떠한 방식이라도 무방하다.
스피커(180)는 프로세서(130)에서 처리된 각종 오디오 데이터 뿐만 아니라 각종 알림 음이나 음성 메시지 등을 출력하는 구성요소이다.
한편, 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300) 각각은 관성 측정 센서를 포함하며, 제1 모션 정보는 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300) 각각의 관성 측정 센서를 통해 측정된 롤, 피치 또는 요 중 적어도 하나에 대한 정보를 포함할 수 있다.
예를 들어, 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300) 각각은 자이로 센서, 가속도 센서 또는 자력계 센서 중 적어도 하나를 포함할 수 있다.
자이로 센서는 장치의 회전각을 감지하기 위한 센서로서, 지구의 회전과 관계 없이 높은 정확도로 항상 처음에 설정한 일정 방향을 유지하는 성질을 이용하여 물체의 방위 변경를 측정할 수 있다. 자이로 센서는 자이로스코프(Gyroscope)라고도 불리며, 기계적인 방식 또는 광을 이용하는 광학식으로 구현될 수 있다.
자이로 센서는 각속도를 측정할 수 있다. 각속도는 시간당 회전하는 각도를 의미하며, 자이로 센서의 측정 원리는 다음과 같다. 예를 들어, 수평한 상태(정지 상태)에서 각속도는 0도/sec이고, 이후 물체가 10초 동안 움직이는 동안 50도만큼 기울어졌다면, 10초 동안의 평균 각속도는 5도/sec다. 정지 상태에서 기울어진 각도 50도를 유지하였다면 각속도가 0도/sec가 된다. 이러한 과정을 거치면서 각속도는 0 → 5 → 0으로 바뀌었고, 각도는 0도에서 증가해서 50도가 된다. 각속도에서 각도를 구하려면 전체 시간에 대해 적분을 해야 한다. 자이로 센서는 이와 같이 각속도를 측정하므로 전체 시간동안 이 각속도를 적분하면 기울어진 각도를 계산할 수 있다. 다만, 자이로 센서는 온도의 영향으로 오차가 발생하며, 오차가 적분 과정에서 누적되어 최종 값이 드리프트(drift)될 수 있다. 그에 따라, 장치는 온도 센서를 더 구비할 수 있고, 온도 센서를 이용하여 자이로 센서의 오차를 보상할 수 있다.
가속도 센서는 장치의 가속도나 충격의 세기를 측정하는 센서로서, 가속도계(accelerometer)라고도 불린다. 가속도 센서는 가속도, 진동, 충격 등의 동적 힘을 감지하며 검출 방식에 따라 관성식, 자이로식, 실리콘 반도체식 등으로 구현될 수 있다. 즉, 가속도 센서란 중력 가속도를 이용하여 장치의 기울어진 정도를 센싱하는 센서로, 통상적으로 2축 또는 3축 플럭스게이트로 이루어질 수 있다.
자력계 센서는 일반적으로 지구 자기의 세기와 방향을 측정하는 센서를 의미하나, 넓은 의미로는 물체가 가진 자화의 세기를 측정하는 센서도 포함하며, 자기력계(magnetometer)라고도 불린다. 자력계 센서는 자기장 속에 수평으로 자석을 매달고 자석이 움직이는 방향을 측정하거나 자기장 속에서 코일을 회전시키고 코일에 발생하는 유도기전력을 측정해서 자기장의 세기를 측정하는 방식으로 구현될 수 있다.
특히, 자력계 센서의 일종으로 지구 자기의 세기를 측정하는 지자기 센서는 일반적으로 플럭스게이트를 사용하여 지자기를 검출하는 플럭스게이트형 지자기 센서로 구현될 수 있다. 플럭스게이트형 지자기 센서란 퍼말로이(permalloy)와 같은 고투자율 재료를 자심으로 사용하며, 그 자심을 감은 구동권선(coil)을 통해 여기자장을 가하여 그 자심의 자기포화 및 비선형 자기 특성에 따라 발생하는 외부 자장에 비례하는 2차 고조파 성분을 측정함으로써 외부자장의 크기 및 방향을 측정하는 장치를 의미한다. 외부자장의 크기 및 방향을 측정함에 따라 현재 방위각을 검출하게 되고, 이에 따라 회전 정도를 측정할 수 있게 된다. 지자기 센서는 2축 또는 3축 플럭스게이트로 이루어질 수 있다. 2축 플럭스게이트 센서, 즉 2축 센서란 서로 직교하는 X축 플럭스게이트 및 Y축 플럭스게이트로 이루어진 센서를 의미하고, 3축 플럭스게이트, 즉 3축 센서란 X축 및 Y축 플럭스게이트에 Z축 플럭스게이트가 추가된 센서를 의미한다.
이상과 같은 지자기 센서 및 가속도 센서를 이용하면 장치의 모션 정보를 획득할 수 있고, 모션 정보를 통해 자세의 획득이 가능하다. 예를 들어, 모션 정보는 롤의 변화량, 피치의 변화량, 요의 변화량로 표현될 수 있고, 자세 정보는 롤각, 피치각, 방위각으로 표현될 수 있다.
방위각(요우각)은 수평면 상에서 좌우 방향으로 변하는 각을 의미하며, 방위각을 산출하게 되면, 장치가 어느 방향을 향하는지 알 수 있다. 예를 들어, 지자기 센서를 이용하면 하기와 같은 수식으로 통해 방위각을 측정할 수 있다.
ψ=arctan(sinψ/cosψ)
여기서, ψ는 방위각을 의미하고, cosψ 및 sinψ는 X축 및 Y축 플럭스게이트 출력값을 의미한다.
롤각은 수평면이 좌우로 기울어지는 각을 의미하며, 롤각을 산출하게 되면, 장치의 좌측 또는 우측 기울기를 알 수 있다. 피치각은 수평면이 상하로 기울어지는 각을 의미하며, 피치각을 산출하게 되면, 장치가 상측 또는 하측으로 기울어진 기울기 각을 알 수 있다. 예를 들어, 가속도 센서를 이용하면 하기와 같은 수식으로 통해 롤각 및 피치각을 측정할 수 있다.
φ=arcsin(ay/g)
θ=arcsin(ax/g)
여기서, g는 중력 가속도, φ는 롤각, θ는 피치각, ax는 X축 가속도 센서 출력값, ay는 Y축 가속도 센서 출력값을 나타낸다.
즉, 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300) 각각이 모션 정보를 전자 장치(100)로 제공하면, 전자 장치(100)는 수신된 정보에 기초하여 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300) 각각의 자세 정보를 획득할 수 있다.
다만, 이에 한정되는 것은 아니며, 관성 측정 센서는 장치의 모션 정보 또는 자세 정보를 획득할 수 있는 장치라면 어떠한 센서라도 무방하다.
또한, 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300) 각각이 직접 배향을 획득하고, 전자 장치(100)로 배향을 제공할 수도 있다.
이상과 같이 전자 장치(100)는 IR 센서 또는 카메라와 같은 광학 센서 없이도 휴대용 장치 등의 배향을 획득하여 사용자의 위치를 식별하고, 대응되는 동작을 수행할 수 있다. 또한, 전자 장치(100)는 포인터가 사용자의 시야 내로 유지되도록 제어하여 디스플레이와의 상호 작용에 있어서 사용성 및 편의성이 향상될 수 있다. 그리고, 휴대용 장치들은 탈부착이 가능하여 사용자 편의성이 향상되고, 다양한 인터랙션이 가능하다.
이하에서는 도 4 내지 도 14를 통해 전자 장치(100)의 동작을 좀더 구체적으로 설명한다. 도 4 내지 도 14에서는 설명의 편의를 위해 개별적인 실시 예에 대하여 설명한다. 다만, 도 4 내지 도 14의 개별적인 실시 예는 얼마든지 조합된 상태로 실시될 수도 있다.
도 4는 본 개시의 일 실시 예에 따른 전자 장치(100)의 동작을 전반적으로 설명하기 위한 도면이다.
프로세서(130)는 최초 사용자의 위치를 식별하는 동작(400), 포인터의 위치를 식별하는 동작(410)을 수행할 수 있다.
먼저, 프로세서(130)는 이미지 패턴을 투사 영역에 투사하도록 프로젝션부(110)를 제어할 수 있다(400-1). 프로세서(130)는 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2)와 같은 핸드헬드 컨트롤러(420-1) 및 웨어러블 장치(300)와 같은 웨어러블 센서(420-2)의 센서 데이터(420-3)를 수신하고, 룩업 테이블을 이용하여(400-2) 사용자의 위치를 식별할 수 있다(400-3).
그리고, 프로세서(130)는 사용자의 현재 위치를 계산하며(410-1), 사용자의 시야(field of view)에 대응되는 투사 영역의 일 영역을 식별할 수 있다(410-2).
프로세서(130)는 핸드헬드 컨트롤러(420-1)의 배향에 기초하여 포인터가 투사될 투사 영역의 일 지점을 식별하고(410-3), 투사 영역의 일 지점이 사용자의 시야에 대응되는 투사 영역의 일 영역을 벗어나는 경우, 일 영역의 테두리에 포인터를 투사할 수 있다(410-4).
프로세서(130)는 센서 데이터(420-3)에 기초하여 멀티미디어 객체 또는 멀티미디어 컨텐츠를 제어할 수 있다(430). 예를 들어, 프로세서(130)는 센서 데이터(420-3)에 기초하여 멀티미디어 객체의 크기를 변경하거나 멀티미디어 객체의 위치를 변경할 수 있다.
도 5는 본 개시의 일 실시 예에 따른 전자 장치(100)의 동작을 전반적으로 설명하기 위한 흐름도이다.
먼저, 프로세서(130)는 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300)로부터 센서 데이터를 수신하고, 센서 데이터를 처리할 수 있다(S510). 예를 들어, 프로세서(130)는 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300)로부터 제1 모션 정보를 수신하고, 제1 모션 정보에 기초하여 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300)의 배향을 식별할 수 있다.
프로세서(130)는 초기화 동작을 수행할 수 있다(S520). 예를 들어, 프로세서(130)는 기설정된 이미지를 투사 영역에 투사하고, 사용자가 이에 기초한 동작을 수행한 후 수신된 센서 데이터를 처리하여 다양한 정보를 획득할 수 있다.
프로세서(130)는 수신된 센서 데이터에 기초하여 사용자의 위치, 사용자의 시야 또는 포인터의 투사 위치 중 적어도 하나를 식별할 수 있다(S530). 예를 들어, 프로세서(130)는 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300)의 배향에 기초하여 사용자의 위치를 식별할 수 있다. 또한, 프로세서(130)는 웨어러블 장치(300)로부터 수신된 제1 모션 정보에 기초하여 사용자의 시선을 식별하고, 사용자의 시선에 기초하여 사용자의 시야에 대응되는 투사 영역의 일 영역을 식별할 수 있다. 또한, 프로세서(130)는 제1 휴대용 장치(200-1) 또는 제2 휴대용 장치(200-2) 중 적어도 하나의 배향에 기초하여 포인터의 투사 위치를 식별할 수 있다.
여기서, 프로세서(130)는 제1 휴대용 장치(200-1) 또는 제2 휴대용 장치(200-2) 중 적어도 하나의 배향에 기초한 포인터의 투사 위치가 사용자의 시야에 대응되는 투사 영역의 일 영역을 벗어나는 경우, 일 영역의 테두리에 포인터를 투사할 수 있다(S540).
프로세서(130)는 이후 수신되는 센서 데이터에 기초하여 멀티미디어 객체 또는 멀티미디어 컨텐츠에 대한 제어를 수행할 수 있다(S550).
이상과 같은 1회적인 초기화 동작이 수행된 후에는 S550 단계의 동작이 연속될 수 있다. 또한, 광학 센서를 이용하지 않기 때문에 사용자 또는 타 사용자의 이동이 있더라도 정확한 제어 신호의 식별이 가능하다.
도 6은 본 개시의 일 실시 예에 따른 휴대용 장치를 설명하기 위한 도면이다.
도 6에 도시된 바와 같이, 제1 휴대용 장치(200-1) 및 제2 휴대용 장치(200-2)는 탈부착이 가능하다. 예를 들어, 제1 휴대용 장치(200-1) 및 제2 휴대용 장치(200-2)는 접촉면에 자석이 구비되어 있어 탈부착될 수 있다.
또한, 제1 휴대용 장치(200-1) 및 제2 휴대용 장치(200-2)는 분리된 경우와 결합된 경우에 상이한 제어 신호를 전자 장치(100)로 제공할 수도 있다.
도 7은 본 개시의 일 실시 예에 따른 사용자 주변의 투사 영역을 설명하기 위한 도면이다.
투사 영역은 도 7에 도시된 바와 같이, 기설정된 크기 이상의 스크린 또는 적어도 두 개의 투사면을 포함하는 몰입형(immersive) 스크린으로 구현될 수 있다.
또는, 도 7의 투사 영역이 복수의 디스플레이를 포함하는 장치 또는 90도 접힌 디스플레이를 포함하는 장치로 구현될 수도 있다.
사용자는 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300)를 통해 상호 작용할 수 있다.
도 8 및 도 9는 본 개시의 일 실시 예에 따른 사용자의 위치를 식별하는 방법을 설명하기 위한 도면들이다.
프로세서(130)는 도 8에 도시된 바와 같이, 3개의 점을 포함하는 이미지를 투사 영역에 투사할 수 있다(S910). 여기서, 3개의 점을 포함하는 이미지는 사용자의 행동을 가이드하기 위한 이미지일 수 있다.
사용자는 3개의 점 중 가운데 점을 응시하고, 제1 휴대용 장치(200-1)를 좌측 점을 향하도록 배치하고, 제2 휴대용 장치(200-2)를 우측 점을 향하도록 배치할 수 있다(S920).
프로세서(130)는 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300)는 각각의 제1 모션 정보를 수신하고(S930), 제1 모션 정보에 기초하여 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2) 및 웨어러블 장치(300)는 각각의 배향을 식별하며, 식별된 배향에 기초하여 사용자의 위치를 식별할 수 있다(S940).
예를 들어, 프로세서(130)는 도 8에 도시된 바와 같이, 제1 휴대용 장치(200-1), 제2 휴대용 장치(200-2)의 배향에 기초하여 θ1, θ2를 획득하고, 메모리(140)에 저장된 룩업 테이블에 기초하여 θ1, θ2에 대응되는 거리(d1)를 식별하여 사용자의 위치를 식별할 수 있다. 가령, θ1, θ2가 180도이면 거리는 이론적으로 0이고, θ1, θ2가 0도이면 거리는 이론적으로 무한대일 수 있다.
도 8에서는 3개의 점을 포함하는 이미지를 예로 들었으나, 사용자를 가이드할 수 있는 방법이라면 어떠한 방법이라도 무방하다.
이러한 동작을 통해 카메라 또는 IR 센서 없이도 사용자의 위치를 식별할 수 있다.
도 10 및 도 11은 본 개시의 일 실시 예에 따른 사용자의 시야에 대응되는 투사 영역의 일 영역을 설명하기 위한 도면들이다.
도 10에 도시된 바와 같이, 사용자는 눈의 움직임에 따른 시야, 목의 움직임에 따른 시야 등 일정한 시야를 확보하게 된다.
프로세서(130)는 웨어러블 장치(300)로부터 수신된 제1 모션 정보에 기초하여 사용자의 시선을 식별하고, 사용자의 시선에 기초하여 사용자의 시야에 대응되는 투사 영역의 일 영역을 식별할 수 있다. 여기서, 투사 영역의 일 영역은 사용자에 따라 확대 또는 축소될 수 있다.
다만, 이에 한정되는 것은 아니며, 프로세서(130)는 웨어러블 장치(300)로부터 수신된 제1 모션 정보에 기초하여 사용자의 시야에 대응되는 투사 영역의 일 영역을 식별할 수도 있다. 즉, 프로세서(130)는 사용자의 시선과는 무관하게 사용자의 머리 방향에 기초하여 사용자의 시야에 대응되는 투사 영역의 일 영역을 식별할 수도 있다.
도 11의 좌측 상단과 같이, 사용자가 우측으로 이동하면, 사용자의 시야에 대응되는 투사 영역의 일 영역도 1110 영역에서 1120 영역으로 변경될 수 있다.
또는, 도 11의 우측 상단과 같이, 사용자가 투사 영역 방향으로 이동하면, 사용자의 시야에 대응되는 투사 영역의 일 영역도 1130 영역에서 1140 영역으로 변경될 수 있다.
또는, 도 11의 하단과 같이, 사용자의 시선이 좌측에서 우측으로 변경되면, 사용자의 시야에 대응되는 투사 영역의 일 영역도 1150 영역에서 1160 영역으로 변경될 수 있다.
여기서, 투사 영역은 기설정된 크기 이상의 스크린 또는 적어도 두 개의 투사면을 포함하는 몰입형 스크린으로 구현될 수 있다. 그에 따라, 사용자의 이동 또는 사용자의 시선의 이동에 따라 사용자가 볼 수 있는 영역이 결정되며, 나머지 영역에는 사용자의 시선이 미치지 않게 된다. 그에 따라, 사용자가 포인터의 위치를 식별하기 어려울 수 있다.
도 12 및 도 13은 본 개시의 일 실시 예에 따른 사용자의 시야에 대응되는 투사 영역의 일 영역과 포인터의 투사 위치를 설명하기 위한 도면들이다.
먼저, 프로세서(130)는 사용자의 위치를 식별하고(S1310), 연속적으로 수신되는 센서 데이터에 기초하여 사용자의 위치를 업데이트할 수 있다(S1320).
프로세서(130)는 사용자의 위치 및 웨어러블 장치(300)로부터 수신된 센서 데이터에 기초하여 사용자의 시야에 대응되는 투사 영역의 일 영역을 식별할 수 있다(S1330).
프로세서(130)는 제1 휴대용 장치(200-1) 또는 제2 휴대용 장치(200-1) 중 적어도 하나의 배향에 대응되는 투사 영역의 일 지점이 사용자의 시야에 대응되는 투사 영역의 일 영역 내이면, 제1 휴대용 장치(200-1) 또는 제2 휴대용 장치(200-1) 중 적어도 하나의 배향에 대응되는 투사 영역의 일 지점에 포인터를 투사하고, 제1 휴대용 장치(200-1) 또는 제2 휴대용 장치(200-1) 중 적어도 하나의 배향에 대응되는 투사 영역의 일 지점이 사용자의 시야에 대응되는 투사 영역의 일 영역을 벗어나는 경우, 일 영역의 테두리에 포인터를 투사할 수 있다(S1340).
가령, 종래에는 도 12의 좌측에 도시된 바와 같이, 사용자의 시야에 대응되는 투사 영역의 일 영역과는 무관하게 1210 또는 1220 지점에 포인터가 투사되었다. 이에 대해, 본 개시에 의하면, 도 12의 우측에 도시된 바와 같이, 프로세서(130)는 휴대용 장치가 1210 또는 1220 지점을 향하더라도 포인터를 사용자의 시야에 대응되는 투사 영역의 일 영역의 테두리에 투사하여, 사용자가 포인터를 식별할 수 있도록 할 수 있다.
도 14는 본 개시의 일 실시 예에 따른 전자 장치 및 휴대용 장치의 세부 구성을 설명하기 위한 도면이다. 도 14에 도시된 구성 중 이전 도면과 중복되는 구성에 대한 설명은 생략한다.
전자 장치(100)는 파워 모듈(191), 오디오(192), 비디오(193)를 더 포함할 수 있다. 파워 모듈(191)은 전자 장치(100)로 전원을 공급하는 구성이고, 오디오(192)는 오디오 컨텐츠를 처리하는 구성이고, 비디오(193)는 비디오 컨텐츠를 처리하는 구성일 수 있다.
프로세서(130)는 초기화 모듈(131), 이미지 패턴 모듈(132), 룩업 테이블 모듈(133), 센서 데이터 처리 모듈(134), 포인터 제어 모듈(135), 제어 모듈(136)을 포함할 수 있다. 각 모듈은 프로세서(130)의 일 구성으로서 하드웨어적으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 각각의 동작이 소프트웨어적으로 구현되어 메모리(140)에 저장된 형태로 구현될 수도 있다.
프로세서(130)는 초기화 모듈(131)을 통해 사용자의 위치 등을 식별하기 위한 동작에 착수할 수 있다. 프로세서(130)는 이미지 패턴 모듈(132)을 통해 사용자의 행동을 가이드하는 이미지를 투사 영역에 투사할 수 있다. 프로세서(130)는 룩업 테이블 모듈(133)에 기초하여 사용자의 위치를 식별하고, 센서 데이터 처리 모듈(134)을 통해 휴대용 장치의 배향을 식별하며, 포인터 제어 모듈(135)을 통해 포인터의 투사 위치를 사용자의 시야에 대응되는 투사 영역의 일 영역 내로 제한할 수 있다. 프로세서(130)는 제어 모듈(136)을 통해 센서 데이터에 대응되는 동작을 수행할 수 있다.
도 15는 본 개시의 일 실시하기 위한 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
먼저, 이미지를 투사 영역에 투사한다(S1510). 그리고, 사용자에 의해 착용된 제1 휴대용 장치, 제2 휴대용 장치 및 웨어러블 장치가 제공된 이미지에 대응되도록 배치된 후, 제1 휴대용 장치, 제2 휴대용 장치 및 웨어러블 장치 각각으로부터 제1 모션 정보를 수신한다(S1520). 그리고, 제1 모션 정보에 기초하여 제1 휴대용 장치, 제2 휴대용 장치 및 웨어러블 장치 각각의 배향(orientation)을 식별한다(S1530). 그리고, 식별된 배향에 기초하여 사용자의 위치를 식별한다(S1540).
여기서, 사용자의 위치를 식별한 후, 제1 휴대용 장치, 제2 휴대용 장치 및 웨어러블 장치 각각으로부터 제2 모션 정보를 수신하는 단계 및 제2 모션 정보에 기초하여 사용자의 위치를 업데이트하는 단계를 더 포함할 수 있다.
한편, 사용자의 위치를 식별하는 단계(S1540)는 사용자로부터 사용자의 정면을 향하는 직선 및 제1 휴대용 장치의 배향에 평행한 직선이 이루는 제1 각도 및 사용자로부터 사용자의 정면을 향하는 직선 및 제2 휴대용 장치의 배향에 평행한 직선이 이루는 제2 각도를 식별하고, 룩업 테이블에 기초하여 제1 각도 및 제2 각도에 대응되는 거리를 식별하고, 식별된 거리에 기초하여 사용자의 위치를 식별할 수 있다.
또한, 제1 모션 정보는 제1 휴대용 장치, 제2 휴대용 장치 및 웨어러블 장치 각각의 관성 측정 센서를 통해 측정된 롤(roll), 피치(pitch) 또는 요(yaw) 중 적어도 하나에 대한 정보를 포함할 수 있다.
한편, 제1 휴대용 장치 또는 제2 휴대용 장치 중 적어도 하나의 배향에 기초하여 투사 영역의 일 지점에 포인터를 투사하는 단계를 더 포함할 수 있다.
여기서, 웨어러블 장치로부터 수신된 제1 모션 정보에 기초하여 사용자의 시선을 식별하는 단계 및 사용자의 시선에 기초하여 사용자의 시야(field of view)에 대응되는 투사 영역의 일 영역을 식별하는 단계를 더 포함할 수 있다.
그리고, 포인터를 투사하는 단계는 제1 휴대용 장치 또는 제2 휴대용 장치 중 적어도 하나의 배향에 대응되는 투사 영역의 일 지점이 일 영역을 벗어나는 경우, 일 영역의 테두리에 포인터를 투사할 수 있다.
여기서, 포인터가 일 영역의 테두리에 투사된 상태에서, 제1 휴대용 장치 또는 제2 휴대용 장치 중 적어도 하나로부터 기설정된 제어 신호가 수신되면, 일 영역의 크기를 변경하는 단계를 더 포함할 수 있다.
한편, 투사 영역은 기설정된 크기 이상의 스크린 또는 적어도 두 개의 투사면을 포함하는 몰입형(immersive) 스크린으로 구현될 수 있다.
또한, 제1 휴대용 장치 및 제2 휴대용 장치는 사용자에 의해 파지되고, 웨어러블 장치는 사용자의 머리에 착용될 수 있다.
이상과 같은 본 개시의 다양한 실시 예에 따르면, 전자 장치는 IR 센서 또는 카메라와 같은 광학 센서 없이도 휴대용 장치 등의 배향을 획득하여 사용자의 위치를 식별하고, 대응되는 동작을 수행할 수 있다.
또한, 전자 장치는 포인터가 사용자의 시야 내로 유지되도록 제어하여 디스플레이와의 상호 작용에 있어서 사용성 및 편의성이 향상될 수 있다.
그리고, 휴대용 장치들은 탈부착이 가능하여 사용자 편의성이 향상되고, 다양한 인터랙션이 가능하다.
한편, 이상에서는 전자 장치가 프로젝터인 경우를 가정하였으나, 디스플레이를 구비한 장치여도 디스플레이와 관련된 동작을 제외한 나머지 동작과 동일한 동작이 가능하다.
한편, 본 개시의 일시 예에 따르면, 이상에서 설명된 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치(예: 전자 장치(A))를 포함할 수 있다. 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 프로세서의 제어 하에 다른 구성요소들을 이용하여 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.
또한, 본 개시의 일 실시 예에 따르면, 이상에서 설명된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
또한, 본 개시의 일 실시 예에 따르면, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 일부 경우에 있어 본 명세서에서 설명되는 실시 예들이 프로세서 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어로서 구현될 수도 있다. 소프트웨어 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 동작을 수행할 수 있다.
한편, 상술한 다양한 실시 예들에 따른 기기의 프로세싱 동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium)에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 기기에서의 처리 동작을 특정 기기가 수행하도록 한다. 비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.
또한, 상술한 다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
1000 : 전자 시스템 100 : 전자 장치
110 : 프로젝션부 120 : 통신 인터페이스
130 : 프로세서 140 : 메모리
150 : 디스플레이 160 : 사용자 인터페이스
170 : 마이크 180 : 스피커
200-1 : 제1 휴대용 장치 200-2 : 제2 휴대용 장치
300 : 웨어러블 장치

Claims (20)

  1. 전자 장치에 있어서,
    프로젝션부;
    통신 인터페이스; 및
    상기 프로젝션부 및 상기 통신 인터페이스와 연결되어 상기 전자 장치를 제어하는 적어도 하나의 프로세서;를 포함하며,
    상기 프로세서는,
    이미지를 투사 영역에 투사하도록 상기 프로젝션부를 제어하고,
    사용자에 의해 착용된 제1 휴대용 장치, 제2 휴대용 장치 및 웨어러블 장치가 상기 이미지에 대응되도록 배치된 후, 상기 통신 인터페이스를 통해 상기 제1 휴대용 장치, 상기 제2 휴대용 장치 및 상기 웨어러블 장치 각각으로부터 제1 모션 정보를 수신하고,
    상기 제1 모션 정보에 기초하여 상기 제1 휴대용 장치, 상기 제2 휴대용 장치 및 상기 웨어러블 장치 각각의 배향(orientation)을 식별하며,
    상기 식별된 배향에 기초하여 상기 사용자의 위치를 식별하는, 전자 장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 사용자의 위치를 식별한 후, 상기 통신 인터페이스를 통해 상기 제1 휴대용 장치, 상기 제2 휴대용 장치 및 상기 웨어러블 장치 각각으로부터 제2 모션 정보를 수신하고,
    상기 제2 모션 정보에 기초하여 상기 사용자의 위치를 업데이트하는, 전자 장치.
  3. 제1항에 있어서,
    룩업 테이블이 저장된 메모리;를 더 포함하며,
    상기 프로세서는,
    상기 사용자로부터 상기 사용자의 정면을 향하는 직선 및 상기 제1 휴대용 장치의 배향에 평행한 직선이 이루는 제1 각도 및 상기 사용자로부터 상기 사용자의 정면을 향하는 직선 및 상기 제2 휴대용 장치의 배향에 평행한 직선이 이루는 제2 각도를 식별하고,
    상기 룩업 테이블에 기초하여 상기 제1 각도 및 상기 제2 각도에 대응되는 거리를 식별하고,
    상기 식별된 거리에 기초하여 상기 사용자의 위치를 식별하는, 전자 장치.
  4. 제1항에 있어서,
    상기 제1 휴대용 장치, 상기 제2 휴대용 장치 및 상기 웨어러블 장치 각각은, 관성 측정 센서를 포함하며,
    상기 제1 모션 정보는,
    상기 제1 휴대용 장치, 상기 제2 휴대용 장치 및 상기 웨어러블 장치 각각의 관성 측정 센서를 통해 측정된 롤(roll), 피치(pitch) 또는 요(yaw) 중 적어도 하나에 대한 정보를 포함하는, 전자 장치.
  5. 제1항에 있어서,
    상기 프로세서는,
    상기 제1 휴대용 장치 또는 상기 제2 휴대용 장치 중 적어도 하나의 배향에 기초하여 상기 투사 영역의 일 지점에 포인터를 투사하도록 상기 프로젝션부를 제어하는, 전자 장치.
  6. 제5항에 있어서,
    상기 프로세서는,
    상기 웨어러블 장치로부터 수신된 제1 모션 정보에 기초하여 상기 사용자의 시선을 식별하고,
    상기 사용자의 시선에 기초하여 상기 사용자의 시야(field of view)에 대응되는 상기 투사 영역의 일 영역을 식별하는, 전자 장치.
  7. 제6항에 있어서,
    상기 프로세서는,
    상기 제1 휴대용 장치 또는 상기 제2 휴대용 장치 중 적어도 하나의 배향에 대응되는 상기 투사 영역의 일 지점이 상기 일 영역을 벗어나는 경우, 상기 일 영역의 테두리에 상기 포인터를 투사하도록 상기 프로젝션부를 제어하는, 전자 장치.
  8. 제7항에 있어서,
    상기 프로세서는,
    상기 포인터가 상기 일 영역의 테두리에 투사된 상태에서, 상기 통신 인터페이스를 통해 상기 제1 휴대용 장치 또는 상기 제2 휴대용 장치 중 적어도 하나로부터 기설정된 제어 신호가 수신되면, 상기 일 영역의 크기를 변경하는, 전자 장치.
  9. 제1항에 있어서,
    상기 투사 영역은,
    기설정된 크기 이상의 스크린 또는 적어도 두 개의 투사면을 포함하는 몰입형(immersive) 스크린으로 구현된, 전자 장치.
  10. 제1항에 있어서,
    상기 제1 휴대용 장치 및 상기 제2 휴대용 장치는,
    상기 사용자에 의해 파지되고,
    상기 웨어러블 장치는,
    상기 사용자의 머리에 착용되는, 전자 장치.
  11. 전자 장치에 있어서,
    디스플레이;
    통신 인터페이스; 및
    상기 디스플레이 및 상기 통신 인터페이스와 연결되어 상기 전자 장치를 제어하는 적어도 하나의 프로세서;를 포함하며,
    상기 프로세서는,
    이미지를 디스플레이하도록 상기 디스플레이를 제어하고,
    사용자에 의해 착용된 제1 휴대용 장치, 제2 휴대용 장치 및 웨어러블 장치가 상기 이미지에 대응되도록 배치된 후, 상기 통신 인터페이스를 통해 상기 제1 휴대용 장치, 상기 제2 휴대용 장치 및 상기 웨어러블 장치 각각으로부터 제1 모션 정보를 수신하고,
    상기 제1 모션 정보에 기초하여 상기 제1 휴대용 장치, 상기 제2 휴대용 장치 및 상기 웨어러블 장치 각각의 배향(orientation)을 식별하며,
    상기 식별된 배향에 기초하여 상기 사용자의 위치를 식별하는, 전자 장치.
  12. 전자 장치의 제어 방법에 있어서,
    이미지를 투사 영역에 투사하는 단계;
    사용자에 의해 착용된 제1 휴대용 장치, 제2 휴대용 장치 및 웨어러블 장치가 상기 이미지에 대응되도록 배치된 후, 상기 제1 휴대용 장치, 상기 제2 휴대용 장치 및 상기 웨어러블 장치 각각으로부터 제1 모션 정보를 수신하는 단계;
    상기 제1 모션 정보에 기초하여 상기 제1 휴대용 장치, 상기 제2 휴대용 장치 및 상기 웨어러블 장치 각각의 배향(orientation)을 식별하는 단계; 및
    상기 식별된 배향에 기초하여 상기 사용자의 위치를 식별하는 단계;를 포함하는, 제어 방법.
  13. 제12항에 있어서,
    상기 사용자의 위치를 식별한 후, 상기 제1 휴대용 장치, 상기 제2 휴대용 장치 및 상기 웨어러블 장치 각각으로부터 제2 모션 정보를 수신하는 단계; 및
    상기 제2 모션 정보에 기초하여 상기 사용자의 위치를 업데이트하는 단계;를 더 포함하는, 제어 방법.
  14. 제12항에 있어서,
    상기 사용자의 위치를 식별하는 단계는,
    상기 사용자로부터 상기 사용자의 정면을 향하는 직선 및 상기 제1 휴대용 장치의 배향에 평행한 직선이 이루는 제1 각도 및 상기 사용자로부터 상기 사용자의 정면을 향하는 직선 및 상기 제2 휴대용 장치의 배향에 평행한 직선이 이루는 제2 각도를 식별하고,
    룩업 테이블에 기초하여 상기 제1 각도 및 상기 제2 각도에 대응되는 거리를 식별하고,
    상기 식별된 거리에 기초하여 상기 사용자의 위치를 식별하는, 제어 방법.
  15. 제12항에 있어서,
    상기 제1 모션 정보는,
    상기 제1 휴대용 장치, 상기 제2 휴대용 장치 및 상기 웨어러블 장치 각각의 관성 측정 센서를 통해 측정된 롤(roll), 피치(pitch) 또는 요(yaw) 중 적어도 하나에 대한 정보를 포함하는, 제어 방법.
  16. 제12항에 있어서,
    상기 제1 휴대용 장치 또는 상기 제2 휴대용 장치 중 적어도 하나의 배향에 기초하여 상기 투사 영역의 일 지점에 포인터를 투사하는 단계;를 더 포함하는, 제어 방법.
  17. 제16항에 있어서,
    상기 웨어러블 장치로부터 수신된 제1 모션 정보에 기초하여 상기 사용자의 시선을 식별하는 단계; 및
    상기 사용자의 시선에 기초하여 상기 사용자의 시야(field of view)에 대응되는 상기 투사 영역의 일 영역을 식별하는 단계;를 더 포함하는, 제어 방법.
  18. 제17항에 있어서,
    상기 포인터를 투사하는 단계는,
    상기 제1 휴대용 장치 또는 상기 제2 휴대용 장치 중 적어도 하나의 배향에 대응되는 상기 투사 영역의 일 지점이 상기 일 영역을 벗어나는 경우, 상기 일 영역의 테두리에 상기 포인터를 투사하는, 제어 방법.
  19. 제18항에 있어서,
    상기 포인터가 상기 일 영역의 테두리에 투사된 상태에서, 상기 제1 휴대용 장치 또는 상기 제2 휴대용 장치 중 적어도 하나로부터 기설정된 제어 신호가 수신되면, 상기 일 영역의 크기를 변경하는 단계;를 더 포함하는, 제어 방법.
  20. 제12항에 있어서,
    상기 투사 영역은,
    기설정된 크기 이상의 스크린 또는 적어도 두 개의 투사면을 포함하는 몰입형(immersive) 스크린으로 구현된, 제어 방법.
KR1020220120199A 2022-08-05 2022-09-22 모션 정보에 의한 제어 신호를 식별하는 전자 장치 및 그 제어 방법 KR20240020143A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2023/006541 WO2024029695A1 (ko) 2022-08-05 2023-05-15 모션 정보에 의한 제어 신호를 식별하는 전자 장치 및 그 제어 방법
US18/223,257 US20240045520A1 (en) 2022-08-05 2023-07-18 Electronic apparatus for identifying a control signal based on motion information and control method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220098118 2022-08-05
KR1020220098118 2022-08-05

Publications (1)

Publication Number Publication Date
KR20240020143A true KR20240020143A (ko) 2024-02-14

Family

ID=89896765

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220120199A KR20240020143A (ko) 2022-08-05 2022-09-22 모션 정보에 의한 제어 신호를 식별하는 전자 장치 및 그 제어 방법

Country Status (1)

Country Link
KR (1) KR20240020143A (ko)

Similar Documents

Publication Publication Date Title
US12080261B2 (en) Computer vision and mapping for audio
EP3486707B1 (en) Perception based predictive tracking for head mounted displays
US10565725B2 (en) Method and device for displaying virtual object
EP4172730A1 (en) Augmented reality experiences with object manipulation
CN106468950B (zh) 电子系统、便携式显示装置及导引装置
US11294188B1 (en) Geometry modeling of eyewear devices with flexible frames
JP6242039B2 (ja) 自動センタリング機能付きのジャイロ制御されるゲーム視点のための装置および方法
US10672149B2 (en) Head mounted display device and processing method of head mounted display device
CN106716303A (zh) 稳定交互射线的运动
WO2018113759A1 (zh) 基于定位系统和ar/mr的探测系统及探测方法
US11792517B2 (en) Pose tracking for rolling shutter camera
US20210231962A1 (en) Position tracking system for head-mounted display systems that includes angle sensitive detectors
CN108604014A (zh) 具有外部显示器的便携式图像设备
JP2019082891A (ja) 頭部装着型表示装置、表示制御方法、およびコンピュータープログラム
GB2571337A (en) Controlling data processing
US20240135926A1 (en) Voice-controlled settings and navigation
KR20240020143A (ko) 모션 정보에 의한 제어 신호를 식별하는 전자 장치 및 그 제어 방법
US20240045520A1 (en) Electronic apparatus for identifying a control signal based on motion information and control method thereof
KR102402457B1 (ko) 콘텐츠 처리 방법 및 이를 지원하는 전자 장치
KR20180026919A (ko) 증강현실 또는 가상현실 시스템
JP2018026048A (ja) 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム
KR101489620B1 (ko) 손목 착용형 디스플레이 장치 및 이의 제어방법
JP2010145837A (ja) 電子機器および表示方法
US12056292B2 (en) Wearable apparatus and control method thereof
KR20230094949A (ko) 다양한 인터랙션을 제공하기 위한 전기 기타 및 그 제어 방법