KR20180054228A - 콘텐츠를 제공하기 위한 방법 및 그 전자 장치 - Google Patents

콘텐츠를 제공하기 위한 방법 및 그 전자 장치 Download PDF

Info

Publication number
KR20180054228A
KR20180054228A KR1020160151899A KR20160151899A KR20180054228A KR 20180054228 A KR20180054228 A KR 20180054228A KR 1020160151899 A KR1020160151899 A KR 1020160151899A KR 20160151899 A KR20160151899 A KR 20160151899A KR 20180054228 A KR20180054228 A KR 20180054228A
Authority
KR
South Korea
Prior art keywords
electronic device
content
variable frame
processor
range
Prior art date
Application number
KR1020160151899A
Other languages
English (en)
Inventor
김정수
김종윤
손동일
윤용상
최종철
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160151899A priority Critical patent/KR20180054228A/ko
Priority to CN201711133574.6A priority patent/CN108073281A/zh
Priority to US15/813,798 priority patent/US20180136715A1/en
Priority to EP17201844.2A priority patent/EP3321726A1/en
Publication of KR20180054228A publication Critical patent/KR20180054228A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1675Miscellaneous details related to the relative movement between the different enclosures or enclosure parts
    • G06F1/1677Miscellaneous details related to the relative movement between the different enclosures or enclosure parts for detecting open or closed state or particular intermediate positions assumed by movable parts of the enclosure, e.g. detection of display lid position with respect to main body in a laptop, detection of opening of the cover of battery compartment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/028Casings; Cabinets ; Supports therefor; Mountings therein associated with devices performing functions other than acoustics, e.g. electric candles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Abstract

본 발명의 다양한 실시 예는 전자 장치에서 콘텐츠를 제공하기 위한 방법 및 장치에 관한 것이다. 이때, 전자 장치는 사용자의 머리에 착용되는 고정 프레임과, 상기 고정 프레임의 적어도 일부에 배치된 회전축을 중심으로 회전할 수 있는 가변 프레임과, 상기 고정 프레임에 대한 상기 가변 프레임의 위치가 제1 범위에 대응하는 것에 적어도 기반하여 제1 콘텐츠를 출력하고, 상기 고정 프레임에 대한 상기 가변 프레임의 위치가 제2 범위에 대응하는 것에 적어도 기반하여 상기 제1 콘텐츠에 대응하는 제2 콘텐츠를 출력하도록 설정된 프로세서를 포함할 수 있다. 다른 실시 예들도 가능할 수 있다.

Description

콘텐츠를 제공하기 위한 방법 및 그 전자 장치{METHOD FOR PROVIDING CONTENT AND ELECTRONIC DEVICE THEREOF}
본 발명의 다양한 실시 예는 전자 장치에서 콘텐츠를 제공하기 위한 방법 및 장치에 관한 것이다.
최근, 신체에 직접 착용될 수 있는 형태의 다양한 장치들이 개발되고 있다. 예를 들어, 전자 장치는 머리 장착형 디스플레이(HMD(head-mounted-display)), 스마트 안경(smart glass), 스마트 시계(smart watch), 스마트 밴드(wristband), 콘텐트 렌즈형 장치 등과 같이 사용자의 신체 일부에 탈부착 가능한 형태 또는 반지형 장치, 신발형 장치, 의복형 장치, 장갑형 장치 등과 같이 의복에 탈부착 가능한 형태로 개발되고 있다. 이러한 전자 장치는 신체에 직접 착용됨에 따라 이동성(portability) 및 사용자의 접근성(accessibility)이 향상되었다.
HMD는 사용자의 머리에 착용되어 사용자에게 콘텐츠를 제공할 수 있다. 예를 들어, HMD는 사용자에게 가상현실 또는 증강현실을 제공할 수 있다.
하지만, HMD는 다양한 종류의 콘텐츠(비디오 콘텐츠, 오디오 콘텐츠, 멀티미디어 콘테츠 등) 중 특정 종류의 콘텐츠(예: 비디오 콘텐츠)만을 제공함에 따라, 사용자에게 높은 만족감을 주기 어려운 문제가 있다. 최근에는, 이와 같은 문제점을 해결하기 위해 HMD에 스피커가 결합되어 영상 출력을 위한 모드와 소리 출력을 위한 모드를 지원하는 HMD가 개발되고 있으나, 이러한 HMD는 전환된 모드에서 출력되는 콘텐츠가 이전 모드에서 출력된 콘텐츠와 연동되지 않음에 따라 콘텐츠에 대한 몰입도가 떨어지는 문제가 있다.
본 발명의 다양한 실시 예는 전자 장치에서 고정 프레임의 적어도 일부에 배치된 회전축을 중심으로 회전되는 가변 프레임의 위치에 기반하여 전자 장치의 동작 모드를 전환하는 방법 및 장치를 제공할 수 있다.
본 발명의 다양한 실시 예는 전자 장치에서 가변 프레임의 위치가 변경됨에 따라 전자 장치의 동작 모드가 변경되는 경우, 가변 프레임의 위치가 변경되기 이전에 재생된 콘텐츠와 관련된 콘텐츠를 제공하는 방법 및 장치를 제공할 수 있다.
본 발명의 다양한 실시 예에 따르면, 전자 장치는, 사용자의 머리에 착용되는 고정 프레임과, 상기 고정 프레임의 적어도 일부에 배치된 회전축을 중심으로 회전할 수 있는 가변 프레임과, 상기 고정 프레임에 대한 상기 가변 프레임의 위치가 제1 범위에 대응하는 것에 적어도 기반하여 제1 콘텐츠를 출력하고, 상기 고정 프레임에 대한 상기 가변 프레임의 위치가 제2 범위에 대응하는 것에 적어도 기반하여 상기 제1 콘텐츠에 대응하는 제2 콘텐츠를 출력하도록 설정된 프로세서를 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 사용자의 머리에 착용되는 고정 프레임과, 상기 고정 프레임의 적어도 일부에 배치된 회전축을 중심으로 회전할 수 있는 가변 프레임을 포함하는 전자 장치의 동작 방법은, 상기 고정 프레임에 대한 상기 가변 프레임의 위치가 제1 범위에 대응하는 것에 적어도 기반하여 제1 콘텐츠를 출력하는 동작과, 상기 고정 프레임에 대한 상기 가변 프레임의 위치가 제2 범위에 대응하는 것에 적어도 기반하여 상기 제1 콘텐츠에 대응하는 제2 콘텐츠를 출력하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 전자 장치는, 사용자의 머리에 착용되는 고정 프레임과, 상기 고정 프레임의 적어도 일부에 배치된 회전축을 중심으로 회전하고, 외부 전자 장치와 전기적으로 결합된 가변 프레임과, 상기 가변 프레임의 위치가 변경되는지 여부를 결정하고, 상기 가변 프레임의 위치가 변경되는 경우, 상기 가변 프레임의 위치가 변경됨을 나타내는 신호를 상기 외부 전자 장치로 전송하도록 설정된 프로세서를 포함할 수 있다.
다양한 실시 예에 따른 전자 장치의 동작 방법 및 장치는, 고정 프레임의 적어도 일부에 배치된 회전축을 중심으로 회전되는 가변 프레임의 위치에 기반하여 전자 장치의 동작 모드를 변경함으로써, 사용자에게 다양한 종류의 콘텐츠를 제공할 수 있다.
다양한 실시 예에 따른 전자 장치의 동작 방법 및 장치는, 전자 장치에서 가변 프레임의 위치가 변경됨에 따라 전자 장치의 동작 모드가 변경되는 경우, 가변 프레임의 위치가 변경되기 이전에 제공된 콘텐츠와 관련된 콘텐츠를 제공함으로써, 콘텐츠에 대한 사용자의 몰입도를 향상시킬 수 있다.
도 1a 내지 1b는 본 발명의 다양한 실시 예에 따른 전자 장치의 구조를 도시한다.
도 2는 본 발명의 다양한 실시 예에 따른 전자 장치에서 입력을 수신하는 일례를 도시한다.
도 3은 본 발명의 다양한 실시 예에 따른 전자 장치의 블록도의 일례를 도시한다.
도 4는 본 발명의 다양한 실시 예에 따른 전자 장치의 블록도의 다른 예를 도시한다.
도 5는 본 발명의 다양한 실시 예에 따른 전자 장치에서 가변 프레임의 위치에 기반하여 콘텐츠를 출력하는 일례의 흐름도를 도시한다.
도 6은 본 발명의 다양한 실시 예에 따른 전자 장치가 가상현실 모드에서 콘텐츠를 출력하는 흐름도를 도시한다.
도 7은 본 발명의 다양한 실시 예에 따른 전자 장치가 가상현실 모드로 동작하는 형태를 도시한다.
도 8은 본 발명의 다양한 실시 예에 따른 전자 장치가 오디오 모드에서 콘텐츠를 출력하는 흐름도를 도시한다.
도 9는 본 발명의 다양한 실시 예에 따른 전자 장치가 오디오 모드로 동작하는 형태를 도시한다.
도 10은 본 발명의 다양한 실시 예에 따른 전자 장치에서 모드 전환 여부를 검출하는 흐름도를 도시한다.
도 11a 내지 11b은 본 발명의 다양한 실시 예에 따른 전자 장치에서 가변 프레임의 위치가 전환되는 형태를 도시한다.
도 12는 본 발명의 다양한 실시 예에 따른 전자 장치에서 전환된 모드에서 콘텐츠를 출력하는 흐름도를 도시한다.
도 13a 내지 13b는 본 발명의 다양한 실시 예에 따른 전자 장치에서 모드 전환에 따라 콘텐츠를 출력하는 개념도를 도시한다.
도 14는 본 발명의 다양한 실시 예에 따른 전자 장치에서 전환된 모드에서 콘텐츠를 출력하는 흐름도를 도시한다.
도 15는 본 발명의 다양한 실시 예에 따른 전자 장치에서 가변 프레임의 위치에 기반하여 콘텐츠를 출력하는 다른 예의 흐름도를 도시한다.
도 16a 내지 16b는 본 발명의 다양한 실시 예에 따른 전자 장치에서 모드 전환에 따라 콘텐츠의 출력을 제어하는 개념도를 도시한다.
이하, 본 문서의 다양한 실시 예들이 첨부된 도면을 참조하여 기재된다. 실시 예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B" 또는 "A 및/또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1," "제 2," "첫째," 또는 "둘째,"등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들어, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들어, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서의 다양한 실시 예들에 따른 전자 장치는, 예를 들어, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(HMD(head-mounted-display)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시 예들에서, 전자 장치는, 예를 들어, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시 예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융 기관의 ATM, 상점의 POS(point of sales), 또는 사물 인터넷 장치 (예: 전구, 각종 센서, 스프링클러 장치, 화재 경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다. 어떤 실시 예에 따르면, 전자 장치는 가구, 건물/구조물 또는 자동차의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터, 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에서, 전자 장치는 플렉서블하거나, 또는 전술한 다양한 장치들 중 둘 이상의 조합일 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1a 내지 1b는 본 발명의 다양한 실시 예에 따른 전자 장치의 구조를 도시하고 있다.
도 1a를 참조하면, 전자 장치(101)는 고정 프레임(110), 스피커(120), 회전축(130), 가변 프레임(140)으로 구성될 수 있다. 어떤 실시 예에서는, 전자 장치(101)는, 선택적으로 입력 장치(미도시)(예: 터치 센서, 입력 키(key), 또는 생체 센서 등) 및 마이크(미도시)를 더 포함할 수 있다. 다양한 실시 예에 따른 전자 장치는, 외부 장치로부터 콘텐츠를 수신하기 위한 적어도 하나의 무선 통신 모듈을 더 포함할 수 있다.
고정 프레임(110)은, 예를 들어, 전자 장치(101)가 사용자의 머리에 착용되도록 사용자의 머리에 밀착될 수 있다. 고정 프레임(110)은, 예를 들어, 스피커(120)와 연결될 수 있다. 이 경우, 고정 프레임(110)은 사용자의 신체 특성에 따라 사용자의 머리에 안착되도록 길이가 조절될 수 있다. 한 실시 예에 따르면, 고정 프레임(110)은 탄성 소재를 포함할 수 있다.
스피커(120)는, 예를 들어, 전자 장치(101)에 저장된 콘텐츠 또는 외부 전자 장치로부터 수신된(예: 통신 모듈을 통해 수신된) 콘텐츠의 소리를 출력할 수 있다. 스피커(120)는, 다른 예를 들어, 전자 장치(101)에 마이크가 포함된 경우, 마이크를 통해 수신되는 외부 소리를 출력할 수 있다. 회전축(130)은 가변 프레임(140)과 연결되며, 고정 프레임(110)의 적어도 일부를 기준으로 회전되는 가변 프레임(140)의 각도를 검출하기 위한 회전 센서를 포함할 수 있다.
가변 프레임(140)은 사용자의 조작에 따라 고정 프레임(110)의 적어도 일부에 배치된 회전축(130)을 중심으로 회전될 수 있다. 가변 프레임(140)은, 예를 들어, 영상을 제공하기 위한 디스플레이를 포함할 수 있다. 예컨대, 가변 프레임(140)은 도 1b와 같이, 콘텐츠 제공을 위한 디스플레이(141), 초점 조절을 위한 렌즈(143), 및 렌즈(143)를 보호하기 위한 렌즈 프로텍터(lens protector)(145)를 포함할 수 있다. 이 경우, 가변 프레임(140)은 디스플레이를 통해 전자 장치(101)에 저장된 콘텐츠 또는 외부 전자 장치로부터 수신된 콘텐츠를 표시할 수 있다. 한 실시 예에 따르면, 가변 프레임(140)은 사용자의 신체 특성 또는 사용자의 기호에 따라 길이가 조절될 수 있다. 한 실시 예에 따르면, 가변 프레임(140)은 사용자의 입력을 수신하기 위한 입력 장치를 포함할 수 있다. 예를 들어, 가변 프레임(140)은 물리적 키, 터치 패드, 조이스틱, 또는 휠(wheel) 키 중 적어도 하나를 포함할 수 있다.
한 실시 예에 따르면, 가변 프레임(140)은, 예를 들어, 디스플레이 장치를 수납할 수 있는 공간이나 구조(예: 수용부)를 포함할 수 있다. 이 경우, 가변 프레임(140)은 디스플레이 장치와 전기적으로 연결하기 위한 커넥터(connector)를 더 포함할 수 있다. 프로세서(320)는, 예를 들어, 가변 프레임(140)의 수용부에 콘텐츠를 출력하기 위한 외부 전자 장치가 결합된 경우, 가변 프레임(140)이 회전되는 각도를 외부 전자 장치로 제공할 수 있다. 프로세서(320)는, 다른 예를 들어, 가변 프레임(140)의 수용부에 콘텐츠를 출력하기 위한 외부 전자 장치가 결합된 상태에서 가변 프레임의 위치가 제1 모드에 대응하는 범위에서 제2 모드에 대응하는 범위에 대응하도록 변경된 경우, 가변 프레임의 위치가 변경됨을 나타내는 신호를 외부 전자 장치로 전송할 수 있다.
도 2는 본 발명의 다양한 실시 예에 따른 전자 장치에서 입력을 수신하는 일례를 도시하고 있다. 이하 설명에서, 전자 장치는 도 1에 도시된 전자 장치(101)의 전체 또는 일부를 포함할 수 있다.
도 2를 참조하면, 전자 장치(201)는 전자 장치(201)를 제어하기 위한 입력 정보를 수신할 수 있다. 한 실시 예에 따르면, 전자 장치(201)는 전자 장치(201)의 구성 요소(예: 마이크, 시선추적모듈, 가속도 센서, 자이로 센서, 가상입력모듈 등)를 통해 입력 정보를 수신할 수 있다. 예를 들어, 전자 장치(201)는 마이크를 통해 음성 정보(211)를 수신할 수 있다. 전자 장치(201)는 음성 정보(211)를 입력 정보로 이용할 수 있다. 다른 예를 들어, 전자 장치(201)는 시선추적모듈을 이용하여 사용자의 눈의 움직임(213)을 검출할 수 있다. 전자 장치(201)는 사용자의 눈의 움직임(213)을 입력 정보로 이용할 수 있다. 또 다른 예를 들어, 전자 장치(201)는 가속도 센서, 자이로 센서, 또는 지자기 센서를 이용하여 전자 장치(201)를 착용한 사용자의 머리 움직임(215)을 검출할 수 있다. 전자 장치(201)는 사용자의 머리 움직임(215)을 입력 정보로 이용할 수 있다. 또 다른 예를 들어, 전자 장치(201)는 카메라 모듈 또는 제스처 센서를 이용하여 사용자의 손 또는 손가락의 움직임(217)을 검출할 수 있다. 전자 장치(201)는 사용자의 손 또는 손가락의 움직임(217)을 입력 정보로 이용할 수 있다.
한 실시 예에 따르면, 전자 장치(201)는 유선 또는 무선으로 연결된 외부 전자 장치로부터 입력 정보를 수신할 수 있다. 예를 들어, 전자 장치(201)는 카메라(221), 조이스틱(223), 스마트 시계(또는 반지)(225), 또는 터치 패드(229) 등과 유선 또는 무선으로 연결될 수 있다. 전자 장치(201)는 유선 또는 무선으로 연결된 카메라(221), 조이스틱(223), 스마트 시계(또는 반지)(225), 또는 터치 패드(229)로부터 사용자의 조작 또는 움직임에 따른 입력 정보를 수신할 수 있다.
한 실시 예에 따르면, 전자 장치(201)는 외부 전자 장치와 초음파 또는 자기장을 이용하여 인식된 전자 장치(201)와 외부 전자 장치 사이의 상대 좌표(예: 거리, 위치 정보 관계 등)를 입력 정보로 이용할 수 있다. 예를 들어, 전자 장치(201)는 초음파를 출력한 후, 외부 전자 장치에 의해 반사되는 초음파를 마이크를 이용하여 수신할 수 있다. 전자 장치(201)는 수신된 초음파에 기반하여 전자 장치(201)와 외부 전자 장치 사이의 상대 좌표를 계산할 수 있다. 전자 장치(201)는 상대 좌표를 입력 정보로 이용할 수 있다.
도 3은 본 발명의 다양한 실시 예에 따른 전자 장치의 블록도를 도시하고 있다. 이하 설명에서, 전자 장치(301)는 도 1의 전자 장치(101) 또는 도 2의 전자 장치(201)의 전체 또는 일부를 포함할 수 있다.
도 3을 참조하면, 전자 장치(301)는 버스(310), 프로세서(320), 메모리(330), 디스플레이(340), 입력 모듈(350), 마이크(360), 스피커(370), 및 센서 모듈(380)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(101)는, 구성요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다.
버스(310)는 구성요소들(320-380)을 서로 연결하고, 구성요소들 간의 통신(예: 제어 메시지 또는 데이터)을 전달하는 회로를 포함할 수 있다.
프로세서(320)는, 중앙처리장치(CPU(central processing unit)), 어플리케이션 프로세서(AP(application processor)), 또는 마이크로제어장치(MCU(micro controller unit)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(320)는, 예를 들어, 다수 개의 하위 프로세서를 포함할 수 있으며, 다수 개의 하위 프로세서 중 적어도 일부는 전자 장치(301)의 적어도 하나의 다른 구성요소들의 제어에 관한 연산이나 데이터 처리를 실행할 수 있다. 한 실시 예에 따르면, 프로세서(320)는 전자 장치(301)가 통신 모듈(미도시)을 포함하는 경우, 커뮤니케이션 프로세서(CP(communication processor))를 포함할 수 있다.
한 실시 예에 따르면, 프로세서(320)는 전자 장치(301)의 가변 프레임의 위치에 대응하는 콘텐츠를 출력할 수 있다. 예를 들어, 프로세서(320)는 고정 프레임의 적어도 일부에 배치된 회전축을 중심으로 회전된 가변 프레임(예: 도 1a의 가변 프레임(140))의 위치를 확인할 수 있다. 프로세서(320)는 가변 프레임의 위치가 가상현실 모드에 대응하는 범위에 포함되는 경우, 가상현실 모드에 대응하는 콘텐츠(예: 오디오 콘텐츠, 비디오 콘텐츠, 멀티미디어 콘텐츠 등)가 출력되도록 디스플레이(340) 또는 스피커(370) 중 적어도 하나를 제어할 수 있다. 이 경우, 프로세서(320)는 전자 장치(301)가 가상현실 모드로 동작하는 것으로 판단할 수 있다. 프로세서(320)는 가변 프레임의 위치가 오디오 모드에 대응하는 범위에 포함되는 경우, 오디오 모드에 대응하는 콘텐츠(예: 오디오 콘텐츠)가 출력되도록 스피커(370)를 제어할 수 있다. 이 경우, 프로세서(320)는 전자 장치(301)가 오디오 모드로 동작하는 것으로 판단할 수 있다. 여기서, 가변 프레임의 위치는 센서 모듈(380)의 센싱 정보에 기반하여 확인할 수 있다. 예를 들어, 프로세서(320)는 회전축에 포함된 회전 센서를 이용하여 가변 프레임의 각도를 확인할 수 있다. 프로세서(320)는 가변 프레임의 각도에 기반하여 가변 프레임의 위치를 판단할 수 있다. 다른 예를 들어, 프로세서(320)는 고정 프레임, 회전축, 또는 가변 프레임에 포함된 다수 개의 스위치 중 가변 프레임의 회전에 의한 압력이 검출되는 스위치를 확인하여 가변 프레임의 위치를 확인할 수 있다.
한 실시 예에 따르면, 프로세서(320)는 가변 프레임의 위치가 변경되는지 여부를 결정할 수 있다. 예를 들어, 프로세서(320)는 센서 모듈(380)의 센싱 정보에 기반하여 가변 프레임의 위치를 확인할 수 있다. 프로세서(320)는 가변 프레임의 위치가 오디오 모드에 대응하는 범위에서 가상현실 모드에 대응하는 범위로 변경되었는지 여부를 결정할 수 있다. 여기서, 센서 모듈(380)은 가변 프레임이 회전된 각도를 측정하기 위한 회전 센서 또는 다수 개의 스위치를 포함할 수 있다.
한 실시 예에 따르면, 프로세서(320)는 가변 프레임의 위치가 변경된 경우, 가변 프레임의 위치가 변경되기 이전에 출력된 콘텐츠에 대응하는 콘텐츠를 출력할 수 있다. 예를 들어, 프로세서(320)는 가변 프레임의 위치가 오디오 모드에 대응하는 범위에서 가상현실 모드에 대응하는 범위로 변경된 경우, 전자 장치(301)의 동작 모드를 오디오 모드에서 가상현실 모드로 전환할 수 있다. 프로세서(320)는 오디오 모드에서 출력된 오디오 콘텐츠에 대응하는 멀티미디어 콘텐츠를 결정할 수 있다. 프로세서(320)는 멀티미디어 콘텐츠가 출력되도록 디스플레이(340) 또는 스피커(370) 중 적어도 하나를 제어할 수 있다. 다른 예를 들어, 프로세서(320)는 가변 프레임의 위치가 가상현실 모드에 대응하는 범위에서 오디오 모드에 대응하는 범위로 변경된 경우, 전자 장치의 동작 모드를 가상현실 모드에서 오디오 모드로 전환할 수 있다. 프로세서(320)는 전자 장치(301)와 통신 연결된 외부 전자 장치로 오디오 가변 프레임의 위치가 변경됨을 나타내는 신호를 전송할 수 있다. 프로세서(320)는 외부 전자 장치로부터 가상현실 모드에서 출력된 멀티미디어 콘텐츠에 대응하는 오디오 콘텐츠를 수신할 수 있다. 프로세서(320)는 오디오 콘텐츠가 출력되도록 스피커(370)를 제어할 수 있다.
한 실시 예에 따르면, 프로세서(320)는 고정 프레임의 적어도 일부에 포함된 회전축을 중심으로 회전하는 가변 프레임의 위치에 기반하여 아이들 모드 전환을 검출할 수 있다. 예를 들어, 프로세서(320)는 고정 프레임의 적어도 일부에 배치된 회전축을 중심으로 회전된 가변 프레임의 위치가 가상현실 모드 또는 오디오 모드에 대응하는 범위에 포함되지 않는 경우(또는 아이들 모드에 대응하는 범위에 포함되는 경우), 아이들 모드 전환을 검출할 수 있다. 다른 예를 들어, 프로세서(320)는 고정 프레임, 회전축, 또는 가변 프레임에 포함된 다수 개의 스위치로부터 압력이 검출되지 않는 경우, 아이들 모드 전환을 검출할 수 있다. 이 경우, 프로세서(320)는 가변 프레임의 위치가 변경되기 이전에 출력된 콘텐츠의 출력이 중단되도록 디스플레이(340) 또는 스피커(370) 중 적어도 하나를 제어하고, 출력이 중단된 콘텐츠의 재생과 연관된 정보를 메모리(330)에 저장할 수 있다. 프로세서(320)는 콘텐츠의 출력의 중단에 대한 응답으로 프로세서(320)에 포함된 다수 개의 하위 프로세서 중 적어도 일부를 슬립(sleep) 상태로 천이시킬 수 있다. 이 경우, 활성화 상태를 유지하는 일부 하위 프로세서는 마이크(360)로부터 수신되는 소리가 출력되도록 스피커(370)를 제어할 수 있다.
한 실시 예에 따르면, 프로세서(320)는 아이들 모드로 동작하는 동안 가변 프레임의 위치가 변경되는 경우, 콘텐츠가 출력되도록 디스플레이(340) 또는 스피커(370) 중 적어도 하나를 제어할 수 있다. 예를 들어, 프로세서(320)는 아이들 모드로 동작하는 동안 가변 프레임이 회전되는지 판단할 수 있다. 프로세서(320)는 가변 프레임이 회전되는 경우, 가변 프레임의 위치가 가상현실 모드 또는 오디오 모드에 대응하는 범위로 변경되는지 판단할 수 있다. 프로세서(320)는 가변 프레임의 위치가 가상현실 모드 또는 오디오 모드에 대응하는 범위로 변경된 경우, 메모리(330)에 저장된 콘텐츠의 재생과 연관된 정보에 기반하여 콘텐츠의 출력이 중단된 시점 이후부터 콘텐츠가 출력되도록 디스플레이(340) 또는 스피커(370) 중 적어도 하나를 제어할 수 있다.
메모리(330)는, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(330)는, 예를 들어, 전자 장치(301)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시 예에 따르면, 메모리(330)는 소프트웨어 및/또는 프로그램을 저장할 수 있다. 프로그램은 예를 들어, 커널, 미들웨어, 어플리케이션 프로그래밍 인터페이스(API(application programming interface)), 및/또는 어플리케이션 프로그램(또는 어플리케이션) 등을 포함할 수 있다. 커널은, 예를 들어, 다른 프로그램들(예: 미들웨어, API, 또는 어플리케이션 프로그램)에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스(310), 프로세서(320), 또는 메모리(330) 등)을 제어 또는 관리할 수 있다. 또한, 커널은 미들웨어, API, 또는 어플리케이션 프로그램에서 전자 장치(301)의 개별 구성요소에 접근함으로써, 시스템 리소스들을 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다. 미들웨어는, 예를 들어, API 또는 어플리케이션 프로그램이 커널과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 미들웨어는 어플리케이션 프로그램으로부터 수신된 하나 이상의 작업 요청들을 우선 순위에 따라 처리할 수 있다. 예를 들어, 미들웨어는 어플리케이션 프로그램 중 적어도 하나에 전자 장치(301)의 시스템 리소스(예: 버스(310), 프로세서(320), 또는 메모리(330) 등)를 사용할 수 있는 우선 순위를 부여하고, 상기 하나 이상의 작업 요청들을 처리할 수 있다. API는 어플리케이션 프로그램이 커널 또는 미들웨어에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들어, 파일 제어, 창 제어, 영상 처리, 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.
디스플레이(340)는, 예를 들어, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드OLED) 디스플레이, 또는 마이크로 전자기계 시스템(MEMS) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이(340)는, 예를 들어, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 및/또는 심볼 등)을 표시할 수 있다.
입력 모듈(350)은 전자 장치(301)를 제어하기 위한 다양한 종류의 입력 장치를 포함할 수 있다. 예를 들어, 입력 모듈(350)은 물리적 키, 물리적 버튼, 터치 키, 조이스틱, 휠(wheel) 키 또는 터치 패드 중 적어도 하나를 포함할 수 있다. 다른 예를 들어, 입력 모듈(350)은 사용자의 터치 입력 및 호버링 입력을 검출하기 위한 터치 패널을 포함할 수 있다. 입력 모듈(350)은 예를 들어, 도 1a의 전자 장치(101)의 가변 프레임(140)에 포함될 수 있다.
마이크(360)는 전자 장치를 제어하기 위한 사용자의 입력 또는 외부 소리를 수신할 수 있다. 예를 들어, 마이크(360)는 전자 장치(301)가 가상현실 모드 또는 오디오 모드로 동작하는 경우, 수신 되는 외부 소리로부터 사용자의 입력(예: 사용자의 음성(voice))을 추출할 수 있다. 다른 예를 들어, 마이크(360)는 전자 장치(301)가 아이들 모드로 동작하는 경우, 외부 소리를 수신할 수 있다. 한 실시 예에 따르면, 마이크(360)는 전자 장치(301)가 가상현실 모드로 동작하는 경우, 프로세서(320)의 제어에 따라 비활성화될 수 있다. 스피커(370)는 전자 장치(301)의 다른 구성 요소들로부터 수신된 전기 신호를 소리로 변환시킬 수 있다.
센서 모듈(380)은, 전자 장치(301)의 움직임 정보를 획득할 수 있다. 예를 들어, 센서 모듈(380)은 제스처 센서, 자이로 센서, 가속도 센서, 지자기 센서, 회전 센서, 스위치 등을 이용하여 전자 장치(301)(또는 전자 장치를 사용하는 사용자)의 움직임 정보 및 가변 프레임의 위치를 확인할 수 있다. 예컨대, 센서 모듈(380)은 제스처 센서를 이용하여 사용자의 손 또는 손가락의 움직임을 검출할 수 있다. 예컨대, 센서 모듈(380)은 자이로 센서, 가속도 센서, 지자기 센서 중 적어도 하나를 이용하여 전자 장치(301)를 착용한 사용자의 머리 움직임을 검출할 수 있다. 예컨대, 센서 모듈(380)은 회전 센서 또는 스위치를 이용하여 고정 프레임의 적어도 일부에 배치된 회전축을 중심으로 회전되는 가변 프레임의 위치를 확인할 수 있다.
한 실시 예에 따르면 디스플레이(340)는 전자 장치(301)와 결합된 외부 전자 장치에 포함될 수 있다. 이 경우, 프로세서(320)는 가변 프레임의 위치를 가변 프레임과 결합된 외부 전자 장치로 제공하거나 또는 가변 프레임의 위치가 변경됨을 나타내는 신호를 외부 전자 장치로 전송할 수 있다. 예를 들어, 프로세서(320)는 고정 프레임의 적어도 일부에 배치된 회전축을 기준으로 가변 프레임이 회전되는 경우, 가변 프레임이 회전된 각도를 확인할 수 있다. 프로세서(320)는 가변 프레임이 회전된 각도를 외부 전자 장치로 전송할 수 있다. 이 경우, 외부 전자 장치는 전자 장치(301)로부터 수신된 신호에 기반하여 가변 프레임의 위치가 제1 모드에 대응하는 범위에서 제2 모드에 대응하는 범위로 변경되었는지 여부를 판단할 수 있다. 다른 예를 들어, 프로세서(320)는 가변 프레임의 위치가 제1 모드에 대응하는 범위에서 제2 모드에 대응하는 범위로 변경되는 경우, 가변 프레임의 위치가 변경된 것으로 판단할 수 있다. 프로세서(320)는 가변 프레임의 위치가 변경된 경우, 가변 프레임이 제2 모드에 대응하는 범위로 변경됨을 나타내는 신호를 외부 전자 장치로 제공할 수 있다.
한 실시 예에 따르면, 외부 전자 장치는 전자 장치(301)의 가변 프레임과 결합될 경우, 전자 장치(301)로부터 전송된 신호에 기반하여 콘텐츠를 출력할 수 있다. 예를 들어, 외부 전자 장치는, 전자 장치(301)로부터 전송된 가변 프레임의 위치와 연관된 신호에 기반하여 가변 프레임의 위치를 확인할 수 있다. 외부 전자 장치는 가변 프레임의 위치에 기반하여 제1 콘텐츠를 출력할 수 있다. 예컨대, 외부 전자 장치는 가변 프레임의 위치가 가상현실 모드에 대응하는 범위에 포함되는 경우, 콘텐츠의 영상 및 소리를 출력할 수 있다. 예컨대, 외부 전자 장치는 가변 프레임의 위치가 가상현실 모드에 대응하는 범위에 포함되는 경우, 콘텐츠의 영상을 출력하고, 콘텐츠의 소리가 전자 장치(301)에서 출력되도록 콘텐츠와 연관된 정보를 전자 장치(301)로 전송할 수 있다.
한 실시 예에 따르면, 외부 전자 장치는 전자 장치(301)로부터 수신된 신호에 기반하여 가변 프레임이 변경되었는지 여부를 결정할 수 있다. 예를 들어, 외부 전자 장치는 전자 장치(301)로부터 수신된 가변 프레임의 위치와 연관된 신호에 기반하여 가변 프레임의 위치가 변경되었는지 판단할 수 있다. 예컨대, 외부 전자 장치는 전자 장치(301)로부터 전송된 가변 프레임의 위치와 연관된 신호에 기반하여 가변 프레임의 위치가 오디오 모드에 대응하는 범위에서 가상현실 모드에 대응하는 범위로 변경된 것으로 판단할 수 있다. 다른 예를 들어, 외부 전자 장치는 전자 장치(301)로부터 가변 프레임의 위치가 변경됨을 나타내는 신호의 수신 여부에 기반하여 가변 프레임의 위치가 변경되었는지 여부를 결정할 수 있다.
한 실시 예에 따르면, 외부 전자 장치는 가변 프레임의 위치가 변경된 경우, 가변 프레임의 위치가 변경되기 이전에 출력된 제1 콘텐츠에 대응하는 제2 콘텐츠를 출력할 수 있다. 예컨대, 외부 전자 장치는 가변 프레임의 위치가 오디오 모드에 대응하는 범위에서 가상현실 모드에 대응하는 범위로 변경된 경우, 오디오 모드에서 출력된 콘텐츠에 기반하여 가상현실 모드에서 출력할 콘텐츠를 결정할 수 있다. 외부 전자 장치는 결정된 콘텐츠를 출력할 수 있다. 예컨대, 외부 전자 장치는 오디오 모드에서 출력된 오디오 콘텐츠에 대응하는 멀티미디어 콘텐츠의 영상 및 소리를 출력할 수 있다. 예컨대, 외부 전자 장치는 오디오 모드에서 출력된 오디오 콘텐츠에 대응하는 멀티미디어 콘텐츠의 영상을 출력하고, 멀티미디어 콘텐츠의 소리가 전자 장치(301)에서 출력되도록 멀티미디어 콘텐츠와 연관된 정보를 전자 장치(301)로 전송할 수 있다.
도 4는 본 발명의 다양한 실시 예에 따른 전자 장치의 블록도를 도시하고 있다. 이하 설명에서 전자 장치는 도 3의 전자 장치(301)의 전체 또는 일부를 포함할 수 있다.
도 4를 참조하면, 전자 장치(401)는 프로세서(410), 통신 모듈(420), 입력 모듈(430), 전원관리 모듈(440), 배터리(450), 센서 모듈(460), 시선추적모듈(eye tracker)(470), 모터(vibrator)(480), 초점조절모듈(adjustable optics)(490)(또는 렌즈 조립체)를 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(401)는, 구성요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다. 다른 실시 예에서는, 구성요소들 중 적어도 하나는 전자 장치(401)의 가변 프레임과 결합된 디스플레이 장치에 포함될 수 있다.
프로세서(410)는 운영체제(OS) 또는 임베디드 소프트웨어 프로그램을 구동하여 프로세서에 연결된 다수 개의 하드웨어 구성요소들을 제어할 수 있다. 프로세서(410)는 다수 개의 하위 프로세서로 구성될 수 있으며, 다수 개의 하위 프로세서 중 적어도 일부만 활성화시킬 수 있다.
통신 모듈(420)은 유선 및/또는 무선 통신을 이용하여 전자 장치(401)와 외부 전자 장치(예: 휴대용 단말기)를 전기적으로 연결하여 데이터를 송신 또는 수신할 수 있다. 한 실시 예에 따르면, 통신 모듈(420)은 USB 모듈(421), WiFi 모듈(422), BT 모듈(423), NFC 모듈(424), GPS 모듈(425)을 포함할 수 있다. 한 실시 예에 따르면, WiFi 모듈(422), BT 모듈(423), NFC 모듈(424), 또는 GPS 모듈(425) 중 적어도 일부는 하나의 IC(integrated chip) 또는 IC 패키지 내에 포함될 수 있다.
입력 모듈(430)은 터치 패드(431), 또는 버튼(432) 중 적어도 하나를 포함할 수 있다. 터치 패드(431)는, 예를 들어, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 검출할 수 있다. 터치 패드(431)는 제어 회로를 더 포함할 수 있다. 터치 패드(431)는 택타일 레이어(tactile layer)를 더 포함할 수 있다. 이 경우, 터치 패드(431)는 사용자에게 촉각 반응을 제공할 수 있다. 버튼(432)은, 예를 들어, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다.
전력관리 모듈(440)은, 예를 들어, 전자 장치(401)의 전력을 관리할 수 있다. 한 실시 예에 다르면, 전력관리 모듈(440)은 PMIC(power management integrated circuit), 충전 IC, 또는 연료 게이지를 포함할 수 있다. 배터리(450)는, 예를 들어, 충전식 전지 및/또는 태양 전지를 포함할 수 있다. 한 실시 예에 따르면, 배터리는 충전관리 모듈(440)에 포함될 수 있다.
센서 모듈(460)은 물리량을 계측하거나, 전자 장치(401)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈(460)은 예를 들어, 가속도 센서(461), 자이로 센서(462), 지자기 센서(463), 마그네틱 센서(464), 근조도 센서(465), 제스처 센서(466), 그립 센서(467), 생체 센서(468), 또는 회전 센서(469) 중 적어도 하나를 포함할 수 있다. 센서 모듈(460)은, 예를 들어, 가속도 센서(461), 자이로 센서(462), 또는 지자기 센서(463) 중 적어도 하나를 이용하여 전자 장치(401)를 착용한 사용자의 머리 움직임을 검출할 수 있다. 센서 모듈(460)은, 예를 들어, 그립 센서(467)(또는 근접 센서)를 이용하여 전자 장치(401)의 착용 여부를 검출할 수 있다. 센서 모듈(460)은, 예를 들어, 제스처 센서(466)를 이용하여 사용자의 손 또는 손가락의 움직임을 검출할 수 있다. 추가적으로 또는 대체적으로, 센서 모듈(460)은, 예를 들어, 생체 센서(468)(예: 후각 센서(e-nose sensor), EMG 센서(electromyography sensor), EEG 센서(electroencephalogram sensor), ECG 센서(electrocardiogram sensor), 홍채 센서 등)를 이용하여 사용자의 생체 정보를 인식할 수 있다. 센서 모듈(460)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.
시선추적모듈(470)(eye tracker)은, 예를 들어, EOG(electro-oculography), coil systems, dual purkinje systems, bright pupil systems, dark pupil systems 중 적어도 하나의 방식을 이용하여 사용자의 시선을 추적할 수 있다. 시선추적모듈(470)은 시선추적을 위한 마이크로 카메라를 더 포함할 수 있다. 모터(480)는, 예를 들어, 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 모터(480)는 진동 또는 햅틱(haptic) 효과를 발생시킬 수 있다.
초점조절모듈(490)은 사용자가 자신의 시력에 적합한 영상을 감상할 수 있도록 사용자의 양안 사이의 거리(IPD(inter-pupil distance))를 측정하여 렌즈의 거리 및 디스플레이(미도시)의 위치를 조정할 수 있다. 여기서, 디스플레이는 전자 장치(401)의 가변 프레임(예: 도 1a의 가변 프레임(140))과 결합된 외부 전자 장치(예: 휴대용 단말기)에 포함될 수 있다.
본 발명의 다양한 실시 예에 따르면, 전자 장치는, 사용자의 머리에 착용되는 고정 프레임과, 상기 고정 프레임의 적어도 일부에 배치된 회전축을 중심으로 회전할 수 있는 가변 프레임과, 상기 고정 프레임에 대한 상기 가변 프레임의 위치가 제1 범위에 대응하는 것에 적어도 기반하여 제1 콘텐츠를 출력하고, 상기 고정 프레임에 대한 상기 가변 프레임의 위치가 제2 범위에 대응하는 것에 적어도 기반하여 상기 제1 콘텐츠에 대응하는 제2 콘텐츠를 출력하도록 설정된 프로세서를 포함할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 가변 프레임의 위치가 상기 제1 범위에 대응하는 것에 적어도 기반하여 적어도 하나의 콘텐츠를 제공하기 위한 인터페이스를 출력하고, 상기 인터페이스에 대응되는 사용자의 입력에 기반하여 상기 적어도 하나의 콘텐츠 중 상기 제1 콘텐츠를 출력하도록 설정될 수 있다.
다양한 실시 예에 따르면, 상기 적어도 하나의 콘텐츠는, 상기 전자 장치의 메모리에 저장된 콘텐츠 또는 상기 전자 장치와 통신 연결된 외부 전자 장치에 저장된 콘텐츠를 포함할 수 있다.
다양한 실시 예에 따르면, 상기 전자 장치는, 센서 모듈을 더 포함하며, 상기 프로세서는, 상기 센서 모듈의 센싱 정보에 기반하여 상기 가변 프레임의 위치 정보를 획득하도록 설정될 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 가변 프레임의 위치가 상기 제1 범위에 대응하는 경우, 가상현실 모드로 동작하고, 상기 가변 프레임의 위치가 상기 제2 범위에 대응하는 경우, 오디오 모드로 동작하도록 설정될 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 가변 프레임의 위치가 상기 제1 범위에서 상기 제2 범위에 대응하도록 변경되는 경우, 상기 전자 장치의 메모리로부터 상기 제1 콘텐츠에 대응하는 상기 제2 콘텐츠를 획득하고, 상기 제2 콘텐츠를 출력하도록 설정될 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 전자 장치와 기능적으로 연결된 외부 전자 장치로부터 상기 제1 콘텐츠에 대응하는 상기 제2 콘텐츠를 획득하고, 상기 제2 콘텐츠를 출력하도록 설정될 수 있다.
다양한 실시 예에 따르면, 상기 가변 프레임은, 디스플레이 장치와 결합하기 위한 수용부를 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 고정 프레임에 대한 상기 가변 프레임의 위치가 제3 범위에 대응하는 것에 적어도 기반하여 상기 제1 콘텐츠 또는 상기 제2 콘텐츠의 출력을 중단하고, 상기 제1 콘텐츠 또는 상기 제2 콘텐츠의 재생에 연관된 정보를 상기 전자 장치의 메모리에 저장하도록 설정될 수 있다.
다양한 실시 예에 따르면, 상기 전자 장치는, 마이크 및 스피커를 더 포함하며, 상기 프로세서는, 상기 고정 프레임에 대한 상기 가변 프레임의 위치가 상기 제3 범위에 대응하는 것에 적어도 기반하여 상기 마이크를 통해 수신된 소리가 출력되도록 상기 스피커를 제어하도록 설정될 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 고정 프레임에 대한 상기 가변 프레임의 위치가 상기 제1 범위에 대응하도록 변경되는 경우, 상기 제1 콘텐츠의 재생과 연관된 정보에 기반하여 상기 제1 콘텐츠를 출력하고, 상기 고정 프레임에 대한 상기 가변 프레임의 위치가 상기 제2 범위에 대응하도록 변경되는 경우, 상기 제1 콘텐츠의 재생과 연관된 정보에 기반하여 상기 제1 콘텐츠에 대응하는 상기 제2 콘텐츠를 출력하도록 설정될 수 있다.
본 발명의 다양한 실시 예에 따르면, 전자 장치는, 사용자의 머리에 착용되는 고정 프레임과, 상기 고정 프레임의 적어도 일부에 배치된 회전축을 중심으로 회전하고, 외부 전자 장치와 전기적으로 결합된 가변 프레임과, 상기 가변 프레임의 위치가 변경되는지 여부를 결정하고, 상기 가변 프레임의 위치가 변경되는 경우, 상기 가변 프레임의 위치가 변경됨을 나타내는 신호를 상기 외부 전자 장치로 전송하도록 설정된 프로세서를 포함할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 가변 프레임의 위치가 제1 범위에서 제2 범위에 대응하도록 변경되는 경우, 상기 가변 프레임의 위치가 변경됨을 나타내는 신호를 상기 외부 전자 장치로 전송하도록 설정될 수 있다.
다양한 실시 예에 따르면, 상기 전자 장치는, 스피커를 더 포함하고, 상기 프로세서는, 상기 가변 프레임의 위치가 제1 범위에 대응하는 것에 적어도 기반하여 상기 외부 전자 장치로부터 제1 콘텐츠와 연관된 신호를 수신하고, 상기 수신된 신호에 기반하여 상기 제1 콘텐츠가 출력되도록 상기 스피커를 제어하도록 설정될 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 가변 프레임의 위치가 상기 제1 범위에서 제2 범위에 대응하도록 변경되는 경우, 상기 외부 전자 장치로부터 상기 제1 콘텐츠에 대응하는 제2 콘텐츠와 연관된 신호를 수신하고, 상기 수신된 신호에 기반하여 상기 제2 콘텐츠가 출력되도록 상기 스피커를 제어하도록 설정될 수 있다.
도 5는 본 발명의 다양한 실시 예에 따른 전자 장치에서 가변 프레임의 위치에 기반하여 콘텐츠를 출력하는 흐름도의 일례를 도시하고 있다. 이하 설명에서, 전자 장치는 도 3의 전자 장치(301) 또는 도 4의 전자 장치(401)의 전체 또는 일부를 포함할 수 있다.
도 5를 참조하면, 전자 장치는 동작 501에서, 가변 프레임의 위치에 기반하여 제1 콘텐츠를 출력할 수 있다. 예를 들어, 전자 장치(301)의 프로세서(320)는 전자 장치(301)의 고정 프레임의 적어도 일부에 배치된 회전축을 중심으로 회전된 전자 장치(301)의 가변 프레임의 위치를 확인할 수 있다. 프로세서(320)는 가변 프레임의 위치가 가상현실 모드에 대응하는 범위에 포함되는지 여부를 결정할 수 있다. 프로세서(320)는 가변 프레임의 위치가 가상현실 모드에 대응하는 범위에 포함되는 경우, 전자 장치(301)가 가상현실 모드로 동작하는 것으로 판단하여 가상현실 모드에 대응하는 적어도 하나의 콘텐츠(예: 멀티미디어 콘텐츠)에 대한 정보를 제공하는 시각 인터페이스가 표시되도록 디스플레이(340)를 제어할 수 있다. 프로세서(320)는 시간 인터페스를 통해 제공되는 적어도 하나의 콘텐츠 중 사용자의 입력에 대응하는 콘텐츠가 출력되도록 디스플레이(340) 또는 스피커(370) 중 적어도 하나를 제어할 수 있다. 다른 예를 들어, 프로세서(320)는 고정 프레임의 적어도 일부에 배치된 회전축을 중심으로 회전되는 가변 프레임의 위치를 확인할 수 있다. 프로세서(320)는 가변 프레임의 위치가 오디오 모드에 대응하는 범위에 포함되는 경우, 전자 장치(301)가 오디오 모드로 동작하는 것으로 판단하여 오디오 모드에 대응하는 적어도 하나의 콘텐츠(예: 오디오 콘텐츠)에 대한 정보를 제공하는 오디오 인터페이스가 출력되도록 스피커(370)를 제어할 수 있다. 프로세서(320)는 오디오 인터페이스를 통해 제공되는 적어도 하나의 콘텐츠 중 사용자의 입력에 대응하는 콘텐츠가 출력되도록 스피커(370)를 제어할 수 있다. 여기서, 가변 프레임은 콘텐츠의 영상을 표시하기 위한 디스플레이를 포함하거나 또는 콘텐츠의 영상을 표시하기 위한 디스플레이가 포함된 외부 장치와 결합할 수 있는 커넥터를 포함할 수 있다. 가변 프레임의 위치는 고정 프레임, 회전축, 또는 가변 프레임에 포함된 다수 개의 스위치를 통해 획득되거나 또는 회전축에 포함된 회전 센서를 통해 획득될 수 있다.
전자 장치는 동작 503에서, 가변 프레임의 위치가 변경되는지 여부를 결정할 수 있다. 예를 들어, 프로세서(320)는 가변 프레임이 회전되는 경우, 가변 프레임의 위치가 가상현실 모드에 대응하는 범위에서 오디오 모드에 대응하는 범위에 대응하도록 변경되었는지 여부를 결정할 수 있다. 다른 예를 들어, 프로세서(320)는 가변 프레임이 회전되는 경우, 가변 프레임의 위치가 오디오 모드에 대응하는 범위에서 가상현실 모드에 대응하는 범위에 대응하도록 변경되었는지 여부를 결정할 수 있다. 프로세서(320)는 가변 프레임의 위치가 다른 모드에 대응하는 범위로 변경되지 않은 경우, 가변 프레임의 위치가 변경되는지 여부를 결정하는 동작 503을 다시 수행할 수 있다.
전자 장치는 동작 505에서, 가변 프레임의 위치가 변경된 경우, 제1 콘텐츠에 대응하는 제2 콘텐츠를 출력할 수 있다. 예를 들어, 프로세서(320)는 가변 프레임의 위치가 가상현실 모드에 대응하는 범위에서 오디오 모드에 대응하는 범위에 대응하도록 변경된 경우, 가상현실 모드에서 출력된 멀티미디어 콘텐츠에 대응하는 오디오 콘텐츠를 전자 장치(301)의 메모리(330)로부터 로드(load)하거나 또는 통신 모듈을 통해 연결된 외부 전자 장치로부터 수신할 수 있다. 프로세서(320)는 오디오 모드에서 멀티미디어 콘텐츠와 관련된 오디오 콘텐츠가 출력되도록 스피커(370)를 제어할 수 있다. 다른 예를 들어, 프로세서(320)는 가변 프레임의 위치가 오디오 모드에 대응하는 범위에서 가상현실 모드에 대응하는 범위에 대응하도록 변경된 경우, 전자 장치(301)와 통신 연결된 외부 전자 장치로 전자 장치(301)가 가상현실 모드로 전환됨을 나타내는 신호를 전송할 수 있다. 프로세서(320)는 외부 전자 장치로부터 오디오 모드에서 출력된 오디오 콘텐츠에 대응하는 멀티미디어 콘텐츠를 수신할 수 있다. 프로세서(320)는 멀티미디어 콘텐츠가 출력되도록 디스플레이(340) 또는 스피커(370) 중 적어도 하나를 제어할 수 있다.
도 6은 본 발명의 다양한 실시 예에 따른 전자 장치가 가상현실 모드에서 콘텐츠를 출력하는 흐름도를 도시하고 있다. 도 7은 본 발명의 다양한 실시 예에 따른 전자 장치가 가상현실 모드로 동작하는 형태를 도시하고 있다. 이하 설명은 도 5의 동작 501에서 가변 프레임의 위치에 기반하여 제1 콘텐츠를 출력하는 동작에 대해 설명한다. 이하 설명에서, 전자 장치는 도 3의 전자 장치(301) 또는 도 4의 전자 장치(401)의 전체 또는 일부를 포함할 수 있다.
도 6을 참조하면, 전자 장치는 동작 601에서, 가변 프레임의 위치에 기반하여 가상현실 모드를 검출할 수 있다. 예를 들어, 전자 장치(301)의 프로세서(320)는 전자 장치(301)의 고정 프레임의 적어도 일부에 배치된 회전축을 중심으로 회전된 전자 장치(301)의 가변 프레임의 위치가 가상현실 모드에 대응하는 범위에 포함되는 경우, 가상현실 모드가 검출된 것으로 판단할 수 있다. 예컨대, 프로세서(320)는 도 7과 같이, 전자 장치(701)의 회전축(720)에 포함된 회전 센서를 이용하여 가변 프레임(730)의 각도를 확인할 수 있다. 프로세서(320)는 가변 프레임(730)의 각도가 90도인 경우, 가상현실 모드가 검출된 것으로 판단할 수 있다. 여기서, 가변 프레임(730)은 디스플레이(예: 디스플레이(330))를 포함하거나 또는 디스플레이가 구비된 외부 전자 장치와 결합하기 위한 커넥터를 포함할 수 있다. 회전축(720)은 오디오 콘텐츠의 출력을 위한 스피커(예: 스피커(370))를 더 포함할 수 있다. 가상현실 모드에 대응하는 범위는 사용자의 신체 특성 또는 기호에 따라 사용자에 의해 변경될 수 있다.
전자 장치는 동작 603에서, 가상현실 모드의 검출에 대한 응답으로 시각 인터페이스를 표시할 수 있다. 예를 들어, 프로세서(320)는 가상현실 모드의 검출에 대한 응답으로 전자 장치(301)의 메모리(330)에 저장된 콘텐츠의 리스트가 표시되도록 디스플레이(340)를 제어할 수 있다. 다른 예를 들어, 프로세서(320)는 가상현실 모드의 검출에 대한 응답으로, 전자 장치(301)와 통신 연결된 외부 전자 장치에 저장된 콘텐츠의 리스트가 표시되도록 디스플레이(340)를 제어할 수 있다. 여기서, 콘텐츠는 비디오 콘텐츠, 오디오 콘텐츠, 및 멀티미디어 콘텐츠 중 적어도 하나를 포함할 수 있다. 한 실시 예에 따르면, 프로세서(320)는 시각 인터페이스 출력 시, 콘텐츠에 대응하는 음성 정보가 함께 제공되도록 스피커(370)를 제어할 수 있다.
전자 장치는 동작 605에서, 사용자의 입력을 검출할 수 있다. 예를 들어, 프로세서(320)는 입력 모듈(350)을 통해 시각 인터페이스에 포함된 적어도 하나의 콘텐츠 중 적어도 하나를 실행시키기 위한 사용자의 입력을 검출할 수 있다. 한 실시 예에 따르면, 프로세서(320)는 전자 장치(301)가 외부 전자 장치(예: 웨어러블 장치 또는 모드 변경 프레임에 결합된 전자 장치)와 기능적으로 연결된 경우, 외부 전자 장치로부터 수신된 신호에 기반하여 시각 인터페이스에 포함된 적어도 하나의 콘텐츠 중 적어도 하나를 실행시킬 수 있다.
전자 장치는 동작 607에서, 사용자의 입력에 대한 응답으로 디스플레이 및 스피커 중 적어도 하나를 통해 콘텐츠를 출력할 수 있다. 예를 들어, 프로세서(320)는 디스플레이(340)를 통해 출력된 콘텐츠 리스트에서 사용자의 입력에 대응하는 콘텐츠를 메모리(330)로부터 로드할 수 있다. 프로세서(320)는 메모리(330)로부터 로드된 콘텐츠가 출력되도록 디스플레이(340) 및 스피커(370) 중 적어도 하나를 제어할 수 있다. 다른 예를 들어, 프로세서(320)는 디스플레이(340)를 통해 출력된 콘텐츠 중 사용자의 입력에 대응하는 콘텐츠를 외부 전자 장치로부터 수신할 수 있다. 프로세서(320)는 수신된 콘텐츠가 출력되도록 디스플레이(340) 및 스피커(370) 중 적어도 하나를 제어할 수 있다.
도 8은 본 발명의 다양한 실시 예에 따른 전자 장치가 오디오 모드에서 콘텐츠를 출력하는 흐름도를 도시하고 있다. 도 9는 본 발명의 다양한 실시 예에 따른 전자 장치가 오디오 모드로 동작하는 형태를 도시하고 있다. 이하 설명은 도 5의 동작 501에서 가변 프레임의 위치에 기반하여 제1 콘텐츠를 출력하는 동작에 대해 설명한다. 이하 설명에서, 전자 장치는 도 3의 전자 장치(301) 또는 도 4의 전자 장치(401)의 전체 또는 일부를 포함할 수 있다.
도 8을 참조하면, 전자 장치는 동작 801에서, 가변 프레임의 위치에 기반하여 오디오 모드를 검출할 수 있다. 예를 들어, 전자 장치(301)의 프로세서(320)는 전자 장치(301)의 고정 프레임의 적어도 일부에 배치된 회전축을 중심으로 회전된 전자 장치의 가변 프레임의 위치가 오디오 모드에 대응하는 범위에 포함되는 경우, 오디오 모드가 검출된 것으로 판단할 수 있다. 예컨대, 프로세서(320)는 도 9와 같이, 전자 장치(901)의 회전축(920)에 포함된 회전 센서를 통해 고정 프레임(910)을 기준으로 가변 프레임(930)의 각도를 측정할 수 있다. 프로세서(320)는 가변 프레임(930)의 각도가 0도인 경우, 오디오 모드가 검출된 것으로 판단할 수 있다. 여기서, 가변 프레임(930)은, 예를 들어, 도 1b와 같이, 디스플레이(141), 렌즈(143), 및, 렌즈 프로텍터(145)를 포함할 수 있다. 가변 프레임(930)은, 다른 예를 들어, 디스플레이 장치와 결합하기 위한 커넥터를 포함할 수 있다. 회전축(920)은 가변 프레임(930)이 회전되는 각도를 검출하기 위한 회전 센서와 오디오 콘텐츠를 출력하기 위한 스피커를 포함할 수 있다.
전자 장치는 동작 803에서, 오디오 모드의 검출에 대한 응답으로 오디오 인터페이스를 출력할 수 있다. 예를 들어, 프로세서(320)는 전자 장치(301)의 메모리(330)에 저장된 콘텐츠들 중 적어도 하나의 오디오 콘텐츠를 확인할 수 있다. 프로세서(320)는 적어도 하나의 오디오 콘텐츠와 관련된 정보(예: 콘텐츠 리스트)가 오디오로 출력되도록 전자 장치(301)의 스피커(370)를 제어할 수 있다. 다른 예를 들어, 프로세서(320)는 전자 장치(301)와 통신 연결된 외부 전자 장치에 저장된 콘텐츠들 중 적어도 하나의 오디오 콘텐츠를 확인할 수 있다. 프로세서(320)는 적어도 하나의 오디오 콘텐츠와 관련된 정보가 오디오로 출력되도록 스피커(370)를 제어할 수 있다. 한 실시 예에 따르면, 프로세서(320)는 전자 장치(301)가 외부 전자 장치(예: 웨어러블 장치 또는 모드 변경 프레임에 결합된 디스플레이 장치)와 기능적으로 연결된 경우, 오디오 콘텐츠와 관련된 정보가 외부 전자 장치에 표시되도록 외부 전자 장치로 오디오 콘텐츠와 관련된 정보를 전송할 수 있다.
전자 장치는 동작 805에서, 사용자의 입력을 검출할 수 있다. 예를 들어, 프로세서(320)는 전자 장치(301)의 마이크(360)를 통해 오디오 인터페이스에 포함된 콘텐츠 중 적어도 하나를 실행시키기 위한 사용자의 음성 명령을 수신한 수 있다. 한 실시 예에 따르면, 프로세서(320)는 전자 장치(301)가 외부 전자 장치(예: 웨어러블 장치 또는 가변 프레임에 결합된 전자 장치)와 기능적으로 연결된 경우, 외부 전자 장치로부터 오디오 인터페이스에 포함된 콘텐츠 중 적어도 하나를 실행시키기 위한 입력 신호를 수신할 수 있다.
전자 장치는 동작 807에서, 사용자의 입력에 대한 응답으로 스피커를 통해 콘텐츠를 출력할 수 있다. 예를 들어, 프로세서(320)는 사용자의 입력에 대응하는 오디오 콘텐츠를 메모리(330)로부터 로드할 수 있다. 프로세서(320)는 메모리(330)로부터 로드된 오디오 콘텐츠가 출력되도록 스피커(370)를 제어할 수 있다. 다른 예를 들어, 프로세서(320)는 사용자의 입력에 대응하는 오디오 콘텐츠를 전자 장치(301)와 기능적으로 연결된 외부 전자 장치로부터 수신할 수 있다. 프로세서(320)는 외부 전자 장치로부터 수신된 오디오 콘텐츠가 출력되도록 스피커(370)를 제어할 수 있다.
도 10은 본 발명의 다양한 실시 예에 따른 전자 장치에서 모드 전환 여부를 검출하는 흐름도를 도시하고 있다. 도 11a 내지 11b는 본 발명의 다양한 실시 예에 따른 전자 장치에서 가변 프레임의 위치가 전환되는 형태를 도시하고 있다. 이하 설명은 도 5의 동작 503에서 가변 프레임의 위치가 변경되는지 여부를 결정하는 동작에 대하여 설명한다. 이하 설명에서, 전자 장치는 도 3의 전자 장치(301) 또는 도 4의 전자 장치(401)의 전체 또는 일부를 포함할 수 있다.
도 10을 참조하면, 전자 장치는 동작 1001에서, 가변 프레임이 회전되는지 여부를 결정할 수 있다. 예를 들어, 전자 장치(301)의 프로세서(320)는 센서 모듈(380)로부터 출력되는 센싱 정보에 기반하여 전자 장치(301)의 가변 프레임이 회전되는지 여부를 결정할 수 있다.
전자 장치는 동작 1003에서, 가변 프레임이 회전되는 경우, 가변 프레임의 각도를 확인할 수 있다. 예를 들어, 프로세서(320)는 도 1a와 같이, 전자 장치(101)의 회전축(130)에 구비된 회전 센서를 통해 고정 프레임의 적어도 일부에 배치된 회전축을 중심으로 회전하는 가변 프레임의 각도를 확인할 수 있다. 다른 예를 들어, 프로세서(320)는 도 1a와 같이, 전자 장치(101)의 고정 프레임(110), 회전축(130), 또는 가변 프레임(140)에 구비된 다수 개의 스위치의 압력 정보에 기반하여 가변 프레임의 각도를 확인할 수 있다.
전자 장치는 동작 1005에서, 가변 프레임의 각도에 기반하여 가변 프레임의 위치가 제1 모드에 대응하는 범위에서 제2 모드에 대응하는 범위로 변경되는지 여부를 결정할 수 있다. 예를 들어, 프로세서(320)는 도 11a와 같이, 가변 프레임이 회전됨에 따라 가변 프레임의 위치가 오디오 모드에 대응하는 범위(1101)에서 가상현실 모드에 대응하는 범위(1103) 변경되는지 판단할 수 있다. 다른 예를 들어, 프로세서(320)는 도 11b와 같이, 가변 프레임이 회전됨에 따라 가변 프레임의 위치가 가상현실 모드에 대응하는 범위(1131)에서 오디오 모드에 대응하는 범위(1133)로 변경되는지 판단할 수 있다. 프로세서(320)는 가변 프레임의 위치가 제 모드에 대응하는 범위로 변경되는 경우, 제1 콘텐츠에 대응하는 제2 콘텐츠를 출력하는 도 5의 동작 505를 수행할 수 있다. 프로세서(320)는 가변 프레임의 위치가 제2 범위에 포함되지 않는 경우, 가변 프레임이 회전되는지 여부를 결정하는 동작 1001을 다시 수행할 수 있다.
도 12는 본 발명의 다양한 실시 예에 따른 전자 장치에서 전환된 모드에서 콘텐츠를 출력하는 흐름도를 도시하고 있다. 도 13a 내지 13b는 본 발명의 다양한 실시 예에 따른 전자 장치에서 가변 프레임의 위치에 기반하여 콘텐츠를 출력하는 개념도를 도시하고 있다. 이하 설명은 도 5의 동작 505에서 제1 콘텐츠에 대응하는 제2 콘텐츠를 출력하는 동작에 대해 설명한다. 이하 설명에서, 전자 장치는 도 3의 전자 장치(301) 또는 도 4의 전자 장치(401)의 전체 또는 일부를 포함할 수 있다.
도 12를 참조하면, 전자 장치는 동작 1201에서 제2 모드로 전환할 수 있다. 예를 들어, 전자 장치(301)의 프로세서(320)는 가변 프레임의 위치가 제1 모드에 대응하는 범위에서 제2 모드에 대응하는 범위로 변경된 경우, 전자 장치(301)의 동작 모드를 제2 모드로 전환할 수 있다. 예컨대, 프로세서(320)는 가변 프레임의 위치가 가상현실 모드에 대응하는 범위에서 오디오 모드에 대응하는 범위로 변경된 경우, 가상현실 모드에서 오디오 모드로 전환할 수 있다.
전자 장치는 동작 1203에서, 제1 콘텐츠와 관련된 제2 모드의 제2 콘텐츠를 결정할 수 있다. 예를 들어, 프로세서(320)는 가상현실 모드에서 영화를 출력하는 상태에서 오디오 모드로 전환된 경우, 영화의 OST를 전자 장치(301)의 메모리(330) 또는 전자 장치(301)와 통신 연결된 외부 전자 장치로부터 검색할 수 있다. 프로세서(320)는 검색된 영화의 OST를 오디오 모드에서 재생할 콘텐츠로 결정할 수 있다. 다른 예를 들어, 프로세서(320)는 오디오 모드에서 음악을 출력하는 상태에서 가상현실 모드로 전환된 경우, 음악의 가수, 가사와 같이, 음악과 관련된 콘텐츠를 메모리(330) 또는 통신 연결된 외부 전자 장치로부터 검색할 수 있다. 프로세서(320)는 검색된 콘텐츠를 가상현실 모드의 콘텐츠로 결정할 수 있다. 또 다른 예를 들어, 프로세서(320)는 가상현실 모드에서 영상 통화를 수행하는 동안 오디오 모드로 전환된 경우, 영상 통화의 음성 정보를 제2 콘텐츠로 결정할 수 있다.
전자 장치는 동작 1205에서, 제2 콘텐츠를 출력할 수 있다. 예를 들어, 프로세서(320)는 도 13a와 같이, 오디오 모드에서 스피커(370)를 통해 음악을 출력(1301)하는 동안 가상현실 모드로 전환된 경우, 음악의 뮤직 비디오가 출력(1303)되도록 디스플레이(340)를 제어할 수 있다. 이 경우, 프로세서(320)는 음악이 지속적으로 출력되도록 스피커(370)를 제어할 수 있다. 다른 예를 들어, 프로세서(320)는 도 13b와 같이, 가상현실 모드에서 영상 통화를 수행하는 동안 오디오 모드로 전환된 경우, 영상 통화의 영상이 출력되지 않도록 디스플레이(340)를 제어할 수 있다. 이 경우, 프로세서(320)는 통화의 음성이 지속적으로 출력되도록 스피커(370)를 제어할 수 있다.
도 14는 본 발명의 다양한 실시 예에 따른 전자 장치에서 전환된 모드에서 콘텐츠를 출력하는 흐름도를 도시한다. 이하 설명은 도 5의 동작 505에서 제1 콘텐츠에 대응하는 제2 콘텐츠를 출력하는 동작에 대해 설명한다. 이하 설명에서, 전자 장치는 도 3의 전자 장치(301) 또는 도 4의 전자 장치(401)의 전체 또는 일부를 포함할 수 있다.
도 14를 참조하면, 전자 장치는 동작 1401에서, 제2 모드로 전환할 수 있다. 예를 들어, 전자 장치(301)의 프로세서(301)는 가변 프레임의 위치가 가상현실 모드에 대응하는 범위에서 오디오 모드에 대응하는 범위로 변경된 경우, 가상현실 모드에서 오디오 모드로 전환할 수 있다.
전자 장치는 동작 1403에서, 제2 모드로 전환됨을 나타내는 신호를 외부 전자 장치로 송신할 수 있다. 예를 들어, 프로세서(320)는 가상현실 모드에서 오디오 모드로 전환된 경우, 오디오 모드로 전환됨을 나타내는 신호를 전자 장치(301)와 통신 중인 외부 전자 장치로 송신할 수 있다.
전자 장치는 동작 1405에서, 외부 전자 장치로부터 제1 콘텐츠와 관련된 제2 콘텐츠를 수신할 수 있다. 예를 들어, 프로세서(320)는 전자 장치(301)가 오디오 모드에서 가상현실 모드로 전환됨을 나타내는 신호를 외부 전자 장치로 송신한 경우, 외부 전자 장치로부터 오디오 모드에서 출력된 광고에 대응하는 상품을 구매할 수 있는 웹 사이트의 주소 정보를 수신할 수 있다. 다른 예를 들어, 프로세서(320)는 가상현실 모드에서 특정 영화의 포스터가 출력되는 동안 오디오 모드로 전환됨을 나타내는 신호를 외부 전자 장치로 송신한 경우, 외부 전자 장치로부터 특정 영화의 OST를 외부 전자 장치로부터 수신할 수 있다. 또 다른 예를 들어, 프로세서(320)는 가상현실 모드에서 특정 가수의 뮤직비디오가 출력되는 동안 오디오 모드로 전환됨을 나타내는 신호를 외부 전자 장치로 송신한 경우, 특정 가수의 음원들을 수신할 수 있다.
전자 장치는 동작 1407에서, 제1 콘텐츠와 관련된 제2 콘텐츠를 수신한 경우, 제2 콘텐츠를 출력할 수 있다. 예를 들어, 프로세서(320)는 외부 전자 장치로부터 수신된 웹 사이트의 주소 정보에 기반하여 웹 사이트가 출력되도록 디스플레이(340)를 제어할 수 있다. 다른 예를 들어, 프로세서(320)는 외부 전자 장치로부터 수신된 특정 영화의 OST가 출력되도록 스피커(370)를 제어할 수 있다. 또 다른 예를 들어, 프로세서(320)는 외부 전자 장치로부터 수신된 특정 가수의 음원이 출력되도록 스피커(370)를 제어할 수 있다.
이상에서는 전자 장치가 외부 전자 장치로부터 콘텐츠를 수신하여 출력하는 것으로 설명하였으나, 본 발명의 다양한 실시 예에 따르면, 전자 장치는 전자 장치의 가변 프레임과 결합된 외부 전자 장치에서 콘텐츠를 출력할 수도 있다. 예를 들어, 프로세서(320)는 제2 모드 전환이 발생한 경우, 제2 모드 전환을 알리기 위한 신호를 전자 장치(301)의 가변 프레임과 결합된 외부 전자 장치로 전송할 수 있다. 이 경우 외부 전자 장치는 제2 모드 전환을 알리기 위한 신호의 수신에 대한 응답으로, 제1 콘텐츠와 관련된 제2 콘텐츠를 결정한 후, 결정된 제2 콘텐츠를 출력할 수 있다. 예컨대, 외부 전자 장치는 제2 콘텐츠가 출력되도록 외부 전자 장치의 디스플레이 또는 스피커 중 적어도 하나를 제어할 수 있다. 예컨대, 외부 전자 장치는 외부 전자 장치의 디스플레이를 통해 제2 콘텐츠의 영상을 출력하고, 제2 콘텐츠의 소리가 전자 장치(301)의 스피커(370)를 통해 출력되도록 제2 콘텐츠의 소리와 연관된 신호를 전자 장치(301)로 전송할 수 있다.
도 15는 본 발명의 다양한 실시 예에 따른 전자 장치에서 가변 프레임의 위치에 기반하여 콘텐츠를 출력하는 다른 예의 흐름도를 도시하고 있다. 도 16a 내지 16b는 본 발명의 다양한 실시 예에 따른 전자 장치에서 모드 전환에 따라 콘텐츠의 출력을 제어하는 개념도를 도시하고 있다. 이하 설명에서, 전자 장치는 도 3의 전자 장치(301) 또는 도 4의 전자 장치(401)의 전체 또는 일부를 포함할 수 있다.
도 15을 참조하면, 전자 장치는 동작 1501에서, 가변 프레임의 위치에 기반하여 제1 콘텐츠를 출력할 수 있다. 예를 들어, 전자 장치(301)의 프로세서(320)는 도 5의 동작 501과 같이, 가변 프레임의 위치가 제1 모드에 대응하는 범위에 포함되는 경우, 메모리(330)에 저장된 제1 모드에 대응하는 적어도 하나의 콘텐츠 중 입력에 대응하는 콘텐츠가 출력되도록 디스플레이(340) 또는 스피커(370) 중 적어도 하나를 제어할 수 있다. 여기서, 제1 모드에 대응하는 범위는, 가상현실 모드 또는 오디오 모드에 대응하는 범위를 포함할 수 있다. 입력은 전자 장치(301)의 입력 모듈(350)을 통해 수신되거나 또는 전자 장치(301)와 기능적으로 연결된 외부 전자 장치(예: 웨어러블 장치 또는 가변 프레임에 결합된 외부 전자 장치)로부터 수신될 수 있다.
전자 장치는 동작 1503에서, 가변 프레임의 위치가 변경되는지 여부를 결정할 수 있다. 예를 들어, 프로세서(320)는 센서 모듈(380)을 통해 가변 프레임이 고정 프레임의 적어도 일부에 배치된 회전축을 중심으로 회전되는지 확인할 수 있다. 프로세서(320)는 가변 프레임이 회전된 경우, 센서 모듈(380)을 통해 가변 프레임의 각도를 확인할 수 있다. 프로세서(320)는 가변 프레임의 각도에 기반하여 가변 프레임의 위치가 제1 모드에 대응하는 범위를 벗어나는지 여부를 결정할 수 있다. 프로세서(320)는 가변 프레임의 위치가 제1 모드에 대응하는 범위를 벗어난 경우, 가변 프레임의 위치가 변경된 것으로 판단할 수 있다. 프로세서(320)는 가변 프레임의 위치가 변경되지 않은 경우, 가변 프레임의 위치가 변경되는지 여부를 결정하는 동작 1503을 다시 수행할 수 있다. 여기서, 센서 모듈(380)은 모드 변경 프레임의 회전 정보를 획득하기 위해 회전 센서 또는 다수 개의 스위치를 포함할 수 있다.
전자 장치는 동작 1505에서, 가변 프레임이 위치가 변경된 경우, 가변 프레임의 위치가 제1 모드에 대응하는 범위에서 제2 모드에 대응하는 범위로 변경되었는지 여부를 결정할 수 있다. 예를 들어, 프로세서(320)는 가변 프레임이 회전된 경우, 회전된 가변 프레임의 위치가 가상현실 모드에 대응하는 범위에서 오디오 모드에 대응하는 범위로 변경되었는지 여부를 결정할 수 있다. 다른 예를 들어, 프로세서(320)는 가변 프레임이 회전된 경우, 회전된 가변 프레임의 위치가 오디오 모드에 대응하는 범위에서 가상현실 모드에 대응하는 범위로 변경되었는지 여부를 결정할 수 있다.
전자 장치는 동작 1507에서, 가변 프레임의 위치가 제1 모드에 대응하는 범위에서 제2 모드에 대응하는 범위로 변경된 경우, 제1 콘텐츠에 대응하는 제2 콘텐츠를 출력할 수 있다. 예를 들어, 프로세서(320)는 도 5의 동작 505와 같이, 가상현실 모드에서 영화를 출력하는 중 가변 프레임의 위치가 오디오 모드에 대응하는 범위로 변경된 경우, 가상현실 모드에서 출력된 영화에 삽입된 배경 음악을 검색할 수 있다. 프로세서(320)는 검색된 배경 음악이 출력되도록 스피커(370)를 제어할 수 있다. 다른 예를 들어, 프로세서(320)는 오디오 모드에서 음성 통화를 수행하는 동안 가변 프레임의 위치가 가상현실 모드에 대응하는 범위로 변경된 경우, 음성 통화에 대응하는 화상 정보를 수신할 수 있다. 프로세서(320)는 수신된 화상 정보가 출력되도록 디스플레이(340)를 제어할 수 있다. 이 경우, 화상 정보는 음성과 함께 출력될 수 있다.
전자 장치는 동작 1509에서, 가변 프레임의 위치가 제1 모드에 대응하는 범위에서 제2 모드에 대응하는 범위로 변경되지 않은 경우, 제1 콘텐츠의 출력을 중단할 수 있다. 예를 들어, 프로세서(320)는 가변 프레임의 위치가 제2 모드에 대응하는 범위(가상현실 모드 또는 오디오 모드에 대응하는 범위)에 포함되지 않는 경우, 제 3 모드 전환(예: 아이들 모드 전환)이 발생한 것으로 판단할 수 있다. 다른 예를 들어, 프로세서(320)는 고정 프레임, 회전축, 또는 가변 프레임에 포함된 다수 개의 스위치를 통해 압력이 검출되지 않는 경우, 제3 모드 전환이 발생한 것으로 판단할 수 있다. 프로세서(320)는 제 3 모드 전환의 발생에 대한 응답으로 제1 콘텐츠의 출력이 중단되도록 디스플레이(340) 또는 스피커(370) 중 적어도 하나를 제어할 수 있다. 이 경우, 프로세서(320)는 제1 콘텐츠와 관련된 정보를 메모리(330)에 저장할 수 있다. 여기서, 제1 콘텐츠와 관련된 정보는 콘텐츠의 출력이 중단된 시점 등을 포함하는 콘텐츠의 재생과 연관된 정보를 포함할 수 있다.
전자 장치는 동작 1511에서, 제1 콘텐츠의 출력의 중단에 대한 응답으로 저전력 모드로 전환할 수 있다. 예를 들어, 프로세서(320)는 다수 개로 하위 프로세서로 구성될 수 있으며, 이중 일부만 동작하고 나머지는 슬립(sleep) 상태로 전환되는 저전력 모드로 전환할 수 있다. 예컨대, 프로세서(320)는 오디오 모드에서 아이들 모드로 전환됨에 따라 오디오 콘텐츠의 출력이 중단되면 프로세서(320)에 포함된 다수 개의 하위 프로세서 중 일부만 동작시키고, 나머지는 슬립 상태로 천이시킬 수 있다. 예컨대, 프로세서(320)는 가상현실 모드에서 아이들 모드로 전환됨에 따라 멀티미디어 콘텐츠의 출력이 중단되면 멀티미디어 콘텐츠의 비디오 정보가 출력되지 않도록 디스플레이(340)를 오프(off)시킬 수 있다. 프로세서(320)는 디스플레이(340)가 오프된 상태에서 기 정의된 시간 동안 사용자의 입력이 수신되지 않는 경우, 프로세서(320)의 하위 프로세서 중 일부만 동작시키고, 나머지는 슬립 상태로 천이시킬 수 있다.
전자 장치는 동작 1513에서, 마이크를 통해 수신되는 소리를 스피커로 출력할 수 있다. 예를 들어, 프로세서(320)에 포함된 다수 개의 하위 프로세서 중 활성화된 일부 하위 프로세서는 에 도 16a와 같이, 가상현실 모드에서 멀티미디어 콘텐츠를 출력(1601)하는 동안 아이들 모드로 전환된 경우, 마이크(예: 마이크(360))를 통해 수신되는 외부 소리가 출력(1603)되도록 스피커(예: 스피커(370))를 제어할 수 있다. 다른 예를 들어, 프로세서(320)에 포함된 다수 개의 하위 프로세서 중 활성화된 일부 하위 프로세서는 도 16b와 같이, 오디오 모드에서 오디오 콘텐츠를 출력(1631)하는 동안 아이들 모드로 전환된 경우, 마이크를 통해 수신되는 외부 소리가 출력(1631)되도록 스피커를 제어할 수 있다. 이 경우, 프로세서(320)는 마이크가 비활성화 상태인 경우, 마이크를 활성화시킬 수 있다.
전자 장치는 동작 1515에서, 가변 프레임의 위치가 변경되는지 여부를 결정할 수 있다. 예를 들어, 프로세서(320)는 전자 장치가 아이들 모드로 동작하는 상태에서 고정 프레임의 적어도 일부에 배치된 회전축을 중심으로 회전되는 가변 프레임의 각도를 확인할 수 있다. 프로세서(320)는 가변 프레임의 각도에 기반하여 가변 프레임의 위치가 제1 모드에 대응하는 범위 또는 제2 모드에 대응하는 범위에 포함되는지 여부를 결정할 수 있다. 프로세서(320)는 가변 프레임의 위치가 제1 모드에 대응하는 범위 또는 제2 모드에 대응하는 범위에 포함되는 경우, 가변 프레임의 위치가 변경된 것으로 결정할 수 있다. 다른 예를 들어, 프로세서(320)는 고정 프레임, 회전축, 또는 가변 프레임에 포함된 다수 개의 스위치 중 적어도 하나가 스위치를 통해 압력이 검출되는 경우, 가변 프레임의 위치가 변경된 것으로 결정할 수 있다. 프로세서(320)는 가변 프레임의 위치가 변경되지 않은 경우, 마이크(360)를 통해 수신되는 소리가 출력되도록 스피커(370)를 제어하는 동작 1513을 다시 수행할 수 있다.
전자 장치는 동작 1517에서, 가변 프레임의 위치가 변경된 경우, 저전력 모드를 해제할 수 있다. 예를 들어, 프로세서(320)에 포함된 다수 개의 하위 프로세서 중 활성화된 일부 하위 프로세서는 슬립 상태인 나머지 하위 프로세서를 활성화시킬 수 있다. 이 경우, 프로세서(320)는 마이크(360)를 통해 수신되는 외부 소리가 출력되지 않도록 스피커(370)를 제어하거나 또는 마이크(360)가 비활성화시킬 수 있다.
전자 장치는 동작 1519에서, 가변 프레임의 위치가 제1 모드에 대응하는 범위에 포함되는지 여부를 결정할 수 있다. 예를 들어, 프로세서(320)는 가변 프레임의 위치가 아이들 모드로 동작하기 이전의 동작 모드에 대응하는 각도 범위에 포함되는 경우, 가변 프레임의 위치가 제1 모드에 대응하는 범위에 포함된 것으로 결정할 수 있다. 프로세서(320)는 가변 프레임의 위치가 제1 모드에 대응하는 범위에 포함되는 경우, 제1 콘텐츠를 출력하는 동작 1501을 다시 수행할 수 있다. 이 경우, 프로세서(320)는 메모리(330)에 저장된 제1 콘텐츠의 재생과 연관된 정보에 기반하여 제1 콘텐츠의 출력이 중단된 시점 이후부터 제1 콘텐츠가 출력되도록 디스플레이(340) 또는 스피커(370) 중 적어도 하나를 제어할 수 있다. 프로세서(320)는 가변 프레임의 위치가 제1 모드에 대응하는 범위에 포함되지 않은 경우(제2 모드에 대응하는 범위에 포함된 경우), 제1 콘텐츠에 대응하는 제2 콘텐츠를 출력하는 동작 1507을 수행할 수 있다. 이 경우, 프로세서(320)는 메모리(330)에 저장된 제1 콘텐츠의 재생과 연관된 정보에 기반하여 제1 콘텐츠의 출력이 중단된 시점 이후의 제1 콘텐츠에 대응하는 제2 콘텐츠가 출력되도록 디스플레이(340) 또는 스피커(370) 중 적어도 하나를 제어할 수 있다.
본 발명의 다양한 실시 예에 따르면, 사용자의 머리에 착용되는 고정 프레임과, 상기 고정 프레임의 적어도 일부에 배치된 회전축을 중심으로 회전할 수 있는 가변 프레임을 포함하는 전자 장치의 동작 방법은, 상기 고정 프레임에 대한 상기 가변 프레임의 위치가 제1 범위에 대응하는 것에 적어도 기반하여 제1 콘텐츠를 출력하는 동작과, 상기 고정 프레임에 대한 상기 가변 프레임의 위치가 제2 범위에 대응하는 것에 적어도 기반하여 상기 제1 콘텐츠에 대응하는 제2 콘텐츠를 출력하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 제1 콘텐츠를 출력하는 동작은, 상기 가변 프레임의 위치가 상기 제1 범위에 대응하는 것에 적어도 기반하여 적어도 하나의 콘텐츠를 제공하기 위한 인터페이스를 출력하는 동작과, 상기 인터페이스에 대응되는 사용자의 입력에 기반하여 상기 적어도 하나의 콘텐츠 중 상기 제1 콘텐츠를 출력하는 동작을 포함할 수 있다
다양한 실시 예에 따르면, 상기 적어도 하나의 콘텐츠는, 상기 전자 장치의 메모리에 저장된 콘텐츠 또는 상기 전자 장치와 통신 연결된 외부 전자 장치에 저장된 콘텐츠를 포함할 수 있다.
다양한 실시 예에 따르면, 상기 전자 장치의 동작 방법은, 상기 전자 장치의 센서 모듈의 센싱 정보에 기반하여 상기 모드 변경 프레임의 회전 정보를 획득하는 동작을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 전자 장치의 동작 방법은, 상기 가변 프레임의 위치가 상기 제1 범위에 대응하는 경우, 가상현실 모드로 동작하는 과정과, 상기 가변 프레임의 위치가 상기 제2 범위에 대응하는 경우, 오디오 모드로 동작하는 과정을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 제1 콘텐츠에 대응하는 제2 콘텐츠를 출력하는 동작은, 상기 가변 프레임의 위치가 상기 제1 범위에서 상기 제2 범위에 대응하도록 변경되는 경우, 상기 전자 장치의 메모리로부터 상기 제1 콘텐츠에 대응하는 상기 제2 콘텐츠를 획득하는 동작과, 상기 제2 콘텐츠를 출력하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 제1 콘텐츠에 대응하는 제2 콘텐츠를 출력하는 동작은, 상기 전자 장치와 기능적으로 연결된 외부 전자 장치로부터 상기 제1 콘텐츠에 대응하는 상기 제2 콘텐츠를 획득하는 동작과, 상기 제2 콘텐츠를 출력하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 가변 프레임은, 디스플레이 장치와 결합하기 위한 수용부를 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 전자 장치의 동작 방법은, 상기 고정 프레임에 대한 상기 가변 프레임의 위치가 제3 범위에 대응하는 것에 적어도 기반하여 상기 제1 콘텐츠 또는 상기 제2 콘텐츠의 출력을 중단하는 동작과, 상기 제1 콘텐츠 또는 상기 제2 콘텐츠의 재생에 연관된 정보를 상기 전자 장치의 메모리에 저장하는 동작을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 전자 장치의 동작 방법은, 상기 고정 프레임에 대한 상기 가변 프레임의 위치가 상기 제3 범위에 대응하는 것에 적어도 기반하여 상기 전자 장치의 마이크를 통해 수신된 소리를 상기 전자 장치의 스피커를 통해 출력하는 동작을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 전자 장치의 동작 방법은, 상기 고정 프레임에 대한 상기 가변 프레임의 위치가 제1 범위에 대응하도록 변경되는 경우, 상기 제1 콘텐츠의 재생과 연관된 정보에 기반하여 상기 제1 콘텐츠를 출력하는 동작과, 상기 고정 프레임에 대한 상기 가변 프레임의 위치가 상기 제2 범위에 대응하도록 변경되는 경우, 상기 제1 콘텐츠의 재생과 연관된 정보에 기반하여 상기 제1 콘텐츠에 대응하는 상기 제2 콘텐츠를 출력하는 동작을 더 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 사용자의 머리에 착용되는 고정 프레임과, 상기 고정 프레임의 적어도 일부에 배치된 회전축을 중심으로 회전하고, 외부 전자 장치와 전기적으로 결합된 가변 프레임을 포함하는 전자 장치의 동작 방법은, 상기 가변 프레임의 위치가 변경되는지 여부를 결정하고, 상기 가변 프레임의 위치가 변경되는 경우, 상기 가변 프레임의 위치가 변경됨을 나타내는 신호를 상기 외부 전자 장치로 전송하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 모드 전환이 발생됨을 나타내는 신호를 상기 외부 전자 장치로 전송하는 동작은, 상기 가변 프레임의 위치가 제1 범위에서 제2 범위에 대응하도록 변경되는 경우, 상기 가변 프레임의 위치가 변경됨을 나타내는 신호를 상기 외부 전자 장치로 전송하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 전자 장치의 동작 방법은, 상기 가변 프레임의 위치가 제1 범위에 대응하는 것에 적어도 기반하여 상기 외부 전자 장치로부터 제1 콘텐츠와 연관된 신호를 수신하는 동작과, 상기 수신된 신호에 기반하여 상기 전자 장치의 스피커를 통해 상기 제1 콘텐츠를 출력하는 동작을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 전자 장치의 동작 방법은, 상기 가변 프레임의 위치가 상기 제1 범위에서 제2 범위에 대응하도록 변경되는 경우, 상기 외부 전자 장치로부터 상기 제1 콘텐츠에 대응하는 제2 콘텐츠와 연관된 신호를 수신하는 동작과, 상기 수신된 신호에 기반하여 상기 전자 장치의 스피커를 통해 상기 제2 콘텐츠를 출력하는 동작을 더 포함할 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있으며, 예를 들면, 어떤 동작들을 수행하는, 알려졌거나 앞으로 개발될, ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays), 또는 프로그램 가능 논리 장치를 포함할 수 있다.
다양한 실시 예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장 매체(예: 메모리(130))에 저장된 명령어로 구현될 수 있다. 명령어가 프로세서(예: 프로세서(120))에 의해 실행될 경우, 프로세서가 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(예: 자기테이프), 광기록 매체(예: CD-ROM, DVD, 자기-광 매체 (예: 플롭티컬 디스크), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 다양한 실시 예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 다른 구성요소를 더 포함할 수 있다.
다양한 실시 예에 따른, 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
그리고 본 문서에 개시된 실시 예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 발명의 다양한 실시 예의 범위를 한정하는 것은 아니다. 따라서, 본 발명의 다양한 실시 예의 범위는, 본 발명의 다양한 실시 예의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시 예를 포함하는 것으로 해석되어야 한다.

Claims (20)

  1. 전자 장치에 있어서,
    사용자의 머리에 착용되는 고정 프레임;
    상기 고정 프레임의 적어도 일부에 배치된 회전축을 중심으로 회전할 수 있는 가변 프레임; 및
    상기 고정 프레임에 대한 상기 가변 프레임의 위치가 제1 범위에 대응하는 것에 적어도 기반하여 제1 콘텐츠를 출력하고, 상기 고정 프레임에 대한 상기 가변 프레임의 위치가 제2 범위에 대응하는 것에 적어도 기반하여 상기 제1 콘텐츠에 대응하는 제2 콘텐츠를 출력하도록 설정된 프로세서를 포함하는 장치.
  2. 제 1항에 있어서,
    상기 프로세서는,
    상기 가변 프레임의 위치가 상기 제1 범위에 대응하는 것에 적어도 기반하여 적어도 하나의 콘텐츠를 제공하기 위한 인터페이스를 출력하고,
    상기 인터페이스에 대응되는 사용자의 입력에 기반하여 상기 적어도 하나의 콘텐츠 중 상기 제1 콘텐츠를 출력하도록 설정된 장치.
  3. 제 2항에 있어서,
    상기 적어도 하나의 콘텐츠는, 상기 전자 장치의 메모리에 저장된 콘텐츠 또는 상기 전자 장치와 통신 연결된 외부 전자 장치에 저장된 콘텐츠를 포함하는 장치.
  4. 제 1항에 있어서,
    상기 전자 장치는, 센서 모듈을 더 포함하며,
    상기 프로세서는,
    상기 센서 모듈의 센싱 정보에 기반하여 상기 가변 프레임의 위치 정보를 획득하도록 설정된 장치.
  5. 제 1항에 있어서,
    상기 프로세서는,
    상기 가변 프레임의 위치가 상기 제1 범위에 대응하는 경우, 가상현실 모드로 동작하고,
    상기 가변 프레임의 위치가 상기 제2 범위에 대응하는 경우, 오디오 모드로 동작하도록 설정된 장치.
  6. 제 1항에 있어서,
    상기 프로세서는,
    상기 가변 프레임의 위치가 상기 제1 범위에서 상기 제2 범위에 대응하도록 변경되는 경우, 상기 전자 장치의 메모리로부터 상기 제1 콘텐츠에 대응하는 상기 제2 콘텐츠를 획득하고,
    상기 제2 콘텐츠를 출력하도록 설정된 장치.
  7. 제 1항에 있어서,
    상기 프로세서는,
    상기 전자 장치와 기능적으로 연결된 외부 전자 장치로부터 상기 제1 콘텐츠에 대응하는 상기 제2 콘텐츠를 획득하고,
    상기 제2 콘텐츠를 출력하도록 설정된 장치.
  8. 제 1항에 있어서,
    상기 가변 프레임은, 디스플레이 장치와 결합하기 위한 수용부를 더 포함하는 장치.
  9. 제 1항에 있어서,
    상기 프로세서는,
    상기 고정 프레임에 대한 상기 가변 프레임의 위치가 제3 범위에 대응하는 것에 적어도 기반하여 상기 제1 콘텐츠 또는 상기 제2 콘텐츠의 출력을 중단하고,
    상기 제1 콘텐츠 또는 상기 제2 콘텐츠의 재생에 연관된 정보를 상기 전자 장치의 메모리에 저장하도록 설정된 장치.
  10. 제 9항에 있어서,
    상기 전자 장치는,
    마이크; 및
    스피커를 더 포함하며,
    상기 프로세서는,
    상기 고정 프레임에 대한 상기 가변 프레임의 위치가 상기 제3 범위에 대응하는 것에 적어도 기반하여 상기 마이크를 통해 수신된 소리가 출력되도록 상기 스피커를 제어하도록 설정된 장치.
  11. 제 9항에 있어서,
    상기 프로세서는,
    상기 고정 프레임에 대한 상기 가변 프레임의 위치가 상기 제1 범위에 대응하도록 변경되는 경우, 상기 제1 콘텐츠의 재생과 연관된 정보에 기반하여 상기 제1 콘텐츠를 출력하고,
    상기 고정 프레임에 대한 상기 가변 프레임의 위치가 상기 제2 범위에 대응하도록 변경되는 경우, 상기 제1 콘텐츠의 재생과 연관된 정보에 기반하여 상기 제1 콘텐츠에 대응하는 상기 제2 콘텐츠를 출력하도록 설정된 장치.
  12. 사용자의 머리에 착용되는 고정 프레임과, 상기 고정 프레임의 적어도 일부에 배치된 회전축을 중심으로 회전할 수 있는 가변 프레임을 포함하는 전자 장치의 동작 방법에 있어서,
    상기 고정 프레임에 대한 상기 가변 프레임의 위치가 제1 범위에 대응하는 것에 적어도 기반하여 제1 콘텐츠를 출력하는 동작;
    상기 고정 프레임에 대한 상기 가변 프레임의 위치가 제2 범위에 대응하는 것에 적어도 기반하여 상기 제1 콘텐츠에 대응하는 제2 콘텐츠를 출력하는 동작을 포함하는 방법.
  13. 제 12항에 있어서,
    상기 제1 콘텐츠를 출력하는 동작은,
    상기 가변 프레임의 위치가 상기 제1 범위에 대응하는 것에 적어도 기반하여 적어도 하나의 콘텐츠를 제공하기 위한 인터페이스를 출력하는 동작; 및
    상기 인터페이스에 대응되는 사용자의 입력에 기반하여 상기 적어도 하나의 콘텐츠 중 상기 제1 콘텐츠를 출력하는 동작을 포함하는 방법.
  14. 제 12항에 있어서,
    상기 전자 장치의 센서 모듈의 센싱 정보에 기반하여 상기 가변 프레임의 위치 정보를 획득하는 동작을 더 포함하는 방법.
  15. 제 12항에 있어서,
    상기 제1 콘텐츠에 대응하는 제2 콘텐츠를 출력하는 동작은,
    상기 가변 프레임의 각도가 상기 제1 범위에서 상기 제2 범위에 대응하도록 변경되는 경우, 상기 전자 장치의 메모리로부터 상기 제1 콘텐츠에 대응하는 상기 제2 콘텐츠를 획득하는 동작; 및
    상기 제2 콘텐츠를 출력하는 동작을 포함하는 방법.
  16. 제 12항에 있어서,
    상기 제1 콘텐츠에 대응하는 제2 콘텐츠를 출력하는 동작은,
    상기 전자 장치와 기능적으로 연결된 외부 전자 장치로부터 상기 제1 콘텐츠에 대응하는 상기 제2 콘텐츠를 획득하는 동작; 및
    상기 제2 콘텐츠를 출력하는 동작을 포함하는 방법.
  17. 전자 장치에 있어서,
    사용자의 머리에 착용되는 고정 프레임;
    상기 고정 프레임의 적어도 일부에 배치된 회전축을 중심으로 회전하고, 외부 전자 장치와 전기적으로 결합된 가변 프레임; 및
    상기 고정 프레임을 기준으로 상기 가변 프레임의 위치가 변경되는지 여부를 결정하고, 상기 가변 프레임의 위치가 변경되는 경우, 상기 가변 프레임의 위치가 변경됨을 나타내는 신호를 상기 외부 전자 장치로 전송하도록 설정된 프로세서를 포함하는 장치.
  18. 제 17항에 있어서,
    상기 프로세서는,
    상기 가변 프레임의 위치가 제1 범위에서 제2 범위에 대응하도록 변경되는 경우, 상기 가변 프레임의 위치가 변경됨을 나타내는 신호를 상기 외부 전자 장치로 전송하도록 설정된 장치.
  19. 제 17항에 있어서,
    상기 전자 장치는, 스피커를 더 포함하고,
    상기 프로세서는,
    상기 가변 프레임의 위치가 제1 범위에 대응하는 것에 적어도 기반하여 상기 외부 전자 장치로부터 제1 콘텐츠와 연관된 신호를 수신하고, 상기 수신된 신호에 기반하여 상기 제1 콘텐츠가 출력되도록 상기 스피커를 제어하도록 설정된 장치.
  20. 제 19항에 있어서,
    상기 프로세서는,
    상기 가변 프레임의 위치가 상기 제1 범위에서 제2 범위에 대응하도록 변경되는 경우, 상기 외부 전자 장치로부터 상기 제1 콘텐츠에 대응하는 제2 콘텐츠와 연관된 신호를 수신하고, 상기 수신된 신호에 기반하여 상기 제2 콘텐츠가 출력되도록 상기 스피커를 제어하도록 설정된 장치.
KR1020160151899A 2016-11-15 2016-11-15 콘텐츠를 제공하기 위한 방법 및 그 전자 장치 KR20180054228A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020160151899A KR20180054228A (ko) 2016-11-15 2016-11-15 콘텐츠를 제공하기 위한 방법 및 그 전자 장치
CN201711133574.6A CN108073281A (zh) 2016-11-15 2017-11-15 提供内容的方法和及其电子设备
US15/813,798 US20180136715A1 (en) 2016-11-15 2017-11-15 Method of providing content and electronic device for same
EP17201844.2A EP3321726A1 (en) 2016-11-15 2017-11-15 Method of providing content and wearable electronic device for same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160151899A KR20180054228A (ko) 2016-11-15 2016-11-15 콘텐츠를 제공하기 위한 방법 및 그 전자 장치

Publications (1)

Publication Number Publication Date
KR20180054228A true KR20180054228A (ko) 2018-05-24

Family

ID=60569567

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160151899A KR20180054228A (ko) 2016-11-15 2016-11-15 콘텐츠를 제공하기 위한 방법 및 그 전자 장치

Country Status (4)

Country Link
US (1) US20180136715A1 (ko)
EP (1) EP3321726A1 (ko)
KR (1) KR20180054228A (ko)
CN (1) CN108073281A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210157030A (ko) * 2020-06-19 2021-12-28 시크릿타운 주식회사 유아동의 인지발달을 향상시키기 위한 증강현실 컨텐츠 기반의 체험 서비스 제공 방법

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102265086B1 (ko) * 2014-11-07 2021-06-15 삼성전자 주식회사 정보를 공유하기 위한 가상 환경
US11922949B1 (en) * 2020-08-17 2024-03-05 Amazon Technologies, Inc. Sound detection-based power control of a device
CN111736353B (zh) * 2020-08-25 2020-12-04 歌尔光学科技有限公司 一种头戴式设备
CN113350781B (zh) * 2021-06-28 2022-12-23 青岛海信传媒网络技术有限公司 一种显示设备及游戏模式切换方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007145121A1 (ja) * 2006-06-13 2007-12-21 Nikon Corporation ヘッドマウントディスプレイ
KR200461682Y1 (ko) * 2010-03-03 2012-07-30 주식회사 이노디자인 입체영상용 판독장치가 구비된 헤드셋
CN104793338B (zh) * 2010-04-27 2018-08-10 高平科技有限公司 可佩戴的电子显示器
TW201419883A (zh) * 2012-11-12 2014-05-16 Powertech Ind Co Ltd 頭戴式耳機裝置
KR101509169B1 (ko) * 2013-05-07 2015-04-07 배영식 헤드 마운트 디스플레이
US20150097759A1 (en) * 2013-10-07 2015-04-09 Allan Thomas Evans Wearable apparatus for accessing media content in multiple operating modes and method of use thereof
CN106256135A (zh) * 2015-04-03 2016-12-21 深圳市柔宇科技有限公司 头戴式电子装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210157030A (ko) * 2020-06-19 2021-12-28 시크릿타운 주식회사 유아동의 인지발달을 향상시키기 위한 증강현실 컨텐츠 기반의 체험 서비스 제공 방법

Also Published As

Publication number Publication date
US20180136715A1 (en) 2018-05-17
EP3321726A1 (en) 2018-05-16
CN108073281A (zh) 2018-05-25

Similar Documents

Publication Publication Date Title
CN105607696B (zh) 控制屏幕的方法以及用于处理该方法的电子设备
KR102534724B1 (ko) 전자 장치 및 그의 동작 방법
EP3164785B1 (en) Wearable device user interface control
KR102244222B1 (ko) 가상 현실 서비스를 제공하기 위한 방법 및 이를 위한 장치들
KR102229890B1 (ko) 데이터 처리 방법 및 그 전자 장치
CN106716225B (zh) 电子设备、用于控制该电子设备的方法、和记录介质
KR102499349B1 (ko) 전방위 영상을 제공하는 전자 장치 및 방법
EP3321726A1 (en) Method of providing content and wearable electronic device for same
KR20190056816A (ko) 웨어러블 장치를 통하여 햅틱 피드백을 제공하는 전자 장치 및 그 방법
KR20170138667A (ko) 어플리케이션을 활성화하는 방법 및 이를 제공하는 전자 장치
KR20170028193A (ko) 히든 디스플레이를 갖는 전자 장치 및 정보 표시 방법
KR20160101497A (ko) 웨어러블 디바이스 및 웨어러블 디바이스의 동작 방법.
KR102400383B1 (ko) 전자 장치의 센서 데이터 획득 방법 및 이를 사용하는 전자 장치
KR20170040643A (ko) 복수의 디스플레이를 구비한 전자장치 및 그 제어 방법
EP3550415B1 (en) Method for displaying object and electronic device thereof
KR20170122056A (ko) 전자 장치 및 전자 장치의 디스플레이를 이용한 적응적 터치 입력 방법
KR102504308B1 (ko) 디스플레이의 밝기를 제어하는 방법, 전자 장치 및 컴퓨터 판독가능 기록매체
KR20170052978A (ko) 회전체의 회전 인식 방법 및 그 방법을 처리하는 전자 장치
KR20170052368A (ko) 전자 장치, 웨어러블 장치 및 전자 장치에서 디스플레이되는 객체를 제어하는 방법
US20160357250A1 (en) Wearable device having control panel
KR102527901B1 (ko) 전자 장치에 있어서 입력 장치 및 그 제어 방법
KR20180017977A (ko) 터치의 압력 입력에 기반하여 선택 영역을 결정하는 전자 장치 및 방법
KR102641881B1 (ko) 전방위 영상을 획득하는 방법 및 장치
KR20170079610A (ko) 전자 장치 및 그의 동작 방법
KR20180100788A (ko) 무선 충전용 스탠드 및 그것과 연동되는 전자 장치의 동작 방법