KR20240062849A - 휠을 포함하는 웨어러블 전자 장치 - Google Patents

휠을 포함하는 웨어러블 전자 장치 Download PDF

Info

Publication number
KR20240062849A
KR20240062849A KR1020220150804A KR20220150804A KR20240062849A KR 20240062849 A KR20240062849 A KR 20240062849A KR 1020220150804 A KR1020220150804 A KR 1020220150804A KR 20220150804 A KR20220150804 A KR 20220150804A KR 20240062849 A KR20240062849 A KR 20240062849A
Authority
KR
South Korea
Prior art keywords
wheel
electronic device
wearing member
user
receiving groove
Prior art date
Application number
KR1020220150804A
Other languages
English (en)
Inventor
임기수
김승년
손동일
윤종민
이승주
최규식
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2023/016255 priority Critical patent/WO2024090896A1/ko
Priority to US18/493,145 priority patent/US20240143092A1/en
Publication of KR20240062849A publication Critical patent/KR20240062849A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0362Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

웨어러블 전자 장치가 제공될 수 있다. 웨어러블 전자 장치는 투명 부재를 수용하는 렌즈 프레임, 및 적어도 일부가 상기 렌즈 프레임에 대하여 상대적으로 이동하도록 구성된 착용 부재를 포함하는 하우징, 상기 하우징 내에 위치한 프로세서 및 상기 착용 부재의 상기 렌즈 프레임에 대한 위치를 조정하기 위한 휠을 포함하는 입력 구조를 포함할 수 있다. 상기 프로세서는 상기 입력 구조를 이용하여 획득된 신호에 기초하여, 지정된 동작을 수행하도록 구성될 수 있다.

Description

휠을 포함하는 웨어러블 전자 장치{WEARABLE ELECTRONIC DEVICE COMPRISING WHEEL}
본 개시는 휠을 포함하는 웨어러블 전자 장치에 관한 것이다.
전자, 통신 기술이 발달함에 따라, 사용자 신체에 착용하더라도 큰 불편함 없이 사용할 수 있을 정도로 전자 장치가 소형화, 경량화될 수 있다. 예를 들어, 헤드 마운팅 장치(head mounted device, HMD), 스마트 시계(또는 밴드), 콘택트 렌즈형 장치, 반지형 장치, 장갑형 장치, 신발형 장치 또는 의복형 장치와 같은 웨어러블 전자 장치가 상용화되고 있다. 웨어러블 전자 장치는 신체에 직접 착용되므로, 휴대성 및 사용자의 접근성이 향상될 수 있다.
헤드 마운팅 장치는, 사용자의 머리 또는 안면에 착용된 상태로 사용되는 장치로서, 증강 현실(augmented reality, AR)을 사용자에게 제공할 수 있다. 예를 들어, 증강 현실을 제공하는 헤드 마운팅 장치는 안경 형태로 구현되어, 사용자 시야 범위의 적어도 일부 공간에서 사물에 대한 정보를 이미지나 문자 형태로 사용자에게 제공할 수 있다. 헤드 마운팅 장치는, 가상 현실(virtual reality, VR)을 사용자에게 제공할 수 있다. 예를 들어, 헤드 마운팅 장치는 사용자의 양안에 영상을 출력하여, 사용자에게 외부 입력으로부터 제공되는 콘텐츠를 영상 또는 음향 형태로 출력함으로써 뛰어난 몰입감을 제공할 수 있다.
본 개시의 일 실시예에 따르면, 웨어러블 전자 장치는 투명 부재를 수용하는 렌즈 프레임, 및 적어도 일부가 상기 렌즈 프레임에 대하여 상대적으로 이동하도록 구성된 착용 부재를 포함하는 하우징, 상기 하우징 내에 위치한 프로세서 및 상기 착용 부재의 상기 렌즈 프레임에 대한 위치를 조정하기 위한 휠을 포함하는 입력 구조를 포함할 수 있다. 상기 프로세서는 상기 입력 구조를 이용하여 획득된 신호에 기초하여, 지정된 동작을 수행하도록 구성될 수 있다.
본 개시의 일 실시예에 따르면, 전자 장치는 렌즈 프레임, 및 적어도 일부가 상기 렌즈 프레임에 대하여 상대적으로 이동하도록 구성된 착용 부재를 포함하는 하우징, 상기 하우징 내에 위치한 프로세서 및 상기 착용 부재의 상기 렌즈 프레임에 대한 위치를 조정하기 위한 휠 및 상기 착용 부재 내에 배치되고, 상기 휠의 회전을 감지하도록 구성된 회전 감지 센서를 포함할 수 있다. 상기 착용 부재는 상기 렌즈 프레임에 연결된 제1 영역 및 상기 휠의 회전에 기초하여 상기 제1 영역에 대하여 이동하도록 구성된 제2 영역을 포함할 수 있다. 상기 휠은 상기 제1 영역 및 상기 제2 영역에 연결된 기둥부 및 상기 기둥부를 중심으로 회전하도록 구성되고, 상기 제2 영역에 힘을 전달하도록 구성된 회전 영역을 포함할 수 있다. 상기 프로세서는 상기 휠의 회전에 기초하여 지정된 동작을 수행하도록 구성될 수 있다.
도 1은 일 실시예에 따른 인공 현실 제공 시스템을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 전자 장치의 내부 구성을 설명하기 위한 사시도이다.
도 3은 본 개시의 일 실시예에 따른, 입력 구조를 포함하는 전자 장치의 측면도이다.
도 4a 및 도 4b는 본 개시의 입력 구조를 포함하는 전자 장치의 사시도이다.
도 5는 본 개시의 일 실시예에 따른, 착용 센서에 기초한 하우징의 길이 조절을 설명하기 위한 도면이다.
도 6a는 본 개시의 일 실시예에 따른, 제1 휠 및 제2 휠을 포함하는 전자 장치의 사시도이다. 도 6b 및 도 6c는 본 개시의 일 실시예에 따른, 제1 휠 및 제2 휠을 포함하는 전자 장치의 내부 구조를 설명하기 위한 도면이다.
도 7a는 본 개시의 일 실시예에 따른, 클러치 구조를 포함하는 전자 장치의 사시도이다. 도 7b는 도 7a의 A-A'선의 단면 사시도이다. 도 7c는 제1 상태의 도 7a의 B-B'선의 단면 사시도이다. 도 7d는 제2 상태의 도 7a의 B-B'선의 단면 사시도이다.
도 8은 본 개시의 일 실시예에 따른, 모터 모듈을 포함하는 전자 장치의 단면 사시도이다.
도 9는 본 개시의 일 실시예에 따른, 터치 패드 구조를 포함하는 전자 장치의 사시도이다.
도 10a는 본 개시의 일 실시예에 따른, 터치 패드 구조를 포함하는 전자 장치의 확대도이다. 도 10b는 본 개시의 일 실시예에 따른, 터치 패드 구조를 포함하는 전자 장치의 단면 사시도이다.
도 11a 및 도 11b는 본 개시의 일 실시예에 따른, 입력 구조를 포함하는 전자 장치의 동작을 설명하기 위한 도면이다.
도 1은 인공 현실 제공 시스템을 설명하기 위한 도면이다.
일 실시예에 따르면, 인공 현실 제공 시스템은 메타버스 서버(100), 전자 장치(101), 적어도 하나의 외부 전자 장치(121, 122, 123, 124), 또는 외부 서버(140) 중 적어도 하나를 포함할 수 있다.
일 실시예에 따르면, 메타버스 서버(100)는 인공 현실(artificial reality)(예를 들어, 증강 현실(augmented reality environment) 또는 가상 현실(virtual reality environment) 중 적어도 하나)을 표현하기 위한 데이터를 생성할 수 있다. 메타버스 서버(100)는 증강 현실 또는 가상 현실 이외에도, 사용자의 몰입을 증진할 수 있는 콘텐트를 제공할 수 있으며, 이와 같은 콘텐트는 메타버스를 위한 콘텐트라 명명될 수도 있다. 메타버스 서버(100)는 프로세서(110), 메모리(102), 및/또는 통신 장치(107)를 포함할 수 있다. 한편, 메타버스 서버(100)가 프로세서(110), 메모리(102) 및/또는 통신 장치(107)를 포함하는 것은 단순히 예시적인 것이며, 메타버스 서버(100)의 동작들 중 적어도 일부는 클라우드 서버에 의하여 구현될 수도 있다. 메타버스 서버(100)는 분산형 서버로 구현될 수도 있으며, 서버의 구현 형태에 대하여 제한이 없음을 당업자는 이해할 것이다.
일 실시예에 따르면, 프로세서(110)는 메모리(102)에 저장된 프로그램(또는 어플리케이션)에 포함된 명령어(또는 인스트럭션)를 실행할 수 있다. 프로세서(110)는 예를 들어 CPU(central processing unit), GPU(graphic processing unit), NPU(neural processing unit), TPU(tensor processing unit), DSP(digital signal processor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array), 및/또는 프로그래머블 논리 장치를 포함할 수 있으나, 프로그램(또는 인스트럭션 또는 명령어)을 실행할 수 있는 수단이라면 제한이 없다. 프로세서(110)는 인공 현실을 위한 프로그램을 실행할 수 있다. 메모리(102)에는 인공 현실을 위한 프로그램이 저장될 수 있다. 일 실시예에 따르면, 메모리(102)는 휘발성 메모리 및/또는 비휘발성 메모리를 포함할 수 있으며, 예를 들어 하드 디스크 저장 장치, RAM, ROM, 및/또는 플래시 메모리를 포함할 수 있으나, 이는 예시적인 것으로 제한이 없다. 인공 현실을 위한 프로그램은 서버 용 프로그램으로서, 예를 들어 인공 현실을 표현하기 위한 데이터의 생성, 생성된 데이터의 제공, 사용자 입력의 확인, 및/또는 확인된 사용자 입력에 기반하여 업데이트된 인공 현실을 표현하기 위한 데이터의 생성 및 제공의 수행을 야기할 수 있으며, 본 개시의 메타버스 서버(100)에 의하여 수행되는 동작들 중 적어도 일부에 대응하는 명령어(또는 인스트럭션)을 포함할 수 있다. 통신 장치(107)는 네트워크(150)를 통하여 메타버스 서버(100) 및 전자 장치(101) 간의 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 장치(107)는 광역 네트워크(예를 들어, 인터넷)를 제공할 수 있는 장치일 수 있으나, 제한은 없다. 메타버스 서버(100)에 의하여 수행되는 동작은 예를 들어 프로세서(110)에 의하여 수행되거나, 또는 프로세서(110)의 제어에 의하여 다른 하드웨어에 의하여 수행될 수 있다. 메타버스 서버(100)에 의한 동작의 수행을 야기하는 명령어(또는 인스트럭션)은 메모리(102)에 저장될 수도 있다. 메타버스 서버(100)의 버스(108)(또는 통신 인터페이스, 또는 네트워크)를 통하여, 프로세서(110), 메모리(102), 및/또는 통신 장치(107)는 데이터를 송/수신할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 인공 현실을 표현하기 위한 데이터를 이용하여, 인공 현실을 표현하기 위한 적어도 하나의 동작(예를 들어, 시각적 콘텐트(예를 들어, 이미지)의 제공, 청각적 콘텐트(예를 들어, 음성)의 제공, 촉각적 콘텐트(예를 들어, 진동)의 제공, 및/또는 후각적 콘텐트(예를 들어, 냄새)의 제공을 포함할 수 있으나 제한이 없음)을 수행할 수 있다. 전자 장치(101)를 소유하거나, 또는 착용한 사용자는 전자 장치(101)로부터 제공되는 콘텐트에 기반하여 인공 현실을 체험할 수 있다. 전자 장치(101)는 프로세서(111), 메모리(112), 입/출력 장치(113), 디스플레이(114), 센서 장치(115), 카메라(116), 또는 통신 장치(117) 중 적어도 하나를 포함할 수 있다. 프로세서(111)는 예를 들어 CPU, GPU, NPU, TPU, DSP, ASIC, FPGA, 및/또는 프로그래머블 논리 장치를 포함할 수 있으나, 프로그램(또는 인스트럭션 또는 명령어)을 실행할 수 있는 수단이라면 제한이 없다. 예를 들어, 프로세서(111)는 인공 현실을 위한 프로그램을 실행할 수 있다. 인공 현실을 위한 프로그램은 클라이언트용 프로그램으로서, 예를 들어 메타버스 서버(100)로부터의 인공 현실을 표현하기 위한 데이터의 수신, 수신된 데이터에 기반한 인공 현실을 표현하기 위한 적어도 하나의 동작(예를 들어, 시각적 콘텐트(예를 들어, 이미지)의 제공, 청각적 콘텐트(예를 들어, 음성)의 제공, 촉각적 콘텐트(예를 들어, 진동)의 제공, 및/또는 후각적 콘텐트(예를 들어, 냄새)의 제공을 포함할 수 있으나 제한이 없음)), 사용자 입력의 확인 및/또는 사용자 입력(또는 사용자 입력에 대응하는 명령)의 메타버스 서버(100)로의 송신의 수행을 야기할 수 있으며, 본 개시의 전자 장치(101)에 의하여 수행되는 동작들 중 적어도 일부에 대응하는 명령어(또는 인스트럭션)을 포함할 수 있다. 일 실시예에 따르면, 메모리(112)는 휘발성 메모리 및/또는 비휘발성 메모리를 포함할 수 있으며, 예를 들어 하드 디스크 저장 장치, RAM, ROM, 및/또는 플래시 메모리를 포함할 수 있으나, 이는 예시적인 것으로 제한이 없다. 일 실시예에 따르면, 입/출력 장치(113)는 터치 패드, 버튼, 마우스, 디지털 펜, 및/또는 마이크를 포함할 수 있으나, 사용자 입력을 수신(또는 센싱)하기 위한 장치라면 제한이 없다. 예를 들어, 입/출력 장치(113)의 하나의 예인 터치 스크린 패널은 디스플레이(114)와 일체형으로 구현될 수도 있다. 입/출력 장치(113)는 스피커, 햅틱 모듈, 및/또는 발광 모듈을 포함할 수 있으나, 인공 현실과 연관된 콘텐트를 출력하기 위한 장치라면 제한이 없다. 일 실시예에 따르면, 센서 장치(115)는 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 및/또는 조도 센서를 포함할 수 있다. 일 실시예에 따르면, 카메라(116)는 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다. 일 실시예에 따르면, 통신 장치(117)는 네트워크(150)를 통하여 메타버스 서버(100) 및 전자 장치(101) 간의 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 장치(117)는 광역 네트워크(예를 들어, 인터넷)를 제공할 수 있는 장치일 수 있으나, 제한은 없다. 통신 장치(117)는 유선 통신 및/또는 무선 통신을 지원할 수 있다. 예를 들어, 통신 장치(117)는 근거리 통신(예를 들어, 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신)을 지원할 수도 있다. 통신 장치(117)는 근거리 통신에 기반하여, 외부 센서(131) 및/또는 외부 컨트롤러(133)와 데이터를 송수신할 수 있다. 예를 들어, 전자 장치(101)가 스탠드얼론(standalone) 타입으로 구현되는 경우에는 통신 장치(117)는 네트워크(150)에 무선으로 접속하는 기능을 지원할 수 있다. 통신 장치(117)는 LTE, 5G, 6G와 같은 셀룰러 통신을 지원하거나, 및/또는 IEEE 802 시리즈 기반의 통신(예를 들어 Wifi라 명명될 수 있음)을 지원할 수 있다. 통신 장치(117)는 유선 통신을 지원하도록 구현될 수도 있으며, 그 구현 방식에는 제한이 없다. 전자 장치(101)가 논-스탠드얼론(non-standalone) 타입으로 구현되는 경우에는 전자 장치(101)는 네트워크(150)에 연결이 가능한 중계 장치를 통하여, 메타버스 서버(100)와 통신을 수행할 수 있다. 예를 들어, 통신 장치(117)는 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신을 지원할 수 있으며, 근거리 통신을 이용하여 중계 장치를 통한 메타버스 서버(100)와의 통신을 수행할 수 있다. 외부 센서(131)는 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR 센서, 생체 센서, 온도 센서, 습도 센서, 및/또는 조도 센서를 포함할 수 있다. 전자 장치(101)에 의하여 수행되는 동작은 예를 들어 프로세서(111)에 의하여 수행되거나, 또는 프로세서(111)의 제어에 의하여 다른 하드웨어에 의하여 수행될 수 있다. 전자 장치(101)에 의한 동작의 수행을 야기하는 명령어(또는 인스트럭션)은 메모리(112)에 저장될 수도 있다. 전자 장치(101)의 버스(118)(또는 통신 인터페이스, 또는 네트워크)를 통하여, 프로세서(111), 메모리(112), 입/출력 장치(113), 디스플레이(114), 센서 장치(115), 카메라(116), 및/또는 통신 장치(117)는 데이터를 송/수신할 수 있다. 한편, 메타버스 서버(100) 및 전자 장치(101)가 인공 현실을 위한 어플리케이션에 기반하여 데이터를 송수신하는 것은 단순히 예시적인 것으로, 메타버스 서버(100) 및 전자 장치(101)는 웹 기반으로 적어도 일부의 데이터를 송수신할 수도 있음을 당업자는 이해할 것이다.
일 실시예에 따르면, 외부 센서(131)는 예를 들어 링-형 장치, 팔찌형 장치, 머리 부착형 장치일 수 있으나 그 타입 및/또는 부착되는 사용자 신체 부위에는 제한이 없다. 외부 센서(131)는 근거리 통신에 기반하여 센싱된 데이터를 전자 장치(101)로 제공할 수 있다. 컨트롤러(133)는 예를 들어 터치 패드, 버튼, 마우스, 디지털 펜, 및/또는 마이크를 포함할 수 있으나, 사용자 입력을 수신(또는 센싱)하기 위한 장치라면 제한이 없다. 컨트롤러(133)는 근거리 통신에 기반하여 획득된 데이터를 전자 장치(101)로 제공할 수 있다. 일 실시예에서, 컨트롤러(133)는 사용자 입력을 수신하기 위한 장치 이외에 추가적으로 적어도 하나의 센서를 더 포함할 수도 있다. 예를 들어, 컨트롤러(133)는 사용자 입력과 연관된 데이터 및/또는 센싱 데이터를, 근거리 통신에 기반하여 전자 장치(101)로 제공할 수도 있다.
일 실시예에 따르면, 메타버스 서버(100)는 적어도 하나의 외부 전자 장치(121, 122, 123, 124)와 데이터를 송수신할 수 있다. 메타버스 서버(100)는 적어도 하나의 외부 전자 장치(121, 122, 123, 124)와 데이터에 기반하여 업데이트 및/또는 변경한 인공 현실을 표현하기 위한 데이터를 전자 장치(101)로 송신할 수 있다. 전자 장치(101)는 데이터에 기반하여 인공 현실을 표현하기 위한 적어도 하나의 동작을 수행할 수 있다. 이에 따라, 하나의 인공 현실에서의 복수의 사용자가 존재하는 경우의, 어느 하나의 사용자에 의한 동작이 반영된 인공 현실이 다른 사용자에게도 제공될 수 있다.
일 실시예에 따르면, 외부 서버(140)는 메타버스 서버(100)와 네트워크(150)를 통하여 데이터를 송수신할 수 있다. 외부 센서(131)는 예를 들어 메타버스 서버(100)와 동일한 어플리케이션(또는 동일한 인공 현실)을 지원하는 서버일 수 있다. 또는 외부 서버(140)는 메타버스 서버(100)와 상이한 어플리케이션(또는 상이한 인공 현실)을 지원하는 서버일 수 있다. 예를 들어, 메타버스 서버(100)는 외부 서버(140)의 데이터를 메타버스 서버(100)에서 지원하는 어플리케이션(또는 인공 현실)의 포맷으로 변환할 수 있다. 메타버스 서버(100)는 변환된 데이터를 반영한 인공 현실을 표현하기 위한 데이터를 전자 장치(101)로 송신할 수 있다. 상술한 바와 같이, 메타버스 서버(100)는 지원하는 인공 현실과 상이한 인공 현실과도 인터랙트(interact)할 수 있으며, 이러한 기능을 멀티버스(multiverse) 기능이라 명명할 수도 있다.
일 실시예에 따르면, 전자 장치(101)는 가상 현실을 지원하는 HMD(head mounted device), 또는 머리에 고정될 수 있는 구조에 연결 가능한 스마트 폰일 수 있다. 사용자는 HMD를 머리에 착용하거나, 또는 스마트 폰이 연결된 구조를 머리에 착용한 채로, 디스플레이(114)에 표시되는 가상 현실을 표현하기 위한 좌안용 이미지 및 우안용 이미지 각각을 양안으로 관찰할 수 있다. 또는 사용자는 전자 장치(101)를 머리에 착용하지 않고, 전자 장치(101)의 디스플레이(114)에 표시되는 가상 현실을 표현하기 위한 이미지를 관찰할 수도 있다. 예를 들어, 전자 장치(101)는 스마트 폰, 태블릿, 범용적인 컴퓨터, 또는 스마트 미러(smart mirror)로 구현될 수 있으나, 제한은 없다.
일 실시예에 따르면, 메타버스 서버(100)는 가상 현실의 적어도 하나의 공간(space)(또는 해당 공간을 응시하는 장면(scene))을 표현하기 위한 데이터를 생성할 수 있다. 예를 들어, 메타버스 서버(100)는 전자 장치(101)로부터 제 1 사용자의 정보(예를 들어, 제 1 사용자의 계정 정보 및/또는 인증을 위한 정보)를 수신할 수 있다. 메타버스 서버(100)는 제 1 사용자의 정보에 기반하여, 제 1 사용자의 로그 인 절차를 수행할 수 있다. 메타버스 서버(100)는 가상 현실 내의 제 1 사용자에 대응하는 공간을 확인할 수 있다. 예를 들어, 메타버스 서버(100)는 제 1 사용자에 대하여 개인적으로(privately) 할당된 공간을 확인할 수 있다. 예를 들어, 메타버스 서버(100)는 개방형(opened) 공간 중 제 1 사용자의 위치에 대응하는 공간을 확인할 수 있다. 예를 들어, 메타버스 서버(100)는 사용자의 입력에 대응하는 공간을 확인할 수 있다. 메타버스 서버(100)가 제 1 사용자의 위치에 대응하는 공간을 확인하는 방법에는 제한이 없다. 예를 들어, 확인된 공간 내에는 적어도 하나의 오브젝트 및/또는 사용자에 대응하는 아바타(또는 캐릭터)가 포함될 수 있다. 장면의 시점이 1인칭 시점인 경우에는 표현을 위한 데이터는 확인된 공간을 사용자의 관점으로 바라보는 장면에 관련될 수 있다. 경우에 따라서, 확인된 공간을 바라보는 장면에는 제 1 사용자에 대응하는 아바타(또는 캐릭터)가 포함되지 않거나, 또는 신체의 일부(예를 들어, 손 등)만이 포함될 수도 있으나 제한은 없으며, 또는 아바타의 뒷 모습이 포함될 수도 있다. 장면의 시점이 3인칭인 경우에는 표현을 위한 데이터는 사용자에 대응하는 아바타(또는 캐릭터)가 포함되는 공간을 일 방향에서 바라보는 장면에 관련될 수 있다.
일 실시예에 따르면, 사용자의 관점으로 바라보는 장면에는 다른 사용자에 대응하는 아바타가 포함될 수도 있다. 예를 들어, 제 2 사용자는 외부 전자 장치(122)를 이용하여 메타버스 서버(100)에 접속할 수 있다. 메타버스 서버(100)는 제 1 사용자 및 제 2 사용자에 의하여 함께 이용되는 인공 현실을 표현하기 위한 데이터를 생성할 수 있다. 예를 들어, 메타버스 서버(100)는 특정 공간에 제 1 사용자 및 제 2 사용자 모두가 존재하는 경우, 제 1 사용자 및 제 2 사용자에 의하여 함께 이용되는 인공 현실을 표현하기 위한 데이터를 생성할 수 있다. 예를 들어, 장면의 시점이 1인칭 시점인 경우에는 제 1 사용자를 위한 장면에는 제 2 사용자의 아바타의 적어도 일부가 포함될 수 있다. 예를 들어, 장면의 시점이 3인칭 시점인 경우에는 제 1 사용자를 위한 장면에는 제 1 사용자에 대응하는 제 1 아바타(또는 캐릭터로 명명될 수 있음)의 적어도 일부 및/또는 제 2 사용자에 대응하는 제 2 아바타(또는 캐릭터)의 적어도 일부가 포함될 수 있다. 일 실시예에서, 전자 장치(101)에서 표시되는 화면의 적어도 일부가 메타버스 서버(100)로 제공될 수도 있다. 가상 현실의 공간에는 전자 장치(101)에서 표시되는 화면의 적어도 일부(또는 적어도 일부에 대응하는 오브젝트)가 배치될 수도 있다.
일 실시예에 따르면, 메타버스 서버(100)는 전자 장치(101)로부터 사용자 입력 및/또는 사용자 입력에 대응하는 명령을 수신할 수 있다. 예를 들어, 전자 장치(101)는 입/출력 장치(113)를 통하여, 사용자 입력을 확인할 수 있다. 예를 들어, 전자 장치(101)는 내장된 센서 장치(115)를 통하여, 사용자 입력을 확인할 수 있다. 예를 들어, 전자 장치(101)는 통신 장치(117)를 통하여 연결되는 외부 센서(131) 및/또는 컨트롤러(133)로부터의 사용자 입력을 획득할 수 있다. 프로세서(111)는 센서 장치(115)를 통하여 확인된 센싱 데이터에 기반하여, 전자 장치(101)의 움직임 정보를 사용자 입력으로서 확인할 수 있다. 예를 들어, 전자 장치(101)는 통신 장치(117)를 통하여 연결되는 외부 센서(131) 및/또는 컨트롤러(133)로부터의 사용자 입력을 획득할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 사용자 입력에 기반하여 명령을 확인할 수 있다. 명령은 예를 들어 가상 현실 내에서의 이동, 가상 현실 내의 오브젝트의 지정, 가상 현실 내의 오브젝트의 조작, 및/또는 다른 아바타와의 인터랙션을 포함할 수 있으나, 제한이 없다. 전자 장치(101)는 명령을 메타버스 서버(100)로 송신할 수 있다. 예를 들어, 전자 장치(101)는 사용자 입력에 기반한 명령의 확인을 수행하지 않고, 사용자 입력을 메타버스 서버(100)로 송신할 수 있고, 예를 들어, 메타버스 서버(100)가 사용자 입력에 기반하여 명령을 확인할 수 있다.
일 실시예에 따르면, 메타버스 서버(100)는 명령에 기반하여 가상 현실의 공간을 업데이트하거나, 또는 다른 공간으로 변경할 수 있다. 예를 들어, 명령이 오브젝트의 지정인 경우에는 지정된 오브젝트에 연결된 기능이 반영되도록 공간이 업데이트될 수 있다. 예를 들어, 명령이 오브젝트의 조작인 경우에는 해당 오브젝트의 위치가 변경되도록 공간이 업데이트될 수 있다. 예를 들어, 명령이 아바타의 동작 수행인 경우, 사용자의 아바타가 대응되는 반응을 수행하도록 공간이 업데이트될 수 있다. 예를 들어, 명령이 다른 아바타와의 인터랙션인 경우, 해당 아바타가 대응되는 반응을 수행하도록 공간이 업데이트될 수 있다. 예를 들어, 명령이 이동인 경우에는 표시를 위한 공간이 다른 공간으로 변경될 수 있다. 명령에 기반한 가상 현실의 공간 업데이트 및/또는 변경에 대하여서는 제한이 없음을 당업자는 이해할 것이다. 메타버스 서버(100)는 시각적인 콘텐트의 업데이트 및/또는 변경 이외에도, 청각적 콘텐트의 제공, 촉각적 콘텐트의 제공, 및/또는 후각적 콘텐트의 제공을 수행할 수 있다. 메타버스 서버(100)는 사용자들 사이의 음성 데이터 및/또는 채팅을 위한 텍스트를 중계할 수도 있다. 예를 들어, 메타버스 서버(100)는 명령과, 업데이트 및/또는 변경 사이의 연관 정보를 이용하여, 공간의 업데이트 및/또는 변경을 수행할 수 있다. 예를 들어, 메타버스 서버(100)는 사용자 입력 및/또는 명령을 입력값으로서 수신하여, 공간의 업데이트 및/또는 변경을 출력값으로서 출력하는 인공지능 모델을 저장할 수도 있다. 메타버스 서버(100)는 인공지능 모델의 출력값을 기반으로 공간의 업데이트 및/또는 변경을 수행할 수도 있다. 예를 들어, 메타버스 서버(100)는 사용자 입력 없이도, 해당 공간의 콘텍스트(context)에 기반한 공간의 업데이트 및/또는 변경을 제공하는 인공지능 모델을 저장할 수도 있다. 메타버스 서버(100)는 인공지능 모델을 이용하여 해당 공간의 콘텍스트에 기반한 공간의 업데이트 및/또는 변경을 수행할 수도 있다.
일 실시예에 따르면, 메타버스 서버(100)는 업데이트된 공간의 표현을 위한 데이터 및/또는 변경된 공간의 표현을 위한 데이터를 전자 장치(101)로 송신할 수 있다. 메타버스 서버(100)는 업데이트 공간의 표현을 위한 데이터 및/또는 변경된 공간의 표현을 위한 데이터를 제 2 사용자에 대응하는 외부 전자 장치(122)로 송신할 수 있다. 이에 따라, 외부 전자 장치(122)에서는 전자 장치(101)의 제 1 사용자에 의하여 업데이트된 공간이 반영된 가상 현실이 표현될 수 있다. 아울러, 외부 전자 장치(122)로부터 메타버스 서버(100)로 송신되는 정보(예를 들어, 사용자 입력 및/또는 명령)에 기반하여, 메타버스 서버(100)가 제 1 사용자 및 제 2 사용자가 함께 이용하는(또는 존재하는) 공간을 업데이트할 수 있다. 메타버스 서버(100)는 업데이트된 공간을 표현하기 위한 데이터를 전자 장치(101)로 송신할 수 있다. 전자 장치(101)는 수신된 데이터에 기반하여, 업데이트된 공간을 표현할 수 있다. 상술한 바와 같이, 메타버스 서버(100)는 어느 하나의 사용자에 대응하여 업데이트된 공간을, 해당 공간에 대응하는 다른 사용자의 전자 장치로도 공유할 수 있다. 예를 들어, 시계열적인 공간의 업데이트 및/또는 변경을 사용자 경험이라 명명할 수 있다. 메타버스 서버(100) 및/또는 전자 장치(101)는 사용자 경험과 연관된 적어도 하나의 데이터를 메모리(102 및/또는 112)에 저장할 수 있다. 예를 들어, 메타버스 서버(100)는 사용자 경험과 연관된 적어도 하나의 데이터를 사용자 별로(예를 들어, 사용자 계정 별로) 저장할 수 있다. 예를 들어, 메타버스 서버(100) 및/또는 전자 장치(101)는 사용자 경험 중 일 시점에 대한 표현을 위한 데이터를 메모리(102 및/또는 112)에 저장할 수 있다. 이를 설명의 편의 상, 사용자 경험에 대한 캡쳐를 수행한다고 표현할 수 있다. 메타버스 서버(100)는 사용자 경험과 연관된 데이터를 저장할 수 있으며, 이를 라이프 로깅(life logging)이라 명명할 수도 있다. 메타버스 서버(100)는 추가적으로 사용자와 연관된 데이터를 저장할 수도 있다. 예를 들어, 메타버스 서버(100)는 전자 장치(101)로부터의 적어도 하나의 센싱 데이터를 수신하여, 이를 시계열적으로 저장하거나, 또는 최종 값을 업데이트할 수 있다. 메타버스 서버(100)는 적어도 하나의 센싱 데이터에 기반하여, 현실 세계의 사용자에 대응하는 가상 현실에서의 사용자(예를 들어, 아바타)를 생성할 수도 있으며, 이를 디지털 트윈(digital twin)이라 명명할 수도 있다.
일 실시예에 따르면, 전자 장치(101)는 특정 사용자가 바라보는 실제 환경에 겹쳐져서 보일 수 있는 적어도 하나의 시각적 오브젝트를 표현하는 증강 현실을 위한 콘텐트를 제공할 수 있다. 한편, 가상 현실에 대한 실시예에서 설명되는 메타버스 서버(100) 및/또는 전자 장치(101)의 동작들 중 적어도 일부는 증강 현실에 대한 실시예에서 설명되는 메타버스 서버(100) 및/또는 전자 장치(101)에 의하여서 수행될 수도 있으며, 그 역 또한 가능함을 당업자는 이해할 것이다. 일 실시예에 따르면, 전자 장치(101)는 증강 현실을 지원하는 안경형 전자 장치, 스마트 렌즈, 또는 촬영된 이미지를 실시간으로 표시할 수 있는 스마트 폰일 수 있다. 사용자는 안경형 전자 장치 또는 스마트 렌즈를 착용한 채로, 안경형 전자 장치 또는 스마트 렌즈의 투명 디스플레이(또는 반투명(semi-transparent) 디스플레이)에 표시되는 시각적 오브젝트를 실제 환경과 함께 관찰할 수 있다. 또는 사용자는 스마트 폰에서 촬영된 이미지 및 해당 이미지 상에 겹치도록 표시되는 시각적 오브젝트를 관찰할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 카메라(116)(예를 들어, 전방을 향하는 카메라)를 통하여 전경 이미지를 획득할 수 있다. 전자 장치(101)는 전경 이미지, 전경 이미지의 일부, 또는 전경 이미지에 기반하여 획득된 3D 모델링 데이터를, 통신 장치(117)를 통하여 메타버스 서버(100)로 송신할 수 있다. 전자 장치(101)는 촬영된 이미지 및/또는 센서 장치(115)에 의한 센싱 데이터에 기반하여, 전자 장치(101)의 자세(orientation)를 확인할 수 있다. 전자 장치(101)는 통신 장치(117)를 통하여 전자 장치(101)의 자세에 대한 데이터를 송신할 수 있다. 전자 장치(101)는 카메라(116)(예를 들어, 후방을 향하는 카메라)를 이용하여 사용자의 눈의 촬영 이미지를 획득할 수 있다. 전자 장치(101)는 눈의 촬영 이미지에 기반하여 사용자의 시선을 확인할 수 있다. 전자 장치(101)는 통신 장치(117)를 통하여 사용자의 시선에 대한 데이터를 송신할 수 있다.
일 실시예에 따르면, 메타버스 서버(100)는 특정 사용자가 바라보는 실제 환경에 겹쳐져서 보일 수 있는 적어도 하나의 시각적 오브젝트를 표현하기 위한 데이터를, 인공 현실을 표현하기 위한 데이터로서 생성할 수 있다. 메타버스 서버(100)는 예를 들어 전자 장치(101)로부터 수신된 데이터(전경 이미지와 연관된 데이터, 전자 장치(101)의 자세, 및/또는 사용자의 시선)를 분석하고, 분석 결과에 기반하여 적어도 하나의 시각적 오브젝트를 확인할 수 있다. 메타버스 서버(100)는 적어도 하나의 시각적 오브젝트를 표현하기 위한 데이터를, 통신 장치(107)를 통하여 전자 장치(101)로 송신할 수 있다. 적어도 하나의 시각적 오브젝트는 예를 들어 전자 장치(101)의 디스플레이(114)에 의하여 표시될 수 있으며, 사용자는 실제 환경 상에 겹치는 적어도 하나의 시각적 오브젝트를 관찰할 수 있다. 예를 들어, 시각적 오브젝트는 실제 환경에 배치되는 오브젝트과 연관된 정보 및/또는 형태를 가질 수 있다. 예를 들어, 시각적 오브젝트가 실제 환경에 배치되는 오브젝트의 근처에 위치하는 것과 같이 사용자에 의하여 관찰될 수 있도록, 전자 장치(101)는 시각적 오브젝트를 표시할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 사용자 입력을 확인할 수 있다. 예를 들어, 전자 장치(101)에 포함되는 입/출력 장치(113)를 통하거나, 및/또는 외부 센서(131) 및/또는 컨트롤러(133)를 통하여 사용자 입력을 확인할 수 있다. 사용자 입력은 예를 들어 표시되는 시각적 오브젝트의 지정 및/또는 조작을 야기할 수 있다. 전자 장치(101)는 사용자 입력 및/또는 사용자 입력에 대응하는 명령을 메타버스 서버(100)로 송신할 수 있다. 메타버스 서버(100)는 사용자 입력 및/또는 사용자 입력에 대응하는 명령에 기반하여, 인공현실을 표현하기 위한 데이터를 생성할 수 있다. 예를 들어, 메타버스 서버(100)는 사용자 입력이 시각적 오브젝트의 지정 및/또는 조작에 기반한 것임을 확인하고, 이에 대응하여 시각적 오브젝트의 변형, 시각적 오브젝트의 이동, 및/또는 시각적 오브젝트의 기능에 대응하는 다른 시각적 오브젝트의 제공을 수행할 수 있으나, 그 수행하는 동작에는 제한이 없다. 메타버스 서버(100)는 사용자 입력 및/또는 사용자 입력에 대응하는 명령에 기반하여 생성된 인공현실을 표현하기 위한 데이터를 전자 장치(101)로 송신할 수 있다. 전자 장치(101)에서는 인공현실을 표현하기 위한 데이터에 기반하여, 인공현실과 연관된 콘텐트를 제공할 수 있다. 상술한 바와 같이, 메타버스 서버(100) 및/또는 전자 장치(101)는 사용자가 시각적 오브젝트에 대한 인터랙션을 수행할 수 있는 기능을 제공할 수 있다.
일 실시예에서, 메타버스 서버(100)는 다른 사용자에 대응하는 아바타(또는 캐릭터)를 인공 현실을 표현하기 위한 데이터로서 생성할 수 있다. 메타버스 서버(100)는 다른 사용자에 대응하는 아바타(또는 캐릭터)를 전자 장치(101)로 송신할 수 있다. 전자 장치(101)는 수신된 인공 현실을 표현하기 위한 데이터를 이용하여, 다른 사용자에 대응하는 아바타(또는 캐릭터)를 표시할 수 있다. 이에 따라, 사용자는 실제 환경 상에 겹치는 다른 사용자에 대응하는 아바타(또는 캐릭터)를 관찰할 수 있다. 이에 따라, 사용자는 다른 사용자에 대응하는 아바타(또는 캐릭터)가 실제환경에 위치하는 것과 같이 경험할 수 있다. 다른 사용자에 대응하는 아바타(또는 캐릭터)는 예를 들어 외부 전자 장치(121, 122, 123, 124)에서 획득된 사용자 입력에 의하여 조작될 수 있거나, 및/또는 메타버스 서버(100)에 저장된 인공지능 모델에 기반하여 조작될 수도 있으며, 아바타(또는 캐릭터)의 조작 방식에는 제한이 없다. 아바타(또는 캐릭터)가 조작됨에 기반하여, 메타버스 서버(100)는 조작된 아바타(또는 캐릭터)를 표현하기 위한 데이터를 전자 장치(101)로 송신할 수 있다. 전자 장치(101)는 수신된 데이터에 기반하여 조작된 아바타(또는 캐릭터)를 표현할 수 있으며, 이에 따라, 사용자는 다른 사용자에 대응하는 아바타(또는 캐릭터)가 실제환경에서 동작하는 것과 같이 경험할 수 있다. 상술한 바와 같이, 메타버스 서버(100) 및/또는 전자 장치(101)는 증강 현실과 연관된 사용자 경험을 메모리(102 및/또는 112)에 저장할 수 있다. 예를 들어, 메타버스 서버(100)는 증강 현실과 연관된 사용자 경험과 연관된 적어도 하나의 데이터를 사용자 별로(예를 들어, 사용자 계정 별로) 저장할 수 있다. 예를 들어, 메타버스 서버(100) 및/또는 전자 장치(101)는 증강 현실과 연관된 사용자 경험 중 일 시점에 대한 표현을 위한 데이터를 메모리(102 및/또는 112)에 저장할 수 있다.
한편, 메타버스 서버(100) 및 전자 장치(101)가 인공 현실을 표현하기 위한 데이터의 생성하여, 이를 표현하는 것은 예시적인 것이다. 일 실시예에 따르면, 전자 장치(101)는 인공 현실을 표현하기 위한 데이터의 생성, 및/또는 외부 전자 장치(121, 122, 123, 124)로부터의 데이터에 기반한 인공 현실을 위한 데이터를 생성할 수도 있다. 예를 들어, 전자 장치(101)는 메타버스 서버(100)로부터의 데이터 없이, 인공 현실을 표현하기 위한 데이터를 생성할 수도 있다.
도 2는 일 실시 예에 따른, 전자 장치의 내부 구성을 설명하기 위한 사시도이다.
도 2를 참조하면, 일 실시예에 따른 전자 장치(200)는 하우징(210a, 210b, 210c)에 수용되거나, 하우징(210a, 210b, 210c) 상에 배치되거나, 및/또는 하우징(210a, 210b, 210c)에 형성되는 개구를 통하여 노출되는 된 부품들을 포함할 수 있다. 도 2의 전자 장치(200)는 도 1의 인공 현실 시스템의 전자 장치(101) 및/또는 외부 전자 장치(121)일 수 있다.
일 실시예에 따르면, 전자 장치(200)는 복수 개의 카메라 모듈(253, 254, 255, 256)을 이용하여 사용자가 바라보는 또는 전자 장치(200)가 지향하는 방향(예: -Y 방향)의 사물이나 환경에 관한 시각적인 이미지를 획득할 수 있다. 카메라 모듈(253, 254)은 하우징(210b, 210c)의 상대적으로 상부 상에 배치될 수 있다. 또는 카메라 모듈(253, 254)은 하우징(210b, 210c)에 형성되는 개구를 통하여 노출될 수 있다. 카메라 모듈(253, 254)은 하우징(210b, 210c)의 적어도 하나의 지점을 기준으로 하는 FOV(field of view), 예를 들어 사용자가 전자 장치(200)를 착용한 경우 상대적으로 상측에 대응하는 FOV에 대응하는 이미지를 촬영할 수 있다. 카메라 모듈(253, 254)에 의하여 획득되는 이미지는 예를 들어 SLAM(simultaneous localization and mapping) 및/또는 6DoF에 이용되거나, 피사체에 대한 인식 및/또는 트랙킹에 이용될 수 있다. 카메라 모듈(253, 254)에 의하여 획득되는 이미지는 헤드 트랙킹에도 이용될 수도 있다.
일 실시예에 따르면, 카메라 모듈(255, 256)은 하우징(210b, 210c)의 상대적으로 하부 상에 배치될 수 있다. 또는 카메라 모듈(255, 256)은 하우징(210b, 210c)에 형성되는 개구를 통하여 노출될 수 있다. 여기에서, 카메라 모듈(253, 254)에 대응하는 상부 및 카메라 모듈(255, 256)에 대응하는 하부는 사용자가 전자 장치(200)를 착용한 경우에 정의되는 것으로, 상대적으로 지면에 가까운 부분이 하부로 명명되며, 상대적으로 지면으로부터 먼 부분이 상부로 명명되는 것으로 설명의 편의를 위한 것일 뿐임을 당업자는 이해할 것이다. 카메라 모듈(255, 256)은 하우징(210b, 210c)의 적어도 하나의 지점을 기준으로 하는 FOV, 예를 들어 사용자가 전자 장치(200)를 착용한 경우 상대적으로 하측에 대응하는 FOV에 대응하는 이미지를 촬영할 수 있다. 카메라 모듈(255, 256)에 의하여 획득되는 이미지는 피사체에 대한 인식 및/또는 트랙킹에 이용될 수 있다. 예를 들어, 카메라 모듈(255, 256)에 의하여 획득되는 이미지는 사용자가 전자 장치(200)를 착용한 경우, 머리에 대응하는 부분보다 상대적으로 하측에 배치되는 피사체, 예를 들어 사용자의 손에 대한 인식 및/또는 트랙킹에 이용될 수 있지만, 제한은 없다.
일 실시예에 따라서, 전자 장치(200)는 카메라 모듈(253, 254, 255, 256)에 의하여 촬영된 적어도 하나의 이미지를 이용하여, 피사체의 인식 및/또는 트랙킹을 수행할 수 있다. 전자 장치(200)는 인식 및/또는 트랙킹 결과에 기반하여 확인되는 동작을 수행할 수 있으며, 예를 들어 피사체에 대응하는 위치에 비쥬얼 오브젝트를 제공할 수 있으나 그 동작에는 제한이 없다. 예를 들어, 가상 키보드가 전자 장치(200)에 의하여 제공되는 경우, 사용자의 손의 트랙킹 결과에 기반하여, 가상 키보드에서 지정되는 키들이 인식될 수도 있다. 인식 및/또는 트랙킹 결과에 대응하는 동작은 예를 들어 전자 장치(200)에 의하여 단독으로 수행될 수도 있으나, 이는 예시적인 것으로 동작은 전자 장치(200)와 외부 전자 장치(예: 도 1의 외부 전자 장치(121, 122, 123, 124)) 및/또는 외부 서버(예: 도 1의 외부 서버(140))와의 협력에 기반하여 수행될 수 있다.
일 실시예에 따라, 카메라 모듈(253, 254, 255, 256)은 3DoF, 6DoF의 헤드 트랙킹(head tracking), 손(hand) 검출, 손 트랙킹 및/또는 공간 인식을 위한 것으로, GS(global shutter) 카메라 및/또는 일 수 있으나 제한은 없으며, RS(rolling shutter) 카메라로 구현될 수도 있다.
일 실시예에 따라, 카메라 모듈(251, 252)은 ET(eye tracking) 카메라로, 카메라 모듈(251, 252)에 의하여 촬영된 이미지는 눈동자의 검출 및/또는 트랙킹에 이용될 수 있다. 예를 들어, 촬영된 이미지를 이용하여, 전자 장치(200)의 착용자의 눈동자가 응시하는 방향에 따라 위치하도록 전자 장치(200)에 투영되는 가상 영상의 위치가 결정될 수 있다. 카메라 모듈(251, 252)은 눈동자의 검출 및/또는 트랙킹을 위하여 GS 카메라로 구현될 수 있으나, 제한은 없다.
일 실시예에 따르면, 디스플레이 모듈(240)은 예를 들면, 액정 표시 장치(liquid crystal display; LCD), 디지털 미러 표시 장치(digital mirror device; DMD), 실리콘 액정 표시 장치(liquid crystal on silicon; LCoS), 유기 발광 다이오드(organic light emitting diode; OLED) 또는 마이크로 엘이디(micro light emitting diode; micro LED)를 포함할 수 있다. 도시되지는 않지만, 디스플레이 모듈(240)이 액정 표시 장치, 디지털 미러 표시 장치 또는 실리콘 액정 표시 장치 중 하나로 이루어지는 경우, 전자 장치(200)는 디스플레이 모듈(240)의 화면 출력 영역으로 빛을 조사하는 광원을 포함할 수 있다. 다른 실시 예에서, 디스플레이 모듈(240)이 자체적으로 빛을 발생시킬 수 있는 경우, 예를 들어, 유기 발광 다이오드 또는 마이크로 엘이디 중 하나로 이루어지는 경우, 전자 장치(200)는 별도의 광원을 포함하지 않더라도 사용자에게 양호한 품질의 가상 영상을 제공할 수 있다. 일 실시 예에서, 디스플레이 모듈(240)이 유기 발광 다이오드 또는 마이크로 엘이디로 구현된다면 광원이 불필요하므로, 전자 장치(200)가 경량화될 수 있다. 전자 장치(200)는 디스플레이 모듈(240), 제1 투명 부재(201) 및/또는 제2 투명 부재(202)를 포함할 수 있으며, 사용자는 안면에 전자 장치(200)를 착용한 상태로 사용할 수 있다. 제1 투명 부재(201) 및/또는 제2 투명 부재(202)는 글래스 플레이트, 플라스틱 플레이트 또는 폴리머로 형성될 수 있으며, 투명 또는 반투명하게 제작될 수 있다. 투명 부재(예: 제1 투명 부재(201) 및/또는 제2 투명 부재(202))는 표시 부재로 지칭될 수 있다. 광도파로는 디스플레이 모듈(240)에서 생성한 광원을 사용자 눈으로 전달할 수 있다. 광도파로는 글래스, 플라스틱 또는 폴리머로 제작될 수 있으며, 내부 또는 외부의 일부 표면에 형성된 나노 패턴, 예를 들어, 다각형 또는 곡면 형상의 격자 구조(grating structure)를 포함할 수 있다. 일 실시 예에 따르면, 도파관의 일단으로 입사된 광은 나노 패턴에 의해 디스플레이 광도파로 내부에서 전파되어 사용자에게 제공될 수 있다. 또한 Free-form형 프리즘으로 구성된 광도파로는 입사된 광을 반사 미러를 통해 사용자에게 제공될 수 있다. 광도파로는 적어도 하나의 회절 요소(예: DOE(diffractive optical element), HOE(holographic optical element)) 또는 반사 요소(예: 반사 거울) 중 적어도 하나를 포함할 수 있다. 광도파로는 광도파로에 포함된 적어도 하나의 회절 요소 또는 반사 요소를 이용하여 광원부로부터 방출된 디스플레이 광을 사용자의 눈으로 유도할 수 있다. 다양한 실시예들에 따라, 회절 요소는 입력 광학 부재/출력 광학 부재(미도시)를 포함할 수 있다. 예컨대, 입력 광학 부재는 입력 그레이팅 영역(input grating area)을 의미할 수 있으며, 출력 광학 부재(미도시)는 출력 그레이팅 영역(output grating area)을 의미할 수 있다. 입력 그레이팅 영역은 (예: Micro LED)로부터 출력되는 빛을 화면 표시부의 투명 부재(예: 제1 투명 부재(201), 제2 투명 부재(202))로 빛을 전달하기 위해 회절(또는 반사)시키는 입력단 역할을 할 수 있다. 출력 그레이팅 영역은 웨이브가이드의 투명 부재(예: 제1 투명 부재(201), 제2 투명 부재(202))에 전달된 빛을 사용자의 눈으로 회절(또는 반사)시키는 출구 역할을 할 수 있다. 다양한 실시예들에 따라, 반사 요소는 전반사(total internal reflection, TIR)를 위한 전반사 광학 소자 또는 전반사 도파관을 포함할 수 있다. 예컨대, 전반사는 광을 유도하는 하나의 방식으로, 입력 그레이팅 영역을 통해 입력되는 빛(예: 가상 영상)이 웨이브가이드의 일면(예: 특정 면)에서 100% 반사되도록 입사각을 만들어, 출력 그레이팅 영역까지 100% 전달되도록 하는 것을 의미할 수 있다. 일 실시예에서, 디스플레이 모듈(240)로부터 방출되는 광은 입력 광학 부재를 통해 웨이브가이드로 광 경로가 유도될 수 있다. 웨이브가이드 내부를 이동하는 광은 출력 광학 부재를 통해 사용자 눈 방향으로 유도될 수 있다. 화면 표시부는 눈 방향으로 방출되는 광에 기반하여 결정될 수 있다. 한 실시 예에 따르면, 제1 투명 부재(201)는 사용자의 우안에 대면하게 배치될 수 있고, 제2 투명 부재(202)는 사용자의 좌안에 대면하게 배치될 수 있다. 다양한 실시 예에 따라 디스플레이 모듈(240)이 투명인 경우 투명 부재(201, 202)는 사용자 눈과 대면하는 위치에 배치되어 화면 표시부를 구성할 수 있다. 전자 장치(200)는 렌즈를 더 포함할 수도 있다. 렌즈는 디스플레이 모듈(240)로 출력되는 화면을 사용자의 눈에 보여질 수 있도록 초점을 조절할 수 있다. 예를 들면 렌즈는 Fresnel 렌즈, Pancake 렌즈 또는 멀티채널 렌즈일 수 있다.
일 실시예에 따르면, 회로 기판(241)은 전자 장치(200)의 구동을 위한 부품들을 포함할 수 있다. 예를 들어, 회로 기판(241)은 적어도 하나의 직접회로 칩(integrated circuit chip)을 포함할 수 있으며, 전자 부품(예: 도 1의 프로세서(111), 메모리(112), 입/출력 장치(113), 센서 장치(115), 및/또는 통신 장치(117)) 중 적어도 하나는 직접회로 칩에 제공될 수 있다. 일 실시예에 따르면, 회로 기판(241)은 하우징(210)의 착용 부재 및/또는 렌즈 프레임 내에 배치될 수 있다. 일 실시예에 따르면, 회로 기판(241)은 전원 전달 구조를 통하여 배터리(243)와 전기적으로 연결될 수 있다. 일 실시예에 따르면, 회로 기판(241)은 가요성 인쇄회로기판과 연결되고, 가요성 인쇄회로기판을 통하여 전자 장치의 전자 부품들(예: 광 출력 모듈, 카메라 모듈(251, 252, 253, 254, 255, 256) 및, 발광부에 전기 신호를 전달할 수 있다. 일 실시예에 따르면, 회로 기판(241)은 인터포저를 포함하는 회로 기판을 포함할 수 있다.
일 실시예에 따르면, 배터리(243) 는 전자 장치(200)의 부품과 전원 전달 구조를 통하여 전기적으로 연결될 수 있고, 전자 장치(200)의 부품들에게 전력을 공급할 수 있다. 일 실시예에 따르면, 배터리(243)의 적어도 일부는 착용 부재에 배치될 수 있다.
일 실시예에 따르면, 스피커 모듈(245) 은 전기 신호를 소리로 변환시킬 수 있다. 일 실시예에 따른 스피커 모듈(245)의 적어도 일부는 하우징(210)의 착용 부재 및/또는 렌즈 프레임 내에 배치될 수 있다. 일 실시예에 따르면, 스피커 모듈(245)은 사용자의 귀에 대응되도록 회로 기판(241)과 배터리(243) 사이에 배치될 수 있다. 일 실시예에 따른 스피커 모듈(245)은 사용자의 피부와 뼈의 저주파 진동을 통해 사용자에게 청각 정보를 전송할 수도 있다.
일 실시예에 따르면, 마이크 모듈(247)은 소리를 전기 신호로 변환할 수 있다. 일 실시예에 따르면, 마이크 모듈(247)은 렌즈 프레임(311) 및/또는 착용 부재(312)의 적어도 일부에 배치될 수 있다.
일 실시예에 따르면, 전자 장치(200)는 적어도 하나의 마이크 모듈(247)을 이용하여 사용자의 음성 및/또는 외부 소리를 인식할 수 있다. 일 실시예에 따르면, 전자 장치(200)는 적어도 하나의 마이크 모듈을 통해 획득된 음성 정보 및/또는 추가 정보(예: 사용자의 피부와 뼈의 저주파 진동)에 기반하여, 음성 정보와 주변 잡음을 구별할 수 있다. 예를 들면, 전자 장치(200)는 사용자의 음성을 명확하게 인식할 수 있고, 주변 소음을 줄여주는 기능(예: 노이즈 캔슬링)을 수행할 수 있다.
일 실시예에 따르면, 카메라 모듈(259)은 IR(infrared) 카메라 모듈(예: TOF(time of flight) camera, 또는 structured light camera)를 포함할 수 있다. 예를 들어, IR 카메라는 피사체와의 거리를 감지하기 위한 센서 모듈(센서 모듈 또는 Lidar 센서)의 적어도 일부로 동작될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 센서 모듈 (예: Lidar 센서)을 더 포함할 수도 있다. 예를 들면, 센서 모듈은 VCSEL(vertical cavity surface emitting laser), 적외선 센서, 및/또는 포토 다이오드(photodiode) 중 적어도 하나를 포함할 수 있다.
Illumination LED(242)는 부착되는 위치에 따라 그 용도가 다양할 수 있다. 일 사용 예로, 프레임주변에 부착된 Illumination LED(242)는 ET 카메라 모듈(251, 252)로 눈의 움직임을 추적할 때 시선 검출을 용이하게 하기 위한 보조 수단으로 사용되며 적외선 파장의 IR LED가 주로 사용된다. 다른 사용 예로, Illumination LED(242)는 프레임과 템플을 이어주는 힌지(229) 주변이나, 프레임를 연결해 주는 브릿지 주변에 장착된 카메라 모듈와 인접하여 부착되어 카메라 촬영시 주변 밝기를 보충하는 수단으로 사용될 수 있다. 촬영용 카메라 모듈(260)은 예를 들어 상대적으로 고화질의 전자 장치(200)의 전경에 대한 이미지를 촬영할 수 있다.
일 실시예에 따르면, 전자 장치(200)의 형상은 선택적으로 설계될 수 있다. 도 2에서는 안경 형태의 전자 장치(200)가 도시되었으나, 전자 장치(300)의 형상은 이에 한정되지 않는다. 예를 들어, 본 문서에서 도 3에서는 머리에 착용할 수 있는 HMD(head mounted device)라면, 전자 장치(200)의 형상은 이에 한정되지 않는다.
도 3은 본 개시의 일 실시예에 따른, 입력 구조를 포함하는 전자 장치의 측면도이다. 도 4a 및 도 4b는 본 개시의 입력 구조를 포함하는 전자 장치의 사시도이다.
도 3, 도 4a 및/또는 도 4b를 참조하면, 전자 장치(300)는 하우징(310) 및 입력 구조(320)를 포함할 수 있다. 도 3, 도 4a 및 도 4b의 전자 장치(300)의 하우징(310)의 구성은 도 2의 전자 장치(200) 및 하우징(210a, 210b, 210c)의 구성과 전부 또는 일부와 동일할 수 있다. 설명의 편의를 위하여, 도 4b에서 하우징(310) 내에 배치된 부품의 설명을 위하여, 전자 장치(300)의 일부 구조(예: 하우징(310)의 일부)는 제외되었다.
일 실시예에 따르면, 전자 장치(200)는 전자 장치(200)의 외관을 형성하는 하우징(310)을 포함할 수 있다. 상기 하우징(310)은 전자 장치(200)의 부품들이 배치될 수 있는 공간을 제공할 수 있다. 예를 들어, 하우징(310)은 렌즈 프레임(311), 및 적어도 하나의 착용 부재(312)를 포함할 수 있다. 렌즈 프레임(311)은 투명 부재(예: 도 2의 제1 투명 부재(201) 및/또는 제2 투명 부재(202))를 수용하는 하우징(310)의 일부일 수 있다. 착용 부재(312)는 렌즈 프레임(311)에서 연장된 하우징(310)의 일부일 수 있다.
일 실시예에 따르면, 렌즈 프레임(311)은 투명 부재(201)의 적어도 일부를 수용할 수 있다. 예를 들어, 렌즈 프레임(311)은 투명 부재(201)의 가장자리의 적어도 일부를 둘러쌀 수 있다. 일 실시예에 따르면, 렌즈 프레임(311)은 투명 부재(201) 중 적어도 하나를 사용자의 눈에 상응하게 위치시킬 수 있다. 일 실시예에 따르면, 렌즈 프레임(311)은 일반적인 안경 구조의 림(rim)일 수 있다.
일 실시예에 따르면, 착용 부재(312)는 렌즈 프레임(311)에서 연장될 수 있다. 예를 들어, 착용 부재(312)는 렌즈 프레임(311)의 단부에서 연장되고, 렌즈 프레임(311)과 함께, 사용자의 신체(예: 귀)에 지지 또는 위치될 수 있다. 일 실시예에 따르면, 착용 부재(312)는 안경 다리 또는 템플(temple)로 지칭될 수 있다.
일 실시예에 따르면, 착용 부재(312)의 적어도 일부는 렌즈 프레임(311)에 대하여 상대적으로 이동할 수 있다. 예를 들어, 착용 부재(312)의 적어도 일부는 렌즈 프레임(311)에 대하여 슬라이드 이동 및/또는 회전 이동할 수 있다.
일 실시예에 따르면, 착용 부재(312)의 적어도 일부는 제1 방향(+X 방향) 또는 제2 방향(-X 방향)을 기준으로 렌즈 프레임(311)에 대하여 이동하고, 휠(330)은 상기 제1 방향 또는 상기 제2 방향을 중심으로 회전할 수 있다.
일 실시예에 따르면, 착용 부재(312)는 렌즈 프레임(311)에 연결된 제1 영역(3121)을 포함할 수 있다. 본 문서에서는 제1 영역(3121)이 착용 부재(312)의 일부로 기재되었으나, 이는 선택적이다. 예를 들어, 일 실시예에서, 제1 영역(3121)은 렌즈 프레임(311)의 일부로 해석될 수 있다.
일 실시예에 따르면, 착용 부재(312)는 제1 영역(3121)에 대하여 이동하도록 구성된 제2 영역(3122)을 포함할 수 있다. 제2 영역(3122)이 슬라이드 이동함으로써, 착용 부재(312)의 길이 및/또는 하우징(310)의 길이는 변경될 수 있다. 착용 부재(312)의 길이가 변경됨으로써, 전자 장치(200)는 사용자의 신체에 크기에 적절하게 변경되어, 사용자의 착용감이 향상될 수 있다. 제2 영역(3122)의 제1 영역(3121)에 대한 이동은 착용 부재(312) 및/또는 하우징(310)의 길이 변경으로 지칭될 수 있다.
일 실시예에 따르면, 제2 영역(3122)은 휠(330)의 회전에 기초하여 제1 영역(3121)에 대하여 이동할 수 있다. 제2 영역(3122)이 전자 장치(300)의 외부로 노출된 길이(예: 커버부(3123) 내에 삽입된 크기 및/또는 길이)는 휠(330)의 회전에 기초하여 변경될 수 있다. 예를 들어, 휠(330)이 시계 방향으로 회전될 때, 제2 영역(3122)은 제1 방향(예: +X 방향)으로 이동하고, 휠(330)이 반 시계 방향으로 회전될 때, 제2 영역(3122)은 제1 방향의 반대인 제2 방향(-X 방향)으로 이동될 수 있다.
일 실시예에 따르면, 착용 부재(312)는 제2 영역(3122)의 이동을 안내하도록 구성된 커버부(3123)를 포함할 수 있다. 커버부(3123)는 착용 부재(312)의 적어도 일부(예: 제1 영역(3121)의 단부 및/또는 제2 영역(3122)의 단부))를 덮을 수 있다. 일 실시예에 따르면, 커버부(3123)는 제2 영역(3122)의 적어도 일부를 덮는 외측벽(3123a)을 포함할 수 있다. 제2 영역(3122)은 외측벽(3123a)을 따라서 제1 방향(+X 방향) 또는 제2 방향(-X 방향)으로 이동할 수 있다. 일 실시예에 따르면, 커버부(3123)는 휠(330)의 적어도 일부를 덮을 수 있다. 예를 들어, 커버부(3123)은 휠(330)의 휠 영역(332)을 전자 장치(300)의 외부로 노출시키기 위한 홀을 포함할 수 있다. 일 실시예에 따르면, 커버부(3123)은 제외되거나, 하우징(310)의 일부(예: 제1 영역(3121))와 일체로 형성될 수 있다.
일 실시예에 따르면, 제2 영역(3122)은 휠(330)에 의하여 힘을 제공받을 수 있다. 예를 들어, 제2 영역(3122)은 휠(330)에 접촉하도록 구성된 제1 측벽(3122a), 및 제2 측벽(3122b)을 포함할 수 있다. 예를 들어, 휠 영역(332)은 제1 방향(+X 방향)으로 이동할 수 있다. 휠 영역(332)이 제1 방향(+X 방향)으로 이동될 때, 제2 영역(3122)의 제1 측벽(3122a)은 휠 영역(332)에 의하여 힘을 제공받을 수 있다. 제1 측벽(3122a)이 힘을 제공받음으로써, 제2 영역(3122)은 제1 방향(+X)으로 이동될 수 있다. 예를 들어, 휠 영역(332)은 제2 방향(-X 방향)으로 이동할 수 있다. 휠 영역(332)이 제2 방향(-X 방향)으로 이동될 때, 제2 영역(3122)의 제2 측벽(3122b)은 휠 영역(332)에 의하여 힘을 제공받을 수 있다. 제2 측벽(3122b)이 힘을 제공받음으로써, 제2 영역(3122)은 제2 방향(-X)으로 이동될 수 있다. 제1 측벽(3122a)은 제2 측벽(3122b)와 실질적으로 평행하게 배열될 수 있다.
일 실시예에 따르면, 착용 부재(312)의 슬라이드 거리는 제1 측벽(3122a)와 제2 측벽(3122b) 사이의 거리에 기초하여 변경될 수 있다. 일 실시예에서, 제1 측벽(3122a)와 제2 측벽(3122b)는 약 30mm만큼 이격되고, 착용 부재(312)가 변경되는 길이는 30mm 범위 이내일 수 있다.
일 실시예에 따르면, 제2 영역(3122)은 적어도 하나의 제3 측벽(3122c)를 포함할 수 있다. 일 실시예에 따르면, 제3 측벽(3122c)은 제1 측벽(3122a) 또는 제2 측벽(3122b)와 실질적으로 수직할 수 있다. 제3 측벽(3122c)은 커버부(3123)의 일부(예: 외측벽(3123b))에 의하여 덮일 수 있다. 제3 측벽(3122c)의 적어도 일부가 커버부(3123)에 의하여 둘러싸임으로써, 제2 영역(3122)의 이탈이 방지 또는 감소될 수 있다.
일 실시예에 따르면, 전자 장치(200)는 착용 부재(312) 및 렌즈 프레임(311)에 연결된 힌지(미도시)를 포함할 수 있다. 착용 부재(312)는 상기 힌지를 이용하여 렌즈 프레임(311)에 회전 가능할 수 있다.
일 실시예에 따르면, 입력 구조(320)는 하우징(310)의 길이를 조정하기 위한 휠(330)을 포함할 수 있다. 일 실시예에 따르면, 휠(330)은 기둥부(331) 및 휠 영역(332)를 포함할 수 있다. 기둥부(331)는 착용 부재(312)에 연결될 수 있다. 예를 들어, 기둥부(331)의 제1 단부(331a)는 제1 영역(3121)에 연결되고, 제1 단부(331a)의 반대인 제2 단부(331b)는 제2 영역(3122)에 연결될 수 있다. 기둥부(331)는 휠(330)의 회전을 안내하기 위한 나사 산을 포함할 수 있다.
일 실시예에 따르면, 휠 영역(332)은 기둥부(331)를 따라서 회전 및/또는 이동할 수 있다. 예를 들어, 휠 영역(332)은 기둥부(331)에 형성된 나사 선을 따라서, 제1 방향(+X 방향) 또는 제2 방향(-X 방향)으로 이동할 수 있다. 휠 영역(332)은 착용 부재(312)의 일부(예: 제2 영역(3122))에 힘을 전달할 수 있다. 예를 들어, 휠 영역(332)은 제2 영역(3122)의 제1 측벽(3122a) 또는 제2 측벽(3122b)에 접촉될 수 있다. 휠 영역(332)의 적어도 일부는 전자 장치(300)의 외부로 노출될 수 있다. 휠(330)은 사용자의 입력(예: 손가락을 이용한 회전)에 기초하여, 회전될 수 있다.
일 실시예에 따르면, 입력 구조(320)는 착용 부재(312)의 의도하지 않은 길이 변화를 방지 또는 감소시키기 위한 탄성 부재(321)를 포함할 수 있다. 탄성 부재(321)는 제2 영역(3122)에 힘(예: 탄성력)을 제공할 수 있다. 예를 들어, 탄성 부재(321)는 제1 영역(3121)과 제2 영역(3122)(예: 제1 측벽(3122a) 사이에 위치할 수 있다. 탄성 부재(321)는 스프링일 수 있다.
일 실시예에 따르면, 탄성 부재(321)의 길이가 감소될 때(예를 들어, 제2 영역(3122)이 커버부(3123)에서 노출된 길이가 감소될 때), 탄성 부재(321)는 제1 측벽(3122a)에 힘을 제공할 수 있다. 사용자에 의한 휠(330)의 회전으로 인하여 탄성 부재(321)가 제공하는 탄성력보다 큰 힘이 입력 구조(320)예 제공될 때, 제2 영역(3122)은 제1 방향(+X 방향)으로 이동할 수 있다. 사용자에 의한 힘이 제공되지 않은 상태일 때, 제2 영역(3122)의 제2 방향(-X 방향)으로의 이동을 위한 힘(예: 휠 영역(332)와 기둥부(331) 사이의 마찰력)은 탄성 부재(321)의 탄성력보다 강할 수 있다. 일 실시예에 따르면, 탄성 부재(321)는 기둥부(331)의 적어도 일부를 둘러쌀 수 있다. 일 실시예에 따르면, 탄성 부재(321)는 스토퍼 구조로 대체될 수 있다.
일 실시예에 따르면, 하우징(310)의 형상은 선택적으로 설계될 수 있다. 예를 들어, 렌즈 프레임(311) 및/또는 착용 부재(312)의 길이 또는 형상은 전자 장치(300)의 설계에 기초하여 변경될 수 있다.
도 5는 본 개시의 일 실시예에 따른, 착용 센서에 기초한 하우징의 길이 조절을 설명하기 위한 도면이다.
도 5를 참조하면, 전자 장치(300)는 하우징(310) 및 착용 감지 센서(360)를 포함할 수 있다. 도 5의 하우징(310)의 구성은 도 3의 하우징(310)의 구성과 전부 또는 일부와 동일하고, 도 5의 착용 감지 센서(360)의 구성은 도 1의 센서 장치(115)의 구성과 전부 또는 일부와 동일할 수 있다.
일 실시예에 따르면, 착용 감지 센서(360)는 전자 장치(300)의 사용자의 신체(예: 머리)에 대한 착용 여부를 감지할 수 있다. 예를 들어, 착용 감지 센서(360)는 광 센서(예: 적외선 센서), 및/또는 근접 센서를 포함할 수 있다. 착용 감지 센서(360)는 하우징(310) 내 또는 하우징(310) 상에 위치할 수 있다. 착용 감지 센서(360)는 복수의 지점들에서 전자 장치(300)의 착용 여부를 감지할 수 있다. 예를 들어, 착용 감지 센서(360)는 제1 착용 감지 센서(361) 및 제1 착용 감지 센서(361)와 이격된 제2 착용 감지 센서(362)를 포함할 수 있다.
일 실시예에 따르면, 프로세서(예: 도 1의 프로세서(111))는 착용 감지 센서(360)에서 감지된 신호에 기초하여, 전자 장치(300)의 착용 여부를 판단할 수 있다. 일 실시예에 따르면, 상기 프로세서(111)는 전자 장치(300)가 사용자의 신체(예: 머리)에 착용되었다고 판단되는 경우, 길이 조절 구조(예: 모터 및/또는 액추에이터)를 이용하여 하우징(310)의 길이를 조정할 수 있다. 상기 프로세서(111)에 의하여 수행되는 하우징(310)(또는 착용 부재(312))의 길이 조절은 자동 길이 조정으로 지칭될 수 있다. 예를 들어, 전자 장치(300)는 휠(예: 도 3, 도 4a 및/또는 도 4b의 휠(330))을 회전시키거나 제2 영역(3122)을 이동시키기 위한 모터 및/또는 액추에이터를 포함할 수 있다. 프로세서(111)는 상기 착용 감지 센서(360)에서 감지된 신호 및/또는 데이터에 기초하여, 상기 모터 및/또는 액추체이터를 구동시키기 위한 신호를 생성할 수 있다.
도 6a는 본 개시의 일 실시예에 따른, 제1 휠 및 제2 휠을 포함하는 전자 장치의 사시도이다. 도 6b 및 도 6c는 본 개시의 일 실시예에 따른, 제1 휠 및 제2 휠을 포함하는 전자 장치의 내부 구조를 설명하기 위한 도면이다.
도 6a, 도6b 및/또는 도 6c를 참조하면, 전자 장치(300)는 하우징(310) 및 휠(330)을 포함할 수 있다. 도 6a, 도6b 및/또는 도 6c의 전자 장치(300), 하우징(310) 및 휠(330)의 구성은 도 3, 도 4a 및/또는 도 4b의 전자 장치(300), 하우징(310) 및 휠(330)의 구성과 전부 또는 일부와 동일할 수 있다. 도 6a, 도6b 및/또는 도 6c에 도시된 전자 장치(300)의 구조(예: 제1 휠(333) 및 제2 휠(334))은 본 문서에 개시된 다른 실시예와 함께 사용될 수 있다.
일 실시예에 따르면, 휠(330)은 복수의 휠(333, 334)들을 포함할 수 있다. 예를 들어, 휠(330)은 제1 휠(333) 및 제2 휠(334)을 포함할 수 있다. 제2 휠(334)은 제1 휠(333)과 실질적으로 평행하게 위치할 수 있다.
일 실시예에 따르면, 제1 휠(333)은 착용 부재(312)의 이동을 구현할 수 있다. 예를 들어, 제1 휠(333)의 회전에 기초하여, 착용 부재(312)의 제2 영역(3122)은 제1 영역(3121)에 대하여 이동할 수 있다. 일 실시예에 따르면, 제1 휠(333)의 구성은 도 3, 도 4a 또는 도 4b에 도시된 휠(330)의 구성과 전부 또는 일부와 동일할 수 있다.
일 실시예에 따르면, 입력 구조(320)는 제1 휠(333)에 연결된 돌출부(333a) 및 돌출부(333a)의 움직임을 제한하기 위한 스토퍼(333b)를 포함할 수 있다. 스토퍼(333b)는 착용 부재(312)의 의도하지 않은 길이 변화를 방지 또는 감소시킬 수 있다. 예를 들어, 스토퍼(333b)는 지정된 크기 이상의 힘이 제1 휠(333)에 전달되지 않을 때, 돌출부(333a) 및/또는 제1 휠(333)의 움직임을 방지 또는 감소시킬 수 있다.
일 실시예(예: 도 6b)에 따르면, 입력 구조(320)는 제2 영역(3122)의 움직임의 경로를 안내하기 위한 레일부(333c)를 포함할 수 있다. 예를 들어, 제2 영역(3122)은 레일부(333c)를 따라서, 제1 영역(3121)에 대하여 상대적으로 이동할 수 있다.
착용 부재(312)의 이동을 구현하기 위한 입력 구조(320)의 구조는 선택적일 수 있다. 예를 들어, 입력 구조(320)의 구조는 제1 휠(333)의 회전에 기초하여 제2 영역(3122)이 제1 영역(3121)에 대하여 이동 가능하다면, 제한 없이 전자 장치(300)에 적용될 수 있다.
일 실시예(예: 도 6c)에 따르면, 제2 휠(334)은 지정된 동작을 수행하기 위한 사용자 입력을 감지할 수 있다. 예를 들어, 전자 장치(300)는 휠(330)의 적어도 일부(예: 제2 휠(334))의 회전의 방향, 회전수, 및/또는 회전 속도를 감지하기 위한 회전 감지 센서(340)를 포함할 수 있다. 일 실시예에 따르면, 회전 감지 센서(340)는 제2 휠(334)의 회전을 감지하기 위한 초음파 센서, 레이저 센서, 발전량 센서 및/또는 인코더일 수 있다. 예를 들어, 제2 휠(334)은 지정된 동작을 수행하기 위한 사용자의 제스처를 감지할 수 있다.
일 실시예에 따르면, 전자 장치(300)는 회전 감지 센서(340)를 수용하는 기판(341)을 포함할 수 있다. 기판(341)은 프로세서(예: 도1 의 프로세서(111))에 전기적으로 연결될 수 있다.
일 실시에에 따르면, 상기 프로세서(111)는 회전 감지 센서(340)에서 감지된 사용자 입력에 기초하여 지정된 동작을 수행할 수 있다. 예를 들어, 상기 프로세서(111)는 회전 감지 센서(340)에서 감지된 제스처에 기초하여, 메모리(예: 도 1의 메모리(112))에 저장된 지정된 프로그램을 수행할 수 있다.
도 7a는 본 개시의 일 실시예에 따른, 클러치 구조를 포함하는 전자 장치의 사시도이다. 도 7b는 도 7a의 C-C'선의 단면 사시도이다. 도 7c 및 도 7d는 도 7a의 D-D'선의 단면 사시도이다.
도 7a, 도 7b, 도 7c 및 도 7d를 참조하면, 전자 장치(300)는 하우징(310), 휠(330) 및 클러치 구조(350)를 포함할 수 있다. 도 7a, 도 7b, 도 7c 및/또는 도 7d의 전자 장치(300), 하우징(310) 및 휠(330)의 구성은 도 3의 전자 장치(300), 하우징(310) 및 휠(330)의 구성과 전부 또는 일부와 동일할 수 있다. 도 7a, 도 7b, 도 7c 및/또는 도 7d에 도시된 전자 장치(300)의 구조(예: 클러치 구조(350))는 본 문서에 개시된 다른 실시예와 함께 사용될 수 있다.
일 실시예에 따르면, 클러치 구조(350)는 하나의 휠(330)을 이용하여 상이한 동작을 구현할 수 있다. 예를 들어, 클러치 구조(350)는 하나의 휠(330)의 회전에 기초하여 착용 부재(312)의 길이 변경 또는 지정된 동작의 수행을 구현할 수 있다. 일 실시예에 따르면, 클러치 구조(350)는 휠(330)이 연결된 구조물을 변경시킬 수 있다. 휠(330)의 회전에 대응하는 전자 장치(300)의 동작은 휠(330)이 연결된 구조물에 기초하여 변경될 수 있다.
일 실시예에 따르면, 클러치 구조(350)는 적어도 하나의 제1 수용 홈(351) 및 제1 수용 홈(351)과 이격된 제2 수용 홈(352)을 포함할 수 있다. 제1 수용 홈(351)은 휠(330)과 착용 부재(312)의 제2 영역(3122)을 함께 회전시키기 위한 형상을 가질 수 있다. 예를 들어, 제1 수용 홈(351)은 제2 영역(3122)에 형성된 적어도 하나의 홈일 수 있다. 제2 수용 홈(352)은 돌출부(353)를 이동 가능하게 수용할 수 있다. 예를 들어, 제2 수용 홈(352)은 링 형상의 홈일 수 있다.
일 실시예에 따르면, 클러치 구조(350)는 돌출부(353)를 포함할 수 있다. 돌출부(353)는 클러치 구조(350)의 움직임에 따라, 제1 수용 홈(351) 또는 제2 수용 홈(352)에 삽입될 수 있다. 돌출부(353)은 휠(330)의 내측면에서 돌출된 휠(330)의 일부일 수 있다. 일 실시예에 따르면, 돌출부(353)는 휠(330)과 일체로 형성될 수 있다.
일 실시예에 따르면, 휠(330)은 제1 방향(+X 방향) 또는 제2 방향(-X 방향)을 따라서 이동할 수 있다. 휠(330)의 이동에 기초하여, 돌출부(353)의 위치는 변경될 수 있다. 돌출부(353)가 제1 수용 홈(351)에 위치한 상태(예: 도 7c)에서, 휠(330)의 회전에 기초하여, 착용 부재(312)의 적어도 일부(예: 제2 영역(3122))은 이동할 수 있다. 예를 들어, 휠(330)은 제2 영역(3122)과 함께 회전할 수 있다. 일 실시에에 따르면, 제2 영역(3122)은 제1 영역(3121)의 스크류 홈(3121d)에 삽입된 연장부(3122d)를 포함할 수 있다. 돌출부(353)가 제2 수용 홈(352)에 위치한 상태(예: 도 7d)에서, 휠(330)은 제1 영역(3121) 및 제2 영역(3122)에 대하여 회전할 수 있다. 예를 들어, 휠(330)은 제2 영역(3122)과 별도로 회전할 수 있다. 돌출부(353)가 제2 수용 홈(352) 내에 위치한 상태는 프리 휠(free wheel) 상태로 지칭될 수 있다. 일 실시예에 따르면, 전자 장치(300)의 회전 감지 센서(예: 도 6c의 회전 감지 센서(340))는 제2 수용 홈(352)내에서 회전하도록 구성된 휠(330)의 회전을 감지할 수 있다.
일 실시예에 따르면, 프로세서(예: 도 1의 프로세서(111))는 클러치 구조(350)의 적어도 일부를 이동시킬 수 있다. 예를 들어, 전자 장치(300)는 휠(330) 및/또는 돌출부(353)을 이동시킬 수 있는 구동 구조(예: 모터 및/또는 액추에이터)를 포함하고, 프로세서(111)는 상기 구동 구조를 이용하여 휠(330) 및/또는 돌출부(353)을 제1 방향(+X 방향) 또는 제2 방향(-X 방향)으로 이동시킬 수 있다.
일 실시예에 따르면, 전자 장치(300)는 착용 감지 센서(예: 도 5의 착용 감지 센서(360))를 이용하여 클러치 구조(350)를 이동시킬 수 있다. 예를 들어, 클러치 구조(350)는 사용자의 전자 장치(300)의 착용 여부에 기초하여 이동할 수 있다. 일 실시예에 따르면, 상기 프로세서(111)는 상기 착용 감지 센서(360)를 이용하여 전자 장치(300)가 사용자의 신체에 착용된 상태로 판단하는 경우, 돌출부(353)가 제2 수용 홈(352) 내에 위치하도록, 휠(330) 및/또는 돌출부(353)를 이동시킬 수 있다. 상기 프로세서(111)는 상기 착용 감지 센서(360)를 이용하여 전자 장치(300)가 사용자의 신체에 착용된 상태로 판단하는 경우, 돌출부(353)가 제1 수용 홈(351) 내에 위치하도록, 휠(330) 및/또는 돌출부(353)를 이동시킬 수 있다. 일 실시예에 따르면, 프로세서(111)는 전자 장치(300)가 사용자의 신체에 착용된 상태로 판단하는 경우, 전자 장치(300)를 사용자의 신체에 밀착시키기 위하여, 돌출부(353)가 제1 수용 홈(351) 내에 위치하도록, 휠(330) 및/또는 돌출부(353)를 이동시킨 후, 돌출부(353)가 제2 수용 홈(352) 내에 위치하도록, 휠(330) 및/또는 돌출부(353)를 이동시킬 수 있다.
일 실시예에 따르면, 돌출부(353)가 제1 수용 홈(351) 내에 위치한 상태는 길이 조정 상태 또는 제1 상태로 지칭될 수 있다. 돌출부(353)가 제2 수용 홈(352) 내에 위치한 상태는 고정 상태, 동작 상태, 또는 제2 상태로 지칭될 수 있다.
일 실시예에 따르면, 전자 장치(300)는 사용자의 입력을 감지하기 위한 입력 장치(예: 도 1의 입/출력 장치(113))를 포함할 수 있다. 상기 프로세서(111)는 상기 입력 장치에서 감지된 사용자의 입력에 기초하여, 클러치 구조(350)의 적어도 일부를 이동시킬 수 있다. 상기 입력 장치는 하우징(310)의 외부로 노출된 버튼일 수 있다. 일 실시예에 따르면, 휠(330) 및/또는 돌출부(353) 의 위치 변경은 수동으로 수행될 수 있다.
도 8은 본 개시의 일 실시예에 따른, 모터 모듈을 포함하는 전자 장치의 단면 사시도이다.
도 8을 참조하면, 전자 장치(300)는 렌즈 프레임(311), 착용 부재(312), 휠(330) 및 구동 구조(370)를 포함할 수 있다.
도 8의 전자 장치(300), 렌즈 프레임(311), 착용 부재(312) 및 휠(330)의 구성은 도 3의 전자 장치(300), 렌즈 프레임(311), 착용 부재(312) 및 휠(330)의 구성과 전부 또는 일부와 동일할 수 있다. 도 8에 도시된 전자 장치(300)의 구조는 본 문서에 개시된 다른 실시예와 함께 사용될 수 있다. 도 8에서는 우측 착용 부재(예: 제1 착용 부재(312a))에 휠(330)이 배치된 구조가 도시되었으나, 이는 예시적이다. 예를 들어, 휠(330)은 제1 착용 부재(312a) 또는 제2 착용 부재(312b) 중 적어도 하나에 위치할 수 있다.
일 실시예에 따르면, 전자 장치(300)는 비대칭적으로 설계될 수 있다. 예를 들어, 전자 장치(300)는 렌즈 프레임(311), 렌즈 프레임(311)의 일 단부에 연결된 제1 착용 부재(312a) 및 제1 착용 부재(312a)와 이격된 제2 착용 부재(312b)를 포함할 수 있다. 제2 착용 부재(312b)는 제1 착용 부재(312a)와 실질적으로 평행하게 배치될 수 있다.
일 실시예에 따르면, 제1 착용 부재(312a) 내에 배치된 부품은 제2 착용 부재(312b) 내에 배치된 부품과 상이할 수 있다. 예를 들어, 휠(330)은 하나의 착용 부재(예: 제1 착용 부재(312a)) 상에 배치되고, 다른 착용 부재(예: 제2 착용 부재(312b)상에는 배치되지 않을 수 있다.
일 실시예에 따르면, 전자 장치(300)는 휠(330)이 배치되지 않은 착용 부재(예: 제2 착용 부재(312b))를 이동시키기 위한 구동 구조(370)를 포함할 수 있다. 구동 구조(370)는 모터(371) 및 모터(371)에서 발생된 구동력을 이용하여 제2 착용 부재(312b)의 일부(예: 제2 영역(3122))를 이동시키기 위한 기어 구조(372)를 포함할 수 있다.
일 실시예에 따르면, 프로세서(예: 도 1의 프로세서(111))는 휠(330)에서 획득된 정보에 기초하여, 휠(330)이 위치하지 않은 착용 부재(예: 제2 착용 부재(312b))를 구동시키기 위한 신호를 생성할 수 있다. 예를 들어, 상기 프로세서(111)는 제1 착용 부재(312a)에 연결된 휠(330)을 이용하여 사용자의 입력을 감지할 수 있다. 프로세서(111)는 휠(330)의 회전 값(예: 회전 각도 및/또는 회전 속도)를 판단할 수 있다. 상기 프로세서(111)는 감지된 사용자 입력에 기초하여, 구동 구조(370)를 동작시킬 수 있다. 예를 들어, 상기 프로세서(111)는 휠(330)의 회전 값에 대응하는 제1 착용 부재(312a)의 거리 값을 판단하고, 제1 착용 부재(312a)가 이동한 거리만큼 제2 착용 부재(312b)가 이동하도록, 제2 착용 부재(312b)를 이동시킬 수 있다.
일 실시예에 따르면, 제1 착용 부재(312a)의 길이(예: 제2 영역(3122)의 제1 영역(3121)에 대한 이동)는 휠(330)의 회전으로 인하여 변경될 수 있다. 예를 들어, 제2 영역(3122)은 휠(330)의 회전에 기초하여 제1 방향(+X 방향) 또는 제2 방향(-X 방향)으로 이동할 수 있다. 일 실시예에 따르면, 제2 착용 부재(312b)는 구동 구조(370)의 동작으로 인해 변경될 수 있다. 예를 들어, 제2 착용 부재(312b)의 제2 영역(3122)은 모터(371)에서 발생된 구동력에 기초하여 이동하는 기어 구조(372)에 기초하여 제1 방향(+X 방향) 또는 제2 방향(-X 방향)으로 이동할 수 있다.
도 9는 본 개시의 일 실시예에 따른, 터치 패드 구조를 포함하는 전자 장치의 사시도이다. 도 10a는 본 개시의 일 실시예에 따른, 터치 패드 구조를 포함하는 전자 장치의 확대도이다. 도 10b는 본 개시의 일 실시예에 따른, 터치 패드 구조를 포함하는 전자 장치의 단면 사시도이다.
도 9, 도 10a 및 도 10b를 참조하면, 전자 장치(400)는 렌즈 프레임(411) 및 착용 부재(412)를 포함하는 하우징(410) 및 휠(430)을 포함할 수 있다. 도 9, 도 10a 및/또는 도 10b의 전자 장치(400), 하우징(410) 및 휠(430)의 구성은 도 3의 전자 장치(300), 하우징(예: 렌즈 프레임(311) 및 착용 부재(312)) 및 휠(330)의 구성과 전부 또는 일부와 동일할 수 있다.
일 실시예에 따르면, 휠(430)은 터치 패드 모듈에서 감지되는 가상 휠을 포함할 수 있다. 예를 들어, 휠(430)은 터치 패턴을 포함하는 디스플레이 모듈이고, 전자 장치(400)는 휠(430)을 이용하여 정전 용량을 감지하여, 사용자의 제스처를 감지할 수 있다. 일 실시예에 따르면, 전자 장치(400)는 다양한 제스처를 감지할 수 있다. 예를 들어, 프로세서(111)는 휠(430)에 가해진 압력 및/또는 휠(430)에 근접한 입력의 개수(예: 복수의 지점들에서 정전 용량의 변화 감지)를 이용하여 다양한 동작들을 수행할 수 있다. 예를 들어, 프로세서(111)는 지정된 동작을 이용하여 선택 인터랙션을 구현할 수 있다.
일 실시예에 따르면, 전자 장치(400)는 휠(430)을 이용하여 착용 부재(412)의 렌즈 프레임(411)에 대한 위치를 조정할 수 있다. 예를 들어, 프로세서(예: 도 1의 프로세서(111))는 휠(430)에서 감지된 결과에 기초하여, 구동 구조(예: 도 8의 구동 구조(370))를 동작시킬 수 있다. 착용 부재(412)의 일부(예: 제2 영역(4122))는 구동 구조(370)에 의하여, 렌즈 프레임(411) 및/또는 착용 부재(412)의 다른 일부(예: 제1 영역(4121))에 대하여 이동할 수 있다.
일 실시예에 따르면, 전자 장치(400)는 휠(430)을 이용하여 지정된 동작을 수행할 수 있다. 예를 들어, 상기 프로세서(111)는 입력 구조(예: 휠(430))를 이용하여 획득된 신호에 기초하여, 지정된 동작을 수행할 수 있다. 지정된 동작은 메모리(예: 도 1의 메모리(112))에 저장된 데이터를 이용하여 구현될 수 있다.
일 실시예에 따르면, 전자 장치(300)는 복수의 휠(430)들을 포함할 수 있다. 예를 들어, 전자 장치(400)는 제1 착용 부재(412a)에 연결된 제1 휠(430a) 및 제2 착용 부재(412b)에 연결된 제2 휠(430b)을 포함할 수 있다. 일 실시예에 따르면, 제1 휠(430a) 또는 제2 휠(430b) 중 적어도 하나는 착용 부재(412)의 길이를 변경시킬 수 있다. 일 실시예에 따르면, 전자 장치(400)는 제1 휠(430a) 또는 제2 휠(430b) 중 적어도 하나를 이용하여 지정된 동작을 수행할 수 있다. 일 실시예에 따르면, 제1 휠(430a)은 제2 휠(430b)과 상이한 동작을 수행할 수 있다. 예를 들어, 제1 휠(430a)은 착용 부재(412)의 길이를 변경시키기 위한 구성이고, 제2 휠(430b)은 전자 장치(400)의 지정된 동작(예: 음량 조절 및/또는 메뉴 선택)을 수행하기 위한 구성일 수 있다.
도 9, 도 10a 및/또는 도 10b에 도시된 전자 장치(400)의 구조(예: 휠(430))는 본 문서에 개시된 다른 실시예와 함께 사용될 수 있다. 예를 들어, 전자 장치(400)는 물리적 휠(330)과 함께 도 9, 도 10a 및/또는 도 10b의 휠(예: 가상 휠)(430)을 포함할 수 있다.
도 11a 및 도 11b는 본 개시의 일 실시예에 따른, 입력 구조를 포함하는 전자 장치의 동작을 설명하기 위한 도면이다.
도 11a 및 도 11b를 참조하면, 전자 장치(예: 도 3의 전자 장치(300) 및/또는 도 9의 전자 장치(400))의 프로세서(예: 도 1의 프로세서(111))는 입력 구조(예: 도 3의 휠(330) 또는 도 10의 휠(430))를 이용하여 지정된 동작을 수행할 수 있다.
일 실시예에 따르면, 전자 장치(400)는 상기 휠(330, 430)을 이용하여 다양한 지정된 동작들을 수행할 수 있다. 예를 들어, 상기 지정된 동작은 전자 장치(400)의 음향 조절, 전자 장치(400)에서 출력되는 이미지의 배율 조정(예: 줌 인 및/또는 줌 아웃) 및/또는 전자 장치(400)에서 출력되는 메뉴 중 일부 메뉴의 선택을 포함할 수 있다. 다만, 본 개시에서 설명된 지정된 동작은 예시적인 것으로, 상기 휠(330, 430)을 이용하여 전자 장치(400)에서 수행될 수 있는 동작이라면, 지정된 동작은 한정되지 않는다.
일 실시예(예: 도 11a)에 따르면, 상기 전자 장치(400)는 전자 장치(400)에서 출력되는 음향을 조절하기 위한 콘텐츠(C1)를 제공할 수 있다. 상기 콘텐츠(C1)는 디스플레이 모듈(예: 도 2의 디스플레이 모듈(240))를 이용하여 사용자에게 제공될 수 있다.
일 실시예에 따르면, 휠(330)의 회전에 기초하여, 프로세서(111)는 전자 장치(300)의 스피커(예: 도 1의 입/출력 장치(113))에서 출력되는 소리의 크기를 변경할 수 있다. 일 실시예에 따르면, 전자 장치(300)는 그래프 형상의 제1 이미지(V1) 및/또는 문자 형상의 제2 이미지(V2)를 통하여 사용자에게 현재 소리의 크기를 반영하는 정보를 표시할 수 있다.
일 실시예(예: 도 11b)에 따르면, 전자 장치(400)는 전자 장치(400)에서 표시되는 정보들 중 일부 정보를 선택하기 위한 콘텐츠(C2)를 제공할 수 있다. 예를 들어, 상기 프로세서(111)는 사용자(U)가 상기 휠(330)에 전달한 제스처에 기초하여, 상기 디스플레이 모듈(240)에서 출력되는 이미지 중 일부 영역(S1)을 선택할 수 있다.
웨어러블 전자 장치는, 사용자의 신체에 착용될 수 있다. 다만, 사용자의 신체 크기는 상이하므로, 전자 장치의 크기가 일정한 경우, 사용자의 착용감이 감소될 수 있다. 본 개시의 일 실시예에 따르면, 전자 장치는 휠을 이용하여 착용 부재의 길이를 변경시킬 수 있다. 착용 부재의 길이가 변경됨으로써, 사용자의 착용감이 향상될 수 있다. 본 개시의 일 실시예에 따르면, 휠을 이용하여 지정된 동작을 수행하는 전자 장치가 제공될 수 있다.
본 개시에서 해결하고자 하는 과제는 상기 언급된 과제에 한정되는 것이 아니며, 본 개시의 사상 및 영역으로부터 벗어나지 않는 범위에서 다양하게 확장될 수 있을 것이다.
본 개시의 일 실시예에 따르면, 웨어러블 전자 장치(예: 도 2의 전자 장치(200))는 투명 부재(예: 도 2의 투명 부재(201))를 수용하는 렌즈 프레임(예: 도 2의 렌즈 프레임(211)), 및 적어도 일부가 상기 렌즈 프레임에 대하여 상대적으로 이동하도록 구성된 착용 부재(예: 도 2의 착용 부재(212))를 포함하는 하우징(예: 도 2의 하우징(210)), 상기 하우징 내에 위치한 프로세서(예: 도 1의 프로세서(111)) 및 상기 착용 부재의 상기 렌즈 프레임에 대한 위치를 조정하기 위한 휠(예: 도 3의 휠(330))을 포함하는 입력 구조(예: 도 3의 입력 구조(320))를 포함할 수 있다. 상기 프로세서는 상기 입력 구조를 이용하여 획득된 신호에 기초하여, 지정된 동작을 수행하도록 구성될 수 있다.
일 실시예에 따르면, 상기 착용 부재는 상기 렌즈 프레임에 연결된 제1 영역(예: 도 3의 제1 영역(3121)), 상기 휠의 회전에 기초하여 상기 제1 영역에 대하여 슬라이드 이동하도록 구성된 제2 영역(예: 도 3의 제2 영역(3122)) 및 상기 휠의 적어도 일부를 덮는 커버부로서, 상기 제2 영역의 슬라이드 이동을 안내하도록 구성된 커버부(예: 도 3의 커버부(3123))를 포함할 수 있다.
일 실시예에 따르면, 상기 휠은 상기 제1 영역 및 상기 제2 영역에 연결된 기둥부(예: 도 4b의 기동부(331)) 및 상기 기둥부를 기준으로 회전하도록 구성되고, 적어도 일부가 상기 웨어러블 전자 장치의 외부로 노출된 휠 영역(예: 도 4b의 휠 영역(332))을 포함할 수 있다. 상기 휠 영역은 상기 제2 영역에 힘을 전달하도록 구성될 수 있다. 예를 들어, 상기 휠 영역이 제2 영역에 힘을 전달함으로써, 제2 영역은 제1 영역에 대하여 상대적으로 이동할 수 있다.
일 실시예에 따르면, 상기 입력 구조는 상기 기둥부를 둘러싸는 탄성 부재로서, 상기 제1 영역과 상기 제2 영역 사이에 위치한 탄성 부재(예: 도 4b의 탄성 부재를 포함할 수 있다. 상기 탄성 부재의 탄성력에 의하여, 사용자가 의도하지 않은 상기 착용 부재의 길이 변경이 감소될 수 있다.
일 실시예에 따르면, 상기 제2 영역은 제1 측벽(예: 도 4b의 제1 측벽(3122a)) 및 제1 측벽에 대하여 평행하게 배열된 제2 측벽(예: 도 4b의 제2 측벽(3122b))을 포함할 수 있다. 상기 휠 영역은 상기 제1 측벽 또는 상기 제2 측벽에 접촉하도록 구성될 수 있다. 상기 휠 영역이 상기 제1 측벽 또는 상기 제2 측벽에 접촉됨에 따라, 상기 휠에 가해진 사용자의 힘은 상기 제2 영역의 이동을 위해 사용될 수 있다.
일 실시예에 따르면, 상기 웨어러블 전자 장치는 상기 휠의 회전을 감지하기 위한 회전 감지 센서(예: 도 6c의 회전 감지 센서(340))를 더 포함할 수 있다. 상기 회전 감지 센서에 의하여, 상기 프로세서는 지정된 동작을 수행할 수 있다.
일 실시예에 따르면, 상기 휠은 상기 착용 부재의 이동을 위한 제1 휠(예: 도 6a의 제1 휠(333)) 및 사용자의 입력을 감지하도록 구성된 제2 휠(예: 도 6a의 제2 휠(334))을 포함할 수 있다. 상기 회전 감지 센서는 상기 제2 휠의 회전을 감지하도록 구성될 수 있다.
일 실시예에 따르면, 상기 웨어러블 전자 장치는 상기 하우징에 형성된 적어도 하나의 제1 수용 홈(예: 도 7b의 제1 수용 홈(351)), 상기 제1 수용 홈과 이격되고, 링 형상의 제2 수용 홈(예: 도 7b의 제2 수용 홈(352)), 상기 휠에서 연장되고, 상기 제1 수용 홈 또는 상기 제2 수용 홈에 삽입되도록 구성된 돌출부(예: 도 7b의 돌출부(353))를 포함하는 클러치 구조(예: 도 7b의 클러치 구조(350))를 포함할 수 있다.
일 실시예에 따르면, 상기 돌출부가 상기 제1 수용 홈에 삽입된 상태에서, 상기 휠은 상기 착용 부재의 적어도 일부와 함께 회전할 수 있다. 상기 돌출부가 상기 제2 수용 홈에 삽입된 상태에서, 상기 휠은 상기 착용 부재에 대하여 회전하도록 구성될 수 있다. 상기 휠이 상기 제1 수용 홈에 삽입된 상태에서, 상기 휠이 상기 착용 부재의 적어도 일부와 함께 회전함에 따라, 상기 착용 부재의 길이가 변경될 수 있다. 상기 휠이 상기 제2 수용 홈에 삽입된 상태에서, 상기 휠이 상기 착용 부재에 대하여 회전함에 따라, 상기 착용 감지 센서는 상기 휠의 회전을 감지하고, 상기 프로세서는 지정된 동작을 수행할 수 있다.
일 실시예에 따르면, 상기 웨어러블 전자 장치는 상기 웨어러블 전자 장치의 사용자에 대한 장착을 감지하기 위한 착용 감지 센서(예: 도 5의 착용 감지 센서(360))를 포함할 수 있다. 상기 프로세서는 상기 착용 감지 센서를 이용하여 감지된 상기 웨어러블 전자 장치의 장착 여부에 기초하여, 상기 착용 부재를 이동시키기 위한 신호를 생성할 수 있다.
일 실시예에 따르면, 상기 착용 부재는 제1 착용 부재(예: 도 9의 제1 착용 부재(312a)) 및 상기 제1 착용 부재와 이격된 제2 착용 부재(예: 도 9의 제2 착용 부재(312b))를 포함할 수 있다. 상기 휠은 상기 제1 착용 부재 내에 위치할 수 있다. 상기 입력 구조는 상기 제1 착용 부재 내에 위치하고, 상기 휠의 회전을 감지하도록 구성된 회전 감지 센서(예: 도 6c의 회전 감지 센서(340)) 및, 상기 제2 착용 부재 내에 위치한 구동 구조(예: 도 8의 구동 구조(370))를 포함할 수 있다.
일 실시예에 따르면, 상기 휠은 터치 패드 모듈을 이용하여 제공되는 가상 휠을 포함할 수 있다.
일 실시예에 따르면, 상기 착용 부재의 적어도 일부를 이동시키도록 구성된 구동 구조(예: 도 8의 구동 구조(370))를 더 포함할 수 있다. 상기 프로세서는 상기 터치 패드 모듈에서 획득된 사용자 입력에 기초하여 상기 구동 구조를 제어하도록 구성될 수 있다.
일 실시예에 따르면, 상기 지정된 동작은 상기 웨어러블 전자 장치에서 출력되는 음향의 크기 조절, 상기 웨어러블 전자 장치에서 출력되는 이미지의 배율 조정 또는 상기 웨어러블 전자 장치에서 출력되는 메뉴들 중 일부 메뉴의 선택을 포함할 수 있다.
일 실시예에 따르면, 상기 착용 부재는 제1 방향(예: 도 3의 +X 방향) 또는 상기 제1 방향의 반대인 제2 방향(예: 도 3의 -X 방향)을 따라서 이동하도록 구성될 수 있다. 상기 휠은 상기 제1 방향 또는 상기 제2 방향을 형성하는 제1 축(예: 도 3의 X축)을 중심으로 회전하도록 구성될 수 있다.
일 실시예에 따르면, 상기 웨어러블 전자 장치는 상기 투명 부재에 영상을 출력하도록 구성된 디스플레이 모듈(예: 도 2의 디스플레이 모듈(240)), 상기 프로세서를 수용하는 회로 기판(예: 도 2의 회로 기판(241)) 및 상기 프로세서 및 상기 디스플레이 모듈에 전력을 공급하도록 구성된 배터리(예: 도 2의 배터리(243))를 포함할 수 있다.
본 개시의 일 실시예에 따르면, 전자 장치(예: 도 2의 전자 장치(200))는 렌즈 프레임(예: 도 2의 렌즈 프레임(211)), 및 적어도 일부가 상기 렌즈 프레임에 대하여 상대적으로 이동하도록 구성된 착용 부재(예: 도 2의 착용 부재(212))를 포함하는 하우징(예: 도 3의 하우징(310)), 상기 하우징 내에 위치한 프로세서(예: 도 1의 프로세서(111)) 및 상기 착용 부재의 상기 렌즈 프레임에 대한 위치를 조정하기 위한 휠(예: 도 3의 휠(330)) 및 상기 착용 부재 내에 배치되고, 상기 휠의 회전을 감지하도록 구성된 회전 감지 센서(예: 도 6c의 회전 감지 센서(340))를 포함할 수 있다. 상기 착용 부재는 상기 렌즈 프레임에 연결된 제1 영역(예: 도 3의 제1 영역(3121)) 및 상기 휠의 회전에 기초하여 상기 제1 영역에 대하여 이동하도록 구성된 제2 영역(예: 도 3의 제2 영역(3122))을 포함할 수 있다. 상기 휠은 상기 제1 영역 및 상기 제2 영역에 연결된 기둥부(예: 도 4b의 기둥부(331)) 및 상기 기둥부를 중심으로 회전하도록 구성되고, 상기 제2 영역에 힘을 전달하도록 구성된 회전 영역(예: 도 4b의 회전 영역(332))을 포함할 수 있다. 상기 프로세서는 상기 휠의 회전에 기초하여 지정된 동작을 수행하도록 구성될 수 있다.
일 실시예에 따르면, 상기 전자 장치는 상기 기둥부를 둘러싸는 탄성 부재로서, 상기 제1 영역과 상기 제2 영역 사이에 위치한 탄성 부재(예: 도 4b의 탄성 부재(321))를 더 포함할 수 있다.
일 실시예에 따르면, 상기 휠은 상기 착용 부재의 이동을 위한 제1 휠(예: 도 6a의 제1 휠(333)) 및 상기 회전 감지 센서에 의하여 감지되도록 구성된 제2 휠(예: 도 6a의 제2 휠(334))을 포함할 수 있다.
일 실시예에 따르면, 상기 전자 장치는 상기 하우징에 형성된 적어도 하나의 제1 수용 홈(예: 도 7b의 제1 수용 홈(351)), 상기 제1 수용 홈과 이격되고, 링 형상의 제2 수용 홈(예: 도 7b의 제2 수용 홈(352)), 상기 휠에서 연장되고, 상기 제1 수용 홈 또는 상기 제2 수용 홈에 삽입되도록 구성된 돌출부(예: 도 7b의 돌출부(353))를 포함하는 클러치 구조(예: 도 7b의 클러치 구조(350))를 더 포함할 수 있다.
일 실시예에 따르면, 상기 돌출부가 상기 제1 수용 홈에 삽입된 상태에서, 상기 휠은 상기 착용 부재의 적어도 일부와 함께 회전하도록 구성될 수 있다. 상기 돌출부가 상기 제2 수용 홈에 삽입된 상태에서, 상기 휠은 상기 착용 부재에 대하여 회전하도록 구성될 수 있다.
이상에서 설명한 본 개시의 입력 구조를 포함하는 웨어러블 전자 장치는 전술한 실시예 및 도면에 의해 한정되는 것은 아니고, 본 개시의 기술적 범위 내에서 여러 가지 치환, 변형 및 변경이 가능함은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다.
101, 200, 300: 전자 장치
111: 프로세서
240: 디스플레이 모듈
310: 하우징
311: 렌즈 프레임
312: 착용 부재
320: 입력 구조
321: 탄성 부재
330: 휠
331: 기둥부
332: 휠 영역
333: 제1 휠
334: 제2 휠
340: 회전 감지 센서
350: 클러치 구조
351: 제1 수용 홈
352: 제2 수용 홈
353: 돌출부
360: 착용 감지 센서
370: 구동 구조

Claims (20)

  1. 웨어러블 전자 장치(101, 200, 300, 400)에 있어서,
    투명 부재(201)를 수용하는 렌즈 프레임(311, 411), 및 적어도 일부가 상기 렌즈 프레임에 대하여 상대적으로 이동하도록 구성된 착용 부재(312, 412)를 포함하는 하우징(210a, 210b, 210c, 310, 410);
    상기 하우징 내에 위치한 프로세서(111); 및
    상기 착용 부재의 상기 렌즈 프레임에 대한 위치를 조정하기 위한 휠(330, 430)을 포함하는 입력 구조(320)를 포함하고,
    상기 프로세서는 상기 입력 구조를 이용하여 획득된 신호에 기초하여, 지정된 동작을 수행하도록 구성된 웨어러블 전자 장치.
  2. 제1 항에 있어서,
    상기 착용 부재는
    상기 렌즈 프레임에 연결된 제1 영역(3121, 4121),
    상기 휠의 회전에 기초하여 상기 제1 영역에 대하여 이동하도록 구성된 제2 영역(3122, 4122), 및
    상기 휠의 적어도 일부를 덮는 커버부로서, 상기 제2 영역의 슬라이드 이동을 안내하도록 구성된 커버부(3123)를 포함하는 웨어러블 전자 장치.
  3. 제1 항 또는 제2 항에 있어서,
    상기 휠은 상기 제1 영역 및 상기 제2 영역에 연결된 기둥부(331) 및 상기 기둥부를 기준으로 회전하도록 구성되고, 적어도 일부가 상기 웨어러블 전자 장치의 외부로 노출된 휠 영역(332)을 포함하고,
    상기 휠 영역은 상기 제2 영역에 힘을 전달하도록 구성된 웨어러블 전자 장치.
  4. 이전의 청구항들 중 어느 하나에 있어서,
    상기 입력 구조는 상기 기둥부를 둘러싸는 탄성 부재로서, 상기 제1 영역과 상기 제2 영역 사이에 위치한 탄성 부재(321)를 포함하는 웨어러블 전자 장치.
  5. 이전의 청구항들 중 어느 하나에 있어서,
    상기 제2 영역은 제1 측벽(3122a) 및 제1 측벽에 대하여 평행하게 배열된 제2 측벽(3122b)을 포함하고,
    상기 휠 영역은 상기 제1 측벽 또는 상기 제2 측벽에 접촉하도록 구성된 웨어러블 전자 장치.
  6. 이전의 청구항들 중 어느 하나에 있어서,
    상기 휠의 회전을 감지하도록 구성된 회전 감지 센서(340)를 더 포함하는 웨어러블 전자 장치.
  7. 이전의 청구항들 중 어느 하나에 있어서,
    상기 휠은 상기 착용 부재의 이동을 위한 제1 휠(333) 및 상기 회전 감지 센서에 의하여 감지되도록 구성된 제2 휠(334)을 포함하는 전자 장치.
  8. 이전의 청구항들 중 어느 하나에 있어서,
    상기 하우징에 형성된 적어도 하나의 제1 수용 홈(351), 상기 제1 수용 홈과 이격되고, 링 형상의 제2 수용 홈(352), 상기 휠에서 연장되고, 상기 제1 수용 홈 또는 상기 제2 수용 홈에 삽입되도록 구성된 돌출부(353)를 포함하는 클러치 구조(350)를 더 포함하는 웨어러블 전자 장치.
  9. 이전의 청구항들 중 어느 하나에 있어서,
    상기 돌출부가 상기 제1 수용 홈에 삽입된 상태에서, 상기 휠은 상기 착용 부재의 적어도 일부와 함께 회전하도록 구성되고,
    상기 돌출부가 상기 제2 수용 홈에 삽입된 상태에서, 상기 휠은 상기 착용 부재에 대하여 회전하도록 구성된 웨어러블 전자 장치.
  10. 이전의 청구항들 중 어느 하나에 있어서,
    상기 웨어러블 전자 장치의 사용자에 대한 장착을 감지하기 위한 착용 감지 센서(360)를 더 포함하고,
    상기 프로세서는 상기 착용 감지 센서를 이용하여 감지된 상기 웨어러블 전자 장치의 장착 여부에 기초하여, 상기 착용 부재를 이동시키기 위한 신호를 생성하도록 구성된 웨어러블 전자 장치.
  11. 이전의 청구항들 중 어느 하나에 있어서,
    상기 착용 부재는 제1 착용 부재(312a, 412a) 및 상기 제1 착용 부재와 이격된 제2 착용 부재(312b, 412b)를 포함하고,
    상기 휠은 상기 제1 착용 부재 내에 위치하고,
    상기 입력 구조는 상기 제1 착용 부재 내에 위치하고, 상기 휠의 회전을 감지하도록 구성된 회전 감지 센서(340) 및, 상기 제2 착용 부재 내에 위치한 구동 구조(370)를 포함하는 웨어러블 전자 장치.
  12. 이전의 청구항들 중 어느 하나에 있어서,
    상기 휠은 터치 패드 모듈을 이용하여 제공되는 가상 휠을 포함하는 웨어러블 전자 장치.
  13. 이전의 청구항들 중 어느 하나에 있어서,
    상기 착용 부재의 적어도 일부를 이동시키도록 구성된 구동 구조(370)를 더 포함하고,
    상기 프로세서는 상기 터치 패드 모듈에서 획득된 사용자 입력에 기초하여 상기 구동 구조를 제어하도록 구성된 웨어러블 전자 장치.
  14. 이전의 청구항들 중 어느 하나에 있어서,
    상기 지정된 동작은 상기 웨어러블 전자 장치에서 출력되는 음향의 크기 조절, 상기 웨어러블 전자 장치에서 출력되는 이미지의 배율 조정 또는 상기 웨어러블 전자 장치에서 출력되는 메뉴들 중 일부 메뉴의 선택을 포함하는 웨어러블 전자 장치.
  15. 이전의 청구항들 중 어느 하나에 있어서,
    상기 착용 부재는 제1 방향 또는 상기 제1 방향의 반대인 제2 방향을 따라서 이동하도록 구성되고,
    상기 휠은 상기 제1 방향 또는 상기 제2 방향을 형성하는 제1 축을 중심으로 회전하도록 구성된 웨어러블 전자 장치.
  16. 전자 장치에 있어서,
    렌즈 프레임, 및 적어도 일부가 상기 렌즈 프레임에 대하여 상대적으로 이동하도록 구성된 착용 부재를 포함하는 하우징;
    상기 하우징 내에 위치한 프로세서; 및
    상기 착용 부재의 상기 렌즈 프레임에 대한 위치를 조정하기 위한 휠; 및
    상기 착용 부재 내에 배치되고, 상기 휠의 회전을 감지하도록 구성된 회전 감지 센서를 포함하고,
    상기 착용 부재는 상기 렌즈 프레임에 연결된 제1 영역 및 상기 휠의 회전에 기초하여 상기 제1 영역에 대하여 이동하도록 구성된 제2 영역을 포함하고,
    상기 휠은 상기 제1 영역 및 상기 제2 영역에 연결된 기둥부 및 상기 기둥부를 중심으로 회전하도록 구성되고, 상기 제2 영역에 힘을 전달하도록 구성된 회전 영역을 포함하고,
    상기 프로세서는 상기 휠의 회전에 기초하여 지정된 동작을 수행하도록 구성된 전자 장치.
  17. 제16 항에 있어서,
    상기 기둥부를 둘러싸는 탄성 부재로서, 상기 제1 영역과 상기 제2 영역 사이에 위치한 탄성 부재를 더 포함하는 전자 장치.
  18. 제16 항에 있어서,
    상기 휠은 상기 착용 부재의 이동을 위한 제1 휠 및 상기 회전 감지 센서에 의하여 감지되도록 구성된 제2 휠을 포함하는 전자 장치.
  19. 제16 항에 있어서,
    상기 하우징에 형성된 적어도 하나의 제1 수용 홈, 상기 제1 수용 홈과 이격되고, 링 형상의 제2 수용 홈, 상기 휠에서 연장되고, 상기 제1 수용 홈 또는 상기 제2 수용 홈에 삽입되도록 구성된 돌출부를 포함하는 클러치 구조를 더 포함하는 전자 장치.
  20. 제19 항에 있어서,
    상기 돌출부가 상기 제1 수용 홈에 삽입된 상태에서, 상기 휠은 상기 착용 부재의 적어도 일부와 함께 회전하도록 구성되고,
    상기 돌출부가 상기 제2 수용 홈에 삽입된 상태에서, 상기 휠은 상기 착용 부재에 대하여 회전하도록 구성된 전자 장치.

KR1020220150804A 2022-10-28 2022-11-11 휠을 포함하는 웨어러블 전자 장치 KR20240062849A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2023/016255 WO2024090896A1 (ko) 2022-10-28 2023-10-19 휠을 포함하는 웨어러블 전자 장치
US18/493,145 US20240143092A1 (en) 2022-10-28 2023-10-24 Wearable electronic device comprising wheel

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220141656 2022-10-28
KR20220141656 2022-10-28

Publications (1)

Publication Number Publication Date
KR20240062849A true KR20240062849A (ko) 2024-05-09

Family

ID=91075553

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220150804A KR20240062849A (ko) 2022-10-28 2022-11-11 휠을 포함하는 웨어러블 전자 장치

Country Status (1)

Country Link
KR (1) KR20240062849A (ko)

Similar Documents

Publication Publication Date Title
JP7200195B2 (ja) 感覚式アイウェア
CN110249368B (zh) 混合现实环境中提供虚拟远程控制的可穿戴系统及方法
CN105009039A (zh) 使用imu的直接全息图操纵
US11947728B2 (en) Electronic device for executing function based on hand gesture and method for operating thereof
JP2015026286A (ja) 表示装置、表示システムおよび表示装置の制御方法
KR20220078093A (ko) 발광부를 포함하는 웨어러블 전자 장치
KR20220058194A (ko) 디스플레이를 포함하는 웨어러블 전자 장치, 그 디스플레이를 제어하는 방법, 및 그 웨어러블 전자 장치 및 케이스를 포함하는 시스템
US12073017B2 (en) Wearable electronic device for displaying virtual object on a surface of a real object and method of controlling the same
US20240143092A1 (en) Wearable electronic device comprising wheel
KR20240062849A (ko) 휠을 포함하는 웨어러블 전자 장치
KR20240009984A (ko) 전자 안경류 디바이스로부터 맥락에 맞는 시각 및 음성 검색
KR20230088100A (ko) 가상 입력 장치를 이용하기 위한 전자 장치 및 그 전자 장치에서의 동작 방법
US20240143267A1 (en) Electronic device for using external device in metaverse and method thereof
KR20240062980A (ko) 메타버스에서 외부 장치를 사용하는 전자 장치 및 이의 제어 방법
US20240073508A1 (en) Wearable electronic device for controlling camera module and method for operating thereof
KR20240028262A (ko) 카메라 모듈을 제어하는 웨어러블 전자 장치 및 그 동작 방법
US20240046578A1 (en) Wearable electronic device displaying virtual object and method for controlling the same
KR20240028254A (ko) 지지 렌즈 상에 배치되는 발광 소자를 포함하는 렌즈 어셈블리 및 이를 포함하는 웨어러블 전자 장치
KR20240045930A (ko) 반사 광학 시스템을 포함하는 렌즈 어셈블리 및 이를 포함하는 웨어러블 전자 장치
KR20240115138A (ko) 외부 전자 장치의 센서를 제어하기 위한 hmd 장치 및 그 방법
KR20240112752A (ko) 외부 객체에 기반하여 상호작용을 위한 ui를 변경하기 위한 웨어러블 장치 및 그 방법
KR20240025383A (ko) 증강 현실 이미지를 제공하기 위한 방법 및 이를 지원하는 전자 장치
KR20240043029A (ko) 이미지를 제공하는 방법 및 이를 지원하는 웨어러블 전자 장치
KR20220149191A (ko) 손 제스처에 기반하여 기능을 실행하는 전자 장치 및 그 작동 방법
KR20240082088A (ko) 외부 객체에 대한 그립 형태에 기반하여 미디어 콘텐트를 표시하기 위한 웨어러블 장치 및 그 방법