KR20220100143A - 웨어러블 전자 장치 및 모션 센서를 이용한 입력 구조물 - Google Patents

웨어러블 전자 장치 및 모션 센서를 이용한 입력 구조물 Download PDF

Info

Publication number
KR20220100143A
KR20220100143A KR1020210002097A KR20210002097A KR20220100143A KR 20220100143 A KR20220100143 A KR 20220100143A KR 1020210002097 A KR1020210002097 A KR 1020210002097A KR 20210002097 A KR20210002097 A KR 20210002097A KR 20220100143 A KR20220100143 A KR 20220100143A
Authority
KR
South Korea
Prior art keywords
electronic device
function
sensor
support frame
wearable electronic
Prior art date
Application number
KR1020210002097A
Other languages
English (en)
Inventor
양현모
윤주환
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020210002097A priority Critical patent/KR20220100143A/ko
Priority to PCT/KR2022/000078 priority patent/WO2022149829A1/ko
Priority to US17/570,513 priority patent/US12026297B2/en
Publication of KR20220100143A publication Critical patent/KR20220100143A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Multimedia (AREA)

Abstract

다양한 실시예에 따른 웨어러블 전자 장치는, 디스플레이, 상기 디스플레이를 고정하는 메인 프레임, 상기 메인 프레임의 양 단과 각각 연결되며, 사용자의 귀에 거치 가능한 제1 지지 프레임 및 제2 지지 프레임 및 상기 제1 지지 프레임 및 제2 지지 프레임 중 적어도 하나에 실장되는 모션 센서를 포함하고, 상기 제1 지지 프레임 및 제2 지지 프레임 중 적어도 하나의 일 표면에, 제1 간격으로 배치되는 제1 돌기 패턴들과, 상기 제1 간격보다 넓은 간격으로 배치되는 제2 돌기 패턴들을 포함하는 돌기 구조가 형성될 수 있다.

Description

웨어러블 전자 장치 및 모션 센서를 이용한 입력 구조물{WEARABLE ELECTORONIC DEVICE AND INPUT STRUCTURE USING MOTION SENSOR IN THE SAME}
다양한 실시예는 웨어러블 전자 장치 및 IMU센서를 이용한 입력 구조물에 관한 것이다.
최근 현실 세계(real-world elements)의 이미지나 배경에 가상 이미지를 겹쳐 정보를 제공하는 증강현실(AR: augmented reality) 또는 혼합현실(MR: mixed reality) 서비스를 지원하는 전자 장치에 대한 수요가 급증하고 있다.
증강 현실 서비스를 지원하는 전자 장치의 일 예로서, 안경형 웨어러블 전자 장치(또는 AR 글라스(glass))가 있을 수 있다. 안경형 웨어러블 전자 장치는 사용자의 신체에 착용되어 현실 환경에 가상 콘텐츠를 사용자에게 제공할 수 있다. 안경형 웨어러블 전자 장치는 5세대(5G) 통신과 같이 대용량의 데이터 전송이 가능하도록 통신 기술이 발전됨에 따라 차세대 실감미디어 장치로서, 그 관심이 높이지고 있는 추세이다.
안경형 웨어러블 전자 장치는 안경처럼 착용하기 위해 소형화가 요구되고, 전자 장치 구성들의 고밀도 실장이 요구되고 있다. 그러나, 안경형 웨어러블 장치는 필수적으로 실장해야 하는 센서들(예: 움직임 센서) 및 connectivity 안테나의 실장으로 인해 다른 구성 요소의 실장 공간에 대한 제약 사항이 존재할 수 있다. 예를 들어, 안경형 웨어러블 전자 장치는 상대적으로 부피가 큰 입력 장치(예: 볼륨 조절 또는 밝기 조절과 같이 조절 키 버튼(key button) 구조물 또는 터치 패널 및 터치 IC가 요구되는 정전 터치 방식의 입력 장치)를 위한 실장 공간이 부족하여 입력 자치 구조에 대한 개선이 요구되고 있다.
다양한 실시예에 따른 웨어러블 전자 장치는, 디스플레이, 상기 디스플레이를 고정하는 메인 프레임, 상기 메인 프레임의 양 단과 각각 연결되며, 사용자의 귀에 거치 가능한 제1 지지 프레임 및 제2 지지 프레임 및 상기 제1 지지 프레임 및 제2 지지 프레임 중 적어도 하나에 실장되는 모션 센서를 포함하고, 상기 제1 지지 프레임 및 제2 지지 프레임 중 적어도 하나의 일 표면에, 제1 간격으로 배치되는 제1 돌기 패턴들과, 상기 제1 간격보다 넓은 간격으로 배치되는 제2 돌기 패턴들을 포함하는 돌기 구조가 형성될 수 있다.
다양한 실시예에 따른 안경형 웨어러블 전자 장치는, 디스플레이, 상기 디스플레이를 고정하는 프레임, 상기 프레임의 적어도 일부에 실장되는 모션센서를 포함하고, 상기 프레임의 적어도 일부의 표면에 제1 간격으로 배치되는 제1 돌기 패턴들과, 상기 제1 간격보다 넓은 간격으로 배치되는 제2 돌기 패턴들을 포함하는 돌기 구조가 형성될 수 있다.
다양한 실시예에 따르면, 웨어러블 장치에서 필수적으로 실장하는 움직임 센서(예: IMU 센서)를 이용하여 사용자의 입력 신호를 구분할 수 있는 돌기 구조물을 구현하여, 별도의 입력 장치 없이 사용자의 입력을 감지할 수 있는 웨어러블 장치를 제공할 수 있다.
다양한 실시예에 따르면, 웨어러블 장치의 적어도 일부에 돌기 구조를 배치하고, 돌기 구조로 인해 발생되는 움직임 센서(예: IMU센서)의 정보로부터 사용자의 입력을 구분하여 입력 장치에 대한 실장 부담을 최소화하면서 비용 절감 효과를 제공할 수 있다.
도 1은 다양한 실시예에 따른 증강현실 서비스를 제공하는 웨어러블 전자 장치의 일 예를 도시한다.
도 2은 다양한 실시예에 따른 웨어러블 전자 장치의 구성을 도시한다.
도 3은 다양한 실시예에 따른 웨어러블 전자 장치에 배치된 돌기 구조를 도시한다.
도 4는 다양한 실시예에 따른 웨어러블 전자 장치의 동작 방법을 도시한다.
도 5a 및 도 5b는 다양한 실시예에 따른 돌기 구조에 기반한 센서 파형을 나타낸다.
도 6은 다양한 실시예에 따른 웨어러블 전자 장치의 동작 방법을 도시한다,
도 7은 다양한 실시예에 따른 웨어러블 전자 장치의 구성을 도시한다.
도 8은 다양한 실시예에 따른 증강현실 서비스를 제공하는 웨어러블 전자 장치의 내부 구성을 도시한다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 전자 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
도 1은 다양한 실시예에 따른 증강 현실 서비스를 제공하는 웨어러블 전자 장치를 도시한다. 도 1에서 웨어러블 전자 장치는 안경형 디스플레이 장치(또는 AR(augmented reality) )글라스)를 도시하고 있으나, 이에 한정하는 것은 아니다.
도 1을 참조하면, 일 실시예에 따르면 웨어러블 전자 장치(101)는, 증강현실(AR: augmented reality), 혼합현실(MR: mixed reality) 또는 가상 현실(VR: virtual reality) 서비스를 제공하는 전자 장치로서, 예를 들어, 안경형 웨어러블 전자 장치일 수 있다. 웨어러블 전자 장치(101)는 안경(glass), 고글(goggles), 헬멧 또는 모자 중 적어도 하나의 형태로 구성될 수 있으며, 이에 한정하는 것은 아니다.
웨어러블 전자 장치(101)은 사용자의 얼굴에 착용되어, 사용자에게 영상(예: 증강 현실 영상, 혼합현실 영상 또는 가상 현실 영상)을 제공할 수 있다. 웨어러블 전자 장치(101)는 실제 현실 공간(또는 환경)의 적어도 일부에 가상 정보(또는 가상 객체)를 덧붙이는 증강 현실 서비스를 제공할 수 있다. 예를 들어, 웨어러블 전자 장치(101)는, 착용자의 시야각(FOV: field of view)에 대응하는 실제 현실 공간에 가상 정보를 겹쳐서 사용자에게 제공할 수 있다.
일 실시예에 따르면, 웨어러블 전자 장치(101)는 사용자의 양안(예: 좌안 및 우안)에 대응하는 위치에 배치되는 글라스(glass) 부재(110)와, 글라스 부재(110)를 고정하는 메인 프레임(120)과, 메인 프레임(120)의 양단에서 연결되어 사용자의 귀에 거치되는 지지 프레임(130), 지지 프레임(130)의 적어도 일면에 배치되는 돌기 구조(140) 및 지지 프레임(130)의 적어도 일부에 실장되는 모션 센서, 예를 IMU(inertial measurement unit)센서(150)를 포함할 수 있다. 이하, 설명의 편의를 위하여 모션 센서가 IMU 센서(150)인 것으로 설명하기로 하나, 모션 센서는 IMU 센서(150) 이외에, AHRS (attitude heading reference System), 가속도 센서, 자이로 센서 , 모션 감지 센서와 같이 돌기 구조에 기반한 웨어러블 전자 장치의 미세 변화를 감지할 수 있는 센서로 대체될 수 있다.
일 실시예에 따르면, 글라스(glass)부재(110)는, 도 1에 도시된 바와 같이, 사용자 양안에 각각 대응하는 제1 글라스(110a) 및 제2 글라스(110b)가 분리되는 형태로 구현될 수 있으나, 하나의 글라스 형태로 구현될 수도 있다.
메인 프레임(120) 및 지지 프레임(130)은 안경 형태로 구현될 수 있다. 메인 프레임(120)은 사용자의 코에 적어도 부분적으로 거치되는 구조일 수 있고, 지지 프레임(130)은 제1 방향 귀(예: 오른쪽 귀)에 거치되는 제1 지지 프레임(131)와, 제2 방향 귀(예: 왼쪽 귀)에 거치되는 제2 지지 프레임(132)를 포함할 수 있다. 예를 들어, 메인 프레임(120)과 지지 프레임(130)(예: 제1 지지 프레임(131) 및 제2 지지 프레임(132))은 힌지부(미도시)를 통해 연결될 수 있으며, 폴딩이 가능하도록 결합될 수 있다.
돌기 구조(140)는, 지지 프레임(130)(예: 제1 지지 프레임(131) 및 제2 지지 프레임(132))의 적어도 일면에 배치될 수 있다. 돌기 구조(140)는 지지 프레임(130)과 일체형 구조(예: 사출 방식) 또는 지지 프레임(130)에 결합된 구조(예: 접합 방식)일 수 있다.
일 실시예에 따르면, 돌기 구조(140)는, 지지 프레임(130)의 일면에 제1 방향을 가지도록 일렬로 배치되는 복수의 돌기 패턴들을 포함할 수 있다. 일 예를 들어, 돌기 구조(140)는 제1 간격으로 배치된 제1 돌기 패턴들(141)과, 제1 간격보다 넓은 제2 간격으로 배치된 제2 돌기 패턴들(142)을 포함할 수 있다.
일 실시예에 따르면, 돌기 구조(140)의 크기 및 개수는 지지 프레임(130)의 형상에 따라 상이할 수 있으나, 서로 다른 간격의 돌기 패턴들이 배치될 수 있다.
일 실시예에 따르면, 돌기 구조(140)는 도 1에 도시된 바와 같이, 제1 지지 프레임(131) 및 제2 지지 프레임(132)에 각각 배치될 수 있으나, 이에 한정하지 않으며, 제1 지지 프레임(131) 및 제2 지지 프레임(132)) 중 하나에 배치될 수 있다.
일 실시예에 따르면 돌기 구조(140)는 도 1에 도시된 바와 같이, 제1 지지 프레임(131) 및 제2 지지 프레임(132)의 A면(예: 착용자의 머리 방향)에 배치될 수 있으나, 이에 한정하지 않으며, 제1 지지 프레임(131) 및 제2 지지 프레임(132)의 B면(예: 착용자의 귀 방향)에 배치될 수도 있다.
IMU(inertial measurement unit)센서(150)는 제1 지지 프레임(131) 및 제2 지지 프레임(132) 중 하나에 부분적으로 실장될 수 있다. IMU 센서(150)는 웨어러블 전자 장치(101)의 변화 정보(예: 전방위 움직임)를 감지하고, 이를 추적할 수 있다. 일 실시예에 따르면, 웨어러블 전자 장치(101)는 IMU 센서(150)를 통해 사용자가 웨어러블 전자 장치를 착용했는지 여부를 감지할 수 있다. IMU 센서(150)는 돌기 구조를 접촉함에 따른 웨어러블 전자 장치의 변화 정보를 감지하고 이를 추적할 수 있다.
도 2는 다양한 실시예에 따른 웨어러블 전자 장치의 구성을 도시한다.
도 2를 참조하면, 웨어러블 전자 장치(예: 도 1의 웨어러블 전자 장치(101))는 디스플레이(210), IMU 센서(220) 및 프로세서(230)를 포함할 수 있다.
도면에 도시되지 않았으나, 웨어러블 전자 장치(101)는, 오디오 신호를 출력하는 스피커, 오디오 신호를 획득하는 마이크로폰, 영상 정보를 취득하는 카메라, 배터리 및 전력 관리 모듈을 더 포함할 수 있으나, 설명의 편의를 위하여, 도 2에서는 생략하기로 한다.
일 실시예에 따르면, 디스플레이(210)는 투명 또는 반투명 디스플레이로 구성될 수 있다. 사용자는 글라스 부재(110) 및 디스플레이(210)를 투과하여, 디스플레이(210)의 후면의 실제 공간(또는 실제 환경)을 인지할 수 있다.
디스플레이(210)는 실제 현실 공간의 적어도 일부에 가상 정보(또는 가상 객체)가 덧붙여진 것으로 보여지도록 가상 객체를 표시할 수 있다.
일 실시예에 따르면, 디스플레이(210)는 글라스 부재((110))와 함께 메인 프레임(예: 도 1의 메인 프레임(120))에 의해 고정될 수 있다.
일 실시예에 따르면, 디스플레이(210)는, 디스플레이 패널 및/또는 렌즈를 포함하는 디스플레이 모듈로 구현될 수 있다. 렌즈는 투명 웨이브 가이드(waveguide)를 포함하는 렌즈를 포함할 수 있다. 렌즈는 디스플레이(210)에서 출력된 광을 사용자의 눈에 전달할 수 있다. 예를 들어, 디스플레이(210)에서 방출된 광은 렌즈를 통과하고, 렌즈 내에 형성된 웨이브 가이드(예: waveguide)를 통해 사용자에게 전달될 수 있다.
웨이브 가이드(waveguide)는 적어도 하나의 회절 요소(예: DOE(diffractive optical element), HOE(holographic optical element)) 또는 반사 요소(예: 반사 거울) 중 적어도 하나를 포함할 수 있다. 웨이브 가이드(waveguide)는 적어도 하나의 회절 요소 또는 반사 요소를 이용하여 광원부로부터 방출된 디스플레이 광을 사용자의 눈으로 유도할 수 있다.
어떤 실시예에 따르면, 웨어러블 전자 장치(101)가 VR(virtual reality) 장치(예: 가상 현실 장치)인 경우, 도 1의 글라스 부재(110)는 생략될 수 있다.
일 실시예에 따르면, IMU(inertial motion unit) 센서(220)는 웨어러블 전자 장치(101)의 변화(예: 움직임 정도)를 감지하고, 이를 추적할 수 있다. IMU 센서(220)는 감지된 움직임 변화 신호를 디지털 신호(예: IMU 센서값, 센서 파형)로 변환하여 프로세서(230)(또는 센서 IC)로 전달할 수 있다.
일 실시예에 따르면, IMU 센서(220)는 기 설정된 단위로 움직임의 경로를 나타낼 수 있는 센서 파형을 생성할 수 있다. 센서 파형은 특징 추출을 위한 시계열의 센서 데이터일 수 있다.
일 실시예에 따르면, IMU 센서(220)는 3축 가속도계(accelerometer), 자이로스코프(Gyroscope), 및 자력계(Magnetometer) 센서로 구성된 모듈로 구현될 수 있다. 일 실시예에 따르면, IMU 센서(220)는 가속도 센서(acceleration sensor), 기울기 센서(tilt sensor), 자이로 센서(gyro sensor), 또는 자기장 센서(3-axis magnetic sensor) 중 적어도 하나를 포함하는 모션 센서일 수 있다. IMU 센서(220)는 자이로 센서를 이용해 피치(Pitch), 롤(Roll), 요(Yaw) 과 같은 각도 정보를 추출하고, 가속도 센서를 이용하여 속도 방향을 추적(점프, 이동속도)하고, 지자기 센서를 이용하여 지구의 자기장 값을 추적해 움직임 방향을 추적할 수 있다.
일 실시예에 따르면, 프로세서(230)는 웨어러블 전자 장치(101)의 전반적인 동작을 제어할 수 있다. 프로세서(230)는 프로세서(230)에 연결된 전자 장치(101)의 다른 구성 요소(예: 하드웨어 또는 소프트웨어 구성 요소) 및 구성요소의 동작을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다
일 실시예에 따르면, 프로세서(230)는 사용자에게 증강 현실 서비스를 제공할 수 있다. 프로세서(230)는, 웨어러블 전자 장치(101)의 카메라(미도시)를 통해 획득한 실제 공간과 관련된 영상 정보 중 사용자의 시야각(FoV)으로 판단되는 영역에 대응하는 정보를 인식할 수 있다. 프로세서(230)는 웨어러블 전자 장치(101)(또는 웨어러블에서 전자 장치와 연동하는 다른 전자 장치)와 관련된 정보 및/또는 실제 현실 공간에 위치한 외부 객체(예: 실제 공간에 존재하는 사물)와 관련된 정보를 기반으로 디스플레이 (210)를 통해 출력되는 가상 객체를 생성할 수 있다.
프로세서(230)는 카메라(미도시)를 통해 획득한 실제 공간과 관련된 영상 정보에 기반하여 증강 현실 서비스와 관련된 가상 객체를 함께 표시하도록 디스플레이(210)를 제어할 수 있다. 프로세서(230)는 디스플레이(210)의 표시 영역을 통해 적어도 하나의 가상 객체를 출력할 수 있다. 웨어러블 전자 장치(101)가 가상 객체를 표시하는 표시 영역은 디스플레이(210)의 일부(예: 디스플레이 패널의 적어도 일부)일 수 있다. 어떤 실시예에 따르면, 표시 영역은 제 1 글라스(110a) 및/또는 제 2 글라스(110b)의 일부분에 위치할 수 있다.
일 실시예에 따르면, 프로세서(230)는 돌기 구조로 인한 사용자의 입력을 판단할 수 있다. 프로세서(230)는 IMU 센서로부터 IMU 센서값을 획득하고, IMU 센서값이 IMU 센서값이 돌기 구조로 인해 발생된 센서 파형인지를 결정할 수 있다. 프로세서(230)는 돌기 구조로 인해 발생된 IMU 센서값의 파형 간격을 분석하여 제1 방향으로 움직이는 제1 입력과 제2 방향으로 움직이는 제2 입력을 구분할 수 있다. 프로세서(230)는 돌기 구조에 기반한 IMU 센싱 정보를 이용하여 사용자 입력이 제1 입력인 경우 제1 기능을 조절하도록 제어하고, 제2 입력인 경우, 제2 기능을 조절하도록 제어할 수 있다.
도 3은 다양한 실시예에 따른 웨어러블 전자 장치에 배치된 돌기 구조를 도시한다.
도 3을 참조하면, 일 실시예에 따르면, 웨어러블 전자 장치(예: 도 1의 웨어러블 전자 장치(101))의 프레임 중 적어도 일부에 돌기 구조(140)가 배치될 수 있다.
일 실시예에 따르면, 돌기 구조(140)는 지지 프레임(130)(예: 도 1의 제1 지지 프레임(131) 및 제2 지지 프레임 중 IMU 센서(150)가 실장되는 어느 하나)에 배치될 수 있다. 또는 돌기 구조(140)는 제1 지지 프레임(131) 및 제2 지지 프레임(132) 모두에 배치될 수 있다. 어떤 실시예에 따르면, 돌기 구조(140)는 메인 프레임의 적어도 일 측면에 배치될 수도 있다.
일 예를 들어, 돌기 구조(140)는 지지 프레임의 일면(예: 상단)에 배치될 수 있으며, 도시된 제1 면(예: 도 1의 A면)에 배치될 수도 있으나, 사용자 착용 시 외부로 노출되는 다른 면(예: 도 1의 B)에 배치될 수도 있다.
돌기 구조(140)는 제1 간격(d1)의 배치된 제1 돌기 패턴들(141)과, 제1 간격(d1)보다 넓은 제2 간격(d2)의 제2 돌기 패턴들(142)로 구성될 수 있다. 돌기 패턴들(141,142)는 배치된 지지 프레임(130)의 일면을 따라 일렬로 배치될 수 있다.
사용자가 돌기 구조를 따라 접촉(또는 문지르는, 비비는) 하는 경우, IMU 센서(150)는 돌기 구조 접촉에 따른 움직임 정도를 감지하고 이를 추적할 수 있다. IMU 센서(150)는 센싱값을 기반으로 센싱 정보(예: 센서 파형)을 생성할 수 있다.
웨어러블 전자 장치는 IMU 센서(150)의 센싱 정보를 기반으로, 사용자가 지지 프레임을 접촉하여 제1 돌기 패턴들(141)의 위치에서 제2 돌기 패턴들(142)의 위치의 방향(310)으로 움직이는 제1 입력과 제2 돌기 패턴들(142)의 위치에서 제1 돌기 패턴들(141)의 위치의 방향(320)으로 움직이는 제1 입력을 구분할 수 있다.
도 4는 다양한 실시예에 따른 웨어러블 전자 장치의 동작 방법을 도시하며, 도 5a 및 도 5b는 다양한 실시예에 따른 돌기 구조에 기반한 센서 파형을 나타낸다.
도 4를 참조하면, 일 실시예에 따르면, 웨어러블 전자 장치(101)의 프로세서(예: 도 2의 프로세서(230))는, 410 동작에서, IMU 센서(또는 모션 센서)로부터 센서값을 획득할 수 있다.
420 동작에서, 프로세서(230)는 IMU 센서값이 돌기 구조로 인해 발생된 센서 파형인지를 결정할 수 있다. 프로세서(230)는 돌기 구조로 인해 발행된 센서값이 아닌 경우, 425 동작으로 진행하여 IMU 센서 기능을 유지할 수 있다. 예를 들어, 프로세서(230)는 IMU 센서 기능을 통해 웨어러블 전자 장치의 착용 여부를 결정할 수 있다. 또는, 프로세서(230)는IMU 센서 기능을 통해 웨어러블 전자 장치의 움직임을 결정할 수 있다.
프로세서(230)는 IMU 센서값이 돌기 구조로 인해 발생된 센서 파형인 경우, 430 동작에서, 센서 파형의 방향성을 판단할 수 있다.
일 실시예에 따르면, 돌기 구조는, 제1 간격(d1)의 배치된 제1 돌기 패턴들(141)과, 제1 간격(d1)보다 넓은 제2 간격(d2)의 제2 돌기 패턴들(142)을 포함할 수 있다.
사용자가 돌기 구조를 따라 접촉(또는 문지르는, 비비 는) 하는 경우, IMU 센서(150)는 돌기 구조 접촉에 따른 움직임 정도를 감지하고, 이에 따른 센서 파형을 생성할 수 있다. 예를 들어, 사용자가 지지 프레임을 접촉하여 제1 돌기 패턴들(141)의 위치에서 제2 돌기 패턴들(142)의 위치의 방향(310)으로 움직이는 경우, 시간의 흐름에 따라 도 5a에 도시된 바와 같은 제1 센서 파형을 가질 수 있으며, 제2 돌기 패턴들(142)의 위치에서 제1 돌기 패턴들(141)의 위치의 방향(320)으로 움직이는 경우, 도 5b에 도시된 제2 센서 파형을 가질 수 있다. 제1 돌기 패턴들(141)의 위치에서는 501과 같이 파형 간격이 좁으며, 제2 돌기 패턴들의 위치에서는 502와 같이 파형 간격이 넓은 것을 확인할 수 있다.
프로세서(230)는 파형 간격을 분석하여 제1 방향으로 움직이는 제1 입력과 제2 방향으로 움직이는 제2 입력을 구분할 수 있다.
440 동작에서, 프로세서(230)는 제1 방향으로 움직이는 제1 입력인 경우, 제1 기능을 조절하도록 제어하고, 450 동작에서, 제2 방향으로 움직이는 제2 입력인 경우, 제2 기능을 조절하도록 제어할 수 있다.
일 실시예에 따르면, 제1 기능 및 제2 기능은 볼륨 조절 증가 및 감소 기능일 수 있다. 다른 실시예에 따르면, 제1 기능 및 제2 기능은 화면 밝기 조절 증가 및 감소 기능일 수 있다.
일 실시예에 따르면, 프로세서(230)는 디스플레이를 통해 표시되는 화면 또는 웨어러블 전자 장치에서 실행되는 기능에 따라 제1 기능 및 제2 기능을 결정할 수도 있다. 예를 들어, 프로세서(230)는 음악 재생 시 돌기 구조에 기반한 센서 파형이 감지되면, 볼륨 조절과 관련하여 제1 기능 및 제2 기능을 매핑할 수 있다. 프로세서(230)는 이북(e-book) 재생 시 돌기 구조에 기반한 센서 파형이 감지되면, 화면 밝기 조절과 관련하여 제1 기능 및 제2 기능을 매핑할 수 있다.
도 6은 다양한 실시예에 따른 웨어러블 전자 장치의 동작 방법을 도시한다,
도 6을 참조하면, 일 실시예에 따른 웨어러블 전자 장치(101)의 프로세서(예: 도 2의 프로세서(230))는, 610 동작에서, 트리거 입력을 수신할 수 있다. 트리거 입력은 터치 또는 탭 입력일 수 있으나, 이에 한정하는 것은 아니다. 일 예를 들어, 트리거 입력은 버튼 입력일 수도 있다.
620 동작에서, 프로세서(230)는 트리거 입력의 횟수를 결정할 수 있다. 일 예에서, 프로세서(230)는 트리거 입력이 1회 인 경우 630 동작으로 진행하여, 볼륨 조절 안내를 표시하는 제1 사용자 인터페이스를 디스플레이를 통해 표시할 수 있다.
640 동작에서, 프로세서(230)는 IMU 센서(또는 모션 센서)로부터 센서값을 획득할 수 있다. 645 동작에서, 프로세서(230)는 IMU 센서값에 기반한 센서 파형의 방향성을 판단할 수 있다. 예를 들어, 사용자가 지지 프레임을 접촉하여 제1 돌기 패턴들(141)의 위치에서 제2 돌기 패턴들(142)의 위치의 방향(310)으로 움직이는 경우, 시간의 흐름에 따라 도 5a에 도시된 바와 같은 제1 센서 파형을 가질 수 있으며, 제2 돌기 패턴들(142)의 위치에서 제1 돌기 패턴들(141)의 위치의 방향(320)으로 움직이는 경우, 도 5b에 도시된 제2 센서 파형을 가질 수 있다.
프로세서(230)는 파형 간격을 분석하여 제1 방향으로 움직이는 제1 입력과 제2 방향으로 움직이는 제2 입력을 구분할 수 있다.
650 동작에서, 프로세서(230)는 제1 방향으로 움직이는 제1 입력인 경우, 볼륨 증가하도록 조절하고, 655 동작에서, 프로세서(230)는 제2 방향으로 움직이는 제2 입력인 경우, 볼륨 감소하도록 조절할 수 있다.
다른 예에서, 프로세서(230)는 트리거 입력이 2회(예: 더블 터치, 더블 탭, 더블 클릭) 인 경우 660 동작으로 진행하여, 화면 밝기 조절 안내를 표시하는 제2 사용자 인터페이스를 디스플레이를 통해 표시할 수 있다.
670 동작에서, 프로세서(230)는 IMU 센서(또는 모션 센서)로부터 센서값을 획득할 수 있다. 647 동작에서, 프로세서(230)는 IMU 센서값에 기반한 센서 파형의 방향성을 판단할 수 있다. 프로세서(230)는 파형 간격을 분석하여 제1 방향으로 움직이는 제1 입력과 제2 방향으로 움직이는 제2 입력을 구분할 수 있다.
680 동작에서, 프로세서(230)는 IMU 센서값에 기반한 센서 파형이 제1 방향으로 움직이는 제1 입력인 경우, 화면 밝기를 증가하도록 조절하고, 655 동작에서, 프로세서(230)는 제2 방향으로 움직이는 제2 입력인 경우, 화면 밝기를 감소하도록 조절할 수 있다.
도 7은 다양한 실시예에 따른 웨어러블 전자 장치의 구성을 도시한다.
도 7을 참조하면, 일 실시예에 따른 전자 장치(701)(예: 도 1의 웨어러블 전자 장치(101))는 통신 모듈(710), 프로세서(720)(예: 도 2의 프로세서(230)), 메모리(130)), 센서)(730), 카메라(740), 디스플레이 모듈(750)(예: 도 1의 디스플레이), 메모리(760) 및 오디오 모듈(770)을 포함할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 연결 단자(780)(예: USB TYPE-C)를 통해, 외부 전자 장치(미도시)와 연결될 수 있다.
도면에 도시되지 않았으며, 전자 장치는 전력 관리 모듈 및 배터리를 포함할188)수 있다.
통신 모듈(710)은 다른 전자 장치(예: 스마트폰)와 무선 통신을 수행할 수 있다. 통신 모듈(710)은 다른 전자 장치와 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다 통신 모듈(710)은 다른 전자 장치와 서로 명령어 및/또는 데이터를 교환할 수 있다. 일 예를 들어, 웨어러블 전자 장치는 외부의 다른 전자 장치에 의해, 적어도 부분적으로 제어될 수 있다. 예를 들어, 전자 장치(101)는 외부의 다른 전자 장치의 제어 하에, 적어도 하나의 기능이 수행될 수 있다.
일 실시예에 따르면, 통신 모듈(710)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 다른 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다.
통신 모듈(710)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 통신 모듈(710)은 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 통신 모듈(710)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다.
프로세서(720)는 메모리(760)에 저장된 프로그램(예: 도 1의 프로그램(140))을 실행하여, 적어도 하나의 다른 구성 요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(720)는 다른 구성요소(예: 센서(730))로부터 수신된 명령 또는 데이터를 휘발성 메모리에 저장하고, 휘발성 메모리에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다.
센서 모듈(730)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다.
일 실시예에 따르면, 센서 모듈(730)은 IMU 센서(731)를 포함할 수 있다.
일 실시예에 따르면, 센서 모듈(730)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. 근접 센서는 전자 장치(101)에 인접하는 객체를 감지할 수 있다.
카메라 모듈(740)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(740)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
카메라 모듈(740)은 제스처 카메라(gesture camera), 시선 추적 카메라(eye tracking camera), 거리 측정 카메라(depth camera), 및/또는 RGB(red green blue) 카메라 중 적어도 하나를 포함할 수 있다. 제스처 카메라는 사용자의 움직임을 감지할 수 있다. 제스처 카메라는 전자 장치(101)에 적어도 하나 이상 배치될 수 있고, 기 설정된 거리 내에서 사용자의 손 움직임을 감지할 수 있다. 제스처 카메라는 전자 장치(101)의 주변 공간과 관련된 정보(예: 위치 및/또는 방향)를 인식하기 위한 SLAM 카메라(simultaneous localization and mapping camera)를 포함할 수 있다. 시선 추적 카메라는 사용자의 좌안 및 우안의 움직임을 추적할 수 있다. 거리 측정 카메라는 전자 장치(101)의 전면에 위치한 객체와의 거리를 측정할 수 있다. 거리 측정 카메라는 TOF(time of flight) 카메라 및/또는 depth 카메라를 포함할 수 있다. RGB(red green blue) 카메라는 객체의 색상 관련 정보 및 객체와의 거리 정보를 감지할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 거리 측정 카메라와 RGB 카메라를 통합하여, 한 종류의 카메라를 포함할 수 있다.
디스플레이 모듈(750)은 적어도 하나의 글라스(예: 도 1의 제 1 글라스((110a)) 및/또는 제 2 글라스(110b))를 포함할 수 있다. 일 실시예에 따르면, 제 1 글라스(110a)는 제 1 디스플레이 모듈(751)의 적어도 일부를 포함하고, 제 2 글라스(110b)는 제 2 디스플레이 모듈(753)의 적어도 일부를 포함할 수 있다. 예를 들어, 제 1 디스플레이 모듈(751) 및 제 2 디스플레이 모듈(753)은 각각 디스플레이 패널을 포함할 수 있다. 디스플레이 패널은 사용자가 디스플레이 모듈(750)을 통해 실제 공간을 인지할 수 있도록 투명 소자로 구성될 수 있다. 디스플레이 모듈(750)은 전자 장치(101)를 착용한 사용자가 실제 공간에 가상 객체가 덧붙여진 것으로 보여지도록 디스플레이 패널의 적어도 일부에 적어도 하나의 가상 객체를 표시할 수 있다. 예를 들어, 사용자의 시야각은 사용자가 사물을 인식할 수 있는 각도 또는 범위를 포함할 수 있다.
메모리(760)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(720) 또는 센서 모듈(730))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(760)는, 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다.
오디오 모듈(770)은 프로세서(720)의 제어에 기반하여, 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 예를 들어, 오디오 모듈(770)은 스피커 및/또는 마이크로폰을 포함할 수 있다.
도 8은 다양한 실시예에 따른 증강현실 서비스를 제공하는 웨어러블 전자 장치의 내부 구성을 도시한다.
도 8을 참조하면, 다양한 실시예에 따른 웨어러블 장치(101)는 사용자의 얼굴에 착용되어, 증강현실(AR: augmented reality), 혼합현실(MR: mixed reality) 또는 또는 가상 현실(VR: virtual reality) 서비스와 관련된 영상을 사용자에게 제공할 수 있다.
메인 프레임(823) 및 지지 프레임(예: 제 1 지지 프레임(821), 및/또는 제 2 지지 프레임(822))은 웨어러블 장치(101)의 구성들을 실장할 수 있다. 메인프레임(823)과 지지프레임(821, 822)은 힌지부(840-1, 840-2)를 통해 작동적으로 연결될 수 있다. 메인 프레임(823)은 사용자의 코에 적어도 부분적으로 거치될 수 있고 제 1 지지 프레임(821) 및 제 2 지지 프레임(822)은 사용자의 귀에 거치될 수 있다.
메인 프레임(823)은 사용자의 양안(예: 좌안 및/또는 우안)에 대응하는 투명 부재(예: 제 1 투명 부재(820) 및/또는 제 2 투명 부재(830)), 디스플레이(예: 제 1 디스플레이(814-1) 및 제 2 디스플레이(814-2)), 광도파로(Waveguide), 카메라(예: 인식용 카메라(811-1,811-2), 시선추적 카메라(812-1,812-2), 촬영용 카메라(813)) 및 조명부재(예: 842-1,842-2, 842-3)를 포함할 수 있다.
투명 부재(예: 제 1 투명 부재(820) 및/또는 제 2 투명 부재(830))는 디스플레이(또는 광원부)를 포함할 수 있다. 예를 들어, 사용자의 좌안에 대응되는 제 1 투명 부재(820)는 제 1 디스플레이(814-1)와 연결되고, 사용자의 우안에 대응되는 제 2 투명 부재(830)는 제 2 디스플레이(814-2)와 연결될 수 있다. 제 1 투명 부재(820) 및 제 2 투명 부재(830)는 글래스 플레이트, 플라스틱 플레이트 또는 폴리머로 형성될 수 있으며, 투명 또는 반투명하게 제작될 수 있다.
디스플레이(예: 제 1 디스플레이(814-1) 및 제 2 디스플레이(814-2))는 액정 표시 장치(liquid crystal display; LCD), 디지털 미러 표시 장치(digital mirror device; DMD), 실리콘 액정 표시 장치(liquid crystal on silicon; LCoS), 유기 발광 다이오드(organic light emitting diode; OLED) 또는 마이크로 엘이디(micro light emitting diode; micro LED)를 포함할 수 있다
도시되지는 않지만, 디스플레이(예: 814-1, 814-2)가 액정 표시 장치, 디지털 미러 표시 장치 또는 실리콘 액정 표시 장치 중 하나로 이루어지는 경우, 웨어러블 장치(101)는 디스플레이(예: 814-1, 814-2)의 화면 출력 영역으로 빛을 조사하는 광원을 포함할 수 있다.
다른 실시 예에서, 디스플레이(예: 814-1, 814-2)가 자체적으로 빛을 발생시킬 수 있는 경우, 예를 들어, 유기 발광 다이오드 또는 마이크로 엘이디 중 하나로 이루어지는 경우, 웨어러블 장치(101)는 별도의 광원을 포함하지 않더라도 사용자에게 가상 영상을 제공할 수 있다. 어떤 실시 예에서, 디스플레이(예: 814-1, 814-2)가 유기 발광 다이오드 또는 마이크로 엘이디로 구현된다면 광원이 불필요하므로, 웨어러블 장치(101)는 경량화될 수 있다.
다양한 실시예에서 디스플레이(예: 814-1, 814-2)가 투명인 경우 사용자 눈과 대면하는 위치에 배치되어 화면 표시부(또는 화면 출력 영역)를 구성할 수도 있다.
일 실시예에 따르면, 제 제 1 투명 부재(820) 및 제 2 투명 부재(830)는 집광 렌즈 및/또는 광도파로(Waveguide)를 포함할 수 있다. 예를 들어, 광도파로는 투명부재의 일부에 적어도 부분적으로 위치할 수 있다. 광도파로는 디스플레이(예: 814-1, 814-2)에서 생성한 광원을 사용자 눈으로 전달하는 역할을 할 수 있다. 예를 들어, 광도파로의 일단으로 입사된 광은 나노 패턴에 의해 디스플레이 광도파로 내부에서 전파되어 사용자에게 제공될 수 있다.
광도파로는 글래스, 플라스틱, 또는 폴리머로 제작될 수 있으며, 내부 또는 외부의 일표면에 형성된 나노 패턴, 예를 들어, 다각형 또는 곡면 형상의 격자 구조(grating structure)를 포함할 수 있다. 일 실시예에 따르면, 광도파로는 적어도 하나의 회절 요소(예: DOE(diffractive optical element), HOE(holographic optical element)) 또는 반사 요소(예: 반사 거울) 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 광도파로는 적어도 하나의 회절 요소 또는 반사 요소를 이용하여 광원부로부터 방출된 디스플레이 광을 사용자의 눈으로 유도할 수 있다.
다양한 실시예들에 따르면, 회절 요소는 입력 광학 부재/출력 광학 부재(미도시)를 포함할 수 있다. 입력 광학 부재는 입력 그레이팅 영역(input grating area)을 의미할 수 있으며, 출력 광학 부재(미도시)는 출력 그레이팅 영역(output grating area)을 의미할 수 있다. 입력 그레이팅 영역은 (예: Micro LED)로부터 출력되는 빛을 화면 표시부의 투명 부재(예: 제1 투명 부재(820), 제2 투명 부재(830))로 빛을 전달하기 위해 회절(또는 반사)시키는 입력단 역할을 할 수 있다. 출력 그레이팅 영역은 광도파로의 투명 부재(예: 제1 투명 부재(820), 제2 투명 부재(830))에 전달된 빛을 사용자의 눈으로 회절(또는 반사)시키는 출구 역할을 할 수 있다.
반사 요소는 전반사(total internal reflection, TIR)를 위한 전반사 광학 소자 또는 전반사 도파관을 포함할 수 있다. 전반사는 광을 유도하는 하나의 방식으로, 입력 그레이팅 영역을 통해 입력되는 빛(예: 가상 영상)이 광도파로의 일면(예: 특정 면)에서 100% 반사되도록 입사각을 만들어, 출력 그레이팅 영역까지 100% 전달되도록 하는 것을 의미할 수 있다.
디스플레이로(예: 814-1, 814-2)부터 방출되는 광은 입력 광학 부재를 통해 광도파로로 광 경로가 유도될 수 있다. 광도파로 내부를 이동하는 광은 출력 광학 부재를 통해 사용자 눈 방향으로 유도될 수 있다.
일 실시예에 따르면, 화면 표시부(또는 화면 출력 영역)는 눈 방향으로 방출되는 광에 기반하여 결정될 수 있다.
일 실시예에 따르면, 카메라는 제1 카메라, 제2 카메라 및 제3 카메라를 포함할 수 있다. 예를 들어, 제1 카메라는 핸드 검출/추적 및 공간 인식을 위한 인식용 카메라(811-1, 811-2)일 수 있으며, 제2 카메라는 사용자가 바라보는 시선의 방향을 확인하기 위한 시선 추적 카메라(eye tracking camera)(812-1,812-2)일 수 있으며, 제3 카메라는 사용자의 시야각(FoV, field of view)에 대응되는 영상을 촬영하거나 및/또는 객체와의 거리를 측정하기 위한 촬영용 카메라(813)일 수 있다.
인식용 카메라(811-1, 811-2)는 3DoF, 6DoF의 헤드 추적(head tracking), 핸드 검출 및 핸드 추적(hand tracking)을 위해 사용될 수 있다. 인식용 카메라(811-1, 811-2)는 6DoF를 위한 공간인식, 뎁스(eepth) 촬영을 통한 슬램(SLAM(Simultaneous localization and mapping) 기능을 수행하는데 활용될 수 있다. 또한 인식용 카메라(811-1, 811-2)는 사용자 제스처 인식 기능을 위해 활용될 수 있다. 예를 들어, 인식용 카메라(811-1, 811-2)는 빠른 손동작 및 손가락 등의 미세한 움직임을 검출 및 추적하기 위해, RS(rolling shutter) 카메라와 같이, 화면 끌림이 적은 GS (global shutter) 카메라를 포함할 수 있다.
시선 추적 카메라(eye tracking camera) (812-1,812-2)는 사용자의 시선 방향(예: 눈동자 움직임)을 감지할 수 있다. 시선 추적 카메라(812-1,812-2)는 사용자의 눈동자를 검출하여, 시선 방향을 추적할 수 있고, 가상 영상의 중심이 시선 방향에 대응하여 이동하도록 활용될 수 있다. 예를 들어, 시선 추적 카메라(212)는 눈동자(pupil)을 검출하고 빠른 눈동자 움직임을 화면 끌림 없이 추적할 수 있도록 GS (global shutter) 카메라가 활용될 수 있으며, 각 시선 추적 카메라의 성능 및 규격이 실질적으로 동일할 수 있다.
촬영용 카메라(813)는 HR(high resolution) 카메라 및 PV(photo video) 카메라와 같은 고해상도의 카메라를 포함할 수 있다. 예를 들어, 촬영용 카메라(813)는 오 토 포커스 기능과 떨림 보정(OIS)과 같이 고화질의 영상을 획득하기 위해 활용될 수 있다. 촬영용 카메라(813)는 Color 카메라 이외에 가 GS 카메라 및 RS(rolling shutter) 카메라로 구현될 수도 있다.
조명부재(842-1,842-2)는, 웨어러블 장치(101)에 부착되는 위치에 따라 각각 다른 용도로 활용될 수 있다. 시선 추적용 카메라 인근에 부착된 조명부재는 시선 추적 카메라로 동공을 촬영할 시 시선 게이즈(eye gaze) 검출을 위한 보조 수단으로 활용될 수 있다. 이 경우, 조명부재는 가시광 파장 보다는 적외선 파장의 IR LED가 사용될 수 있다.
어떤 실시예에 따르면, 도시되지 않았으나, GS 카메라 주변에 부착되어 있는 조명 부재는 GS 카메라로 촬영 시 주변 밝기를 보충하는 수단으로 활용될 수 있다. 예를 들어, 조명 부재는 어두운 환경이나 여러 광원의 혼입 및 반사 빛 때문에 촬영하고자 하는 피사체 검출이 용이하지 않을 때 사용될 수 있다.
웨어러블 장치(101)에 포함되는 카메라의 개수 및 위치는 한정되지 않으며, 웨어러블 장치(101)의 형태(예: 모양 또는 크기)에 기반하여 카메라의 개수 및 위치는 다양할 수 있다.
일 실시예에 따르면, 메인 프레임은 사용자의 음성 및 주변 소리를 수신하기 위한 복수개의 마이크(841-1,842-2,842-3)를 포함할 수 있다.
제 1 지지부(821) 및/또는 제 2 지지부(822)는 인쇄 회로 기판(831-1, 831-2), 오디오 신호를 출력하기 위한 스피커(832-1, 832-2), 배터리(833-1, 833-2) 및/또는 힌지부(840-1, 840-2)를 포함할 수 있다.
인쇄 회로 기판(831-1, 831-2)은 플렉서블 기판을 포함할 수 있다. 인쇄 회로 기판(831-1, 831-2)은 각 구성 요소(예: 카메라, 디스플레이, 마이크, 스피커)에 전기 신호를 전달할 수 있다.
스피커(232-1, 232-2)는 사용자의 좌측 귀에 오디오 신호를 전달하기 위한 제 1 스피커(232-1) 및 사용자의 우측 귀에 오디오 신호를 전달하기 위한 제 2 스피커(232-2)를 포함할 수 있다. 배터리(233-1, 233-2)는 전력 관리 모듈(미도시)을 통해, 인쇄 회로 기판(831-1, 831-2)에 전력을 공급할 수 있다.
일 실시에에 따르면, 도 8에 도시된 웨어러블 장치(101)는 도 2에 도시된 모션 센서 및 돌기 구조를 포함할 수 있다. 본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 웨어러블 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 웨어러블 장치(101))의 프로세서(예: 프로세서(720))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
101: 전자 장치
110: 글라스 부재
120: 메인 프레임
130: 지지 프레임
140: 돌기 구조
150: IMU 센서

Claims (20)

  1. 웨어러블 전자 장치에 있어서,
    디스플레이;
    상기 디스플레이를 고정하는 메인 프레임;
    상기 메인 프레임의 양 단과 각각 연결되며, 사용자의 귀에 거치 가능한 제1 지지 프레임 및 제2 지지 프레임; 및
    상기 제1 지지 프레임 및 제2 지지 프레임 중 적어도 하나에 실장되는 모션 센서를 포함하고,
    상기 제1 지지 프레임 및 제2 지지 프레임 중 적어도 하나의 일 표면에,
    제1 간격으로 배치되는 제1 돌기 패턴들과, 상기 제1 간격보다 넓은 간격으로 배치되는 제2 돌기 패턴들을 포함하는 돌기 구조가 형성된 웨어러블 전자 장치.
  2. 제1항에 있어서,
    상기 메인 프레임, 상기 제1 지지 프레임 및 제2 지지 프레임 중 적어도 하나에 실장되는 프로세서를 포함하고,
    상기 프로세서는, 상기 모션센서로부터 센싱 정보를 수신하여 상기 돌기 구조를 접촉하는 사용자 입력의 방향성을 판단하도록 설정된 웨어러블 전자 장치.
  3. 제1항에 있어서,
    상기 돌기 구조는, 상기 제1 지지 프레임 및 제2 지지 프레임과 동일한 부재를 이용하여 적어도 하나와 일체로 형성되거나 결합되는 형태로 형성된 웨어러블 전자 장치.
  4. 제2항에 있어서,
    상기 프로세서는,
    상기 모션 센서로부터 센싱 정보가 상기 돌기 구조로 인해 발생된 센서 파형인지를 결정하고,
    상기 센서 파형이 돌기 구조로 인해 발생된 경우, 센서 파형의 방향성을 판단하고,
    상기 센서 파형이 돌기 구조로 인해 발생되지 않는 경우, 모션 센서 기능을 유지하도록 설정된 웨어러블 전자 장치.
  5. 제2항에 있어서,
    상기 프로세서는,
    상기 센서 파형의 방향성이 상기 제1 방향의 센서 파형인 경우, 제1 기능을 조절하도록 제어하고,
    상기 제2 방향의 센서 파형인 경우, 제1 기능을 조절하도록 제어하는 웨어러블 전자 장치.
  6. 제5항에 있어서,
    상기 프로세서는,
    상기 제1 간격의 돌기 패턴들로부터 상기 제2 간격의 돌기 패턴들로 이동하는 센서 파형인 경우, 상기 제1 센서 파형으로 결정하고,
    상기 제2 간격의 돌기 패턴들로부터 상기 제1 간격의 돌기 패턴들로 이동하는 센서 파형인 경우, 상기 제2 센서 파형으로 결정하는 웨어러블 전자 장치.
  7. 제5항에 있어서,
    상기 제1 기능은 볼륨 증가 기능을 포함하고, 상기 제2 기능은 볼륨 감소 기능을 포함하는 웨어러블 전자 장치.
  8. 제5항에 있어서,
    상기 제1 기능은 화면 밝기 증가 기능을 포함하고, 상기 제2 기능은 화면 밝기 감소 기능을 포함하는 웨어러블 전자 장치.
  9. 제5항에 있어서,
    상기 프로세서는,
    상기 제1 기능 조절 또는 제2 기능 조절에 따른 결과를 음성 정보로 제공하는 웨어러블 전자 장치.
  10. 제5항에 있어서,
    상기 프로세서는,
    상기 디스플레이에 표시되는 정보 또는 웨어러블 장치의 실행 정보에 기반하여 상기 제1 기능 또는 제2 기능에 매핑된 정보를 결정하도록 설정된 웨어러블 전자 장치.
  11. 제1항에 있어서,
    상기 메인 프레임, 제1 지지프레임 및 제1 지지프레임의 적어도 일부에 부분적으로 배치된 입력 감지 회로를 더 포함하고,
    상기 프로세서는,
    상기 입력 감지 회로로부터 수신된 신호에 기반하여 트리거 입력을 검출하고,
    상기 트리거 입력이 횟수를 1회인 경우, 상기 디스플레이를 통해 볼륨 조절 안내를 표시하는 제1 사용자 인터페이스를 제공하고,
    상기 모션 센서로부터 획득한 센서 파형을 기반으로 한 사용자의 입력이 제1 방향인 경우, 볼륨 증가되도록 조절하고,
    상기 모션 센서로부터 획득한 센서 파형을 기반으로 한 사용자의 입력이 제1 방향인 경우, 볼륨 감소되도록 조절하는 웨어러블 전자 장치.
  12. 제11항에 있어서,
    상기 트리거 입력이 상기 트리거 입력이 2회 인 경우, 상기 디스플레이를 통해 화면 밝기 조절 안내를 표시하는 제2 사용자 인터페이스를 제공하고,
    상기 모션 센서로부터 획득한 센서 파형을 기반으로 한 사용자의 입력이 제1 방향인 경우, 화면 밝기가 증가되도록 조절하고,
    상기 모션 센서로부터 획득한 센서 파형을 기반으로 한 사용자의 입력이 제1 방향인 경우, 화면 밝기가 감소되도록 조절하는 웨어러블 전자 장치.
  13. 제11항에 있어서,
    상기 입력 감지 회로는 터치 회로를 포함하고,
    상기 트리거 입력은 터치 입력 또는 탭 입력인 것을 특징으로 하는 웨어러블 전자 장치.
  14. 안경형 웨어러블 전자 장치에 있어서,
    디스플레이;
    상기 디스플레이를 고정하는 프레임; 및
    상기 프레임의 적어도 일부에 실장되는 모션센서를 포함하고,
    상기 프레임의 적어도 일부의 표면에 제1 간격으로 배치되는 제1 돌기 패턴들과, 상기 제1 간격보다 넓은 간격으로 배치되는 제2 돌기 패턴들을 포함하는 돌기 구조가 형성된 안경형 웨어러블 전자 장치.
  15. 제14항에 있어서,
    상기 프레임은 디스플레이를 고정하는 메인 프레임과 상기 메인 프레임의 양 단과 각각 연결되며, 사용자의 귀에 거치 가능한 제1 지지 프레임 및 제2 지지 프레임을 포함하는 안경형 웨어러블 전자 장치.
  16. 제14항에 있어서,
    상기 프레임에 실장되는 프로세서를 포함하고,
    상기 프로세서는, 상기 모션센서로부터 센싱 정보를 수신하여 상기 돌기 구조를 접촉하는 사용자 입력의 방향성을 판단하도록 설정된 안경형 웨어러블 전자 장치.
  17. 제14항에 있어서,
    상기 프로세서는,
    상기 센서 파형의 방향성이 상기 제1 방향의 센서 파형인 경우, 제1 기능을 조절하도록 제어하고,
    상기 제2 방향의 센서 파형인 경우, 제1 기능을 조절하도록 제어하는 안경형 웨어러블 전자 장치.
  18. 제14항에 있어서,
    상기 프로세서는,
    상기 제1 간격의 돌기 패턴들로부터 상기 제2 간격의 돌기 패턴들로 이동하는 센서 파형인 경우, 상기 제1 센서 파형으로 결정하고, 상기 제1 센서 파형에 매핑된 제1 기능을 조절하도록 제어하고,
    상기 제2 간격의 돌기 패턴들로부터 상기 제1 간격의 돌기 패턴들로 이동하는 센서 파형인 경우, 상기 제2 센서 파형으로 결정하고, 상기 제2 방향의 센서 파형에 맵핑된 제2 기능을 조절하도록 제어하는 안경형 웨어러블 전자 장치.
  19. 제18항에 있어서,
    상기 제1 기능은 볼륨 증가 기능을 포함하고, 상기 제2 기능은 볼륨 감소 기능을 포함하는 안경형 웨어러블 전자 장치.
  20. 제18항에 있어서,
    상기 제1 기능은 화면 밝기 증가 기능을 포함하고, 상기 제2 기능은 화면 밝기 감소 기능을 포함하는 안경형 웨어러블 전자 장치.
KR1020210002097A 2021-01-07 2021-01-07 웨어러블 전자 장치 및 모션 센서를 이용한 입력 구조물 KR20220100143A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020210002097A KR20220100143A (ko) 2021-01-07 2021-01-07 웨어러블 전자 장치 및 모션 센서를 이용한 입력 구조물
PCT/KR2022/000078 WO2022149829A1 (ko) 2021-01-07 2022-01-04 웨어러블 전자 장치 및 모션 센서를 이용한 입력 구조물
US17/570,513 US12026297B2 (en) 2021-01-07 2022-01-07 Wearable electronic device and input structure using motion sensor in the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210002097A KR20220100143A (ko) 2021-01-07 2021-01-07 웨어러블 전자 장치 및 모션 센서를 이용한 입력 구조물

Publications (1)

Publication Number Publication Date
KR20220100143A true KR20220100143A (ko) 2022-07-15

Family

ID=82358042

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210002097A KR20220100143A (ko) 2021-01-07 2021-01-07 웨어러블 전자 장치 및 모션 센서를 이용한 입력 구조물

Country Status (2)

Country Link
KR (1) KR20220100143A (ko)
WO (1) WO2022149829A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024071784A1 (ko) * 2022-09-27 2024-04-04 삼성전자 주식회사 분리막이 형성된 배터리 장치를 포함하는 전자 장치

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2405662B1 (en) * 2010-07-08 2012-12-26 Advanced Digital Broadcast S.A. An interactive glasses system
WO2013136696A1 (ja) * 2012-03-13 2013-09-19 ソニー株式会社 ヘッドマウントディスプレイ
KR102433291B1 (ko) * 2014-07-31 2022-08-17 삼성전자주식회사 웨어러블 글래스 및 웨어러블 글래스의 컨텐트 제공 방법
KR20160093890A (ko) * 2015-01-30 2016-08-09 엘지전자 주식회사 이동단말기 및 그 제어방법
JP6524320B2 (ja) * 2018-09-12 2019-06-05 株式会社東芝 メガネ型ウエアラブル端末およびこの端末を用いる方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024071784A1 (ko) * 2022-09-27 2024-04-04 삼성전자 주식회사 분리막이 형성된 배터리 장치를 포함하는 전자 장치

Also Published As

Publication number Publication date
WO2022149829A1 (ko) 2022-07-14

Similar Documents

Publication Publication Date Title
US9898868B2 (en) Display device, method of controlling the same, and program
US11852830B2 (en) Augmented reality glass and operating method therefor
US20230199328A1 (en) Method of removing interference and electronic device performing the method
US11733952B2 (en) Wearable electronic device including display, method for controlling display, and system including wearable electronic device and case
US20240103289A1 (en) Wearable electronic device and method for controlling power path thereof
US12026297B2 (en) Wearable electronic device and input structure using motion sensor in the same
KR20220100143A (ko) 웨어러블 전자 장치 및 모션 센서를 이용한 입력 구조물
US20230154368A1 (en) Method and device for controlling luminance of augmented reality (ar) image
US11809622B2 (en) Electronic device and method for eye-tracking of user and providing augmented reality service thereof
KR20230044781A (ko) 카메라를 포함하는 웨어러블 장치 및 그 제어 방법
KR20220126074A (ko) 디스플레이를 포함하는 웨어러블 전자 장치
KR20220068431A (ko) 증강 현실 웨어러블 전자 장치
US20240119683A1 (en) Electronic device and method for providing ar information using watch face image
US20240046530A1 (en) Method of controlling display module, and electronic device performing the method
US12068531B2 (en) Wearable electronic device including variable ground
US12003697B2 (en) Wearable electronic device and method of outputting three-dimensional image
EP4202531A1 (en) Augmented reality wearable electronic device comprising camera
US11863945B2 (en) Augmented reality wearable electronic device and case
EP4350420A1 (en) Lens assembly including light-emitting element disposed on first lens, and wearable electronic device including same
US20230089234A1 (en) Electronic device including electrochromic device and method of controlling the electronic device
US20230122744A1 (en) Wearable electronic device adjusting transmittance of visor and brightness of display
KR20240050214A (ko) 이미지를 활용한 ar 정보 제공 방법 및 전자 장치
KR20240066027A (ko) 카메라를 포함하는 웨어러블 전자 장치 및 이의 동작 방법
KR20240028262A (ko) 카메라 모듈을 제어하는 웨어러블 전자 장치 및 그 동작 방법
KR20230151859A (ko) 웨어러블 디바이스의 착용 상태에 따라 상이한 피드백을 제공하는 웨어러블 디바이스 및 그 제어 방법