KR20230065846A - Smart glasses - Google Patents
Smart glasses Download PDFInfo
- Publication number
- KR20230065846A KR20230065846A KR1020210177801A KR20210177801A KR20230065846A KR 20230065846 A KR20230065846 A KR 20230065846A KR 1020210177801 A KR1020210177801 A KR 1020210177801A KR 20210177801 A KR20210177801 A KR 20210177801A KR 20230065846 A KR20230065846 A KR 20230065846A
- Authority
- KR
- South Korea
- Prior art keywords
- virtual object
- right eye
- left eye
- distance
- depth
- Prior art date
Links
- 239000004984 smart glass Substances 0.000 title claims abstract description 41
- 210000001747 pupil Anatomy 0.000 claims description 18
- 238000005259 measurement Methods 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 8
- 238000012937 correction Methods 0.000 description 30
- 238000010586 diagram Methods 0.000 description 18
- 238000000034 method Methods 0.000 description 7
- 230000001179 pupillary effect Effects 0.000 description 7
- 239000011521 glass Substances 0.000 description 5
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0127—Head-up displays characterised by optical features comprising devices increasing the depth of field
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
Abstract
Description
본 발명은 스마트안경에 관한 것으로서, 보다 상세하게는 사용자에게 보이는 가상객체의 깊이감 조절이 가능한 스마트안경에 관한 것이다.The present invention relates to smart glasses, and more particularly, to smart glasses capable of adjusting a sense of depth of a virtual object visible to a user.
증강현실(Augmented Reality, AR)은 실제 환경에 가상 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 기술을 말한다. Augmented Reality (AR) refers to a technology that synthesizes virtual objects or information in a real environment to make them look like objects existing in the original environment.
혼합현실 (Mixed Reality, MR) 혹은 혼성현실 (Hybrid reality)은 가상 세계와 현실 세계를 합쳐서 새로운 환경이나 새로운 정보를 만들어 내는 것을 말한다. 특히, 실시간으로 현실과 가상에 존재하는 것 사이에서 실시간으로 상호작용할 수 있는 것을 말할 때 혼합현실이라 한다. Mixed Reality (MR) or Hybrid reality refers to creating a new environment or new information by combining the virtual world and the real world. In particular, it is called mixed reality when it refers to real-time interaction between reality and virtual reality in real time.
이 때, 만들어진 가상의 환경이나 상황 등은 사용자의 오감을 자극하며 실제와 유사한 공간적, 시간적 체험을 하게 함으로써 현실과 상상의 경계를 자유롭게 드나들게 한다. 또한 사용자는 이러한 환경에 단순히 몰입할 뿐 만 아니라 실재하는 디바이스를 이용해 조작이나 명령을 가하는 등 이러한 환경 속에 구현된 것들과 상호작용이 가능하다. At this time, the created virtual environment or situation stimulates the user's five senses and allows them to freely move in and out of the boundary between reality and imagination by allowing them to have a spatial and temporal experience similar to the real one. In addition, users are not only immersed in these environments, but also interact with things implemented in these environments, such as manipulating or giving commands using real devices.
최근 이러한 기술분야에 사용되는 장비에 대한 연구가 활발히 이루어지고 있다. 한편, 사용자 마다 동공의 위치가 달라서 동공사이거리(IPD)가 다른데, 빛이 눈으로 입사하는 경로가 제품의 제작 과정에서 미리 정해져 있기 때문에, 동공사이거리가 서로 다른 사용자마다 가상객체에 대한 깊이감을 서로 다르게 느낄 수 있다. Recently, research on equipment used in these technical fields has been actively conducted. On the other hand, since the position of the pupil is different for each user, the interpupillary distance (IPD) is different. Since the path through which light enters the eyes is pre-determined in the manufacturing process of the product, each user with a different pupil distance has a different sense of depth for the virtual object. can feel different.
본 발명은 서로 다른 동공사이거리를 갖는 사용자가 모두 동일한 깊이감을 느낄 수 있도록 가상객체의 깊이감을 조절 가능한 스마트안경을 제공함에 그 목적이 있다. An object of the present invention is to provide smart glasses capable of adjusting a sense of depth of a virtual object so that all users having different interpupillary distances can feel the same sense of depth.
본 발명의 실시예에 따른 좌안 가상이미지가 맺히는 좌안렌즈와, 우안 가상이미지가 맺히는 우안렌즈를 구비하는 스마트안경은, 상기 좌안 가상이미지에 포함된 좌안 가상객체의 위치 및 상기 우안 가상이미지에 포함된 우안 가상객체의 위치 각각을 조정하여 상기 좌안 및 우안 가상객체의 조합에 의해 사용자에게 보이는 가상객체의 깊이감을 조정하는 영상제어부를 포함한다. Smart glasses having a left eye lens on which a left eye virtual image is formed and a right eye lens on which a right eye virtual image is formed according to an embodiment of the present invention, the position of the left eye virtual object included in the left eye virtual image and the right eye virtual image included in the and an image controller configured to adjust a sense of depth of a virtual object visible to a user by a combination of the left and right eye virtual objects by adjusting each position of the right eye virtual object.
또한 실시예에 있어서, 상기 영상제어부는, 사용자의 입력에 기초하여, 상기 좌안 가상객체의 위치 및 상기 우안 가상객체의 위치 각각을 조정한다.In an embodiment, the image controller adjusts the position of the left eye virtual object and the right eye virtual object, respectively, based on a user's input.
또한 실시예에 있어서, 동공사이거리인 제1 거리를 측정하는 제1 거리측정부; 및 상기 좌안렌즈 및 상기 우안렌즈 중 어느 하나와 동공 사이의 제2 거리를 측정하는 제2 거리측정부를 더 포함하고, 상기 영상제어부는, 상기 제1 거리 및 상기 제2 거리에 기초하여 상기 좌안 및 우안 가상객체의 위치를 조정한다.In another embodiment, a first distance measurement unit for measuring a first distance that is the inter-pupillary distance; and a second distance measurer configured to measure a second distance between one of the left eye lens and the right eye lens and the pupil, wherein the image control unit controls the left eye and the second distance based on the first distance and the second distance. Adjust the position of the right eye virtual object.
또한 실시예에 있어서, 사용자로부터 상기 깊이감이 조정된 가상객체의 깊이감에 대한 사용자의 응답을 수신하는 피드백수신부를 더 포함하고, 상기 영상제어부는, 상기 사용자의 응답에 기초하여, 상기 가상객체의 깊이감을 추가 조정 여부를 결정한다.In the embodiment, the feedback receiver may further include a feedback receiving unit configured to receive a response from a user regarding a sense of depth of a virtual object having an adjusted sense of depth, and the image control unit may, based on the user's response, control the virtual object Determines whether or not to further adjust the sense of depth.
본 발명의 실시예에 따른 좌안 가상이미지가 맺히는 좌안렌즈와, 우안 가상이미지가 맺히는 우안렌즈를 구비하는 스마트안경은 좌안 가상객체가 표시되는 좌안렌즈; 우안 가상객체가 표시되는 우안렌즈; 상기 좌안렌즈 및 상기 우안렌즈 사이의 거리를 조정하여 상기 좌안 가상객체 및 상기 우안 가상객체의 조합에 의해 형성되는 가상객체의 깊이감을 변경하는 간격조정부를 포함한다.Smart glasses having a left eye lens on which a left eye virtual image is formed and a right eye lens on which a right eye virtual image is formed according to an embodiment of the present invention include a left eye lens on which a left eye virtual object is displayed; a right eye lens displaying a right eye virtual object; and an interval adjuster configured to change a sense of depth of a virtual object formed by a combination of the left eye virtual object and the right eye virtual object by adjusting a distance between the left eye lens and the right eye lens.
본 발명의 실시예에 따른 좌안 가상이미지가 맺히는 좌안렌즈와, 우안 가상이미지가 맺히는 우안렌즈를 구비하는 스마트안경은 좌안 가상객체가 표시되는 좌안렌즈; 우안 가상객체가 표시되는 우안렌즈; 및 상기 좌안렌즈 및 상기 우안렌즈 중 적어도 하나의 전방방향으로의 각도를 변경하여 상기 좌안 가상객체 및 상기 우안 가상객체의 조합에 의해 형성되는 가상객체의 깊이감을 변경하는 각도조정부를 포함한다.Smart glasses having a left eye lens on which a left eye virtual image is formed and a right eye lens on which a right eye virtual image is formed according to an embodiment of the present invention include a left eye lens on which a left eye virtual object is displayed; a right eye lens displaying a right eye virtual object; and an angle adjuster configured to change a sense of depth of a virtual object formed by a combination of the left eye virtual object and the right eye virtual object by changing an angle of at least one of the left eye lens and the right eye lens in a forward direction.
본 발명에 따르면, 영상제어부의 가상객체의 깊이감 조절은 초점조절 시뿐만 아니라, 스마트안경을 사용중일 때에도 깊이감 조절이 가능하며, 시선방향이 정면 중앙이 아닌 경우에도 가상객체의 깊이감 조절이 가능하다.According to the present invention, the sense of depth of the virtual object of the image controller can be adjusted not only when the focus is adjusted, but also when smart glasses are being used, and the sense of depth of the virtual object can be adjusted even when the gaze direction is not the front center. possible.
본 발명에 따르면, 본 발명의 가상객체의 깊이감 조절은, 좌안렌즈로부터 좌안동공까지의 거리 또는 우안렌즈로부터 우안동공까지의 거리를 고려하므로, 가상객체의 깊이감을 보다 더 정확하게 조정할 수 있다.According to the present invention, since the distance from the left eye lens to the pupil of the left eye or the distance from the right eye lens to the pupil of the right eye is considered in adjusting the sense of depth of the virtual object, the sense of depth of the virtual object can be more accurately adjusted.
도 1은 본 발명의 제1 실시예에 따른 스마트안경을 설명하기 위한 도면이다.
도 2는 동공사이거리에 따른 가상객체의 깊이감을 설명하기 위한 도면이다.
도 3은 도 2에 도시된 동공사이거리가 k2인 사용자에게 표시되는 가상객체의 깊이감이 영상제어부에 의해 조정되는 과정을 설명하기 위한 도면이다.
도 4는 도 1에 도시된 저장부에 저장된 위치보정정보를 설명하기 위한 도면이다.
도 5는 본 발명의 제2 실시예에 따른 스마트안경을 설명하기 위한 도면이다.
도 6은 도 5에 도시된 프레임부를 설명하기 위한 도면이다.
도 7a 및 7b는 도 5에 도시된 스마트안경의 가상객체의 깊이조정방법을 설명하기 위한 도면이다.
도 8은 본 발명의 제3 실시예에 따른 스마트안경을 설명하기 위한 도면이다.
도 9는 도 8에 도시된 프레임부를 설명하기 위한 도면이다.
도 10a 및 10b는 도 8에 도시된 스마트안경의 가상객체의 깊이조정방법을 설명하기 위한 도면이다.1 is a diagram for explaining smart glasses according to a first embodiment of the present invention.
2 is a diagram for explaining a sense of depth of a virtual object according to a pupillary distance.
FIG. 3 is a diagram for explaining a process in which a sense of depth of a virtual object displayed to a user having a pupillary distance of k2 shown in FIG. 2 is adjusted by an image controller.
FIG. 4 is a diagram for explaining location correction information stored in the storage unit shown in FIG. 1 .
5 is a diagram for explaining smart glasses according to a second embodiment of the present invention.
FIG. 6 is a diagram for explaining the frame portion shown in FIG. 5 .
7A and 7B are diagrams for explaining a method for adjusting a depth of a virtual object of the smart glasses shown in FIG. 5 .
8 is a diagram for explaining smart glasses according to a third embodiment of the present invention.
FIG. 9 is a view for explaining the frame portion shown in FIG. 8 .
10A and 10B are views for explaining a method for adjusting a depth of a virtual object of the smart glasses shown in FIG. 8 .
본 발명의 실시예의 구성 및 작용에 대하여 첨부한 도면을 참조하여 상세하게 설명한다.The configuration and operation of the embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 제1 실시예에 따른 스마트안경을 설명하기 위한 도면이다.1 is a diagram for explaining smart glasses according to a first embodiment of the present invention.
스마트안경은 증강현실안경, 가상현실안경, 혼합현실안경 중 어느 하나일 수 있다. The smart glasses may be any one of augmented reality glasses, virtual reality glasses, and mixed reality glasses.
도 1을 참조하면, 스마트안경(10)은 프레임부(100), 렌즈부(200), 센서부(300), 제어부(400), 광출사부(500), 저장부(600)를 포함한다. Referring to FIG. 1 ,
프레임부(100)는 전면프레임(110)과, 전면프레임(110)의 양측에서 후방으로 연장되는 한쌍의 측면프레임(120)을 포함할 수 있다. 프레임부(100)는 렌즈부(200), 센서부(300), 제어부(400), 광출사부(500), 저장부(600), 배터리(미도시)를 지지할 수 있다.The
구체적으로 전면프레임(110)은 사용자의 양안에 대응되는 좌안렌즈(200L) 및 우안렌즈(200R)를 지지한다. 예를 들어, 전면프레임(110)은 렌즈를 둘러싸는 안경테 형태로 마련될 수 있다. 이와 달리 렌즈의 상부 또는 하부만을 지지하거나, 렌즈의 일 측방만을 지지하는 형태로 마련될 수 있다.Specifically, the
측면프레임(120)에는 센서부(300), 제어부(400), 저장부(600)가 구비될 수 있으며, 광출사부(500)는 전면프레임(110) 또는 측면프레임(120)에 구비될 수 있다. The
렌즈부(200)는 좌안렌즈(2OOL)와 우안렌즈(200R)를 포함한다. The
좌안렌즈(200L)에는 좌안 가상이미지가 맺히고, 우안렌즈(200R)에는 우안 가상이미지가 맺힌다. 좌안 가상이미지는 적어도 하나의 좌안 가상객체를 포함하고, 우안 가상이미지는 좌안 가상이미지에 대응되며, 적어도 하나의 우안 가상객체를 포함한다. 좌안 가상이미지에 포함된 좌안 가상객체와, 우안 가상이미지에 포함된 우안 가상객체의 조합에 의해 깊이감을 갖는 가상객체가 사용자에게 보이게 된다.A left eye virtual image is formed on the
광출사부(500)는 렌즈부(200)에 가상이미지를 조사하여 렌즈부(200)에 가상이미지를 맺히게 한다. 광출사부(500)는 좌안용 광출사부(500L)와 우안용 광출사부(500R)를 포함한다. 좌안용 광출사부(500L)는 좌안렌즈(200L)에 좌안용 가상이미지를 조사하며, 우안용 광출사부(500R)는 우안렌즈(200R)에 우안용 가상이미지를 조사한다. 좌안용 가상이미지, 우안용 가상이미지에는 서로 대응되는 점, 선, 면 등의 도형, 글자, 이미지 중 어느 하나 또는 이들의 조합으로 이루어지는 적어도 하나의 가상객체를 포함한다. The
센서부(300)는, 스마트안경(10) 내 정보, 스마트안경(10)를 둘러싼 주변환경정보 및 사용자정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함한다. 센서부(300)는 제1 내지 제3 거리측정부(310, 320, 330) 및 이미지센서부(340)를 포함한다. The
제1 거리측정부(310)는 사용자의 동공 간 거리(IPD)인 제1 거리를 측정한다. 이때 제1 거리측정부(310)는 이미지센서로 구성될 수 있으며, 동공간거리(IPD)의 거리측정은 공지된 방법을 이용할 수 있다.The first
제2 거리측정부(320)는 동공과 렌즈 사이의 거리를 측정한다. 구체적으로 제2 거리측정부(320)는 좌안렌즈와 좌안동공 사이의 거리 또는 우안렌즈와 우안동공 사이의 거리인 제2 거리를 측정한다. The second
제3 거리측정부(330)는 스마트안경(10)에서부터 가상객체가 위치하는 대상물까지의 제3 거리를 측정한다. The third
이미지센서(440)는 사용자의 좌안과 우안 각각을 주기적으로 촬영하여 좌안이미지와 우안이미지를 생성하고, 영상제어부(410)에 전송한다. 또한 이미지센서(440)는 사용자가 바라보는 방향의 주위 환경을 주기적으로 촬영하여 외부이미지를 생성하고, 영상제어부(410)에 전송할 수 있다. 이에 따라 영상제어부(410)는 주기적으로 전송되는 좌안이미지와 우안이미지를 기반으로 응시지점 및 응시지점에 대응되는 대상을 결정할 수 있다. The
제어부(400)는 스마트안경(10)를 제어하는 기능을 수행한다. 제어부(400)는, 영상제어부(410), 응시추적부(420), 대상결정부(430), 표시가능판단부(440), 피드백수신부(450)를 포함한다. The
도 2는 동공사이거리에 따른 가상객체의 깊이감을 설명하기 위한 도면이다.2 is a diagram for explaining a sense of depth of a virtual object according to a pupillary distance.
영상제어부(410)는 센서부(300)에서 측정된 제1 내지 제3 거리를 기초로 가상객체의 깊이감을 조정한다. The
도 2를 참조하면, 동공사이거리가 k1인 사용자가 스마트안경을 착용했을 때 좌안렌즈(200L)에 맺히는 좌안 가상이미지에 포함된 좌안 가상객체(lv1)와 우안렌즈(200R)에 맺히는 우안 가상이미지에 포함된 우안 가상객체(rv1)의 조합에 의해 깊이감(m1)을 갖는 가상객체(ck1)가 사용자에게 보인다.Referring to FIG. 2 , when a user with a pupil distance k1 wears smart glasses, a left eye virtual object lv1 included in the left eye virtual image formed on the
한편, 동공사이거리가 k2인 사용자가 스마트안경을 착용했을 때 좌안렌즈(200L)에 맺히는 좌안 가상이미지에 포함된 좌안 가상객체(lv1)와 우안렌즈(200R)에 맺히는 우안 가상이미지에 포함된 우안 가상객체(rv1)의 조합에 의해 깊이감(l1)을 갖는 가상객체(ck2)가 사용자에게 보인다.Meanwhile, when a user with a pupillary distance of k2 wears smart glasses, the left eye virtual object lv1 included in the left eye virtual image formed on the
즉, 동공사이거리가 k1에서 k2로 커질수록, 가상객체의 깊이감은 m1에서 l1으로 작아진다. 가상객체의 깊이감은 동공사이거리가 서로 다른 사람들마다 서로 다르게 나타나게 되며, 그에 따라 사람마다 느끼는 몰입감이 서로 다를 수 있다. That is, as the interpupillary distance increases from k1 to k2, the sense of depth of the virtual object decreases from m1 to l1. The sense of depth of the virtual object appears differently for each person with a different interpupillary distance, and accordingly, the sense of immersion felt by each person may be different.
도 3은 도 2에 도시된 동공사이거리가 k2인 사용자에게 표시되는 가상객체의 깊이감이 영상제어부에 의해 조정되는 과정을 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining a process in which a sense of depth of a virtual object displayed to a user having a pupillary distance of k2 shown in FIG. 2 is adjusted by an image controller.
도 3을 참조하면, 동공사이거리가 k2인 사용자가 느끼는 제3 가상객체의 깊이감을 변경하기 위해, 영상제어부(410)는 좌안 가상객체(lv1)의 위치를 좌측으로 이동시키고, 우안 가상객체(rv1)의 위치를 우측으로 이동시켜 동공사이거리가 k2인 사용자와 k1인 사용자가 느끼는 가상객체(ck3)의 깊이감(m1)을 서로 동일하게 만들 수 있다. 즉, 영상제어부(410)는 좌안 가상객체 및 우안 가상객체의 간격을 변경함으로써 가상객체의 깊이감을 변경할 수 있다. Referring to FIG. 3 , in order to change the sense of depth of the third virtual object felt by a user with a pupillary distance k2, the
구체적으로 좌안동공에서 좌안렌즈로 수선을 내려서 만나는 위치(lv0)에서부터 좌안렌즈 상에서 수정 전 좌안 가상객체(lv1)의 위치까지의 거리를 re1'로 설정하고, 좌안동공에서 좌안렌즈에 수선을 내릴 때 만나는 위치(lv0)에서부터 좌안렌즈 상에서 수정후 좌안 가상객체(lv2)의 위치까지의 거리를 re1''로 설정한다. 이때 수정전 좌안 가상객체(lv1) 및 수정전 우안 가상객체(rv1)은 특정 동공사이 거리를 갖는 사용자에 대해 설정된 것이다.Specifically, when setting the distance from the position (lv0) where the line from the left eye pupil to the left eye lens meets and the position of the left eye virtual object (lv1) before correction on the left eye lens is set as re1', and the line from the left eye pupil to the left eye lens is lowered The distance from the meeting position (lv0) to the position of the left eye virtual object (lv2) after correction on the left eye lens is set as re1''. In this case, the left eye virtual object lv1 before correction and the right eye virtual object rv1 before correction are set for a user having a specific interpupillary distance.
그리고 우안 동공에서 우안렌즈면에 수선을 내릴 때 만나는 위치(rv0)에서부터 우안렌즈 상에서 수정전 우안 가상객체(rv1)의 위치까지의 거리를 re2'로 설정하고, 우안동공에서 우안렌즈에 수선을 내릴 때 만나는 위치(rv0)에서부터 우안렌즈 상에서 수정 후 우안 가상객체(rv2)의 위치까지의 거리를 re2''로 설정한다.Then, the distance from the meeting point (rv0) from the right eye pupil when lowering the right eye lens surface to the position of the right eye virtual object (rv1) on the right eye lens before correction is set as re2', The distance from the meeting point (rv0) to the position of the right eye virtual object (rv2) after correction on the right eye lens is set as re2''.
그리고 수정 전 좌안 가상객체(lv1)과 수정 전 우안 가상객체(rv1)의 조합에 의해 사용자에게 보이는 수정 전 가상객체(ck2)의 위치에서 양안 동공을 잇는 선분에 수선을 내렸을 때 만나는 점에서부터 좌안, 우안 각각까지의 거리를 k21, k22로 설정한다. 이때 re11'는 k21을 수정전 가상객체(ck2)의 깊이감(m1)으로 나눈 값에 k21을 곱한 값으로 산출된다. In addition, from the point where the line segment connecting the pupils of both eyes is drawn from the location of the virtual object (ck2) before modification seen to the user by the combination of the left eye virtual object (lv1) before modification and the right eye virtual object (rv1) before modification, the left eye, The distances to each of the right eyes are set to k21 and k22. At this time, re11' is calculated as a value obtained by dividing k21 by the sense of depth (m1) of the virtual object (ck2) before modification and multiplying by k21.
그리고 de는 좌안렌즈와 좌안동공 사이의 거리 또는 우안렌즈와 우안동공 사이의 거리를 의미한다.And de means the distance between the left eye lens and the left eye pupil or the distance between the right eye lens and the right eye pupil.
좌안렌즈 상에서 수정전 좌안 가상객체(lv1)와 수정후 좌안 가상객체(lv2)의 위치차이(re1)와, 우안렌즈 상에서 수정전 우안 가상객체(rv1)와 수정후 우안 가상객체(rv2)의 위치차이(re2)는 아래의 수학식 1 내지 4에 의해 구해진다(abs는 절대값을 의미). 그리고 수학식4는 수학식3에 대응되도록 산출된 식이다.Position difference (re1) between the left eye virtual object (lv1) before correction and the left eye virtual object (lv2) after correction on the left eye lens, and the position difference between the right eye virtual object (rv1) before correction and the right eye virtual object (rv2) after correction (rv2) on the right eye lens ( re2) is obtained by
좌안렌즈 상에서 수정전 좌안 가상객체(lv1)와 수정후 좌안 가상객체(lv2)의 위치차이(re1)와, 우안렌즈 상에서 수정 전 우안 가상객체(rv1)와 수정 후 우안 가상객체(rv2)의 위치차이(re2)는 보정하는 방법은, 광출사부에 의해 출사되는 영상데이터가 픽셀단위로 시프팅됨으로써 구현될 수 있다. 즉, 영상제어부는 가상객체의 깊이감 조정을 위해 좌안 가상객체 및 우안 가상객체를 픽셀단위로 시프팅시키되, 좌안 가상객체 및 우안 가상객체의 렌즈 상에서의 위치에 따라 시프팅되는 픽셀 정도를 고려하여 가상객체의 깊이감을 조정할 수 있다. Position difference (re1) between the left eye virtual object (lv1) before correction and the left eye virtual object (lv2) after correction on the left eye lens, and the position difference between the right eye virtual object (rv1) before correction and the right eye virtual object (rv2) after correction on the right eye lens (re2) may be implemented by shifting the image data emitted by the light emitting unit in units of pixels. That is, the image controller shifts the left-eye virtual object and the right-eye virtual object in units of pixels to adjust the sense of depth of the virtual object, and considers the degree of shifted pixels according to the positions of the left-eye virtual object and the right-eye virtual object on the lens. You can adjust the depth of the virtual object.
본 발명에 따르면, 영상제어부의 가상객체의 깊이감 조절은 초점조절 시뿐만 아니라, 스마트안경을 사용중일 때에도 깊이감 조절이 가능하다는 장점이 있다. 즉, 시선방향이 정면 중앙이 아닌 경우에도 가상객체의 깊이감 조절이 가능하다.According to the present invention, the depth control of the virtual object of the image controller has the advantage that the depth control is possible not only when the focus is adjusted, but also when the smart glasses are being used. That is, it is possible to adjust the sense of depth of the virtual object even when the viewing direction is not the front center.
본 발명에 따르면, 본 발명의 가상객체의 깊이감 조절은, 좌안렌즈로부터 좌안동공까지의 거리 또는 우안렌즈로부터 우안동공까지의 거리를 고려하므로, 가상객체의 깊이감을 보다 더 정확하게 조정할 수 있다.According to the present invention, since the distance from the left eye lens to the pupil of the left eye or the distance from the right eye lens to the pupil of the right eye is considered in adjusting the sense of depth of the virtual object, the sense of depth of the virtual object can be more accurately adjusted.
영상제어부(410)는 사용자의 제어 하에 수동으로 가상객체의 깊이감을 조정할 수 있다.The
또는 이와는 달리 저장부(600)에 저장된 위치보정정보를 기반으로 자동으로 가상객체의 깊이감을 조정할 수 있다. Alternatively, the sense of depth of the virtual object may be automatically adjusted based on the position correction information stored in the
도 4는 도 1에 도시된 저장부에 저장된 위치보정정보를 설명하기 위한 도면이다. FIG. 4 is a diagram for explaining location correction information stored in the storage unit shown in FIG. 1 .
도 4를 참조하면, 위치보정정보는 복수의 동공사이거리 k 각각에 대한 좌안영상 및 우안영상 각각에 대한 픽셀위치별 픽셀위치보정정도값을 포함한다. 픽셀위치보정정도값은 영상을 표시할 픽셀의 위치보정정도로서, 영상시프팅정도를 의미하며, 수학식 3 및 4에서 re1, re2에 대응되는 값들을 나타낸다.Referring to FIG. 4 , the position correction information includes pixel position correction degree values for each pixel position of a left eye image and a right eye image for each of a plurality of inter-pupillary distances k. The pixel position correction degree value is a position correction degree of a pixel to display an image, means an image shifting degree, and represents values corresponding to re1 and re2 in
예를 들어, 동공사이거리가 K-3인 경우, 좌안 가상객체가 m번째 픽셀에 표현되고, 우안 가상객체가 n번째 픽셀에 표현될 때, 저장부(600)에 저장된 위치보정정보에서, 좌안 가상객체의 위치보정정도가 -△5이고, 우안 가상객체의 위치보정정도가 +△2인 경우, 영상제어부(410)는 좌안의 경우, m-5번째 픽셀에서 좌안 가상객체가 표시되게 하고, 우안의 경우, n+2번째 픽셀에서 우안 가상객체가 표시되도록 보정한다.For example, when the interpupillary distance is K-3, when the left eye virtual object is expressed at the m-th pixel and the right eye virtual object is expressed at the n-th pixel, in the position correction information stored in the
이때 영상제어부(410)는 상술한 바와 같이 광출사부(210)에 의해 출력되는 가상객체를 포함하는 픽셀의 위치를 조정하여 가상객체의 깊이감을 변경할 수 있을 뿐만 아니라 영상제어부(410)는 가상객체의 크기, 색, 형태, 위치, 깊이감 등을 변형할 수 있다. 특히 영상제어부(410)는 가상객체의 깊이감에 글자의 색을 변경함으로써, 사용자로 하여금 가상객체의 깊이감을 직관적으로 인식할 수 있게 할 수도 있다.At this time, as described above, the
응시추적부(420)는, 이미지센서(440)를 이용하여 사용자의 응시지점을 판단한다.The
대상결정부(430)는, 응시추적부(420)에 의해 판단된 사용자의 응시시점 및 이미지센서(440)로부터 전송되는 외부이미지를 기반으로 응시지점에 대응되는 대상을 결정한다. 이때 대상결정부(430)는 대상의 크기, 색, 형태를 판단할 수 있다.The
표시가능판단부(440)는, 대상결정부(430)에 의해 판단된 대상의 크기, 색, 형태 등 대상정보를 기반으로, 가상객체를 분석 즉, 가상객체 내에 글자를 포함하는 지 여부와 같은 가상객체정보를 분석하여 대상에 가상객체를 표시할 수 있는지 여부를 판단한다. The display
대상에 가상객체를 표시할 수 있는 경우, 영상제어부(410)는 가상객체의 크기, 색, 형태 등을 변형하지 않을 수 있다. 대상에 가상객체를 표시할 수 없는 경우로 판단되면, 영상제어부(410)는 가상객체의 크기, 색, 형태 등을 변경하여 표시할 수 있다. When the virtual object can be displayed on the target, the
한편, 표시가능판단부(440)는 가상객체 내에 글자의 포함여부를 판단하고, 대상에 글자가 표현되었을 때 글자크기가 일정크기 이하인 경우, 영상제어부(410)는 사용자에게 가상객체를 표시할 수 없다는 알람을 표시하고 가상객체가 표시될 수 있는 사용자의 위치 또는 가상객체가 표시될 수 있는 대상의 위치를 표시할 수 있다. On the other hand, the
피드백수신부(450)는 사용자로부터 깊이감이 조정된 가상객체의 깊이감에 대한 사용자의 응답을 수신한다. 이에 대해 영상제어부(410)는 사용자의 응답에 기초하여 가상객체의 깊이감을 추가 조정 여부를 결정할 수 있다. 또한 영상제어부(410)는, 사용자의 응답에 의해 상기 가상객체의 깊이감의 추가조정이 필요한 것으로 판단된 경우, 영상제어부는 사용자에 의해 선택될 수 있는 복수의 서로 다른 깊이감을 갖는 가상객체들을 생성하여 광출사부(500)가 좌안렌즈 및 우안렌즈에 각각 출사할 수 있다. The
저장부(600)는, 복수의 동공사이거리인 제1 거리에 따른 픽셀의 위치보정정보를 포함하거나, 복수의 동공사이거리인 제1 거리 및 복수의 눈과 렌즈 사이의 거리인 제2 거리에 따른 픽셀의 위치보정정보를 포함하거나, 복수의 동공사이거리인 제1 거리, 복수의 눈과 렌즈 사이의 거리인 제2 거리, 대상까지의 거리인 제3 거리에 따른 픽셀의 위치보정정보를 포함할 수 있다.The
도 5는 본 발명의 제2 실시예에 따른 스마트안경을 설명하기 위한 도면이고, 도 6은 도 5에 도시된 프레임부를 설명하기 위한 도면이다. 도 7a 및 7b는 도 5에 도시된 스마트안경의 가상객체의 깊이조정방법을 설명하기 위한 도면이다.5 is a diagram for explaining smart glasses according to a second embodiment of the present invention, and FIG. 6 is a diagram for explaining the frame portion shown in FIG. 5 . 7A and 7B are diagrams for explaining a method for adjusting a depth of a virtual object of the smart glasses shown in FIG. 5 .
도 5 및 6을 참조하면, 스마트안경(10)는 프레임부(100), 렌즈부(200), 센서부(300), 제어부(400), 광출사부(500), 저장부(600)를 포함한다. 제1 실시예에서의 설명과 중복되는 설명은 생략한다.5 and 6, the
프레임부(100)는 좌안렌즈(200L) 및 우안렌즈(200R)을 지지하는 좌안전면프레임(110L) 및 우안렌즈(200R)을 지지하는 우안전면프레임(110R)을 포함하는 전면프레임(110) 및 전편프레임(110)의 외측부분에서 연장되는 좌측면프레임 및 우측프레임(120L, 120R)과, 전면프레임(110)의 내측부분에서 서로 마주보는 형태로 연장되는 좌측연장부 및 우측연장부(130L, 130R)을 포함한다. The
좌측연장부 및 우측연장부(130L, 130R)는 동작조절부(140)에 고정되어 안경 형태를 유지한다. The left and
거리조절부(140)는 좌측연장부(130L)와 우측연장부(130R) 사이의 거리를 조정하는 기능을 수행한다.The
제1 실시예의 스마트안경은 좌안 가상이미지 내 좌안 가상객체, 우안 가상이미지 내 우안 가상객체의 위치를 조정하여 가상객체의 깊이감을 조절하지만, 제2 실시예의 스마트안경(10)는 좌안렌즈(200L) 및 우안렌즈(200R) 사이의 거리인 렌즈간 거리를 물리적으로 조절하여 가상객체의 깊이감을 조절한다.The smart glasses of the first embodiment adjust the depth of the virtual object by adjusting the positions of the left eye virtual object in the left eye virtual image and the right eye virtual object in the right eye virtual image, but the
센서부(300) 중 제1 거리측정부(310)는 사용자의 동공사이거리인 제1 거리를 측정하고, 제어부(400)에 전송한다.The first
동작제어부(411)는 저장부(600)에 저장된 위치보정정보를 기반으로, 렌즈간 거리를 조정하도록, 거리조절부(140)를 제어한다. The
저장부(600)는 복수의 동공사이거리 각각에 대한 렌즈간 거리를 포함하는 위치보정정보를 포함한다. 제1 실시예와 달리 제2 실시예의 저장부는 동공사이거리 각각에 대한 우안렌즈 또는 좌안렌즈까지의 거리에 대한 정보를 포함한다. The
도 7a의 경우, 좌안렌즈(200L)과 우안렌즈(200R) 각각을 동시에 조정하여 가상객체의 깊이감을 조정하는 스마트안경을 도시하며, 도 7b의 경우, 좌안렌즈(200L)과 우안렌즈(200R) 중 어느 하나의 렌즈의 위치를 조정하여 가상객체의 깊이감을 조정하는 스마트안경을 도시한다.In the case of FIG. 7A, the
도 7a 및 7b를 참조하면, 좌안렌즈(200L)과 우안렌즈(200R)의 사이 간격이 가까워질수록 가상객체의 깊이감은 얕아지고, 간격이 멀어질수록 가상객체의 깊이감은 깊어진다. Referring to FIGS. 7A and 7B , as the distance between the
도 8은 본 발명의 제3 실시예에 따른 스마트안경을 설명하기 위한 도면이고, 도 9는 도 8에 도시된 프레임부를 설명하기 위한 도면이다. 도 10a 및 10b는 도 가상객체의 깊이조정방법을 설명하기 위한 도면이다.8 is a diagram for explaining smart glasses according to a third embodiment of the present invention, and FIG. 9 is a diagram for explaining the frame portion shown in FIG. 8 . 10A and 10B are diagrams for explaining a method for adjusting the depth of a virtual object.
도 8 및 도 9를 참조하면, 스마트안경(10)는 프레임부(100), 렌즈부(200), 센서부(300), 제어부(400), 광출사부(500), 저장부(600)를 포함한다. 제1 실시예에서의 설명과 중복되는 설명은 생략한다.8 and 9, the
프레임부(100)는 전면프레임(110)은 좌안렌즈(200L)을 지지하는 좌측전면프레임(110L) 및 우안렌즈(200R)을 지지하는 우측전면프레임(110R)를 포함하는 전면프레임(110) 및 전편프레임(110)의 외측부분에서 연장되는 좌측면프레임 및 우측프레임(120L, 120R)과, 좌안 전면프레임(110L) 및 우안 전면프레임(110R) 각각이 서로 마주보는 형태로 연장되는 좌측연장부 및 우측연장부(130L, 130R)을 포함한다. The
좌측연장부 및 우측연장부(130L, 130R)는 각도조절부(141)에 고정되어 안경 형태를 유지한다. The left and
각도조절부(141)는 좌안렌즈(200L)와 우안렌즈(200R)이 이루는 각도를 조정하여 가상객체의 깊이감을 조정하는 기능을 수행한다.The angle adjusting unit 141 performs a function of adjusting a sense of depth of a virtual object by adjusting an angle between the
제1 실시예의 스마트안경은 좌안 가상객체, 우안 가상객체가 표시되는 픽셀의 위치를 조정하여 가상객체의 깊이감을 조절하지만, 제3 실시예의 스마트안경(10)는 좌안렌즈(200L) 및 우안렌즈(200R)가 이루는 렌즈간 각도를 물리적으로 조절하여 가상객체의 깊이감을 조절한다.The smart glasses of the first embodiment adjust the depth of the virtual object by adjusting the positions of the pixels on which the left and right eye virtual objects are displayed, but the
센서부(300) 중 제1 거리측정부는 사용자의 동공사이거리인 제1 거리를 측정하고, 제어부(400)에 전송한다.The first distance measurement unit of the
동작제어부(411)는 저장부(600)에 저장된 각도보정정보를 기반으로, 렌즈간 각도를 조정하도록, 각도조절부(140)를 제어한다. The
저장부(600)는 복수의 동공사이거리 각각에 대한 렌즈간 각도를 포함하는 각도보정정보를 포함한다. 제1 실시예와 달리 제2 실시예의 저장부는 동공사이거리 각각에 대한 렌즈의 각도조정정보에 대한 정보를 포함한다 The
도 10a 및 10b를 참조하면, 좌안렌즈(200L)과 우안렌즈(200R)가 이루는 각도가 180도를 기준으로, 좌안렌즈(200L)와 우안렌즈(200R)가 이루는 각도가 변경되면 가상객체의 깊이감이 달라진다. Referring to FIGS. 10A and 10B , when the angle formed by the
한편 도 10a의 경우, 좌안렌즈(200L) 및 우안렌즈(200R)가 이루는 렌즈간 각도가 180도인 경우, 가상객체의 깊이감이 l1, m1으로 측정되었으나, 도 10b와 같이 좌안렌즈(200L) 및 우안렌즈(200R)가 이루는 렌즈의 각도를 조정함으로써, 가상객체의 깊이감을 조정할 수 있다. Meanwhile, in the case of FIG. 10A, when the angle between the lenses formed by the
앞에서 설명된 본 발명의 어떤 실시예들 또는 다른 실시예들은 서로 배타적이거나 구별되는 것은 아니다. 앞서 설명된 본 발명의 어떤 실시예들 또는 다른 실시예들은 각각의 구성 또는 기능이 병용되거나 조합될 수 있다.Certain or other embodiments of the present invention described above are not mutually exclusive or distinct from each other. Certain or other embodiments of the present invention described above may be used in combination or combination of respective components or functions.
예를 들어 특정 실시예 및/또는 도면에 설명된 A 구성과 다른 실시예 및/또는 도면에 설명된 B 구성이 결합될 수 있음을 의미한다. 즉, 구성 간의 결합에 대해 직접적으로 설명하지 않은 경우라고 하더라도 결합이 불가능하다고 설명한 경우를 제외하고는 결합이 가능함을 의미한다.For example, configuration A described in a specific embodiment and/or drawing may be combined with configuration B described in another embodiment and/or drawing. That is, even if the combination between the components is not directly explained, it means that the combination is possible except for the case where the combination is impossible.
상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.
10: 스마트안경
100: 프레임부
110: 전면프레임
120: 측면프레임
200: 렌즈부
300: 센서부
310, 320, 330: 제1, 제2, 제3 거리측정부
340: 이미지센서부
400: 제어부
410: 영상제어부
420: 응시추적부
430: 대상결정부
440: 표시가능판단부10: smart glasses
100: frame part
110: front frame
120: side frame
200: lens unit
300: sensor unit
310, 320, 330: first, second, third distance measuring unit
340: image sensor unit
400: control unit
410: video control unit
420: gaze tracking unit
430: target determination unit
440: displayable determination unit
Claims (6)
상기 좌안 가상이미지에 포함된 좌안 가상객체의 위치 및 상기 우안 가상이미지에 포함된 우안 가상객체의 위치 각각을 조정하여 상기 좌안 및 우안 가상객체의 조합에 의해 사용자에게 보이는 가상객체의 깊이감을 조정하는 영상제어부를 포함하는 것을 특징으로 하는 스마트 안경.In smart glasses having a left eye lens on which a left eye virtual image is formed and a right eye lens on which a right eye virtual image is formed,
An image of adjusting the depth of a virtual object visible to a user by a combination of the left and right eye virtual objects by adjusting the position of the left eye virtual object included in the left eye virtual image and the right eye virtual object included in the right eye virtual image, respectively. Smart glasses comprising a control unit.
상기 영상제어부는, 사용자의 입력에 기초하여, 상기 좌안 가상객체의 위치 및 상기 우안 가상객체의 위치 각각을 조정하는 것을 특징으로 하는 스마트 안경.According to claim 1,
The smart glasses according to claim 1 , wherein the image controller adjusts a position of the left eye virtual object and a position of the right eye virtual object, respectively, based on a user's input.
동공사이거리인 제1 거리를 측정하는 제1 거리측정부; 및
상기 좌안렌즈 및 상기 우안렌즈 중 어느 하나와 동공 사이의 제2 거리를 측정하는 제2 거리측정부를 더 포함하고,
상기 영상제어부는, 상기 제1 거리 및 상기 제2 거리에 기초하여 상기 좌안 및 우안 가상객체의 위치를 조정하는 것을 특징으로 하는 스마트 안경. According to claim 1,
a first distance measurement unit that measures a first distance that is the inter-pupillary distance; and
A second distance measuring unit for measuring a second distance between one of the left eye lens and the right eye lens and the pupil;
The smart glasses according to claim 1 , wherein the image controller adjusts positions of the left and right eye virtual objects based on the first distance and the second distance.
사용자로부터 상기 깊이감이 조정된 가상객체의 깊이감에 대한 사용자의 응답을 수신하는 피드백수신부를 더 포함하고,
상기 영상제어부는, 상기 사용자의 응답에 기초하여, 상기 가상객체의 깊이감을 추가 조정 여부를 결정하는 것을 특징으로 하는 스마트 안경.According to claim 3,
A feedback receiver configured to receive a response from a user about the sense of depth of the virtual object whose sense of depth is adjusted, from the user;
The smart glasses according to claim 1 , wherein the image controller determines whether to additionally adjust the depth of the virtual object based on the user's response.
우안 가상객체가 표시되는 우안렌즈;
상기 좌안렌즈 및 상기 우안렌즈 사이의 거리를 조정하여 상기 좌안 가상객체 및 상기 우안 가상객체의 조합에 의해 형성되는 가상객체의 깊이감을 변경하는 간격조정부를 포함하는 스마트안경.a left eye lens displaying a left eye virtual object;
a right eye lens displaying a right eye virtual object;
and an interval adjuster configured to change a sense of depth of a virtual object formed by a combination of the left eye virtual object and the right eye virtual object by adjusting a distance between the left eye lens and the right eye lens.
우안 가상객체가 표시되는 우안렌즈; 및
상기 좌안렌즈 및 상기 우안렌즈 중 적어도 하나의 전방방향으로의 각도를 변경하여 상기 좌안 가상객체 및 상기 우안 가상객체의 조합에 의해 형성되는 가상객체의 깊이감을 변경하는 각도조정부를 포함하는 스마트안경.a left eye lens displaying a left eye virtual object;
a right eye lens displaying a right eye virtual object; and
and an angle adjustment unit configured to change a sense of depth of a virtual object formed by a combination of the left eye virtual object and the right eye virtual object by changing an angle of at least one of the left eye lens and the right eye lens in a forward direction.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210150279 | 2021-11-04 | ||
KR20210150279 | 2021-11-04 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230065846A true KR20230065846A (en) | 2023-05-12 |
Family
ID=86385860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210177801A KR20230065846A (en) | 2021-11-04 | 2021-12-13 | Smart glasses |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230065846A (en) |
-
2021
- 2021-12-13 KR KR1020210177801A patent/KR20230065846A/en not_active Application Discontinuation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7036773B2 (en) | Virtual and augmented reality systems and methods | |
JP7094266B2 (en) | Single-depth tracking-accommodation-binocular accommodation solution | |
CN108600733B (en) | Naked eye 3D display method based on human eye tracking | |
US10401953B2 (en) | Systems and methods for eye vergence control in real and augmented reality environments | |
US10591735B2 (en) | Head-mounted display device and image display system | |
US10623721B2 (en) | Methods and systems for multiple access to a single hardware data stream | |
JP5515301B2 (en) | Image processing apparatus, program, image processing method, recording method, and recording medium | |
US20150187115A1 (en) | Dynamically adjustable 3d goggles | |
CN109324413A (en) | Near-to-eye display system and operation method thereof | |
US11550151B2 (en) | Method of determining an eye parameter of a user of a display device | |
US11006101B2 (en) | Viewing device adjustment based on eye accommodation in relation to a display | |
WO2016098412A1 (en) | Head-worn display device, and image display system | |
KR20070078225A (en) | 3d image displaying apparatus and method using eye detection information | |
US8692870B2 (en) | Adaptive adjustment of depth cues in a stereo telepresence system | |
US11736674B2 (en) | Dynamic convergence adjustment in augmented reality headsets | |
KR101203921B1 (en) | Information providing apparatus using an eye tracking and local based service | |
JP2014106532A (en) | Three-dimensional image display device | |
CN110794590A (en) | Virtual reality display system and display method thereof | |
KR20230065846A (en) | Smart glasses | |
JP3325323B2 (en) | Display device | |
CN211786414U (en) | Virtual reality display system | |
WO2024047990A1 (en) | Information processing device | |
WO2023102500A1 (en) | Methods for controlling performance of extended reality display systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |