KR20230065846A - Smart glasses - Google Patents

Smart glasses Download PDF

Info

Publication number
KR20230065846A
KR20230065846A KR1020210177801A KR20210177801A KR20230065846A KR 20230065846 A KR20230065846 A KR 20230065846A KR 1020210177801 A KR1020210177801 A KR 1020210177801A KR 20210177801 A KR20210177801 A KR 20210177801A KR 20230065846 A KR20230065846 A KR 20230065846A
Authority
KR
South Korea
Prior art keywords
virtual object
right eye
left eye
distance
depth
Prior art date
Application number
KR1020210177801A
Other languages
Korean (ko)
Inventor
채 열 임
Original Assignee
주식회사 카이비전
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 카이비전 filed Critical 주식회사 카이비전
Publication of KR20230065846A publication Critical patent/KR20230065846A/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Abstract

본 발명은 가상객체의 깊이감을 조정할 수 있는 스마트안경에 관한 것으로서, 본 발명의 좌안 가상이미지가 맺히는 좌안렌즈와, 우안 가상이미지가 맺히는 우안렌즈를 구비하는 스마트안경은, 상기 좌안 가상이미지에 포함된 좌안 가상객체의 위치 및 상기 우안 가상이미지에 포함된 우안 가상객체의 위치 각각을 조정하여 상기 좌안 및 우안 가상객체의 조합에 의해 사용자에게 보이는 가상객체의 깊이감을 조정하는 영상제어부를 포함한다. The present invention relates to smart glasses capable of adjusting the sense of depth of a virtual object, and the smart glasses having a left eye lens on which a left eye virtual image is formed and a right eye lens on which a right eye virtual image is formed, the smart glasses included in the left eye virtual image and an image controller configured to adjust a depth of a virtual object visible to a user by a combination of the left and right eye virtual objects by adjusting a position of a left eye virtual object and a position of a right eye virtual object included in the right eye virtual image, respectively.

Description

스마트안경{SMART GLASSES}Smart glasses {SMART GLASSES}

본 발명은 스마트안경에 관한 것으로서, 보다 상세하게는 사용자에게 보이는 가상객체의 깊이감 조절이 가능한 스마트안경에 관한 것이다.The present invention relates to smart glasses, and more particularly, to smart glasses capable of adjusting a sense of depth of a virtual object visible to a user.

증강현실(Augmented Reality, AR)은 실제 환경에 가상 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 기술을 말한다. Augmented Reality (AR) refers to a technology that synthesizes virtual objects or information in a real environment to make them look like objects existing in the original environment.

혼합현실 (Mixed Reality, MR) 혹은 혼성현실 (Hybrid reality)은 가상 세계와 현실 세계를 합쳐서 새로운 환경이나 새로운 정보를 만들어 내는 것을 말한다. 특히, 실시간으로 현실과 가상에 존재하는 것 사이에서 실시간으로 상호작용할 수 있는 것을 말할 때 혼합현실이라 한다. Mixed Reality (MR) or Hybrid reality refers to creating a new environment or new information by combining the virtual world and the real world. In particular, it is called mixed reality when it refers to real-time interaction between reality and virtual reality in real time.

이 때, 만들어진 가상의 환경이나 상황 등은 사용자의 오감을 자극하며 실제와 유사한 공간적, 시간적 체험을 하게 함으로써 현실과 상상의 경계를 자유롭게 드나들게 한다. 또한 사용자는 이러한 환경에 단순히 몰입할 뿐 만 아니라 실재하는 디바이스를 이용해 조작이나 명령을 가하는 등 이러한 환경 속에 구현된 것들과 상호작용이 가능하다. At this time, the created virtual environment or situation stimulates the user's five senses and allows them to freely move in and out of the boundary between reality and imagination by allowing them to have a spatial and temporal experience similar to the real one. In addition, users are not only immersed in these environments, but also interact with things implemented in these environments, such as manipulating or giving commands using real devices.

최근 이러한 기술분야에 사용되는 장비에 대한 연구가 활발히 이루어지고 있다. 한편, 사용자 마다 동공의 위치가 달라서 동공사이거리(IPD)가 다른데, 빛이 눈으로 입사하는 경로가 제품의 제작 과정에서 미리 정해져 있기 때문에, 동공사이거리가 서로 다른 사용자마다 가상객체에 대한 깊이감을 서로 다르게 느낄 수 있다. Recently, research on equipment used in these technical fields has been actively conducted. On the other hand, since the position of the pupil is different for each user, the interpupillary distance (IPD) is different. Since the path through which light enters the eyes is pre-determined in the manufacturing process of the product, each user with a different pupil distance has a different sense of depth for the virtual object. can feel different.

본 발명은 서로 다른 동공사이거리를 갖는 사용자가 모두 동일한 깊이감을 느낄 수 있도록 가상객체의 깊이감을 조절 가능한 스마트안경을 제공함에 그 목적이 있다. An object of the present invention is to provide smart glasses capable of adjusting a sense of depth of a virtual object so that all users having different interpupillary distances can feel the same sense of depth.

본 발명의 실시예에 따른 좌안 가상이미지가 맺히는 좌안렌즈와, 우안 가상이미지가 맺히는 우안렌즈를 구비하는 스마트안경은, 상기 좌안 가상이미지에 포함된 좌안 가상객체의 위치 및 상기 우안 가상이미지에 포함된 우안 가상객체의 위치 각각을 조정하여 상기 좌안 및 우안 가상객체의 조합에 의해 사용자에게 보이는 가상객체의 깊이감을 조정하는 영상제어부를 포함한다. Smart glasses having a left eye lens on which a left eye virtual image is formed and a right eye lens on which a right eye virtual image is formed according to an embodiment of the present invention, the position of the left eye virtual object included in the left eye virtual image and the right eye virtual image included in the and an image controller configured to adjust a sense of depth of a virtual object visible to a user by a combination of the left and right eye virtual objects by adjusting each position of the right eye virtual object.

또한 실시예에 있어서, 상기 영상제어부는, 사용자의 입력에 기초하여, 상기 좌안 가상객체의 위치 및 상기 우안 가상객체의 위치 각각을 조정한다.In an embodiment, the image controller adjusts the position of the left eye virtual object and the right eye virtual object, respectively, based on a user's input.

또한 실시예에 있어서, 동공사이거리인 제1 거리를 측정하는 제1 거리측정부; 및 상기 좌안렌즈 및 상기 우안렌즈 중 어느 하나와 동공 사이의 제2 거리를 측정하는 제2 거리측정부를 더 포함하고, 상기 영상제어부는, 상기 제1 거리 및 상기 제2 거리에 기초하여 상기 좌안 및 우안 가상객체의 위치를 조정한다.In another embodiment, a first distance measurement unit for measuring a first distance that is the inter-pupillary distance; and a second distance measurer configured to measure a second distance between one of the left eye lens and the right eye lens and the pupil, wherein the image control unit controls the left eye and the second distance based on the first distance and the second distance. Adjust the position of the right eye virtual object.

또한 실시예에 있어서, 사용자로부터 상기 깊이감이 조정된 가상객체의 깊이감에 대한 사용자의 응답을 수신하는 피드백수신부를 더 포함하고, 상기 영상제어부는, 상기 사용자의 응답에 기초하여, 상기 가상객체의 깊이감을 추가 조정 여부를 결정한다.In the embodiment, the feedback receiver may further include a feedback receiving unit configured to receive a response from a user regarding a sense of depth of a virtual object having an adjusted sense of depth, and the image control unit may, based on the user's response, control the virtual object Determines whether or not to further adjust the sense of depth.

본 발명의 실시예에 따른 좌안 가상이미지가 맺히는 좌안렌즈와, 우안 가상이미지가 맺히는 우안렌즈를 구비하는 스마트안경은 좌안 가상객체가 표시되는 좌안렌즈; 우안 가상객체가 표시되는 우안렌즈; 상기 좌안렌즈 및 상기 우안렌즈 사이의 거리를 조정하여 상기 좌안 가상객체 및 상기 우안 가상객체의 조합에 의해 형성되는 가상객체의 깊이감을 변경하는 간격조정부를 포함한다.Smart glasses having a left eye lens on which a left eye virtual image is formed and a right eye lens on which a right eye virtual image is formed according to an embodiment of the present invention include a left eye lens on which a left eye virtual object is displayed; a right eye lens displaying a right eye virtual object; and an interval adjuster configured to change a sense of depth of a virtual object formed by a combination of the left eye virtual object and the right eye virtual object by adjusting a distance between the left eye lens and the right eye lens.

본 발명의 실시예에 따른 좌안 가상이미지가 맺히는 좌안렌즈와, 우안 가상이미지가 맺히는 우안렌즈를 구비하는 스마트안경은 좌안 가상객체가 표시되는 좌안렌즈; 우안 가상객체가 표시되는 우안렌즈; 및 상기 좌안렌즈 및 상기 우안렌즈 중 적어도 하나의 전방방향으로의 각도를 변경하여 상기 좌안 가상객체 및 상기 우안 가상객체의 조합에 의해 형성되는 가상객체의 깊이감을 변경하는 각도조정부를 포함한다.Smart glasses having a left eye lens on which a left eye virtual image is formed and a right eye lens on which a right eye virtual image is formed according to an embodiment of the present invention include a left eye lens on which a left eye virtual object is displayed; a right eye lens displaying a right eye virtual object; and an angle adjuster configured to change a sense of depth of a virtual object formed by a combination of the left eye virtual object and the right eye virtual object by changing an angle of at least one of the left eye lens and the right eye lens in a forward direction.

본 발명에 따르면, 영상제어부의 가상객체의 깊이감 조절은 초점조절 시뿐만 아니라, 스마트안경을 사용중일 때에도 깊이감 조절이 가능하며, 시선방향이 정면 중앙이 아닌 경우에도 가상객체의 깊이감 조절이 가능하다.According to the present invention, the sense of depth of the virtual object of the image controller can be adjusted not only when the focus is adjusted, but also when smart glasses are being used, and the sense of depth of the virtual object can be adjusted even when the gaze direction is not the front center. possible.

본 발명에 따르면, 본 발명의 가상객체의 깊이감 조절은, 좌안렌즈로부터 좌안동공까지의 거리 또는 우안렌즈로부터 우안동공까지의 거리를 고려하므로, 가상객체의 깊이감을 보다 더 정확하게 조정할 수 있다.According to the present invention, since the distance from the left eye lens to the pupil of the left eye or the distance from the right eye lens to the pupil of the right eye is considered in adjusting the sense of depth of the virtual object, the sense of depth of the virtual object can be more accurately adjusted.

도 1은 본 발명의 제1 실시예에 따른 스마트안경을 설명하기 위한 도면이다.
도 2는 동공사이거리에 따른 가상객체의 깊이감을 설명하기 위한 도면이다.
도 3은 도 2에 도시된 동공사이거리가 k2인 사용자에게 표시되는 가상객체의 깊이감이 영상제어부에 의해 조정되는 과정을 설명하기 위한 도면이다.
도 4는 도 1에 도시된 저장부에 저장된 위치보정정보를 설명하기 위한 도면이다.
도 5는 본 발명의 제2 실시예에 따른 스마트안경을 설명하기 위한 도면이다.
도 6은 도 5에 도시된 프레임부를 설명하기 위한 도면이다.
도 7a 및 7b는 도 5에 도시된 스마트안경의 가상객체의 깊이조정방법을 설명하기 위한 도면이다.
도 8은 본 발명의 제3 실시예에 따른 스마트안경을 설명하기 위한 도면이다.
도 9는 도 8에 도시된 프레임부를 설명하기 위한 도면이다.
도 10a 및 10b는 도 8에 도시된 스마트안경의 가상객체의 깊이조정방법을 설명하기 위한 도면이다.
1 is a diagram for explaining smart glasses according to a first embodiment of the present invention.
2 is a diagram for explaining a sense of depth of a virtual object according to a pupillary distance.
FIG. 3 is a diagram for explaining a process in which a sense of depth of a virtual object displayed to a user having a pupillary distance of k2 shown in FIG. 2 is adjusted by an image controller.
FIG. 4 is a diagram for explaining location correction information stored in the storage unit shown in FIG. 1 .
5 is a diagram for explaining smart glasses according to a second embodiment of the present invention.
FIG. 6 is a diagram for explaining the frame portion shown in FIG. 5 .
7A and 7B are diagrams for explaining a method for adjusting a depth of a virtual object of the smart glasses shown in FIG. 5 .
8 is a diagram for explaining smart glasses according to a third embodiment of the present invention.
FIG. 9 is a view for explaining the frame portion shown in FIG. 8 .
10A and 10B are views for explaining a method for adjusting a depth of a virtual object of the smart glasses shown in FIG. 8 .

본 발명의 실시예의 구성 및 작용에 대하여 첨부한 도면을 참조하여 상세하게 설명한다.The configuration and operation of the embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 제1 실시예에 따른 스마트안경을 설명하기 위한 도면이다.1 is a diagram for explaining smart glasses according to a first embodiment of the present invention.

스마트안경은 증강현실안경, 가상현실안경, 혼합현실안경 중 어느 하나일 수 있다. The smart glasses may be any one of augmented reality glasses, virtual reality glasses, and mixed reality glasses.

도 1을 참조하면, 스마트안경(10)은 프레임부(100), 렌즈부(200), 센서부(300), 제어부(400), 광출사부(500), 저장부(600)를 포함한다. Referring to FIG. 1 , smart glasses 10 include a frame unit 100, a lens unit 200, a sensor unit 300, a controller 400, a light output unit 500, and a storage unit 600. .

프레임부(100)는 전면프레임(110)과, 전면프레임(110)의 양측에서 후방으로 연장되는 한쌍의 측면프레임(120)을 포함할 수 있다. 프레임부(100)는 렌즈부(200), 센서부(300), 제어부(400), 광출사부(500), 저장부(600), 배터리(미도시)를 지지할 수 있다.The frame unit 100 may include a front frame 110 and a pair of side frames 120 extending rearward from both sides of the front frame 110 . The frame unit 100 may support the lens unit 200, the sensor unit 300, the controller 400, the light output unit 500, the storage unit 600, and a battery (not shown).

구체적으로 전면프레임(110)은 사용자의 양안에 대응되는 좌안렌즈(200L) 및 우안렌즈(200R)를 지지한다. 예를 들어, 전면프레임(110)은 렌즈를 둘러싸는 안경테 형태로 마련될 수 있다. 이와 달리 렌즈의 상부 또는 하부만을 지지하거나, 렌즈의 일 측방만을 지지하는 형태로 마련될 수 있다.Specifically, the front frame 110 supports the left eye lens 200L and the right eye lens 200R corresponding to both eyes of the user. For example, the front frame 110 may be provided in the form of a spectacle frame surrounding a lens. Unlike this, it may be provided in the form of supporting only the top or bottom of the lens, or supporting only one side of the lens.

측면프레임(120)에는 센서부(300), 제어부(400), 저장부(600)가 구비될 수 있으며, 광출사부(500)는 전면프레임(110) 또는 측면프레임(120)에 구비될 수 있다. The side frame 120 may include a sensor unit 300, a control unit 400, and a storage unit 600, and the light output unit 500 may be provided on the front frame 110 or the side frame 120. there is.

렌즈부(200)는 좌안렌즈(2OOL)와 우안렌즈(200R)를 포함한다. The lens unit 200 includes a left eye lens 2OOL and a right eye lens 200R.

좌안렌즈(200L)에는 좌안 가상이미지가 맺히고, 우안렌즈(200R)에는 우안 가상이미지가 맺힌다. 좌안 가상이미지는 적어도 하나의 좌안 가상객체를 포함하고, 우안 가상이미지는 좌안 가상이미지에 대응되며, 적어도 하나의 우안 가상객체를 포함한다. 좌안 가상이미지에 포함된 좌안 가상객체와, 우안 가상이미지에 포함된 우안 가상객체의 조합에 의해 깊이감을 갖는 가상객체가 사용자에게 보이게 된다.A left eye virtual image is formed on the left eye lens 200L, and a right eye virtual image is formed on the right eye lens 200R. The left eye virtual image includes at least one left eye virtual object, and the right eye virtual image corresponds to the left eye virtual image and includes at least one right eye virtual object. A virtual object having a sense of depth is visible to the user by a combination of a left eye virtual object included in the left eye virtual image and a right eye virtual object included in the right eye virtual image.

광출사부(500)는 렌즈부(200)에 가상이미지를 조사하여 렌즈부(200)에 가상이미지를 맺히게 한다. 광출사부(500)는 좌안용 광출사부(500L)와 우안용 광출사부(500R)를 포함한다. 좌안용 광출사부(500L)는 좌안렌즈(200L)에 좌안용 가상이미지를 조사하며, 우안용 광출사부(500R)는 우안렌즈(200R)에 우안용 가상이미지를 조사한다. 좌안용 가상이미지, 우안용 가상이미지에는 서로 대응되는 점, 선, 면 등의 도형, 글자, 이미지 중 어느 하나 또는 이들의 조합으로 이루어지는 적어도 하나의 가상객체를 포함한다. The light output unit 500 radiates a virtual image to the lens unit 200 to form a virtual image on the lens unit 200 . The light output unit 500 includes a light output unit 500L for the left eye and a light output unit 500R for the right eye. The light emitting unit 500L for the left eye radiates a virtual image for the left eye to the left lens 200L, and the light emitting unit 500R for the right eye radiates a virtual image for the right eye to the lens 200R for the right eye. The virtual image for the left eye and the virtual image for the right eye include at least one virtual object formed of any one or a combination of figures, letters, and images such as points, lines, and planes corresponding to each other.

센서부(300)는, 스마트안경(10) 내 정보, 스마트안경(10)를 둘러싼 주변환경정보 및 사용자정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함한다. 센서부(300)는 제1 내지 제3 거리측정부(310, 320, 330) 및 이미지센서부(340)를 포함한다. The sensor unit 300 includes one or more sensors for sensing at least one of information within the smart glasses 10, surrounding environment information surrounding the smart glasses 10, and user information. The sensor unit 300 includes first to third distance measurement units 310 , 320 , and 330 and an image sensor unit 340 .

제1 거리측정부(310)는 사용자의 동공 간 거리(IPD)인 제1 거리를 측정한다. 이때 제1 거리측정부(310)는 이미지센서로 구성될 수 있으며, 동공간거리(IPD)의 거리측정은 공지된 방법을 이용할 수 있다.The first distance measuring unit 310 measures a first distance, which is the user's interpupillary distance (IPD). At this time, the first distance measurement unit 310 may be configured as an image sensor, and a known method may be used to measure the distance of the inter-pupillary distance (IPD).

제2 거리측정부(320)는 동공과 렌즈 사이의 거리를 측정한다. 구체적으로 제2 거리측정부(320)는 좌안렌즈와 좌안동공 사이의 거리 또는 우안렌즈와 우안동공 사이의 거리인 제2 거리를 측정한다. The second distance measurement unit 320 measures the distance between the pupil and the lens. Specifically, the second distance measurement unit 320 measures a second distance, which is a distance between the left eye lens and the left eye pupil or a distance between the right eye lens and the right eye pupil.

제3 거리측정부(330)는 스마트안경(10)에서부터 가상객체가 위치하는 대상물까지의 제3 거리를 측정한다. The third distance measuring unit 330 measures a third distance from the smart glasses 10 to an object where the virtual object is located.

이미지센서(440)는 사용자의 좌안과 우안 각각을 주기적으로 촬영하여 좌안이미지와 우안이미지를 생성하고, 영상제어부(410)에 전송한다. 또한 이미지센서(440)는 사용자가 바라보는 방향의 주위 환경을 주기적으로 촬영하여 외부이미지를 생성하고, 영상제어부(410)에 전송할 수 있다. 이에 따라 영상제어부(410)는 주기적으로 전송되는 좌안이미지와 우안이미지를 기반으로 응시지점 및 응시지점에 대응되는 대상을 결정할 수 있다. The image sensor 440 periodically photographs each of the user's left and right eyes, generates a left eye image and a right eye image, and transmits the images to the image controller 410 . In addition, the image sensor 440 may periodically photograph the surrounding environment in the direction the user is looking to generate an external image and transmit it to the image controller 410 . Accordingly, the image controller 410 may determine a gaze point and an object corresponding to the gaze point based on the periodically transmitted left eye image and right eye image.

제어부(400)는 스마트안경(10)를 제어하는 기능을 수행한다. 제어부(400)는, 영상제어부(410), 응시추적부(420), 대상결정부(430), 표시가능판단부(440), 피드백수신부(450)를 포함한다. The controller 400 performs a function of controlling the smart glasses 10 . The control unit 400 includes an image control unit 410, a gaze tracking unit 420, a target determination unit 430, a display possibility determination unit 440, and a feedback receiving unit 450.

도 2는 동공사이거리에 따른 가상객체의 깊이감을 설명하기 위한 도면이다.2 is a diagram for explaining a sense of depth of a virtual object according to a pupillary distance.

영상제어부(410)는 센서부(300)에서 측정된 제1 내지 제3 거리를 기초로 가상객체의 깊이감을 조정한다. The image controller 410 adjusts the sense of depth of the virtual object based on the first to third distances measured by the sensor unit 300 .

도 2를 참조하면, 동공사이거리가 k1인 사용자가 스마트안경을 착용했을 때 좌안렌즈(200L)에 맺히는 좌안 가상이미지에 포함된 좌안 가상객체(lv1)와 우안렌즈(200R)에 맺히는 우안 가상이미지에 포함된 우안 가상객체(rv1)의 조합에 의해 깊이감(m1)을 갖는 가상객체(ck1)가 사용자에게 보인다.Referring to FIG. 2 , when a user with a pupil distance k1 wears smart glasses, a left eye virtual object lv1 included in the left eye virtual image formed on the left eye lens 200L and a right eye virtual image formed on the right eye lens 200R A virtual object ck1 having a sense of depth m1 is shown to the user by a combination of right eye virtual objects rv1 included in .

한편, 동공사이거리가 k2인 사용자가 스마트안경을 착용했을 때 좌안렌즈(200L)에 맺히는 좌안 가상이미지에 포함된 좌안 가상객체(lv1)와 우안렌즈(200R)에 맺히는 우안 가상이미지에 포함된 우안 가상객체(rv1)의 조합에 의해 깊이감(l1)을 갖는 가상객체(ck2)가 사용자에게 보인다.Meanwhile, when a user with a pupillary distance of k2 wears smart glasses, the left eye virtual object lv1 included in the left eye virtual image formed on the left eye lens 200L and the right eye included in the right eye virtual image formed on the right eye lens 200R A virtual object ck2 having a sense of depth l1 is shown to the user by the combination of the virtual objects rv1.

즉, 동공사이거리가 k1에서 k2로 커질수록, 가상객체의 깊이감은 m1에서 l1으로 작아진다. 가상객체의 깊이감은 동공사이거리가 서로 다른 사람들마다 서로 다르게 나타나게 되며, 그에 따라 사람마다 느끼는 몰입감이 서로 다를 수 있다. That is, as the interpupillary distance increases from k1 to k2, the sense of depth of the virtual object decreases from m1 to l1. The sense of depth of the virtual object appears differently for each person with a different interpupillary distance, and accordingly, the sense of immersion felt by each person may be different.

도 3은 도 2에 도시된 동공사이거리가 k2인 사용자에게 표시되는 가상객체의 깊이감이 영상제어부에 의해 조정되는 과정을 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining a process in which a sense of depth of a virtual object displayed to a user having a pupillary distance of k2 shown in FIG. 2 is adjusted by an image controller.

도 3을 참조하면, 동공사이거리가 k2인 사용자가 느끼는 제3 가상객체의 깊이감을 변경하기 위해, 영상제어부(410)는 좌안 가상객체(lv1)의 위치를 좌측으로 이동시키고, 우안 가상객체(rv1)의 위치를 우측으로 이동시켜 동공사이거리가 k2인 사용자와 k1인 사용자가 느끼는 가상객체(ck3)의 깊이감(m1)을 서로 동일하게 만들 수 있다. 즉, 영상제어부(410)는 좌안 가상객체 및 우안 가상객체의 간격을 변경함으로써 가상객체의 깊이감을 변경할 수 있다. Referring to FIG. 3 , in order to change the sense of depth of the third virtual object felt by a user with a pupillary distance k2, the image controller 410 moves the position of the left eye virtual object lv1 to the left, and moves the right eye virtual object (lv1) to the left. rv1) may be moved to the right side to make the depth sense m1 of the virtual object ck3 felt by the user with the interpupillary distance k2 and the user with k1 equal to each other. That is, the image controller 410 may change the sense of depth of the virtual object by changing the distance between the left eye virtual object and the right eye virtual object.

구체적으로 좌안동공에서 좌안렌즈로 수선을 내려서 만나는 위치(lv0)에서부터 좌안렌즈 상에서 수정 전 좌안 가상객체(lv1)의 위치까지의 거리를 re1'로 설정하고, 좌안동공에서 좌안렌즈에 수선을 내릴 때 만나는 위치(lv0)에서부터 좌안렌즈 상에서 수정후 좌안 가상객체(lv2)의 위치까지의 거리를 re1''로 설정한다. 이때 수정전 좌안 가상객체(lv1) 및 수정전 우안 가상객체(rv1)은 특정 동공사이 거리를 갖는 사용자에 대해 설정된 것이다.Specifically, when setting the distance from the position (lv0) where the line from the left eye pupil to the left eye lens meets and the position of the left eye virtual object (lv1) before correction on the left eye lens is set as re1', and the line from the left eye pupil to the left eye lens is lowered The distance from the meeting position (lv0) to the position of the left eye virtual object (lv2) after correction on the left eye lens is set as re1''. In this case, the left eye virtual object lv1 before correction and the right eye virtual object rv1 before correction are set for a user having a specific interpupillary distance.

그리고 우안 동공에서 우안렌즈면에 수선을 내릴 때 만나는 위치(rv0)에서부터 우안렌즈 상에서 수정전 우안 가상객체(rv1)의 위치까지의 거리를 re2'로 설정하고, 우안동공에서 우안렌즈에 수선을 내릴 때 만나는 위치(rv0)에서부터 우안렌즈 상에서 수정 후 우안 가상객체(rv2)의 위치까지의 거리를 re2''로 설정한다.Then, the distance from the meeting point (rv0) from the right eye pupil when lowering the right eye lens surface to the position of the right eye virtual object (rv1) on the right eye lens before correction is set as re2', The distance from the meeting point (rv0) to the position of the right eye virtual object (rv2) after correction on the right eye lens is set as re2''.

그리고 수정 전 좌안 가상객체(lv1)과 수정 전 우안 가상객체(rv1)의 조합에 의해 사용자에게 보이는 수정 전 가상객체(ck2)의 위치에서 양안 동공을 잇는 선분에 수선을 내렸을 때 만나는 점에서부터 좌안, 우안 각각까지의 거리를 k21, k22로 설정한다. 이때 re11'는 k21을 수정전 가상객체(ck2)의 깊이감(m1)으로 나눈 값에 k21을 곱한 값으로 산출된다. In addition, from the point where the line segment connecting the pupils of both eyes is drawn from the location of the virtual object (ck2) before modification seen to the user by the combination of the left eye virtual object (lv1) before modification and the right eye virtual object (rv1) before modification, the left eye, The distances to each of the right eyes are set to k21 and k22. At this time, re11' is calculated as a value obtained by dividing k21 by the sense of depth (m1) of the virtual object (ck2) before modification and multiplying by k21.

그리고 de는 좌안렌즈와 좌안동공 사이의 거리 또는 우안렌즈와 우안동공 사이의 거리를 의미한다.And de means the distance between the left eye lens and the left eye pupil or the distance between the right eye lens and the right eye pupil.

좌안렌즈 상에서 수정전 좌안 가상객체(lv1)와 수정후 좌안 가상객체(lv2)의 위치차이(re1)와, 우안렌즈 상에서 수정전 우안 가상객체(rv1)와 수정후 우안 가상객체(rv2)의 위치차이(re2)는 아래의 수학식 1 내지 4에 의해 구해진다(abs는 절대값을 의미). 그리고 수학식4는 수학식3에 대응되도록 산출된 식이다.Position difference (re1) between the left eye virtual object (lv1) before correction and the left eye virtual object (lv2) after correction on the left eye lens, and the position difference between the right eye virtual object (rv1) before correction and the right eye virtual object (rv2) after correction (rv2) on the right eye lens ( re2) is obtained by Equations 1 to 4 below (abs means an absolute value). And Equation 4 is an equation calculated to correspond to Equation 3.

Figure pat00001
Figure pat00001

Figure pat00002
Figure pat00002

Figure pat00003
Figure pat00003

Figure pat00004
Figure pat00004

좌안렌즈 상에서 수정전 좌안 가상객체(lv1)와 수정후 좌안 가상객체(lv2)의 위치차이(re1)와, 우안렌즈 상에서 수정 전 우안 가상객체(rv1)와 수정 후 우안 가상객체(rv2)의 위치차이(re2)는 보정하는 방법은, 광출사부에 의해 출사되는 영상데이터가 픽셀단위로 시프팅됨으로써 구현될 수 있다. 즉, 영상제어부는 가상객체의 깊이감 조정을 위해 좌안 가상객체 및 우안 가상객체를 픽셀단위로 시프팅시키되, 좌안 가상객체 및 우안 가상객체의 렌즈 상에서의 위치에 따라 시프팅되는 픽셀 정도를 고려하여 가상객체의 깊이감을 조정할 수 있다. Position difference (re1) between the left eye virtual object (lv1) before correction and the left eye virtual object (lv2) after correction on the left eye lens, and the position difference between the right eye virtual object (rv1) before correction and the right eye virtual object (rv2) after correction on the right eye lens (re2) may be implemented by shifting the image data emitted by the light emitting unit in units of pixels. That is, the image controller shifts the left-eye virtual object and the right-eye virtual object in units of pixels to adjust the sense of depth of the virtual object, and considers the degree of shifted pixels according to the positions of the left-eye virtual object and the right-eye virtual object on the lens. You can adjust the depth of the virtual object.

본 발명에 따르면, 영상제어부의 가상객체의 깊이감 조절은 초점조절 시뿐만 아니라, 스마트안경을 사용중일 때에도 깊이감 조절이 가능하다는 장점이 있다. 즉, 시선방향이 정면 중앙이 아닌 경우에도 가상객체의 깊이감 조절이 가능하다.According to the present invention, the depth control of the virtual object of the image controller has the advantage that the depth control is possible not only when the focus is adjusted, but also when the smart glasses are being used. That is, it is possible to adjust the sense of depth of the virtual object even when the viewing direction is not the front center.

본 발명에 따르면, 본 발명의 가상객체의 깊이감 조절은, 좌안렌즈로부터 좌안동공까지의 거리 또는 우안렌즈로부터 우안동공까지의 거리를 고려하므로, 가상객체의 깊이감을 보다 더 정확하게 조정할 수 있다.According to the present invention, since the distance from the left eye lens to the pupil of the left eye or the distance from the right eye lens to the pupil of the right eye is considered in adjusting the sense of depth of the virtual object, the sense of depth of the virtual object can be more accurately adjusted.

영상제어부(410)는 사용자의 제어 하에 수동으로 가상객체의 깊이감을 조정할 수 있다.The image controller 410 may manually adjust the depth of the virtual object under the control of the user.

또는 이와는 달리 저장부(600)에 저장된 위치보정정보를 기반으로 자동으로 가상객체의 깊이감을 조정할 수 있다. Alternatively, the sense of depth of the virtual object may be automatically adjusted based on the position correction information stored in the storage unit 600 .

도 4는 도 1에 도시된 저장부에 저장된 위치보정정보를 설명하기 위한 도면이다. FIG. 4 is a diagram for explaining location correction information stored in the storage unit shown in FIG. 1 .

도 4를 참조하면, 위치보정정보는 복수의 동공사이거리 k 각각에 대한 좌안영상 및 우안영상 각각에 대한 픽셀위치별 픽셀위치보정정도값을 포함한다. 픽셀위치보정정도값은 영상을 표시할 픽셀의 위치보정정도로서, 영상시프팅정도를 의미하며, 수학식 3 및 4에서 re1, re2에 대응되는 값들을 나타낸다.Referring to FIG. 4 , the position correction information includes pixel position correction degree values for each pixel position of a left eye image and a right eye image for each of a plurality of inter-pupillary distances k. The pixel position correction degree value is a position correction degree of a pixel to display an image, means an image shifting degree, and represents values corresponding to re1 and re2 in Equations 3 and 4.

예를 들어, 동공사이거리가 K-3인 경우, 좌안 가상객체가 m번째 픽셀에 표현되고, 우안 가상객체가 n번째 픽셀에 표현될 때, 저장부(600)에 저장된 위치보정정보에서, 좌안 가상객체의 위치보정정도가 -△5이고, 우안 가상객체의 위치보정정도가 +△2인 경우, 영상제어부(410)는 좌안의 경우, m-5번째 픽셀에서 좌안 가상객체가 표시되게 하고, 우안의 경우, n+2번째 픽셀에서 우안 가상객체가 표시되도록 보정한다.For example, when the interpupillary distance is K-3, when the left eye virtual object is expressed at the m-th pixel and the right eye virtual object is expressed at the n-th pixel, in the position correction information stored in the storage unit 600, the left eye When the position correction degree of the virtual object is -Δ5 and the position correction degree of the right eye virtual object is +Δ2, the image controller 410 displays the left eye virtual object at the m-5 th pixel in the case of the left eye, In the case of the right eye, the right eye virtual object is corrected to be displayed at the n+2 th pixel.

이때 영상제어부(410)는 상술한 바와 같이 광출사부(210)에 의해 출력되는 가상객체를 포함하는 픽셀의 위치를 조정하여 가상객체의 깊이감을 변경할 수 있을 뿐만 아니라 영상제어부(410)는 가상객체의 크기, 색, 형태, 위치, 깊이감 등을 변형할 수 있다. 특히 영상제어부(410)는 가상객체의 깊이감에 글자의 색을 변경함으로써, 사용자로 하여금 가상객체의 깊이감을 직관적으로 인식할 수 있게 할 수도 있다.At this time, as described above, the image controller 410 can adjust the position of a pixel including the virtual object output by the light emitter 210 to change the sense of depth of the virtual object, and the image controller 410 also controls the virtual object The size, color, shape, position, and depth of the image can be modified. In particular, the image controller 410 may allow the user to intuitively recognize the depth of the virtual object by changing the color of the text according to the depth of the virtual object.

응시추적부(420)는, 이미지센서(440)를 이용하여 사용자의 응시지점을 판단한다.The gaze tracking unit 420 determines the user's gaze point using the image sensor 440 .

대상결정부(430)는, 응시추적부(420)에 의해 판단된 사용자의 응시시점 및 이미지센서(440)로부터 전송되는 외부이미지를 기반으로 응시지점에 대응되는 대상을 결정한다. 이때 대상결정부(430)는 대상의 크기, 색, 형태를 판단할 수 있다.The target determination unit 430 determines an object corresponding to the gaze point based on the gaze point of the user determined by the gaze tracking unit 420 and the external image transmitted from the image sensor 440 . At this time, the object determination unit 430 may determine the size, color, and shape of the object.

표시가능판단부(440)는, 대상결정부(430)에 의해 판단된 대상의 크기, 색, 형태 등 대상정보를 기반으로, 가상객체를 분석 즉, 가상객체 내에 글자를 포함하는 지 여부와 같은 가상객체정보를 분석하여 대상에 가상객체를 표시할 수 있는지 여부를 판단한다. The display possibility determination unit 440 analyzes the virtual object based on the target information such as the size, color, and shape of the object determined by the target determination unit 430, that is, whether the virtual object contains letters or not By analyzing the virtual object information, it is determined whether the virtual object can be displayed on the target.

대상에 가상객체를 표시할 수 있는 경우, 영상제어부(410)는 가상객체의 크기, 색, 형태 등을 변형하지 않을 수 있다. 대상에 가상객체를 표시할 수 없는 경우로 판단되면, 영상제어부(410)는 가상객체의 크기, 색, 형태 등을 변경하여 표시할 수 있다. When the virtual object can be displayed on the target, the image controller 410 may not change the size, color, shape, etc. of the virtual object. If it is determined that the virtual object cannot be displayed on the target, the image controller 410 may change the size, color, shape, etc. of the virtual object and display the virtual object.

한편, 표시가능판단부(440)는 가상객체 내에 글자의 포함여부를 판단하고, 대상에 글자가 표현되었을 때 글자크기가 일정크기 이하인 경우, 영상제어부(410)는 사용자에게 가상객체를 표시할 수 없다는 알람을 표시하고 가상객체가 표시될 수 있는 사용자의 위치 또는 가상객체가 표시될 수 있는 대상의 위치를 표시할 수 있다. On the other hand, the displayability determination unit 440 determines whether a character is included in the virtual object, and when the character is expressed on the object and the character size is less than a certain size, the image control unit 410 may display the virtual object to the user. It is possible to display an alarm indicating that the virtual object is not displayed, and display the user's location where the virtual object can be displayed or the location of an object where the virtual object can be displayed.

피드백수신부(450)는 사용자로부터 깊이감이 조정된 가상객체의 깊이감에 대한 사용자의 응답을 수신한다. 이에 대해 영상제어부(410)는 사용자의 응답에 기초하여 가상객체의 깊이감을 추가 조정 여부를 결정할 수 있다. 또한 영상제어부(410)는, 사용자의 응답에 의해 상기 가상객체의 깊이감의 추가조정이 필요한 것으로 판단된 경우, 영상제어부는 사용자에 의해 선택될 수 있는 복수의 서로 다른 깊이감을 갖는 가상객체들을 생성하여 광출사부(500)가 좌안렌즈 및 우안렌즈에 각각 출사할 수 있다. The feedback receiving unit 450 receives a response from the user about the sense of depth of the virtual object whose depth sense is adjusted. In response, the image controller 410 may determine whether to additionally adjust the sense of depth of the virtual object based on the user's response. In addition, when the image controller 410 determines that additional adjustment of the depth of the virtual object is necessary based on the user's response, the image controller 410 generates a plurality of virtual objects having different depths that can be selected by the user. Thus, the light emitting unit 500 may emit light to the left eye lens and the right eye lens, respectively.

저장부(600)는, 복수의 동공사이거리인 제1 거리에 따른 픽셀의 위치보정정보를 포함하거나, 복수의 동공사이거리인 제1 거리 및 복수의 눈과 렌즈 사이의 거리인 제2 거리에 따른 픽셀의 위치보정정보를 포함하거나, 복수의 동공사이거리인 제1 거리, 복수의 눈과 렌즈 사이의 거리인 제2 거리, 대상까지의 거리인 제3 거리에 따른 픽셀의 위치보정정보를 포함할 수 있다.The storage unit 600 includes position correction information of a pixel according to a first distance, which is a plurality of inter-pupillary distances, or a first distance, which is a plurality of inter-pupillary distances, and a second distance, which is a distance between a plurality of eyes and lenses. Position correction information of pixels according to a first distance, which is a plurality of inter-pupillary distances, a second distance, which is a distance between a plurality of eyes and a lens, and a third distance, which is a distance to an object. can do.

도 5는 본 발명의 제2 실시예에 따른 스마트안경을 설명하기 위한 도면이고, 도 6은 도 5에 도시된 프레임부를 설명하기 위한 도면이다. 도 7a 및 7b는 도 5에 도시된 스마트안경의 가상객체의 깊이조정방법을 설명하기 위한 도면이다.5 is a diagram for explaining smart glasses according to a second embodiment of the present invention, and FIG. 6 is a diagram for explaining the frame portion shown in FIG. 5 . 7A and 7B are diagrams for explaining a method for adjusting a depth of a virtual object of the smart glasses shown in FIG. 5 .

도 5 및 6을 참조하면, 스마트안경(10)는 프레임부(100), 렌즈부(200), 센서부(300), 제어부(400), 광출사부(500), 저장부(600)를 포함한다. 제1 실시예에서의 설명과 중복되는 설명은 생략한다.5 and 6, the smart glasses 10 include a frame unit 100, a lens unit 200, a sensor unit 300, a controller 400, a light output unit 500, and a storage unit 600. include A description overlapping with that in the first embodiment is omitted.

프레임부(100)는 좌안렌즈(200L) 및 우안렌즈(200R)을 지지하는 좌안전면프레임(110L) 및 우안렌즈(200R)을 지지하는 우안전면프레임(110R)을 포함하는 전면프레임(110) 및 전편프레임(110)의 외측부분에서 연장되는 좌측면프레임 및 우측프레임(120L, 120R)과, 전면프레임(110)의 내측부분에서 서로 마주보는 형태로 연장되는 좌측연장부 및 우측연장부(130L, 130R)을 포함한다. The frame unit 100 includes a front frame 110 including a left safety frame 110L supporting the left eye lens 200L and the right eye lens 200R and a right safety frame 110R supporting the right eye lens 200R, and The left side frame and the right frame (120L, 120R) extending from the outer portion of the front frame 110, and the left extension and right extension (130L, 130L, 130R).

좌측연장부 및 우측연장부(130L, 130R)는 동작조절부(140)에 고정되어 안경 형태를 유지한다. The left and right extensions 130L and 130R are fixed to the motion controller 140 to maintain the shape of the glasses.

거리조절부(140)는 좌측연장부(130L)와 우측연장부(130R) 사이의 거리를 조정하는 기능을 수행한다.The distance adjusting unit 140 performs a function of adjusting the distance between the left extension part 130L and the right extension part 130R.

제1 실시예의 스마트안경은 좌안 가상이미지 내 좌안 가상객체, 우안 가상이미지 내 우안 가상객체의 위치를 조정하여 가상객체의 깊이감을 조절하지만, 제2 실시예의 스마트안경(10)는 좌안렌즈(200L) 및 우안렌즈(200R) 사이의 거리인 렌즈간 거리를 물리적으로 조절하여 가상객체의 깊이감을 조절한다.The smart glasses of the first embodiment adjust the depth of the virtual object by adjusting the positions of the left eye virtual object in the left eye virtual image and the right eye virtual object in the right eye virtual image, but the smart glasses 10 of the second embodiment have a left eye lens (200L) and the distance between the lenses, which is the distance between the right eye lenses 200R, is physically adjusted to adjust the sense of depth of the virtual object.

센서부(300) 중 제1 거리측정부(310)는 사용자의 동공사이거리인 제1 거리를 측정하고, 제어부(400)에 전송한다.The first distance measurement unit 310 of the sensor unit 300 measures the first distance, which is the interpupillary distance of the user, and transmits the measurement to the control unit 400 .

동작제어부(411)는 저장부(600)에 저장된 위치보정정보를 기반으로, 렌즈간 거리를 조정하도록, 거리조절부(140)를 제어한다. The operation control unit 411 controls the distance adjusting unit 140 to adjust the distance between lenses based on the position correction information stored in the storage unit 600 .

저장부(600)는 복수의 동공사이거리 각각에 대한 렌즈간 거리를 포함하는 위치보정정보를 포함한다. 제1 실시예와 달리 제2 실시예의 저장부는 동공사이거리 각각에 대한 우안렌즈 또는 좌안렌즈까지의 거리에 대한 정보를 포함한다. The storage unit 600 includes position correction information including an inter-lens distance for each of a plurality of inter-pupillary distances. Unlike the first embodiment, the storage unit of the second embodiment includes information about the distance to the right eye lens or the left eye lens for each interpupillary distance.

도 7a의 경우, 좌안렌즈(200L)과 우안렌즈(200R) 각각을 동시에 조정하여 가상객체의 깊이감을 조정하는 스마트안경을 도시하며, 도 7b의 경우, 좌안렌즈(200L)과 우안렌즈(200R) 중 어느 하나의 렌즈의 위치를 조정하여 가상객체의 깊이감을 조정하는 스마트안경을 도시한다.In the case of FIG. 7A, the left eye lens 200L and the right eye lens 200R are simultaneously adjusted to adjust the depth of the virtual object. In the case of FIG. 7B, the left eye lens 200L and the right eye lens 200R are shown. It shows smart glasses that adjust the depth of a virtual object by adjusting the position of any one of the lenses.

도 7a 및 7b를 참조하면, 좌안렌즈(200L)과 우안렌즈(200R)의 사이 간격이 가까워질수록 가상객체의 깊이감은 얕아지고, 간격이 멀어질수록 가상객체의 깊이감은 깊어진다. Referring to FIGS. 7A and 7B , as the distance between the left eye lens 200L and the right eye lens 200R decreases, the sense of depth of the virtual object decreases, and as the distance increases, the sense of depth of the virtual object deepens.

도 8은 본 발명의 제3 실시예에 따른 스마트안경을 설명하기 위한 도면이고, 도 9는 도 8에 도시된 프레임부를 설명하기 위한 도면이다. 도 10a 및 10b는 도 가상객체의 깊이조정방법을 설명하기 위한 도면이다.8 is a diagram for explaining smart glasses according to a third embodiment of the present invention, and FIG. 9 is a diagram for explaining the frame portion shown in FIG. 8 . 10A and 10B are diagrams for explaining a method for adjusting the depth of a virtual object.

도 8 및 도 9를 참조하면, 스마트안경(10)는 프레임부(100), 렌즈부(200), 센서부(300), 제어부(400), 광출사부(500), 저장부(600)를 포함한다. 제1 실시예에서의 설명과 중복되는 설명은 생략한다.8 and 9, the smart glasses 10 include a frame unit 100, a lens unit 200, a sensor unit 300, a controller 400, a light output unit 500, and a storage unit 600. includes A description overlapping with that in the first embodiment is omitted.

프레임부(100)는 전면프레임(110)은 좌안렌즈(200L)을 지지하는 좌측전면프레임(110L) 및 우안렌즈(200R)을 지지하는 우측전면프레임(110R)를 포함하는 전면프레임(110) 및 전편프레임(110)의 외측부분에서 연장되는 좌측면프레임 및 우측프레임(120L, 120R)과, 좌안 전면프레임(110L) 및 우안 전면프레임(110R) 각각이 서로 마주보는 형태로 연장되는 좌측연장부 및 우측연장부(130L, 130R)을 포함한다. The frame unit 100 includes a front frame 110 including a left front frame 110L supporting the left eye lens 200L and a right front frame 110R supporting the right eye lens 200R, and The left side frame and the right frame (120L, 120R) extending from the outer portion of the front frame (110), the left eye front frame (110L) and the right eye front frame (110R) extending in a form facing each other, respectively, and It includes right extension portions 130L and 130R.

좌측연장부 및 우측연장부(130L, 130R)는 각도조절부(141)에 고정되어 안경 형태를 유지한다. The left and right extensions 130L and 130R are fixed to the angle adjuster 141 to maintain the shape of the glasses.

각도조절부(141)는 좌안렌즈(200L)와 우안렌즈(200R)이 이루는 각도를 조정하여 가상객체의 깊이감을 조정하는 기능을 수행한다.The angle adjusting unit 141 performs a function of adjusting a sense of depth of a virtual object by adjusting an angle between the left eye lens 200L and the right eye lens 200R.

제1 실시예의 스마트안경은 좌안 가상객체, 우안 가상객체가 표시되는 픽셀의 위치를 조정하여 가상객체의 깊이감을 조절하지만, 제3 실시예의 스마트안경(10)는 좌안렌즈(200L) 및 우안렌즈(200R)가 이루는 렌즈간 각도를 물리적으로 조절하여 가상객체의 깊이감을 조절한다.The smart glasses of the first embodiment adjust the depth of the virtual object by adjusting the positions of the pixels on which the left and right eye virtual objects are displayed, but the smart glasses 10 of the third embodiment have a left eye lens 200L and a right eye lens ( 200R) adjusts the depth of the virtual object by physically adjusting the angle between the lenses.

센서부(300) 중 제1 거리측정부는 사용자의 동공사이거리인 제1 거리를 측정하고, 제어부(400)에 전송한다.The first distance measurement unit of the sensor unit 300 measures the first distance, which is the interpupillary distance of the user, and transmits the measurement to the control unit 400 .

동작제어부(411)는 저장부(600)에 저장된 각도보정정보를 기반으로, 렌즈간 각도를 조정하도록, 각도조절부(140)를 제어한다. The operation control unit 411 controls the angle adjusting unit 140 to adjust the angle between the lenses based on the angle correction information stored in the storage unit 600 .

저장부(600)는 복수의 동공사이거리 각각에 대한 렌즈간 각도를 포함하는 각도보정정보를 포함한다. 제1 실시예와 달리 제2 실시예의 저장부는 동공사이거리 각각에 대한 렌즈의 각도조정정보에 대한 정보를 포함한다 The storage unit 600 includes angle correction information including an inter-lens angle for each of a plurality of inter-pupillary distances. Unlike the first embodiment, the storage unit of the second embodiment includes information about angle adjustment information of the lens for each pupillary distance.

도 10a 및 10b를 참조하면, 좌안렌즈(200L)과 우안렌즈(200R)가 이루는 각도가 180도를 기준으로, 좌안렌즈(200L)와 우안렌즈(200R)가 이루는 각도가 변경되면 가상객체의 깊이감이 달라진다. Referring to FIGS. 10A and 10B , when the angle formed by the left eye lens 200L and the right eye lens 200R is changed based on 180 degrees, the depth of the virtual object is changed. The feeling is different.

한편 도 10a의 경우, 좌안렌즈(200L) 및 우안렌즈(200R)가 이루는 렌즈간 각도가 180도인 경우, 가상객체의 깊이감이 l1, m1으로 측정되었으나, 도 10b와 같이 좌안렌즈(200L) 및 우안렌즈(200R)가 이루는 렌즈의 각도를 조정함으로써, 가상객체의 깊이감을 조정할 수 있다. Meanwhile, in the case of FIG. 10A, when the angle between the lenses formed by the left eye lens 200L and the right eye lens 200R is 180 degrees, the depth of the virtual object is measured as l1 and m1, but as shown in FIG. 10b, the left eye lens 200L and By adjusting the angle of the lens formed by the right eye lens 200R, the sense of depth of the virtual object can be adjusted.

앞에서 설명된 본 발명의 어떤 실시예들 또는 다른 실시예들은 서로 배타적이거나 구별되는 것은 아니다. 앞서 설명된 본 발명의 어떤 실시예들 또는 다른 실시예들은 각각의 구성 또는 기능이 병용되거나 조합될 수 있다.Certain or other embodiments of the present invention described above are not mutually exclusive or distinct from each other. Certain or other embodiments of the present invention described above may be used in combination or combination of respective components or functions.

예를 들어 특정 실시예 및/또는 도면에 설명된 A 구성과 다른 실시예 및/또는 도면에 설명된 B 구성이 결합될 수 있음을 의미한다. 즉, 구성 간의 결합에 대해 직접적으로 설명하지 않은 경우라고 하더라도 결합이 불가능하다고 설명한 경우를 제외하고는 결합이 가능함을 의미한다.For example, configuration A described in a specific embodiment and/or drawing may be combined with configuration B described in another embodiment and/or drawing. That is, even if the combination between the components is not directly explained, it means that the combination is possible except for the case where the combination is impossible.

상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

10: 스마트안경
100: 프레임부
110: 전면프레임
120: 측면프레임
200: 렌즈부
300: 센서부
310, 320, 330: 제1, 제2, 제3 거리측정부
340: 이미지센서부
400: 제어부
410: 영상제어부
420: 응시추적부
430: 대상결정부
440: 표시가능판단부
10: smart glasses
100: frame part
110: front frame
120: side frame
200: lens unit
300: sensor unit
310, 320, 330: first, second, third distance measuring unit
340: image sensor unit
400: control unit
410: video control unit
420: gaze tracking unit
430: target determination unit
440: displayable determination unit

Claims (6)

좌안 가상이미지가 맺히는 좌안렌즈와, 우안 가상이미지가 맺히는 우안렌즈를 구비하는 스마트안경에 있어서,
상기 좌안 가상이미지에 포함된 좌안 가상객체의 위치 및 상기 우안 가상이미지에 포함된 우안 가상객체의 위치 각각을 조정하여 상기 좌안 및 우안 가상객체의 조합에 의해 사용자에게 보이는 가상객체의 깊이감을 조정하는 영상제어부를 포함하는 것을 특징으로 하는 스마트 안경.
In smart glasses having a left eye lens on which a left eye virtual image is formed and a right eye lens on which a right eye virtual image is formed,
An image of adjusting the depth of a virtual object visible to a user by a combination of the left and right eye virtual objects by adjusting the position of the left eye virtual object included in the left eye virtual image and the right eye virtual object included in the right eye virtual image, respectively. Smart glasses comprising a control unit.
제1항에 있어서,
상기 영상제어부는, 사용자의 입력에 기초하여, 상기 좌안 가상객체의 위치 및 상기 우안 가상객체의 위치 각각을 조정하는 것을 특징으로 하는 스마트 안경.
According to claim 1,
The smart glasses according to claim 1 , wherein the image controller adjusts a position of the left eye virtual object and a position of the right eye virtual object, respectively, based on a user's input.
제1항에 있어서,
동공사이거리인 제1 거리를 측정하는 제1 거리측정부; 및
상기 좌안렌즈 및 상기 우안렌즈 중 어느 하나와 동공 사이의 제2 거리를 측정하는 제2 거리측정부를 더 포함하고,
상기 영상제어부는, 상기 제1 거리 및 상기 제2 거리에 기초하여 상기 좌안 및 우안 가상객체의 위치를 조정하는 것을 특징으로 하는 스마트 안경.
According to claim 1,
a first distance measurement unit that measures a first distance that is the inter-pupillary distance; and
A second distance measuring unit for measuring a second distance between one of the left eye lens and the right eye lens and the pupil;
The smart glasses according to claim 1 , wherein the image controller adjusts positions of the left and right eye virtual objects based on the first distance and the second distance.
제3항에 있어서,
사용자로부터 상기 깊이감이 조정된 가상객체의 깊이감에 대한 사용자의 응답을 수신하는 피드백수신부를 더 포함하고,
상기 영상제어부는, 상기 사용자의 응답에 기초하여, 상기 가상객체의 깊이감을 추가 조정 여부를 결정하는 것을 특징으로 하는 스마트 안경.
According to claim 3,
A feedback receiver configured to receive a response from a user about the sense of depth of the virtual object whose sense of depth is adjusted, from the user;
The smart glasses according to claim 1 , wherein the image controller determines whether to additionally adjust the depth of the virtual object based on the user's response.
좌안 가상객체가 표시되는 좌안렌즈;
우안 가상객체가 표시되는 우안렌즈;
상기 좌안렌즈 및 상기 우안렌즈 사이의 거리를 조정하여 상기 좌안 가상객체 및 상기 우안 가상객체의 조합에 의해 형성되는 가상객체의 깊이감을 변경하는 간격조정부를 포함하는 스마트안경.
a left eye lens displaying a left eye virtual object;
a right eye lens displaying a right eye virtual object;
and an interval adjuster configured to change a sense of depth of a virtual object formed by a combination of the left eye virtual object and the right eye virtual object by adjusting a distance between the left eye lens and the right eye lens.
좌안 가상객체가 표시되는 좌안렌즈;
우안 가상객체가 표시되는 우안렌즈; 및
상기 좌안렌즈 및 상기 우안렌즈 중 적어도 하나의 전방방향으로의 각도를 변경하여 상기 좌안 가상객체 및 상기 우안 가상객체의 조합에 의해 형성되는 가상객체의 깊이감을 변경하는 각도조정부를 포함하는 스마트안경.
a left eye lens displaying a left eye virtual object;
a right eye lens displaying a right eye virtual object; and
and an angle adjustment unit configured to change a sense of depth of a virtual object formed by a combination of the left eye virtual object and the right eye virtual object by changing an angle of at least one of the left eye lens and the right eye lens in a forward direction.
KR1020210177801A 2021-11-04 2021-12-13 Smart glasses KR20230065846A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20210150279 2021-11-04
KR1020210150279 2021-11-04

Publications (1)

Publication Number Publication Date
KR20230065846A true KR20230065846A (en) 2023-05-12

Family

ID=86385860

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210177801A KR20230065846A (en) 2021-11-04 2021-12-13 Smart glasses

Country Status (1)

Country Link
KR (1) KR20230065846A (en)

Similar Documents

Publication Publication Date Title
JP7036773B2 (en) Virtual and augmented reality systems and methods
CN108600733B (en) Naked eye 3D display method based on human eye tracking
US10591735B2 (en) Head-mounted display device and image display system
US10401953B2 (en) Systems and methods for eye vergence control in real and augmented reality environments
US10623721B2 (en) Methods and systems for multiple access to a single hardware data stream
US20150187115A1 (en) Dynamically adjustable 3d goggles
KR100754202B1 (en) 3D image displaying apparatus and method using eye detection information
CN109324413A (en) Near-to-eye display system and operation method thereof
WO2010084716A1 (en) Image processing device, program, image processing method, recording method, and recording medium
JP6378781B2 (en) Head-mounted display device and video display system
EP3409013B1 (en) Viewing device adjustment based on eye accommodation in relation to a display
US11736674B2 (en) Dynamic convergence adjustment in augmented reality headsets
KR101203921B1 (en) Information providing apparatus using an eye tracking and local based service
US20110316984A1 (en) Adaptive adjustment of depth cues in a stereo telepresence system
KR20120030639A (en) Display apparatus and image processing method of the same
JP2014106532A (en) Three-dimensional image display device
KR20230065846A (en) Smart glasses
CN211786414U (en) Virtual reality display system
JP3325323B2 (en) Display device
CN110794590A (en) Virtual reality display system and display method thereof
WO2023102500A1 (en) Methods for controlling performance of extended reality display systems

Legal Events

Date Code Title Description
E902 Notification of reason for refusal