KR20200056373A - Display apparatus and control method thereof - Google Patents

Display apparatus and control method thereof Download PDF

Info

Publication number
KR20200056373A
KR20200056373A KR1020200057881A KR20200057881A KR20200056373A KR 20200056373 A KR20200056373 A KR 20200056373A KR 1020200057881 A KR1020200057881 A KR 1020200057881A KR 20200057881 A KR20200057881 A KR 20200057881A KR 20200056373 A KR20200056373 A KR 20200056373A
Authority
KR
South Korea
Prior art keywords
information
transparent display
transparent
area
user
Prior art date
Application number
KR1020200057881A
Other languages
Korean (ko)
Other versions
KR102231587B1 (en
Inventor
니푼 쿠마르
서준규
윤여준
최영준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020200057881A priority Critical patent/KR102231587B1/en
Publication of KR20200056373A publication Critical patent/KR20200056373A/en
Application granted granted Critical
Publication of KR102231587B1 publication Critical patent/KR102231587B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0666Adjustment of display parameters for control of colour parameters, e.g. colour temperature
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Disclosed is a display device capable of effectively displaying information on a transparent screen. According to one embodiment of the present disclosure, the display device comprises: a projection unit; a sensing unit; and a control unit controlling the projection unit to project information on a transparent screen, sensing location information and color information of an object located in one direction based on the transparent screen through the sensing unit, determining a transmission area of the transparent screen through which the object is projected and viewed based on the location information of the sensed object, and controlling the projection unit to change color of the projected information in an overlapped area into color different from color of the sensed object and project the projected information if the area where the information is projected overlaps the projection area.

Description

디스플레이 장치 및 그의 제어 방법 { DISPLAY APPARATUS AND CONTROL METHOD THEREOF } Display device and control method thereof {DISPLAY APPARATUS AND CONTROL METHOD THEREOF}

본 발명은 디스플레이 장치 및 그의 제어 방법에 대한 것으로, 보다 상세하게는, 정보를 디스플레이하는 디스플레이 장치 및 그의 제어 방법에 대한 것이다.The present invention relates to a display device and a control method thereof, and more particularly, to a display device for displaying information and a control method thereof.

전자 기술의 발달에 힘입어 다양한 분야에서, 다양한 유형의 디스플레이 장치가 사용되고 있다. 특히, 최근에는 투명 디스플레이 장치와 같은 차세대 디스플레이 장치에 대한 연구 논의가 가속화되고 있다.With the development of electronic technology, various types of display devices are used in various fields. In particular, in recent years, research discussions on next-generation display devices such as transparent display devices have been accelerated.

투명 디스플레이 장치란 투명한 성질을 가져서 장치 뒷쪽 배경이 그대로 비치는 장치를 의미한다. 종래에는 실리콘(Si), 갈륨비소(GaAs) 등과 같은 불투명 반도체 화합물을 이용하여 디스플레이 패널을 제작하였으나, 기존의 디스플레이 패널로는 감당할 수 없는 다양한 응용분야가 개척되면서, 새로운 형태의 전자 소자에 대한 개발 노력이 이루어졌었다. 이러한 노력 하에 개발된 것 중 하나가 투명 디스플레이 장치이다. A transparent display device means a device having a transparent property and the background behind the device is reflected. Conventionally, a display panel was manufactured using an opaque semiconductor compound such as silicon (Si) or gallium arsenide (GaAs). However, as a variety of applications that cannot be handled by existing display panels have been pioneered, new types of electronic devices have been developed. Efforts have been made. One of the things developed under these efforts is a transparent display device.

투명 디스플레이 장치는 투명한 산화물 반도체막을 포함하는 형태로 구현되어, 투명한 성질을 가지게 된다. 투명 디스플레이 장치를 사용할 경우 사용자는 장치 뒷쪽에 위치하는 후면 배경을 보면서, 필요한 정보를 투명 디스플레이 장치 화면을 통해 볼 수 있게 된다. 따라서, 기존 디스플레이 장치들이 가지고 있는 공간적, 시간적 제약을 해소할 수 있게 된다.The transparent display device is implemented in a form including a transparent oxide semiconductor film, and has transparent properties. When a transparent display device is used, the user can view necessary background and view necessary information through the transparent display device screen while looking at the rear background located behind the device. Therefore, the spatial and temporal constraints of the existing display devices can be eliminated.

투명 디스플레이 장치는 다양한 용도로 다양한 환경에서 편리하게 사용될 수 있다. 가령, 상점의 쇼윈도가 투명 디스플레이 장치로 구현될 경우 사용자가 지나가면 광고 문구를 쇼윈도에 표시하여 사용자가 흥미를 가지도록 구현할 수 있다. 또한, 일반 가정 내에서 베란다 창문을 투명 디스플레이 장치로 구현할 경우, 사용자는 각종 멀티미디어 컨텐츠를 사이즈가 큰 베란다 창문을 통해 시청할 수 있게 되어, 사용자 만족도를 증대시킬 수도 있다.The transparent display device can be conveniently used in various environments for various purposes. For example, when a store's show window is implemented as a transparent display device, an advertisement phrase may be displayed on the show window when the user passes, so that the user is interested. In addition, when a veranda window is implemented as a transparent display device in a general home, a user can view various multimedia contents through a large veranda window, thereby increasing user satisfaction.

이와 같이, 투명 디스플레이 장치는 그 투명한 성질 때문에 기존 디스플레이 장치에 비해 많은 장점을 가지게 되지만, 반대로 그 투명한 성질 때문에 발생하는 문제점도 가지고 있다. 가령, 투명한 성질 때문에 화면 상의 정보가 잘 보이지 않게 되는 문제점이 있을 수 있다.As such, the transparent display device has many advantages over the conventional display device due to its transparent property, but also has a problem caused by the transparent property. For example, there may be a problem that the information on the screen is not easily visible due to the transparent nature.

따라서, 투명 디스플레이 장치를 보다 효과적으로 다양하게 사용할 수 있는 기술에 대한 필요성이 대두되었다.Accordingly, a need has emerged for a technology that can more effectively use a transparent display device in various ways.

본 발명은 상술한 필요성에 따른 것으로, 본 발명의 목적은, 후면의 배경 정보에 기초하여 투명 스크린 상에 정보를 효과적으로 디스플레이할 수 있는 디스플레이 장치 및 그의 제어 방법을 제공함에 있다.The present invention is in accordance with the above-mentioned needs, and an object of the present invention is to provide a display device and a control method thereof that can effectively display information on a transparent screen based on background information on the back side.

본 개시의 일 실시 예에 따른 디스플레이 장치는, 투사부, 감지부 및 투명 스크린 상에 정보를 투사하도록 투사부를 제어하고, 감지부를 통해 투명 스크린을 기준으로 일 방향에 위치한 객체의 위치 정보 및 색상 정보를 감지하고, 감지된 객체의 위치 정보에 기초하여, 객체가 투과되어 보이는 투명 스크린의 투과 영역을 결정하고, 투과 영역에 정보가 투사된 영역이 오버랩되는 경우, 오버랩되는 영역에 투사된 정보의 색상을 감지된 객체의 색상과 다른 색상으로 변경하여 투사하도록 투사부를 제어하는 제어부를 포함한다.A display device according to an exemplary embodiment of the present disclosure controls a projection unit to project information on a projection unit, a sensing unit, and a transparent screen, and position information and color information of an object located in one direction with respect to the transparent screen through the sensing unit , And based on the detected location information of the object, determines the transmission area of the transparent screen through which the object is visible, and when the area where the information is projected in the transmission area overlaps, the color of the information projected in the overlapping area It includes a control unit for controlling the projection unit to project by changing the color of the detected object to a different color.

여기에서, 감지부는 일 방향에 대한 조도를 감지하는 조도 센서를 포함하며, 제어부는 감지된 조도에 기초하여, 투명 스크린의 오버랩되는 영역에 투사된 정보에 대응되는 픽셀 영역의 휘도 값 및 색상 값 중 적어도 하나를 변경하여 투사하도록 투사부를 제어할 수 있다. Here, the sensing unit includes an illuminance sensor that detects illuminance in one direction, and the control unit is based on the detected illuminance, among luminance values and color values of pixel regions corresponding to information projected on overlapping regions of the transparent screen. The projection unit may be controlled to project by changing at least one.

한편, 감지부는 일 방향에 위치하는 객체를 촬상하는 촬상 센서를 포함하며, 제어부는 촬상 센서에 의해 촬상된 영상에 포함된 객체의 색상 정보에 기초하여, 투명 스크린의 오버랩되는 영역에 투사된 정보에 대응되는 픽셀 영역의 휘도 값 및 색상 값 중 적어도 하나를 변경하여 투사하도록 투사부를 제어할 수 있다. On the other hand, the sensing unit includes an imaging sensor that captures an object located in one direction, and the control unit controls the information projected on the overlapping area of the transparent screen based on the color information of the object included in the image captured by the imaging sensor. The projection unit may be controlled to project by changing at least one of a luminance value and a color value of a corresponding pixel area.

한편, 감지부는, 일 방향에 위치하는 객체의 위치를 감지하는 제1 감지부 및 투명 스크린을 기준으로 일 방향과 다른 타 방향에 있는 사용자의 위치를 감지하는 제2 감지부를 포함하며, 제어부는 감지된 객체의 위치 및 사용자의 위치에 기초하여, 사용자의 위치에서 투명 스크린 상에 객체가 투과되어 보이는 투과 영역을 결정할 수 있다.On the other hand, the sensing unit includes a first sensing unit that detects the position of an object located in one direction and a second sensing unit that detects a user's position in the other direction different from the one based on the transparent screen, and the control unit detects Based on the location of the object and the location of the user, a transmission area in which the object is visible on the transparent screen may be determined at the user's location.

여기에서, 제어부는, 감지된 객체의 위치가 이동되는 경우, 사용자의 위치에서 투명 스크린 상에 이동된 객체가 투과되어 보이는 투과 영역을 결정할 수 있다.Here, when the position of the sensed object is moved, the control unit may determine a transmission area where the object moved on the transparent screen is visible through the user's position.

한편, 감지부는 일 방향에 위치하는 객체를 촬상하는 촬상 센서를 포함하며, 제어부는 촬상 센서에 의해 촬상된 영상에 포함된 객체의 색상 정보에 기초하여 투명 스크린에 투사된 정보의 위치를 변경하여 투사하도록 투사부를 제어할 수 있다.On the other hand, the sensing unit includes an imaging sensor that captures an object located in one direction, and the control unit changes the position of the information projected on the transparent screen based on the color information of the object included in the image captured by the imaging sensor and projects it. So that the projection can be controlled.

한편, 일 방향은, 사용자를 기준으로 투명 스크린의 후방일 수 있다.Meanwhile, one direction may be the rear side of the transparent screen based on the user.

한편, 디스플레이 장치는 투명 스크린을 더 포함할 수 있다.Meanwhile, the display device may further include a transparent screen.

본 개시의 일 실시 예에 따른 투사부를 구비하는 디스플레이 장치의 제어 방법에 있어서, 제어 방법은 투명 스크린 상에 정보를 투사하는 단계, 투명 스크린을 기준으로 일 방향에 위치한 객체의 위치 정보 및 색상 정보를 감지하는 단계, 감지된 객체의 위치 정보에 기초하여, 객체가 투과되어 보이는 투명 스크린의 투과 영역을 결정하는 단계 및 투과 영역에 정보가 투사된 영역이 오버랩되는 경우, 오버랩되는 영역에 투사된 정보의 색상을 감지된 객체의 색상과 다른 색상으로 투사하는 단계를 포함한다.In a control method of a display device having a projection unit according to an embodiment of the present disclosure, the control method includes projecting information on a transparent screen, and displaying location information and color information of an object located in one direction based on the transparent screen. Sensing, determining a transmission area of the transparent screen through which the object appears to be transmitted based on the detected position information of the object, and when the area where the information is projected in the transmission area overlaps, the information of the projected information in the overlapping area And projecting the color in a color different from the color of the detected object.

여기에서, 감지하는 단계는 일 방향에 대한 조도를 감지하는 단계를 포함하며, 다른 색상으로 투사하는 단계는, 투과 영역에 정보가 투사된 영역이 오버랩되는 경우, 감지된 조도에 기초하여, 투명 스크린의 오버랩되는 영역에 투사된 정보에 대응되는 픽셀 영역의 휘도 값 및 색상 값 중 적어도 하나를 변경하여 투사할 수 있다.Here, the step of sensing includes detecting the illuminance for one direction, and the step of projecting in a different color is based on the sensed illuminance, when the region where information is projected in the transmissive region overlaps. At least one of a luminance value and a color value of the pixel region corresponding to the information projected on the overlapped region may be changed and projected.

한편, 감지하는 단계는 일 방향에 위치하는 객체를 촬상하는 단계를 포함하며, 다른 색상으로 투사하는 단계는 투과 영역에 정보가 투사된 영역이 오버랩되는 경우, 촬상된 영상에 포함된 객체의 색상 정보에 기초하여, 투명 스크린의 오버랩되는 영역에 투사된 정보에 대응되는 픽셀 영역의 휘도 값 및 색상 값 중 적어도 하나를 변경하여 투사할 수 있다.Meanwhile, the step of sensing includes imaging an object located in one direction, and the step of projecting in a different color, when the area where the information is projected in the transmissive area overlaps, the color information of the object included in the captured image Based on the above, it is possible to project by changing at least one of a luminance value and a color value of the pixel area corresponding to the information projected on the overlapped area of the transparent screen.

한편, 감지하는 단계는 일 방향에 위치하는 객체의 위치를 감지하고, 투명 스크린을 기준으로 일 방향과 다른 타 방향에 있는 사용자의 위치를 감지하고, 결정하는 단계는 감지된 객체의 위치 및 사용자의 위치에 기초하여, 사용자의 위치에서 투명 스크린 상에 객체가 투과되어 보이는 투과 영역을 결정할 수 있다.On the other hand, the detecting step detects the position of the object located in one direction, and detects the user's position in the other direction different from the one direction based on the transparent screen, and the determining step determines the position of the detected object and the user's position. Based on the location, it is possible to determine a transmissive area in which the object is visible on the transparent screen at the user's location.

여기에서, 결정하는 단계는 감지된 객체의 위치가 이동되는 경우, 사용자의 위치에서 투명 스크린 상에 이동된 객체가 투과되어 보이는 투과 영역을 결정할 수 있다.Here, in the determining step, when the position of the sensed object is moved, it is possible to determine a transmission area where the object moved on the transparent screen is visible at the user's position.

한편, 감지하는 단계는 일 방향에 위치하는 객체를 촬상하는 단계를 포함하며, 다른 색상으로 투사하는 단계는 촬상된 영상에 포함된 객체의 색상 정보에 기초하여, 투명 스크린에 투사된 정보의 위치를 변경하여 투사할 수 있다.On the other hand, the step of sensing includes imaging an object located in one direction, and the step of projecting in a different color is based on the color information of the object included in the captured image, and the position of the information projected on the transparent screen is determined. You can change and project.

한편, 일 방향은 사용자를 기준으로 투명 스크린의 후방일 수 있다.Meanwhile, one direction may be the rear side of the transparent screen based on the user.

이상과 같이, 본 발명의 다양한 실시 예에 따르면, 디스플레이 장치를 통해 투명 스크린 상에 디스플레이되는 정보의 식별력을 높일 수 있게 된다.As described above, according to various embodiments of the present invention, it is possible to increase the discrimination power of information displayed on a transparent screen through a display device.

도 1은 본 발명의 일 실시 예에 따른 투명 디스플레이 장치의 동작을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시 예에 따른 투명 디스플레이 장치의 구성을 나타내는 블럭도이다.
도 3은 투명 OLED 형으로 구현된 투명 디스플레이부의 세부 구성 예를 나타내는 도면이다.
도 4는 본 발명의 구체적인 실시 예에 따른 투명 디스플레이 장치의 구성을 설명하기 위한 블럭도이다.
도 5는 본 발명의 일 실시 예에 따라 감지된 배경 정보에 기초하여 정보의 디스플레이 위치를 변경하여 디스플레이하는 방법을 설명하기 위한 도면이다.
도 6은 제1 촬상부(121-1) 및 제2 촬상부(122-1)의 배치 위치를 설명하기 위한 도면이다.
도 7 내지 도 11은 본 발명의 다양한 실시 예에 따른 디스플레이 방법을 설명하기 위한 도면이다.
도 12는 본 발명의 일 실시 예에 따른 투명 디스플레이 장치의 제어 방법을 설명하기 위한 흐름도이다.
1 is a view for explaining the operation of the transparent display device according to an embodiment of the present invention.
2 is a block diagram showing the configuration of a transparent display device according to an embodiment of the present invention.
3 is a view showing a detailed configuration example of a transparent display unit implemented in a transparent OLED type.
4 is a block diagram illustrating a configuration of a transparent display device according to a specific embodiment of the present invention.
5 is a view for explaining a method of changing and displaying a display position of information based on the detected background information according to an embodiment of the present invention.
6 is a view for explaining arrangement positions of the first imaging unit 121-1 and the second imaging unit 122-1.
7 to 11 are views illustrating a display method according to various embodiments of the present invention.
12 is a flowchart illustrating a method of controlling a transparent display device according to an embodiment of the present invention.

이하에서, 첨부된 도면을 이용하여 본 발명에 대하여 구체적으로 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 투명 디스플레이 장치의 동작을 설명하기 위한 도면이다. 도 1에 따르면, 투명 디스플레이 장치(100)는 디스플레이 화면이 투명하게 구현되어, 후면 배경이 투명하게 비치게 된다. 이에 따라, 디스플레이되는 정보가 후면 배경과 겹치게 되면, 정보가 잘 보이지 않게 되어 식별력이 떨어진다는 문제점이 발생할 수 있다. 1 is a view for explaining the operation of the transparent display device according to an embodiment of the present invention. According to FIG. 1, in the transparent display device 100, the display screen is implemented transparently so that the rear background is transparent. Accordingly, when the displayed information overlaps with the rear background, a problem may occur in that the information is not easily seen and the discrimination power is deteriorated.

예를 들어, 도 1에서와 같이 투명 디스플레이 장치(100)는 후방에 위치한 객체(20)가 투명하게 비치는 상태에서 정보(30)를 디스플레이할 수 있다. 이 경우, 후방에 위치한 객체(20)로 인해 디스플레이되는 정보(30)의 식별력이 감소될 수 있다. For example, as shown in FIG. 1, the transparent display device 100 may display the information 30 in a state where the object 20 located at the rear is transparently reflected. In this case, the discrimination power of the displayed information 30 may be reduced due to the object 20 located at the rear.

이에 따라 본 발명의 일 실시 예에 따르면, 투명 디스플레이 장치(100)의 후면 배경에 기초하여 디스플레이되는 정보의 디스플레이 상태를 변경하여 디스플레이한다. 예를 들어, 투명 디스플레이 장치(100) 상에 디스플레이할 정보의 색상, 휘도, 크기, 형상 등과 같은 디스플레이 속성이나 디스플레이 위치를 변경하여 디스플레이할 수 있다. Accordingly, according to an embodiment of the present invention, the display state of the displayed information is changed and displayed based on the rear background of the transparent display device 100. For example, display properties or display positions such as color, luminance, size, and shape of information to be displayed on the transparent display device 100 may be changed and displayed.

구체적으로, 투명 디스플레이 장치(100)는 사용자(10)의 위치 및 객체(20)의 위치를 각각 감지하고, 사용자의 위치에서 객체(20)를 보았을 때 투명 디스플레이부 상에서 객체가 투과되어 보이는 영역을 추정한다. 이하에서는, 설명의 편의를 위하여 객체가 투과되어 보이는 영역을 투과 영역이라 한다. 투과 영역에 정보가 표시되면, 후방의 객체 존재로 인해 정보의 식별력이 저하된다. 따라서, 투과 영역은 다르게는 식별력 저하 영역이라고 칭할 수도 있다. Specifically, the transparent display device 100 detects the location of the user 10 and the location of the object 20, respectively, and when an object 20 is viewed from the user's location, the transparent display unit shows an area through which the object is visible. Estimate. Hereinafter, for convenience of description, an area through which an object is visible is referred to as a transmission area. When information is displayed in the transmissive area, the discrimination power of the information decreases due to the presence of an object behind it. Therefore, the transmissive region may alternatively be referred to as a discriminating region.

이 경우, 투명 디스플레이 장치(100)는 투과 영역을 추정하기 위해서 투명 디스플레이부의 전체 영역을 기 설정된 사이즈의 가상 분할 영역으로 구분할 수 있다. 투명 디스플레이 장치(100)는, 구분된 가상 분할 영역 중에서, 객체(20)의 위치에 대응되는 영역을 투과 영역으로 추정할 수 있다. 이 경우, 투명 디스플레이 장치(100)는 사용자(10)의 위치 및 형상을 디스플레이 표면에 매핑시킨 매핑 영역(10')과, 객체(20)의 위치 및 형상을 디스플레이 표면에 매핑시킨 매핑 영역(20') 간의 상관 관계를 고려하여, 투과 영역을 추정할 수도 있다. 가령, 두 매핑 영역이 서로 오버랩되는 영역(10'∩20') 이 투과 영역으로 추정될 수 있다. In this case, the transparent display device 100 may divide the entire area of the transparent display unit into a virtual divided area of a predetermined size in order to estimate the transmission area. The transparent display device 100 may estimate a region corresponding to the position of the object 20 among the divided virtual divided regions as a transparent region. In this case, the transparent display device 100 includes a mapping area 10 ′ mapping the location and shape of the user 10 to the display surface and a mapping area 20 mapping the location and shape of the object 20 to the display surface. Considering the correlation between '), the transmission region may be estimated. For example, an area 10'∩20 'where two mapping areas overlap each other may be estimated as a transmission area.

투명 디스플레이 장치(100)는 각 매핑 영역들을 정확하게 산출하기 위해서 가상 분할 영역을 매트릭스 테이블로 매핑시킬 수 있다. 이 경우, 매트릭스 테이블 내에서 객체의 투과 영역에 매핑되는 셀과, 정보가 표시될 영역에 매핑되는 셀들 간의 상관 관계를 고려하여, 오버랩되는지 여부를 판단한다. The transparent display device 100 may map a virtual partition area to a matrix table in order to accurately calculate each mapping area. In this case, it is determined whether or not the overlap occurs in consideration of a correlation between cells mapped to a transparent area of an object and cells mapped to a region in which information is to be displayed in the matrix table.

투명 디스플레이 장치(100)는 두 영역이 서로 오버랩된다고 판단되면 정보의 디스플레이 상태를 조정할 수 있다. 즉, 투명 디스플레이 장치(100)는 투과 영역이 추정되면, 투과 영역에 표시되어 있던 정보(30)를 식별력이 저하될 염려가 없는 상태로 변경하여 디스플레이할 수 있다. 구체적으로, 정보(30)에 대응되는 픽셀 영역의 휘도 값 및 색상 값을 조정할 수 있다. 예를 들어, 정보(30)가 텍스트로 구현되는 경우 크기, 컬러, 휘도, 굵기, 폰트 등과 같은 다양한 표시 속성을 조정할 수 있다. 또는, 정보(30)의 표시 위치를 조정할 수도 있다. 이 경우, 정보(30)를 이동시키는 방향 및 이동 거리는 투과 영역과 정보(30) 표시 위치가 중복되는 정도, 중복되는 영역의 위치, 식별력이 저하되지 않는 타 영역의 위치 등을 고려하여 결정할 수 있다. 이 경우, 투명 디스플레이 장치(100)는 객체(20)의 특성과 정보(30)의 표시 속성을 비교한다. 예를 들어, 겹치는 영역의 넓이, 겹치는 영역의 색상, 객체와 투명 디스플레이 장치(100) 간의 거리, 사용자와 투명 디스플레이 장치(100) 간의 거리 등을 판단하여 그 판단 결과에 따라 정보의 표시 속성을 변경할 수 있다.When it is determined that the two areas overlap with each other, the transparent display device 100 may adjust the display state of the information. That is, when the transmissive area is estimated, the transparent display device 100 may display the information 30 displayed in the transmissive area in a state in which there is no fear that the discrimination power is deteriorated. Specifically, the luminance value and color value of the pixel area corresponding to the information 30 may be adjusted. For example, when the information 30 is implemented as text, various display attributes such as size, color, luminance, thickness, and font can be adjusted. Alternatively, the display position of the information 30 may be adjusted. In this case, the direction and distance to move the information 30 may be determined by considering the degree of overlap between the transmission area and the display position of the information 30, the position of the overlapping area, and the position of the other area where the discrimination power does not deteriorate. . In this case, the transparent display device 100 compares the properties of the object 20 with the display properties of the information 30. For example, the area of the overlapping area, the color of the overlapping area, the distance between the object and the transparent display device 100, and the distance between the user and the transparent display device 100 are determined, and the display property of information is changed according to the determination result. Can be.

구체적으로는, 객체의 투과 영역 중에서 겹치는 영역의 객체 색상이 정보의 표시 색상과 유사하다면, 정보의 표시 색상을 다른 색으로 변경하여 표시한다. Specifically, if the object color of the overlapping area among the transparent areas of the object is similar to the display color of the information, the display color of the information is changed to another color and displayed.

또는, 배경 정보로 인해 텍스트 정보의 식별이 어려운 경우, 텍스트 정보와 동일한 정보를 제공하는 이미지 형태로 표시하는 것도 가능하다. Alternatively, if it is difficult to identify the text information due to the background information, it is also possible to display it in the form of an image that provides the same information as the text information.

또는, 사용자가 투명 디스플레이 장치(100)와 멀리 떨어져 있다면 정보의 표시 영역의 크기를 확대하여 표시하고, 가깝다면 정보의 표시 영역을 작게 표시한다. 겹치는 영역이 넓은 경우에는 정보의 표시 위치의 이동 거리가 길어지므로, 그 길어진 방향에 맞는 형태로 정보의 레이아웃을 변경하여 줄 수도 있다. 또는 객체가 멀리 떨어져 있는 경우, 객체에 대한 확대 이미지를 정보로 제공하여 줄 수도 있다. Alternatively, if the user is far away from the transparent display device 100, the size of the display area of the information is enlarged and displayed, and if it is close, the display area of the information is displayed small. When the overlapping area is wide, the moving distance of the display position of the information becomes long, so the layout of the information may be changed in a form suitable for the extended direction. Alternatively, when the object is far away, an enlarged image of the object may be provided as information.

도 2는 본 발명의 일 실시 예에 따른 투명 디스플레이 장치의 구성을 나타내는 블럭도이다. 도 2에 따르면, 투명 디스플레이 장치(100)는 투명 디스플레이부(110), 감지부(120) 및 제어부(130)를 포함한다.2 is a block diagram showing the configuration of a transparent display device according to an embodiment of the present invention. According to FIG. 2, the transparent display device 100 includes a transparent display unit 110, a sensing unit 120, and a control unit 130.

투명 디스플레이부(110)는 정보를 디스플레이한다. 여기서, 정보는 이미지, 텍스트, 컨텐츠 재생 화면, 어플리케이션 실행 화면, 웹 브라우저 화면, 각종 그래픽 객체 등이 될 수 있다.The transparent display unit 110 displays information. Here, the information may be an image, text, content reproduction screen, application execution screen, web browser screen, various graphic objects, and the like.

투명 디스플레이부(110)는 실시 예에 따라 투명 LCD(Liquid Crystal Display) 형, 투명 OLED(Organic Light-Emitting Diode) 형, 투명 TFEL(Thin-Film Electroluminescent Panel) 형, 투사형 등과 같은 다양한 형태로 구현될 수 있다. 이하에서는, 투명 디스플레이부(110)의 구조에 대한 다양한 실시 예를 설명한다.The transparent display 110 may be implemented in various forms, such as a transparent liquid crystal display (LCD) type, a transparent organic light-emitting diode (OLED) type, a transparent thin-film electroluminescent panel (TFEL) type, or a projection type. Can be. Hereinafter, various embodiments of the structure of the transparent display unit 110 will be described.

< 투명 디스플레이부 구조에 대한 다양한 실시 예 ><Various embodiments of the structure of the transparent display>

투명 LCD 형이란 현재 사용되고 있는 LCD 장치에서 백라이트 유닛을 제거하고, 한 쌍의 편광판, 광학 필름, 투명 박막 트랜지스터, 투명 전극 등을 사용하여 구현한 투명 디스플레이 장치를 의미한다. 투명 LCD 장치에서는 편광판이나 광학 필름등에 의해 투과도가 떨어지고, 백라이트 유닛 대신 주변 광을 이용하게 되므로 광 효율이 떨어지지만, 대면적 투명 디스플레이를 구현할 수 있다는 장점이 있다. 투명 TFEL 형이란 투명 전극, 무기 형광체, 절연막으로 이루어진 교류형 무기박막 EL 디스플레이(AC-TFEL)를 사용하는 장치를 의미한다. AC-TFEL은 무기 형광체 내부에 가속이 된 전자가 지나가면서 형광체를 여기시켜 빛을 내게 하는 디스플레이이다. 투명 디스플레이부(130)가 투명 TFEL 형태로 구현된 경우, 제어부(130)는 적절한 위치로 전자가 투사되도록 조정하여, 정보 표시 위치를 결정할 수 있다. 무기 형광체, 절연막이 투명한 특성을 가지므로, 매우 투명한 디스플레이를 구현할 수 있다.  The transparent LCD type means a transparent display device implemented by removing a backlight unit from a currently used LCD device and using a pair of polarizers, optical films, transparent thin film transistors, and transparent electrodes. In a transparent LCD device, the transmittance is reduced by a polarizing plate or an optical film, and the ambient light is used instead of the backlight unit, so the light efficiency is reduced, but there is an advantage that a large area transparent display can be realized. The transparent TFEL type means a device using an AC type inorganic thin film EL display (AC-TFEL) composed of a transparent electrode, an inorganic phosphor, and an insulating film. AC-TFEL is a display that excites the phosphor and emits light as the accelerated electrons pass inside the inorganic phosphor. When the transparent display unit 130 is implemented in the form of a transparent TFEL, the control unit 130 may determine an information display position by adjusting the electron to be projected to an appropriate position. Since the inorganic phosphor and the insulating film have transparent properties, a very transparent display can be realized.

그 밖에, 투명 OLED형이란 자체 발광이 가능한 OLED를 이용하는 투명 디스플레이 장치를 의미한다. 유기 발광층이 투명하기 때문에, 양쪽 전극을 투명 전극으로 사용하면, 투명 디스플레이 장치로 구현 가능하다. OLED는 유기 발광층 양쪽에서 전자와 정공을 주입하여 이들이 유기 발광층 내에서 결합되면서 빛을 내게 된다. 투명 OLED 장치는 이러한 원리를 사용하여 원하는 위치에 전자 및 정공을 주입하여, 정보를 표시한다. In addition, the transparent OLED type means a transparent display device using an OLED capable of self-emission. Since the organic light emitting layer is transparent, if both electrodes are used as transparent electrodes, it can be realized as a transparent display device. OLEDs emit light by injecting electrons and holes from both sides of the organic light emitting layer and combining them in the organic light emitting layer. The transparent OLED device displays information by injecting electrons and holes into a desired position using this principle.

도 3은 투명 OLED 형으로 구현된 투명 디스플레이부의 세부 구성 예를 나타내는 도면이다. 설명의 편의를 위하여 투명 OLED(Organic Light-Emitting Diodes) 형으로 구현된 투명 디스플레이부에 대해서는 참조부호 140-1을 부여한다.3 is a view showing a detailed configuration example of a transparent display unit implemented in a transparent OLED type. For convenience of description, reference numeral 140-1 is given to a transparent display unit implemented in a transparent organic light-emitting diodes (OLED) type.

도 3에 따르면, 투명 디스플레이부(110-1)는 투명 기판(111-1), 투명 트랜지스터층(112-2), 제1 투명 전극(113-1), 투명 유기 발광 층(Transparent Organic Light-Emitting layer)(114-1), 제2 투명 전극(115-1), 연결 전극(116-1)을 포함한다.  According to FIG. 3, the transparent display unit 110-1 includes a transparent substrate 111-1, a transparent transistor layer 112-2, a first transparent electrode 113-1, and a transparent organic light-emitting layer. Emitting layer) (114-1), the second transparent electrode 115-1, and includes a connecting electrode (116-1).

투명기판(111-1)은 투명한 성질을 가지는 플라스틱과 같은 폴리머 재료 또는 유리를 사용할 수 있다. 투명 기판(111-1)의 재질은 투명 디스플레이 장치(100)가 적용된 사용 환경에 따라 결정될 수 있다. 가령, 폴리머 재료는 가볍고 유연하다는 장점이 있어 휴대형 디스플레이 장치에 사용될 수 있으며, 유리는 상점의 쇼윈도(show window)나 일반 창문 등에 사용할 수 있다.The transparent substrate 111-1 may use glass or a polymer material such as plastic having transparent properties. The material of the transparent substrate 111-1 may be determined according to the use environment to which the transparent display device 100 is applied. For example, the polymer material has the advantage of being lightweight and flexible, and thus can be used in a portable display device, and glass can be used in a shop window or a general window.

투명 트랜지스터층(112-2)이란 기존 박막 트랜지스터의 불투명한 실리콘을 투명한 아연산화물, 산화 티타늄 등과 같은 투명 물질로 대체하여 제작한 트랜지스터를 포함하는 레이어를 의미한다. 투명 트랜지스터층(112-2) 내에는 소스, 게이트, 드레인 및 각종 유전막(117-1, 118-1)이 마련되며, 드레인과 제1 투명 전극(113-1)을 전기적으로 연결하는 연결 전극(116-1)도 마련될 수 있다. 도 3에서는 투명 트랜지스터 층(112-1) 내에 소스, 게이트, 드레인으로 이루어진 하나의 투명 트랜지스터만이 도시되었으나, 실제로는 디스플레이 표면의 전체 영역에 고르게 분포된 복수 개의 투명 트랜지스터가 마련된다. 제어부(130)는 투명 트랜지스터층(112-2) 내의 각 트랜지스트들의 게이트로 제어 신호를 인가하여, 해당 투명 트랜지스터를 구동시켜 정보를 표시할 수 있다.The transparent transistor layer 112-2 means a layer including a transistor manufactured by replacing the opaque silicon of the existing thin film transistor with a transparent material such as transparent zinc oxide or titanium oxide. A source, a gate, a drain, and various dielectric films 117-1 and 118-1 are provided in the transparent transistor layer 112-2, and a connection electrode electrically connecting the drain and the first transparent electrode 113-1 ( 116-1) may also be provided. In FIG. 3, only one transparent transistor including source, gate, and drain is illustrated in the transparent transistor layer 112-1, but in practice, a plurality of transparent transistors evenly distributed over the entire area of the display surface is provided. The controller 130 may apply a control signal to the gates of the respective transistors in the transparent transistor layer 112-2 to drive the transparent transistor to display information.

제1 투명 전극 (113-1) 및 제2 투명 전극(115-1)은 투명 유기 발광층(114-1)을 기준으로 서로 반대 방향에 배치된다. 제1 투명 전극, 투명 유기 발광층 및 제2 투명 전극(113-1, 114-1, 115-1)은 투명 유기 발광 다이오드(Organic Light-Emitting Diodes)를 형성한다.The first transparent electrode 113-1 and the second transparent electrode 115-1 are disposed in opposite directions based on the transparent organic light emitting layer 114-1. The first transparent electrode, the transparent organic light emitting layer, and the second transparent electrodes 113-1, 114-1, and 115-1 form organic light-emitting diodes.

투명 유기 발광 다이오드는 구동 방식에 따라 크게 수동형(Passive Matrix OLED)과 능동형 (Active Matrix OLED)으로 분류된다. PMOLED는 제1 및 제2 투명 전극(113-1, 115-1)이 서로 교차하는 부분이 화소를 형성하는 구조이다. 반면, AMOLED는 각 화소를 구동하는 박막 트랜지스터(TFT)가 있는 구조이다. 도 3에서는 능동형을 나타내고 있다. Transparent organic light emitting diodes are largely classified into a passive matrix OLED and an active matrix OLED according to a driving method. PMOLED has a structure in which portions where the first and second transparent electrodes 113-1 and 115-1 cross each other form pixels. On the other hand, AMOLED has a structure in which a thin film transistor (TFT) driving each pixel is provided. 3 shows an active type.

제1 투명 전극 (113-1) 및 제2 투명 전극(115-1)은 각각 복수 개의 라인 전극을 포함하며, 라인 전극의 정렬 방향은 서로 수직하게 형성된다. 가령, 제1 투명 전극(113-1)의 라인 전극들이 가로 방향으로 배열되었다면, 제2 투명 전극(115-1)의 라인 전극들은 세로 방향으로 배열된다. 이에 따라, 제1 투명 전극(113-1) 및 제2 투명 전극(115-1) 간에는 복수의 교차 영역이 형성된다. 각 교차 영역에는 도 3에 도시된 바와 같이 투명 트랜지스터가 연결된다.The first transparent electrode 113-1 and the second transparent electrode 115-1 each include a plurality of line electrodes, and alignment directions of the line electrodes are formed perpendicular to each other. For example, if the line electrodes of the first transparent electrode 113-1 are arranged in the horizontal direction, the line electrodes of the second transparent electrode 115-1 are arranged in the vertical direction. Accordingly, a plurality of crossing regions are formed between the first transparent electrode 113-1 and the second transparent electrode 115-1. A transparent transistor is connected to each crossing region as shown in FIG. 3.

제어부(130)는 투명 트랜지스터를 이용하여 각 교차 영역 별로 전위차가 형성되도록 한다. 전위차가 형성된 교차 영역 내에서 각 전극으로부터 전자와 정공이 투명 유기 발광층(114-1)으로 유입되어 결합하면서 발광이 이루어진다. 반면, 전위차가 형성되지 않은 교차 영역은 발광이 이루어지지 않으며, 이에 따라 후면 배경이 그대로 투명하게 비치게 된다.The control unit 130 uses a transparent transistor to form a potential difference for each crossing region. Electrons and holes are introduced into the transparent organic light emitting layer 114-1 from each electrode in the crossing region where the potential difference is formed, and light is emitted while bonding. On the other hand, the crossing area where no potential difference is formed does not emit light, and accordingly, the rear background is transparently reflected.

제1 및 제2 투명 전극(113-1, 115-1)으로는 ITO(indium tin oxide)가 사용될 수 있다. 또는, 그래핀과 같은 신소재가 사용될 수도 있다. 그래핀이란 탄소원자가 서로 연결돼 벌집 모양의 평면 구조를 이루며 투명한 성질을 가지는 물질을 의미한다. 그 밖에, 투명 유기 발광 층(114-1)도 다양한 재료로 구현될 수 있다. Indium tin oxide (ITO) may be used as the first and second transparent electrodes 113-1 and 115-1. Alternatively, new materials such as graphene may be used. Graphene refers to a material having transparent properties with a carbon atom connected to each other to form a honeycomb plane. In addition, the transparent organic light emitting layer 114-1 may also be implemented with various materials.

한편, 상술한 바와 같이 투명 디스플레이부(110)는 투명 LCD(Liquid Crystal Display) 형, 투명 TFEL(Thin-Film Electroluminescent Panel) 형, 투명 OLED 형 이외에 투사형으로도 구현될 수 있다. 투사형이란 HUD(Head Up Display)와 같이 투명한 스크린에 영상을 투사하여 디스플레이하는 방식을 의미한다. Meanwhile, as described above, the transparent display unit 110 may be implemented as a projection type in addition to a transparent liquid crystal display (LCD) type, a transparent thin-film electroluminescent panel (TFEL) type, and a transparent OLED type. The projection type means a method of projecting and displaying an image on a transparent screen such as a HUD (Head Up Display).

다시 도 2를 참고하면, 감지부(120)는 투명 디스플레이부(110)를 기준으로 제1 방향 및 제2 방향 중 적어도 하나에 대한 배경 정보를 센싱한다. 여기서, 제1 방향 및 제2 방향은 투명 디스플레이부(110)를 기준으로 사용자가 위치한 방향과 그 반대 방향으로 정의될 수 있다. 또한, 배경 정보는 해당 방향에 대한 조도 정보, 해당 방향에 대한 배경 정보 등을 포함할 수 있다. 이 경우, 배경 정보란 해당 방향에 위치하는 객체에 대한 정보를 포함할 수 있다. 이에 따라 감지부(120)는 조도 센서, 촬상 센서 등으로 구현 가능하다. Referring back to FIG. 2, the sensing unit 120 senses background information on at least one of the first direction and the second direction based on the transparent display unit 110. Here, the first direction and the second direction may be defined in a direction opposite to the direction in which the user is located based on the transparent display unit 110. Also, the background information may include illumination information for the corresponding direction, background information for the corresponding direction, and the like. In this case, the background information may include information about an object located in a corresponding direction. Accordingly, the sensing unit 120 may be implemented as an illuminance sensor, an imaging sensor, or the like.

제어부(130)는 감지부(120)에 의해 센싱된 배경 정보에 기초하여 투명 디스플레이부(110) 상에 디스플레이되는 정보의 디스플레이 상태를 변경하도록 제어할 수 있다.The controller 130 may control to change the display state of the information displayed on the transparent display unit 110 based on the background information sensed by the sensing unit 120.

구체적으로, 제어부(130)는 감지부(120)에 의해 센싱된 조도 정보에 기초하여 투명 디스플레이부(110) 상에 디스플레이되는 정보에 대응되는 픽셀 영역의 휘도 값 및 색상 값 중 적어도 하나를 조정할 수 있다. 예를 들어, 제어부(130)는 두명 디스플레이 장치(100)의 전방 및 후방의 조도가 모두 높아 정보가 디스플레이되는 정보에 대한 식별력이 약한 경우, 해당 정보에 대응되는 픽셀 영역의 휘도를 감소시켜 디스플레이함으로써 디스플레이된 정보가 선명하게 인식되도록 할 수 있다. Specifically, the control unit 130 may adjust at least one of a luminance value and a color value of a pixel area corresponding to information displayed on the transparent display unit 110 based on the illuminance information sensed by the detection unit 120. have. For example, when the illuminance of both the front and rear of the two display devices 100 is high and the identification power of the information on which the information is displayed is weak, the control unit 130 reduces and displays the luminance of the pixel area corresponding to the information. The displayed information can be clearly recognized.

또한, 제어부(130)는 감지부(120)에 의해 센싱된 배경 정보에 기초하여 투명 디스플레이부(110) 상에 디스플레이되는 정보의 디스플레이 위치를 변경할 수 있다. 예를 들어, 투명 디스플레이 장치(100)의 후방에 위치한 객체가 투명하게 비치는 상태에서 정보를 디스플레이하는 경우, 해당 객체가 사용자에게 보여지는 위치, 해당 객체의 형상 및 색상 등에 기초하여 정보의 디스플레이 상태를 변경하여 디스플레이할 수 있다. 여기서, 객체란 구체적인 형상을 가지고 존재하는 것으로, 판매 가능한 상품, 동식물, 가구, 벽, 벽지 등과 같은 다양한 사물이 될 수 있다.In addition, the controller 130 may change the display position of the information displayed on the transparent display 110 based on the background information sensed by the detector 120. For example, when displaying information in a state in which an object located behind the transparent display device 100 is transparently reflected, the display state of the information is displayed based on the location where the object is visible to the user and the shape and color of the object. You can change it and display it. Here, the object exists with a specific shape, and may be various objects such as merchandise, animals, plants, furniture, walls, wallpaper, and the like, which can be sold.

<객체의 형상 및 색상 감지에 대한 다양한 실시 예><Various embodiments for object shape and color detection>

일 예로, 감지부(120)는 카메라와 같은 촬상 소자를 이용하여 후방 배경 이미지를 촬상하고, 그 촬상된 후방 배경 이미지를 분석하여 후방 배경 이미지에 포함된 객체의 속성, 예를 들어, 객체의 색상이나 객체에 써져 있는 텍스트, 객체에 그려지거나 부착된 이미지 등을 인식할 수도 있다. 객체의 색상의 경우에는 카메라를 통해 촬상된 이미지에서 에지 검출을 하고, 검출된 에지 내부의 색상을 검출할 수 있다. 텍스트나 이미지의 경우에도 카메라를 통해 촬상된 이미지로부터 텍스트 판독 또는 이미지 판독 알고리즘을 이용하여 검출할 수 있다. 이러한 색상이나, 텍스트, 이미지 등이 검출되면, 투명 디스플레이 장치(100)는 해당 객체에 대한 정보를 제어부(130)에 제공할 수 있다. For example, the sensing unit 120 photographs a rear background image using an imaging device such as a camera, analyzes the captured rear background image, and attributes of an object included in the rear background image, for example, the color of the object Or, it can recognize text written on an object, or an image drawn or attached to an object. In the case of the color of the object, edge detection may be performed on an image captured through the camera, and color inside the detected edge may be detected. In the case of text or images, it can be detected by using a text reading or image reading algorithm from images captured by the camera. When such a color, text, image, or the like is detected, the transparent display device 100 may provide information on the object to the controller 130.

또한, 감지부(120)는 촬상된 영상을 통해 후방 배경의 평균 색상을 검출하는 것도 가능하다. 예를 들어, 감지부(120)는 투명 디스플레이부(110) 상에 투명하게 비치는 배경이 색상이 다양한 경우 다양한 색상의 평균값을 검출할 수 있다. Also, the sensing unit 120 may detect the average color of the rear background through the captured image. For example, the sensing unit 120 may detect an average value of various colors when the backgrounds transparently reflected on the transparent display unit 110 have various colors.

제어부(130)는 감지부(120)에서 각각 감지한 후방 배경의 형상 및 색상, 후방 배경에 포함된 객체(20)의 형상 및 색상 등을 기반으로, 투명 디스플레이부(110)에 디스플레이되는 정보의 색상 또는 휘도, 크기 등을 조정할 수 있다. Based on the shape and color of the back background and the shape and color of the object 20 included in the back background, respectively, the control unit 130 detects information displayed on the transparent display unit 110. Color, brightness, size, etc. can be adjusted.

<객체 및 사용자 위치 감지 방법에 대한 다양한 실시 예><Various embodiments of object and user location detection methods>

한편, 감지부(120)는 상술한 투과 영역을 추정하기 위해 후방 배경에 포함된 객체의 위치 및 전방에 위치한 사용자의 위치를 감지할 수 있다. On the other hand, the sensing unit 120 may detect the position of the object included in the rear background and the position of the user located in front to estimate the transmission area described above.

일 예로, 감지부(120)는 촬상된 이미지를 통해 후방 배경에 포함된 객체의 위치를 감지할 수 있다. For example, the sensing unit 120 may detect the position of the object included in the rear background through the captured image.

다른 예로, 감지부(120)는 광센서를 이용하여 후방으로부터 입사되는 광의 세기를 감지하고, 그 광의 세기 분포를 분석하여 객체의 위치를 감지할 수 있다. As another example, the sensor 120 may detect the intensity of light incident from the rear using an optical sensor, and analyze the intensity distribution of the light to detect the position of the object.

또 다른 예로, 사용자 또는 관리자가 객체의 위치를 직접 입력하여, 객체의 위치를 결정할 수도 있다. 이 경우, 감지부(120)는 터치 스크린, 키보드, 마우스, 조이스틱, 터치 패드, 버튼 등과 같은 다양한 입력 수단으로 구현될 수 있다. 사용자 또는 관리자는 입력 수단을 통해 후방의 객체 위치를 직접 정할 수 있다.As another example, a user or an administrator may directly input the location of an object to determine the location of the object. In this case, the sensing unit 120 may be implemented by various input means such as a touch screen, keyboard, mouse, joystick, touch pad, buttons, and the like. The user or the administrator can directly determine the rear object position through the input means.

또한, 감지부(120)는 투명 디스플레이 장치(100)의 전방에 위치한 사용자의 위치를 검출할 수 있다. 이 경우에도 상술한 바와 마찬가지로 촬상 소자를 이용하거나, 광 센서를 이용하여 사용자의 위치를 검출할 수 있다. In addition, the sensing unit 120 may detect a user's location located in front of the transparent display device 100. In this case, as described above, the user's position can be detected using an imaging element or an optical sensor.

이상과 같이, 감지부(120)가 후방 배경에 포함된 객체의 위치 및 사용자의 위치를 감지하는 방식은 다양한 실시 예에 따라 상이하게 구현될 수 있다.As described above, the method in which the sensing unit 120 detects the position of the object and the position of the user included in the rear background may be implemented differently according to various embodiments.

제어부(130)는 감지부(120)에서 각각 감지한 후방 배경에 포함된 객체(20) 위치 및 사용자(10)의 위치를 기반으로, 사용자(10)가 투명 디스플레이부(110)를 바라보았을 때 투명 디스플레이부(110) 상에서 객체(20)가 보이는 영역, 즉, 투과 영역을 추정한다. When the user 10 looks at the transparent display 110 based on the location of the object 20 and the location of the user 10 included in the rear background, respectively detected by the detection unit 120 The area in which the object 20 is visible on the transparent display unit 110, that is, the transmission area is estimated.

그리고, 제어부(130)는 투명 디스플레이부(110)에서 투과 영역에 포함되는 정보(30)를 디스플레이하고 있는지 확인하고, 확인된 정보의 표시 위치를 타 영역으로 이동하도록 결정할 수 있다. Then, the control unit 130 may determine whether the transparent display unit 110 displays the information 30 included in the transparent area, and may determine to move the display position of the checked information to another area.

<조도 감지에 대한 다양한 실시 예><Various embodiments for illuminance detection>

한편, 감지부(120)는 사용자가 위치하는 전방 및 투명하게 비치는 후면 배경이 존재하는 후방 중 적어도 하나에 대한 조도를 감지할 수 있다. 예를 들어 CDS 조도 센서는 투명 디스플레이 장치(100)의 양면에 각각 설치하여 양 방향에 대한 조도를 감지할 수 있다. 이 경우, 조도 센서는 투명 디스플레이 장치(100)의 양면의 기설정된 적어도 하나의 영역에 설치될 수도 있지만, 양면의 각 픽셀 단위에 설치되는 것도 가능하다. 예를 들어, CMOS 센서가 투명 디스플레이부(110)의 크기에 대응되도록 확대된 형태의 조도 센서를 설치하여 각 영역 또는 각 픽셀 별 조도 상태를 측정하는 것도 가능하다. On the other hand, the sensing unit 120 may detect the illuminance of at least one of the front where the user is located and the rear where the transparently reflected rear background is present. For example, the CDS illuminance sensor may be installed on both sides of the transparent display device 100 to detect illuminance in both directions. In this case, the illuminance sensor may be installed in at least one predetermined area on both sides of the transparent display device 100, but it may also be installed in each pixel unit of both sides. For example, it is also possible to measure the illuminance state of each region or each pixel by installing an illuminance sensor in an enlarged form so that the CMOS sensor corresponds to the size of the transparent display 110.

도 4는 본 발명의 구체적인 실시 예에 따른 투명 디스플레이 장치의 구성을 설명하기 위한 블럭도이다. 도 4에 따르면, 투명 디스플레이 장치(100)는 투명 디스플레이부(110), 제1 감지부(121), 제2 감지부(122), 제3 센싱부(123), 제어부(130), 저장부(140) 및 입력부(150)를 포함한다. 도 4에 도시된 구성요소들 중 도 2에 도시된 구성요소와 중복되는 구성에 대해서는 자세한 설명을 생략하도록 한다. 4 is a block diagram illustrating a configuration of a transparent display device according to a specific embodiment of the present invention. According to FIG. 4, the transparent display device 100 includes a transparent display unit 110, a first sensing unit 121, a second sensing unit 122, a third sensing unit 123, a control unit 130, and a storage unit 140 and an input unit 150. Among components shown in FIG. 4, detailed descriptions of components overlapping with those shown in FIG. 2 will be omitted.

제1 감지부(121)는 투명 디스플레이 장치(100)의 제1 방향에 존재하는 객체의 위치를 감지한다. 제2 감지부(122)는 투명 디스플레이 장치(100)의 제2 방향에 존재하는 사용자의 위치를 감지한다. 또한, 제3 감지부(123)는 투명 디스플레이 장치(100)의 제1 방향 또는 제2 방향에 대한 조도를 감지한다. 제어부(130)는 감지된 객체의 위치 및 사용자의 위치를 고려하여 투명 디스플레이부(110) 상에 정보를 디스플레이하거나, 감지된 조도 정보를 고려하여 투명 디스플레이부(110) 상에 정보를 디스플레이할 수 있다. The first sensing unit 121 detects the position of the object existing in the first direction of the transparent display device 100. The second sensing unit 122 detects the location of the user in the second direction of the transparent display device 100. Also, the third sensing unit 123 detects the illuminance of the transparent display device 100 in a first direction or a second direction. The controller 130 may display information on the transparent display unit 110 in consideration of the detected object location and the user's location, or display information on the transparent display unit 110 in consideration of the sensed illumination information. have.

제1 감지부(121) 및 제2 감지부(122)는 다양한 방식으로 객체 및 사용자의 위치를 감지할 수 있다. 이하에서는 제1 감지부(121) 및 제2 감지부(122)의 감지 방법에 대한 다양한 예를 설명한다.The first sensing unit 121 and the second sensing unit 122 may sense the location of the object and the user in various ways. Hereinafter, various examples of the detection methods of the first detection unit 121 and the second detection unit 122 will be described.

제1 감지부(121)는 객체의 위치를 감지한다. 제1 감지부(120)는 제1 촬상부(121-1), 제1 검출부(121-2)를 포함한다.The first sensing unit 121 detects the location of the object. The first sensing unit 120 includes a first imaging unit 121-1 and a first detection unit 121-2.

제1 촬상부(121-1)는 투명 디스플레이 장치(100)의 제1 방향으로 촬상을 수행한다. 이에 따라, 제1 방향에 있는 객체를 포함하는 적어도 하나의 사물을 촬상할 수 있다. 설명의 편의를 위해서, 본 명세서에서는 제1 촬상부(121-1)가 촬상한 이미지를 후방 배경 이미지라 명명한다. The first imaging unit 121-1 performs imaging in the first direction of the transparent display device 100. Accordingly, at least one object including the object in the first direction can be captured. For convenience of description, in this specification, an image captured by the first imaging unit 121-1 is referred to as a rear background image.

제1 검출부(121-2)는 후방 배경 이미지의 각 이미지 픽셀 정보를 이용하여 각 사물의 에지를 검출한다. 에지 검출은 다양한 검출 알고리즘에 따라 이루어질 수 있다. The first detection unit 121-2 detects the edge of each object by using each image pixel information of the rear background image. Edge detection can be done according to various detection algorithms.

일 예로, 제1 검출부(121-2)는 후방 배경 이미지를 m*n 픽셀 단위로 분할하여 복수의 블럭으로 구분한다. 제1 검출부(121-2)는 각 블럭의 대표값을 검출한다. 대표값은 해당 블럭 내의 전체 픽셀들의 평균 픽셀값, 해당 블럭 내의 각 픽셀들의 픽셀값 중에서 가장 많은 픽셀값, 각 픽셀들의 픽셀값들을 전부 가산한 총 픽셀값 등이 될 수 있다. 제1 검출부(121-2)는 검출된 각 대표값들을 비교하여, 서로 유사한 대표값들을 가지면서 연속적으로 배치된 블럭들이 존재하는지 확인한다. 동일한 객체가 촬상된 영역에 포함된 블럭들은 대표값이 서로 유사한 범위를 가지게 된다. For example, the first detection unit 121-2 divides the rear background image into m * n pixel units and divides them into a plurality of blocks. The first detection unit 121-2 detects a representative value of each block. The representative value may be the average pixel value of all pixels in the block, the largest pixel value among the pixel values of each pixel in the block, or the total pixel value of all pixels. The first detection unit 121-2 compares each of the detected representative values, and checks whether there are consecutively arranged blocks having similar representative values. Blocks included in the region in which the same object is imaged have a range in which representative values are similar to each other.

제1 검출부(121-2)는 연속된 유사 블럭들이 확인되면, 확인된 유사 블럭들과 상이한 대표값을 가지는 블럭간의 경계 지점에 해당하는 블럭을 에지 부분으로 검출한다. When consecutive similar blocks are identified, the first detection unit 121-2 detects a block corresponding to a boundary point between the identified similar blocks and blocks having a different representative value as an edge portion.

또한, 제1 검출부(121-2)는 검출된 에지를 이용하여 제1 촬상부(121-1)가 촬상한 각 사물들 중에서 객체를 식별하고, 식별된 객체의 위치와 촬상 이미지 상에서의 식별 영역을 검출한다. 일 예로, 제1 검출부(121-2)는 검출된 에지 부분이 폐곡선을 형성하면, 후방 배경 이미지의 전체 블럭들 중에서 폐곡선 내에 해당하는 블럭들의 위치를 객체의 위치로 검출한다. 그리고, 후방 배경 이미지와 투명 디스플레이부(110)의 전체 영역을 비교하여, 투명 디스플레이부(110)의 전체 영역 중 객체가 식별되는 식별 영역을 검출한다. In addition, the first detection unit 121-2 identifies an object among the objects captured by the first imaging unit 121-1 using the detected edge, the location of the identified object, and an identification area on the captured image Detects. For example, when the detected edge portion forms a closed curve, the first detection unit 121-2 detects the position of blocks corresponding to the closed curve among the entire blocks of the background image as an object position. Then, the rear background image is compared with the entire area of the transparent display unit 110 to detect an identification area in which the object is identified among the entire area of the transparent display unit 110.

제2 감지부(122)는 제2 촬상부(122-1) 및 제2 검출부(122-2)를 포함한다. 제2 촬상부(122-1)는 투명 디스플레이 장치(100)를 기준으로 제2 방향으로 촬상을 수행한다. 이에 따라, 전방 배경 이미지를 획득한다. The second sensing unit 122 includes a second imaging unit 122-1 and a second detection unit 122-2. The second imaging unit 122-1 performs imaging in the second direction based on the transparent display device 100. Accordingly, a front background image is acquired.

제2 검출부(122-2)는 제2 촬상부(122-1)에서 촬상된 전방 배경 이미지를 분석하여 사용자의 위치를 검출한다. 사용자의 위치 검출 방식은 상술한 제1 검출부(121-2)의 객체 위치 검출 방식과 동일하게 구현될 수 있다.The second detection unit 122-2 analyzes the front background image captured by the second imaging unit 122-1 to detect the user's location. The user's location detection method may be implemented in the same manner as the object location detection method of the first detection unit 121-2 described above.

또한, 사용자에 대한 특성 정보도 미리 등록을 시켜 두거나, 사용자가 구비한 근거리 무선 통신 모듈이 포함된 사용자 단말 장치 또는 태그를 통해서 제공받고, 그 특성 정보에 따라 사용자의 위치를 정확하게 검출할 수도 있음은 물론이다.In addition, it is also possible to pre-register the characteristic information for the user, or to receive it through a user terminal device or tag including a short-range wireless communication module provided by the user, and to accurately detect the user's location according to the characteristic information. Of course.

제3 감지부(123)는 제1 방향 및 제2 방향 중 적어도 하나에 대한 조도를 감지한다. 여기서, 제3 감지부(123)는 조도 센서, IR 센서, CMOS 센서 등으로 구현 가능하다. 이 경우, 조도 센서는 여러 가지 광전지를 이용할 수 있지만, 매우 낮은 조도의 측정에는 광전관(光電管)을 이용하는 것도 가능하다. The third sensing unit 123 detects illuminance in at least one of the first direction and the second direction. Here, the third detection unit 123 may be implemented by an illuminance sensor, an IR sensor, a CMOS sensor, and the like. In this case, the illuminance sensor may use various photocells, but it is also possible to use a photoelectric tube for measurement of very low illuminance.

제어부(130)는 제1 및 제2 감지부(121, 122)에서 각각 감지된 객체의 위치 및 사용자의 위치에 기반하여, 투과 영역을 판단한다. The controller 130 determines the transmission area based on the position of the object and the position of the user sensed by the first and second sensing units 121 and 122, respectively.

제어부(130)는 투명 디스플레이부(110)의 전체 영역을 복수 개로 구분하고, 구분된 각 영역들 중에서 사용자의 위치에서 객체가 보여지는 영역을 투과 영역으로 판단한다. 제어부(130)는 투과 영역 내에 표시된 정보와 제1 촬상부(121-1)에서 촬상된 영상의 속성을 비교하여 투과 영역 내에 표시되는 정보의 디스플레이 속성을 변경할 수 있다. 예를 들어, 해당 정보가 디스플레이되는 픽셀 영역의 휘도, 색상 등을 변경하거나, 해당 정보의 크기, 디스플레이 위치 등을 변경할 수 있다. The control unit 130 divides the entire area of the transparent display unit 110 into a plurality, and determines an area in which an object is seen at a user's location among the divided areas as a transmission area. The controller 130 may change the display property of the information displayed in the transparent area by comparing the information displayed in the transparent area with the property of the image captured by the first imaging unit 121-1. For example, the luminance, color, etc. of the pixel area in which the corresponding information is displayed may be changed, or the size, display position, etc. of the corresponding information may be changed.

또한, 제어부(130)는 제3 감지부(123)에서 감지된 조도 상태에 기초하여 투명 디스플레이부(110) 전체 영역 또는 정보가 표시되는 영역에 대응되는 픽셀 영역의 휘도, 색상 등을 변경할 수 있다. 이 경우, 제어부(130)는 디스플레이부(110)를 구성하는 디스플레이 소자(예를 들어, LCD, OLED 등)의 특성에 따라 휘도를 상이하게 조정할 수 있다. In addition, the controller 130 may change the luminance, color, etc. of the pixel area corresponding to the entire area of the transparent display unit 110 or the area where the information is displayed based on the illuminance state detected by the third sensing unit 123. . In this case, the control unit 130 may adjust the brightness differently according to the characteristics of the display elements (eg, LCD, OLED, etc.) constituting the display unit 110.

한편, 상술한 실시 예에서는 제1 감지부(121) 내지 제3 감지부(123)에서 감지된 배경 정보가 별개로 이용되는 것으로 설명하였지만, 이는 설명의 편의를 위한 것이며, 각 감지부에서 감지된 배경 정보가 통합적으로 이용될 수 있음을 물론이다. On the other hand, in the above-described embodiment, although the background information detected by the first sensing unit 121 to the third sensing unit 123 is described as being used separately, this is for convenience of description, and is detected by each sensing unit. It goes without saying that the background information can be used integrally.

한편, 제어부(130)는 RAM(131), ROM(132), 메인 CPU(133), 그래픽 처리부(134), 제1 내지 n 인터페이스(135-1 ~ 135-n), 버스(136)를 포함한다.Meanwhile, the control unit 130 includes a RAM 131, a ROM 132, a main CPU 133, a graphic processing unit 134, first to n interfaces 135-1 to 135-n, and a bus 136. do.

RAM(131), ROM(132), 메인 CPU(133), 그래픽 처리부(134), 제1 내지 n 인터페이스(135-1 ~ 135-n) 등은 버스(136)를 통해 서로 연결될 수 있다. The RAM 131, the ROM 132, the main CPU 133, the graphic processing unit 134, and the first to n interfaces 135-1 to 135-n may be connected to each other through the bus 136.

제1 내지 n 인터페이스(135-1 내지 135-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to n interfaces 135-1 to 135-n are connected to various components described above. One of the interfaces may be a network interface connected to an external device through a network.

메인 CPU(133)는 저장부(140)에 액세스하여, 저장부(140)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 저장부(140)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다. The main CPU 133 accesses the storage 140 to boot using the O / S stored in the storage 140. In addition, various operations are performed using various programs, contents, and data stored in the storage 140.

ROM(132)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, 메인 CPU(133)는 ROM(132)에 저장된 명령어에 따라 저장부(140)에 저장된 O/S를 RAM(131)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(133)는 저장부(140)에 저장된 각종 어플리케이션 프로그램을 RAM(131)에 복사하고, RAM(131)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다. The ROM 132 stores a set of instructions for booting the system and the like. When the turn-on command is input and power is supplied, the main CPU 133 copies the O / S stored in the storage 140 to the RAM 131 according to the command stored in the ROM 132, and executes the O / S. Boot the system. When the booting is completed, the main CPU 133 copies various application programs stored in the storage 140 to the RAM 131, and executes the application programs copied to the RAM 131 to perform various operations.

그래픽 처리부(134)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 연산부(미도시)는 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. 렌더링부(미도시)는 연산부(미도시)에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성한다. 렌더링부(미도시)에서 생성된 화면은 투명 디스플레이부(110)의 디스플레이 영역 내에 표시된다.The graphic processing unit 134 generates a screen including various objects, such as icons, images, and text, by using a calculation unit (not shown) and a rendering unit (not shown). The calculation unit (not shown) calculates attribute values such as coordinate values, shapes, sizes, colors, etc. to be displayed according to the layout of the screen. The rendering unit (not shown) generates screens of various layouts including objects based on attribute values calculated by the calculation unit (not shown). The screen generated by the rendering unit (not shown) is displayed in the display area of the transparent display unit 110.

저장부(140)에는 제1 촬상부(121-1), 제2 촬상부(122-1)에서 각각 촬상한 이미지, 객체 위치 및 사용자의 위치에 대한 정보 및 기타 다양한 정보와, 투명 디스플레이 장치(100)의 동작과 관련하여 사용자가 설정한 각종 세팅 정보, 시스템 구동 소프트웨어(Operating Software), 각종 어플리케이션 프로그램 등이 저장될 수 있다. The storage unit 140 may include images captured by the first imaging unit 121-1 and the second imaging unit 122-1, information on the object location and the user's location, and various other information, and a transparent display device ( In relation to the operation of 100), various setting information set by the user, system operating software, and various application programs may be stored.

입력부(150)는 투명 디스플레이 장치(100)의 동작과 관련하여 다양한 사용자 명령을 입력받기 위한 부분이다. 입력부(150)는 투명 디스플레이부(110) 상에 구현되는 터치 스크린, 투명 디스플레이 장치(100)의 본체에 구비된 각종 버튼, 투명 디스플레이 장치(100)에 연결된 키보드, 마우스 등과 같은 외부 입력 수단으로부터 각종 입력 신호를 입력받는 I/O(Input/Output Interface) 등과 같이 다양한 형태로 구현될 수 있다. 사용자는 입력부(150)를 통해 정보 표시 위치 이동 기능을 온 또는 오프(ON/OFF) 시킬 수 있고, 정보 표시 위치를 이동하기 위한 조건이나, 이동시의 표시 속성 변경 방식 등을 설정할 수 있다.The input unit 150 is a portion for receiving various user commands related to the operation of the transparent display device 100. The input unit 150 is various from external input means such as a touch screen implemented on the transparent display unit 110, various buttons provided on the main body of the transparent display device 100, a keyboard connected to the transparent display device 100, a mouse, and the like. It may be implemented in various forms such as an input / output interface (I / O) that receives an input signal. The user can turn the information display position moving function on or off (ON / OFF) through the input unit 150 and set conditions for moving the information display position or a method of changing display properties when moving.

도 5는 본 발명의 일 실시 예에 따라 감지된 배경 정보에 기초하여 정보의 디스플레이 위치를 변경하여 디스플레이하는 방법을 설명하기 위한 도면이다. 5 is a view for explaining a method of changing and displaying a display position of information based on the detected background information according to an embodiment of the present invention.

도 5a는 투명 디스플레이부(110)의 전체 영역을 복수 개의 블럭으로 구분한 상태를 설명하기 위한 도면이다. 5A is a view for explaining a state in which the entire area of the transparent display unit 110 is divided into a plurality of blocks.

도 5a에 따르면, 투명 디스플레이부(110)의 전체 영역은 복수 개의 세로 라인(V1 ~ Vx) 및 복수 개의 가로 라인(H1 ~ Hy)으로 이루어지는 가상 분할 영역으로 구분된다. 가상 분할 영역은 매트릭스 형태로 구현될 수 있다.According to FIG. 5A, the entire area of the transparent display unit 110 is divided into a virtual divided area composed of a plurality of vertical lines V 1 to V x and a plurality of horizontal lines H 1 to H y . The virtual partition may be implemented in a matrix form.

고 해상도를 요구하는 경우 매트릭스의 각 셀들은 하나의 픽셀 단위로 이루어질 수도 있지만, 연산 부담을 고려하여 각 셀들은 복수 개의 픽셀 단위로 구성될 수 있다. 더 크게는, 가상 분할 영역은 투명 디스플레이부(110)의 전체 영역을 4분할, 6분할, 9분할, 12분할 등으로 나누어서 구성할 수도 있다. In the case of requiring high resolution, each cell of the matrix may be composed of one pixel unit, but each cell may be composed of a plurality of pixel units in consideration of computational burden. More specifically, the virtual divided area may be configured by dividing the entire area of the transparent display unit 110 into 4 divisions, 6 divisions, 9 divisions, 12 divisions, and the like.

제어부(130)는 사용자의 위치 및 객체의 위치를 각각 투명 디스플레이부(110)의 전체 영역 중 대응되는 영역에 매칭시킨다. 도 5a에서는 객체(20)는 (Vn+4, Hm+2), (Vn+5, Hm+2), (Vn+6, Hm+2), (Vn+7, Hm+2), (Vn+4, Hm+3), (Vn+5, Hm+3), (Vn+6, Hm+3), (Vn+7, Hm+3), (Vn+4, Hm+4), (Vn+5, Hm+4), (Vn+6, Hm+4), (Vn+7, Hm+4), (Vn+4, Hm+5), (Vn+5, Hm+5), (Vn+6, Hm+5), (Vn+7, Hm+5) 영역에 비치게 된다. 이하에서는, 객체(20)가 투명 디스플레이 부(110) 상에서 비치는 영역을 참조부호 20'로 표기한다.The controller 130 matches the location of the user and the location of the object to a corresponding region among the entire regions of the transparent display unit 110, respectively. In FIG. 5A, the object 20 is (V n + 4 , H m + 2 ), (V n + 5 , H m + 2 ), (V n + 6 , H m + 2 ), (V n + 7 , H m + 2 ), (V n + 4 , H m + 3 ), (V n + 5 , H m + 3 ), (V n + 6 , H m + 3 ), (V n + 7 , H m +3 ), (V n + 4 , H m + 4 ), (V n + 5 , H m + 4 ), (V n + 6 , H m + 4 ), (V n + 7 , H m + 4) ), (V n + 4 , H m + 5 ), (V n + 5 , H m + 5 ), (V n + 6 , H m + 5 ), (V n + 7 , H m + 5 ) regions It is reflected in. Hereinafter, an area reflected by the object 20 on the transparent display unit 110 is denoted by 20 '.

반면, 사용자의 위치는 (Vn+3, Hm+1), (Vn+4, Hm+1), (Vn+5, Hm+1), (Vn+6, Hm+1), (Vn+3, Hm+2), (Vn+4, Hm+2), (Vn+5, Hm+2), (Vn+6, Hm+2), (Vn+3, Hm+3), (Vn+4, Hm+3), (Vn+5, Hm+3), (Vn+6, Hm+3), (Vn+3, Hm+4), (Vn+4, Hm+4), (Vn+5, Hm+4), (Vn+6, Hm+4), (Vn+3, Hm+5), (Vn+4, Hm+5), (Vn+5, Hm+5), (Vn+6, Hm+5), (Vn+4, Hm+6), (Vn+5, Hm+6), (Vn+4, Hm+7), (Vn+5, Hm+7), (Vn+4, Hm+8), (Vn+5, Hm+8)영역에 비치게 된다. 이하에서는 사용자(10)가 투명 디스플레이부(110) 상에 비치는 영역을 참조부호 10'로 표기한다. 또한, 도 5a에서는, 정보(30)가 객체 매칭 영역(20') 및 사용자 매칭 영역(10')과 일부분 겹치는 위치에 표시된 상태를 나타낸다.On the other hand, the user's location is (V n + 3 , H m + 1 ), (V n + 4 , H m + 1 ), (V n + 5 , H m + 1 ), (V n + 6 , H m +1 ), (V n + 3 , H m + 2 ), (V n + 4 , H m + 2 ), (V n + 5 , H m + 2 ), (V n + 6 , H m + 2) ), (V n + 3 , H m + 3 ), (V n + 4 , H m + 3 ), (V n + 5 , H m + 3 ), (V n + 6 , H m + 3 ), (V n + 3 , H m + 4 ), (V n + 4 , H m + 4 ), (V n + 5 , H m + 4 ), (V n + 6 , H m + 4 ), (V n + 3 , H m + 5 ), (V n + 4 , H m + 5 ), (V n + 5 , H m + 5 ), (V n + 6 , H m + 5 ), (V n + 4 , H m + 6 ), (V n + 5 , H m + 6 ), (V n + 4 , H m + 7 ), (V n + 5 , H m + 7 ), (V n + 4 , H m + 8 ), (V n + 5 , H m + 8 ). Hereinafter, an area reflected by the user 10 on the transparent display unit 110 is denoted by reference numeral 10 '. In addition, in FIG. 5A, the information 30 is displayed at a position partially overlapping the object matching area 20 ′ and the user matching area 10 ′.

제어부(130)는 제1 감지부(121)에서 감지된 객체 위치와 제2 감지부(122)에서 감지된 사용자 위치를 각각 저장부(140)에 저장된 매트릭스 테이블에 기록한다. 이에 따라, 두 위치가 겹치는 부분을 투과 영역으로 판단한다. The control unit 130 records the object location detected by the first detection unit 121 and the user location detected by the second detection unit 122 in a matrix table stored in the storage unit 140, respectively. Accordingly, the portion where the two positions overlap is determined as the transmission area.

또는, 제어부(130)는 객체를 투명 디스플레이부(110)에 그대로 수직하게 투영시켜 객체 매칭 영역(20')을 결정하고, 사용자도 수직하게 투영시켜 사용자 매칭 영역(10')을 결정할 수 있다. 이 경우, 사용자의 위치에서 객체가 보이는 영역, 즉, 투과 영역은 객체 매칭 영역(20') 및 사용자 매칭 영역(10') 사이에 형성될 수 있다. 이 경우, 제어부(130)는 객체와 투명 디스플레이부(110)간의 거리, 사용자와 투명 디스플레이부(110) 간의 거리, 및 그 거리들의 비율에 따라 투과 영역을 결정할 수 있다. 즉, 제어부(130)는 투명 디스플레이부(110)의 표면과 객체를 수직으로 연결한 지점을 중심으로 두고 객체의 형상 및 객체의 크기를 고려하여, 상술한 객체 매칭 영역(20')을 판단할 수 있다. 또한, 사용자 매칭 영역(10')도 마찬가지로 사용자와 투명 디스플레이부(110)의 표면을 수직으로 연결한 지점을 중심으로 두고 사용자의 형상 및 크기를 고려하여 판단할 수 있다. 이에 따르면, 객체와 사용자가 투명 디스플레이부(110) 표면으로부터 수직하게 서로 대칭되도록 위치하였다면, 사용자 매칭 영역(10') 및 객체 매칭 영역(20') 간의 중복 영역이 그대로 투과 영역에 해당한다.Alternatively, the controller 130 may determine the object matching area 20 'by projecting the object on the transparent display unit 110 as it is, and determine the user matching area 10' by vertically projecting the user. In this case, an area in which an object is visible at the user's location, that is, a transmissive area, may be formed between the object matching area 20 ′ and the user matching area 10 ′. In this case, the control unit 130 may determine a transmission area according to a distance between the object and the transparent display unit 110, a distance between the user and the transparent display unit 110, and a ratio of the distances. That is, the controller 130 determines the object matching area 20 ′ as described above, considering the shape of the object and the size of the object, centering on the point where the surface of the transparent display unit 110 and the object are vertically connected. Can be. In addition, the user matching area 10 ′ may also be determined by considering the shape and size of the user, centering on the point where the surfaces of the user and the transparent display unit 110 are vertically connected. According to this, if the object and the user are positioned to be symmetric to each other vertically from the surface of the transparent display unit 110, the overlapping area between the user matching area 10 'and the object matching area 20' corresponds to the transparent area.

반면, 객체 및 사용자가 각각 투명 디스플레이부(110)를 기준으로 45도 각도로 기울어진 상태로 위치하였다면, 사용자 매칭 영역(10') 및 객체 매칭 영역(20') 사이의 영역 중 정중앙 영역이 투과 영역에 해당한다. 이와 같이, 투과 영역은 사용자, 객체와의 거리와 그 각도에 따라 산출될 수 있다. 이에 대해서는 후술하는 부분에서 구체적으로 설명한다. On the other hand, if the object and the user are positioned at an angle of 45 degrees relative to the transparent display unit 110, the center region of the area between the user matching area 10 'and the object matching area 20' is transmitted. It corresponds to the realm. As such, the transmissive area may be calculated according to the user's distance to the object and its angle. This will be described in detail later in the section.

한편, 제어부(130)는 사용자 또는 객체의 위치 변경이나 신규 사용자 또는 신규 객체의 출현이 감지되면, 그 감지 결과에 따라 매트릭스 테이블을 갱신한다.Meanwhile, when the location change of the user or the object or the appearance of a new user or a new object is detected, the controller 130 updates the matrix table according to the detection result.

도 5b는 저장부(140)에 저장된 매트릭스 테이블의 일 예를 나타낸다. 도 5b에 따르면, 매트릭스 테이블(500)은 도 5a의 투명 디스플레이부(110)를 복수의 영역으로 구분한 것과 동일한 방식으로 구성할 수 있다. 즉, 매트릭스 테이블(500)은 복수 개의 세로 라인(V1 ~ Vx) 및 복수 개의 가로 라인(H1 ~ Hy)으로 이루어질 수 있으며, 각 세로 라인 및 각 가로 라인이 교차하는 셀에 데이터가 기록될 수 있다.5B shows an example of a matrix table stored in the storage 140. According to FIG. 5B, the matrix table 500 may be configured in the same manner as the transparent display unit 110 of FIG. 5A divided into a plurality of regions. That is, the matrix table 500 may be formed of a plurality of vertical lines (V 1 ~ V x ) and a plurality of horizontal lines (H 1 ~ H y ), and data is stored in cells in which each vertical line and each horizontal line intersect. Can be recorded.

도 5b에 따르면, 매트릭스 테이블(500) 내의 각 셀에는 기본 값이 기록되고, 셀 중에서 객체의 위치에 해당하는 셀에는 기 설정된 제1 값, 사용자의 위치에 해당하는 셀에는 제2 값이 기록된다. 도 5b에서 기본값, 제1 값, 제2 값은 각각 0, 1, 2로 설정되었으나, 이는 설명의 편의를 위하여 임의로 정한 값일 뿐이며 이에 한정되는 것은 아니다.According to FIG. 5B, a default value is recorded in each cell in the matrix table 500, a first value that is preset in a cell corresponding to the object's location among cells, and a second value in cells that correspond to the user's location. . In FIG. 5B, the default value, the first value, and the second value are set to 0, 1, and 2, respectively, but this is only a value arbitrarily set for convenience of description and is not limited thereto.

제어부(130)는 제1 감지부(121)에서 감지된 결과에 따라 매트릭스 테이블(700) 내의 (Vn+4, Hm+2), (Vn+5, Hm+2), (Vn+6, Hm+2), (Vn+7, Hm+2), (Vn+4, Hm+3), (Vn+5, Hm+3), (Vn+6, Hm+3), (Vn+7, Hm+3), (Vn+4, Hm+4), (Vn+5, Hm+4), (Vn+6, Hm+4), (Vn+7, Hm+4), (Vn+4, Hm+5), (Vn+5, Hm+5), (Vn+6, Hm+5), (Vn+7, Hm+5) 번째 셀에는 2를 기록한다.The control unit 130 (V n + 4 , H m + 2 ), (V n + 5 , H m + 2 ), (V) in the matrix table 700 according to the result detected by the first sensing unit 121 n + 6 , H m + 2 ), (V n + 7 , H m + 2 ), (V n + 4 , H m + 3 ), (V n + 5 , H m + 3 ), (V n + 6 , H m + 3 ), (V n + 7 , H m + 3 ), (V n + 4 , H m + 4 ), (V n + 5 , H m + 4 ), (V n + 6 , H m + 4 ), (V n + 7 , H m + 4 ), (V n + 4 , H m + 5 ), (V n + 5 , H m + 5 ), (V n + 6 , H m +5 ), (V n + 7 , H m + 5 ) records 2 in the cell.

그리고, 제2 감지부(122)에서 감지된 결과에 따라 매트릭스 테이블(500) 내의 (Vn+3, Hm+1), (Vn+4, Hm+1), (Vn+5, Hm+1), (Vn+6, Hm+1), (Vn+3, Hm+2), (Vn+4, Hm+2), (Vn+5, Hm+2), (Vn+6, Hm+2), (Vn+3, Hm+3), (Vn+4, Hm+3), (Vn+5, Hm+3), (Vn+6, Hm+3), (Vn+3, Hm+4), (Vn+4, Hm+4), (Vn+5, Hm+4), (Vn+6, Hm+4), (Vn+3, Hm+5), (Vn+4, Hm+5), (Vn+5, Hm+5), (Vn+6, Hm+5), (Vn+4, Hm+6), (Vn+5, Hm+6), (Vn+4, Hm+7), (Vn+5, Hm+7), (Vn+4, Hm+8), (Vn+5, Hm+8) 번째 셀에는 1을 기록한다.In addition, (V n + 3 , H m + 1 ), (V n + 4 , H m + 1 ), (V n + 5 ) in the matrix table 500 according to the result detected by the second sensing unit 122. , H m + 1 ), (V n + 6 , H m + 1 ), (V n + 3 , H m + 2 ), (V n + 4 , H m + 2 ), (V n + 5 , H m + 2 ), (V n + 6 , H m + 2 ), (V n + 3 , H m + 3 ), (V n + 4 , H m + 3 ), (V n + 5 , H m + 3 ), (V n + 6 , H m + 3 ), (V n + 3 , H m + 4 ), (V n + 4 , H m + 4 ), (V n + 5 , H m + 4 ) , (V n + 6 , H m + 4 ), (V n + 3 , H m + 5 ), (V n + 4 , H m + 5 ), (V n + 5 , H m + 5 ), ( V n + 6 , H m + 5 ), (V n + 4 , H m + 6 ), (V n + 5 , H m + 6 ), (V n + 4 , H m + 7 ), (V n +5 , H m + 7 ), (V n + 4 , H m + 8 ), (V n + 5 , H m + 8 ), 1 is recorded in the cell.

제어부(130)는 두 영역 간에 서로 겹치는 영역인 (Vn+4, Hm+2), (Vn+5, Hm+2), (Vn+6, Hm+2), (Vn+4, Hm+3), (Vn+5, Hm+3), (Vn+6, Hm+3), (Vn+4, Hm+4), (Vn+5, Hm+4), (Vn+6, Hm+4), (Vn+4, Hm+5), (Vn+5, Hm+5), (Vn+6, Hm+5) 번째 셀에는 1과 2를 합산한 결과값인 3을 기록한다. The controller 130 is (V n + 4 , H m + 2 ), (V n + 5 , H m + 2 ), (V n + 6 , H m + 2 ), (V) that overlap each other between the two areas. n + 4 , H m + 3 ), (V n + 5 , H m + 3 ), (V n + 6 , H m + 3 ), (V n + 4 , H m + 4 ), (V n + 5 , H m + 4 ), (V n + 6 , H m + 4 ), (V n + 4 , H m + 5 ), (V n + 5 , H m + 5 ), (V n + 6 , H m + 5 ) Record the result of adding 1 and 2 to the third cell.

다만, 이는 일 예에 불과하며 반드시 이에 한정되는 것은 아니다. 즉, 두 영역 간의 중복 영역에 해당하는 셀에는 두 값을 합산한 값이 아니라, 해당 셀이 중복 영역에 해당함을 나타내도록 별도로 설정된 제3 값을 기록하여 둘 수도 있다. However, this is only an example and is not necessarily limited thereto. That is, the cell corresponding to the overlapping region between the two regions may not record the sum of the two values, but may record the separately set third value to indicate that the corresponding cell corresponds to the overlapping region.

제어부(130)는 투명 디스플레이부(110) 상에서 정보(30)가 표시된 영역과 매트릭스 테이블(500)을 비교한다. 이에 따라, 매트릭스 테이블 내의 각 셀 중에서 3이 기록된 셀(교집합 영역에 해당함)과, 정보 표시 영역이 일부분이라도 겹치면 정보(30)의 표시 위치를 이동시킨다. 실시 예에 따라서는, 매트릭스 테이블 내의 각 셀 중에서 1, 2, 3 중 어느 하나의 값이라도 기록된 셀(합집합 영역에 해당함)에 위치한 경우에도 표시 위치를 이동시킬 수 있다.The control unit 130 compares the area where the information 30 is displayed on the transparent display unit 110 to the matrix table 500. Accordingly, the display position of the information 30 is shifted when three of the cells in the matrix table are recorded (corresponding to the intersection area) and the information display area partially overlaps. Depending on the embodiment, the display position may be shifted even if any one of 1, 2, and 3 of the cells in the matrix table is located in the recorded cell (corresponding to the union area).

도 5c는 제어부(130)에 의해 정보 표시 위치가 변경된 상태를 나타내는 도면이다. 도 5c에 따르면, 매트릭스 테이블 내에서 1, 2, 3중 어느 하나가 기록된 셀과 겹치는 영역에 표시되어 있던 정보(30)가 (Vn+1, Hm-1), (Vn, Hm), (Vn+1, Hm), (Vn+2, Hm), (Vn, Hm+1), (Vn+1, Hm+1), (Vn+2, Hm+1), (Vn-1, Hm+2), (Vn, Hm+2), (Vn+1, Hm+2), (Vn+2, Hm+2), (Vn+3, Hm+2) 영역으로 이동하여 표시되는 것을 나타낸다. 5C is a diagram showing a state in which the information display position is changed by the control unit 130. According to FIG. 5C, information 30 displayed in an area overlapping a cell in which any one of 1, 2, or 3 is recorded in the matrix table is (V n + 1 , H m-1 ), (V n , H m ), (V n + 1 , H m ), (V n + 2 , H m ), (V n , H m + 1 ), (V n + 1 , H m + 1 ), (V n + 2) , H m + 1 ), (V n-1 , H m + 2 ), (V n , H m + 2 ), (V n + 1 , H m + 2 ), (V n + 2 , H m + 2 ), (V n + 3 , H m + 2 ).

제어부(130)는 투과 영역과 정보 표시 영역 간의 오버랩 영역의 위치와 식별력이 저하되지 않는 주변의 타 영역과의 거리 등을 기초로 정보(30)의 이동 거리 및 이동 방향을 결정할 수 있다. 도 5c에서는 원 위치로부터 좌상측으로 3 또는 4 영역 정도 쉬프트되어 투과 영역과 어느 정도 이격되어 표시되는 것을 나타내고 있으나, 반드시 이에 한정되는 것은 아니며, 투과 영역과 거의 접하는 영역까지만 이동시켜, 가능한 한 원 위치와 가깝게 표시할 수도 있다.The control unit 130 may determine the moving distance and the moving direction of the information 30 based on the location of the overlap region between the transmission region and the information display region and the distance to other regions around which the discrimination power is not lowered. In FIG. 5C, the 3 or 4 area is shifted from the original position to the upper left, and is displayed at a certain distance from the transmissive area, but is not limited thereto. You can also mark them closely.

또는, 정보 표시 영역의 이동 방향은 관리자 또는 사용자가 미리 정해둘 수 있다. 가령, 정보 표시 영역은, 객체의 위치, 사용자의 위치, 사용자의 가시 범위 등을 기준으로 상, 하, 좌, 우, 대각선 방향 등과 같은 일정한 방향으로 이동되도록 설정해 둘 수 있다.  Alternatively, the direction of movement of the information display area may be determined in advance by the administrator or the user. For example, the information display area may be set to move in a predetermined direction such as up, down, left, right, diagonal directions based on the location of the object, the user's location, and the user's visible range.

한편, 도 5b에서는 하나의 매트릭스 테이블(500)을 이용하여 객체 위치, 사용자 위치, 정보 위치를 종합적으로 판단하는 것으로 설명하였으나, 객체, 사용자, 정보 별로 별도의 매트릭스 테이블을 생성하여, 그 매트릭스 테이블들을 비교하여 투과 영역을 판단할 수도 있다. On the other hand, in FIG. 5B, it has been described that the object location, the user location, and the information location are collectively determined using one matrix table 500. However, separate matrix tables are generated for each object, user, and information to generate the matrix tables. The transmission area can also be determined by comparison.

또는, 제어부(130)는 매트릭스 테이블을 마련하는 대신, 사용자를 촬상한 이미지 프레임 및 객체를 촬상한 이미지 프레임을 서로 다른 레이어로 조합하여, 조합된 상태에서 사용자 영역 및 객체 영역 간의 겹치는 영역이나 그 중간 영역 중 일 영역을 투과 영역으로 판단할 수 있다. 이 경우, 조합된 프레임과 정보를 포함하는 화면 프레임을 직접 비교하여, 정보가 투과 영역에 겹치는지를 파악할 수 있다.Alternatively, instead of providing a matrix table, the controller 130 combines the image frame capturing the user and the image frame capturing the object into different layers, and in the combined state, the overlapping area between the user area and the object area or the middle thereof One of the regions may be determined as a transmission region. In this case, it is possible to determine whether the information overlaps the transmission area by directly comparing the combined frame and the screen frame including the information.

도 6은 제1 촬상부(121-1) 및 제2 촬상부(122-1)의 배치 위치를 설명하기 위한 도면이다. 도 6은 투명 디스플레이 장치(100)의 위쪽에서 내려다본 상태의 도면이다. 도 6에 따르면, 제1 촬상부(121-1)는 투명 디스플레이 장치(100)를 기준으로 사용자의 반대측 상부에 부착되어, 객체(20)를 촬상한다. 반면, 제2 촬상부(122-1)는 투명 디스플레이 장치(100)를 기준으로 사용자 측의 상부에 부착되어 사용자(10)를 촬상한다. 6 is a view for explaining arrangement positions of the first imaging unit 121-1 and the second imaging unit 122-1. 6 is a view of the transparent display device 100 as viewed from the top. According to FIG. 6, the first imaging unit 121-1 is attached to an upper portion on the opposite side of the user based on the transparent display device 100 to image the object 20. On the other hand, the second imaging unit 122-1 is attached to the upper portion of the user's side based on the transparent display device 100 to image the user 10.

도 6a에서는 제1 촬상부(121-1) 및 제2 촬상부(122-1)는 각각 하나씩 마련되어, 상부 중앙 부분에 설치된다. In FIG. 6A, each of the first imaging unit 121-1 and the second imaging unit 122-1 is provided one by one, and is installed in the upper central portion.

도 6a에서 사용자(10)가 (a)지점에 위치하여 사용자(10) 및 객체(20)가 나란하게 배치된 경우, 투명 디스플레이 장치(100) 상에서 투과 영역은 사용자(10) 및 객체(20)를 연결한 선과 투명 디스플레이부(110)가 만나는 T(a)지점에 형성된다. 따라서, 투명 디스플레이 장치(100)는 투과 영역 T(a)가  아닌 타 영역에 정보를 표시한다.In FIG. 6A, when the user 10 is located at the point (a) and the user 10 and the object 20 are arranged side by side, the transparent area on the transparent display device 100 is the user 10 and the object 20 It is formed at a point T (a) where the line connecting the line and the transparent display unit 110 meet. Therefore, the transparent display device 100 displays information in another area that is not the transmissive area T (a).

한편, 투명 디스플레이 장치(100)는 객체(20)를 그대로 투명하게 보여주기 때문에, 객체(20)가 고정된 위치에 있더라도 사용자의 위치에 따라 투명 디스플레이부(110) 상에서 객체(20)의 이미지가 맺히는 위치 및 형상이 다르게 된다. 즉, 도 6a에서 사용자가 (b) 지점에 위치하게 되면 투과 영역은 T(b) 지점에 형성되고, 사용자가 (c) 지점에 위치하게 되면 투과 영역은 T(c) 지점에 형성된다. 또한, 객체(20)가 정사각 큐빅 형상인 경우, 사용자가 (a) 지점에 위치하고 눈높이가 객체(20)와 같은 경우에는 정사각형상으로 보이게 되지만, (b) 지점이나 (c) 지점에 위치하게 되면 직사각 형상이나 마름모 형상 등으로 보일 수도 있게 된다. 따라서, 사용자의 위치 이동에 따라 객체(20)에 대한 식별 영역을 정확하게 검출하여야 할 필요가 있다. On the other hand, since the transparent display device 100 shows the object 20 as it is, the image of the object 20 is displayed on the transparent display unit 110 according to the user's location even if the object 20 is in a fixed position. The location and shape are different. That is, in FIG. 6A, when the user is located at point (b), the transmission area is formed at point T (b), and when the user is located at point (c), the transmission area is formed at point T (c). In addition, when the object 20 is in a square cubic shape, when the user is located at point (a) and the eye level is the same as the object 20, it is shown as a square shape, but when it is located at point (b) or point (c) It may be seen as a rectangular shape or a rhombus shape. Therefore, it is necessary to accurately detect the identification area for the object 20 according to the user's position movement.

도 6b는 사용자 위치 및 객체 위치에 기초하여 투과 영역을 산출하는 방법을 설명하기 위한 도면이다. 도 6b에서 사용자의 위치 이동이 있더라도 삼각 함수 법을 이용하여 객체(20)의 식별 영역을 추정하는 방법을 설명한다. 도 6b에서는 뎁스 카메라나 거리 감지 센서 등을 이용하여 객체와의 거리, 배치 각도 등을 측정한 후, 측정 값을 이용하여 객체(20)의 식별 영역을 추정하는 실시 예에 대하여 설명한다. 6B is a diagram for describing a method of calculating a transmissive area based on a user's location and an object's location. In FIG. 6B, a method of estimating the identification area of the object 20 using the trigonometric method will be described even if the user moves. In FIG. 6B, an embodiment of estimating the identification area of the object 20 by using a depth camera or a distance detection sensor, and the like, and then measuring a distance from the object, an arrangement angle, and the like, and using the measured value will be described.

도 6b에 따르면, 제1 촬상부(121-1) 및 제2 촬상부(122-1)가 각각 도 6a과 마찬가지로 상부 중앙에 설치될 수 있다. 제1 촬상부(121-1) 및 제2 촬상부(122-1)의 설치 위치가 서로 대응된다면, 그 지점을 원점(0, 0)으로 보고 객체(20)의 실제 위치를 L1(x1, y1), 사용자(10)의 실제 위치를 L2(x2, y2)로 가정한다. According to FIG. 6B, the first imaging unit 121-1 and the second imaging unit 122-1 may be installed at the upper center as in FIG. 6A, respectively. If the installation positions of the first imaging unit 121-1 and the second imaging unit 122-1 correspond to each other, the points are regarded as the origin (0, 0) and the actual position of the object 20 is L1 (x1, y1), the actual position of the user 10 is assumed to be L2 (x2, y2).

제1 촬상부(121-1) 및 제2 촬상부(122-1)가 각각 뎁스 카메라로 구현된 경우, 제1 검출부(121-2)는 제1 촬상부(121-1)에서 촬상된 후방 배경 이미지를 이용하여 객체와의 거리(d1), 객체 방향과 투명 디스플레이 장치(100)의 표면과의 각도(θ1)를 검출할 수 있다. 또한, 제2 검출부(122-2)는 제2 촬상부(122-1)에서 촬상된 전방 배경 이미지를 이용하여 사용자와의 거리(d2), 사용자 방향과 투명 디스플레이 장치(100)의 표면 간의 각도(θ2)를 검출할 수 있다.When the first imaging unit 121-1 and the second imaging unit 122-1 are respectively implemented as depth cameras, the first detection unit 121-2 is rearward captured by the first imaging unit 121-1. The distance d1 from the object and the angle θ1 between the object direction and the surface of the transparent display device 100 may be detected using the background image. In addition, the second detection unit 122-2 uses a front background image captured by the second imaging unit 122-1 to distance d2 from the user, an angle between the user direction, and the surface of the transparent display device 100. (θ2) can be detected.

제어부(130)는 삼각함수법을 이용하여 x1, y1, x2, y2를 각각 산출할 수 있다. 즉, d1*sinθ1=y1, d1*cosθ1=x1이 된다. 그리고, d2*sinθ2=y2, d2*cosθ2=x2가 된다. 이에 따라, x1, y1, x2, y2가 산출되면, L1과 L2 지점을 연결하는 직선 방정식이 구해진다. 즉, y=(y1-y2)*x/(x1-x2)+y1-(y1-y2)*x1/(x1-x2)와 같은 방정식을 구할 수 있다. 따라서, 투명 디스플레이부(110) 상에서 객체가 보이는 영역인 T는 ((x2y1-x1y2)/(y1-y2), 0)로 산출될 수 있다. 이에 따라, 제어부(130)는 산출된 T 지점에 표시될 정보를 그 주변 영역으로 이동시킬 수 있다.The controller 130 may calculate x1, y1, x2, and y2, respectively, using trigonometric functions. That is, d1 * sinθ1 = y1 and d1 * cosθ1 = x1. Then, d2 * sinθ2 = y2 and d2 * cosθ2 = x2. Accordingly, when x1, y1, x2, and y2 are calculated, a linear equation connecting L1 and L2 points is obtained. That is, an equation such as y = (y1-y2) * x / (x1-x2) + y1- (y1-y2) * x1 / (x1-x2) can be obtained. Accordingly, T, which is an area where an object is visible on the transparent display 110, may be calculated as ((x2y1-x1y2) / (y1-y2), 0). Accordingly, the controller 130 may move the information to be displayed at the calculated T point to the surrounding area.

도 6b에서는 T 지점을 하나의 좌표값으로 기재하였으나, 이는 설명의 편의를 위한 것이며 실제로는 객체의 크기와 사용자 및 객체 간의 직선 거리를 이용하여 T 지점을 중심으로 일정 거리 이내의 영역들을 모두 투과 영역으로 추정할 수 있다. In FIG. 6B, the T point is described as one coordinate value, but this is for convenience of description, and in reality, all areas within a certain distance around the T point using the size of the object and a straight line distance between the user and the object are transmitted. Can be estimated as

도 6a 및 도 6b에서는 제1 및 제2 촬상부(111, 121)가 각각 1개씩 마련된 경우를 도시하였으나, 각 촬상부는 복수개로 마련될 수도 있다. 즉, 촬상부가 복수 개로 마련된 경우, 사용자가 위치 이동을 하더라도 그 위치 이동 방향에 대응되는 촬상부를 이용하여 객체에 대한 식별 영역을 추정할 수 있다. 이에 따라, 정확한 식별 영역 추정이 가능해진다.6A and 6B illustrate a case where one of the first and second imaging units 111 and 121 is provided, but each of the imaging units may be provided in plural. That is, when a plurality of imaging units are provided, the identification area for the object may be estimated by using the imaging unit corresponding to the moving direction of the user even if the user moves the position. Accordingly, it is possible to accurately estimate the identification area.

도 7은 본 발명의 일 실시 예에 따른 디스플레이 방법을 설명하기 위한 도면이다. 7 is a view for explaining a display method according to an embodiment of the present invention.

도 7(a) 내지 도 7(d)는 투명 디스플레이 장치(100)가 윈도우(예를 들어, 쇼윈도) 형태로 구현된 경우를 나타낸다. 7 (a) to 7 (d) show a case where the transparent display device 100 is implemented in the form of a window (eg, a show window).

도 7(a) 내지 도 7(d)에 따르면, 투명 디스플레이 장치(100)는 투명 디스플레이 장치(100)를 기준으로 제1 방향 및 제2 방향에 대한 조도를 감지할 수 있다. 예를 들어, 제1 방향 및 제2 방향은 실내 및 실외가 될 수 있다. According to FIGS. 7A to 7D, the transparent display device 100 may sense illuminance in the first direction and the second direction based on the transparent display device 100. For example, the first direction and the second direction may be indoor and outdoor.

먼저 도 7(a) 및 도 7(b)는 실외의 조도가 높고 실내의 조도가 낮은 상태이고, 투명 디스플레이 장치(100)가 OLED와 같은 자발광 소자로 구현된 경우를 나타낸다.First, FIGS. 7 (a) and 7 (b) show a case where the outdoor illumination is high and the indoor illumination is low, and the transparent display device 100 is implemented as a self-luminous element such as an OLED.

도 7(a)에 도시된 바와 같이 사용자(10)가 실외에서 정보를 디스플레이하는 윈도우를 바라보는 경우 실내의 조도가 낮기 때문에 정보가 디스플레이되는 픽셀 영역에서 OLED 소자의 휘도를 크게 조정할 필요가 없을 수 있다. As illustrated in FIG. 7A, when the user 10 looks at a window displaying information outdoors, the luminance of the OLED device in the pixel area where the information is displayed may not need to be largely adjusted because the illuminance in the room is low. have.

하지만, 도 7(b)에 도시된 바와 같이 사용자(10)가 실내에서 정보를 디스플레이하는 윈도우를 바라보는 경우, 실외의 조도가 높기 때문에 투명 디스플레이를 구성하는 OLED 소자의 휘도가 높은 경우 디스플레이되는 정보가 선명하게 보이지 않을 수 있다. 이 경우에는 해당 부분의 OLED 소자의 휘도를 감소시키거나, 색상을 어둡게 하여 디스플레이되는 정보가 사용자에게 좀더 선명하게 보이도록 할 수 있다.However, as shown in FIG. 7 (b), when the user 10 looks at a window displaying information indoors, information displayed when the luminance of the OLED element constituting the transparent display is high because the outdoor illumination is high. May not be clearly visible. In this case, the luminance of the OLED element of the corresponding part may be reduced or the color may be darkened to make the displayed information appear more vivid to the user.

또한, 도 7(c) 및 도 7(d)는 실외의 조도가 낮고 실내의 조도가 높은 상태ㅇ이, 투명 디스플레이 장치(100)가 LCD와 같은 백라이트 소자로 구현된 경우를 나타낸다.7 (c) and 7 (d) show a case in which the outdoor illumination is low and the indoor illumination is high, and the transparent display device 100 is implemented as a backlight element such as an LCD.

한편, 도 7(c)에 도시된 바와 같이 사용자(10)가 실외에서 정보를 디스플레이하는 윈도우를 바라보는 경우 실내의 조도가 높기 때문에 정보가 디스플레이되는 픽셀 영역에서 백라이트의 휘도를 크게 조정할 필요가 없을 수 있다.Meanwhile, as illustrated in FIG. 7 (c), when the user 10 looks at a window displaying information outdoors, there is no need to greatly adjust the luminance of the backlight in the pixel area where the information is displayed because the indoor illumination is high. Can be.

하지만, 도 7(d)에 도시된 바와 같이 사용자(10)가 실내에서 정보를 디스플레이하는 윈도우를 바라보는 경우, 실외의 조도가 낮기 때문에 윈도우에 디스플레이되는 정보가 선명하게 보이지 않을 수 있다. 이 경우에는 해당 영역의 백라이트 휘도를 증가시켜 디스플레이되는 정보가 사용자에게 좀더 선명하게 보이도록 할 수 있다. However, as illustrated in FIG. 7 (d), when the user 10 looks at a window displaying information indoors, the information displayed on the window may not be clearly visible because the outdoor illumination is low. In this case, the luminance of the backlight in the corresponding area may be increased to make the displayed information more clearly visible to the user.

도 8은 본 발명의 다른 실시 예에 따른 디스플레이 방법을 설명하기 위한 도면이다. 8 is a view for explaining a display method according to another embodiment of the present invention.

도 8은 투명 디스플레이 후방에 객체(810)가 존재하고, 해당 객체(810)가 투명하게 비치고, 투명 디스플레이 전방에서 사용자가 디스플레이된 정보를 바라보는 경우이다. 8 is a case where an object 810 is present behind a transparent display, the corresponding object 810 is transparently viewed, and a user views information displayed in front of the transparent display.

도 8의 좌측에 도시된 바와 같이 투명 디스플레이 후방에 존재하는 객체(810)의 색상과 투명 디스플레이부(110) 상에 디스플레이되는 정보(820)의 색상의 동일 또는 유사한 경우, 디스플레이되는 정보(820)가 사용자에게 선명하게 인식되지 않을 수 있다. As shown on the left side of FIG. 8, when the color of the object 810 existing behind the transparent display and the color of the information 820 displayed on the transparent display 110 are the same or similar, the displayed information 820 May not be clearly recognized by the user.

이 경우, 도 8의 우측에 도시된 바와 같이 디스플레이되는 정보(820')의 색상을 후방에 존재하는 객체(810)의 색상과 상이한 색상으로 변경하여 디스플레이할 수 있다. 예를 들어, 후방에 존재하는 객체(810)의 색상이 녹색인 경우, 디스플레이되는 정보(820')는 녹색과 보색 관계에 있는 적색으로 변경하여 디스플레이할 수 있다. In this case, as shown on the right side of FIG. 8, the color of the displayed information 820 ′ may be changed to a color different from that of the object 810 existing behind and displayed. For example, when the color of the object 810 located at the rear is green, the displayed information 820 'may be changed to red in a complementary relationship with green to be displayed.

도 9는 본 발명의 또 다른 실시 예에 따른 디스플레이 방법을 설명하기 위한 도면이다. 9 is a view for explaining a display method according to another embodiment of the present invention.

도 9에 도시된 바와 같이 투명 디스플레이(110) 후방에 존재하는 객체(910)가 투명 디스플레이에서 비추는 위치(910')에 따라 투명 디스플레이(110) 상에 디스플레이되는 정보(920)의 위치를 변경하여 디스플레이할 수 있다. As illustrated in FIG. 9, the position of the information 920 displayed on the transparent display 110 is changed according to the position 910 ′ of the object 910 existing behind the transparent display 110 illuminating the transparent display. Can be displayed.

도 10은 본 발명의 다양한 실시 예에 따른 디스플레이 방법을 설명하기 위한 도면이다. 10 is a view for explaining a display method according to various embodiments of the present invention.

도 10(a)는 투명 디스플레이 후방에 존재하는 객체(1010)가 투명하게 비치고, 해당 객체(1010)의 색상이 다양한 경우를 나타낸다. FIG. 10 (a) shows a case in which the object 1010 existing behind the transparent display is transparent and the colors of the object 1010 are various.

이 경우 투명 디스플레이부(110)에 디스플레이되는 정보(1021)는 객체(1010)의 다양한 색상에 대해 식별될 수 있는 다양한 색상이나, 객체(1010)의 다양한 색상에 대해 평균적으로 가장 식별될 수 있는 하나의 색상으로 디스플레이될 수 있다. 예를 들어, 문자 "C"가 디스플레이되는 영역에 비추는 객체의 색상을 고려하여 "C"의 색상을 결정하고, 문자 "O"가 디스플레이되는 영역에 비추는 객체의 색상을 고려하여 "O"의 색상을 결정할 수 있다. In this case, the information 1021 displayed on the transparent display unit 110 may be various colors that can be identified for various colors of the object 1010, or one that can be identified most on average for various colors of the object 1010. It can be displayed in the color of. For example, the color of "C" is determined by considering the color of an object that illuminates the area where the letter "C" is displayed, and the color of "O" is considered by considering the color of an object that illuminates the area where the letter "O" is displayed. Can decide.

또는 도면에는 도시되지 않았지만, 객체(1010)의 다양한 색상에 대해 평균적으로 가장 식별될 수 있는 색상을 산출하여 해당 정보(1021)를 디스플레이하는 것도 가능하다.Alternatively, although not shown in the drawings, it is also possible to display the corresponding information 1021 by calculating the color that can be most identified on average for various colors of the object 1010.

도 10(b)는 투명 디스플레이 후방에 존재하는 객체(1011)가 투명하게 비치고, 해당 객체(1011)의 형상 및 색상 등이 다양한 경우를 나타낸다.  FIG. 10 (b) shows a case in which the object 1011 existing behind the transparent display is transparent, and the shape and color of the object 1011 are various.

이 경우, 투명 디스플레이부(110)에 디스플레이되는 정보(1021)는 사용자에게 인식이 용이한 형태로 형상이 변경되어 디스플레이될 수 있다. 예를 들어, AXN명하게 비치는 객체(1011)의 형상 및 색상 등에 따라 정보를 텍스트 형태로 표시하는 것이 사용자에게 선명하게 인식되는 경우 텍스트 형태(1023)로 정보를 표시하고, 정보를 이미지 형태로 표시하는 것이 사용자에게 선명하게 인식되는 경우 이미지 형태(1024)로 정보를 표시할 수 있다. In this case, the information 1021 displayed on the transparent display unit 110 may be displayed by changing its shape in a form that is easily recognized by the user. For example, if it is clearly recognized by a user that the information is displayed in the form of text according to the shape and color of the object 1011 that is clearly visible in AXN, the information is displayed in text form 1023, and the information is displayed in the form of an image If it is clearly recognized by the user, information may be displayed in the image form 1024.

도 10(c)는 투명 디스플레이 후방에 존재하는 객체가 투명하게 비치고, 해당 객체가 움직이는 객체인 경우를 나타낸다. 10 (c) shows a case in which an object existing behind the transparent display is transparent and the object is a moving object.

도 10(c)에 도시된 바와 같이 투명 디스플레이에 투명하게 비치는 객체(1012)의 위치가 이동되는 경우 투명 디스플레이부(110)는 해당 객체(1012)의 이동 상태에 따라 디스플레이되는 정보(1023)의 디스플레이 상태를 변경하여 디스플레이할 수 있다. 예를 들어, 객체(1012)의 색상에 따라 객체가 투명하게 비치는 영역에 디스플레이되는 정보(1023)의 색상을 변경하여 디스플레이되는 정보(1023)가 사용자에게 선명하게 인식되도록 할 수 있다. When the position of the object 1012 transparently reflected on the transparent display is moved, as shown in FIG. 10 (c), the transparent display unit 110 displays the information 1023 displayed according to the moving state of the object 1012. The display state can be changed and displayed. For example, according to the color of the object 1012, the color of the information 1023 displayed on the area where the object is transparently reflected may be changed so that the displayed information 1023 is clearly recognized by the user.

도 11은 본 발명의 또 다른 실시 예에 따른 디스플레이 방법을 설명하기 위한 도면이다. 11 is a view for explaining a display method according to another embodiment of the present invention.

도 11(a)와 같이 후면 배경(1110)이 비치는 투명 디스플레이부(110) 상에 도 11(b)와 같은 영상(1120)이 디스플레이된 경우를 설명하도록 한다. The case where the image 1120 as shown in FIG. 11 (b) is displayed on the transparent display unit 110 reflected by the rear background 1110 as shown in FIG. 11 (a) will be described.

이 경우, 도 11(c)에 도시된 바와 같이 후면 배경(1110)의 색상에 따라 투명 디스플레이부(110)에 디스플레이되는 영상(1120)이 사용자에게 선명하게 인식되지 않을 수 있다. In this case, as illustrated in FIG. 11C, the image 1120 displayed on the transparent display 110 according to the color of the back background 1110 may not be clearly recognized by the user.

이 경우, 후면 배경(1110)의 색상에 기초하여 디스플레이되는 영상(1120)의 휘도(또는 색상)을 조정하여 디스플레이할 수 있다. In this case, the luminance (or color) of the displayed image 1120 may be adjusted and displayed based on the color of the back background 1110.

한편, 상술한 다양한 실시 예에서 투명 디스플레이부(110)가 투명 OLED로 구현된 경우, 생성된 정보 또는 컨텐츠 재생 화면에 따라 투명 디스플레이부(110) 내의 각 셀에 구비된 투명 박막 트랜지스터를 온/오프시켜 컨텐츠 재생 화면의 각 픽셀을 표현한다. 상술한 여러 실시 예들에서 설명한 바와 같이 정보의 표시 속성을 변경하여야 하는 경우, 제어부(130)는 렌더러, 스케일러 등을 이용하여 해당 픽셀에서 표시되는 속성을 변경할 수 있다. 또는, 제어부(130)는 정보의 디스플레이 위치를 이동시켜야 하는 경우, 표시될 픽셀의 픽셀 좌표를 상이하게 변경할 수 있다. Meanwhile, in the various embodiments described above, when the transparent display unit 110 is implemented as a transparent OLED, the transparent thin film transistors provided in each cell in the transparent display unit 110 are turned on / off according to the generated information or content reproduction screen. To express each pixel of the content playback screen. When the display attribute of information needs to be changed as described in the various embodiments described above, the controller 130 can change the attribute displayed in the corresponding pixel using a renderer, a scaler, and the like. Alternatively, when the display position of the information needs to be moved, the controller 130 may change the pixel coordinates of pixels to be displayed differently.

도 12는 본 발명의 일 실시 예에 따른 투명 디스플레이 장치의 제어 방법을 설명하기 위한 흐름도이다. 12 is a flowchart illustrating a method of controlling a transparent display device according to an embodiment of the present invention.

도 12에 도시된 투명 디스플레이 장치의 제어 방법에 따르면, 정보를 디스플레이하는 투명 디스플레이부를 기준으로 제1 방향에 대한 배경 정보를 감지한다(S1210).According to the control method of the transparent display device illustrated in FIG. 12, background information on a first direction is sensed based on a transparent display unit displaying information (S1210).

이어서, 감지된 배경 정보에 기초하여 디스플레이되는 정보의 디스플레이 상태를 변경하여 디스플레이한다(S1220).Subsequently, the display state of the displayed information is changed based on the detected background information and displayed (S1220).

이 경우, 정보의 디스플레이 상태는, 정보의 디스플레이 속성 및 상정보의 디스플레이 위치 중 적어도 하나가 될 수 있다. In this case, the display state of the information may be at least one of a display attribute of the information and a display position of the image information.

또한, 배경 정보를 감지하는 S1210 단계는, 제1 방향에 대한 조도를 감지하거나 제1 방향 및 제2 방향에 대한 조도를 감지할 수 있다. 여기서, 투명 디스플레이부를 기준으로 제2 방향은 사용자가 위치한 방향이 될 수 있으며, 제1 방향은 그 반대 방향 즉, 사용자의 입장에서 투명하게 비치는 배경이 존재하는 방향이 될 수 있다. 이 경우, 디스플레이하는 S1220 단계는, 감지된 조도 상태에 기초하여 투명 디스플레이부에 디스플레이되는 정보에 대응되는 픽셀 영역의 휘도 값 및 색상 값 중 적어도 하나를 조정하여 디스플레이할 수 있다.  In addition, in step S1210 for detecting background information, the illuminance for the first direction or the illuminance for the first direction and the second direction may be detected. Here, the second direction based on the transparent display unit may be a direction in which the user is located, and the first direction may be an opposite direction, that is, a direction in which a background reflected transparently from the user's perspective exists. In this case, in step S1220 of displaying, the luminance value and the color value of the pixel area corresponding to the information displayed on the transparent display unit may be adjusted and displayed based on the sensed illuminance state.

또한, 배경 정보를 감지하는 S1210 단계는, 제1 방향에 위치하는 객체를 촬상하며, 디스플레이하는 S1220 단계는, 촬상된 영상에 포함된 객체의 색상 정보에 기초하여 투명 디스플레이부에 디스플레이되는 정보에 대응되는 픽셀 영역의 휘도 값 및 색상 값 중 적어도 하나를 조정하여 디스플레이할 수 있다. In addition, step S1210 for sensing background information captures an object located in the first direction, and step S1220 for displaying corresponds to information displayed on the transparent display unit based on color information of the object included in the captured image. The display may be performed by adjusting at least one of a luminance value and a color value of a pixel area.

또한, 배경 정보를 감지하는 S1210 단계는, 제1 방향에 위치하는 객체의 위치를 감지하고, 제2 방향에 있는 사용자의 위치를 감지하며, 디스플레이하는 S1220 단계는, 감지된 객체의 위치 및 사용자의 위치를 기반으로, 사용자의 위치에서 투명 디스플레이부 상에 객체가 투과되어 보이는 영역을 추정하고, 투과되어 보이는 영역 상에 디스플레이되는 정보에 대응되는 픽셀 영역의 휘도 값 및 색상 값 중 적어도 하나를 조정하여 디스플레이할 수 있다. In addition, step S1210 for detecting background information detects the location of an object located in the first direction, detects the user's location in the second direction, and displays step S1220 for detecting the location of the detected object and the user Based on the position, the area of the object through the transparent display unit is estimated at the user's location, and at least one of the luminance and color values of the pixel area corresponding to the information displayed on the visible area is adjusted. Can be displayed.

또한, S1210 단계에서 감지된 객체의 위치가 이동되는 경우, 사용자의 위치에서 투명 디스플레이부 상에 이동된 객체가 투과되어 보이는 영역을 추정하고, 투과되어 보이는 영역 상에 디스플레이되는 정보에 대응되는 픽셀 영역의 휘도 값 및 색상 값 중 적어도 하나를 조정할 수 있다. In addition, when the position of the object sensed in step S1210 is moved, a region in which the object moved on the transparent display unit is viewed from the user's location is estimated, and a pixel region corresponding to information displayed on the visible region. At least one of a luminance value and a color value may be adjusted.

또한, 배경 정보를 감지하는 S1210 단계는, 제1 방향에 위치하는 객체를 촬상하고, 디스플레이하는 S1220 단계는, 촬상된 영상에 포함된 객체의 색상 정보에 기초하여 투명 디스플레이부에 디스플레이되는 정보의 위치를 변경하여 디스플레이할 수 있다. In addition, in step S1210 for detecting background information, an object positioned in the first direction is imaged and in step S1220 for displaying, information is displayed on the transparent display unit based on color information of the object included in the captured image. Can be changed to display.

이상과 같이, 본 발명의 다양한 실시 예에 따르면, 후면 배경 정보에 기초하여, 투명 디스플레이에 디스플레이되는 정보를 보다 효과적으로 전달할 수 있게 된다.As described above, according to various embodiments of the present invention, it is possible to more effectively transmit information displayed on the transparent display based on the back background information.

한편, 이러한 다양한 실시 예에 따른 방법들은 프로그래밍되어 각종 저장 매체에 저장될 수 있다. 이에 따라, 저장 매체를 실행하는 다양한 유형의 전자 장치에서 상술한 다양한 실시 예에 따른 방법들이 구현될 수 있다.Meanwhile, methods according to various embodiments of the present disclosure may be programmed and stored in various storage media. Accordingly, methods according to various embodiments described above may be implemented in various types of electronic devices that execute a storage medium.

구체적으로는, 본 발명의 일 실시 예에 따르면, 정보를 디스플레이하는 투명 디스플레이부를 기준으로 제1 방향에 대한 배경 정보를 감지하고, 감지된 배경 정보에 기초하여 디스플레이되는 정보의 디스플레이 상태를 변경하는 구성을 순차적으로 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다. Specifically, according to an embodiment of the present invention, a configuration for detecting background information for a first direction based on a transparent display unit for displaying information and changing a display state of displayed information based on the detected background information A non-transitory computer readable medium in which a program for sequentially performing a program is stored may be provided.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.A non-transitory readable medium means a medium that stores data semi-permanently and that can be read by a device, rather than a medium that stores data for a short time, such as registers, caches, and memory. Specifically, the various applications or programs described above may be stored and provided in a non-transitory readable medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although the preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention pertains without departing from the gist of the present invention claimed in the claims. In addition, various modifications can be implemented by those skilled in the art, and these modifications should not be individually understood from the technical idea or prospect of the present invention.

110 : 투명 디스플레이부           120 : 감지부
130 : 제어부
110: transparent display unit 120: detection unit
130: control unit

Claims (10)

투명 디스플레이;
제1 방향의 사용자의 위치를 감지하는 제1 센서;
상기 제1 방향의 조도 및 상기 제1 방향과 상이한 제2 방향의 조도를 감지하는 제2 센서; 및
정보를 표시하도록 상기 투명 디스플레이를 제어하고, 상기 감지된 사용자의 위치 및 상기 제1 및 제2 방향의 감지된 조도에 기초하여, 상기 표시된 정보에 대응되는 픽셀 영역의 밝기를 조정하도록 상기 투명 디스플레이를 제어하는 제어부;를 포함하는 디스플레이 장치.
Transparent display;
A first sensor detecting a user's position in a first direction;
A second sensor for detecting the illuminance in the first direction and an illuminance in a second direction different from the first direction; And
The transparent display is controlled to control the transparent display to display information, and to adjust the brightness of a pixel area corresponding to the displayed information based on the sensed user's position and the sensed illuminance in the first and second directions. A display device comprising a control unit for controlling.
제1항에 있어서,
상기 제1 센서는, 카메라를 포함하고,
상기 제어부는,
상기 카메라를 통해 상기 제2 방향에 대한 이미지를 획득하고, 상기 획득된 이미지에 포함된 객체의 색상에 기초하여, 상기 표시된 정보에 대응되는 상기 픽셀 영역의 밝기를 조정하도록 상기 투명 디스플레이를 제어하는, 디스플레이 장치.
According to claim 1,
The first sensor includes a camera,
The control unit,
Acquiring an image for the second direction through the camera, and controlling the transparent display to adjust the brightness of the pixel area corresponding to the displayed information based on the color of an object included in the acquired image, Display device.
제2항에 있어서,
상기 제어부는,
상기 획득된 이미지에 포함된 상기 객체의 색상에 기초하여, 상기 투명 디스플레이에서 표시되는 상기 정보의 위치를 이동시키도록 상기 투명 디스플레이를 제어하는, 디스플레이 장치.
According to claim 2,
The control unit,
And controlling the transparent display to move the location of the information displayed on the transparent display based on the color of the object included in the acquired image.
제1항에 있어서,
상기 제어부는,
상기 제1 센서를 통해 상기 제2 방향에 위치한 객체의 위치를 감지하고, 상기 감지된 사용자의 위치 및 상기 감지된 객체의 위치에 기초하여 상기 투명 디스플레이 상에서 상기 객체가 투과되는 영역을 식별하고,
상기 투명 디스플레이 상에서 상기 정보가 표시되는 픽셀 영역 중에서 상기 식별된 영역에 대응되는 픽셀 영역의 밝기를 조정하도록 상기 투명 디스플레이를 제어하는, 디스플레이 장치.
According to claim 1,
The control unit,
The position of the object located in the second direction is sensed through the first sensor, and an area through which the object is transmitted is identified on the transparent display based on the sensed user's position and the sensed object's position.
A display device for controlling the transparent display to adjust the brightness of a pixel area corresponding to the identified area among pixel areas in which the information is displayed on the transparent display.
제4항에 있어서,
상기 제어부는,
상기 감지된 객체의 위치가 변경될 때, 상기 감지된 사용자의 위치 및 상기 변경된 객체의 위치에 기초하여 상기 투명 디스플레이 상에서 상기 객체가 투과되는 영역을 식별하고,
상기 투명 디스플레이 상에서 상기 정보가 표시되는 픽셀 영역 중에서 상기 식별된 영역과 오버랩되는 픽셀 영역의 밝기 및 색상을 조정하도록 상기 투명 디스플레이를 제어하는, 디스플레이 장치.
The method of claim 4,
The control unit,
When the position of the sensed object is changed, an area through which the object is transmitted is identified on the transparent display based on the sensed user's position and the position of the changed object,
A display device for controlling the transparent display to adjust the brightness and color of the pixel area overlapping the identified area among the pixel areas in which the information is displayed on the transparent display.
디스플레이 장치의 제어 방법에 있어서,
투명 디스플레이 상에 정보를 표시하는 단계;
제1 방향의 사용자의 위치를 감지하고, 상기 제1 방향의 조도 및 상기 제1 방향과 상이한 제2 방향의 조도를 감지하는 단계; 및
상기 감지된 사용자의 위치 및 상기 제1 및 제2 방향의 감지된 조도에 기초하여, 상기 표시된 정보에 대응되는 픽셀 영역의 밝기를 조정하는 단계;를 포함하는, 제어 방법.
In the control method of the display device,
Displaying information on a transparent display;
Sensing a position of a user in a first direction, and detecting an illuminance in the first direction and an illuminance in a second direction different from the first direction; And
And adjusting the brightness of the pixel area corresponding to the displayed information based on the sensed user's position and the sensed illuminance in the first and second directions.
제6항에 있어서,
상기 조정하는 단계는,
상기 제2 방향에 대한 이미지를 획득하고, 상기 획득된 이미지에 포함된 객체의 색상에 기초하여, 상기 표시된 정보에 대응되는 상기 픽셀 영역의 밝기를 조정하는, 제어 방법.
The method of claim 6,
The adjusting step,
A control method of acquiring an image for the second direction and adjusting the brightness of the pixel area corresponding to the displayed information based on the color of an object included in the acquired image.
제7항에 있어서,
상기 조정하는 단계는,
상기 획득된 이미지에 포함된 상기 객체의 색상에 기초하여, 상기 투명 디스플레이에서 표시되는 상기 정보의 위치를 이동시키는 단계;를 더 포함하는 제어 방법.
The method of claim 7,
The adjusting step,
And moving the location of the information displayed on the transparent display based on the color of the object included in the acquired image.
제6항에 있어서,
상기 조정하는 단계는,
상기 제2 방향에 위치한 객체의 위치를 감지하고, 상기 감지된 사용자의 위치 및 상기 감지된 객체의 위치에 기초하여 상기 투명 디스플레이 상에서 상기 객체가 투과되는 영역을 식별하는 단계; 및
상기 투명 디스플레이 상에서 상기 정보가 표시되는 픽셀 영역 중에서 상기 식별된 영역에 대응되는 픽셀 영역의 밝기를 조정하는 단계;를 포함하는, 제어 방법.
The method of claim 6,
The adjusting step,
Sensing a position of an object located in the second direction, and identifying an area through which the object is transmitted on the transparent display based on the sensed user's position and the sensed object's position; And
And adjusting the brightness of the pixel area corresponding to the identified area among the pixel areas on which the information is displayed on the transparent display.
제9항에 있어서,
상기 식별하는 단계는,
상기 감지된 객체의 위치가 변경될 때, 상기 감지된 사용자의 위치 및 상기 변경된 객체의 위치에 기초하여 상기 투명 디스플레이 상에서 상기 객체가 투과되는 영역을 식별하고,
상기 조정하는 단계는,
상기 투명 디스플레이 상에서 상기 정보가 표시되는 픽셀 영역 중에서 상기 식별된 영역과 오버랩되는 픽셀 영역의 밝기 및 색상을 조정하는, 제어 방법.
The method of claim 9,
The identifying step,
When the position of the sensed object is changed, an area through which the object is transmitted is identified on the transparent display based on the sensed user's position and the position of the changed object,
The adjusting step,
A control method for adjusting brightness and color of a pixel area overlapping the identified area among pixel areas in which the information is displayed on the transparent display.
KR1020200057881A 2020-05-14 2020-05-14 Display apparatus and control method thereof KR102231587B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200057881A KR102231587B1 (en) 2020-05-14 2020-05-14 Display apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200057881A KR102231587B1 (en) 2020-05-14 2020-05-14 Display apparatus and control method thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020190154849A Division KR102113301B1 (en) 2019-11-27 2019-11-27 Display apparatus and control method thereof

Publications (2)

Publication Number Publication Date
KR20200056373A true KR20200056373A (en) 2020-05-22
KR102231587B1 KR102231587B1 (en) 2021-03-24

Family

ID=70914190

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200057881A KR102231587B1 (en) 2020-05-14 2020-05-14 Display apparatus and control method thereof

Country Status (1)

Country Link
KR (1) KR102231587B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024071488A1 (en) * 2022-09-30 2024-04-04 엘지전자 주식회사 Transparent display device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120067854A (en) * 2010-12-16 2012-06-26 한국전자통신연구원 Display system for augmented reality in vehicle, and method for the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120067854A (en) * 2010-12-16 2012-06-26 한국전자통신연구원 Display system for augmented reality in vehicle, and method for the same

Also Published As

Publication number Publication date
KR102231587B1 (en) 2021-03-24

Similar Documents

Publication Publication Date Title
KR102051656B1 (en) Transparent display apparatus and method thereof
KR101793628B1 (en) Transparent display apparatus and method thereof
KR101986218B1 (en) Apparatus and method for display
KR102127356B1 (en) Transparent display apparatus and control method thereof
KR102126503B1 (en) Display apparatus and control method thereof
US20140098088A1 (en) Transparent display apparatus and controlling method thereof
KR102192956B1 (en) User terminal apparatus and control method thereof
US9633478B2 (en) Display apparatus and control method thereof
KR101971521B1 (en) Transparent display apparatus and method thereof
KR102231587B1 (en) Display apparatus and control method thereof
KR102113301B1 (en) Display apparatus and control method thereof
KR101896099B1 (en) Transparent display apparatus and method thereof

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant