KR20170125306A - Transparent display apparatus and method thereof - Google Patents

Transparent display apparatus and method thereof Download PDF

Info

Publication number
KR20170125306A
KR20170125306A KR1020170142444A KR20170142444A KR20170125306A KR 20170125306 A KR20170125306 A KR 20170125306A KR 1020170142444 A KR1020170142444 A KR 1020170142444A KR 20170142444 A KR20170142444 A KR 20170142444A KR 20170125306 A KR20170125306 A KR 20170125306A
Authority
KR
South Korea
Prior art keywords
user
information
area
display
unit
Prior art date
Application number
KR1020170142444A
Other languages
Korean (ko)
Other versions
KR101896099B1 (en
Inventor
윤일국
이근호
이창수
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020170142444A priority Critical patent/KR101896099B1/en
Publication of KR20170125306A publication Critical patent/KR20170125306A/en
Application granted granted Critical
Publication of KR101896099B1 publication Critical patent/KR101896099B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • G06K9/00671
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • G09F9/30Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
    • G09F9/35Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements being liquid crystals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/22Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
    • G09G3/30Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels
    • G09G3/32Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED]
    • G09G3/3208Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED] organic, e.g. using organic light-emitting diodes [OLED]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

A transparent display device is disclosed. The device includes a transparent display part for displaying information, a first sensing part for sensing the position of an object in a first direction from the transparent display part, a second sensing part for sensing the position of a user in a second direction from the transparent display part, and a control part for estimating a region where an object is seen through the transparent display at the position of the user based on the position of the sensed object and the position of the user. Here, the control part displays information on the transparent display part in consideration of the region. Accordingly, it is possible to increase the discrimination power of information.

Description

투명 디스플레이 장치 및 그 디스플레이 방법 { TRANSPARENT DISPLAY APPARATUS AND METHOD THEREOF } TRANSPARENT DISPLAY APPARATUS AND METHOD THEREOF BACKGROUND OF THE INVENTION 1. Field of the Invention [0001]

본 발명은 투명 디스플레이 장치 및 그 디스플레이 방법에 대한 것으로, 보다 상세하게는, 화면 각 영역의 식별력을 고려하여 객체를 디스플레이하는 투명 디스플레이 장치 및 그 디스플레이 방법에 대한 것이다.The present invention relates to a transparent display device and a display method thereof, and more particularly, to a transparent display device and a display method thereof that display an object in consideration of discrimination power of each screen area.

전자 기술의 발달에 힘입어 다양한 분야에서, 다양한 유형의 디스플레이 장치가 사용되고 있다. 특히, 최근에는 투명 디스플레이 장치와 같은 차세대 디스플레이 장치에 대한 연구 논의가 가속화되고 있다.Due to the development of electronic technology, various types of display devices have been used in various fields. Particularly, in recent years, research discussions on next generation display devices such as a transparent display device have been accelerated.

투명 디스플레이 장치란 투명한 성질을 가져서 장치 뒷쪽 배경이 그대로 비치는 장치를 의미한다. 종래에는 실리콘(Si), 갈륨비소(GaAs) 등과 같은 불투명 반도체 화합물을 이용하여 디스플레이 패널을 제작하였으나, 기존의 디스플레이 패널로는 감당할 수 없는 다양한 응용분야가 개척되면서, 새로운 형태의 전자 소자에 대한 개발 노력이 이루어졌었다. 이러한 노력 하에 개발된 것 중 하나가 투명 디스플레이 장치이다. A transparent display device means a device that has a transparent property and the background behind the device is reflected. Conventionally, a display panel is fabricated using an opaque semiconductor compound such as silicon (Si), gallium arsenide (GaAs), or the like. However, various application fields that can not be covered by conventional display panels have been developed. Efforts have been made. One of the developments under this effort is a transparent display device.

투명 디스플레이 장치는 투명한 산화물 반도체막을 포함하는 형태로 구현되어, 투명한 성질을 가지게 된다. 투명 디스플레이 장치를 사용할 경우 사용자는 장치 뒷쪽에 위치하는 후면 배경을 보면서, 필요한 정보를 투명 디스플레이 장치 화면을 통해 볼 수 있게 된다. 따라서, 기존 디스플레이 장치들이 가지고 있는 공간적, 시간적 제약을 해소할 수 있게 된다.The transparent display device is implemented in a form including a transparent oxide semiconductor film, and has a transparent property. When a transparent display device is used, the user can view necessary information through the transparent display device screen while viewing the background behind the device. Accordingly, the spatial and temporal constraints of existing display devices can be solved.

투명 디스플레이 장치는 다양한 용도로 다양한 환경에서 편리하게 사용될 수 있다. 가령, 상점의 쇼윈도가 투명 디스플레이 장치로 구현될 경우 사용자가 지나가면 광고 문구를 쇼윈도에 표시하여 사용자가 흥미를 가지도록 구현할 수 있다. 또한, 일반 가정 내에서 베란다 창문을 투명 디스플레이 장치로 구현할 경우, 사용자는 각종 멀티미디어 컨텐츠를 사이즈가 큰 베란다 창문을 통해 시청할 수 있게 되어, 사용자 만족도를 증대시킬 수도 있다.The transparent display device can be conveniently used in various environments for various applications. For example, when a shop window of a shop is implemented as a transparent display device, the advertisement text may be displayed on the window of the shop when the user passes through the store window, thereby realizing the user's interest. In addition, when a veranda window is implemented as a transparent display device in a general household, a user can view various multimedia contents through a large veranda window, thereby increasing user satisfaction.

이와 같이, 투명 디스플레이 장치는 그 투명한 성질 때문에 기존 디스플레이 장치에 비해 많은 장점을 가지게 되지만, 반대로 그 투명한 성질 때문에 발생하는 문제점도 가지고 있다. 가령, 투명한 성질 때문에 화면 상의 정보가 잘 보이지 않게 되는 문제점이 있을 수 있다.As described above, the transparent display device has many advantages over the conventional display device due to its transparent property, but also has a problem caused by its transparent property. For example, there may be a problem that information on the screen is not visible because of its transparent nature.

따라서, 투명 디스플레이 장치를 보다 효과적으로 다양하게 사용할 수 있는 기술에 대한 필요성이 대두되었다.Therefore, a need has arisen for a technique that can more effectively use various kinds of transparent display devices.

본 발명은 상술한 필요성에 따른 것으로, 본 발명의 목적은, 정보를 효과적으로 디스플레이 할 수 있는 투명 디스플레이 장치 및 그 디스플레이 방법을 제공함에 있다.It is an object of the present invention to provide a transparent display device and a display method thereof that can display information effectively.

이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 투명 디스플레이 장치는, 정보를 디스플레이하는 투명 디스플레이부, 상기 투명 디스플레이부로부터 제1 방향에 있는 물체의 위치를 감지하는 제1 감지부, 상기 투명 디스플레이부로부터 제2 방향에 있는 사용자의 위치를 감지하는 제2 감지부, 상기 감지된 물체의 위치 및 사용자의 위치를 기반으로, 상기 사용자의 위치에서 상기 투명 디스플레이상에 상기 물체가 투과되어 보이는 영역을 추정하는 제어부를 포함한다. 여기서, 상기 제어부는, 상기 투과되어 보이는 영역을 고려하여 상기 투명 디스플레이부에 상기 정보가 디스플레이되도록 제어한다.According to an aspect of the present invention, there is provided a transparent display device including a transparent display unit for displaying information, a first sensing unit for sensing a position of an object in a first direction from the transparent display unit, A second sensing unit for sensing a position of a user in a second direction from the transparent display unit, the object being transmitted on the transparent display at the position of the user based on the position of the sensed object and the position of the user And a control unit for estimating a visible region. Here, the controller controls the information to be displayed on the transparent display unit in consideration of the transparent region.

*그리고, 상기 제1 감지부는, 상기 투명 디스플레이부의 제1 방향에 있는 상기 물체를 포함하는 적어도 하나의 사물을 촬상하는 제1 촬상부, 상기 촬상된 적어도 하나의 사물의 이미지 픽셀 정보를 이용하여 에지를 검출하는 제1 검출부, 상기 검출된 에지를 이용하여 상기 적어도 하나의 사물 중에서 상기 물체를 식별하고, 상기 식별된 물체의 위치 및 식별 영역을 검출하는 제2 검출부를 포함한다.The first sensing unit may include a first sensing unit that senses at least one object including the object in a first direction of the transparent display unit, and a second sensing unit that senses at least one object using the image pixel information of the sensed at least one object. And a second detection unit that identifies the object among the at least one object using the detected edge and detects a position and an identification region of the identified object.

여기서, 상기 제어부는, 상기 검출된 식별 영역의 크기 및 위치를 이용하여 상기 사용자의 위치에서 상기 투명 디스플레이부 상에 상기 물체가 투과되어 보이는 영역을 추정할 수 있다.Here, the controller may estimate an area where the object is visible through the transparent display unit at the user's position, using the size and position of the detected identification area.

또한, 상기 투명 디스플레이부는, 기 설정된 사이즈의 가상 분할 영역으로 구분되고, 상기 제어부는, 상기 가상 분할 영역 중에서 상기 식별 영역이 차지하는 영역을 상기 물체가 투과되어 보이는 영역으로 추정할 수 있다.The transparent display unit may be divided into a virtual divided area of a predetermined size, and the control unit may estimate an area occupied by the identification area among the virtual divided areas as an area visible through the object.

여기서, 상기 가상 분할 영역은 매트릭스 테이블로 매핑되고, 상기 제어부는, 상기 매트릭스 테이블 내에서 상기 물체가 투과되어 보이는 영역에 매핑되는 셀과, 상기 정보의 표시 영역에 매핑되는 셀 간의 상관 관계에 따라, 상기 정보의 표시 위치를 조정할 수 있다.Here, the virtual divided area is mapped to a matrix table, and the control unit displays, in accordance with a correlation between a cell mapped to an area where the object is visible through the matrix table and a cell mapped to the display area of the information, The display position of the information can be adjusted.

그리고, 상기 제어부는, 상기 정보의 표시 위치를 조정하면서, 상기 정보의 표시 속성을 변경하며, 상기 표시 속성은, 정보 표시 영역의 크기, 컬러, 굵기, 폰트, 배경색 중 적어도 하나가 될 수 있다.The control unit may change the display attribute of the information while adjusting the display position of the information, and the display attribute may be at least one of the size, color, thickness, font, and background color of the information display area.

또한, 본 투명 디스플레이 장치는, 상기 매트릭스 테이블이 저장된 저장부를 더 포함할 수 있다. 여기서, 상기 제어부는 상기 매트릭스 테이블 내의 각 셀 중에서 상기 제1 감지부에서 감지된 상기 물체의 위치에 매칭되는 셀과, 상기 제2 감지부에서 감지된 상기 사용자의 위치에 매칭되는 셀의 중복 영역 또는 가산 영역과, 상기 정보의 표시 영역의 적어도 일부가 겹치면 상기 정보의 표시 위치를 타 영역으로 이동시킬 수 있다.The transparent display device may further include a storage unit in which the matrix table is stored. Here, the controller may include a cell matched to the position of the object sensed by the first sensing unit among the cells in the matrix table, a redundant area of the cell matched to the position of the user sensed by the second sensing unit, The display position of the information can be moved to another area if at least a part of the display area of the information overlaps.

그리고, 상기 제1 촬상부는 복수 개이며, 상기 제어부는 상기 복수 개의 제1 촬상부 중에서, 상기 제2 감지부에서 감지된 상기 사용자의 위치에 대응되는 제1 촬상부를 선택적으로 구동시켜 촬상을 수행할 수 있다.The control unit may selectively drive the first image sensing unit corresponding to the position of the user sensed by the second sensing unit among the plurality of first sensing units to perform imaging .

또는, 상기 제1 촬상부는 상기 사용자의 위치에 따라 회전 가능할 수 있다.Alternatively, the first image sensing unit may be rotatable according to the position of the user.

*또한, 상기 제2 감지부는, 상기 제2 방향으로 촬상을 수행하는 제2 촬상부, 상기 제2 촬상부에서 촬상된 이미지를 이용하여 상기 사용자의 위치를 검출하는 사용자 위치 검출부를 포함할 수 있다.The second sensing unit may include a second sensing unit that senses the image in the second direction, and a user position sensing unit that detects the position of the user using the image sensed by the second sensing unit .

여기서, 상기 제어부는 상기 사용자의 위치를 이용하여 상기 사용자의 가시 범위를 추정하고, 상기 사용자의 가시 범위 내에서 상기 정보를 표시할 수 있다.Here, the controller may estimate the visible range of the user using the position of the user, and may display the information within the visible range of the user.

그리고, 상기 제어부는, 상기 사용자와의 거리에 따라, 상기 정보가 디스플레이되는 영역의 크기를 상이하게 조정할 수 있다.In addition, the controller may adjust the size of the area in which the information is displayed according to the distance from the user.

또는, 상기 제어부는, 상기 투명 디스플레이 부의 전체 영역 중에서 상기 사용자의 위치에 대응되는 영역에 사용자 UI 화면을 디스플레이할 수도 있다.Alternatively, the control unit may display a UI screen in an area corresponding to the position of the user in the entire area of the transparent display unit.

한편, 본 발명의 일 실시 예에 따른 투명 디스플레이 장치의 디스플레이 방법은, 투명 디스플레이부로부터 제1 방향에 있는 물체의 위치를 감지하는 단계, 상기 투명 디스플레이부로부터 제2 방향에 있는 사용자의 위치를 감지하는 단계, 상기 감지된 물체의 위치 및 사용자의 위치를 기반으로, 상기 사용자의 위치에서 상기 투명 디스플레이상에 상기 물체가 투과되어 보이는 영역을 추정하는 단계, 상기 추정된 영역을 고려하여 상기 투명 디스플레이부에 상기 정보를 디스플레이하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of displaying a transparent display device including the steps of sensing a position of an object in a first direction from a transparent display unit, detecting a position of a user in a second direction from the transparent display unit, Estimating an area where the object is visible through the transparent display at the position of the user based on the position of the sensed object and the position of the user, And displaying the information on the display unit.

여기서, 상기 물체의 위치를 감지하는 단계는, 상기 투명 디스플레이부의 제1 방향에 있는 상기 물체를 포함하는 적어도 하나의 사물을 촬상하는 단계, 상기 촬상된 적어도 하나의 사물의 이미지 픽셀 정보를 이용하여 에지를 검출하는 단계, 상기 검출된 에지를 이용하여 상기 적어도 하나의 사물 중에서 상기 물체를 식별하고, 상기 식별된 물체의 위치 및 식별 영역을 검출하는 단계를 포함할 수 있다.Wherein sensing the position of the object comprises imaging at least one object comprising the object in a first direction of the transparent display portion, using the image pixel information of the sensed at least one object, Identifying the object from the at least one object using the detected edge, and detecting the position and identification region of the identified object.

또한, 상기 추정하는 단계는, 상기 검출된 식별 영역의 크기 및 위치를 이용하여 상기 사용자의 위치에서 상기 투명 디스플레이부 상에 상기 물체가 투과되어 보이는 영역을 추정할 수 있다.In addition, the estimating step may estimate an area where the object is visible through the transparent display unit at the position of the user, using the size and position of the detected identification area.

그리고, 상기 추정하는 단계는, 상기 투명 디스플레이부를 기 설정된 사이즈의 가상 분할 영역으로 구분하고, 상기 가상 분할 영역 중에서 상기 식별 영역이 차지하는 영역을 상기 물체가 투과되어 보이는 영역으로 추정할 수 있다.The estimating step may divide the transparent display unit into a virtual divided area of a predetermined size and estimate an area occupied by the identification area in the virtual divided area as an area visible through the object.

여기서, 상기 가상 분할 영역은 매트릭스 테이블로 매핑될 수 있다. 그리고, 상기 정보를 디스플레이하는 단계는, 상기 매트릭스 테이블 내에서 상기 물체가 투과되어 보이는 영역에 매핑되는 셀과, 상기 정보의 표시 영역에 매핑되는 셀 간의 상관 관계에 따라, 상기 정보의 표시 위치를 조정하여 디스플레이할 수 있다.Here, the virtual partition area may be mapped to a matrix table. The step of displaying the information may include adjusting a display position of the information according to a correlation between a cell mapped in an area where the object is seen through in the matrix table and a cell mapped in the display area of the information, .

또한, 본 디스플레이 방법은, 상기 정보의 표시 속성을 변경하는 단계를 더 포함할 수 있다. 그리고, 상기 표시 속성은, 정보 표시 영역의 크기, 컬러, 굵기, 폰트, 배경색 중 적어도 하나가 될 수 있다.The display method may further include changing a display attribute of the information. The display attribute may be at least one of a size, a color, a thickness, a font, and a background color of the information display area.

또한, 본 디스플레이 방법은, 상기 매트릭스 테이블을 저장하는 단계를 더 포함할 수도 있다.The display method may further include storing the matrix table.

여기서, 상기 정보를 디스플레이하는 단계는, 상기 매트릭스 테이블 내의 각 셀 중에서 상기 물체의 위치에 매칭되는 셀과, 상기 사용자의 위치에 매칭되는 셀의 중복 영역 또는 가산 영역과, 상기 정보의 표시 영역의 적어도 일부가 겹치면 상기 정보의 표시 위치를 타 영역으로 이동시켜 디스플레이할 수 있다.Here, the step of displaying the information may include: a cell matched to a position of the object among the cells in the matrix table; an overlapping or adding area of a cell matching the position of the user; The display position of the information can be moved to another area and displayed.

그리고, 상기 촬상하는 단계는, 상기 투명 디스플레이 장치에 마련된 복수 개의 제1 촬상부 중에서, 상기 사용자의 위치에 대응되는 제1 촬상부를 선택적으로 구동시켜 촬상을 수행할 수 있다.The imaging step may perform imaging by selectively driving the first imaging unit corresponding to the position of the user out of the plurality of first imaging units provided in the transparent display device.

*또한, 상기 촬상하는 단계는, 상기 투명 디스플레이 장치에 마련된 제1 촬상부를 상기 사용자의 위치에 따라 회전시켜 촬상할 수도 있다.Furthermore, the imaging may be performed by rotating the first imaging unit provided in the transparent display device according to the position of the user.

또한, 상기 사용자의 위치를 감지하는 단계는, 상기 제2 방향으로 촬상을 수행하는 단계, 상기 촬상된 이미지를 이용하여 상기 사용자의 위치를 검출하는 단계, 상기 사용자의 위치를 이용하여 상기 사용자의 가시 범위를 추정하는 단계를 포함할 수 있다. The sensing of the position of the user may further include performing imaging in the second direction, detecting the position of the user using the sensed image, sensing the position of the user using the position of the user, And estimating the range.

이 경우, 상기 정보를 디스플레이하는 단계는, 상기 사용자의 가시 범위 내에서 상기 정보를 표시할 수 있다.In this case, the step of displaying the information may display the information within the visible range of the user.

그리고, 본 디스플레이 방법은, 상기 사용자와의 거리를 검출하는 단계, 상기 사용자와의 거리에 따라, 상기 정보가 디스플레이되는 영역의 크기를 상이하게 조정하는 단계를 더 포함할 수도 있다.The display method may further include a step of detecting a distance to the user, and a step of adjusting the size of the area in which the information is displayed according to the distance from the user.

또는, 상기 투명 디스플레이 부의 전체 영역 중에서 상기 사용자의 위치에 대응되는 영역에 사용자 UI를 디스플레이하는 단계를 더 포함할 수도 있다.Alternatively, the method may further include displaying the user UI in an area corresponding to the position of the user among the entire area of the transparent display unit.

이상과 같이, 본 발명의 다양한 실시 예에 따르면, 투명 디스플레이 장치에서 디스플레이되는 객체의 식별력을 높일 수 있게 된다.As described above, according to the various embodiments of the present invention, it becomes possible to increase the discrimination of objects displayed on the transparent display device.

도 1은 본 발명의 일 실시 예에 따른 투명 디스플레이 장치의 동작을 설명하기 위한 도면,
도 2는 본 발명의 일 실시 예에 따른 투명 디스플레이 장치의 구성을 설명하기 위한 블럭도,
도 3은 투명 디스플레이 장치에 적용되는 투명 디스플레이부의 세부 구성의 일 예를 나타내는 도면,
도 4는 투명 디스플레이 장치에 적용되는 투명 디스플레이부의 세부 구성의 다른 예를 나타내는 도면,
도 5는 본 발명의 다양한 실시 예에 따른 투명 디스플레이 장치의 구성을 설명하기 위한 블럭도,
도 6은 투명 디스플레이부의 전체 영역을 복수 개로 구분한 상태를 나타내는 도면,
도 7은 도 6의 투명 디스플레이부에 매핑되는 매트릭스 테이블을 이용하여 식별력 저하 영역을 기록하는 방법을 설명하기 위한 도면,
도 8은 도 7의 매트릭스 테이블을 이용하여 객체를 이동하는 방법을 설명하기 위한 도면,
도 9는 사용자 및 물체를 촬상하는 촬상부를 구비한 투명 디스플레이 장치의 일 예를 나타내는 도면,
도 10은 도 9의 투명 디스플레이 장치에서 사용자 및 물체를 촬상하여 식별력 저하 영역을 검출하는 방법을 설명하기 위한 도면,
도 11은 사용자의 위치에 따라 적응적으로 동작하는 복수의 촬상부를 포함하는 투명 디스플레이 장치의 구성을 나타내는 도면,
도 12 및 도 13은 쇼윈도 형태로 구현된 투명 디스플레이 장치에서 사용자의 위치 이동에 따라 화면을 재구성하는 방법을 설명하기 위한 도면,
도 14는 사용자의 이동 지점 및 촬상 각도를 고려하여 매트릭스 테이블을 수정하는 방법을 설명하기 위한 도면,
도 15는 랩탑 컴퓨터 형태로 구현된 투명 디스플레이 장치의 동작을 설명하기 위한 도면,
도 16은 도 15의 투명 디스플레이 장치에서 물체가 추가된 경우의 객체 표시 위치 이동을 설명하기 위한 도면,
도 17은 물체 위치 및 사용자 위치가 중복되는 면적의 크기에 따라 이동 거리가 달라지는 실시 예를 설명하기 위한 도면,
도 18은 위치 이동과 함께 객체의 표시 형태를 변경하는 실시 예를 설명하기 위한 도면,
도 19는 사용자의 위치 이동으로 인해 정보 표시 위치가 이동하는 실시 예를 설명하기 위한 도면,
도 20은 차량용 디스플레이 형태로 구현된 투명 디스플레이 장치의 동작을 설명하기 위한 도면,
도 21은 객체 표시 위치를 자동으로 변경하는 기능을 설정하기 위한 설정 화면의 일 예를 나타내는 도면,
도 22 및 도 23은 본 발명의 다양한 실시 예에 따른 투명 디스플레이 장치의 디스플레이 방법을 설명하기 위한 흐름도,
도 24는 본 발명의 다른 실시 예에 따른 투명 디스플레이 장치의 동작을 설명하기 위한 도면,
도 25는 본 발명의 또 다른 실시 예에 따른 투명 디스플레이 장치의 동작을 설명하기 위한 도면,
도 26은 근거리 무선 통신 모듈을 통해 입력된 사용자 정보에 따라 정보를 추가 표시하는 실시 예를 설명하기 위한 도면,
도 27은 본 발명의 다양한 실시 예에 따른 투명 디스플레이 장치에서 사용될 수 있는 제어부의 세부 구성의 일 예를 나타내는 블럭도,
도 28은 저장부에 저장되어 제어부에 의해 이용될 수 있는 소프트웨어 계층도,
도 29는 사용자의 위치 이동에 따라 사용자 UI 화면을 추가로 표시하는 실시 예를 나타내는 도면,
도 30 및 도 31은 사용자와의 거리에 따라 정보 표시 영역의 크기를 조정하는 실시 예를 나타내는 도면,
도 32는 사용자의 가시 범위 변경으로 인한 정보 표시 영역의 위치 변경 방법을 설명하기 위한 도면,
도 33은 근거리 무선 통신 방식에 따라 획득된 사용자 정보에 기초하여 정보의 표시 속성을 변경하는 방법을 설명하기 위한 도면,
도 34는 사용자 정보에 따라 정보의 내용을 변경하는 방법을 설명하기 위한 도면,
도 35는 카메라로 구현된 투명 디스플레이 장치의 동작을 설명하기 위한 도면, 그리고,
도 36은 사용자 위치 이동에 따라 감지 영역을 변경하는 투명 디스플레이 장치의 동작을 설명하기 위한 도면이다.
1 is a view for explaining an operation of a transparent display device according to an embodiment of the present invention;
FIG. 2 is a block diagram illustrating a configuration of a transparent display device according to an embodiment of the present invention. FIG.
3 is a diagram showing an example of a detailed configuration of a transparent display portion applied to a transparent display device,
4 is a view showing another example of a detailed configuration of a transparent display portion applied to a transparent display device,
5 is a block diagram illustrating a configuration of a transparent display device according to various embodiments of the present invention.
6 is a view showing a state in which the entire area of the transparent display unit is divided into a plurality of areas,
FIG. 7 is a diagram for explaining a method of recording a discernible area using a matrix table mapped to the transparent display unit of FIG. 6;
FIG. 8 is a diagram for explaining a method of moving an object using the matrix table of FIG. 7,
9 is a diagram showing an example of a transparent display device having a user and an image pickup section for picking up an object,
10 is a diagram for explaining a method of detecting a discrimination power reduction region by imaging a user and an object in the transparent display device of FIG. 9,
11 is a diagram showing a configuration of a transparent display device including a plurality of imaging units adaptively operating according to a user's position,
FIGS. 12 and 13 are diagrams for explaining a method of reconstructing a screen according to the movement of a user in a transparent display device implemented in the form of a show window;
14 is a diagram for explaining a method of modifying a matrix table in consideration of a moving point and an imaging angle of a user,
15 is a view for explaining the operation of a transparent display device implemented in the form of a laptop computer,
FIG. 16 is a view for explaining movement of an object display position when an object is added in the transparent display device of FIG. 15;
17 is a view for explaining an embodiment in which the moving distance varies depending on the size of the overlapping area of the object position and the user position,
18 is a diagram for explaining an embodiment for changing the display form of an object together with the position movement,
19 is a view for explaining an embodiment in which the information display position moves due to the movement of the user,
20 is a view for explaining the operation of a transparent display device implemented in the form of a vehicle display,
21 is a view showing an example of a setting screen for setting a function for automatically changing an object display position,
22 and 23 are flowcharts for explaining a display method of a transparent display device according to various embodiments of the present invention,
24 is a view for explaining the operation of the transparent display device according to another embodiment of the present invention,
25 is a view for explaining the operation of a transparent display device according to another embodiment of the present invention,
26 is a view for explaining an embodiment for additionally displaying information according to user information input through a short-range wireless communication module;
27 is a block diagram showing an example of a detailed configuration of a control unit that can be used in a transparent display device according to various embodiments of the present invention;
28 is a software layer diagram stored in the storage unit and usable by the control unit,
29 is a view showing an embodiment in which a user UI screen is additionally displayed in accordance with the movement of a user;
30 and 31 are views showing an embodiment of adjusting the size of the information display area according to the distance from the user,
32 is a view for explaining a method for changing the position of an information display area due to a change in the visible range of the user,
FIG. 33 is a diagram for explaining a method for changing the display attribute of information based on user information acquired according to the short-range wireless communication method;
34 is a diagram for explaining a method of changing contents of information according to user information,
35 is a view for explaining the operation of a transparent display device implemented by a camera,
36 is a view for explaining the operation of the transparent display device for changing the sensing area according to the movement of the user.

이하에서, 첨부된 도면을 이용하여 본 발명에 대하여 구체적으로 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 투명 디스플레이 장치의 동작을 설명하기 위한 도면이다. 도 1에 따르면, 투명 디스플레이 장치(100)는 디스플레이 화면이 투명하게 구현되어, 후면 배경이 투명하게 비치게 된다. 이에 따라, 정보가 후면 배경과 겹치게 되면, 정보가 잘 보이지 않게 되어 식별력이 떨어진다는 문제점이 발생할 수 있다. 1 is a view for explaining the operation of a transparent display device according to an embodiment of the present invention. Referring to FIG. 1, the transparent display device 100 has a transparent display screen, so that the background of the display device is transparent. Accordingly, if the information overlaps with the background of the background, the information may become invisible and the discrimination power may deteriorate.

도 1에서와 같이 투명 디스플레이 장치(100)를 기준으로 제1 방향에 임의의 물체(20)가 놓여지고, 그 반대인 제2 방향에 사용자(10)가 위치한 경우, 사용자(10)는 투명 디스플레이 장치(100)를 통해서 반대 측의 물체(20)를 그대로 볼 수 있다. 이하, 본 명세서에서는 설명의 편의를 위하여 투명 디스플레이 장치(100)의 화면을 기준으로 제2 방향, 즉, 사용자가 위치한 쪽을 전방으로 정의하고, 제1 방향, 즉, 사용자의 반대쪽을 후방으로 정의한다. When the user 10 is placed in the second direction opposite to the first direction with an arbitrary object 20 placed on the transparent display device 100 as shown in Fig. 1, The object 20 on the opposite side can be seen through the apparatus 100 as it is. Hereinafter, for convenience of description, the second direction, i.e., the side on which the user is located is defined as the forward direction, and the first direction, i.e., the opposite side of the user is defined as the backward direction on the screen of the transparent display device 100 do.

투명 디스플레이 장치(100)는 제1 방향에 위치한 물체(20)의 위치와 제2 방향에 위치한 사용자(10)의 위치를 각각 인식한 후, 표시할 정보의 위치나 컬러, 크기 등과 같은 속성을 평가한다. 투명 디스플레이 장치(100)는 평가 결과에 따라 정보의 표시 위치를 이동시켜 디스플레이한다.The transparent display device 100 recognizes the position of the object 20 located in the first direction and the position of the user 10 located in the second direction and then evaluates attributes such as the position, do. The transparent display device 100 moves and displays the display position of the information according to the evaluation result.

투명 디스플레이가 구현되는 방법 및 이를 위한 투명 디스플레이 구조에 대해서는 후술하는 부분에서 도면과 함께 구체적으로 설명한다.A method of implementing a transparent display and a transparent display structure therefor will be described in detail below with reference to the drawings.

물체(20)란 구체적인 형상을 가지고 존재하는 것으로, 판매 가능한 상품, 동식물, 가구, 벽, 벽지 등과 같은 다양한 사물이 될 수 있다. The object 20 exists in a specific shape and can be a variety of objects such as a product that can be sold, an animal or animal, furniture, a wall, and a wallpaper.

투명 디스플레이 장치(100)는 후방에 위치한 물체(20)가 투명하게 비치는 상태에서 정보(30)를 디스플레이할 수 있다. 정보란 이미지, 텍스트, 컨텐츠 재생 화면, 어플리케이션 실행 화면, 웹 브라우저 화면, 각종 그래픽 객체 등이 될 수 있다.The transparent display device 100 can display the information 30 in a state in which the object 20 located at the rear is transparent. The information may be an image, a text, a content playback screen, an application execution screen, a web browser screen, various graphic objects, and the like.

투명 디스플레이 장치(100)는 사용자(10)의 위치 및 물체(20)의 위치를 각각 감지하고, 사용자의 위치에서 물체(20)를 보았을 때 투명 디스플레이부 상에서 물체가 투과되어 보이는 영역을 추정한다. 이하에서는, 설명의 편의를 위하여 물체가 투과되어 보이는 영역을 투과 영역이라 한다. 투과 영역에 정보가 표시되면, 후방의 물체 존재로 인해 정보의 식별력이 저하된다. 따라서, 투과 영역은 다르게는 식별력 저하 영역이라고 칭할 수도 있다. The transparent display device 100 senses the position of the user 10 and the position of the object 20 and estimates the area where the object is seen through the transparent display unit when the object 20 is viewed at the user's position. Hereinafter, for convenience of explanation, a region through which an object is transmitted is referred to as a transmission region. When the information is displayed in the transmission area, the presence of the rear object lowers the discrimination power of the information. Therefore, the transmissive region may be otherwise referred to as a discrimination power reduction region.

투명 디스플레이 장치(100)는 투과 영역을 추정하기 위해서 투명 디스플레이부의 전체 영역을 기 설정된 사이즈의 가상 분할 영역으로 구분할 수 있다. 투명 디스플레이 장치(100)는, 구분된 가상 분할 영역 중에서, 물체(20)의 위치에 대응되는 영역을 투과 영역으로 추정할 수 있다. The transparent display device 100 may divide the entire area of the transparent display unit into virtual divided areas of predetermined sizes in order to estimate the transmission area. The transparent display device 100 can estimate an area corresponding to the position of the object 20 among the divided virtual divided areas as a transparent area.

이 경우, 투명 디스플레이 장치(100)는 사용자(10)의 위치 및 형상을 디스플레이 표면에 매핑시킨 매핑 영역(10')과, 물체(20)의 위치 및 형상을 디스플레이 표면에 매핑시킨 매핑 영역(20') 간의 상관 관계를 고려하여, 투과 영역을 추정할 수도 있다. 가령, 두 매핑 영역이 서로 오버랩되는 영역(10'∩20') 이 투과 영역으로 추정될 수 있다. In this case, the transparent display device 100 includes a mapping area 10 'in which the position and shape of the user 10 is mapped to the display surface, a mapping area 20' in which the position and shape of the object 20 are mapped to the display surface 'May be considered, and the transmission region may be estimated. For example, an area 10 '' 20 'in which two mapping areas overlap each other can be estimated as a transmission area.

투명 디스플레이 장치(100)는 각 매핑 영역들을 정확하게 산출하기 위해서 가상 분할 영역을 매트릭스 테이블로 매핑시킬 수 있다. 이 경우, 매트릭스 테이블 내에서 물체의 투과 영역에 매핑되는 셀과, 정보가 표시될 영역에 매핑되는 셀들 간의 상관 관계를 고려하여, 오버랩되는지 여부를 판단한다. 투명 디스플레이 장치(100)는 두 영역이 서로 오버랩된다면 정보의 표시 위치를 조정한다. The transparent display device 100 may map the virtual partition area to the matrix table in order to accurately calculate each of the mapping areas. In this case, it is determined whether or not the cell is overlapped in consideration of the correlation between the cell mapped in the transmission region of the object in the matrix table and the cell mapped in the region in which the information is to be displayed. The transparent display device 100 adjusts the display position of information if the two areas overlap each other.

즉, 투명 디스플레이 장치(100)는 투과 영역이 추정되면, 투과 영역에 표시되어 있던 정보(30)를 식별력이 저하될 염려가 없는 타 영역으로 이동시켜 디스플레이한다. 정보(30) 표시를 이동시키는 방향 및 이동 거리는 투과 영역과 정보(30) 표시 위치가 중복되는 정도, 중복되는 영역의 위치, 식별력이 저하되지 않는 타 영역의 위치 등을 고려하여 결정할 수 있다. That is, when the transmission area is estimated, the transparent display device 100 displays the information 30 displayed in the transmission area by moving the information 30 to another area where the identification power is not likely to deteriorate. The direction and distance of movement of the information display 30 can be determined in consideration of the degree of overlap between the transmission area and the information display position 30, the position of the overlapped area, the position of another area where the discrimination power does not decrease, and the like.

또한, 투명 디스플레이 장치(100)는 정보(30)의 위치와 함께 또는 별도로 크기, 컬러, 굵기, 폰트 등과 같은 다양한 표시 속성을 조정할 수도 있다.In addition, the transparent display device 100 may adjust various display attributes, such as size, color, thickness, font, etc., with or in addition to the location of the information 30.

이 경우, 투명 디스플레이 장치(100)는 물체의 특성과 정보의 표시 속성을 비교한다. 예를 들어, 겹치는 영역의 넓이, 겹치는 영역의 색상, 물체와 투명 디스플레이 장치(100) 간의 거리, 사용자와 투명 디스플레이 장치(100)간의 거리 등을 판단하여 그 판단 결과에 따라 정보의 표시 속성을 변경할 수 있다.In this case, the transparent display device 100 compares the characteristic of the object with the display attribute of the information. For example, the size of the overlapping area, the color of the overlapping area, the distance between the object and the transparent display device 100, the distance between the user and the transparent display device 100, and the like are changed, .

구체적으로는, 물체의 투과 영역 중에서 겹치는 영역의 물체 색상이 정보의 표시 색상과 유사하다면, 정보의 표시 색상을 다른 색으로 변경하여 표시한다. 또는, 사용자가 투명 디스플레이 장치(100)와 멀리 떨어져 있다면 정보의 표시 영역의 크기를 확대하여 표시하고, 가깝다면 정보의 표시 영역을 작게 표시한다. 겹치는 영역이 넓은 경우에는 정보의 표시 위치의 이동 거리가 길어지므로, 그 길어진 방향에 맞는 형태로 정보의 레이아웃을 변경하여 줄 수도 있다. 또는 물체가 멀리 떨어져 있는 경우, 물체에 대한 확대 이미지를 정보로 제공하여 줄 수도 있다.Specifically, if the object color of the overlapping area in the transmission area of the object is similar to the display color of the information, the display color of the information is changed to another color and displayed. Alternatively, if the user is far from the transparent display device 100, the size of the display area of the information is enlarged and displayed, and if the user is close to the transparent display device 100, the display area of the information is displayed small. When the overlapping area is wide, the moving distance of the display position of the information becomes longer, so that the layout of the information can be changed in a form corresponding to the longer direction. Alternatively, if the object is far away, an enlarged image of the object may be provided as information.

한편, 정보(30) 표시 위치를 이동시키는 동작은 정보(30) 표시 위치가 투과 영역에 위치하게 되는 조건 이외에 부가적으로 설정된 조건이 충족되었을 때 수행하도록 세팅될 수도 있다. 가령, 투명 디스플레이 장치(100)는 사용자가 정보(30) 표시 위치를 자동으로 수행하도록 하는 기능을 온(ON)시킨 상태에서만, 상술한 바와 같이 물체(20) 및 사용자(10)의 위치를 파악하여 투과 영역을 검출하고, 그 영역의 위치에 따라 정보(30) 표시 위치를 변경할 수 있다. 또는,  정보(30) 표시 위치가 투과 영역 내에 기 설정된 시간 이상 포함되어 있거나, 물체(20) 및 사용자가 기 설정된 시간 이상 이동하지 않아 투과 영역이 고정적으로 정해질 때, 상술한 바와 같은 정보(30) 표시 위치 이동 동작을 수행할 수도 있다. On the other hand, the operation of shifting the display position of the information 30 may be set to be performed when a condition set additionally is satisfied other than a condition that the display position of the information 30 is located in the transmission region. For example, the transparent display device 100 can recognize the positions of the object 20 and the user 10 only when the user has turned on the function of automatically performing the display of the information 30 And the display position of the information 30 can be changed according to the position of the area. Alternatively, when the display position of the information 30 is included in the transmission area for more than a predetermined time, or when the transmission area is fixedly fixed because the object 20 and the user do not move for more than the predetermined time, ) Display position shifting operation.

도 2는 본 발명의 일 실시 예에 따른 투명 디스플레이 장치의 구성을 나타내는 블럭도이다. 도 2에 따르면, 투명 디스플레이 장치(100)는 제1 감지부(110), 제2 감지부(120), 제어부(130), 투명 디스플레이부(140)를 포함한다.2 is a block diagram illustrating a configuration of a transparent display device according to an embodiment of the present invention. 2, the transparent display device 100 includes a first sensing unit 110, a second sensing unit 120, a controller 130, and a transparent display unit 140.

제1 감지부(110)는 투명 디스플레이 장치(100)의 제1 방향에 존재하는 물체의 위치를 감지한다. 제2 감지부(120)는 투명 디스플레이 장치(100)의 제2 방향에 존재하는 사용자의 위치를 감지한다. 제어부(130)는 감지된 물체의 위치 및 사용자의 위치를 고려하여 투명 디스플레이부(140) 상에 정보를 디스플레이한다.The first sensing unit 110 senses the position of an object existing in the first direction of the transparent display device 100. The second sensing unit 120 senses the position of the user existing in the second direction of the transparent display device 100. The control unit 130 displays information on the transparent display unit 140 in consideration of the position of the sensed object and the position of the user.

제1 감지부(110) 및 제2 감지부(120)는 다양한 방식으로 물체 및 사용자의 위치를 감지할 수 있다. 이하에서는 제1 및 제2 감지부(110, 120)의 감지 방법에 대한 다양한 예를 설명한다.The first sensing unit 110 and the second sensing unit 120 may sense the position of an object and a user in various ways. Hereinafter, various examples of the sensing method of the first and second sensing units 110 and 120 will be described.

<물체 및 사용자 위치 감지 방법에 대한 다양한 실시 예>&Lt; Various embodiments of object and user position sensing method >

일 예로, 제1 감지부(110)는 카메라와 같은 촬상 소자를 이용하여 후방 배경 이미지를 촬상하고, 그 촬상된 후방 배경 이미지를 분석하여, 물체와의 거리, 물체의 위치 등을 감지할 수 있다. 이에 대해서는, 후술하는 도 5에 대한 설명 부분에서 구체적으로 설명한다.  For example, the first sensing unit 110 may capture an image of a rear background image using an image pickup element such as a camera, analyze the captured rear background image, and detect a distance to the object, a position of the object, and the like . This will be described in detail in the description of FIG. 5 to be described later.

다른 예로, 제1 감지부(110)는 광센서를 이용하여 후방으로부터 입사되는 광의 세기를 감지하고, 그 광의 세기 분포를 분석하여 물체의 위치를 감지할 수 있다. As another example, the first sensing unit 110 may sense the intensity of light incident from behind using an optical sensor, and may sense the position of the object by analyzing the intensity distribution of the light.

광센서는 포토 다이오드, 포토 트랜지스터, CCD (Charge Coupled Device) 등으로 구현될 수 있으며, 투명 디스플레이부(140)의 전체 영역에 균일하게 분포된다. 각 광센서들은 입사되는 광의 세기를 산출한다. 통상적으로, 물체(20)가 놓여진 주변 배경의 컬러와 물체(20)의 컬러가 상이하면, 물체(20)로부터 반사되는 반사광의 세기와, 그 주변 배경으로부터 반사되는 반사광의 세기가 달라진다. 이에 따라, 투명 디스플레이부(140)를 투과하는 각 반사광들의 세기를 검출하여, 다른 세기를 가지는 반사광이 입사되는 광센서의 위치를 물체(20)의 위치로 판단할 수 있다. The optical sensor may be implemented as a photodiode, a phototransistor, a CCD (Charge Coupled Device), or the like, and is uniformly distributed over the entire area of the transparent display unit 140. Each optical sensor calculates the intensity of the incident light. Typically, when the color of the surrounding background on which the object 20 is placed is different from the color of the object 20, the intensity of the reflected light reflected from the object 20 and the intensity of the reflected light reflected from the surrounding background are different. Accordingly, the intensity of each reflected light transmitted through the transparent display unit 140 can be detected, and the position of the light sensor to which the reflected light having different intensity is incident can be determined as the position of the object 20.

또 다른 예로, 사용자 또는 관리자가 물체의 위치를 직접 입력하여, 물체의 위치를 결정할 수도 있다. 이 경우, 제1 감지부(110)는 터치 스크린, 키보드, 마우스, 조이스틱, 터치 패드, 버튼 등과 같은 다양한 입력 수단으로 구현될 수 있다. 사용자 또는 관리자는 입력 수단을 통해 후방의 물체 위치를 직접 정할 수 있다.As another example, a user or an administrator may directly input the position of an object to determine the position of the object. In this case, the first sensing unit 110 may be implemented by various input means such as a touch screen, a keyboard, a mouse, a joystick, a touch pad, a button, and the like. The user or the manager can directly specify the position of the rear object through the input means.

가령, 투명 디스플레이부(140)의 전체 영역을 복수 개의 영역(예를 들어, 9개)으로 구분한다. 사용자 또는 관리자가 그 영역 중 적어도 하나 이상을 선택하게 되면, 선택된 영역이 곧 물체의 위치에 대응되는 디스플레이 영역, 즉, 투과 영역으로 인식될 수 있다. 따라서, 사용자가 선택한 영역을 제외한 나머지 영역에 정보가 표시된다. For example, the entire area of the transparent display unit 140 is divided into a plurality of areas (for example, nine). If the user or the administrator selects at least one of the areas, the selected area can be recognized as a display area corresponding to the position of the object, that is, a transparent area. Therefore, the information is displayed in the remaining area except the area selected by the user.

또 다른 예로, 제1 감지부(110)는 근거리 무선 통신 모듈로 구현될 수도 있다. 근거리 무선 통신 모듈이란 근거리 무선 통신 태그나 근거리 무선 통신 리더 또는 이들 모두를 포함하고 있는 모듈을 의미한다. 근거리 무선 통신 리더란 근거리 무선 통신 태그가 부착된 외부 물체와 태깅되었을 때, 근거리 무선 통신 태그에 기록된 정보를 근거리 무선 통신 방식에 따라 리딩하는 장치이다. 여기서, 태깅이란 근거리 무선 통신 태그 및 근거리 무선 통신 리더 중 적어도 하나가 이동하여, 태그 및 리더가 서로의 통신 가능 범위 이내로 위치하게 되는 행위를 의미한다. 근거리 무선 통신 방식의 예로는, NFC(Near Field Communication)가 사용될 수 있다. NFC란 13.56Mz 주파수 대역을 사용하는 비접촉식 근거리 무선통신 방식이다. NFC 기술을 이용하면, 복수의 단말기가 약 10 cm 이내와 같이 근거리로 접근하였을 때 데이터가 송수신될 수 있다. As another example, the first sensing unit 110 may be implemented as a short-range wireless communication module. A short-range wireless communication module means a short-range wireless communication tag or a short-range wireless communication reader, or a module including both of them. A short-range wireless communication reader is a device that reads information recorded in a short-range wireless communication tag according to a short-range wireless communication method when tagged with an external object attached with a short-range wireless communication tag. Here, tagging means an action in which at least one of the near field wireless communication tag and the near field wireless communication reader is moved, and the tag and the reader are located within the communicable range of each other. As an example of the short-range wireless communication method, NFC (Near Field Communication) can be used. NFC is a non-contact, short-range wireless communication system using a frequency band of 13.56Mz. With NFC technology, data can be transmitted and received when a plurality of terminals approaches within a distance of about 10 cm or less.

이 경우, 근거리 무선 통신 태그가 부착된 물체가 제1 감지부(110)에 태깅되면, 제1 감지부(110)는 물체의 배치 위치에 대한 정보를 근거리 무선 통신 태그로부터 제공받고, 제공된 배치 위치를 물체의 실제 위치로 판단한다.In this case, when an object to which the local wireless communication tag is attached is tagged to the first sensing unit 110, the first sensing unit 110 receives information on the arrangement position of the object from the local wireless communication tag, As the actual position of the object.

또 다른 예로, 제1 감지부(110)는 촬상부 및 근거리 무선 통신 모듈 모두를 포함하는 형태로 구현될 수 있다. 이 경우, 근거리 무선 통신 태그가 부착된 물체가 태깅되면, 근거리 무선 통신 태그에 기록된 물체의 형상 및 컬러 등에 대한 속성 정보를 수신한다. 그리고 나서, 촬상부에서 촬상된 이미지 중에서, 속성 정보에 해당하는 영역을 검출하여, 그 검출된 영역을 물체의 실제 위치로 판단한다.As another example, the first sensing unit 110 may be implemented as including both an image sensing unit and a short-range wireless communication module. In this case, when an object attached with the local area wireless communication tag is tagged, attribute information on the shape and color of the object recorded in the local area wireless communication tag is received. Then, an area corresponding to the attribute information is detected from the images picked up by the image pickup unit, and the detected area is determined as the actual position of the object.

이상과 같은 다양한 실시 예에서 제1 감지부(110)는 물체의 위치를 감지하는 것으로 설명하였으나, 물체의 위치 이외에 물체의 색상이나 물체에 써져 있는 텍스트, 물체에 그려지거나 부착된 이미지 등을 인식할 수도 있다. 물체의 색상의 경우에는 카메라를 통해 촬상된 이미지에서 에지 검출을 하고, 검출된 에지 내부의 색상을 검출할 수 있다. 또는, 근거리 무선 통신 태그를 통해 해당 물체의 색상 정보를 제공받을 수도 있다. 텍스트나 이미지의 경우에도 카메라를 통해 촬상된 이미지로부터 텍스트 판독 또는 이미지 판독 알고리즘을 이용하여 검출하거나, 근거리 무선 통신 방식으로 제공받을 수 있다. 이러한 색상이나, 텍스트, 이미지 등이 검출되면, 투명 디스플레이 장치(100)는 해당 물체가 어떠한 종류의 것인지 파악하여, 그에 맞는 정보를 디스플레이하여 줄 수 있다.In the above-described various embodiments, the first sensing unit 110 senses the position of an object. However, in addition to the position of the object, the first sensing unit 110 recognizes the color of the object, text written on the object, It is possible. In the case of the color of an object, it is possible to detect an edge in an image picked up through a camera and detect a color inside the detected edge. Alternatively, color information of the object may be provided through the short-range wireless communication tag. In the case of text or images, it can be detected from an image captured through a camera by using a text reading or image reading algorithm, or can be provided by a near field wireless communication method. When such a color, text, image, or the like is detected, the transparent display device 100 can recognize what kind of object the object is, and display information corresponding to the kind.

한편, 제2 감지부(120)는 투명 디스플레이 장치(100)의 전방에 위치한 사용자의 위치를 검출한다. On the other hand, the second sensing unit 120 detects the position of the user located in front of the transparent display device 100.

제2 감지부(120) 역시 제1 감지부(110)와 마찬가지로 촬상 소자를 이용하거나, 광 센서를 이용하여 사용자의 위치를 검출할 수 있다. Similarly to the first sensing unit 110, the second sensing unit 120 can detect the position of the user using an imaging device or an optical sensor.

다른 예로, 제2 감지부(120)는 복수의 근거리 무선 통신 모듈로 구현되어, 각 모듈 중에서 태깅이 이루어진 모듈의 위치를 기준으로 사용자의 위치를 검출할 수도 있다. As another example, the second sensing unit 120 may be implemented as a plurality of short-range wireless communication modules, and may detect the position of the user based on the position of the tagged module among the modules.

제2 감지부(120)는 이러한 근거리 무선 통신 모듈을 복수 개 구비하여, 태깅이 이루어진 모듈이 설치된 투명 디스플레이부의 영역을 투과 영역으로 인식할 수 있다. 구체적으로는, 투명 디스플레이 장치(100)가 대형 쇼윈도로 구현된 경우, 쇼윈도의 바깥쪽 표면 또는 그 주변에 일정 간격으로 복수의 근거리 무선 통신 모듈을 설치할 수 있다. The second sensing unit 120 may include a plurality of the short-range wireless communication modules and recognize the region of the transparent display unit on which the tagged module is installed as a transmission region. Specifically, when the transparent display device 100 is implemented in a large-scale display, a plurality of short-range wireless communication modules can be installed at regular intervals on the outer surface of the display window or in the vicinity thereof.

이 경우, 사용자가 지나가다가 관심 있는 상품이 존재하는 위치에 서서, 그 주변의 근거리 무선 통신 모듈에 대해 자신의 사용자 단말 장치를 태깅할 수 있다. 여기서의 사용자 단말 장치는 근거리 무선 통신 모듈이 구비된 휴대폰이나, PDA, 태블릿 PC, MP3 플레이어 등이 될 수 있다. 또는, 사용자는 근거리 무선 통신 태그가 구비된 네임 카드나, 신용 카드 등으로 태깅을 할 수도 있다. 이와 같이, 사용자가 태깅을 하면, 제2 감지부(120)는 태깅된 모듈이 설치된 위치에 사용자가 존재한다고 판단하고, 후방의 물체 위치와 사용자의 위치를 고려하여 투과 영역을 추정할 수 있다.In this case, the user can go to the position where the interested product exists and tag his / her user terminal device with respect to the nearby wireless communication module. The user terminal device may be a cellular phone equipped with a local wireless communication module, a PDA, a tablet PC, an MP3 player, or the like. Alternatively, the user may tag with a name card, a credit card, or the like equipped with a short-range wireless communication tag. In this way, when the user performs tagging, the second sensing unit 120 determines that the user is present at the position where the tagged module is installed, and can estimate the transmission region in consideration of the position of the object behind and the position of the user.

또는 제2 감지부(120)는 투명 디스플레이부(140)를 기준으로 제2 방향 측 바닥 등에 배치된 복수의 센서를 포함할 수 있다. 센서는 광센서나, 압력 센서, 모션 감지 센서 등이 사용될 수 있다. 이에 따라, 사용자가 특정 포인트에 위치하게 되면 그 포인트에 배치된 센서에서 센싱 신호가 검출된다. 제2 감지부(120)는 센싱 신호에 검출된 센서의 위치를 사용자의 위치로 결정할 수 있다.Or the second sensing unit 120 may include a plurality of sensors disposed on the second direction side bottom or the like with respect to the transparent display unit 140. The sensor may be an optical sensor, a pressure sensor, a motion sensor, or the like. Accordingly, when the user is positioned at a specific point, a sensing signal is detected in the sensor disposed at the point. The second sensing unit 120 may determine the position of the sensor detected in the sensing signal as the position of the user.

이상과 같이, 제1 및 제2 감지부(110, 120)가 물체 및 사용자의 위치를 감지하는 방식은 다양한 실시 예에 따라 상이하게 구현될 수 있다.As described above, the manner in which the first and second sensing units 110 and 120 sense the position of the object and the user can be implemented differently according to various embodiments.

제어부(130)는 제1 및 제2 감지부(110, 120)에서 각각 감지한 물체(20) 위치 및 사용자(10)의 위치를 기반으로, 사용자(10)가 투명 디스플레이부(140)를 바라보았을 때 투명 디스플레이부(140) 상에서 물체(20)가 보이는 영역, 즉, 투과 영역을 추정한다. The controller 130 controls the user 10 to observe the transparent display unit 140 based on the position of the object 20 and the position of the user 10 sensed by the first and second sensing units 110 and 120, An area where the object 20 is visible on the transparent display unit 140, that is, a transparent area is estimated.

그리고, 제어부(130)는 투명 디스플레이부(140)에서 투과 영역에 포함되는 정보(30)를 디스플레이하고 있는지 확인하고, 확인된 정보의 표시 위치를 타 영역으로 이동하도록 결정한다. The control unit 130 determines whether the transparent display unit 140 displays the information 30 included in the transmission area and determines to move the display position of the confirmed information to another area.

투명 디스플레이부(140)는 물체(20)가 투명하게 비치는 상태에서 정보(30)를 디스플레이한다. 상술한 바와 같이 정보는 다양한 예로 구현될 수 있다. 정보(30)가 투과 영역과 겹치는 경우, 투명 디스플레이부(140)는 제어부(130)에 의해 결정된 위치에 정보(30)를 이동시켜 표시한다. 이에 따라, 정보(30)는 식별력이 저하되지 않는 영역에 표시되므로, 식별력이 높아지게 된다.The transparent display unit 140 displays the information 30 in a state in which the object 20 is transparent. As described above, the information can be implemented in various examples. When the information 30 overlaps with the transmissive area, the transparent display unit 140 moves the information 30 to a position determined by the controller 130 and displays the information. Accordingly, the information 30 is displayed in the area where the identification power is not lowered, so that the identification power is increased.

투명 디스플레이부(140)는 실시 예에 따라 투명 LCD(Liquid Crystal Display) 형, 투명 TFEL(Thin-Film Electroluminescent Panel) 형, 투명 OLED 형, 투사형 등과 같은 다양한 형태로 구현될 수 있다. 이하에서는, 투명 디스플레이부(140)의 구조에 대한 다양한 실시 예를 설명한다.The transparent display unit 140 may be implemented in various forms such as a transparent LCD (Liquid Crystal Display) type, a transparent TFEL (Thin-Film Electroluminescent Panel) type, a transparent OLED type, a projection type, Hereinafter, various embodiments of the structure of the transparent display unit 140 will be described.

< 투명 디스플레이부 구조에 대한 다양한 실시 예 >&Lt; Various Embodiments of Transparent Display Substructure Structure >

투명 LCD 형이란 현재 사용되고 있는 LCD 장치에서 백라이트 유닛을 제거하고, 한 쌍의 편광판, 광학 필름, 투명 박막 트랜지스터, 투명 전극 등을 사용하여 구현한 투명 디스플레이 장치를 의미한다. 투명 LCD 장치에서는 편광판이나 광학 필름등에 의해 투과도가 떨어지고, 백라이트 유닛 대신 주변 광을 이용하게 되므로 광 효율이 떨어지지만, 대면적 투명 디스플레이를 구현할 수 있다는 장점이 있다. 투명 TFEL 형이란 투명 전극, 무기 형광체, 절연막으로 이루어진 교류형 무기박막 EL 디스플레이(AC-TFEL)를 사용하는 장치를 의미한다. AC-TFEL은 무기 형광체 내부에 가속이 된 전자가 지나가면서 형광체를 여기시켜 빛을 내게 하는 디스플레이이다. 투명 디스플레이부(130)가 투명 TFEL 형태로 구현된 경우, 제어부(130)는 적절한 위치로 전자가 투사되도록 조정하여, 정보 표시 위치를 결정할 수 있다. 무기 형광체, 절연막이 투명한 특성을 가지므로, 매우 투명한 디스플레이를 구현할 수 있다.  The transparent LCD type means a transparent display device in which a backlight unit is removed from a currently used LCD device and a pair of polarizing plates, an optical film, a transparent thin film transistor, and a transparent electrode are used. In a transparent LCD device, transparency is lowered by a polarizing plate or an optical film, and ambient light is used instead of a backlight unit, so that light efficiency is lowered, but a large-area transparent display can be realized. The transparent TFEL type means an apparatus using an AC type inorganic thin film EL display (AC-TFEL) comprising a transparent electrode, an inorganic fluorescent substance and an insulating film. AC-TFEL is a display that accelerates electrons passing through an inorganic phosphor to excite phosphors to emit light. When the transparent display unit 130 is implemented as a transparent TFEL type, the controller 130 can adjust the information to be displayed so that electrons are projected to an appropriate position to determine an information display position. Since the inorganic phosphor and the insulating film have a transparent characteristic, a very transparent display can be realized.

그 밖에, 투명 OLED형이란 자체 발광이 가능한 OLED를 이용하는 투명 디스플레이 장치를 의미한다. 유기 발광층이 투명하기 때문에, 양쪽 전극을 투명 전극으로 사용하면, 투명 디스플레이 장치로 구현 가능하다. OLED는 유기 발광층 양쪽에서 전자와 정공을 주입하여 이들이 유기 발광층 내에서 결합되면서 빛을 내게 된다. 투명 OLED 장치는 이러한 원리를 사용하여 원하는 위치에 전자 및 정공을 주입하여, 정보를 표시한다. In addition, the transparent OLED type means a transparent display device using an OLED capable of self-emission. Since the organic light emitting layer is transparent, if both electrodes are used as the transparent electrode, a transparent display device can be realized. OLEDs inject electrons and holes from both sides of the organic light-emitting layer and emit light as they are combined in the organic light-emitting layer. Transparent OLED devices use this principle to inject electrons and holes at desired locations to display information.

도 3은 투명 OLED 형으로 구현된 투명 디스플레이부의 세부 구성 예를 나타내는 도면이다. 설명의 편의를 위하여 투명 OLED(Organic Light-Emitting Diodes) 형으로 구현된 투명 디스플레이부에 대해서는 참조부호 140-1을 부여한다.3 is a view showing a detailed configuration example of a transparent display unit implemented as a transparent OLED type. For convenience of explanation, reference numeral 140-1 is assigned to a transparent display unit implemented as a transparent OLED (Organic Light-Emitting Diodes) type.

도 3에 따르면, 투명 디스플레이부(140-1)는 투명 기판(141-1), 투명 트랜지스터층(142-2), 제1 투명 전극(143-1), 투명 유기 발광 층(Transparent Organic Light-Emitting layer)(144-1), 제2 투명 전극(145-1), 연결 전극(146-1)을 포함한다.  3, the transparent display unit 140-1 includes a transparent substrate 141-1, a transparent transistor layer 142-2, a first transparent electrode 143-1, a transparent organic light- Emitting layer 144-1, a second transparent electrode 145-1, and a connection electrode 146-1.

투명기판(141-1)은 투명한 성질을 가지는 플라스틱과 같은 폴리머 재료 또는 유리를 사용할 수 있다. 투명 기판(141-1)의 재질은 투명 디스플레이 장치(100)가 적용된 사용 환경에 따라 결정될 수 있다. 가령, 폴리머 재료는 가볍고 유연하다는 장점이 있어 휴대형 디스플레이 장치에 사용될 수 있으며, 유리는 상점의 쇼윈도(show window)나 일반 창문 등에 사용할 수 있다.The transparent substrate 141-1 may be made of a polymer material such as plastic having transparency or glass. The material of the transparent substrate 141-1 may be determined according to the use environment to which the transparent display device 100 is applied. For example, polymeric materials have the advantage of being light and flexible and can be used in portable display devices, and glass can be used in show windows or window windows of stores.

투명 트랜지스터층(142-2)이란 기존 박막 트랜지스터의 불투명한 실리콘을 투명한 아연산화물, 산화 티타늄 등과 같은 투명 물질로 대체하여 제작한 트랜지스터를 포함하는 레이어를 의미한다. 투명 트랜지스터층(142-2) 내에는 소스, 게이트, 드레인 및 각종 유전막(147-1, 148-1)이 마련되며, 드레인과 제1 투명 전극(143-1)을 전기적으로 연결하는 연결 전극(146-1)도 마련될 수 있다. 도 3에서는 투명 트랜지스터 층(142-1) 내에 소스, 게이트, 드레인으로 이루어진 하나의 투명 트랜지스터만이 도시되었으나, 실제로는 디스플레이 표면의 전체 영역에 고르게 분포된 복수 개의 투명 트랜지스터가 마련된다. 제어부(130)는 투명 트랜지스터층(142-2) 내의 각 트랜지스트들의 게이트로 제어 신호를 인가하여, 해당 투명 트랜지스터를 구동시켜 정보를 표시할 수 있다.The transparent transistor layer 142-2 is a layer including a transistor formed by replacing opaque silicon of a conventional thin film transistor with a transparent material such as transparent zinc oxide, titanium oxide, or the like. A source electrode, a gate electrode, a drain electrode, and various dielectric films 147-1 and 148-1 are provided in the transparent transistor layer 142-2. A connection electrode (not shown) for electrically connecting the drain and the first transparent electrode 143-1 146-1) may also be provided. In FIG. 3, only one transparent transistor made of a source, a gate, and a drain is shown in the transparent transistor layer 142-1, but actually, a plurality of transparent transistors evenly distributed over the entire area of the display surface are provided. The control unit 130 may apply a control signal to the gates of the respective transistors in the transparent transistor layer 142-2 to drive the corresponding transparent transistor to display information.

제1 투명 전극 (143-1) 및 제2 투명 전극(145-1)은 투명 유기 발광층(144-1)을 기준으로 서로 반대 방향에 배치된다. 제1 투명 전극, 투명 유기 발광층 및 제2 투명 전극(143-1, 144-1, 145-1)은 투명 유기 발광 다이오드(Organic Light-Emitting Diodes)를 형성한다.The first transparent electrode 143-1 and the second transparent electrode 145-1 are disposed in opposite directions to each other with respect to the transparent organic light emitting layer 144-1. The first transparent electrode, the transparent organic light emitting layer, and the second transparent electrodes 143-1, 144-1, and 145-1 form organic light-emitting diodes (OLEDs).

투명 유기 발광 다이오드는 구동 방식에 따라 크게 수동형(Passive Matrix OLED)과 능동형 (Active Matrix OLED)으로 분류된다. PMOLED는 제1 및 제2 투명 전극(143-1, 145-1)이 서로 교차하는 부분이 화소를 형성하는 구조이다. 반면, AMOLED는 각 화소를 구동하는 박막 트랜지스터(TFT)가 있는 구조이다. 도 3에서는 능동형을 나타내고 있다. Transparent organic light emitting diodes are classified into Passive Matrix OLED and Active Matrix OLED depending on the driving method. The PMOLED is a structure in which pixels intersect each other at the intersection of the first and second transparent electrodes 143-1 and 145-1. On the other hand, AMOLED is a structure having a thin film transistor (TFT) driving each pixel. The active type is shown in Fig.

제1 투명 전극 (143-1) 및 제2 투명 전극(145-1)은 각각 복수 개의 라인 전극을 포함하며, 라인 전극의 정렬 방향은 서로 수직하게 형성된다. 가령, 제1 투명 전극(143-1)의 라인 전극들이 가로 방향으로 배열되었다면, 제2 투명 전극(145-1)의 라인 전극들은 세로 방향으로 배열된다. 이에 따라, 제1 투명 전극(143-1) 및 제2 투명 전극(145-1) 간에는 복수의 교차 영역이 형성된다. 각 교차 영역에는 도 3에 도시된 바와 같이 투명 트랜지스터가 연결된다.The first transparent electrode 143-1 and the second transparent electrode 145-1 each include a plurality of line electrodes, and the alignment directions of the line electrodes are perpendicular to each other. For example, if the line electrodes of the first transparent electrode 143-1 are arranged in the horizontal direction, the line electrodes of the second transparent electrode 145-1 are arranged in the vertical direction. Accordingly, a plurality of intersecting regions are formed between the first transparent electrode 143-1 and the second transparent electrode 145-1. A transparent transistor is connected to each crossing region as shown in FIG.

제어부(130)는 투명 트랜지스터를 이용하여 각 교차 영역 별로 전위차가 형성되도록 한다. 전위차가 형성된 교차 영역 내에서 각 전극으로부터 전자와 정공이 투명 유기 발광층(144-1)으로 유입되어 결합하면서 발광이 이루어진다. 반면, 전위차가 형성되지 않은 교차 영역은 발광이 이루어지지 않으며, 이에 따라 후면 배경이 그대로 투명하게 비치게 된다.The control unit 130 uses a transparent transistor to form a potential difference for each crossing region. Electrons and holes are injected from the respective electrodes into the transparent organic light emitting layer 144-1 in the cross region where the potential difference is formed, and light is emitted while being coupled. On the other hand, the intersection area where the potential difference is not formed does not emit light, so that the background of the background is transparently displayed.

제1 및 제2 투명 전극(143-1, 145-1)으로는 ITO(indium tin oxide)가 사용될 수 있다. 또는, 그래핀과 같은 신소재가 사용될 수도 있다. 그래핀이란 탄소원자가 서로 연결돼 벌집 모양의 평면 구조를 이루며 투명한 성질을 가지는 물질을 의미한다. 그 밖에, 투명 유기 발광 층(144-1)도 다양한 재료로 구현될 수 있다. As the first and second transparent electrodes 143-1 and 145-1, ITO (indium tin oxide) may be used. Alternatively, a new material such as graphene may be used. Graphene refers to a substance with a transparent nature that forms a honeycomb-like planar structure of carbon atoms. In addition, the transparent organic light emitting layer 144-1 may be formed of various materials.

한편, 상술한 바와 같이 투명 디스플레이부(140)는 투명 LCD(Liquid Crystal Display) 형, 투명 TFEL(Thin-Film Electroluminescent Panel) 형, 투명 OLED 형 이외에 투사형으로도 구현될 수 있다. 투사형이란 HUD(Head Up Display)와 같이 투명한 스크린에 영상을 투사하여 디스플레이하는 방식을 의미한다. As described above, the transparent display unit 140 may be implemented as a projection type as well as a transparent LCD (Liquid Crystal Display) type, a transparent TFEL (Thin-Film Electroluminescent Panel) type, and a transparent OLED type. A projection type means a method of displaying an image on a transparent screen such as a head up display (HUD).

도 4는 투사형 투명 디스플레이 장치로 구현되는 경우, 투명 디스플레이부의 세부 구성의 예를 나타내는 도면이다. 투사형으로 구현된 실시 예에서는 설명의 편의를 위하여 투명 디스플레이부에 대해 참조부호 140-2를 부여한다.4 is a diagram showing an example of a detailed configuration of a transparent display unit when implemented as a projection type transparent display device. In the embodiment implemented as a projection type, reference numeral 140-2 is assigned to the transparent display unit for convenience of explanation.

투사형 투명 디스플레이부(140-2)는 투명 스크린(141-2), 광학 장치(142-2), 광원 장치(143-2)를 포함한다. The projection type transparent display unit 140-2 includes a transparent screen 141-2, an optical device 142-2, and a light source device 143-2.

광원 장치(143-2)는 VFD(Vacuum Fluorescent Display), CRT(Cathode Ray Tube), LCD, LED 등과 같은 다양한 종류의 광원을 이용하여, 정보를 표기하기 위한 광을 발산한다. The light source device 143-2 uses light sources of various types such as a Vacuum Fluorescent Display (VFD), a Cathode Ray Tube (CRT), an LCD, and the like to emit light for indicating information.

광학 장치(142-2)는 광원 장치(143-2)에서 발산되는 광을 투명 스크린(141-2) 측으로 전달하여 투사하는 장치이다. 광학 장치(142-2)는 적어도 하나 이상의 렌즈 및 거울을 포함하는 도광판으로 구현될 수 있다. The optical device 142-2 is a device that transmits light emitted from the light source device 143-2 to the transparent screen 141-2 side and projects the light. The optical device 142-2 may be embodied as a light guide plate including at least one lens and a mirror.

광원 장치(143-2) 및 광학 장치(142-2)는 하나의 디스플레이 모듈로 구현될 수도 있다. 이에 따라, 투명 스크린(141-2)의 상하좌우 측 경계 부분에 배치되어 투명 스크린(141-2)으로 광을 투사하여, 투명 스크린(141-2)에 정보가 표시되도록 할 수 있다. 그 밖에, 레이저를 광원으로 이용하는 홀로그래피 방식으로 구현될 수도 있다. 이 경우, 레이저를 이용하여 투명 스크린(141-2) 상에 직접 정보를 묘사하게 된다.The light source device 143-2 and the optical device 142-2 may be implemented as one display module. Accordingly, the information can be displayed on the transparent screen 141-2 by being disposed at upper, lower, right, and left boundary portions of the transparent screen 141-2 and projecting light to the transparent screen 141-2. Alternatively, it may be realized by a holographic method using a laser as a light source. In this case, information is directly drawn on the transparent screen 141-2 using a laser.

투명 스크린(141-2)은 일반적인 유리로 이루어질 수 있다. 도 4의 투명 디스플레이부(140-2)의 구성은, 투명 디스플레이 장치(100)가 차량이나 선박, 비행기 등과 같은 이동체의 유리창, 일반 가정에서의 창문, 상점 쇼윈도 등에 적용되었을 때, 채용 가능하다. 이상과 같이, 투명 디스플레이 장치(100)는 다양한 환경에 적용되어, 사용자의 위치 및 물체의 위치를 인식하고, 그 위치에 기초하여 화면을 구성하여 디스플레이한다. The transparent screen 141-2 may be made of ordinary glass. The structure of the transparent display unit 140-2 of FIG. 4 can be employed when the transparent display device 100 is applied to a window of a moving object such as a vehicle, a ship, an airplane, a window in a general home, a shop window, or the like. As described above, the transparent display device 100 is applied to various environments, recognizing the position of the user and the position of the object, and composing and displaying the screen based on the position.

제어부(130)는 사용자 및 물체에 대해 인식된 위치를 기초로, 투과 영역을 판단한다. 투과 영역을 판단하는 방법에 대해서는 후술한다.The control unit 130 determines the transmission area based on the position recognized by the user and the object. A method of determining the transmission area will be described later.

한편, 상술한 바와 같이 사용자의 위치 및 후방 물체의 위치는 다양한 방식으로 인식될 수 있다. 도 5에서는 이러한 다양한 방식들 중에서 카메라와 같은 촬상부를 이용하여 위치를 감지하는 실시 예로 구현된 투명 디스플레이 장치에 대해 설명한다. On the other hand, as described above, the position of the user and the position of the rear object can be recognized in various ways. In Fig. 5, a transparent display device implemented in an embodiment in which a position is sensed by using an image sensing unit such as a camera among various various schemes will be described.

도 5는 본 발명의 구체적인 실시 예에 따른 투명 디스플레이 장치의 구성을 설명하기 위한 블럭도이다. 도 5에 따르면, 투명 디스플레이 장치(100)는 제1 감지부(110), 제2 감지부(120), 제어부(130), 투명 디스플레이부(140), 저장부(150), 입력부(160)를 포함한다.5 is a block diagram illustrating a configuration of a transparent display device according to a specific embodiment of the present invention. 5, the transparent display device 100 includes a first sensing unit 110, a second sensing unit 120, a controller 130, a transparent display unit 140, a storage unit 150, an input unit 160, .

제1 감지부(110)는 물체의 위치를 감지한다. 제1 감지부(110)는 제1 촬상부(111), 제1 검출부(112) 및 제2 검출부(113)를 포함한다.The first sensing unit 110 senses the position of an object. The first sensing unit 110 includes a first sensing unit 111, a first sensing unit 112, and a second sensing unit 113.

제1 촬상부(111)는 투명 디스플레이 장치(100)의 제1 방향으로 촬상을 수행한다. 이에 따라, 제1 방향에 있는 물체를 포함하는 적어도 하나의 사물을 촬상할 수 있다. 설명의 편의를 위해서, 본 명세서에서는 제1 촬상부(111)가 촬상한 이미지를 후방 배경 이미지라 명명한다. The first imaging unit 111 performs imaging in the first direction of the transparent display device 100. Thereby, at least one object including the object in the first direction can be picked up. For convenience of explanation, in the present specification, an image captured by the first imaging unit 111 is referred to as a rear background image.

제1 검출부(112)는 후방 배경 이미지의 각 이미지 픽셀 정보를 이용하여 각 사물의 에지를 검출한다. 에지 검출은 다양한 검출 알고리즘에 따라 이루어질 수 있다. The first detection unit 112 detects the edge of each object using each image pixel information of the background background image. Edge detection can be done according to various detection algorithms.

일 예로, 제1 검출부(112)는 후방 배경 이미지를 m*n 픽셀 단위로 분할하여 복수의 블럭으로 구분한다. 제1 검출부(112)는 각 블럭의 대표값을 검출한다. 대표값은 해당 블럭 내의 전체 픽셀들의 평균 픽셀값, 해당 블럭 내의 각 픽셀들의 픽셀값 중에서 가장 많은 픽셀값, 각 픽셀들의 픽셀값들을 전부 가산한 총 픽셀값 등이 될 수 있다. 제1 검출부(112)는 검출된 각 대표값들을 비교하여, 서로 유사한 대표값들을 가지면서 연속적으로 배치된 블럭들이 존재하는지 확인한다. 동일한 물체가 촬상된 영역에 포함된 블럭들은 대표값이 서로 유사한 범위를 가지게 된다. For example, the first detection unit 112 divides the background image into m * n pixels and divides the image into a plurality of blocks. The first detection unit 112 detects a representative value of each block. The representative value may be an average pixel value of all pixels in the block, a maximum pixel value among the pixel values of the pixels in the block, a total pixel value obtained by adding all the pixel values of the pixels, and the like. The first detector 112 compares the detected representative values and determines whether there are consecutively arranged blocks having similar representative values. The blocks included in the area where the same object is picked up have similar ranges of representative values.

제1 검출부(112)는 연속된 유사 블럭들이 확인되면, 확인된 유사 블럭들과 상이한 대표값을 가지는 블럭간의 경계 지점에 해당하는 블럭을 에지 부분으로 검출한다. When successive similar blocks are identified, the first detection unit 112 detects a block corresponding to a boundary point between the identified similar blocks and blocks having different representative values as edge portions.

제2 검출부(113)는 검출된 에지를 이용하여 제1 촬상부(111)가 촬상한 각 사물들 중에서 물체를 식별하고, 식별된 물체의 위치와 촬상 이미지 상에서의 식별 영역을 검출한다. 일 예로, 제2 검출부(113)는 제1 검출부(112)에서 검출된 에지 부분이 폐곡선을 형성하면, 후방 배경 이미지의 전체 블럭들 중에서 폐곡선 내에 해당하는 블럭들의 위치를 물체의 위치로 검출한다. 그리고, 후방 배경 이미지와 투명 디스플레이부(140)의 전체 영역을 비교하여, 투명 디스플레이부(140)의 전체 영역 중 물체가 식별되는 식별 영역을 검출한다.The second detection unit 113 identifies an object among the objects captured by the first imaging unit 111 using the detected edge, and detects the position of the identified object and the identification region on the captured image. For example, when the edge portion detected by the first detection unit 112 forms a closed curve, the second detection unit 113 detects the positions of blocks corresponding to the closed curve among the entire blocks of the background image as a position of the object. Then, the rear background image is compared with the entire area of the transparent display unit 140 to detect the identification area in which the object is identified in the entire area of the transparent display unit 140.

한편, 투명 디스플레이 장치(100)는 각 물체에 대한 특성 정보를 이용하여, 물체의 위치 및 식별 영역을 검출할 수도 있다. 특성 정보는 근거리 무선 통신 방식이나, 기타 통신 방식에 의해 물체로부터 직접 제공되거나, 그 밖의 소스로부터 제공될 수 있다. 가령, 각 물체가 근거리 무선 통신 태그를 구비하고 투명 디스플레이 장치(100)가 근거리 무선 통신 리더를 구비한 경우라면, 각 물체를 근거리 무선 통신 리더에 태깅하여 해당 물체에 대한 특성 정보를 수신할 수 있다. 특성 정보에는 해당 물체의 컬러, 형상, 크기, 배치 위치 등이 포함될 수 있다. 제2 검출부(113)는 후방 배경 이미지상에서 검출된 에지를 기준으로 후방 배경 이미지 내에 포함된 각 사물을 구분한다. 이에 따라, 구분된 사물들 중에서 특성 정보에 부합되는 사물을 상술한 물체(20)로 인식하고, 그 위치를 검출할 수 있다. 예를 들어, 진열대 위에 놓여진 물체(20)의 경우, 진열대도 함께 촬상되어 후방 배경 이미지 내에 포함된다. 이 경우, 제2 검출부(113)는 물체(20)의 컬러에 부합되는 이미지 픽셀 정보를 가지는 영역을 해당 물체(20)의 위치로 판단할 수 있다.  On the other hand, the transparent display device 100 may detect the position and the identification region of the object using the characteristic information about each object. The characteristic information may be provided directly from the object by a short-range wireless communication method or other communication method, or may be provided from another source. For example, if each object has a short-range wireless communication tag and the transparent display device 100 has a short-range wireless communication reader, each object can be tagged to a short-range wireless communication reader to receive characteristic information about the object . The characteristic information may include color, shape, size, arrangement position, and the like of the object. The second detection unit 113 distinguishes each object contained in the background image based on edges detected on the background image. Accordingly, an object matching the characteristic information among the classified objects can be recognized as the object 20 described above, and the position thereof can be detected. For example, in the case of an object 20 placed on a shelf, the shelves are also picked up and included in the background background image. In this case, the second detection unit 113 can determine an area having image pixel information corresponding to the color of the object 20 as the position of the object 20.

또는, 물체를 공급하는 공급자의 서버나 공급자의 단말 장치로부터 해당 물체에 대한 특성 정보를 수신하거나, 투명 디스플레이 장치(100)에 연결된 입력 수단을 통해서 특성 정보를 직접 입력할 수도 있다. 제2 검출부(113)는 이상과 같이 다양한 소스를 통해 제공된 특성 정보를 이용하여, 물체의 투과 영역을 정확하게 검출할 수 있다. Alternatively, characteristic information about the object may be received from a server of a provider or a terminal of a supplier that supplies the object, or the characteristic information may be directly input through an input means connected to the transparent display device 100. The second detection unit 113 can accurately detect the transmission region of the object by using the characteristic information provided through various sources as described above.

제2 감지부(120)는 제2 촬상부(121) 및 사용자 위치 검출부(122)를 포함한다. 제2 촬상부(121)는 투명 디스플레이 장치(100)를 기준으로 제2 방향으로 촬상을 수행한다. 이에 따라, 전방 배경 이미지를 획득한다. The second sensing unit 120 includes a second sensing unit 121 and a user position sensing unit 122. The second imaging unit 121 performs imaging in the second direction with respect to the transparent display device 100. [ Thus, a front background image is obtained.

사용자 위치 검출부(122)는 제2 촬상부(121)에서 촬상된 전방 배경 이미지를 분석하여 사용자의 위치를 검출한다. 사용자의 위치 검출 방식은 상술한 제1 검출부(112)의 물체 위치 검출 방식과 동일하게 구현될 수 있다.The user position detection unit 122 analyzes the front background image picked up by the second image pickup unit 121 and detects the position of the user. The position detection method of the user can be implemented in the same manner as the object position detection method of the first detection unit 112 described above.

또한, 사용자에 대한 특성 정보도 미리 등록을 시켜 두거나, 사용자가 구비한 근거리 무선 통신 모듈이 포함된 사용자 단말 장치 또는 태그를 통해서 제공받고, 그 특성 정보에 따라 사용자의 위치를 정확하게 검출할 수도 있음은 물론이다.In addition, characteristic information about a user may be registered in advance, or may be provided through a user terminal or a tag including a local wireless communication module provided by the user, and the location of the user may be accurately detected according to the characteristic information Of course.

한편, 제1 감지부 및 제2 감지부(110, 120)의 감지 시점은 실시 예 별로 다양하게 결정될 수 있다.The sensing points of the first sensing unit 110 and the second sensing unit 120 may be variously determined according to the embodiment.

일 예로, 제어부(130)는 물체를 배치하거나 가지고 온 사람이나 사용자의 외부 입력에 따라 제1 및 제2 감지부(110, 120)를 구동시킬 수 있다. 가령, 사용자가 투명 디스플레이부(140)의 표면을 터치하거나, 별도로 마련된 입력 수단을 통해 임의의 입력 신호를 입력하는 경우에 제1 및 제2 감지부(110, 120)를 구동시켜, 물체 및 사용자의 위치를 감지할 수 있다. 투명 디스플레이 장치(100)가 음성 인식 모듈이나, 모션 인식 모듈을 구비하고 있다면, 특정 음성이나 특정 제스쳐를 취하여 제1 및 제2 감지부(110, 120)를 각각 구동시킬 수도 있다. 도 5의 실시 예에서는 제1 및 제2 감지부(110, 120)가 촬상 방식으로 물체 및 사용자의 위치를 감지하는 경우를 설명하였으나, 상술한 바와 같이 제1 및 제2 감지부(110, 120)는 촬상 방식이외에, 광센서 이용 방식, 근거리 무선 통신 방식, 사용자 직접 설정 방식과 같이 다양하게 구현될 수 있다. 이러한 각 방식에서도, 위치 인식을 위한 사용자 명령이 있은 후에, 촬상, 광센싱, 근거리 무선 통신, 사용자 영역 지정 등을 수행하여 위치를 감지하도록 구현될 수 있다.For example, the control unit 130 may drive the first and second sensing units 110 and 120 according to the external input of the person or user who arranges or brings the object. For example, when the user touches the surface of the transparent display unit 140 or inputs an arbitrary input signal through a separately provided input unit, the first and second sensing units 110 and 120 are driven to control the object and the user Can be detected. If the transparent display device 100 includes a voice recognition module or a motion recognition module, the first and second sensing portions 110 and 120 may be driven by taking a specific voice or a specific gesture. In the embodiment of FIG. 5, the first and second sensing units 110 and 120 detect the positions of the object and the user by the imaging system. However, as described above, the first and second sensing units 110 and 120 May be implemented in various ways such as an optical sensor using method, a short range wireless communication method, and a user direct setting method in addition to the image sensing method. In each of these methods, after the user command for the position recognition is performed, it can be implemented to perform position sensing by performing imaging, optical sensing, short-range wireless communication, user area designation, and the like.

다른 예로, 투명 디스플레이 장치(100)가 움직임 감지 센서를 구비하고 있는 경우라면, 제어부(130)는 움직임 감지 센서를 이용하여 사용자나 물체의 움직임을 감지하여, 그 움직임이 일정 시간 이상 정지하면 제1 및 제2 감지부(110, 120)를 구동시켜 물체 및 사용자의 위치를 감지할 수도 있다. 이에 따라, 불필요한 전력 소모를 방지할 수도 있다.Alternatively, if the transparent display device 100 includes a motion detection sensor, the controller 130 detects movement of a user or an object using the motion detection sensor, and when the motion stops for a predetermined time or longer, And the second sensing units 110 and 120 to sense the position of the object and the user. Thus, unnecessary power consumption can be prevented.

또 다른 예로, 근거리 무선 통신 모듈을 구비하고 있는 경우라면, 태깅이 이루어졌을 때 제1 및 제2 감지부(110, 120)를 구동시켜 물체 및 사용자의 위치를 감지할 수도 있다. 구체적으로는, 물체를 매장 내에 배치하면서 매장 내 또는 투명 디스플레이 장치(100)에 마련된 근거리 무선 통신 모듈에 태깅하는 경우, 사용자가 자신이 가지고 있는 근거리 무선 통신 리더를 매장 외부 또는 투명 디스플레이 장치(100)에 마련된 근거리 무선 통신 모듈에 태깅하는 경우가 발생하면, 제어부(130)는 제1 및 제2 감지부(110, 120)를 구동시킬 수 있다.As another example, if the local wireless communication module is provided, the first and second sensing units 110 and 120 may be driven to detect the position of the object and the user when the tagging is performed. Specifically, when a user places a near-field wireless communication reader in a store or in a near-field wireless communication module provided in the transparent display device 100 while placing the object in a store, The controller 130 may drive the first and second sensing units 110 and 120. In this case,

제어부(130)는 제1 및 제2 감지부(110, 120)에서 각각 감지된 물체의 위치 및 사용자의 위치에 기반하여, 투과 영역을 판단한다. The control unit 130 determines a transmission area based on the position of the object and the position of the user sensed by the first and second sensing units 110 and 120, respectively.

제어부(130)는 투명 디스플레이부(140)의 전체 영역을 복수 개로 구분하고, 구분된 각 영역들 중에서 사용자의 위치에서 물체가 보여지는 영역을 투과 영역으로 판단한다. 제어부(130)는 투과 영역 내에 정보가 표시되어 있으면, 해당 정보의 표시 위치를 변경한다.The control unit 130 divides the entire area of the transparent display unit 140 into a plurality of areas, and determines an area where an object is visible at a user position among the divided areas as a transmission area. If the information is displayed in the transmission area, the control unit 130 changes the display position of the information.

저장부(150)에는 제1 촬상부(111), 제2 촬상부(121)에서 각각 촬상한 이미지, 물체 위치 및 사용자의 위치에 대한 정보 및 기타 다양한 정보와, 투명 디스플레이 장치(100)의 동작과 관련하여 사용자가 설정한 각종 세팅 정보, 시스템 구동 소프트웨어(Operating Software), 각종 어플리케이션 프로그램 등이 저장될 수 있다. The storage unit 150 stores various information such as an image, an object position, a user position, and other information captured by the first and second image pickup units 111 and 121 and the operation of the transparent display device 100 Various setting information set by the user, operating software, various application programs, and the like can be stored.

입력부(160)는 투명 디스플레이 장치(100)의 동작과 관련하여 다양한 사용자 명령을 입력받기 위한 부분이다. 입력부(160)는 투명 디스플레이부(140) 상에 구현되는 터치 스크린, 투명 디스플레이 장치(100)의 본체에 구비된 각종 버튼, 투명 디스플레이 장치(100)에 연결된 키보드, 마우스 등과 같은 외부 입력 수단으로부터 각종 입력 신호를 입력받는 I/O(Input/Output Interface) 등과 같이 다양한 형태로 구현될 수 있다. 사용자는 입력부(160)를 통해 정보 표시 위치 이동 기능을 온 또는 오프(ON/OFF) 시킬 수 있고, 정보 표시 위치를 이동하기 위한 조건이나, 이동시의 표시 속성 변경 방식 등을 설정할 수 있다.The input unit 160 receives various user commands related to the operation of the transparent display device 100. The input unit 160 may be a touch screen implemented on the transparent display unit 140, various buttons provided on the body of the transparent display device 100, a keyboard connected to the transparent display device 100, An input / output interface (I / O) for receiving an input signal, and the like. The user can turn on / off the information display position moving function through the input unit 160 and set the conditions for moving the information display position and the display attribute changing method upon moving.

제어부(130)는 입력부(160)에 의해 입력된 사용자 명령에 따라 상술한 동작을 수행할 수 있다. 즉, 사용자가 정보 표시 위치 이동 기능을 온 시킨 경우, 제어부(130)는 제1 및 제2 감지부(110, 120)를 제어하여 물체 및 사용자의 위치를 감지하고, 그 감지 결과를 저장부(150)에 저장한다. 그리고, 저장된 결과를 기초로, 투과 영역을 판단하고, 투과 영역 내에 표시되어야 하는 정보의 표시 위치를 조정한다. 이 경우, 제어부(130)는 투명 디스플레이부(140)의 전체 영역을 복수 개의 영역으로 구분하고, 그 영역들 중에서 투과 영역에 해당하지 않는 영역으로 정보를 이동시킨다. The control unit 130 may perform the operations described above according to the user command input by the input unit 160. [ That is, when the user turns on the information display position moving function, the control unit 130 controls the first and second sensing units 110 and 120 to sense the position of the object and the user, 150). Then, based on the stored result, the transmission area is determined, and the display position of the information to be displayed in the transmission area is adjusted. In this case, the control unit 130 divides the entire area of the transparent display unit 140 into a plurality of areas, and moves the information to areas not corresponding to the transmission areas.

도 6은 투명 디스플레이부(140)의 전체 영역을 복수 개의 블럭으로 구분한 상태를 설명하기 위한 도면이다. 6 is a view for explaining a state in which the entire area of the transparent display unit 140 is divided into a plurality of blocks.

도 6에 따르면, 투명 디스플레이부(140)의 전체 영역은 복수 개의 세로 라인(V1 ~ Vx) 및 복수 개의 가로 라인(H1 ~ Hy)으로 이루어지는 가상 분할 영역으로 구분된다. 가상 분할 영역은 매트릭스 형태로 구현될 수 있다.6, the entire area of the transparent display unit 140 is divided into a plurality of vertical lines V 1 to V x and a plurality of horizontal lines H 1 to H y . The virtual partition area can be implemented in a matrix form.

고 해상도를 요구하는 경우 매트릭스의 각 셀들은 하나의 픽셀 단위로 이루어질 수도 있지만, 연산 부담을 고려하여 각 셀들은 복수 개의 픽셀 단위로 구성될 수 있다. 더 크게는, 가상 분할 영역은 투명 디스플레이부(140)의 전체 영역을 4분할, 6분할, 9분할, 12분할 등으로 나누어서 구성할 수도 있다.When high resolution is required, each cell of the matrix may be made up of one pixel, but each cell may be composed of a plurality of pixels in consideration of an operation burden. More specifically, the virtual divided area may be formed by dividing the entire area of the transparent display unit 140 into four, six, nine, twelve, or the like.

제어부(130)는 사용자의 위치 및 물체의 위치를 각각 투명 디스플레이부(140)의 전체 영역 중 대응되는 영역에 매칭시킨다. 도 6에서는 물체(20)는 (Vn+4, Hm +2), (Vn +5, Hm +2), (Vn +6, Hm +2), (Vn +7, Hm +2), (Vn +4, Hm +3), (Vn +5, Hm +3), (Vn +6, Hm+3), (Vn +7, Hm +3), (Vn +4, Hm +4), (Vn +5, Hm +4), (Vn +6, Hm +4), (Vn +7, Hm +4), (Vn +4, Hm +5), (Vn+5, Hm +5), (Vn +6, Hm +5), (Vn +7, Hm +5) 영역에 비치게 된다. 이하에서는, 물체(20)가 투명 디스플레이 부(140) 상에서 비치는 영역을 참조부호 20'로 표기한다.The control unit 130 matches the position of the user and the position of the object to the corresponding region of the entire area of the transparent display unit 140, respectively. In Figure 6, the object 20 is (V n + 4, H m +2), (V n +5, H m +2), (V n +6, H m +2), (V n +7, H m +2), (V n +4, H m +3), (V n +5, H m +3), (V n +6, H m + 3), (V n +7, H m +3), (V n +4, H m +4), (V n +5, H m +4), (V n +6, H m +4), (V n +7, H m +4 ), (V n +4, H m +5), (V n + 5, H m +5), (V n +6, H m +5), (V n +7, H m +5) region . Hereinafter, a region where the object 20 is displayed on the transparent display unit 140 is denoted by 20 '.

반면, 사용자의 위치는 (Vn +3, Hm +1), (Vn +4, Hm +1), (Vn +5, Hm +1), (Vn +6, Hm +1), (Vn+3, Hm +2), (Vn +4, Hm +2), (Vn +5, Hm +2), (Vn +6, Hm +2), (Vn +3, Hm +3), (Vn +4, Hm +3), (Vn +5, Hm+3), (Vn +6, Hm +3), (Vn +3, Hm +4), (Vn +4, Hm +4), (Vn +5, Hm +4), (Vn +6, Hm +4), (Vn +3, Hm +5), (Vn+4, Hm +5), (Vn +5, Hm +5), (Vn +6, Hm +5), (Vn +4, Hm +6), (Vn +5, Hm +6), (Vn +4, Hm +7), (Vn +5, Hm+7), (Vn +4, Hm +8), (Vn +5, Hm + 8)영역에 비치게 된다. 이하에서는 사용자(10)가 투명 디스플레이부(140) 상에 비치는 영역을 참조부호 10'로 표기한다. 또한, 도 6에서는, 정보(30)가 물체 매칭 영역(20') 및 사용자 매칭 영역(10')과 일부분 겹치는 위치에 표시된 상태를 나타낸다.On the other hand, the location of the user (+3 V n, m +1 H), (V n +4, H m +1), (V n +5, H m +1), (V n +6, H m +1), (V n + 3 , H m +2), (V n +4, H m +2), (V n +5, H m +2), (V n +6, H m +2 ), (V n +3, H m +3), (V n +4, H m +3), (V n +5, H m + 3), (V n +6, H m +3), (V n +3, H m +4 ), (V n +4, H m +4), (V n +5, H m +4), (V n +6, H m +4), (V n +3, H m +5), (V n + 4, H m +5), (V n +5, H m +5), (V n +6, H m +5), (V n + 4, H m +6), ( V n +5, H m +6), (V n +4, H m +7), (V n +5, H m + 7), (V n +4, H m + 8 ), (V n +5 , H m + 8 ). Hereinafter, the area where the user 10 displays on the transparent display unit 140 is denoted by 10 '. 6 shows a state in which the information 30 is displayed at a position partially overlapping the object matching area 20 'and the user matching area 10'.

제어부(130)는 제1 감지부(110)에서 감지된 물체 위치와 제2 감지부(120)에서 감지된 사용자 위치를 각각 저장부(150)에 저장된 매트릭스 테이블에 기록한다. 이에 따라, 두 위치가 겹치는 부분을 투과 영역으로 판단한다. The control unit 130 records the object position detected by the first sensing unit 110 and the user position sensed by the second sensing unit 120 in the matrix table stored in the storage unit 150, respectively. Thus, the portion where the two positions overlap is determined as the transmission region.

또는, 제어부(130)는 물체를 투명 디스플레이부(140)에 그대로 수직하게 투영시켜 물체 매칭 영역(20')을 결정하고, 사용자도 수직하게 투영시켜 사용자 매칭 영역(10')을 결정할 수 있다. 이 경우, 사용자의 위치에서 물체가 보이는 영역, 즉, 투과 영역은 물체 매칭 영역(20') 및 사용자 매칭 영역(10') 사이에 형성될 수 있다. 이 경우, 제어부(130)는 물체와 투명 디스플레이부(140)간의 거리, 사용자와 투명 디스플레이부(140) 간의 거리, 및 그 거리들의 비율에 따라 투과 영역을 결정할 수 있다. 즉, 제어부(130)는 투명 디스플레이부(140)의 표면과 물체를 수직으로 연결한 지점을 중심으로 두고 물체의 형상 및 물체의 크기를 고려하여, 상술한 물체 매칭 영역(20')을 판단할 수 있다. 또한, 사용자 매칭 영역(10')도 마찬가지로 사용자와 투명 디스플레이부(140)의 표면을 수직으로 연결한 지점을 중심으로 두고 사용자의 형상 및 크기를 고려하여 판단할 수 있다. 이에 따르면, 물체와 사용자가 투명 디스플레이부(140) 표면으로부터 수직하게 서로 대칭되도록 위치하였다면, 사용자 매칭 영역(10') 및 물체 매칭 영역(20') 간의 중복 영역이 그대로 투과 영역에 해당한다.Alternatively, the control unit 130 may determine the object matching area 20 'by vertically projecting the object to the transparent display unit 140, and may also vertically project the user to determine the user matching area 10'. In this case, an area where an object is visible at the user's position, that is, a transmission area can be formed between the object matching area 20 'and the user matching area 10'. In this case, the control unit 130 can determine the transmission area according to the distance between the object and the transparent display unit 140, the distance between the user and the transparent display unit 140, and the ratio of the distances. That is, the control unit 130 determines the object matching area 20 'by taking the shape of the object and the size of the object into consideration, with the point where the object is vertically connected to the surface of the transparent display unit 140 as a center . Likewise, the user matching area 10 'may also be determined based on the shape and size of the user centered on the point where the user and the surface of the transparent display unit 140 are vertically connected. According to this, if the object and the user are positioned so as to be vertically symmetrical with each other from the surface of the transparent display unit 140, the overlapped area between the user matching area 10 'and the object matching area 20'

반면, 물체 및 사용자가 각각 투명 디스플레이부(140)를 기준으로 45도 각도로 기울어진 상태로 위치하였다면, 사용자 매칭 영역(10') 및 물체 매칭 영역(20') 사이의 영역 중 정중앙 영역이 투과 영역에 해당한다. 이와 같이, 투과 영역은 사용자, 물체와의 거리와 그 각도에 따라 산출될 수 있다. 이에 대해서는 후술하는 부분에서 구체적으로 설명한다. On the other hand, if the object and the user are positioned at an angle of 45 degrees with respect to the transparent display unit 140, the central region of the area between the user matching area 10 'and the object matching area 20' . As described above, the transmission area can be calculated according to the distance between the user and the object and the angle. This will be described later in detail.

한편, 제어부(130)는 사용자 또는 물체의 위치 변경이나 신규 사용자 또는 신규 물체의 출현이 감지되면, 그 감지 결과에 따라 매트릭스 테이블을 갱신한다.On the other hand, if a position change of a user or an object or the appearance of a new user or a new object is detected, the control unit 130 updates the matrix table according to the detection result.

도 7은 저장부(150)에 저장된 매트릭스 테이블의 일 예를 나타낸다. 도 7에 따르면, 매트릭스 테이블(700)은 도 6의 투명 디스플레이부(140)를 복수의 영역으로 구분한 것과 동일한 방식으로 구성할 수 있다. 즉, 매트릭스 테이블(700)은 복수 개의 세로 라인(V1 ~ Vx) 및 복수 개의 가로 라인(H1 ~ Hy)으로 이루어질 수 있으며, 각 세로 라인 및 각 가로 라인이 교차하는 셀에 데이터가 기록될 수 있다.FIG. 7 shows an example of a matrix table stored in the storage unit 150. FIG. Referring to FIG. 7, the matrix table 700 can be configured in the same manner as the transparent display unit 140 of FIG. 6 is divided into a plurality of regions. That is, the matrix table 700 may include a plurality of vertical lines (V 1 to V x ) and a plurality of horizontal lines (H 1 to H y ) Lt; / RTI &gt;

도 7에 따르면, 매트릭스 테이블(700) 내의 각 셀에는 기본 값이 기록되고, 셀 중에서 물체의 위치에 해당하는 셀에는 기 설정된 제1 값, 사용자의 위치에 해당하는 셀에는 제2 값이 기록된다. 도 7에서 기본값, 제1 값, 제2 값은 각각 0, 1, 2로 설정되었으나, 이는 설명의 편의를 위하여 임의로 정한 값일 뿐이며 이에 한정되는 것은 아니다.7, a basic value is recorded in each cell in the matrix table 700, and a predetermined first value is stored in a cell corresponding to the location of an object in the cell, and a second value is recorded in a cell corresponding to the location of the user . In FIG. 7, the default value, the first value, and the second value are set to 0, 1, and 2, respectively, but these values are arbitrarily set for convenience of explanation, but are not limited thereto.

제어부(130)는 제1 감지부(110)에서 감지된 결과에 따라 매트릭스 테이블(700) 내의 (Vn +4, Hm +2), (Vn +5, Hm +2), (Vn +6, Hm +2), (Vn +7, Hm +2), (Vn +4, Hm +3), (Vn +5, Hm+3), (Vn +6, Hm +3), (Vn +7, Hm +3), (Vn +4, Hm +4), (Vn +5, Hm +4), (Vn +6, Hm +4), (Vn +7, Hm +4), (Vn+4, Hm+5), (Vn+5, Hm+5), (Vn+6, Hm+5), (Vn+7, Hm+5) 번째 셀에는 2를 기록한다.The controller 130 (V n +4, +2 H m), (n +5 V, H m +2), in the matrix table 700 based on the result sensed by the first sensing unit (110), (V n +6, H m +2), (V n +7, H m +2), (V n +4, H m +3), (V n +5, H m + 3), (V n + 6, H m +3), ( V n +7, H m +3), (V n +4, H m +4), (V n +5, H m +4), (V n +6, H m +4), (V n +7, H m +4), (V n + 4, H m + 5), (V n + 5, H m + 5), (V n + 6, H m +5 ), and (2) in the (V n + 7 , H m + 5 ) th cell.

그리고, 제2 감지부(120)에서 감지된 결과에 따라 매트릭스 테이블(700) 내의 (Vn +3, Hm +1), (Vn +4, Hm +1), (Vn +5, Hm +1), (Vn +6, Hm +1), (Vn +3, Hm +2), (Vn +4, Hm +2), (Vn+5, Hm +2), (Vn +6, Hm +2), (Vn +3, Hm +3), (Vn +4, Hm +3), (Vn +5, Hm +3), (Vn +6, Hm +3), (Vn +3, Hm+4), (Vn +4, Hm +4), (Vn +5, Hm +4), (Vn +6, Hm +4), (Vn +3, Hm +5), (Vn +4, Hm +5), (Vn +5, Hm +5), (Vn+6, Hm +5), (Vn +4, Hm +6), (Vn +5, Hm +6), (Vn +4, Hm +7), (Vn +5, Hm +7), (Vn +4, Hm +8), (Vn +5, Hm+8) 번째 셀에는 1을 기록한다.(V n +3 , H m +1 ), (V n +4 , H m +1 ), (V n + 5 ) in the matrix table 700 according to the result detected by the second sensing unit 120, , H m +1), (V n +6, H m +1), (V n +3, H m +2), (V n +4, H m +2), (V n + 5, H m +2), (V n +6 , H m +2), (V n +3, H m +3), (V n +4, H m +3), (V n +5, H m + 3), (V n +6, H m +3), (V n +3, H m + 4), (V n +4, H m +4), (V n +5, H m +4) , (V n +6, H m +4), (V n +3, H m +5), (V n +4, H m +5), (V n +5, H m +5), ( V n + 6, H m +5 ), (V n +4, H m +6), (V n +5, H m +6), (V n +4, H m +7), (V n +5, and records the m +7 H), (V n +4, +8 H m), (V n + 5, H m + 8) th cell is 1.

제어부(130)는 두 영역 간에 서로 겹치는 영역인 (Vn +4, Hm +2), (Vn +5, Hm +2), (Vn+6, Hm +2), (Vn +4, Hm +3), (Vn +5, Hm +3), (Vn +6, Hm +3), (Vn +4, Hm +4), (Vn +5, Hm +4), (Vn +6, Hm+4), (Vn +4, Hm +5), (Vn +5, Hm +5), (Vn +6, Hm +5) 번째 셀에는 1과 2를 합산한 결과값인 3을 기록한다. The control unit 130 determines whether or not the two regions overlap with each other in the overlapping regions V n +4 and H m +2 , V n +5 and H m +2 , V n +6 and H m +2 , n +4, H m +3), (V n +5, H m +3), (V n +6, H m +3), (V n +4, H m +4), (V n + 5, H m +4), ( V n +6, H m + 4), (V n +4, H m +5), (V n +5, H m +5), (V n +6, H m +5) th cell, and records the result in a third summing the first and second.

다만, 이는 일 예에 불과하며 반드시 이에 한정되는 것은 아니다. 즉, 두 영역 간의 중복 영역에 해당하는 셀에는 두 값을 합산한 값이 아니라, 해당 셀이 중복 영역에 해당함을 나타내도록 별도로 설정된 제3 값을 기록하여 둘 수도 있다. However, this is merely an example, and the present invention is not limited thereto. That is, the cell corresponding to the overlapping region between the two regions may not be a value obtained by adding the two values, but a third value set separately may be recorded to indicate that the corresponding cell corresponds to the overlapping region.

제어부(130)는 투명 디스플레이부(140) 상에서 정보(30)가 표시된 영역과 매트릭스 테이블(700)을 비교한다. 이에 따라, 매트릭스 테이블 내의 각 셀 중에서 3이 기록된 셀(교집합 영역에 해당함)과, 정보 표시 영역이 일부분이라도 겹치면 정보(30)의 표시 위치를 이동시킨다. 실시 예에 따라서는, 매트릭스 테이블 내의 각 셀 중에서 1, 2, 3 중 어느 하나의 값이라도 기록된 셀(합집합 영역에 해당함)에 위치한 경우에도 표시 위치를 이동시킬 수 있다.The control unit 130 compares the matrix table 700 with the area where the information 30 is displayed on the transparent display unit 140. [ As a result, the display position of the information 30 is shifted if the cell in which 3 is recorded in the matrix table (corresponding to the intersection area) and the information display area are partially overlapped. According to the embodiment, even if a value of 1, 2, or 3 among the cells in the matrix table is located in a recorded cell (corresponding to a unified area), the display position can be moved.

도 8은 제어부(130)에 의해 정보 표시 위치가 변경된 상태를 나타내는 도면이다. 도 8에 따르면, 매트릭스 테이블 내에서 1, 2, 3중 어느 하나가 기록된 셀과 겹치는 영역에 표시되어 있던 정보(30)가 (Vn +1, Hm -1), (Vn, Hm), (Vn +1, Hm), (Vn +2, Hm), (Vn, Hm +1), (Vn +1, Hm +1), (Vn +2, Hm +1), (Vn -1, Hm +2), (Vn, Hm +2), (Vn +1, Hm +2), (Vn +2, Hm+2), (Vn+3, Hm+2) 영역으로 이동하여 표시되는 것을 나타낸다. 8 is a diagram showing a state in which the information display position is changed by the control unit 130. Fig. 8, the information 30 displayed in the area overlapping one of the cells 1, 2, and 3 in the matrix table is (V n +1 , H m -1 ), (V n , H m), (V n +1, H m), (V n +2, H m), (V n, H m +1), (V n +1, H m +1), (V n +2 , H m +1), (V n -1, H m +2), (V n, H m +2), (V n +1, H m +2), (V n +2, H m + 2 ), (V n + 3 , H m + 2 ).

제어부(130)는 투과 영역과 정보 표시 영역 간의 오버랩 영역의 위치와 식별력이 저하되지 않는 주변의 타 영역과의 거리 등을 기초로 정보(30)의 이동 거리 및 이동 방향을 결정할 수 있다. 도 8에서는 원 위치로부터 좌상측으로 3 또는 4 영역 정도 쉬프트되어 투과 영역과 어느 정도 이격되어 표시되는 것을 나타내고 있으나, 반드시 이에 한정되는 것은 아니며, 투과 영역과 거의 접하는 영역까지만 이동시켜, 가능한 한 원 위치와 가깝게 표시할 수도 있다.The control unit 130 can determine the moving distance and the moving direction of the information 30 based on the position of the overlap region between the transmission region and the information display region and the distance between the other region and the surrounding region where the discrimination power does not decrease. In FIG. 8, three or four regions are shifted from the original position to the upper left side and are displayed at a certain distance from the transmissive region. However, the present invention is not limited thereto. It may be displayed in close proximity.

또는, 정보 표시 영역의 이동 방향은 관리자 또는 사용자가 미리 정해둘 수 있다. 가령, 정보 표시 영역은, 물체의 위치, 사용자의 위치, 사용자의 가시 범위 등을 기준으로 상, 하, 좌, 우, 대각선 방향 등과 같은 일정한 방향으로 이동되도록 설정해 둘 수 있다.  Alternatively, the moving direction of the information display area can be predetermined by the administrator or the user. For example, the information display area can be set to move in a certain direction such as up, down, left, right, diagonal, etc. based on the position of the object, the position of the user, the visible range of the user,

한편, 도 7에서는 하나의 매트릭스 테이블(700)을 이용하여 물체 위치, 사용자 위치, 정보 위치를 종합적으로 판단하는 것으로 설명하였으나, 물체, 사용자, 정보 별로 별도의 매트릭스 테이블을 생성하여, 그 매트릭스 테이블들을 비교하여 투과 영역을 판단할 수도 있다. 7, the object position, the user position, and the information position are collectively determined by using one matrix table 700. However, it is also possible to generate a separate matrix table for each object, user, and information, It is also possible to judge the transmission region by comparing.

또는, 제어부(130)는 매트릭스 테이블을 마련하는 대신, 사용자를 촬상한 이미지 프레임 및 물체를 촬상한 이미지 프레임을 서로 다른 레이어로 조합하여, 조합된 상태에서 사용자 영역 및 물체 영역 간의 겹치는 영역이나 그 중간 영역 중 일 영역을 투과 영역으로 판단할 수 있다. 이 경우, 조합된 프레임과 정보를 포함하는 화면 프레임을 직접 비교하여, 정보가 투과 영역에 겹치는지를 파악할 수 있다.Alternatively, instead of providing a matrix table, the control unit 130 may combine the image frames captured by the user and the image frames captured with the images into different layers so that the overlapped regions between the user regions and the object regions in the combined state, One region of the region can be determined as a transmission region. In this case, it is possible to directly compare the combined frame with the screen frame containing the information, and to know whether or not the information overlaps the transmissive area.

도 9는 제1 촬상부(111) 및 제2 촬상부(121)의 배치 위치를 설명하기 위한 도면이다. 도 9는 투명 디스플레이 장치(100)의 위쪽에서 내려다본 상태의 도면이다. 도 9에 따르면, 제1 촬상부(111)는 투명 디스플레이 장치(100)를 기준으로 사용자의 반대측 상부에 부착되어, 물체(20)를 촬상한다. 반면, 제2 촬상부(121)는 투명 디스플레이 장치(100)를 기준으로 사용자 측의 상부에 부착되어 사용자(10)를 촬상한다. 9 is a diagram for explaining the arrangement positions of the first imaging section 111 and the second imaging section 121. Fig. 9 is a view of the transparent display device 100 taken from above. According to Fig. 9, the first imaging unit 111 is attached to the upper side of the opposite side of the user with reference to the transparent display device 100, and picks up the object 20. On the other hand, the second image pickup unit 121 is attached to the upper side of the user side with reference to the transparent display device 100 to pick up the user 10.

도 9에서는 제1 촬상부(111) 및 제2 촬상부(121)는 각각 하나씩 마련되어, 상부 중앙 부분에 설치된다. In FIG. 9, the first image pickup section 111 and the second image pickup section 121 are provided one by one, and are installed at the upper central portion.

도 9에서 사용자(10)가 (a)지점에 위치하여 사용자(10) 및 물체(20)가 나란하게 배치된 경우, 투명 디스플레이 장치(100) 상에서 투과 영역은 사용자(10) 및 물체(20)를 연결한 선과 투명 디스플레이부(140)가 만나는 T(a)지점에 형성된다. 따라서, 투명 디스플레이 장치(100)는 투과 영역 T(a)가  아닌 타 영역에 정보를 표시한다.9, when the user 10 is located at the point (a) and the user 10 and the object 20 are arranged side by side, the transparent region on the transparent display device 100 has the user 10 and the object 20, (A) at which the transparent display unit 140 and the line connecting the display unit 140 meet. Therefore, the transparent display device 100 displays information in other areas than the transmissive area T (a).

한편, 투명 디스플레이 장치(100)는 물체(20)를 그대로 투명하게 보여주기 때문에, 물체(20)가 고정된 위치에 있더라도 사용자의 위치에 따라 투명 디스플레이부(140) 상에서 물체(20)의 이미지가 맺히는 위치 및 형상이 다르게 된다. 즉, 도 9에서 사용자가 (b) 지점에 위치하게 되면 투과 영역은 T(b) 지점에 형성되고, 사용자가 (c) 지점에 위치하게 되면 투과 영역은 T(c) 지점에 형성된다. 또한, 물체(20)가 정사각 큐빅 형상인 경우, 사용자가 (a) 지점에 위치하고 눈높이가 물체(20)와 같은 경우에는 정사각형상으로 보이게 되지만, (b) 지점이나 (c) 지점에 위치하게 되면 직사각 형상이나 마름모 형상 등으로 보일 수도 있게 된다. 따라서, 사용자의 위치 이동에 따라 물체(20)에 대한 식별 영역을 정확하게 검출하여야 할 필요가 있다.도 10은 사용자 위치 및 물체 위치에 기초하여 투과 영역을 산출하는 방법을 설명하기 위한 도면이다. 도 10에서 사용자의 위치 이동이 있더라도 삼각 함수 법을 이용하여 물체(20)의 식별 영역을 추정하는 방법을 설명한다. 도 10에서는 뎁스 카메라나 거리 감지 센서 등을 이용하여 물체와의 거리, 배치 각도 등을 측정한 후, 측정 값을 이용하여 물체(20)의 식별 영역을 추정하는 실시 예에 대하여 설명한다. The transparent display device 100 displays the image of the object 20 on the transparent display unit 140 according to the position of the user even if the object 20 is in a fixed position, And the position and shape to be formed are different. That is, when the user is located at point (b) in FIG. 9, the transmission area is formed at point T (b), and when the user is point (c), the transmission point is formed at point T (c). In the case where the object 20 is a square cubic shape, when the user is located at the point (a) and the eye level is the same as the object 20, the object 20 is seen as a square, but when the object 20 is located at the point (b) It may be seen as a rectangular shape or a rhombus shape. Therefore, it is necessary to accurately detect the identification region of the object 20 in accordance with the movement of the user. FIG. 10 is a view for explaining a method of calculating the transmission region based on the user position and the object position. 10, a description will be given of a method of estimating the identification region of the object 20 using the trigonometrical method even if there is a movement of the user. In Fig. 10, an example of estimating the identification region of the object 20 by measuring the distance to the object, the placement angle, etc. using a depth camera, a distance sensor, and the like, and then using the measured value will be described.

도 10에 따르면, 제1 촬상부(111) 및 제2 촬상부(121)가 각각 도 9와 마찬가지로 상부 중앙에 설치될 수 있다. 제1 촬상부(111) 및 제2 촬상부(121)의 설치 위치가 서로 대응된다면, 그 지점을 원점(0, 0)으로 보고 물체(20)의 실제 위치를 L1(x1, y1), 사용자(10)의 실제 위치를 L2(x2, y2)로 가정한다. According to Fig. 10, the first imaging unit 111 and the second imaging unit 121 may be installed at the upper center as in Fig. 9, respectively. If the installation positions of the first imaging section 111 and the second imaging section 121 correspond to each other, the point is defined as the origin (0, 0) and the actual position of the object 20 is defined as L1 (x1, y1) (X2, y2).

제1 촬상부(111) 및 제2 촬상부(121)가 각각 뎁스 카메라로 구현된 경우, 제1 검출부(112)는 제1 촬상부(111)에서 촬상된 후방 배경 이미지를 이용하여 물체와의 거리(d1), 물체 방향과 투명 디스플레이 장치(100)의 표면과의 각도(θ1)를 검출할 수 있다. 또한,제2 검출부(122)는 제2 촬상부(121)에서 촬상된 전방 배경 이미지를 이용하여 사용자와의 거리(d2), 사용자 방향과 투명 디스플레이 장치(100)의 표면 간의 각도(θ2)를 검출할 수 있다.When the first imaging unit 111 and the second imaging unit 121 are each implemented by a depth camera, the first detection unit 112 detects the background image of the object by using the background image captured by the first imaging unit 111, The distance d1 and the angle [theta] 1 between the object direction and the surface of the transparent display device 100 can be detected. The second detection unit 122 detects the distance d2 from the user using the front background image captured by the second image pickup unit 121 and the angle? 2 between the user direction and the surface of the transparent display device 100 Can be detected.

제어부(130)는 삼각함수법을 이용하여 x1, y1, x2, y2를 각각 산출할 수 있다. 즉, d1*sinθ1=y1, d1*cosθ1=x1이 된다. 그리고, d2*sinθ2=y2, d2*cosθ2=x2가 된다. 이에 따라, x1, y1, x2, y2가 산출되면, L1과 L2 지점을 연결하는 직선 방정식이 구해진다. 즉, y=(y1-y2)*x/(x1-x2)+y1-(y1-y2)*x1/(x1-x2)와 같은 방정식을 구할 수 있다. 따라서, 투명 디스플레이부(140) 상에서 물체가 보이는 영역인 T는 ((x2y1-x1y2)/(y1-y2), 0)로 산출될 수 있다. 이에 따라, 제어부(130)는 산출된 T 지점에 표시될 정보를 그 주변 영역으로 이동시킬 수 있다.The control unit 130 can calculate x1, y1, x2, and y2 using the trigonometrical method. That is, d1 * sin? 1 = y1, d1 * cos? 1 = x1. Then, d2 * sin? 2 = y2, d2 * cos? 2 = x2. Accordingly, when x1, y1, x2, y2 are calculated, a linear equation connecting L1 and L2 points is obtained. That is, an equation such as y = (y1-y2) * x / (x1-x2) + y1- (y1-y2) * x1 / (x1-x2) can be obtained. Therefore, T, which is an area where an object is visible on the transparent display unit 140, can be calculated as ((x2y1-x1y2) / (y1-y2), 0). Accordingly, the control unit 130 can move the information to be displayed at the calculated T point to its surrounding area.

도 10에서는 T 지점을 하나의 좌표값으로 기재하였으나, 이는 설명의 편의를 위한 것이며 실제로는 물체의 크기와 사용자 및 물체 간의 직선 거리를 이용하여 T 지점을 중심으로 일정 거리 이내의 영역들을 모두 투과 영역으로 추정할 수 있다. In FIG. 10, the T point is described as one coordinate value, but this is for the sake of convenience of explanation. Actually, all the regions within a certain distance about the T point using the size of the object and the straight line distance between the user and the object, .

도 9 및 도 10에서는 제1 및 제2 촬상부(111, 121)가 각각 1개씩 마련된 경우를 도시하였으나, 각 촬상부는 복수개로 마련될 수도 있다. 즉, 촬상부가 복수 개로 마련된 경우, 사용자가 위치 이동을 하더라도 그 위치 이동 방향에 대응되는 촬상부를 이용하여 물체에 대한 식별 영역을 추정할 수 있다. 이에 따라, 정확한 식별 영역 추정이 가능해진다.In Figs. 9 and 10, the case where the first and second image pickup units 111 and 121 are provided one by one is shown, but a plurality of image pickup units may be provided. That is, when a plurality of imaging units are provided, even if the user moves the position, the identification region for the object can be estimated using the imaging unit corresponding to the position movement direction. Thus, accurate identification region estimation becomes possible.

도 11은 촬상부가 복수 개로 마련된 실시 예에 따른 투명 디스플레이 장치의 구성을 나타낸다. Fig. 11 shows a configuration of a transparent display device according to an embodiment in which a plurality of imaging units are provided.

도 11에 따르면, 6개의 제1 촬상부(111-1 ~ 111-6), 6개의 제2 촬상부(121-1 ~ 121-6)가 서로 반대 방향에서 대칭되는 형태로 배치된다. 서로 대칭되는 위치에 배치된 제1 촬상부 및 제2 촬상부는 서로 연동할 수 있다. 즉, 사용자가 (a) 지점에 위치하면 세번째 제1 촬상부(111-3) 및 세번째 제2 촬상부(121-3)에서 각각 촬상된 이미지를 이용하여 투과 영역 T(a)를 판단한다. 이러한 상태에서 사용자가 (b) 지점으로 이동하면 네번째 제1 촬상부(111-4) 및 네번째 제2 촬상부(121-4)에서 각각 촬상된 이미지를 이용하여 투과 영역 T(b)를 판단한다.According to Fig. 11, six first imaging units 111-1 through 111-6 and six second imaging units 121-1 through 121-6 are arranged symmetrically in opposite directions to each other. The first imaging unit and the second imaging unit disposed at positions symmetrical to each other can interlock with each other. That is, when the user is positioned at the point (a), the transmission region T (a) is determined using the images captured by the third first imaging unit 111-3 and the third second imaging unit 121-3. In this state, when the user moves to the point (b), the transmission region T (b) is judged using the image picked up by the fourth first imaging unit 111-4 and the fourth second imaging unit 121-4 .

사용자의 위치는 별도로 마련된 모션 감지 센서(미도시)를 이용하여 감지할 수도 있고, 제2 촬상부(121-1 ~ 121-6)에서 각각 촬상된 이미지를 이용하여 사용자의 위치를 분석한 후, 전체 제1 촬상부(111-1 ~ 111-6)들 중에서 그에 대칭되는 제1 촬상부를 선택적으로 작동시켜 물체의 위치를 감지할 수도 있다. The position of the user may be detected using a motion detection sensor (not shown) provided separately, or may be determined by analyzing the position of the user using the images captured by the second imaging units 121-1 to 121-6, The position of the object may be sensed by selectively operating the first imaging unit symmetrical to the first imaging units 111-1 through 111-6.

가령, 첫번째 제2 촬상부(121-1)에서 사용자가 촬상되었다고 판단되면, 제어부(130)는 사용자가 촬상된 프레임들을 서로 비교하여 사용자의 움직임 벡터를 산출할 수 있다. 이에 따라, 사용자의 이동 방향이 판단되면, 이동 방향에 존재하는 다음 촬상부를 구동시켜 촬상을 수행할 수 있다. 즉, 도 11에서 사용자(10)가 우측으로 이동 중이라면 제어부(130)는 첫번째 제2 촬상부(121-1)에서 촬상된 이미지를 기초로 사용자의 이동 방향을 예측하고 두 번째 제1 촬상부(111-2)와 두 번째 제2 촬상부(121-2)를 턴-온시켜 촬상을 수행하도록 한다. 사용자가 계속 우측으로 이동하면, 세번째 제1 및 제2 촬상부(111-3, 121-3)를 턴-온시켜 촬상을 수행하도록 한다. 제어부(130)는 턴-온된 촬상부들로부터 촬상된 이미지를 기초로 투과 영역을 판단할 수 있다.  For example, if it is determined that the user is picked up by the first second image pickup unit 121-1, the controller 130 may calculate the motion vector of the user by comparing the frames captured by the user with each other. Thus, when the moving direction of the user is determined, the next imaging section existing in the moving direction can be driven to perform imaging. 11, if the user 10 is moving to the right, the control unit 130 predicts the moving direction of the user based on the image picked up by the first second image pickup unit 121-1, The second image pickup unit 121-2 and the second second image pickup unit 121-2 are turned on to perform imaging. When the user continuously moves to the right side, the third and fourth imaging units 111-3 and 121-3 are turned on to perform imaging. The control unit 130 can determine the transmission area based on the image captured from the turned-on imaging units.

이와 같이 복수의 제1 촬상부(111-1 ~ 111-6), 복수의 제2 촬상부(121-1 ~ 121-6)를 이용하게 되면, 사용자의 시선 방향이 변경되더라도 투명 디스플레이부(140) 상에서 물체가 식별되는 영역을 정확하게 인식하여, 투과 영역을 판단할 수 있게 된다. When the plurality of first imaging units 111-1 to 111-6 and the plurality of second imaging units 121-1 to 121-6 are used as described above, even if the direction of the user's gaze is changed, the transparent display unit 140 It is possible to accurately recognize the region in which the object is identified on the screen, and to determine the transparent region.

한편, 좀 더 개량된 실시 예에 따르면 제어부(130)가 개입하지 않고, 제1 촬상부(111-1 ~ 111-6) 간에 또는 제2 촬상부(121-1 ~ 121-6)가 서로 유선 또는 무선 통신 프로토콜에 따른 통신을 수행하여 사용자의 위치 이동 방향을 다른 촬상부로 통지하여 줄 수도 있다. 가령, 첫번째 제2 촬상부(121-1)에서 사용자가 촬상된 경우, 제2 촬상부(121-1)는 첫 번째 제1 촬상부(111-1)로 사용자 감지 신호를 전송한다. 첫 번째 제1 촬상부(111-1)는 사용자 감지 신호에 따라 물체(20)를 촬상하여, 이미지를 제어부(130)로 제공할 수 있다. 이러한 상태에서 사용자가 우측으로 이동하게 되면, 첫번째 제2 촬상부(121-1)는 두 번째 제1 및 제2 촬상부(111-2, 121-2)로 각각 사용자 감지 신호를 전송한다. 이러한 방식으로, 사용자 위치 이동에 적응적으로 반응하여, 투과 영역을 정확하게 감지하고, 그에 따라 정보(30)의 표시 위치를 이동시킬 수 있다.On the other hand, according to the more improved embodiment, the control unit 130 does not intervene, and the first imaging units 111-1 to 111-6 or the second imaging units 121-1 to 121-6 are wired Or communication according to a wireless communication protocol to inform the other imaging unit of the direction of movement of the user. For example, when the user is picked up by the first second image pickup unit 121-1, the second image pickup unit 121-1 transmits a user detection signal to the first first image pickup unit 111-1. The first first image pickup unit 111-1 may pick up the object 20 according to the user detection signal and provide the image to the control unit 130. [ In this state, when the user moves to the right, the first second image sensing unit 121-1 transmits the user sensing signals to the first and second image sensing units 111-2 and 121-2, respectively. In this way, it is possible to adaptively react to the user's position movement to accurately sense the transmissive region and thereby shift the display position of the information 30. [

도 11에서는 제1 및 제2 촬상부 모두가 복수 개로 구현된 경우를 설명하였으나, 반드시 이에 한정되는 것은 아니며, 제1 촬상부만이 복수 개로 마련되고, 제2 촬상부는 하나만 마련될 수도 있고, 그 반대의 경우도 가능하다.11, a plurality of first and second image sensing units are provided. However, the present invention is not limited thereto. Only a plurality of first image sensing units may be provided, and only one second image sensing unit may be provided. The opposite is also possible.

각 촬상부는 동영상 카메라, 정지 영상 카메라, 뎁스(depth) 카메라 등과 같이 다양한 형태로 구현될 수 있다. 뎁스 카메라란 IR(InfraRed) 패턴을 발산하고 주변 환경으로부터 반사되는 IR 패턴을 수신하여 IR 영상을 획득하는 카메라를 의미한다. 제어부(130)는 IR 영상을 분석하여 주변 환경에 위치한 각 사물들과의 거리를 알 수 있다. Each image pickup unit may be implemented in various forms such as a moving picture camera, a still picture camera, a depth camera, and the like. A depth camera is a camera that radiates an IR (InfraRed) pattern and receives an IR pattern reflected from the surrounding environment to acquire an IR image. The control unit 130 analyzes the IR image and can know the distance to each object located in the surrounding environment.

한편, 제어부(130)는 물체와의 거리 또는 사용자와의 거리를 고려하여, 각 촬상부에서 촬상된 물체 또는 사용자의 위치를 캘리브레이션할 수도 있다. 이에 따라, 정확한 투과 영역을 산출할 수 있다. On the other hand, the control unit 130 may calibrate the position of the object or the user picked up by each imaging unit in consideration of the distance to the object or the distance to the user. Thus, an accurate transmission area can be calculated.

도 11에서는 복수의 촬상부를 이용하는 실시 예를 설명하였으나, 사용자의 시선 방향에 따라 촬상부를 회전시켜 촬상 각도를 조정하는 실시 예로도 구현할 수 있다. 복수의 촬상부가 마련된 경우에는, 사용자(10)의 위치와 물체(20)의 위치를 연결하는 직선상에 위치하거나, 그 직선과 근접한 위치의 촬상부를 선택하여 촬상을 수행할 수 있다. 이 경우, 선택된 촬상부가 회전되어 촬상 각도를 상기 직선이 향하는 방향으로 조절할 수 있다. 즉, 촬상부의 회전 각도가 조절될 수 있다. 이에 따라, 사용자가 위치 이동을 하여 시선 방향이 바뀌더라도 그에 부합되는 투과 영역을 판단할 수 있다.Although an embodiment using a plurality of image pickup units has been described with reference to Fig. 11, it can also be implemented as an embodiment in which the image pickup angle is adjusted by rotating the image pickup unit in accordance with the direction of the user's sight line. When a plurality of image pickup units are provided, the image pickup unit can be located on a straight line connecting the position of the user 10 and the position of the object 20, or can be picked up at a position close to the straight line. In this case, the selected imaging section is rotated so that the imaging angle can be adjusted to the direction in which the straight line is directed. That is, the rotation angle of the imaging unit can be adjusted. Accordingly, the user can determine the transmission region corresponding to the positional shift even if the viewing direction is changed.

도 12 및 도 13은 사용자의 시선 방향에 맞게 물체의 위치를 인식하기 위하여 촬상부를 회전시키는 투명 디스플레이 장치의 구성의 일 예를 나타내는 도면이다. 도 12 및 도 13은 투명 디스플레이 장치(100)가 쇼윈도로 구현된 경우를 나타낸다.12 and 13 are views showing an example of a configuration of a transparent display device for rotating an imaging unit to recognize the position of an object in accordance with the direction of the user's gaze. 12 and 13 show a case in which the transparent display device 100 is implemented in a shop window.

먼저, 도 12에 따르면, 가방과 같은 물체(20-1)가 놓여진 쇼윈도의 바깥 쪽에 위치한 사용자(10)가 정중앙에 서서 물체(20-1)를 바라보는 경우, 중앙부 상단에 배치된 제1 촬상부(111)는 기준 위치에서 촬상을 수행한다. 정보(30-1)는 사용자(10)가 바라본 물체(20-1) 위치와 겹치지 않는 영역에 표시된다. 도 12와 같이 쇼윈도로 구현된 경우, 정보(30-1)는 물체(20-1)와 관련된 설명이나, 해당 상점에 대한 광고 문구 등과 같이 다양한 정보가 될 수 있다. 투명 디스플레이 장치(100)를 관리하는 관리자는 투명 디스플레이 장치(100)에 구비된 입력부를 통해서 정보(30-1) 내용을 직접 입력할 수도 있고, PC와 같은 사용자 단말 장치를 이용하여 정보를 구성한 후 투명 디스플레이 장치(100)로 전달할 수도 있다.12, when the user 10 standing outside the display window on which the object 20-1 such as a bag is placed looks at the object 20-1 in the center, the first image pickup The unit 111 performs imaging at the reference position. The information 30-1 is displayed in an area that does not overlap the position of the object 20-1 viewed by the user 10. [ 12, the information 30-1 may be various information such as a description related to the object 20-1, advertisement text for the shop, and the like. The administrator managing the transparent display device 100 may directly input the contents of the information 30-1 through the input unit provided in the transparent display device 100 or configure the information using a user terminal such as a PC To the transparent display device 100.

이러한 상태에서 사용자가 일 방향으로 이동하게 되면, 그 방향에 맞게 제1 촬상부(111)를 회전시켜서 사용자의 위치에서 바라본 물체(20-1)의 위치를 정확하게 추정할 수 있다.When the user moves in one direction in this state, the position of the object 20-1 viewed from the user's position can be accurately estimated by rotating the first imaging unit 111 in accordance with the direction.

도 13은 사용자(10)가 왼쪽으로 이동한 상태를 나타낸다. 이 경우, 제1 촬상부(111)는 우측 방향으로 회전된다. 이에 따라, 물체(20-1)가 투명 디스플레이부(140) 상에 맺히는 위치도 변경되고, 사용자(10)가 정중앙에 위치하였을 때에는 보이지 않던 신규 물체(20-2)가 촬상 범위 내에 들어올 수 있다. 투명 디스플레이 장치(100)는 사용자(10)의 위치 이동에 따라, 물체(20-1)의 주변에 표시되어 있던 정보(30-1)의 표시 위치를 변경한다. 이 경우, 변경된 위치에 맞게 정보(30-1)의 표시 형태도 함께 변경할 수 있다. 또한, 투명 디스플레이 장치(100)는 신규 물체(20-2)에 대한 새로운 정보(30-2)도 추가적으로 디스플레이할 수 있다.13 shows a state in which the user 10 has moved to the left. In this case, the first imaging unit 111 is rotated in the right direction. Accordingly, the position at which the object 20-1 is formed on the transparent display unit 140 is changed, and when the user 10 is positioned at the center, the new object 20-2, which is not visible, can enter the imaging range . The transparent display device 100 changes the display position of the information 30-1 displayed around the object 20-1 in accordance with the movement of the user 10. [ In this case, the display form of the information 30-1 can be changed in accordance with the changed position. In addition, the transparent display device 100 can additionally display new information 30-2 on the new object 20-2.

한편, 도 13에 도시된 바와 같이, 쇼윈도 상에서 물체(20-1)와 쇼윈도 가장 자리까지의 실제 거리(d3)와, 촬상부(111)에서 촬상된 이미지 상에서의 물체(20-1) 및 그 가장 자리까지의 거리(d4)는 다를 수 있다.On the other hand, as shown in Fig. 13, the actual distance d3 from the object 20-1 to the edge of the show window on the show window and the actual distance d3 from the object 20-1 on the image picked up by the image pick- The distance d4 to the edge may be different.

이 경우, 제어부(130)는 실제 거리(d3)와 이미지 상의 거리(d4) 간의 비율을 반영하여, 매트릭스 테이블의 셀 값을 정정할 수 있다.In this case, the controller 130 can correct the cell value of the matrix table by reflecting the ratio between the actual distance d3 and the distance d4 on the image.

도 14에서는 매트릭스 테이블의 각 셀 값을 정정하는 방법을 설명하기 위한 도면이다. 도 14에 따르면, 촬상부(111)의 전환된 촬상 범위 내에서 실제 촬상된 이미지에 따르면, V2, V3, V4라인과 Hm, Hm+1, Hm+2라인이 교차하는 셀에 첫번째 물체(20-1)에 대응되는 값 1을 기록하고, Vk, Vk+1 라인과 Hm, Hm+1, Hm+2, Hm+3, Hm+4 라인이 교차하는 셀에 두번째 물체(20-2)에 대응되는 값 2를 기록한다. 14 is a diagram for explaining a method of correcting each cell value of the matrix table. According to Fig. 14, according to the image actually captured within the switched image pickup range of the image pickup unit 111, the first object 20 (see Fig. 14) is displayed on the cell where the lines V2, V3, V4 intersect with the lines Hm, Hm + -1) is recorded in the second object 20-2 in the cell where the lines Vk, Vk + 1 and the lines Hm, Hm + 1, Hm + 2, Hm + 3, Record the corresponding value 2.

하지만, 제어부(130)는 d3과 d4 간의 비율에 대응되는 거리만큼 첫번째 물체(20-1)의 위치를 우측으로 쉬프트시키고, 두 번째 물체(20-2)의 위치는 고정되도록 매트릭스 테이블(700)의 각 셀 값을 수정한다. However, the controller 130 shifts the position of the first object 20-1 to the right by a distance corresponding to the ratio between d3 and d4, and sets the position of the second object 20-2 to be fixed to the matrix table 700, And corrects each cell value of the cell.

쉬프트 거리는 반복 실험을 통해서 획득한 최적치를 기록한 데이터베이스로부터 획득할 수 있다. The shift distance can be obtained from the database recording the optimum value obtained through the repeated experiment.

한편, 상술한 바와 같이, 정보의 표시 이동 거리 및 이동 방향은 투과 영역과 겹치는 영역의 위치에 따라 결정될 수 있다. 이하에서는, 정보의 표시 이동 거리 및 이동 방향을 변경하는 다양한 실시 예들에 대하여 설명한다. On the other hand, as described above, the display moving distance and the moving direction of the information can be determined according to the position of the area overlapping the transmitting area. Hereinafter, various embodiments for changing the display moving distance and the moving direction of the information will be described.

도 15는 투명 디스플레이 장치(100)가 랩탑 컴퓨터로 구현된 경우를 나타낸다. 도 15에 따르면, 투명 디스플레이 장치(100)의 투명 디스플레이부(140)에는 물체(20)가 투명하게 비친다.15 shows a case where the transparent display device 100 is implemented as a laptop computer. 15, the transparent display unit 140 of the transparent display device 100 displays the object 20 in a transparent manner.

이에 따라, 사용자(10)의 실제 위치와 물체(20)의 위치에 따라 투과 영역(20')이 결정된다. 투명 디스플레이 장치(100)는 투과 영역(20') 내에 표시되는 정보(30)의 표시 위치를 타 영역으로 변경한다.Accordingly, the transmission region 20 'is determined according to the actual position of the user 10 and the position of the object 20. The transparent display device 100 changes the display position of the information 30 displayed in the transmissive area 20 'to another area.

도 16은 도 15와 같은 상황에서 신규 물체가 진입한 경우를 나타낸다. 도 16에 따르면, 신규 물체(40)가 투명 디스플레이부(140)의 후방으로 이동하여, 그 디스플레이 영역(40')이 정보(30) 표시 위치와 겹치게 되면, 정보(30)의 표시 위치는 다시 타 영역으로 변경된다. 이 경우, 식별력이 저하되지 않는 남은 영역의 형태 및 위치에 맞게 정보(30)의 표시 형태도 변경된다. 도 16에 따르면, 가로 방향으로 긴 직사각형 형태로 표시되고 있던 정보(30)가 이동과 함께 세로 방향으로 긴 직사각형 형태로 변경되는 것을 나타낸다.Fig. 16 shows a case where a new object enters in the situation shown in Fig. 16, when the new object 40 moves to the rear of the transparent display unit 140 and the display area 40 'overlaps the display position of the information 30, the display position of the information 30 is again It is changed to another area. In this case, the display form of the information 30 is also changed in accordance with the shape and position of the remaining area where the discrimination power is not lowered. According to Fig. 16, information 30 displayed in the shape of a rectangle elongated in the transverse direction is changed to a rectangular shape elongated in the longitudinal direction along with the movement.

*투명 디스플레이 장치(100)는 신규 물체(40)가 움직이는 동안에는 투과 영역에 대한 판단을 미루게 된다. 투명 디스플레이 장치(100)는 신규 물체(40)가 일정 시간(예를 들어, 5초 이상) 동안 정지하면, 그 상태에서 투과 영역을 판단한다.Transparent display device 100 delays judgment of the transmissive area while new object 40 is moving. When the new object 40 stops for a predetermined time (for example, 5 seconds or more), the transparent display device 100 determines the transmission region in that state.

도 17은 투과 영역과 정보 표시 위치 간의 오버랩 정도에 따라 정보 표시를 이동시키는 방법을 설명하기 위한 도면이다. 도 17에 따르면, 정보(30)의 일부분만이 투과 영역(20')과 겹치는 경우, 투명 디스플레이 장치(100)는 그 겹치는 너비만큼 정보(30) 표시 위치를 이동시킨다. 이동 방향은 정보(30) 내에서 겹치지 않는 부분이 존재하는 방향이 될 수 있다. 도 17에서는 정보(30)의 우측 부분이 겹치므로, 좌측 방향으로 표시가 이동된다. 17 is a diagram for explaining a method of moving information display according to the degree of overlap between the transmission area and the information display position. According to FIG. 17, when only a part of the information 30 overlaps with the transmissive area 20 ', the transparent display device 100 moves the information 30 display position by the overlap width. The moving direction may be a direction in which information that does not overlap in the information 30 exists. In Fig. 17, since the right part of the information 30 overlaps, the display moves in the left direction.

도 17에 도시된 바와 같이, 정보의 표시 위치의 이동 방향은 투과 영역(20') 내에서의 오버랩 영역의 위치에 따라 결정될 수 있다. 가령, 정보(30) 전체가 투과 영역(20') 내에 포함되는 경우, 투과 영역(20')의 각 경계로부터 정보(30)까지의 거리를 고려하여, 이동 방향을 결정한다. 예를 들어, 정보(30)가 투과 영역(20')의 하측 경계와 가장 가깝게 표시되었다면, 정보(30) 표시의 이동 방향은 하측이 된다. 또한, 이동 거리는 투과 영역(20')의 하측 경계로부터 정보(30)의 상측 경계까지의 거리보다 큰 값으로 결정될 수 있다.As shown in Fig. 17, the moving direction of the display position of information can be determined according to the position of the overlap area in the transmission area 20 '. For example, when the entire information 30 is included in the transmission area 20 ', the moving direction is determined in consideration of the distance from each boundary of the transmission area 20' to the information 30. For example, if the information 30 is displayed nearest to the lower border of the transmissive area 20 ', the direction of movement of the information 30 display is lower. Also, the travel distance may be determined to be a value that is greater than the distance from the lower border of the transmissive area 20 'to the upper border of the information 30.

또는, 정보의 표시 위치의 이동 방향은 물체 기준, 사용자 기준, 디스플레이 기준, 가시 범위 기준 등과 같은 다양한 기준에 따라 결정될 수 있다.Alternatively, the moving direction of the display position of the information may be determined according to various criteria such as an object reference, a user reference, a display reference, a visible range reference, and the like.

가령, 물체를 기준으로 결정되는 경우, 투과 영역의 상, 하, 좌, 우, 좌상, 좌하, 우상, 우하 방향 중 하나를 우선 이동 방향으로 설정할 수 있다. 나머지 방향에 대해서도 각각 우선 순위를 설정하여 둘 수 있다. 우선 이동 방향으로 공간 여유가 없는 경우에는, 차순위 이동 방향으로 이동하도록 설정할 수 있다. 도 17과 같이 정보(30)와 투과 영역(50)이 겹치는 경우, 우측 방향이 우선 이동 방향으로 설정되어 있더라도 우측 공간이 부족하므로 이동할 수 없다. 이 경우, 차 순위 이동 방향이 좌측이라면 도 17에 도시된 바와 같이 좌측으로 이동될 수 있다.For example, when it is determined on the basis of an object, one of the upper, lower, left, right, upper left, lower left, upper right, and lower right directions of the transmission region can be set as the priority moving direction. The priority can be set for each of the remaining directions. If there is no space in the moving direction, it can be set to move in the subordinate moving direction. As shown in Fig. 17, when the information 30 and the transmissive area 50 overlap, even if the right direction is set to the priority moving direction, the right space is insufficient to move. In this case, if the difference order moving direction is the left side, it can be moved to the left side as shown in FIG.

또는, 사용자의 위치를 기준으로 결정되는 경우, 투명 디스플레이부(140)의 전체 영역 중 투과 영역을 기준으로 사용자가 위치한 방향에 대해 우선 순위를 설정할 수 있다. 이 경우 상, 하, 좌, 우, 좌상, 좌하, 우상, 우하 방향에 대해 우선 순위가 설정될 수 있다. 이에 따라, 최우선 순위방향으로 먼저 이동시킬 것을 고려하고 이동이 불가능하면 다음 순위의 이동 방향으로 순차적으로 이동 방향을 결정한다. Alternatively, if it is determined based on the position of the user, the priority can be set for the direction in which the user is located with respect to the transparent region of the entire area of the transparent display unit 140. [ In this case, priority can be set for the up, down, left, right, upper left, lower left, upper right, and lower right directions. Accordingly, if it is considered that the movement is not possible in the highest priority direction, the movement direction is sequentially determined in the movement direction of the next order.

그 밖에, 투명 디스플레이부(140)의 디스플레이 표면 상의 절대적인 방향을 우선 기준으로 설정하여 이에 맞게 이동시킬 수도 있으며, 사용자의 가시범위를 고려하는 경우에는 물체 투과 영역을 기준으로 가시 범위 이내에서 정보 표시 방향을 상, 하, 좌, 우, 좌상, 좌하, 우상, 우하 방향 중 하나로 결정할 수 있다. In addition, the absolute direction on the display surface of the transparent display unit 140 may be set as a priority reference and may be moved according to the absolute orientation. In the case of considering the visible range of the user, Left, right, upper left, lower left, upper right, and lower right directions.

그 밖에, 투과 영역을 기준으로 정하지 않고, 디스플레이 표면 전체를 기준으로 상하좌우측 가장자리나, 각 모서리 부분으로 정보 표시 위치를 이동할 수도 있다. In addition, it is also possible to move the information display position to the upper and lower left and right side edges and the corner portions based on the entire display surface, without specifying the transmission region as a reference.

한편, 정보 표시가 이동되는 영역이, 정보가 표시되고 있던 원 영역과 크기 및 형태가 다를 경우, 그에 맞추어 정보의 레이아웃도 변경될 수 있다.On the other hand, when the area to which the information display is moved differs in size and shape from the original area in which the information is displayed, the layout of the information can be changed accordingly.

도 18은 식별력이 저하되지 않는 나머지 영역의 크기 및 형태에 따라 정보(30)의 레이아웃을 변경하는 방법을 나타낸다. 도 18에 따르면, 식별력 저항 영역(50)과 정보(30)가 겹쳐서, 가장 가까운 경계 방향인 좌상측으로 정보(30)가 이동되는 경우, 현재 정보(30)의 크기 및 형태와 이동될 영역의 크기가 다를 수 있다. 이러한 경우, 정보(30)의 크기 및 형태를 이동될 영역에 맞게 변경하면서, 정보(30) 내의 레이아웃도 함께 변경하여 새로운 정보(30') 형태로 표시한다. 18 shows a method of changing the layout of the information 30 according to the size and shape of the remaining area in which the discrimination power does not deteriorate. 18, when the information 30 is moved to the upper left side, which is the closest border direction, by overlapping the discrimination power resistance region 50 and the information 30, the size and shape of the current information 30 and the size Can be different. In this case, the layout of the information 30 is also changed and displayed in the form of new information 30 ', while changing the size and shape of the information 30 to match the area to be moved.

또한, 정보의 표시 위치는 사용자의 위치 이동에 따라서도 변경될 수 있다.Further, the display position of the information can also be changed in accordance with the movement of the user's position.

한편, 도 15 내지 도 18에서 설명한 바와 같이 투명 디스플레이 장치(100)가 랩탑 컴퓨터로 구현되는 경우, 사용자의 위치는 통상적으로 크게 변하지 않는다고 볼 수 있다. 즉, 랩탑 컴퓨터 사용을 위해서는 대부분 랩탑 컴퓨터의 정면에서 근거리 내에 사용자가 위치한다. 따라서, 사용자의 위치는 굳이 감지하지 않더라도, 투과 영역을 추정할 수 있다. 랩탑 컴퓨터 이외에 카메라나 휴대폰, PDA, MP3 플레이어, 전자 책, 전자 수첩 등과 같이 디스플레이 사이즈가 상대적으로 소형이고, 사용자가 지근거리에서 사용하는 것이 일반적인 장치의 경우에도 사실 상 사용자의 위치가 큰 의미가 없을 수 있다. 이러한 경우에는 상술한 제2 감지부가 생략된 상태로 투명 디스플레이 장치(100)가 구현될 수 있다. 이 경우, 투명 디스플레이 장치(100)는 후방의 물체를 촬상하여 그 위치 및 거리를 파악하여, 투과 영역을 추정할 수 있다. 그리고, 추정된 투과 영역을 고려하여 정보를 표시할 수 있다. 다만, 화상 통화 등을 위해서 투명 디스플레이 장치(100)가 이미 사용자를 촬상하기 위한 카메라를 구비한 경우에는 그 카메라를 이용하여 사용자의 위치나 시선 방향 등을 감지하여, 투과 영역을 추정할 수 있음은 물론이다. Meanwhile, as described with reference to FIGS. 15 to 18, when the transparent display device 100 is implemented as a laptop computer, the position of the user does not usually change significantly. In other words, most laptop computers are located in close proximity to the front of the laptop computer. Therefore, even if the position of the user is not detected, the transmission region can be estimated. In addition to a laptop computer, the size of the display is relatively small, such as a camera, a mobile phone, a PDA, an MP3 player, an electronic book, an electronic notebook, etc., . In this case, the transparent display device 100 may be implemented with the second sensing portion omitted. In this case, the transparent display device 100 can estimate the transmission area by capturing an image of the rear object, grasping its position and distance. Then, the information can be displayed in consideration of the estimated transmission region. However, when the transparent display device 100 already has a camera for capturing a user for a video call or the like, it is possible to estimate the transparent region by sensing the position or the sight direction of the user using the camera Of course.

한편, 투명 디스플레이 장치(100)는 사용자가 빈번하게 지나다니는 곳에 설치되는 게시판이나, 광고판, 키오스크 등으로 구현될 수 있다. 이 경우, 사용자의 위치 이동 시마다 반응하여 정보 표시 상태를 변경하기에는 무리가 따를 수 있다. 도 19는 사용자의 위치 이동을 고려하여 정보 표시 위치를 변경하는 경우에 대한 도면이다. On the other hand, the transparent display device 100 may be implemented as a bulletin board, a billboard, a kiosk, or the like installed at a place where a user frequently passes. In this case, it is difficult to change the information display state in response to each movement of the user's position. FIG. 19 is a diagram for a case of changing the information display position in consideration of the movement of the user.

도 19에 따르면, 사용자(10)가 투명 디스플레이부(140)를 사이에 두고 물체(20)의 정면에 위치한 경우, 정보(30)는 물체(20)의 투과 영역(20')의 일 측에 표시된다. 19, when the user 10 is positioned on the front side of the object 20 with the transparent display part 140 therebetween, the information 30 is displayed on one side of the transmission area 20 'of the object 20 Is displayed.

이러한 상태에서 사용자가 한 쪽 방향으로 이동을 하게 되면, 사용자의 위치에 따라 투과 영역(20')이 변경된다. 이에 따라, 이전에 정보(30)가 표시되어 있던 영역과 투과 영역(20')이 겹치게 되므로, 정보(30) 표시 위치는 다시 변경된다. 이 경우, 사용자가 움직임을 멈추지 않고 계속 이동하는 경우에는 움직임이 멈출 때 까지는 정보(30) 표시 위치를 변경하지 않고 대기할 수도 있다.도 20은 투명 디스플레이 장치(100)가 차량에 적용된 경우를 나타낸다. 구체적으로는, 투명 디스플레이부(140)가 차량의 전면 유리에 적용된 상태를 나타낸다.In this state, when the user moves in one direction, the transmission area 20 'is changed according to the position of the user. Accordingly, since the area in which the information 30 was previously displayed overlaps with the transmissive area 20 ', the information 30 display position is changed again. In this case, if the user keeps moving without stopping, the display position of the information 30 can be waited for until the movement stops. Fig. 20 shows a case where the transparent display device 100 is applied to the vehicle . Specifically, the transparent display unit 140 is applied to the windshield of the vehicle.

도 20에 따르면, 사용자(10)가 차량에 탑승하여 운행 중인 상태에서 각종 정보들이 전면 유리에 표시된다. 본 실시 예에서의 정보(30)는 차량 상태나 차량 운행, 주변 환경 등에 관련된 다양한 정보일 수 있다. 가령, 네비게이션 화면이나 연료 잔량, 속도, RPM, 주변 교통 상황, 주변 차량 정보 등이 전면 유리에 표시될 수 있다.  20, various information is displayed on the front glass while the user 10 is in a running state while the user is in a vehicle. The information 30 in this embodiment may be various information related to the vehicle state, the vehicle driving, the surrounding environment, and the like. For example, navigation screen, fuel level, speed, RPM, surrounding traffic conditions, and surrounding vehicle information can be displayed on the windshield.

도 20의 투명 디스플레이부(140)는 도 4와 같은 투사형으로 구현될 수 있다. 이 경우, 차량의 전면 유리가 투명 스크린(141-2)이 된다. 투명 디스플레이 장치(100)는 차량 전방의 물체(20)가 전면 유리에 비치는 영역을 투과 영역으로 판단하고, 그 영역이 아닌 타 영역에 정보(30)를 디스플레이한다. 도 20에서와 같이 차량의 경우에는, 투명 디스플레이부(140) 즉, 전면 유리의 사이즈가 크지만, 사용자가 운전석에서 고정된 자세를 유지하게 되므로, 사용자의 위치 이동 폭은 크지 않다. 따라서, 이 경우에도 사용자의 위치를 감지하기 위한 제2 감지부가 사용되지 않을 수 있다. 이에 따라, 차량 전방의 물체(20)가 유리(141-2)에 비치는 영역만을 고려하여 투과 영역을 판단할 수 있다. The transparent display unit 140 of FIG. 20 may be implemented as a projection type as shown in FIG. In this case, the windshield of the vehicle becomes the transparent screen 141-2. The transparent display device 100 judges the area of the object 20 in front of the vehicle to be reflected on the windshield as the transmission area and displays the information 30 in the area other than the area. In the case of a vehicle as shown in FIG. 20, although the size of the transparent display unit 140, that is, the windshield, is large, since the user maintains the fixed posture in the driver's seat, the width of the movement of the user is not large. Therefore, even in this case, the second sensing unit for sensing the position of the user may not be used. Accordingly, it is possible to determine the transmission region by considering only the region of the object 20 in front of the vehicle reflected by the glass 141-2.

또는, 제2 감지부가 마련된 경우에는, 제2 감지부를 이용하여 사용자의 시선을 추적하여, 그 시선이 향하는 방향으로 정보(30) 표시 위치를 이동시킬 수도 있다. 이 경우, 제2 감지부(120)는 차량 내부의 룸미러나 운전석 상단 또는 사용자가 착용한 안경 등에 배치된 제2 촬상부(121)를 이용하여 사용자의 얼굴 영역을 촬상한다. 그리고, 이미지 프로세싱 기법을 이용하여, 촬상된 이미지를 분석하여 사용자의 동공 영역을 검출하고, 그 동공 영역의 위치 변화를 추적하여 사용자의 시선을 파악할 수 있다. 제어부(130)는 사용자의 시선이 파악되면, 파악된 시선에 맞는 위치에 정보(30)를 표시한다.Alternatively, when the second sensing unit is provided, the second sensing unit may be used to track the user's line of sight and move the display position of the information 30 in the direction toward which the line of sight is directed. In this case, the second sensing unit 120 senses the face area of the user using the second image sensing unit 121 arranged on the room mirror inside the vehicle, on the driver's seat, or on glasses worn by the user. Then, by using the image processing technique, the captured image can be analyzed to detect the pupil region of the user, and the user's gaze can be grasped by tracking the change in the position of the pupil region. When the user's line of sight is recognized, the control unit 130 displays the information 30 at a position corresponding to the recognized line of sight.

한편, 상술한 다양한 실시 예들에서 개시된 투명 디스플레이 장치(100)는 정보 표시 위치 이동 기능을 사용자의 설정에 따라 선택적으로 수행할 수 있다. 도 21은 해당 기능을 설정하기 위한 설정 화면의 일 예를 나타내는 도면이다.Meanwhile, the transparent display device 100 disclosed in the various embodiments described above can selectively perform the information display position shift function according to the setting of the user. 21 is a diagram showing an example of a setting screen for setting a corresponding function.

도 21은 투명 디스플레이부(140) 상에 기능 설정을 위한 UI 화면(60)이 표시된 상태를 나타낸다. 도 21에서는 단순히 기능 온 또는 오프를 선택하기 위한 메뉴 만이 UI 화면(60)에 표시되었으나, 그 기능 실행을 위한 조건이나 정보 표시 속성 등을 설정하기 위한 메뉴도 UI 화면(60)에 함께 표시되어 사용자가 선택할 수 있다. 즉, 사용자는 투과 영역 내에 정보가 몇 초 이상 포함되었을 때 정보 표시 위치를 이동시킬 지, 정보 표시 위치 이동 거리를 어느 정도로 할 것인지, 정보 표시를 이동시켰을 경우 크기, 형태, 컬러, 폰트, 굵기 등을 어떻게 변경할 것인지, 정보 표시 위치 이동 방향을 어느 쪽으로 할 것인지 등을 선택할 수 있다. 사용자는 정보를 표시하는 어플리케이션마다 상술한 기능을 설정할 수 있다.  FIG. 21 shows a state in which a UI screen 60 for function setting is displayed on the transparent display unit 140. FIG. 21, only the menu for selecting the function on or off is displayed on the UI screen 60. However, a menu for setting the conditions for executing the function and the information display attribute is also displayed on the UI screen 60, Can be selected. In other words, the user can determine whether to move the information display position when the information is included in the transmission area for more than a few seconds, how much the information display position movement distance is to be made, and the size, form, color, font, The direction of movement of the information display position, and the like. The user can set the above-described functions for each application that displays information.

입력부(160)가 터치 스크린으로 구현된 경우, 사용자는 UI 화면(60)을 직접 터치하여 기능을 설정할 수 있다. 사용자가 설정한 설정 정보는 저장부(150)에 저장된다.When the input unit 160 is implemented as a touch screen, the user can directly touch the UI screen 60 to set a function. The setting information set by the user is stored in the storage unit 150.

이에 따라, 투명 디스플레이 장치(100)는 어플리케이션을 실행시켜 정보를 표시하게 되면, 실행된 어플리케이션에 대해 저장부(140)에 기 저장된 설정 정보에 따라 정보 표시 이동 기능을 실행할 수 있게 된다.Accordingly, when the transparent display device 100 displays the information by executing the application, the information display moving function can be executed according to the setting information previously stored in the storage unit 140 for the executed application.

도 22는 본 발명의 일 실시 예에 따른 투명 디스플레이 장치에서의 디스플레이 방법을 설명하기 위한 흐름도이다.22 is a flowchart illustrating a display method in a transparent display device according to an embodiment of the present invention.

도 22에 따르면, 물체의 위치 및 사용자의 위치가 감지되면(S2210), 감지된 위치를 기준으로 투과 영역을 판단한다(S2220). Referring to FIG. 22, when the position of the object and the position of the user are sensed (S2210), the transmission region is determined based on the sensed position (S2220).

물체의 위치 및 사용자의 위치는 물체 및 사용자를 각각 촬상한 이미지로부터 검출할 수도 있으며, 별도로 마련된 광센서를 이용하여 투명 디스플레이부를 투과하는 광의 세기를 검출하여 위치를 검출할 수도 있다. The position of the object and the position of the user may be detected from the image of the object and the user respectively, or may be detected by detecting the intensity of light transmitted through the transparent display unit using a separate optical sensor.

또한 투과 영역은 물체가 투명 디스플레이부(140) 상에 비치는 영역과, 사용자가 투명 디스플레이부(140)에 매칭되는 영역 간의 교집합에 해당하는 영역 또는 합집합에 해당하는 영역으로 결정될 수 있다. 투과 영역을 판단하기 위해서는 상술한 바와 같이 매트릭스 테이블이 이용될 수 있다. The transmissive area may be determined as an area corresponding to an intersection or an area corresponding to a union between an area where an object is displayed on the transparent display part 140 and an area where the user matches the transparent display part 140. In order to determine the transmission area, a matrix table can be used as described above.

투과 영역이 판단되면, 투명 디스플레이 장치는 투과 영역 내에 정보가 위치하는지 여부를 판단한다(S2230). 구체적으로는, 매트릭스 테이블에 정보의 표시 위치를 매칭시키고, 그 매칭 셀과 투과 영역에 해당하는 셀을 비교하여, 적어도 일부가 겹치면 투과 영역 내에 정보가 위치한다고 판단할 수 있다.If the transparent area is determined, the transparent display device determines whether information is located in the transparent area (S2230). Specifically, the display position of information is matched with the matrix table, the matching cell is compared with the cell corresponding to the transmissive region, and if it overlaps at least a part, it can be determined that the information is located in the transmissive region.

이에 따라, 투과 영역 내에 정보가 포함된다고 판단되면, 투명 디스플레이 장치는 정보 표시 위치를 타 영역으로 이동시킨다(S2240). 구체적으로는 매트릭스 테이블 내에서 물체 및 사용자 중 어느 하나에도 매칭되지 않는 셀을 파악하고, 그 파악된 셀 중에서 현재 정보 표시 위치와 가장 근접한 셀을 검출하여, 검출된 셀에 대응되는 영역에 정보를 표시한다.Accordingly, if it is determined that information is included in the transmission area, the transparent display device moves the information display position to another area (S2240). More specifically, a cell that does not match either an object or a user in the matrix table is identified, a cell closest to the current information display position is detected from among the identified cells, and information is displayed in an area corresponding to the detected cell do.

반면, 투과 영역 내에 정보가 포함되지 않는 경우에는, 별도의 조치 없이 정보를 그 위치 그대로 표시한다(S2250).On the other hand, when information is not included in the transmission area, the information is displayed as it is without any action (S2250).

결과적으로, 투명 디스플레이 장치(100)에 있어서 물체와 사용자의 위치가 겹치는 영역에 정보가 표시되는 것을 방지할 수 있어서, 정보의 식별력을 높일 수 있게 된다.As a result, information can be prevented from being displayed in an area where the position of the object overlaps with the position of the user in the transparent display device 100, so that the discrimination power of information can be increased.

도 23은 본 발명의 다른 실시 예에 따른 투명 디스플레이 장치의 디스플레이 방법을 설명하기 위한 흐름도이다. 23 is a flowchart illustrating a display method of a transparent display device according to another embodiment of the present invention.

도 23에 따르면, 투명 디스플레이 장치(100)는 주위에 사용자가 감지되지 않을 때에는 아무런 정보도 표시하지 않고 있다가, 사용자가 감지되었을 때 물체와 관련된 정보를 디스플레이할 수 있다. 23, the transparent display device 100 does not display any information when the user is not perceived by the user, and can display information related to the object when the user is sensed.

도 23의 디스플레이 방법에 따르면, 사용자가 주위로 이동하였음이 감지되면(S2310), 물체의 위치와 사용자의 위치를 각각 판단한다(S2320).According to the display method of FIG. 23, when it is detected that the user has moved around (S2310), the position of the object and the position of the user are respectively determined (S2320).

그리고 나서, 판단 결과를 바탕으로 투과 영역을 판단한다(S2330). 위치 판단 방법 및 투과 영역 판단 방법에 대해서는 상술한 다양한 실시 예를 통해 설명하였으므로, 중복 설명은 생략한다.Then, a transmission region is determined based on the determination result (S2330). The position determination method and the transmission area determination method have been described with reference to the above-described various embodiments, and duplicate description will be omitted.

투과 영역이 판단되면, 투명 디스플레이 장치(100)는 물체와 관련된 정보를 투과 영역의 주변에 디스플레이한다(S2340). 여기서, 표시되는 정보는 물체와 관련하여 관리자가 미리 입력해 둔 정보일 수 있다. 가령, 투명 디스플레이 장치(100)가 상점의 쇼윈도에 적용된 경우, 물체의 이름, 가격, 스펙 등에 대한 정보가 물체 주변에 표시될 수 있다. 또는, 투명 디스플레이 장치(100)가 통신 기능을 구비한 경우, 물체와 관련된 정보를 네트워크를 통해 연결된 서버 장치로부터 수신하여 수시로 업그레이드시켜 표시할 수도 있다. When the transparent area is determined, the transparent display device 100 displays information related to the object on the periphery of the transparent area (S2340). Here, the displayed information may be information previously input by the manager in relation to the object. For example, when the transparent display device 100 is applied to the shop window of the shop, information about the name, price, specification, etc. of the object can be displayed around the object. Alternatively, when the transparent display device 100 has a communication function, information related to an object may be received from a server device connected through a network, and may be upgraded and displayed at any time.

이러한 상태에서 신규 물체가 인식되면(S2350), 투명 디스플레이 장치(100)는 투과 영역을 재판단한다(S2360).If a new object is recognized in this state (S2350), the transparent display device 100 re-determines the transparent area (S2360).

이에 따라, 새로운 투과 영역과 이전 정보 표시 위치가 겹치게 되었다면, 이전 정보 표시 위치를 변경하고, 신규 물체에 대한 새로운 정보도 전체 투과 영역과 겹치지 않는 영역에 추가로 디스플레이한다(S2370).If the new transmissive area overlaps with the previous information display position, the previous information display position is changed and new information on the new object is also displayed in an area not overlapping the entire transmissive area (S2370).

한편, 신규 물체가 인식되지 않고 신규 사용자가 추가된 경우라면(S2390), 신규 사용자의 위치에서 물체를 보았을 때 식별력이 저하되는 영역까지 포함시켜 투과 영역을 재판단한다(S2400).On the other hand, if the new object is not recognized and a new user is added (S2390), the transmission region is re-judged including the region where the discrimination power decreases when the object is viewed at the position of the new user (S2400).

이에 따라, 재판단된 투과 영역과 겹치지 않도록 이전 정보 표시 위치를 갱신한다(S2410).Accordingly, the previous information display position is updated so as not to overlap with the re-determined transmission area (S2410).

한편, 투명 디스플레이 장치는 신규 물체가 인식되는 시간 또는 신규사용자가 인식되는 시간이 각각 기 설정된 임계 시간 미만이거나, 그 위치가 고정적이지 않고 지속적으로 변경한다면 일시적인 식별력 장애 사유로 보고 투과 영역을 재판단하지 않게 된다.  On the other hand, if the time at which a new object is recognized or the time at which a new user is recognized is less than a predetermined threshold time, or the position is not fixed but continuously changed, the transparent display device re-determines the report- .

이상과 같이, 투명 디스플레이 장치는 사용자, 물체의 개수 및 위치에 적응적으로 반응하여, 적절한 위치에 정보를 표시하거나 정보 표시 위치를 이동시킬 수 있다. As described above, the transparent display device adaptively reacts to the number and position of users, objects, and can display information at appropriate positions or move the information display position.

한편, 이상과 같은 다양한 실시 예들에서는 정보가 투과 영역에 겹치는 경우 정보의 표시 위치를 이동시키는 것으로 설명하였으나, 그 밖에 다양한 실시 예로 변형 가능하다. 특히, 투명 디스플레이 장치(100)는 물체를 투명하게 보여주면서, 그에 덧붙여서 정보를 표시하는 것이므로 상황에 따라서는 물체 표시 위치와 겹치는 상태로 정보를 표시하여야 하는 경우가 있을 수 있다. 가령, 물체가 대형 지도인 경우, 그 대형 지도 상에서 특정 위치를 지정하기 위한 정보를 표시하기 위해서는 물체가 비치는 영역과 정보의 표시 위치가 겹칠 수 밖에 없다. 도 24는 이러한 경우에 대해서 식별력을 높을 수 있는 실시 예에 대하여 설명한다. In the above-described various embodiments, the display position of the information is shifted when the information overlaps the transmissive area. However, the present invention can be modified in various other embodiments. In particular, since the transparent display device 100 displays information transparently while displaying information, information may be displayed in a state in which it overlaps with the object display position depending on the situation. For example, when an object is a large map, in order to display information for designating a specific position on the large map, the area where the object is displayed and the display position of the information have to overlap. Fig. 24 shows an embodiment in which the discrimination power can be increased in such a case.

도 24는 본 발명의 또 다른 실시 예에 따른 투명 디스플레이 장치의 동작을 설명하기 위한 도면이다.24 is a view for explaining the operation of the transparent display device according to another embodiment of the present invention.

도 24에 따르면, 투명 디스플레이부(140) 후방에 다수의 물체(21, 22, 23)가 존재하고, 각 물체에 대응되는 정보(31, 32)가 디스플레이된 상태에서 사용자가 접근한 경우를 나타낸다. 24 shows a case where a plurality of objects 21, 22, and 23 are present behind the transparent display unit 140 and a user approaches the information display unit 31 while information 31 and 32 corresponding to the objects are displayed .

도 24의 투명 디스플레이 장치(100)에서는 물체의 종류 및 특성에 따라 정보의 표시 위치를 이동하거나, 정보의 표시 속성을 변경하여 식별력을 향상시킨다. In the transparent display device 100 of FIG. 24, the display position of the information is moved according to the type and the characteristic of the object, or the display attribute of the information is changed to improve the discrimination power.

도 24에 도시된 바와 같이 물체가 단일 색상의 물체(22)라면, 물체(22) 및 정보(30)의 속성을 파악하여 식별력 저하 여부를 판단하고, 판단 결과에 따라 정보(30)의 표시 상태를 변경할 수 있다. 가령, 물체(22)가 붉은 색인 경우, 정보(30)의 컬러도 붉은 색 또는 유사한 색이면서 투과 영역 내에 위치한다면, 식별력이 저하될 것으로 판단하고, 정보(30)의 표시 속성을 변경할 수 있다. 이 때 컬러는 물체(22)의 컬러의 보색에 해당하는 컬러로 변경할 수 있다. 24, if the object is a single-color object 22, the attribute of the object 22 and the information 30 can be grasped to judge whether or not the discrimination power is lowered. The display state of the information 30 Can be changed. For example, when the object 22 is red, if the color of the information 30 is red or a similar color but is located in the transmission area, it is determined that the discrimination power is degraded and the display attribute of the information 30 can be changed. At this time, the color can be changed to a color corresponding to the complementary color of the color of the object 22.

또한, 컬러만을 변경하는 것이 아니라, 컬러 및 위치를 모두 변경할 수 있다. 반면, 물체(20) 및 정보(30)의 컬러가 서로 다른 색이라면, 투과 영역 내에 정보(30)가 위치하더라도 정보(30)의 표시 속성을 그대로 유지할 수도 있다. In addition, it is possible to change both the color and the position, instead of only changing the color. On the other hand, if the colors of the object 20 and the information 30 are different colors, the display attribute of the information 30 may be maintained as it is, even if the information 30 is located in the transparent region.

또한, 물체가 지도(23)라면, 지도(23)와 겹치는 정보(31)의 표시 위치를 이동시키지 않고, 그 컬러를 식별력이 높은 원색으로 변경하여 식별력을 높일 수 있다.If the object is the map 23, the discrimination can be increased by changing the color to the primary color having high discrimination power, without moving the display position of the information 31 overlapping the map 23.

반면, 물체가 알록달록한 무늬가 있는 그림(24)이나 벽지라면, 그 물체와 겹치는 정보(33)의 표시 위치를 타 영역으로 변경한다.On the other hand, if the object is a drawing (24) or a wallpaper with a patterned object, the display position of the information (33) overlapping the object is changed to another area.

 이러한 동작을 위하여, 관리자는 투명 디스플레이 장치(100)의 후방에 있는 물체 각각에 대하여, 그 물체가 비칠 수 있는 후보 영역을 정하고, 후보 영역 별로 정보 표시 이동을 수행할 것인지 정하고, 표시 속성을 변경할 것인지를 설정하여 둘 수 있다. For this operation, the administrator sets a candidate area in which objects are to be displayed for each of the objects behind the transparent display device 100, decides whether to perform information display movement for each candidate area, and changes the display attribute Can be set.

도 24의 실시 예에서는 투명 디스플레이부(140)를 기준으로 각 물체(21, 22, 23, 24)에 정확하게 대칭되는 전방 위치 및 높이에서 바라보았을 때, 물체(21, 22, 23, 24)가 보이는 영역을 기준 영역으로 두고, 그 기준 영역의 상하좌우 측으로 마진을 부여하여 기준 영역을 포함하는 후보 영역을 정할 수 있다. 마진은 투명 디스플레이부(140)의 가로 세로 길이, 투명 디스플레부(140)의 전체 영역 상에서 기준 영역의 위치를 고려하여, 상하좌우 각각에 대해 다르게 부여할 수 있다. 즉, 우측 경계까지의 거리가 좌측 경계보다 2배 길다면, 우측 마진을 좌측 마진보다 2배 이상으로 큰 값으로 부여할 수 있다. 이와 같이 각 물체에 대해 후보 영역이 결정되면, 그 후보 영역 내에 표시되는 정보에 대해 표시 이동을 할것인지, 표시 속성을 변경할 것인지 여부를 설정하여 둘 수 있게 된다.24, objects 21, 22, 23, and 24 are viewed from a front position and a height, which are accurately symmetrical with respect to the objects 21, 22, 23, and 24 with reference to the transparent display unit 140 A visible region may be defined as a reference region, and a margin may be assigned to the upper, lower, left, and right sides of the reference region to define a candidate region including the reference region. The margins can be given differently for the top, bottom, left, and right in consideration of the horizontal and vertical length of the transparent display unit 140, and the position of the reference area on the entire area of the transparent display unit 140. That is, if the distance to the right border is two times longer than the left margin, the right margin can be given a value twice as large as the left margin. When a candidate region is determined for each object in this manner, it is possible to set whether or not display movement is to be performed on the information displayed in the candidate region, or whether to change the display attribute.

또는, 투명 디스플레이 장치(100)는 후방 배경 이미지 상에서 검출된 물체의 에지 부분을 검출하고, 그 에지 내에 서로 다른 컬러를 가지는 일정 면적 이상의 영역이 임계 개수 이상 포함되어 있는지를 판단하여, 알록달록한 부분인지, 아닌지를 판단할 수 있다. 가령, 임계 개수가 5개로 설정되어 있다면, 5개 이상의 컬러가 포함된 그림이나 벽지 부분에 표시되는 정보는 표시 위치를 이동시키고, 나머지 경우에는 정보의 표시 속성을 변경시켜 식별력을 유지할 수 있다. 지도의 경우, 지도 전체 색상은 일정하며 각종 명칭이나 선들은 일정 크기 미만이므로, 표시 속성을 변경하는 것으로 결정될 수 있다. Alternatively, the transparent display device 100 may detect an edge portion of an object detected on a background background image, determine whether or not an area of a predetermined area or more having different colors within the edge is included in a threshold number or more, , Or not. For example, if the threshold number is set to five, the information displayed in the picture or wallpaper portion including five or more colors can move the display position, and in the remaining cases, the display attribute of the information can be changed to maintain the discrimination power. In the case of a map, the overall color of the map is constant and various names and lines are less than a certain size, so it can be determined to change the display attribute.

이와 같이, 도 24의 실시 예에 따르면, 정보의 특성을 고려하여 위치 이동 및 표시 속성 변경을 적응적으로 수행할 수 있어서, 식별력을 향상시키면서 동시에 투명 디스플레이 장치(100)의 활용도를 다양화시킬 수 있게 된다. 한편, 도 24에서는 컬러만을 변경시키는 것으로 도시하였으나, 컬러 이외에 형태, 크기, 굵기, 폰트 등과 같은 속성도 함께 변경시킬 수 있음은 물론이다. 24, the positional movement and the display attribute change can be adaptively performed in consideration of the characteristics of the information, so that the utilization of the transparent display device 100 can be diversified while improving the discrimination power. . 24, it is also possible to change the attributes such as the shape, the size, the thickness, the font, and the like in addition to the color.

한편, 투명 디스플레이 장치(100)는 사용자의 위치에 따라 정보의 표시 위치를 이동시키는 것과 함께, 신규 정보를 추가로 표시하는 동작도 수행할 수 있다. Meanwhile, the transparent display device 100 may perform an operation of displaying the new information in addition to moving the display position of the information according to the user's position.

도 25는 본 발명의 또 다른 실시 예에 따른 투명 디스플레이 장치의 동작을 설명하기 위한 것이다. 도 25에 따르면, 사용자의 위치 변화에 따라 다양한 정보를 표시하거나 위치를 이동시켜, 사용자의 흥미를 유발시킬 수 있다. 25 is a view for explaining the operation of the transparent display device according to still another embodiment of the present invention. Referring to FIG. 25, various information may be displayed or moved according to a change in the location of the user, thereby causing interest of the user.

도 25에 따르면, 사용자(10)가 제2 촬상부(121)의 촬상 범위 이내에서 감지되지 않으면, 투명 디스플레이 장치(100)는 아무런 정보도 표시하지 않는다.According to Fig. 25, if the user 10 is not detected within the imaging range of the second imaging unit 121, the transparent display device 100 does not display any information.

이러한 상태에서, 사용자(10)가 촬상 범위 이내로 진입하면, 현재 진열되어 있는 상품(20)에 대한 설명 문구를 포함하는 정보(30-1)를 해당 상품(20) 주변에 디스플레이한다. 아울러, 상품(20)과는 관련이 없는 각종 선전 문구를 포함하는 정보(30-2)를 투명 디스플레이부(140)의 일 영역에 디스플레이한다. 설명 문구를 포함하는 정보(30-1)와 달리, 선전 문구를 포함하는 정보(30-2)는 껌벅거리거나 표시 속성을 주기적으로 변경시켜 사용자의 흥미를 유발시킬 수 있다.In this state, when the user 10 enters within the imaging range, information 30-1 including explanatory phrases for the currently displayed commodity 20 is displayed around the commodity 20. In addition, information 30-2 including various promotional phrases not related to the product 20 is displayed in one area of the transparent display unit 140. [ Unlike the information 30-1 including the explanation text, the information 30-2 including the advertisement text may cause the user's interest by making a lump or changing the display attribute periodically.

사용자(10)가 촬상 범위 내에서 계속 이동을 하는 경우, 사용자의 위치 이동에 맞게 정보(30-1, 30-2)의 표시 위치를 이동시킨다. 도 25에 따르면, 사용자가 이동하는 방향 쪽의 투명 디스플레이부(140) 영역으로 정보(30-1, 30-2)를 이동시켜 사용자가 상품(20)을 정확하게 볼수 없는 각도에서도, 정보(30-1, 30-2)를 확인할 수 있도록 한다.When the user 10 continues to move within the imaging range, the display position of the information 30-1 or 30-2 is moved in accordance with the movement of the user. 25, the information 30-1 and 30-2 are moved to the area of the transparent display unit 140 in the direction in which the user moves, so that even when the user can not accurately view the item 20, the information 30- 1, 30-2).

투명 디스플레이 장치(100)는 사용자의 위치 이동 방향을 고려하여 사용자가 촬상 범위를 이탈할 것으로 판단되면, 이러한 상황에 맞는 새로운 정보(30-3)를 추가로 디스플레이한다.The transparent display device 100 further displays new information 30-3 corresponding to the situation when it is determined that the user will depart from the imaging range in consideration of the direction of the user's positional movement.

사용자(10)가 촬상 범위를 이탈한 것으로 판단되면, 투명 디스플레이 장치(100)는 정보(30-1, 30-2, 30-3)를 삭제하고, 대기 상태로 들어간다. 도 25에서는 정보(30-1, 30-2, 30-3)를 모두 삭제하는 것으로 설명하였으나, 이 중 선전 문구를 포함하는 정보(30-2)는 항상 기준 위치에 표시하여 둘 수도 있음은 물론이다.If it is determined that the user 10 has departed the imaging range, the transparent display device 100 deletes the information 30-1, 30-2, and 30-3, and enters the standby state. 25, the information 30-1, 30-2, and 30-3 are all deleted. However, the information 30-2 including the advertisement phrase may be always displayed at the reference position to be.

도 25에 도시된 바와 같이, 투명 디스플레이 장치(100)는 상점에 적용되어, 다양한 방식으로 활용될 수 있다.As shown in Fig. 25, the transparent display device 100 is applied to a shop, and can be utilized in various ways.

한편, 상술한 여러 실시 예들에서는 관리자가 입력한 정보나 외부 장치로부터 수신한 정보, 어플리케이션 실행에 따른 정보 등을 정보로 표시하는 경우로 설명하였으나, 사용자 정보를 취득할 수 있는 경우, 사용자 정보와 연관된 정보를 정보로 표시하여 줄 수도 있다.Meanwhile, in the above-described various embodiments, information input by an administrator, information received from an external device, information according to application execution, and the like are displayed as information. However, when user information can be acquired, Information can also be displayed as information.

도 26은 사용자 정보를 수신하여, 그 정보에 대응되는 정보를 적응적으로 표시하는 투명 디스플레이 장치에 대한 실시 예를 설명하기 위한 도면이다.26 is a view for explaining an embodiment of a transparent display device that receives user information and adaptively displays information corresponding to the information.

도 26에 따르면, 투명 디스플레이 장치(100)는 근거리 무선 통신 모듈(200)을 더 포함할 수 있다. 근거리 무선 통신 모듈(200)은 근거리 무선 통신 태그, 근거리 무선 통신 리더, 또는 이들 모두를 포함하는 모듈로 구현될 수 있다. 일 예로, NFC(Near Field Communication) 모듈이 사용될 수 있다.Referring to FIG. 26, the transparent display device 100 may further include a short-range wireless communication module 200. The short-range wireless communication module 200 may be implemented as a short-range wireless communication tag, a short-range wireless communication reader, or a module including both of them. As an example, an NFC (Near Field Communication) module may be used.

도 26에 따르면, 투명 디스플레이 장치(100)는 복수의 상품(20-1, 20-2, 20-3, 20-4)이 진열된 쇼윈도에 적용될 수 있다. 쇼윈도, 즉, 투명 디스플레이부(140)에는 선전 문구를 포함하는 정보(30)가 디스플레이된다. 이러한 정보(30)는 사용자(10)가 촬상 범위 이내로 들어오지 않은 경우에도 지속적으로 디스플레이될 수 있다.  26, the transparent display device 100 can be applied to a showcase on which a plurality of goods 20-1, 20-2, 20-3, and 20-4 are displayed. The display 30, that is, the transparent display part 140, is displayed with the advertisement text. This information 30 can be continuously displayed even when the user 10 is not within the imaging range.

이러한 상태에서 사용자(10)가 촬상 범위 이내로 진입하면, 진열된 각 상품(20-1, 20-2, 20-3, 20-4)이 투명 디스플레이부(140)에 비치는 영역(20'-1, 20'-2, 20'-3, 20'-4) 주변에 각 상품에 대응되는 정보(30-1, 30-2, 30-3, 30-4)를 디스플레이한다. 각 정보(30-1, 30-2, 30-3, 30-4)의 표시 위치는 사용자(10)의 위치 이동에 따라 변경될 수 있다.When the user 10 enters the imaging range in this state, the displayed products 20-1, 20-2, 20-3, and 20-4 are displayed in the areas 20'-1 , 20'-2, 20'-3, and 20'-4, respectively. The display positions of the respective pieces of information 30-1, 30-2, 30-3, and 30-4 can be changed in accordance with the movement of the user 10.

이러한 상태에서 사용자(10)가 근거리 무선 통신 모듈이 구비된 자신의 사용자 단말 장치(300)를 근거리 무선 통신 모듈(200)에 태깅하면, 사용자 정보가 검출된다. 여기서, 투명 디스플레이 장치(100)에 구비된 근거리 무선 통신 모듈(200)은 근거리 무선 통신 리더가 될 수 있고, 사용자 단말 장치(300)에 구비된 근거리 무선 통신 모듈(200)은 근거리 무선 통신 태그가 될 수 있다. When the user 10 tags the user terminal device 300 having the local area wireless communication module in the local area wireless communication module 200 in this state, the user information is detected. The local wireless communication module 200 included in the transparent display device 100 may be a local wireless communication reader and the local wireless communication module 200 provided in the user terminal 300 may include a short- .

투명 디스플레이 장치(100)는 상술한 근거리 무선 통신 방식에 따라 사용자 단말 장치(300)로부터 사용자 정보가 제공되면, 제공된 사용자 정보를 활용하여 다양한 유형의 정보를 투명 디스플레이부(140)에 표시할 수 있다.The transparent display device 100 may display various types of information on the transparent display unit 140 by using the provided user information when the user information is provided from the user terminal 300 according to the short- .

일 예로, 사용자가 근거리 무선 통신 모듈이 포함된 사용자 단말 장치(300) 또는 카드를 구비한 상태에서 통신 가능 범위 내로 접근하여 근거리 무선 통신 모듈(200)에 태깅하면, 근거리 무선 통신 모듈에 포함된 사용자 정보를 수신한다. 사용자 정보에는 사용자 성명이나 ID, 성별, 나이 등과 같은 식별 정보가 포함될 수 있다.For example, when a user accesses the user terminal 300 or the card including the local wireless communication module and reaches the communication coverage area and tags the local wireless communication module 200, the user included in the local wireless communication module Information is received. The user information may include identification information such as a user's name, ID, sex, age, and the like.

투명 디스플레이 장치(100)는 수신된 사용자 정보에 부합하는 정보를 서버 장치로 요청한다. 이에 따라, 사용자(10)의 쇼핑 이력이나, 사용자가 기 선택한 위시 리스트(wish list), 직업 등을 수신할 수 있다. 투명 디스플레이 장치(100)는 서버 장치로부터 수신된 부가 정보 및 근거리 무선 통신 모듈에 의해 검출된 식별 정보 등을 이용하여, 사용자가 관심을 가질만한 상품을 확인할 수 있다. The transparent display device 100 requests information corresponding to the received user information to the server device. Accordingly, it is possible to receive a shopping history of the user 10, a wish list previously selected by the user, a job, and the like. The transparent display device 100 can identify a product that the user may be interested in using the additional information received from the server device and the identification information detected by the local wireless communication module.

확인 결과, 쇼윈도에 진열된 상품 중에서 사용자가 관심을 가질만한 상품이 존재한다면, 해당 상품에 관련된 각종 설명을 포함하는 정보를 투명 디스플레이부(140), 즉, 쇼윈도에 디스플레이할 수 있다.As a result, if there is a product that is likely to be of interest to the user from among the products displayed on the show window, information including various explanations related to the product can be displayed on the transparent display unit 140, that is, on the display.

반면, 투명 디스플레이 장치(100)는 쇼윈도에 진열되지 않은 상품 중에서 사용자가 구매할 가능성이 있는 상품이 존재한다면, 해당 상품에 관련된 정보를 포함하는 정보를 투명 디스플레이 부(140), 즉, 쇼윈도에 디스플레이할 수 있다.On the other hand, if there is a product that the user is likely to purchase from among the products that are not displayed on the show window, the transparent display device 100 displays information including information related to the product on the transparent display unit 140, i.e., .

도 26에 따르면, 진열된 상품들(20-1, 20-2, 20-3, 20-4)에 대한 정보 정보(30-1, 30-2, 30-3, 30-4) 이외에 매장 내 상품들에 대한 정보 정보(30-5, 30-6, 30-7)가 새로이 표시된다. 새로이 표시되는 정보 정보(30-5, 30-6, 30-7)는 해당 상품의 위치를 알려주기 위한 화살표 마크를 포함할 수 있다.26, in addition to the information information 30-1, 30-2, 30-3, and 30-4 for the displayed products 20-1, 20-2, 20-3, and 20-4, Information information 30-5, 30-6, and 30-7 for the products are newly displayed. The newly displayed information information 30-5, 30-6, and 30-7 may include an arrow mark for indicating the position of the corresponding item.

이러한 동작을 구현하기 위하여, 투명 디스플레이 장치(100)의 저장부(150)에는 해당 매장이 가지고 있는 상품에 대한 간단한 설명이나 위치를 나타내는 정보와, 그 정보를 표현하기 위한 정보에 대한 정보 등이 미리 저장되어 있을 수 있다. 이러한 정보들은 취미, 특기, 직업 등과 같은 다양한 기준에 의해 그룹화될 수 있다. 이에 따라, 제어부(150)는 사용자에 대한 부가 정보에 매핑되는 그룹 내의 정보들을 탐색하여 디스플레이하여 줄 수도 있다.In order to realize this operation, the storage unit 150 of the transparent display device 100 displays information indicating a brief description or position of the merchandise held by the store, information about information for expressing the information, May be stored. Such information can be grouped by various criteria such as hobbies, specialty, and occupation. Accordingly, the control unit 150 may search for and display the information in the group mapped to the additional information about the user.

한편, 상술한 예와 달리, 부가 정보 자체도 사용자 단말 장치(300)로부터 직접 제공받을 수 있으며, 이 경우에는 그 부가 정보를 바로 이용하여 관련된 정보 정보를 투명 디스플레이부(140) 상에 표시할 수 있다.On the other hand, unlike the above-described example, the additional information itself can be directly provided from the user terminal device 300. In this case, the related information information can be directly displayed on the transparent display unit 140 have.

이와 같은 신규한 정보 정보들이 추가로 표시되는 경우, 기존에 표시되어 있던 정보(30-1, 30-2, 30-3, 30-4)들의 표시는 삭제되거나, 도 26에 도시된 바와 같이 일부 정보(30-1)의 표시 위치가 새로운 정보 정보(30-5)와 겹치지 않도록 이동될 수도 있다. 이러한 위치 이동은 상술한 바와 같이 구성된 매트릭스 테이블에 기초하여 이루어질 수 있다. 즉, 각 정보들의 위치도 매트릭스 테이블에 함께 기록하여, 위치 이동 시의 참고 자료로 활용할 수 있다.When such new information information is additionally displayed, the display of the previously displayed information 30-1, 30-2, 30-3, and 30-4 may be deleted or a part of the information The display position of the information 30-1 may be shifted so as not to overlap the new information information 30-5. This position movement can be made based on the matrix table constructed as described above. That is, the position of each information is also recorded in the matrix table, and can be used as reference data for the movement of the position.

또한, 상술한 실시 예에서는 근거리 무선 통신 모듈을 이용하여 사용자 정보를 확인하는 것으로 설명하였으나, 이와 달리, 투명 디스플레이 장치(100)는 WiFi, 블루투스, 지그비 등과 같은 무선 통신 방식에 따라 사용자 단말 장치로부터 사용자 정보를 수신할 수도 있다. 이 경우, 사용자 정보는 사용자 성명이나 ID, 주민번호 등과 같은 식별 정보 이외에 사용자의 쇼핑 이력, 위시 리스트 등이 더 포함될 수도 있다.In addition, in the above-described embodiment, the user information is confirmed by using the short-range wireless communication module. Alternatively, the transparent display device 100 may receive the user information from the user terminal device in accordance with the wireless communication method such as WiFi, Bluetooth, Information may be received. In this case, the user information may further include user's shopping history, wish list, etc. in addition to identification information such as user's name, ID, resident number, and the like.

상술한 바와 같이, 투명 디스플레이 장치(100)에서 표시되는 정보는 일반적인 OSD(On Screen Display) 메시지, 그래픽 이미지 등 뿐만 아니라 각종 어플리케이션 실행 화면, 컨텐츠 재생 화면, 웹 페이지 등이 될 수 있다. 제어부(130)는 기 저장된 다양한 어플리케이션을 실행하여 이러한 정보를 생성할 수 있다. As described above, the information displayed on the transparent display device 100 may be a general OSD (On Screen Display) message, a graphic image, as well as various application execution screens, content reproduction screens, web pages, and the like. The control unit 130 may generate various kinds of information by executing various stored applications.

예를 들어, 컨텐츠 재생 화면의 경우, 제어부(130)는 저장부(150)에 저장된 컨텐츠 데이터를 독출하거나, 외부 소스로부터 컨텐츠 데이터를 수신한다. 그리고, 제어부(130)는 컨텐츠 데이터에 대한 디코딩, 렌더링, 스케일링 등을 순차적으로 수행하여 컨텐츠 재생 화면을 생성할 수 있다. For example, in the case of the content reproduction screen, the control unit 130 reads the content data stored in the storage unit 150 or receives content data from an external source. In addition, the controller 130 may sequentially perform decoding, rendering, and scaling on the content data to generate a content playback screen.

투명 디스플레이부(140)가 도 3에서 설명한 바와 같은 투명 OLED로 구현된 경우, 제어부(130)는 생성된 컨텐츠 재생 화면에 따라 투명 디스플레이부(140) 내의 각 셀에 구비된 투명 박막 트랜지스터를 온/오프시켜 컨텐츠 재생 화면의 각 픽셀을 표현한다. 상술한 여러 실시 예들에서 설명한 바와 같이 정보 표시를 이동시켜야 하는 경우, 제어부(130)는 컨텐츠 재생 화면이 표시될 픽셀 좌표를 상이하게 변경하여, 변경된 위치에 컨텐츠 재생 화면이 표시되도록 한다. 반면, 정보의 표시 속성을 변경하여야 하는 경우, 제어부(130)는 렌더러, 스케일러 등을 이용하여 변경할 수 있다. 제어부(130)를 포함한 투명 디스플레이 장치(100)의 세부 구성은 도 27에서 설명한다.3, the controller 130 controls the ON / OFF states of the transparent thin film transistors provided in each cell in the transparent display unit 140 according to the generated content reproduction screen. That is, when the transparent display unit 140 is implemented as a transparent OLED, Thereby displaying each pixel of the content reproduction screen. In the case where the information display is to be moved as described in the above-described various embodiments, the controller 130 changes the pixel coordinates to be displayed on the content playback screen to display the content playback screen at the changed position. On the other hand, when it is necessary to change the display attribute of the information, the control unit 130 can change it using a renderer, a scaler, or the like. The detailed structure of the transparent display device 100 including the control unit 130 will be described with reference to FIG.

도 27은 투명 디스플레이 장치(100)에 적용되는 제어부(130)의 세부 구성의 일 예를 나타내는 도면이다. 도 27에 따르면, 제어부(130)는 시스템 메모리(131), 메인 CPU(132), 이미지 프로세서(133), 시스템 버스(134), 인터페이스(135), 제1 카메라 인터페이스(136), 제2 카메라 인터페이스(137), 입력 인터페이스(138), 네트워크 인터페이스(139)를 포함한다. 27 is a diagram showing an example of a detailed configuration of the control unit 130 applied to the transparent display device 100. As shown in FIG. 27, the control unit 130 includes a system memory 131, a main CPU 132, an image processor 133, a system bus 134, an interface 135, a first camera interface 136, An interface 137, an input interface 138, and a network interface 139.

시스템 메모리(131), 메인 CPU(132), 이미지 프로세서(133), 각 인터페이스들(135, 136, 137, 138, 139) 들은 시스템 버스(134)를 통해 서로 연결되어, 각종 데이터나 신호 등을 송수신할 수 있다.The system memory 131, the main CPU 132, the image processor 133 and the interfaces 135, 136, 137, 138 and 139 are connected to each other via the system bus 134, It can transmit and receive.

인터페이스(135)는 저장부(150)와 연결되어 각종 프로그램, 컨텐츠, 데이터 등을 송수신한다. 일 예로, 사용자가 저장부(150)에 저장된 컨텐츠를 확인하기 위한 확인 명령을 입력하면, 메인 CPU(132)는 인터페이스(135)를 통해 저장부(150)에 액세스하여, 저장된 컨텐츠에 대한 리스트를 생성한 후, 그 리스트를 투명 디스플레이부(140) 상에 디스플레이한다. 이러한 상태에서 사용자가 하나의 컨텐츠를 선택하여 재생 명령을 입력하면, 메인 CPU(132)는 저장부(150)에 저장된 컨텐츠 재생 프로그램을 실행시킨다. 컨텐츠 재생 프로그램에 포함된 명령어에 따라 메인 CPU(132)는 이미지 처리부(133)를 제어하여 컨텐츠 재생 화면을 구성한다.The interface 135 is connected to the storage unit 150 and transmits / receives various programs, contents, data, and the like. The main CPU 132 accesses the storage unit 150 via the interface 135 and displays a list of the stored contents in the storage unit 150 And displays the list on the transparent display unit 140. [ In this state, when the user selects one content and inputs a playback command, the main CPU 132 causes the content playback program stored in the storage unit 150 to be executed. The main CPU 132 controls the image processing unit 133 to configure a content playback screen in accordance with a command included in the content playback program.

이미지 처리부(133)는 디코더, 렌더러, 스케일러 등을 포함할 수 있다. 이에 따라, 저장된 컨텐츠을 디코딩하고, 디코딩된 컨텐츠 데이터를 렌더링하여 프레임을 구성하고, 구성된 프레임의 사이즈를 정보 표시 영역에 맞게 스케일링한다. The image processing unit 133 may include a decoder, a renderer, a scaler, and the like. Accordingly, the stored content is decoded, the decoded content data is rendered to form a frame, and the size of the configured frame is scaled according to the information display area.

메인 CPU(132)는 상술한 바와 같이 정보의 표시 위치를 이동시켜야 하는 이벤트가 발생하면, 이미지 처리부(133)에서 렌더링된 프레임이 표시될 픽셀 좌표 값을 변경한다. 그리고, 투명 디스플레이부(140) 상에서, 변경된 픽셀 좌표값에 해당하는 디스플레이 영역에 정보를 디스플레이한다. The main CPU 132 changes the pixel coordinate value to be displayed in the frame rendered by the image processing unit 133 when an event that causes the display position of the information to be moved occurs as described above. Then, on the transparent display unit 140, information is displayed in a display area corresponding to the changed pixel coordinate value.

제1 카메라 인터페이스(136) 및 제2 카메라 인터페이스(137)는 각각 카메라와 연결된다. 상술한 실시 예들에서는 제1 및 제2 감지부(110, 120)가 각각 물체의 위치와 사용자의 위치를 직접 감지하는 것으로 설명하였으나, 이와 다르게 제1 감지부(110) 및 제2 감지부(120)는 각각 카메라로만 구현될 수도 있다. 이 경우, 메인 CPU(132)는 각 카메라에서 촬상된 이미지를 제1 및 제2 카메라 인터페이스부(136, 137)를 통해 입력받고, 저장부(150)에 저장된 이미지 분석 프로그램을 실행시켜 각 이미지 내에 포함된 물체 및 사용자의 위치를 각각 판단할 수 있다. The first camera interface 136 and the second camera interface 137 are connected to the camera, respectively. Although the first and second sensing units 110 and 120 directly sense the position of the object and the user's position in the above-described embodiments, the first sensing unit 110 and the second sensing unit 120 ) May be implemented only by a camera, respectively. In this case, the main CPU 132 receives the images captured by the respective cameras through the first and second camera interface units 136 and 137, executes the image analysis program stored in the storage unit 150, It is possible to judge the contained object and the position of the user respectively.

입력 인터페이스(138)는 입력부(160)와 연결되어, 사용자가 입력한 다양한 선택 신호 등을 수신한다. 도 27에서는 하나의 입력 인터페이스(138)만이 도시되었으나, 입력부(160)가 키보드, 마우스, 조이스틱 등과 같은 다양한 입력 수단을 포함하는 경우,각 입력 수단에 대응되는 개수만큼의 입력 인터페이스(138)가 마련될 수도 있다. 메인 CPU(132)는 입력 인터페이스(138)를 통해 입력되는 사용자 신호에 따라, 투명 디스플레이부(140)에 각종 정보를 디스플레이하거나, 정보 표시 위치 이동 기능을 설정하기 위한 UI 화면(60)을 디스플레이하는 등의 동작을 수행한다.The input interface 138 is connected to the input unit 160 and receives various selection signals input by the user. 27, only one input interface 138 is shown. However, when the input unit 160 includes various input means such as a keyboard, a mouse, and a joystick, the input interfaces 138 corresponding to the respective input means are provided . The main CPU 132 displays various information on the transparent display unit 140 or a UI screen 60 for setting the information display position shift function in accordance with a user signal input through the input interface 138 And the like.

네트워크 인터페이스(139)는 네트워크를 통해 외부 장치들과 연결되는 부분이다. 가령, 메인 CPU(132)는 웹 브라우저 프로그램이 실행되면, 네트워크 인터페이스(139)를 통해서 웹 서버에 액세스한다. 웹 서버로부터 웹 페이지 데이터가 수신되면, 메인 CPU(132)는 이미지 처리부(133)를 제어하여 웹 페이지 화면을 구성하고, 구성된 웹 페이지 화면을 투명 디스플레이부(140)에 디스플레이한다.The network interface 139 is a part connected to external devices via a network. For example, the main CPU 132 accesses the web server via the network interface 139 when the web browser program is executed. When the web page data is received from the web server, the main CPU 132 controls the image processing unit 133 to configure a web page screen, and displays the configured web page screen on the transparent display unit 140.

시스템 메모리(131)는 ROM(131-1) 및 RAM(131-2)을 포함한다. ROM(131-1)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, 메인 CPU(132)는 ROM(131-1)에 저장된 명령어에 따라 저장부(150)에 저장된 O/S를 RAM(131-2)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(132)는 저장부(150)에 저장된 각종 어플리케이션 프로그램을 RAM(131-2)에 복사하고, RAM(131-2)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다. The system memory 131 includes a ROM 131-1 and a RAM 131-2. The ROM 131-1 stores a command set for booting the system and the like. The main CPU 132 copies the O / S stored in the storage unit 150 to the RAM 131-2 in accordance with the instruction stored in the ROM 131-1 and supplies the O / S to boot the system. When the booting is completed, the main CPU 132 copies various application programs stored in the storage unit 150 to the RAM 131-2, executes the application program copied to the RAM 131-2, and performs various operations do.

이상과 같이, 메인 CPU(132)는 저장부(150)에 저장된 어플리케이션 프로그램의 실행에 따라 다양한 종류의 정보를 생성하여, 투명 디스플레이부(140)에 디스플레이할 수 있다.As described above, the main CPU 132 can generate various kinds of information according to the execution of the application program stored in the storage unit 150, and display the generated information on the transparent display unit 140.

한편, 본 발명의 또 다른 실시 예에 따르면, 사용자 위치 이동을 감지하여, 투명 디스플레이부(140) 상에서 사용자의 이동된 위치에 대응되는 영역에, 적절한 객체(object)를 디스플레이할 수 있다. Meanwhile, according to another embodiment of the present invention, an appropriate object can be displayed on an area corresponding to the moved position of the user on the transparent display unit 140 by sensing the user position movement.

상술한 바와 같이 제어부(130)는 저장부(150)에 저장된 프로그램을 시스템 메모리(131)에 복사하고 실행시켜, 다양한 동작을 수행할 수 있다.As described above, the control unit 130 can copy programs stored in the storage unit 150 to the system memory 131, execute them, and perform various operations.

도 28은 저장부(150)에 저장된 소프트웨어의 계층을 설명하기 위한 도면이다. 도 28에 따르면, 저장부(150)에는 베이스 모듈(2810), 디바이스 관리 모듈(2820), 통신 모듈(2830), 프리젠테이션 모듈(2840), 웹 브라우저 모듈(2850), 서비스 모듈(2860)을 포함한다.28 is a diagram for explaining the hierarchy of software stored in the storage unit 150. As shown in FIG. 28, a base module 2810, a device management module 2820, a communication module 2830, a presentation module 2840, a web browser module 2850, and a service module 2860 are stored in the storage unit 150 .

베이스 모듈(2810)이란 투명 디스플레이 장치(100)에 포함된 각 하드웨어들로부터 전달되는 신호를 처리하여 상위 레이어 모듈로 전달하는 기초 모듈을 의미한다. The base module 2810 refers to a base module that processes a signal transmitted from each hardware included in the transparent display device 100 and transmits the signal to the upper layer module.

베이스 모듈(2810)은 스토리지 모듈(2811), 위치 기반 모듈(2812), 보안 모듈(2813), 네트워크 모듈(2814) 등을 포함한다.The base module 2810 includes a storage module 2811, a location based module 2812, a security module 2813, a network module 2814, and the like.

스토리지 모듈(2811)이란 데이터베이스(DB)나 레지스트리를 관리하는 프로그램 모듈이다. 위치 기반 모듈(2812)이란 GPS 칩과 같은 하드웨어와 연동하여 위치 기반 서비스를 지원하는 프로그램 모듈이다. 보안 모듈(2813)이란 하드웨어에 대한 인증(Certification), 요청 허용(Permission), 보안 저장(Secure Storage) 등을 지원하는 프로그램 모듈이고, 네트워크 모듈(2814)이란 네트워크 연결을 지원하기 위한 모듈로 DNET 모듈, UPnP 모듈 등을 포함한다. The storage module 2811 is a program module for managing a database (DB) or a registry. The location-based module 2812 is a program module that supports location-based services in cooperation with hardware such as a GPS chip. The security module 2813 is a program module that supports certification for hardware, permission, and secure storage. The network module 2814 is a module for supporting network connection, , A UPnP module, and the like.

디바이스 관리 모듈(2820)은 외부 입력 및 외부 디바이스에 대한 정보를 관리하고, 이를 이용하기 위한 모듈이다. 디바이스 관리 모듈(2820)은 센싱 모듈(2821), 디바이스 정보관리 모듈(2822), 원격 제어 모듈(2823)등을 포함 할 수 있다. 센싱 모듈(2821)은 제1 감지부(110) 및 제2 감지부(120)와 같은 각종 센서들로부터 제공되는 센서 데이터를 분석하는 모듈이다. 구체적으로는, 물체의 위치나 사용자의 위치, 색상, 형태, 크기 및 기타 프로필을 검출하는 동작을 수행하는 프로그램 모듈이다. 그 밖에, 센싱 모듈(2821)은 얼굴 인식 모듈, 음성 인식 모듈, 모션 인식 모듈, NFC 인식 모듈 등을 포함할 수 있다. 디바이스 정보 관리 모듈(2822)은 각종 디바이스에 대한 정보를 제공하는 모듈이며, 원격 제어 모듈(2823)은 전화기나 TV, 프린터, 카메라, 에어컨 등과 같은 주변 디바이스를 원격적으로 제어하는 동작을 수행하는 프로그램 모듈이다.The device management module 2820 is a module for managing information on external inputs and external devices and using the information. The device management module 2820 may include a sensing module 2821, a device information management module 2822, a remote control module 2823, and the like. The sensing module 2821 is a module for analyzing sensor data provided from various sensors such as the first sensing unit 110 and the second sensing unit 120. Specifically, it is a program module that performs an operation of detecting an object position, a user's position, color, shape, size, and other profiles. In addition, the sensing module 2821 may include a face recognition module, a speech recognition module, a motion recognition module, an NFC recognition module, and the like. The device information management module 2822 is a module for providing information on various devices. The remote control module 2823 is a program for remotely controlling a peripheral device such as a telephone, a TV, a printer, a camera, Module.

통신 모듈(2830)은 외부와 통신을 수행하기 위한 모듈이다. 통신 모듈(2830)은 메신저 프로그램, SMS(Short Message Service) & MMS(Multimedia Message Service) 프로그램, 이메일 프로그램 등과 같은 메시징 모듈(2831), 전화 정보 수집기(Call Info Aggregator) 프로그램 모듈, VoIP 모듈 등을 포함하는 전화 모듈(2832)을 포함할 수 있다. The communication module 2830 is a module for performing communication with the outside. The communication module 2830 includes a messaging module 2831 such as a messenger program, a Short Message Service (SMS) and a Multimedia Message Service (MMS) program, an e-mail program, a Call Info Aggregator And a telephone module 2832 that performs the functions described herein.

프리젠테이션 모듈(2840)은 디스플레이 화면을 구성하기 위한 모듈이다. 프리젠테이션 모듈(2840)은 멀티미디어 컨텐츠를 재생하여 출력하기 위한 멀티미디어 모듈(2841), UI 및 그래픽 처리를 수행하는 UI & 그래픽 모듈(2842)을 포함한다. 멀티미디어 모듈(2841)은 플레이어 모듈, 캠코더 모듈, 사운드 처리 모듈 등을 포함할 수 있다. 이에 따라, 각종 멀티미디어 컨텐츠를 재생하여 화면 및 음향을 생성하여 재생하는 동작을 수행한다. UI & 그래픽 모듈(2842)은 이미지를 조합하는 이미지 합성기(Image Compositor module)(2842-1), 이미지를 디스플레이할 화면 상의 좌표를 조합하여 생성하는 좌표 조합 모듈(2842-2), 하드웨어로부터 각종 이벤트를 수신하는 X11 모듈(2842-3), 2D 또는 3D 형태의 UI를 구성하기 위한 툴(tool)을 제공하는 2D/3D UI 툴킷(2842-4) 등을 포함할 수 있다.The presentation module 2840 is a module for constituting a display screen. The presentation module 2840 includes a multimedia module 2841 for reproducing and outputting multimedia contents, a UI and a UI & graphic module 2842 for performing graphic processing. The multimedia module 2841 may include a player module, a camcorder module, a sound processing module, and the like. Accordingly, various multimedia contents are reproduced, and a screen and sound are generated and reproduced. The UI & graphic module 2842 includes an image compositor module 2842-1 that combines images, a coordinate combination module 2842-2 that combines coordinates on the screen to display an image, A 2D / 3D UI toolkit 2842-4 that provides a tool for constructing a 2D or 3D type UI, and the like.

웹 브라우저 모듈(2850)은 웹 브라우징을 수행하여 웹 서버에 액세스하는 모듈을 의미한다. 웹 브라우저 모듈(2850)은 웹 페이지를 구성하는 웹 뷰(web view) 모듈, 다운로드를 수행하는 다운로드 에이전트 모듈, 북마크 모듈, 웹킷(Webkit) 모듈 등과 같은 다양한 모듈을 포함할 수 있다.The web browser module 2850 refers to a module that accesses a web server by performing web browsing. The web browser module 2850 may include various modules such as a web view module for configuring a web page, a download agent module for downloading, a bookmark module, a webkit module, and the like.

그 밖에, 서비스 모듈(2860)은 다양한 서비스를 제공하기 위한 어플리케이션 모듈을 의미한다. 예를 들면, 서비스 모듈(2860)은 지도나 현재 위치, 랜드 마크, 경로 정보 등을 제공하는 네비게이션 서비스 모듈, 게임 모듈, 광고 어플리케이션 모듈 등과 같은 다양한 모듈을 포함할 수 있다.In addition, the service module 2860 refers to an application module for providing various services. For example, the service module 2860 may include various modules such as a navigation service module, a game module, an advertisement application module, etc. that provide maps, current locations, landmarks, route information and the like.

제어부(130) 내의 메인 CPU(132)는 인터페이스(135)를 통해서 저장부(150)에 액세스하여, 저장부(150)에 저장된 각종 모듈들을 RAM(131-2)에 복사하고, 복사된 모듈의 동작에 따라 동작을 수행한다. The main CPU 132 in the control unit 130 accesses the storage unit 150 through the interface 135 to copy various modules stored in the storage unit 150 to the RAM 131-2, And performs an operation according to the operation.

구체적으로는 메인 CPU(132)는 센싱 모듈(2821)의 동작에 따라 물체의 위치 및 사용자의 위치를 감지하고, 투과 영역을 판단한다. 그리고, 프리젠테이션 모듈(2840)을 실행시켜, 투과 영역이 아닌 타 위치에 정보가 표시되도록 한다. 구체적으로는, 좌표 조합 모듈(2842-2)을 이용하여 이동될 위치의 좌표를 생성한 후, 그 좌표 위치에 정보를 표시한다. 또한, 메인 CPU(132)는 이미지 조합 모듈(2842-1)을 이용하여, 정보의 크기, 색상, 형태, 레이아웃 등과 같은 다양한 속성을 변경한다. Specifically, the main CPU 132 senses the position of the object and the position of the user according to the operation of the sensing module 2821, and determines the transmission area. Then, the presentation module 2840 is executed so that information is displayed at a position other than the transmissive area. More specifically, after the coordinates of the position to be moved are generated using the coordinate combination module 2842-2, the information is displayed at the coordinate position. Further, the main CPU 132 uses the image combination module 2842-1 to change various attributes such as the size, color, shape, layout, and the like of the information.

표시되는 정보는 멀티미디어 모듈(2841)에 의해 재생되는 멀티미디어 컨텐츠가 될 수도 있고, UI & 그래픽 모듈(2842)에서 생성되는 각종 UI나 그래픽 이미지, 텍스트 등과 같이 될 수도 있다.The displayed information may be multimedia contents reproduced by the multimedia module 2841, various UIs generated by the UI & graphic module 2842, graphic images, text, and the like.

또한, 메인 CPU(132)는 메시징 모듈(2841)을 실행시켜, 통신 상대 노드로부터 메신저, SMS 메시지, MMS 메시지, 이메일 등을 수신할 수 있다. 수신된 각종 메시지는 투명 디스플레이부(140)에 표시된다. Also, the main CPU 132 can execute the messaging module 2841 to receive a messenger, an SMS message, an MMS message, an e-mail, etc. from the correspondent node. The received various messages are displayed on the transparent display unit 140.

한편, 도 25 및 도 26 등에서 도시한 바와 같이, 투명 디스플레이 장치가 쇼윈도에 적용되는 경우, 메인 CPU(132)는 UI & 그래픽 모듈(2842)을 실행시켜, 각종 광고 이미지나 광고 문구 등을 디스플레이할 수도 있다. 이러한 광고 이미지나 광고 문구는 웹 서버나 기타 네트워크 장치를 통해 수신될 수 있다. 메인 CPU(132)는 웹 브라우저 모듈(2850)을 실행시켜 네트워크 인터페이스(139)를 통해서 외부의 웹 서버에 액세스하고, 그 웹 서버로부터 웹 페이지 데이터를 수신한 후, 그 웹 페이지 데이터에 따른 화면을 디스플레이할 수 있다. 25 and 26, when the transparent display device is applied to a show window, the main CPU 132 executes the UI & graphic module 2842 to display various advertisement images, advertisement texts, and the like It is possible. Such ad images or advertising text may be received via a web server or other network device. The main CPU 132 executes the web browser module 2850 to access the external web server through the network interface 139. After receiving the web page data from the web server, Can be displayed.

이상과 같이 저장부(150)에는 다양한 구조의 프로그램이 저장되어 있을 수 있으며, 제어부(130)는 저장부(150)에 저장된 프로그램을 이용하여 상술한 다양한 실시 예에 따른 동작을 수행할 수 있다. As described above, the storage unit 150 may store programs having various structures. The controller 130 may perform the operations according to the above-described various embodiments using the programs stored in the storage unit 150.

도 29는 사용자의 위치에 대응되는 영역에 사용자 UI(User Interface) 화면을 디스플레이하는 실시 예를 나타낸다.29 shows an embodiment in which a user UI (User Interface) screen is displayed in an area corresponding to a user's location.

도 29에 따르면, 사용자가 투명 디스플레이부(140)를 사이에 두고 물체(20)와 반대 방향에 위치한 상태에서 한쪽 방향으로 이동하면, 이동된 위치에 따라 투과 영역(20')이 변경되고, 변경된 위치를 고려하여 적절한 위치에 객체(30)가 표시된다.29, when the user moves in one direction while being positioned opposite to the object 20 with the transparent display unit 140 therebetween, the transmissive area 20 'is changed according to the moved position, The object 30 is displayed at an appropriate position in consideration of the position.

이러한 상태에서, 투명 디스플레이 장치(100)는 사용자가 투명 디스플레이부(140)를 기준으로 일정 거리 내로 접근하였다고 판단되면, 사용자(10)의 위치에 대응되는 영역에 사용자 UI를 디스플레이한다. 사용자 UI에는 물체(20)에 대한 정보나, 투명 디스플레이 장치(100)가 적용된 환경(예를 들어, 매장)에 대한 정보, 정보(30)를 다른 정보로 변경하기 위한 메뉴나, 정보(30) 표시 속성을 변경하기 위한 메뉴 등이 포함될 수 있다. 사용자(10)는 사용자 UI를 통해 해당 매장이 구비한 다른 상품들에 대한 정보를 확인할 수도 있고, 그 밖에, 담당자를 호출할 수도 있다.In this state, the transparent display device 100 displays the user UI in an area corresponding to the position of the user 10 when it is determined that the user has approached the transparent display part 140 within a certain distance. The user UI includes information on the object 20, information on the environment (for example, store) to which the transparent display device 100 is applied, information on the menu 30 for changing the information 30 to other information, A menu for changing the display attribute, and the like. The user 10 can check information on other goods provided by the store through the user UI or can call the person in charge.

또한, 상술한 바와 같이 정보의 표시 속성은 사용자의 위치에 따라 변경될 수 있다. 도 30 및 도 31은 사용자와 투명 디스플레이부 간의 거리에 따라 정보의 표시 영역의 크기를 상이하게 조정하는 실시 예를 나타내는 도면이다.Also, as described above, the display attribute of the information can be changed according to the position of the user. 30 and 31 are views showing an embodiment in which the size of the display area of information is adjusted differently according to the distance between the user and the transparent display part.

도 30에 도시된 바와 같이 사용자가 LD만큼 떨어진 위치에 존재하면, 투과 영역(20')의 일 측에 상대적으로 큰 사이즈의 정보(30)를 표시한다.As shown in FIG. 30, when the user is located at a position apart from the LD, information 30 of a relatively large size is displayed on one side of the transmission region 20 '.

반면, 도 31에 도시된 바와 같이 사용자가 LD보다 작은 SD 만큼 떨어진 위치에 존재하면, 정보(30)를 그 거리에 비례하는 만큼 축소시켜 표시한다.On the other hand, if the user is located at a position spaced apart by an SD smaller than the LD as shown in FIG. 31, the information 30 is reduced in proportion to the distance.

이에 따라, 사용자가 거리에 상관 없이, 정보를 편리하게 식별할 수 있게 된다.This allows the user to conveniently identify the information regardless of the distance.

도 32는 사용자의 가시 범위에 따라 정보(30)의 표시 위치를 조정하는 방법을 나타내는 도면이다.32 is a diagram showing a method of adjusting the display position of the information 30 according to the visible range of the user.

도 32에 따르면, 사용자가 물체(20)의 정면에서 바라보았을 때는 투과 영역(20')이 정면에 형성되고, 정보(30)는 그 일 측에 표시된다.32, when the user views the front side of the object 20, the transmission area 20 'is formed on the front side, and the information 30 is displayed on one side thereof.

이러한 상태에서 사용자가 좌측으로 이동하여 가시 범위가 변경되었을 경우, 투명 디스플레이 장치(100)는 사용자의 가시 범위 내에서 투과 영역(20')을 회피하여 정보(30)를 디스플레이한다.In this state, when the user moves to the left and the visible range is changed, the transparent display device 100 displays the information 30 by avoiding the transparent area 20 'within the visible range of the user.

사용자의 가시 범위는 사용자의 이미지를 촬상하여 얼굴 방향 또는 시선을 추적하여 산출할 수 있다. 또는, 사용자의 위치와 물체(20)의 위치를 연결하는 선을 기준으로, 사용자의 위치에서 일반 사람의 시각 이내의 범위를 가시 범위로 산출할 수도 있다.The visible range of the user can be calculated by capturing the image of the user and tracking the face direction or line of sight. Alternatively, the visual range may be calculated within the range of the general person's position at the user's position, based on a line connecting the position of the user and the position of the object 20. [

한편, 복수의 물체가 존재하는 경우, 사용자의 위치에 대응되는 물체에 대해서만 적응적으로 정보를 표시할 수 있다. On the other hand, when a plurality of objects exist, information can be adaptively displayed only for an object corresponding to the position of the user.

또한, 복수의 정보가 표시되어 있는 경우, 사용자의 위치 이동이 있으면 사용자의 위치에 대응되는 디스플레이 영역에 각 정보를 수렴하여 디스플레이할 수도 있다.Also, when a plurality of pieces of information are displayed, the information may be displayed on the display area corresponding to the user's position when the user moves.

한편, 상술한 바와 같이 정보의 위치 뿐만 아니라 정보의 표시 속성도 함께 변경될 수 있다. 이전 상황과 현재 상황에 대한 평가 결과 동일한 환경인 경우에는 정보의 표시 속성은 그대로 유지되고, 단순히 위치 이동만 이루어질 수 있다. 가령, 동일한 사용자와 동일한 물체가 존재하는 상태에서 물체 또는 사용자가 위치만을 이동한 경우, 그 이동된 위치에 따라 투과 영역이 변경되므로, 변경된 투과 영역을 피한 타 영역에 동일한 속성의 정보를 표시한다.On the other hand, as described above, not only the position of the information but also the display attribute of the information can be changed as well. As a result of evaluating the previous situation and the current situation, the display attribute of the information is maintained as it is in the same environment, and only the position movement can be achieved. For example, when the object or the user moves only the position in the state where the same object exists with the same user, the transmission region is changed according to the moved position, so that information of the same attribute is displayed in another region avoiding the changed transmission region.

반면, 투과 영역의 면적이 커서 회피할 수 있는 공간이 충분하지 않은 경우, 정보의 표시 색상만을 물체의 색상과 대비되는 색상으로 변경하여 표시할 수 있다. 또는, 물체의 색상이 정보 표시 색상과 유사하여 정보 표시 위치를 이동하더라도 식별력이 저하될 우려가 있는 경우에는 정보의 표시 위치를 이동시키면서 정보의 표시 색상도 함께 변경할 수 있다. 또는, 위치 이동으로 인해 사용자와 가장 가까운 물체에 대한 정보, 또는 사용자와 가장 가까운 위치에 표시되는 정보, 사용자의 시선이 향하는 위치에 표시되는 정보 등의 색상을 변경할 수도 있다. On the other hand, if the area of the transmissive area is large and there is not enough room to avoid, only the display color of the information can be changed to a color that is contrasted with the color of the object and displayed. Alternatively, when the color of the object is similar to that of the information display color and there is a possibility that the discrimination power may decrease even if the information display position is moved, the display color of the information may be changed while moving the display position of the information. Alternatively, information about an object closest to the user due to the positional shift, information displayed at a position closest to the user, and information displayed at a position facing the user's eyes may be changed.

굵기의 경우도 컬러와 유사하게 변경될 수 있다. 가령, 사용자로부터 멀리 떨어진 물체에 대한 정보나, 멀리 떨어진 디스플레이 영역에 표시되는 정보의 경우에는 굵은 선으로 표시하고, 가까운 곳에 표시되는 정보의 경우에는 얇은 선으로 표시할 수 있다. 또는 사용자의 시선이 향하는 곳에 표시되는 정보의 경우에는 굵은 선으로 표시할 수 있다. 이러한 예시는 설정 상태에 따라 달라질 수 있음은 물론이다. 가령, 사용자로부터 멀리 떨어진 위치의 정보에 대해서 오히려 얇은 굵기로 표시되도록 설정할 수도 있다. The case of thickness can also be changed similar to color. For example, information on an object far from the user, information displayed in a remote display area may be indicated by a bold line, and information displayed in a nearby display area may be displayed by a thin line. Or in the case of information displayed in a place where the user's line of sight is directed, the information can be displayed in bold lines. It goes without saying that this example may vary depending on the setting state. For example, it is possible to set the information at a position far from the user to be displayed in a rather thin thickness.

크기의 경우도 마찬가지로 사용자의 시선이 향하는 곳인지, 사용자와 멀리 떨어진 물체에 대한 정보인지, 사용자와 멀리 떨어진 위치에 표시되는 정보인지, 사용자 및 투명 디스플레이부(140) 사이의 거리가 먼지 가까운지 등에 따라서 상이한 크기로 결정될 수 있다.In the case of the size, similarly, it is determined whether the user's gaze is directed, whether the information is located far away from the user, information displayed at a position far from the user, the distance between the user and the transparent display unit 140 Can be determined to be different sizes.

이상과 같은 색상, 크기, 굵기 이외에도, 언어, 폰트 등과 같은 다양한 속성이 다르게 설정될 수 있다. In addition to the above color, size, and thickness, various attributes such as language, font, and the like may be set differently.

이러한 속성들은 상술한 바와 같이 사용자, 물체 등의 위치나, 그 표시 환경에 따라 달라질 수 있지만, 이와 상이한 실시 예에서는 근거리 무선 통신 방식이나 기타 통신 방식에 의해 사용자에 대한 정보에 따라 다르게 설정될 수도 있다.These attributes may vary depending on the location of a user, object, or the like, and the display environment, as described above, but may be differently set according to information about a user by a short-range wireless communication method or other communication method in different embodiments .

즉, 근거리 무선 통신 방식에 의해 사용자 정보가 제공된 경우, 사용자 정보에 기초하여 객체의 굵기나 컬러, 크기, 언어, 폰트 등을 조정할 수도 있고, 정보의 종류나 정보의 수준도 다르게 표시할 수도 있다. 가령, 사용자 정보에 따라 특정 정보에 대해서는 더 굵고, 크게 표시할 수 있다. That is, when the user information is provided by the short-range wireless communication method, it is possible to adjust the thickness, color, size, language, font, and the like of the object based on the user information. For example, specific information can be displayed thicker and larger according to the user information.

도 33은 근거리 무선 통신 방식으로 제공된 사용자 정보에 따라 정보의 표시 속성을 상이하게 변경하는 실시 예에 대한 도면이다.FIG. 33 is a diagram illustrating an embodiment in which information display attributes are changed differently according to user information provided in the short-range wireless communication method.

도 33에 따르면, 사용자(10)가 노인이나 외국인이라 하더라도, 일단은 그 사용자(10) 위치 및 물체(20)의 위치를 고려하여 적절한 위치에 정보(30)를 표시한다. 이러한 상태에서 사용자가 자신의 사용자 단말 장치(300)를 근거리 무선 통신 모듈(200)에 태깅시키면, 근거리 무선 통신 모듈(200)은 사용자 정보를 수신한다. 사용자 정보에는 사용자의 이름, 성별, 나이, 국적 등이 포함될 수 있다. According to Fig. 33, even if the user 10 is an elderly person or a foreigner, the information 30 is displayed at an appropriate position, taking into consideration the position of the user 10 and the position of the object 20. In this state, when the user tags his / her user terminal device 300 to the local area wireless communication module 200, the local area wireless communication module 200 receives the user information. The user information may include the user's name, sex, age, nationality, and the like.

투명 디스플레이 장치(100)는 사용자 정보가 수신되면, 그 사용자 정보에 부합되는 속성을 결정한다. When the user information is received, the transparent display device 100 determines an attribute corresponding to the user information.

도 33에서는 나이가 많은 노인이 태깅한 경우를 도시하였다. 이 경우, 투명 디스플레이 장치(100)는 원래 표시되어 있던 정보를 더 굵고 더 크게 표시한다. 이에 따라, 시력이 좋지 않은 노인도 정보(30)를 용이하게 인식할 수 있게 된다.FIG. 33 shows a case where an elderly man aged is tagged. In this case, the transparent display device 100 displays the originally displayed information in a larger size and a larger size. Thus, the information 30 can be easily recognized by an elderly person with poor visual acuity.

또는, 외국인인 경우, 그 국적에 따라 영어나, 일본어, 프랑스어, 중국어 등과 같은 다양한 언어로 정보를 표시한다. Or, in case of a foreigner, the information is displayed in various languages such as English, Japanese, French, and Chinese depending on the nationality.

한편, 정보의 표시 속성 이외에 정보의 내용이나 수준도 다르게 변경될 수 있다. 가령, 40대 주부가 태깅을 한 경우에는 40대 주부가 관심 있어 할 정보를 표시하도록 하거나, 10대 학생이 태깅을 한 경우에는 성인물 등에 대한 정보는 표시하지 않도록 구현할 수 있다.On the other hand, the content and level of the information may be changed in addition to the display attribute of the information. For example, if a 40-year-old housewife tagged, the 40-year-old housewife would display information that she might be interested in, or if teenage students tagged, she would not display information about adult items.

도 33에서는 근거리 무선 통신 방식으로 사용자 정보를 수신하여 그에 맞게 정보를 변경하는 실시 예를 설명하였으나, 그 밖에 WiFi, 지그비, 블루투스와 같은 다양한 무선 통신 방식이 사용될 수 있음도 물론이다. 또는, 투명 디스플레이부(140) 표면 또는 외측에 구비된 단말기를 통해 사용자가 자신의 정보를 직접 입력하도록 구현할 수도 있다. 33 illustrates an embodiment in which user information is received by the short-range wireless communication method and the information is changed accordingly, but it goes without saying that various wireless communication methods such as WiFi, Zigbee, and Bluetooth may be used. Alternatively, the user may directly input his / her own information through a terminal provided on the surface or outside of the transparent display unit 140.

또는, 무선 통신 방식을 이용하지 않고, 투명 디스플레이 장치(100)가 직접 사용자의 이미지를 촬상하여, 촬상된 이미지를 분석하여 사용자의 특성을 판단할 수도 있다.Alternatively, the transparent display device 100 may directly image an image of the user without using a wireless communication method, and may analyze the captured image to determine the characteristics of the user.

도 34는 사용자를 촬상하여 그 특성을 파악하고 그 특성에 따라 정보 표시 상태를 변경하는 실시 예를 나타내는 도면이다.34 is a diagram showing an embodiment in which a user is picked up and the characteristics thereof are grasped and the information display state is changed according to the characteristics.

도 34에 따르면, 제1 사용자(10-1)가 투명 디스플레이부(140) 정면에 서 있는 경우에는, 제1 사용자(10-1)를 촬상하여 이미지를 획득한다. 투명 디스플레이 장치(100)는 획득된 이미지를 분석하여 어른인지 아이인지를 판단한다. 구체적으로는 획득된 이미지의 세로 길이, 그 이미지 상에서 제1 사용자(10-1)에 대응되는 영역의 세로 길이 및 투명 디스플레이부(140)와 제1 사용자(10-1) 간의 거리를 이용하여 비례적으로 제1 사용자(10-1)의 키를 산출할 수 있다. 이에 따라, 산출된 키가 임계치를 넘으면 제1 사용자(10-1)를 어른으로 간주한다. 34, when the first user 10-1 is standing in front of the transparent display unit 140, the first user 10-1 is picked up to acquire an image. The transparent display device 100 analyzes the acquired image to determine whether it is an adult or a child. More specifically, the vertical length of the obtained image, the vertical length of the area corresponding to the first user 10-1 on the image, and the distance between the transparent display unit 140 and the first user 10-1 The key of the first user 10-1 can be calculated. Accordingly, when the calculated key exceeds the threshold value, the first user 10-1 is regarded as an adult.

제1 사용자(10-1)가 어른으로 판단되면, 투명 디스플레이 장치(100)는 어른을 위하여 마련한 정보(30-1)를 어른(10-1) 눈높이에 맞는 높이에 디스플레이한다.If the first user 10-1 is determined to be an adult, the transparent display device 100 displays the information 30-1 prepared for the adult at a height corresponding to the eye level of the adult 10-1.

이러한 상태에서 제1 사용자(10-1)가 촬상 범위를 벗어나고, 제2 사용자(10-2)가 새로이 촬상 범위 내로 들어온 경우, 제2 사용자(10-2)를 촬상하여 이미지를 획득하고, 획득된 이미지를 분석하여 어른인지 아이인지 다시 판단한다. 이에 따라, 아이라고 판단되면, 이전에 표시되어 있던 정보(30-1)를 삭제하고, 아이를 위하여 마련한 정보(30-2, 30-3)를 아이 눈높이에 맞는 높이에 디스플레이한다.In this state, when the first user 10-1 is out of the imaging range and the second user 10-2 is newly in the imaging range, the second user 10-2 is picked up to acquire an image, Analyze the image to determine if it is an adult or a child. Accordingly, if it is determined that the child is the child, the previously displayed information 30-1 is deleted and the information 30-2 and 30-3 prepared for the child are displayed at the height corresponding to the child's eye level.

결과적으로, 사용자에 맞는 다양한 정보를 식별력 있게 제공하여 줄 수 있게 된다. As a result, various information suitable for the user can be provided in a discerning manner.

상술한 다양한 실시 예들에서는 정보들이 모두 박스 형태로 표현되었으나, 이는 설명의 편의를 위한 것일 분이며 정보는 텍스트로만 표현될 수도 있다. 또는 정보가 표시되는 영역의 바탕 색을 불투명하게 처리하여, 정보가 후방 배경과 확연하게 구별되도록 구현할 수도 있다. In the various embodiments described above, all of the information is expressed in the form of a box, but this is for convenience of explanation, and the information may be expressed only as text. Alternatively, the background color of the area in which the information is displayed may be opaque so that the information can be clearly distinguished from the background in the background.

한편, 상술한 본 발명의 다양한 실시 예들에 따른 방법들은, 투명 디스플레이가 가능한 모든 유형의 장치에 적용될 수 있다. 예를 들어, 창문, HUD(Head up display) 시스템, HMD(Helmet Mount Display) 시스템, 노트북, PC 모니터, TV, , PDA, 전자 액자, 태블릿 PC, 카메라 등과 같은 다양한 장치에 적용될 수 있다. Meanwhile, the methods according to the various embodiments of the present invention described above can be applied to all types of devices capable of transparent display. For example, it can be applied to various devices such as a window, a head up display (HUD) system, a helmet mount display (HMD) system, a notebook, a PC monitor, a TV, a PDA, an electronic photo frame, a tablet PC,

도 35는 카메라로 구현된 투명 디스플레이 장치를 나타내는 도면이다. 도 35에 따르면, 카메라(1000)는 투명 디스플레이부(1400)를 포함한다. 투명 디스플레이부(1400)는 종래의 일반 카메라 장치에서 라이브 뷰(live view)를 표시하는 일반 디스플레이 유닛을 대체하여 그 위치에 마련될 수 있다. 이에 따라, 사용자는 CCD(Charge Coupled Device) 어레이 등과 같은 촬상 소자를 촬상된 라이브 뷰를 보는 것이 아니라, 투명 디스플레이부(1400)에 투명하게 비치는 실제 카메라의 앞쪽 배경을 보면서 촬상을 수행할 수 있다.35 is a view showing a transparent display device implemented by a camera. According to Fig. 35, the camera 1000 includes a transparent display portion 1400. Fig. The transparent display unit 1400 may be provided in place of a general display unit that displays a live view in a conventional general camera device. Accordingly, the user can perform imaging while looking at the front background of the actual camera, which is transparent to the transparent display unit 1400, instead of viewing the captured live view of the imaging device such as a CCD (Charge Coupled Device) array.

이 경우, 투명 디스플레이부(1400)는 앞쪽을 향하는 촬상 소자를 이용하여 앞쪽 배경에 위치하는 피사체(20)의 위치를 감지할 수 있다. 카메라(1000)는 뎁스 카메라나 기타 거리 감지 센서를 이용하여 피사체와 카메라(1000) 사이의 거리를 감지할 수도 있다. 카메라(1000)는 감지된 거리와 피사체의 위치에 기초하여 투명 디스플레이부(1400) 상에서 피사체가 비치는 투과 영역을 판단할 수 있다. 카메라(1000)의 경우 카메라(1000)를 사용하고자 하는 사용자가 카메라(1000)를 기준으로 위치할 사용자와 카메라(1000) 간의 통계적인 거리 또는 각도 등에 근거하여, 사용자의 위치를 검출하는 과정이 없이도 투과 영역이 판단될 수도 있다. 또한, 카메라(1000)를 사용하고자 하는 사용자의 위치 및/또는 사용자의 시선을 검출하여, 사용자 시선에 대응하는 피사체(20), 대응하는 피사체(20)의 위치 및/또는 대응하는 피사체(20)의 식별 영역이 추정될 수 있다. 이에 따라, 사용자의 위치, 사용자의 시선, 대응하는 피사체(20)의 위치 및/또는 피사체(20)의 식별 영역 등을 기반으로 투명 디스플레이부(1400)에 물체가 보이는 투과 영역이 판단될 수도 있다.In this case, the transparent display unit 1400 can detect the position of the subject 20 positioned on the front background by using the imaging device facing forward. The camera 1000 may sense the distance between the subject and the camera 1000 using a depth camera or other distance sensor. The camera 1000 can determine the transparent area on the transparent display part 1400 where the subject is exposed based on the sensed distance and the position of the subject. In the case of the camera 1000, the process of detecting the position of the user based on the statistical distance or angle between the user to be located on the basis of the camera 1000 and the camera 1000, The transmission region may be determined. It is also possible to detect the position of a user who wants to use the camera 1000 and / or the user's line of sight to detect the position of the subject 20 corresponding to the user's line of sight, the position of the corresponding subject 20 and / Can be estimated. Accordingly, the transparent region in which the object is visible on the transparent display unit 1400 may be determined based on the position of the user, the user's gaze, the position of the corresponding subject 20 and / or the identification region of the subject 20 .

이에 따라 투과 영역(20')이 판단되면, 카메라(1000)는 투명 디스플레이부(1400) 상에서 투과 영역(20') 이외의 영역에 정보(30)를 표시한다. 도 35에서는 선택 가능한 메뉴에 대한 정보(30)가 표시된 상태를 도시하였으나, 이 외에도 카메라(1000)의 배터리 잔량, 동작 모드, 메모리 용량 등과 같은 다양한 정보들이 표시될 수도 있으며, 이러한 정보들 역시 투과 영역(20')을 회피한 타 영역에 표시하여 식별력을 높일 수 있다.Accordingly, when the transmissive area 20 'is determined, the camera 1000 displays the information 30 on an area other than the transmissive area 20' on the transparent display part 1400. Although FIG. 35 shows a state in which information 30 for a selectable menu is displayed, various information such as a battery remaining amount, an operation mode, a memory capacity, and the like of the camera 1000 may be displayed. It is possible to increase the discrimination power by displaying the data in another area avoiding the data 20 '.

이상과 같이, 투명 디스플레이 장치(1000)는 카메라로도 구현될 수 있다.As described above, the transparent display device 1000 can also be implemented as a camera.

한편, 상술한 부분에서는, 사용자의 위치 이동에 따라 투과 영역을 정확하게 판단하기 위하여, 촬상부를 복수 개로 구비하거나, 촬상부를 회전시키는 실시 예에 대하여 설명한 바 있다. 하지만, 이 밖에, 촬상부도 사용자의 위치 이동에 따라 이동하도록 구현할 수도 있다.On the other hand, in the above-described portion, there has been described an embodiment in which a plurality of image pickup units are provided or the image pickup unit is rotated in order to accurately determine the transmission region according to the movement of the user. However, it is also possible to implement such that the imaging unit is moved in accordance with the movement of the user.

도 36은 본 발명의 또 다른 실시 예에 따른 투명 디스플레이 장치를 나타내는 도면이다. 도 35에 따르면, 투명 디스플레이 장치(100)의 상측에는 레일(36) 및 레일(36)을 따라 이동 가능한 이동체(3600)가 마련된다.36 is a view illustrating a transparent display device according to another embodiment of the present invention. 35, a moving body 3600 movable along the rails 36 and the rails 36 is provided on the upper side of the transparent display device 100.

제1 촬상부(111) 및 제2 촬상부(121)는 각각 서로 반대 방향을 향하도록 이동체(3600)에 부착된다. 이동체(3600)는 사용자의 위치에 따라 이동한다.The first imaging unit 111 and the second imaging unit 121 are attached to the moving body 3600 so as to face each other. The moving body 3600 moves according to the position of the user.

사용자가 존재하지 않는 대기 상태의 경우, 이동체(3600)는 투명 디스플레이부(140)의 중심부나 한쪽 끝 부분에서 고정된 상태로 대기할 수 있다.When the user is not present, the mobile unit 3600 can wait in a fixed state at the center or one end of the transparent display unit 140. [

이 중, 대기 상태에서 이동체(3600)가 투명 디스플레이부(140)의 중심부에 위치하는 경우를 예로 들면, 제어부(130)는 제2 촬상부(121)에서 촬상된 이미지에서 사용자가 최초 감지되면, 이미지 내에서의 사용자 위치를 판단한다. 제어부(130)는 사용자의 위치가 판단되면, 이미지의 중심을 기준으로 사용자가 위치한 방향으로 이동체(3600)를 이동시키면서 지속적으로 촬상을 수행한다. 이에 따라, 사용자가 중심에 위치한 이미지가 획득되면, 그 때부터는 사용자의 위치 이동 방향 및 속도에 따라 이동체(3600)를 이동시킨다. 상술한 바와 같이 제1 및 제2 촬상부(111, 121)가 각각 이동체(3600)에 부착된 상태이므로, 이동체(3600)의 이동에 의해 제1 촬상부(110)의 촬상 범위도 변경된다. 이에 따라, 제1 촬상부(110)에서 촬상된 이미지에서 검출된 물체의 식별 영역은, 사용자의 눈에 인식되는 투과 영역과 일치하게 된다. If the moving object 3600 is positioned at the center of the transparent display unit 140 in the standby state, the control unit 130 may detect the moving object 3600 in the standby state, for example, when the user first senses the image captured by the second imaging unit 121, And determines the user's position in the image. When the position of the user is determined, the controller 130 continuously captures the moving object 3600 while moving the moving object 3600 in a direction in which the user is positioned with respect to the center of the image. Accordingly, when an image positioned at the center of the user is obtained, the moving body 3600 is moved in accordance with the direction and velocity of the user's movement. The imaging range of the first imaging unit 110 is also changed by the movement of the moving body 3600 since the first and second imaging units 111 and 121 are attached to the moving body 3600 as described above. Thus, the identification region of the object detected in the image picked up by the first image sensing unit 110 coincides with the transmission region recognized by the user's eyes.

또는, 도 36에 도시된 바와 같이, 이동체(3600)가 한쪽 끝에서 대기하는 중에 사용자가 촬상 범위 내로 진입하는 경우를 예로 들면, 제어부(130)는 사용자가 중심에 위치하는 이미지가 획득될 때까지 이동체(3600)를 대기시킨다. 이러한 상태에서 연속적으로 촬상되는 이미지에서의 사용자 위치를 비교하여, 움직임 벡터를 산출한다. 제어부(130)는 사용자(10)가 중심에 위치한 이미지가 획득되면, 움직임 벡터에 따라 이동체(3600)를 이동시킨다. 이에 따라, 제1 촬상부(110)에서 촬상된 이미지에서 검출된 물체의 식별 영역은, 사용자의 눈에 인식되는 투과 영역과 일치하게 된다. Alternatively, as an example, when the user enters the imaging range while the mobile body 3600 is waiting at one end as shown in Fig. 36, the control unit 130 displays the image And causes the moving body 3600 to wait. In this state, user positions in an image continuously captured are compared to calculate a motion vector. The control unit 130 moves the moving object 3600 according to a motion vector when an image positioned at the center of the user 10 is acquired. Thus, the identification region of the object detected in the image picked up by the first image sensing unit 110 coincides with the transmission region recognized by the user's eyes.

그 밖에, 이동체(3600)는 사용자가 좌에서 우로 또는 우에서 좌로 지나가는 것이 아니라, 뒤쪽으로 멀어진 경우에는, 그 시점의 이동 위치에서 대기할 수도 있다. 또는, 대기 상태에서 주기적으로 좌우로 왕복하면서 사용자가 감지되는지 확인할 수도 있다. 이러한 다양한 경우에서도, 사용자가 감지되면 그 사용자가 감지된 위치로 이동체(3600)를 이동시켜, 사용자의 가시 범위 내에 들어오는 물체를 인식하고, 그에 대응되는 투과 영역을 결정하여 정보를 표시하여 줄 수 있게 된다.In addition, the moving body 3600 may wait at the moving position of the moving body 3600 when the user moves away from the left to right or from the right to the left. Alternatively, the user may check whether the user is detected while cyclically reciprocating left and right in the waiting state. Even in these various cases, when the user is detected, the moving object 3600 is moved to the detected position by the user, so that an object entering the visible range of the user is recognized, and the corresponding transmitting area is determined to display the information do.

이상과 같이, 본 발명의 다양한 실시 예에 따르면, 사용자의 위치 및 물체의 위치를 고려하여, 정보를 보다 효과적으로 전달할 수 있게 된다.As described above, according to various embodiments of the present invention, it is possible to more effectively convey information by considering the position of the user and the position of the object.

한편, 이러한 다양한 실시 예에 따른 방법들은 프로그래밍되어 각종 저장 매체에 저장될 수 있다. 이에 따라, 저장 매체를 실행하는 다양한 유형의 전자 장치에서 상술한 다양한 실시 예에 따른 방법들이 구현될 수 있다.Meanwhile, the methods according to various embodiments may be programmed and stored in various storage media. As such, the methods according to various embodiments described above can be implemented in various types of electronic devices that execute the storage medium.

구체적으로는, 본 발명의 일 실시 예에 따르면, 투명 디스플레이부의 물체의 위치 및 사용자의 위치를 각각 감지하는 단계, 감지된 위치를 기초로 투과 영역을 추정하는 단계, 추정된 투과 영역에 포함되는 정보의 표시 위치를 이동하는 단계를 순차적으로 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다. Specifically, according to an embodiment of the present invention, there is provided a method for controlling a display device, comprising: sensing a position of an object and a position of a user of a transparent display unit; estimating a transmission area based on the sensed position; A non-transitory computer readable medium may be provided in which a program for sequentially performing the step of moving the display position of the non-transitory computer readable medium is provided.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.A non-transitory readable medium is a medium that stores data for a short period of time, such as a register, cache, memory, etc., but semi-permanently stores data and is readable by the apparatus. In particular, the various applications or programs described above may be stored on non-volatile readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM,

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.

110 : 제1 감지부               120 : 제2 감지부
130 : 제어부                 140 : 투명 디스플레이부
110: first sensing unit 120: second sensing unit
130: Control section 140: Transparent display section

Claims (24)

정보를 디스플레이하는 디스플레이;
상기 디스플레이로부터 제1 방향에 있는 물체의 위치를 감지하는 제1 감지부;
상기 디스플레이로부터 제2 방향에 있는 사용자의 위치를 감지하는 제2 감지부;
상기 감지된 물체의 위치 및 사용자의 위치를 기반으로, 상기 사용자의 위치에서 상기 디스플레이 상에 상기 물체가 투과되어 보이는 제1 영역을 판단하고, 상기 판단된 제1 영역에 기초하여 상기 디스플레이 상에서 상기 판단된 제1 영역과 오버랩되지 않는 제2 영역에 상기 정보를 디스플레이하도록 상기 디스플레이를 제어하는 제어부;를 포함하는 디스플레이 장치.
A display for displaying information;
A first sensing unit for sensing a position of an object in a first direction from the display;
A second sensing unit for sensing a position of a user in a second direction from the display;
Based on the position of the sensed object and the position of the user, determines a first area in which the object is seen to be transmitted on the display at the position of the user, and based on the determined first area, And controls the display to display the information in a second area that does not overlap with the first area.
제1항에 있어서,
상기 제1 감지부는,
상기 디스플레이의 제1 방향에 있는 상기 물체를 포함하는 적어도 하나의 사물을 촬상하는 제1 촬상부;
상기 촬상된 적어도 하나의 사물의 이미지 픽셀 정보를 이용하여 에지를 검출하는 제1 검출부;
상기 검출된 에지를 이용하여 상기 적어도 하나의 사물 중에서 상기 물체를 식별하고, 상기 식별된 물체의 위치 및 식별 영역을 검출하는 제2 검출부;를 포함하는 디스플레이 장치.
The method according to claim 1,
Wherein the first sensing unit comprises:
A first image sensing unit for sensing at least one object including the object in a first direction of the display;
A first detection unit detecting an edge using image pixel information of the at least one object picked up;
And a second detecting unit that identifies the object among the at least one object using the detected edge, and detects a position and an identification area of the identified object.
제2항에 있어서,
상기 제어부는,
상기 검출된 식별 영역의 크기 및 위치를 이용하여 상기 사용자의 위치에서 상기 디스플레이 상에 상기 물체가 투과되어 보이는 영역을 판단하는 디스플레이 장치.
3. The method of claim 2,
Wherein,
And determines an area through which the object is visible on the display at the position of the user using the size and position of the detected identification area.
제2항에 있어서,
상기 디스플레이는,
기 설정된 사이즈의 가상 분할 영역으로 구분되고,
상기 제어부는,
상기 가상 분할 영역 중에서 상기 식별 영역이 차지하는 영역을 상기 물체가 투과되어 보이는 영역으로 판단하는 것을 특징으로 하는 디스플레이 장치.
3. The method of claim 2,
Wherein the display comprises:
Divided into virtual partition areas of a predetermined size,
Wherein,
And determines an area occupied by the identification area among the virtual divided areas as an area visible through the object.
제4항에 있어서,
상기 가상 분할 영역은 매트릭스 테이블로 매핑되고,
상기 제어부는,
상기 매트릭스 테이블 내에서 상기 물체가 투과되어 보이는 영역에 매핑되는 셀과, 상기 정보의 표시 영역에 매핑되는 셀 간의 상관 관계에 따라, 상기 정보의 표시 위치를 조정하는 것을 특징으로 하는 디스플레이 장치.
5. The method of claim 4,
The virtual partition area is mapped to a matrix table,
Wherein,
And adjusts the display position of the information according to a correlation between a cell mapped to an area where the object is seen through in the matrix table and a cell mapped to the display area of the information.
제5항에 있어서,
상기 제어부는,
상기 정보의 표시 위치를 조정하면서, 상기 정보의 표시 속성을 변경하며,
상기 표시 속성은, 정보 표시 영역의 크기, 컬러, 굵기, 폰트, 배경색 중 적어도 하나인 것을 특징으로 하는 디스플레이 장치.
6. The method of claim 5,
Wherein,
Changes the display attribute of the information while adjusting the display position of the information,
Wherein the display attribute is at least one of a size, a color, a thickness, a font, and a background color of the information display area.
제5항에 있어서,
상기 매트릭스 테이블이 저장된 저장부;를 더 포함하며,
상기 제어부는
상기 매트릭스 테이블 내의 각 셀 중에서 상기 제1 감지부에서 감지된 상기 물체의 위치에 매칭되는 셀과, 상기 제2 감지부에서 감지된 상기 사용자의 위치에 매칭되는 셀의 중복 영역 또는 가산 영역과, 상기 정보의 표시 영역의 적어도 일부가 겹치면 상기 정보의 표시 위치를 타 영역으로 이동시키는 것을 특징으로 하는 디스플레이 장치.
6. The method of claim 5,
And a storage unit in which the matrix table is stored,
The control unit
A cell matching the position of the object detected by the first sensing unit among the cells in the matrix table and an overlapping or adding area of a cell matched to the position of the user detected by the second sensing unit; And the display position of the information is moved to another area if at least a part of the display area of the information overlaps.
제2항에 있어서,
상기 제1 촬상부는, 복수 개이며,
상기 제2 감지부는,
상기 디스플레이를 기준으로 상기 복수 개의 제1 촬상부와 대칭되도록 배치된 복수 개의 제2 촬상부를 포함하고,
상기 제어부는,
상기 복수 개의 제2 촬상부 중에서 상기 사용자의 위치를 검출하기 위해 이용된 이미지를 촬영한 제2 촬상부와 대칭되도록 배치된 제1 촬상부를 이용하여 촬상을 수행하는 것을 특징으로 하는 디스플레이 장치.
3. The method of claim 2,
Wherein the first image pickup unit has a plurality of first image pickup units,
Wherein the second sensing unit comprises:
And a plurality of second image sensing units arranged to be symmetrical with respect to the plurality of first sensing units based on the display,
Wherein,
Wherein the image pickup is performed using a first image pickup unit arranged to be symmetrical with a second image pickup unit which has taken an image used for detecting the position of the user out of the plurality of second image pickup units.
제2항에 있어서,
상기 제1 촬상부는 상기 사용자의 위치에 따라 회전 가능한 것을 특징으로 하는 디스플레이 장치.
3. The method of claim 2,
Wherein the first image sensing unit is rotatable according to a position of the user.
제1항에 있어서,
상기 제2 감지부는,
상기 제2 방향으로 촬상을 수행하는 제2 촬상부;
상기 제2 촬상부에서 촬상된 이미지를 이용하여 상기 사용자의 위치를 검출하는 사용자 위치 검출부;를 포함하며,
상기 제어부는 상기 사용자의 위치를 이용하여 상기 사용자의 가시 범위를 추정하고, 상기 사용자의 가시 범위 내에서 상기 정보를 표시하는 것을 특징으로 하는 디스플레이 장치.
The method according to claim 1,
Wherein the second sensing unit comprises:
A second imaging unit that performs imaging in the second direction;
And a user position detector for detecting the position of the user using the image picked up by the second image pickup unit,
Wherein the controller estimates the visible range of the user using the position of the user and displays the information within the visible range of the user.
제1항에 있어서,
상기 제어부는,
상기 사용자와의 거리에 따라, 상기 정보가 디스플레이되는 영역의 크기를 상이하게 조정하는 것을 특징으로 하는 디스플레이 장치.
The method according to claim 1,
Wherein,
And adjusts the size of an area in which the information is displayed according to the distance from the user.
제1항에 있어서,
상기 제어부는,
상기 제2 감지부에서 감지된 상기 사용자의 위치가 이동되는 경우, 상기 이동된 사용자의 위치를 기반으로 상기 디스플레이 상에 상기 물체가 투과되어 보이는 제1 영역을 판단하는 것을 특징으로 하는 디스플레이 장치.
The method according to claim 1,
Wherein,
Wherein the control unit determines the first area in which the object is viewed through the display based on the position of the moved user when the position of the user sensed by the second sensing unit is moved.
디스플레이를 포함하는 디스플레이 장치의 디스플레이 방법에 있어서,
상기 디스플레이로부터 제1 방향에 있는 물체의 위치를 감지하는 단계;
상기 디스플레이로부터 제2 방향에 있는 사용자의 위치를 감지하는 단계;
상기 감지된 물체의 위치 및 사용자의 위치를 기반으로, 상기 사용자의 위치에서 상기 디스플레이 상에 상기 물체가 투과되어 보이는 제1 영역을 판단하는 단계; 및
상기 판단된 제1 영역에 기초하여 상기 디스플레이 상에서 상기 판단된 제1 영역과 오버랩되지 않는 제2 영역에 정보를 디스플레이하는 단계;를 포함하는 디스플레이 방법.
A display method of a display device including a display,
Sensing a position of an object in a first direction from the display;
Sensing a position of a user in a second direction from the display;
Determining a first region in which the object is viewed through the display on the basis of the position of the sensed object and the position of the user; And
And displaying information on a second area on the display that is not overlapped with the determined first area based on the determined first area.
제13항에 있어서,
상기 물체의 위치를 감지하는 단계는,
상기 디스플레이의 제1 방향에 있는 상기 물체를 포함하는 적어도 하나의 사물을 촬상하는 단계;
상기 촬상된 적어도 하나의 사물의 이미지 픽셀 정보를 이용하여 에지를 검출하는 단계;
상기 검출된 에지를 이용하여 상기 적어도 하나의 사물 중에서 상기 물체를 식별하고, 상기 식별된 물체의 위치 및 식별 영역을 검출하는 단계;를 포함하는 디스플레이 방법.
14. The method of claim 13,
Wherein sensing the position of the object comprises:
Imaging at least one object comprising the object in a first direction of the display;
Detecting an edge using image pixel information of said at least one object;
Identifying the object from the at least one object using the detected edge, and detecting a position and an identification region of the identified object.
제14항에 있어서,
상기 판단하는 단계는,
상기 검출된 식별 영역의 크기 및 위치를 이용하여 상기 사용자의 위치에서 상기 디스플레이 상에 상기 물체가 투과되어 보이는 영역을 판단하는 것을 특징으로 하는 디스플레이 방법.
15. The method of claim 14,
Wherein the determining step comprises:
And determining an area where the object is visible on the display at the position of the user using the size and position of the detected identification area.
제14항에 있어서,
상기 판단하는 단계는,
상기 디스플레이를 기 설정된 사이즈의 가상 분할 영역으로 구분하고, 상기 가상 분할 영역 중에서 상기 식별 영역이 차지하는 영역을 상기 물체가 투과되어 보이는 영역으로 판단하는 것을 특징으로 하는 디스플레이 방법.
15. The method of claim 14,
Wherein the determining step comprises:
Wherein the display is divided into a virtual divided area of a predetermined size and an area occupied by the identification area in the virtual divided area is determined as an area visible through the object.
제16항에 있어서,
상기 가상 분할 영역은 매트릭스 테이블로 매핑되고,
상기 정보를 디스플레이하는 단계는,
상기 매트릭스 테이블 내에서 상기 물체가 투과되어 보이는 영역에 매핑되는 셀과, 상기 정보의 표시 영역에 매핑되는 셀 간의 상관 관계에 따라, 상기 정보의 표시 위치를 조정하여 디스플레이하는 것을 특징으로 하는 디스플레이 방법.
17. The method of claim 16,
The virtual partition area is mapped to a matrix table,
Wherein the step of displaying the information comprises:
Wherein a display position of the information is adjusted and displayed according to a correlation between a cell mapped to an area where the object is seen through in the matrix table and a cell mapped to the display area of the information.
제17항에 있어서,
상기 정보의 표시 속성을 변경하는 단계;를 더 포함하며,
상기 표시 속성은, 정보 표시 영역의 크기, 컬러, 굵기, 폰트, 배경색 중 적어도 하나인 것을 특징으로 하는 디스플레이 방법.
18. The method of claim 17,
And changing a display attribute of the information,
Wherein the display attribute is at least one of a size, a color, a thickness, a font, and a background color of the information display area.
제17항에 있어서,
상기 매트릭스 테이블을 저장하는 단계;를 더 포함하며,
상기 정보를 디스플레이하는 단계는,
상기 매트릭스 테이블 내의 각 셀 중에서 상기 감지된 상기 물체의 위치에 매칭되는 셀과, 상기 감지된 상기 사용자의 위치에 매칭되는 셀의 중복 영역 또는 가산 영역과, 상기 정보의 표시 영역의 적어도 일부가 겹치면 상기 정보의 표시 위치를 타 영역으로 이동시켜 디스플레이하는 것을 특징으로 하는 디스플레이 방법.
18. The method of claim 17,
And storing the matrix table,
Wherein the step of displaying the information comprises:
A cell matched to a position of the sensed object among the cells in the matrix table; an overlapping or adding region of a cell matched to the sensed position of the user; and, if at least a part of the display region of the information overlaps, The display position of the information is moved to another area and displayed.
제14항에 있어서,
상기 디스플레이 장치는,
상기 물체의 위치를 감지하기 위한 복수 개의 제1 촬상부 및 상기 디스플레이를 기준으로 상기 복수 개의 제1 촬상부와 대칭되도록 배치되어 상기 사용자의 위치를 감지하기 위한 복수 개의 제2 촬상부를 포함하고,
상기 촬상하는 단계는,
상기 복수 개의 제2 촬상부 중에서 상기 사용자의 위치를 검출하기 위해 이용된 이미지를 촬영한 제2 촬상부와 대칭되도록 배치된 제1 촬상부를 이용하여 촬상을 수행하는 것을 특징으로 하는 디스플레이 방법.
15. The method of claim 14,
The display device includes:
A plurality of first image sensing units for sensing the position of the object and a plurality of second image sensing units arranged to be symmetrical with respect to the plurality of first sensing units on the basis of the display,
Wherein the imaging comprises:
Wherein imaging is performed using a first imaging unit arranged to be symmetrical with a second imaging unit that has captured an image used to detect the position of the user out of the plurality of second imaging units.
제14항에 있어서,
상기 촬상하는 단계는,
상기 디스플레이 장치에 마련된 제1 촬상부를 상기 사용자의 위치에 따라 회전시켜 촬상하는 것을 특징으로 하는 디스플레이 방법.
15. The method of claim 14,
Wherein the imaging comprises:
Wherein the first imaging section provided in the display device is rotated according to the position of the user to pick up the image.
제13항에 있어서,
상기 사용자의 위치를 감지하는 단계는,  
상기 제2 방향으로 촬상을 수행하는 단계;
상기 촬상된 이미지를 이용하여 상기 사용자의 위치를 검출하는 단계;
상기 사용자의 위치를 이용하여 상기 사용자의 가시 범위를 추정하는 단계;를 포함하며,
상기 정보를 디스플레이하는 단계는,
상기 사용자의 가시 범위 내에서 상기 정보를 표시하는 것을 특징으로 하는 디스플레이 방법.
14. The method of claim 13,
The step of sensing the position of the user comprises:
Performing imaging in the second direction;
Detecting a position of the user using the captured image;
And estimating a visible range of the user using the position of the user,
Wherein the step of displaying the information comprises:
Wherein the information is displayed within a visible range of the user.
제13항에 있어서,
상기 사용자와의 거리를 검출하는 단계;
상기 사용자와의 거리에 따라, 상기 정보가 디스플레이되는 영역의 크기를 상이하게 조정하는 단계;를 더 포함하는 것을 특징으로 하는 디스플레이 방법.
14. The method of claim 13,
Detecting a distance to the user;
And adjusting the size of the area in which the information is displayed according to the distance from the user.
제13항에 있어서,
상기 판단하는 단계는,
상기 감지된 사용자의 위치가 이동되는 경우, 상기 이동된 사용자의 위치를 기반으로 상기 디스플레이 상에 상기 물체가 투과되어 보이는 제1 영역을 판단하는 것을 특징으로 하는 디스플레이 방법. 
14. The method of claim 13,
Wherein the determining step comprises:
Wherein the controller determines the first area in which the object is viewed through the display based on the position of the moved user when the detected position of the user is moved.
KR1020170142444A 2017-10-30 2017-10-30 Transparent display apparatus and method thereof KR101896099B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170142444A KR101896099B1 (en) 2017-10-30 2017-10-30 Transparent display apparatus and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170142444A KR101896099B1 (en) 2017-10-30 2017-10-30 Transparent display apparatus and method thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020120036475A Division KR101793628B1 (en) 2012-04-08 2012-04-08 Transparent display apparatus and method thereof

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020180103994A Division KR101971521B1 (en) 2018-08-31 2018-08-31 Transparent display apparatus and method thereof

Publications (2)

Publication Number Publication Date
KR20170125306A true KR20170125306A (en) 2017-11-14
KR101896099B1 KR101896099B1 (en) 2018-09-07

Family

ID=60387515

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170142444A KR101896099B1 (en) 2017-10-30 2017-10-30 Transparent display apparatus and method thereof

Country Status (1)

Country Link
KR (1) KR101896099B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114518921A (en) * 2020-11-20 2022-05-20 财团法人工业技术研究院 Transparent display system and control method and control device thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110136012A (en) * 2010-06-14 2011-12-21 주식회사 비즈모델라인 Augmented reality device to track eyesight direction and position
KR20120029228A (en) * 2010-09-16 2012-03-26 엘지전자 주식회사 Transparent display device and method for providing object information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110136012A (en) * 2010-06-14 2011-12-21 주식회사 비즈모델라인 Augmented reality device to track eyesight direction and position
KR20120029228A (en) * 2010-09-16 2012-03-26 엘지전자 주식회사 Transparent display device and method for providing object information

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114518921A (en) * 2020-11-20 2022-05-20 财团法人工业技术研究院 Transparent display system and control method and control device thereof

Also Published As

Publication number Publication date
KR101896099B1 (en) 2018-09-07

Similar Documents

Publication Publication Date Title
KR101793628B1 (en) Transparent display apparatus and method thereof
US10509460B2 (en) Transparent display apparatus and method thereof
TWI624786B (en) Multi-display apparatus and method of controlling display thereof
US9367153B2 (en) Display apparatus and method thereof
KR102126503B1 (en) Display apparatus and control method thereof
US9389703B1 (en) Virtual screen bezel
KR20160015775A (en) transparent display apparatus and control method thereof
KR101971521B1 (en) Transparent display apparatus and method thereof
KR101896099B1 (en) Transparent display apparatus and method thereof
KR102231587B1 (en) Display apparatus and control method thereof
KR102113301B1 (en) Display apparatus and control method thereof

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right