WO2015072604A1 - 투명 디스플레이 장치와 그의 제어방법 - Google Patents

투명 디스플레이 장치와 그의 제어방법 Download PDF

Info

Publication number
WO2015072604A1
WO2015072604A1 PCT/KR2013/010383 KR2013010383W WO2015072604A1 WO 2015072604 A1 WO2015072604 A1 WO 2015072604A1 KR 2013010383 W KR2013010383 W KR 2013010383W WO 2015072604 A1 WO2015072604 A1 WO 2015072604A1
Authority
WO
WIPO (PCT)
Prior art keywords
display panel
transparent display
indicator
displayed
person
Prior art date
Application number
PCT/KR2013/010383
Other languages
English (en)
French (fr)
Inventor
이건호
Original Assignee
엘지전자(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자(주) filed Critical 엘지전자(주)
Priority to US15/036,772 priority Critical patent/US9990034B2/en
Priority to PCT/KR2013/010383 priority patent/WO2015072604A1/ko
Publication of WO2015072604A1 publication Critical patent/WO2015072604A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects

Definitions

  • the present invention relates to a transparent display device and a control method thereof.
  • the display device is changing in various forms according to the needs of consumers. For example, recently, a transparent display device that is implemented to be transparent such as glass has been developed. Since the transparent display device is implemented to be transparent, a user can view an object or a landscape that is located on the back of the transparent display device and is covered by the transparent display device through the transparent display device.
  • the transparent display device may be implemented as follows.
  • the transparent display device is implemented as a show window displaying goods of a store
  • information of the products may be displayed on the transparent display device.
  • the transparent display device is implemented as a digital signage displaying digital information
  • not only an object or a landscape can be viewed through the transparent display device, but also various digital information can be displayed through the transparent display device. Can be.
  • the utilization of the transparent display device can be significantly increased.
  • the present invention provides a transparent display device and a method of controlling the same, which detect a direction of a person's gaze toward a transparent display device and control the transparent display device according to the direction of a person's gaze.
  • a transparent display device is implemented transparently and at the same time displays an image;
  • a first gaze detection sensor for detecting a gaze direction of a person looking at the first transparent display panel;
  • a control unit configured to display the detailed information of the object on the first transparent display panel when the eyes of the person are directed to an object disposed on the rear surface of the first transparent display panel by analyzing the direction of the person's eyes.
  • a control method of a transparent display device including a first transparent display panel which is implemented transparently and displays an image, the method comprising: A first step of detecting the direction of the eyes of the person looking at the transparent display panel; And analyzing the direction of the person's eyes to display detailed information of the object on the first transparent display panel when the eyes of the person are directed to an object positioned on the rear surface of the first transparent display panel.
  • the present invention determines whether a person's eyes are directed to an object, and accordingly displays detailed information of an indicator or an object on the transparent display panel. As a result, the present invention can provide detailed information about the object to the person viewing the object using the transparent display device. For this reason, the present invention can increase service satisfaction for a person by utilizing a transparent display device.
  • FIG. 1 is a perspective view showing a transparent display device according to an embodiment of the present invention.
  • FIG. 2 is a block diagram of the transparent display device of FIG. 1.
  • FIG. 3 is a flowchart illustrating a control method of a transparent display device according to a first embodiment of the present invention.
  • 4A to 4C are exemplary views showing a transparent display device and a person looking at the case of FIG. 3.
  • FIG. 5 is a flowchart illustrating a control method of a transparent display device according to a second embodiment of the present invention.
  • 6A to 6E are exemplary views showing a transparent display device and a person looking at the case of FIG. 5.
  • FIG. 7 is a perspective view illustrating a transparent display device according to still another embodiment of the present invention.
  • FIG. 8 is a block diagram of the transparent display device of FIG. 7.
  • FIG. 9 is a flowchart illustrating a control method of a transparent display device according to a third embodiment of the present invention.
  • 10A to 10F are exemplary views illustrating a transparent display device and a person looking at the case of FIG. 9.
  • FIG. 11 is a perspective view illustrating a transparent display device according to still another embodiment of the present invention.
  • FIG. 12 is a block diagram of the transparent display device of FIG. 11.
  • FIG. 13 is a flowchart illustrating a control method of a transparent display device according to a fourth embodiment of the present invention.
  • 14A to 14F are exemplary views illustrating a transparent display device and a person looking at the case of FIG. 13.
  • FIG. 15 is a perspective view illustrating a transparent display device according to still another embodiment of the present invention.
  • FIG. 16 is a block diagram of the transparent display device of FIG. 15.
  • FIG. 17 is a flowchart illustrating a control method of a transparent display device according to a fifth embodiment of the present invention.
  • 18A to 18F are exemplary views illustrating a transparent display device and a person looking at the case of FIG. 17.
  • FIG. 1 is a perspective view illustrating a transparent display device according to an exemplary embodiment of the present invention.
  • FIG. 2 is a block diagram of the transparent display device of FIG. 1. 1 and 2, a transparent display device according to an exemplary embodiment of the present invention may include a first transparent display panel 100, a first transparent display panel driver 110, a first gaze detection sensor 200, and a gaze direction.
  • the first transparent display panel 100 may be implemented as a flat panel display device such as a liquid crystal display (LCD) and an organic light emitting diode (OLED).
  • LCD liquid crystal display
  • OLED organic light emitting diode
  • the first transparent display panel 100 is described as being implemented as a liquid crystal display device, but it should be noted that the present invention is not limited thereto.
  • the first transparent display panel 100 includes a liquid crystal layer formed between two glass substrates.
  • a plurality of data lines and a plurality of gate lines intersect the lower glass substrate of the first transparent display panel 100.
  • Liquid crystal cells are arranged in a matrix in cell regions defined by the intersection structure of the data lines and the gate lines.
  • a thin film transistor (TFT), a pixel electrode of a liquid crystal cell connected to the TFT, and a storage capacitor are formed on a lower glass substrate of the first transparent display panel 100.
  • the thin film transistor supplies the data voltage of the data line to the pixel electrode of the liquid crystal cell in response to the gate pulse of the gate line.
  • the liquid crystal cells are driven by an electric field generated by the potential difference between the data voltage supplied to the pixel electrode and the common voltage supplied to the common electrode to adjust the amount of light transmitted through the first transparent display panel 100.
  • a black matrix, a color filter, and a common electrode are formed on the upper glass substrate of the first transparent display panel 100.
  • the common electrode is formed on the upper glass substrate in the vertical electric field driving method such as twisted nematic (TN) mode and vertical alignment (VA) mode, and the horizontal electric field driving such as IPS (In Plane Switching) mode and FFS (Fringe Field Switching) mode
  • the pixel electrode is formed on the lower glass substrate.
  • An upper polarizer is attached to the upper glass substrate of the first transparent display panel 100, and a lower polarizer is attached to the lower glass substrate.
  • the upper polarizer and the lower polarizer may be perpendicular to each other.
  • the alignment film for setting the pretilt angle of a liquid crystal is formed in the inner surface which contact
  • the first transparent display panel 100 may be implemented to be transparent and to display an image. Specifically, the liquid crystal cells of the first transparent display panel 100 display an image by expressing black gray, gray gray and white gray. In this case, a backlight must be supplied to the first transparent display panel 100. In addition, the liquid crystal cells of the first transparent display panel 100 may be implemented transparently by expressing peak white gray level. In this case, the backlight is not supplied to the first transparent display panel 100. For example, when an image is displayed only in a partial area of the first transparent display panel 100 and the remaining area is transparent, the backlight is supplied to the partial area and the backlight is not supplied to the remaining area. On the other hand, in 256 gradations of 8 bits, the peak black gradation indicates G0 and the peak white gradation indicates G255.
  • the first transparent display panel driver 110 supplies a plurality of signals for driving the first transparent display panel 100.
  • the first transparent display panel driver 110 includes a first gate driver 111, a first data driver 112, and a first timing controller 113.
  • the first data driver 112 may be composed of a plurality of data drive integrated circuits.
  • the first data driver 112 converts the digital video data into positive / negative analog data voltages under the control of the first timing controller 113 using the positive / negative gamma compensation voltage and then displays the first transparent display. Supply to the data lines of the panel 100.
  • the first gate driver 110 sequentially outputs gate pulses (or scan pulses) to select liquid crystal cells to which data voltages are supplied under the control of the first timing controller 113, thereby controlling the first transparent display panel 100. Supply to the gate lines.
  • the first timing controller 113 receives digital video data and timing signals input from the controller 300.
  • the timing signals may include a vertical synchronization signal, a horizontal synchronization signal, a data enable signal, a dot clock signal, and the like.
  • the first timing controller 113 generates timing control signals for controlling the operation timing of the first data driver 112 and the first gate driver 111 based on the digital video data and the timing signals.
  • the first timing controller 113 outputs timing control signals to the first data driver 112 and the first gate driver 111 to control the timing of the first data driver 112 and the first gate driver 111. do.
  • the transparent display device When the first transparent display panel 100 is implemented as a liquid crystal display device, the transparent display device further includes a backlight unit (not shown) for supplying a backlight to the first transparent display panel 100.
  • a backlight unit (not shown) for supplying a backlight to the first transparent display panel 100.
  • the backlight unit (not shown) includes a light source array, a light guide plate, and the like, and may be implemented as an edge type backlight unit.
  • the light guide plate is disposed under the first transparent display panel 100 and the light source array is disposed on the side surface of the light guide plate.
  • the light sources may be implemented as light emitting diodes having advantages of high efficiency, high brightness, and low power consumption.
  • the light sources are turned on and off by receiving a driving current from the light source driver.
  • the light guide plate converts light from light sources of the light source array into a surface light source and irradiates the display panel.
  • the light guide plate is made of a transparent material.
  • the first gaze detection sensor 200 is a sensor for detecting a gaze of a person looking at the first transparent display panel 100 from the front of the first transparent display panel 100.
  • the first gaze sensor 200 may be disposed on an upper surface of the first transparent display panel 100 as shown in FIG. 1.
  • the first gaze detection sensor 200 may be implemented as a Charged Coupled Device (CCD) camera sensor or a Complementary Metal Oxide Semiconductor (CMOS) camera sensor.
  • CCD Charged Coupled Device
  • CMOS Complementary Metal Oxide Semiconductor
  • the gaze direction determination unit 210 analyzes the image data to calculate the position coordinates of the person looking at the first transparent display panel 100 and calculates the gaze direction of the person.
  • the controller 300 determines where the eyes of the person are directed based on the position coordinates of the person and the direction of the eyes of the person calculated by the eye gaze direction determining unit 210.
  • An algorithm for determining where the direction of the human eye is directed may be implemented by any of the known algorithms.
  • the controller 300 controls the overall operation of the transparent display device.
  • the controller 300 controls the transparent display device according to the direction of the human eye. That is, the controller 300 controls the first transparent display panel 100 according to whether the direction of the human eye is directed to the object.
  • the controller 300 receives the digital image data stored in the memory (not shown) and controls the output of the input digital image data to the first transparent display panel driver 110 to make the first transparent display panel 100 transparent.
  • the information may be displayed on the first transparent display panel 100.
  • the transparent display device the digital image data for transparently implementing the first transparent display panel 100 and the digital image data corresponding to the information displayed on the first transparent display panel 100 Memory (not shown) to store, an interface unit (not shown) that serves as a path for connecting the transparent display device to an external device, and a power supply unit (not shown) for supplying power required to each of the components of the transparent display device. And the like can be further provided.
  • FIG. 3 is a flowchart illustrating a control method of a transparent display device according to a first embodiment of the present invention.
  • 4A to 4C are exemplary views illustrating a transparent display device and a person looking at the transparent display device in FIG. 3. 3 and 4A to 4C, when a line of sight of a person looking at the first transparent display panel 100 is directed to an object positioned on the rear surface of the first transparent display panel 100, the first transparent display panel 100 is illustrated. How to control is shown in detail.
  • the controller 300 transmits digital image data of peak white gray levels to the first transparent display panel driver 110 so as to transparently implement the first transparent display panel 100.
  • the first transparent display panel 100 is implemented to be transparent, a person PSN positioned at the front of the first transparent display panel 100 and looking at the first transparent display panel 100 may display the first transparent display.
  • the panel 100 can see the object.
  • the controller 300 determines whether the gaze of the person PSN looking at the first transparent display panel 100 is directed to the object.
  • the first gaze sensor 200 generates image data by capturing an image of a person PSN looking at the first transparent display panel 100 from the front of the first transparent display panel 100.
  • the image data can be output to the gaze direction determination unit 210.
  • the gaze direction determining unit 210 may analyze the image data to calculate the position coordinates of the user and calculate the gaze direction of the user.
  • the controller 300 may determine whether the user's gaze is directed to the object based on the position coordinates of the user, the direction of the user's gaze, and the position coordinates of the object previously stored in the memory. have.
  • the controller 300 continuously implements the first transparent display panel 100 transparently when the line of sight of the person PSN facing the first transparent display panel 100 does not face the object.
  • the controller 300 may display the object OBJ as illustrated in FIG. 4B.
  • An indicator (IND) is controlled to be displayed on the first transparent display panel 100.
  • the indicator IND is an identification mark for attracting the user's attention.
  • the indicator IND has been described based on the implementation of " ⁇ " in FIG. 4B, but is not limited thereto. That is, the indicator IND may be implemented in any form, such as a circle, a triangle, and a rectangle.
  • the indicator IND may be displayed in front of the object OBJ on the first transparent display panel 100.
  • the display position of the indicator IND may be adjusted according to the position of the person PSN looking at the object OBJ. For example, when the person PSN looking at the object OBJ is located on the left side of the object OBJ, as shown in FIG. 4B, the indicator IND may be configured to correspond to the object OBJ of the first transparent display panel 100. It may be displayed on the front left side. In this case, the person PSN looking at the object OBJ can more easily recognize the indicator IND. (S103)
  • the controller 300 determines whether the gaze of the person PSN is directed to the indicator IND.
  • the controller 300 controls the indicator IND to disappear from the first transparent display panel 100 when the line of sight of the person PSN does not face the indicator IND for a predetermined period of time.
  • the controller 300 controls to display the detailed information DI of the object on the first transparent display panel 100 as shown in FIG. 4C. do.
  • the detailed information DI of the object may be any information as long as it is information for expressing the object OBJ such as a window, an image, or a video including text.
  • the detailed information DI of the object may be displayed at the position where the indicator IND is displayed. That is, the detailed information DI of the object may be displayed in front of the object OBJ on the first transparent display panel 100. Also, the display position of the detailed information DI of the object may be adjusted according to the position of the person PSN looking at the object OBJ. For example, when the person PSN looking at the object OBJ is located on the left side of the object OBJ as shown in FIG. 4C, the detailed information DI of the object is displayed on the object OBJ in the first transparent display panel 100. ) May be displayed on the front left side. In this case, the person PSN who views the object OBJ can more easily recognize the detailed information DI of the object. Alternatively, the detailed information DI of the object may be displayed on the entire first transparent display panel 100. (S104, S105, S106)
  • the controller 300 determines whether the gaze of the person PSN is directed to the detailed information DI of the object for a predetermined period of time. If the line of sight of the person PSN does not point to the detailed information DI of the object, the controller 300 controls the detailed information DI of the object to disappear from the first transparent display panel 100. In addition, when the gaze of the person PSN is directed to the detailed information DI of the object, the controller 300 controls to continuously display the detailed information DI of the object on the first transparent display panel 100. (S107, S108)
  • steps S103 to S105 may be omitted in the first embodiment of the present invention.
  • the gaze of the person PSN looking at the first transparent display panel 100 is directed toward the object OBJ, the detailed information DI of the object is immediately displayed without the indicator IND. May be displayed on the first transparent display panel 100.
  • the control method of the transparent display device determines whether the eyes of the person PSN are directed to the object OBJ, the indicator IND, or the detailed information DI of the object. In response to the determination, detailed information of the indicator IND or the object is displayed on the first transparent display panel 100 in a partial area.
  • information on the object OBJ may be provided to the person PSN who views the object OBJ using the transparent display device. That is, the first embodiment of the present invention can increase service satisfaction for a person PSN by utilizing a transparent display device.
  • FIG. 5 is a flowchart illustrating a control method of a transparent display device according to a second embodiment of the present invention.
  • 6A through 6E are exemplary views illustrating a transparent display device and a person looking at the same in FIG. 5.
  • 5 and 6A to 6E when a line of sight of a person looking at the first transparent display panel 100 is directed to any one of a plurality of objects positioned on the rear surface of the first transparent display panel 100, the first transparent display is shown.
  • the method of controlling the panel 100 is shown in detail. That is, the second exemplary embodiment of the present invention relates to a method of controlling the transparent display apparatus when a plurality of objects are positioned on the rear surface of the first transparent display panel 100.
  • n is a natural number of 2 or more objects may be disposed on the rear surface of the first transparent display panel 100.
  • the controller 300 transmits digital image data of peak white gray levels to the first transparent display panel driver 110 so as to transparently implement the first transparent display panel 100.
  • the first transparent display panel 100 is implemented to be transparent, a person PSN positioned at the front of the first transparent display panel 100 and looking at the first transparent display panel 100 may display the first transparent display. A plurality of objects can be viewed through the panel 100.
  • the controller 300 determines whether the gaze of the person PSN facing the first transparent display panel 100 is directed to any one of the plurality of objects.
  • the first gaze sensor 200 generates image data by capturing an image of a person PSN looking at the first transparent display panel 100 from the front of the first transparent display panel 100.
  • the image data can be output to the gaze direction determination unit 210.
  • the gaze direction determining unit 210 may analyze the image data to calculate the position coordinates of the user and calculate the gaze direction of the user.
  • the controller 300 is based on the position coordinates of the user calculated by the eye gaze direction determining unit 210, the eye gaze direction of the user, and the position coordinates of each of the plurality of objects previously stored in the memory. You can determine which one you are heading to.
  • the controller 300 continuously implements the first transparent display panel 100 when the line of sight of the person PSN facing the first transparent display panel 100 does not point to any one of the plurality of objects. (S202)
  • the controller 300 may be configured as shown in FIG. 6B.
  • the first indicator IND1 of the first object OBJ1 is controlled to be displayed on the first transparent display panel 100.
  • the controller 300 controls the first transparent display panel 100 to display a second indicator IND2 that leads to looking at the object associated with the first object OBJ1.
  • An object related to the first object OBJ1 may be an object having a shape, shape, function, property, material, or property similar to that of the first object OBJ1.
  • the second object OBJ2 is illustrated as an object related to the first object OBJ1.
  • the first and second indicators IND1 and IND2 are identification marks for attracting the user's attention.
  • the first and second indicators IND1 and IND2 are described as being implemented as “ ⁇ ”, but the present invention is not limited thereto. That is, the first and second indicators IND1 and IND2 may be implemented in any form, such as a circle, a triangle, and a rectangle.
  • the first indicator IND1 is displayed in front of the first object OBJ1 on the first transparent display panel 100
  • the second indicator IND2 is displayed on the second object OBJ2 on the first transparent display panel 100. It can be displayed in front of the.
  • the display positions of the first and second indicators IND1 and IND2 may be adjusted according to the position of the person PSN looking at the first and second objects OBJ1 and OBJ2. For example, when the person PSN looking at the first object OBJ1 is located at the left side of the object OBJ, as shown in FIG. 6B, the first indicator IND1 is formed on the first transparent display panel 100.
  • the first indicator OBJ1 may be displayed on the front left side
  • the second indicator IND2 may be displayed on the front left side of the second object OBJ2 on the first transparent display panel 100.
  • the person PSN looking at the first and second objects OBJ1 and OBJ2 can more easily recognize the first and second indicators IND1 and IND2.
  • the controller 300 determines whether the eyes of the person PSN are directed to the first and second indicators IND1 and IND2. First, the controller 300 determines whether the eyes of the person PSN are directed to the first indicator IND1. The controller 300 displays the detailed information DI1 of the first object on the first transparent display panel 100 as shown in FIG. 6C when the line of sight of the person PSN is directed toward the first indicator IND1 as shown in FIG. 6B. To control. If the line of sight of the person PSN does not face the first indicator IND1, the controller 300 determines whether the person PSN faces the second indicator IND2. The control unit 300 displays the detailed information DI2 of the second object on the first transparent display panel 100 as shown in FIG.
  • the controller 300 may display the first and second indicators IND1 and IND1 in the first transparent display panel 100. IND2) disappears.
  • the detailed information DI1 and DI2 of the first and second objects may be any information as long as it is information for expressing the object OBJ such as a window, an image, or a video including text in detail.
  • the detailed information DI1 of the first object may be displayed at the position where the first indicator IND1 was displayed, and the detailed information DI2 of the second object may be displayed at the position where the second indicator IND2 was displayed.
  • the detailed information DI1 of the first object is displayed in front of the first object OBJ1 in the first transparent display panel 100
  • the detailed information DI2 of the second object is displayed in the second transparent display panel.
  • the image may be displayed in front of the second object OBJ2.
  • the display position of the detailed information DI1 of the first object and the detailed information DI2 of the second object may be adjusted according to the positions of the persons PSN looking at the first and second objects OBJ1 and OBJ2. .
  • the display position of the detailed information DI1 of the first object and the detailed information DI2 of the second object may be adjusted according to the positions of the persons PSN looking at the first and second objects OBJ1 and OBJ2. .
  • the display position of the detailed information DI1 of the first object and the detailed information DI2 of the second object may be adjusted according to the positions of the persons PSN looking at the first and second objects OBJ1 and OBJ2.
  • the display position of the detailed information DI1 of the first object and the detailed information DI2 of the second object may be adjusted according to the positions of the persons PSN looking at the first and second objects OBJ1 and OBJ2. .
  • the display position of the detailed information DI1 of the first object and the detailed information DI2 of the second object may be adjusted according to the positions of the persons PSN looking
  • the controller 300 determines whether the gaze of the person PSN is directed to the detailed information DI1 of the first object. If the line of sight of the person PSN does not point to the detailed information DI1 of the first object for a predetermined period of time, the controller 300 may cause the detailed information DI1 of the first object to disappear from the first transparent display panel 100. To control. In addition, the controller 300 controls to continuously display the detailed information DI1 of the first object on the first transparent display panel 100 when the gaze of the person PSN is directed to the detailed information DI1 of the first object. do. (S209, S210)
  • the controller 300 determines whether the gaze of the person PSN is directed to the detailed information DI2 of the second object. If the line of sight of the person PSN does not point to the detailed information DI2 of the second object for a predetermined period of time, the controller 300 causes the detailed information DI2 of the second object to disappear from the first transparent display panel 100. To control. In addition, the controller 300 controls to continuously display the detailed information DI2 of the second object on the first transparent display panel 100 when the gaze of the person PSN is directed to the detailed information DI2 of the second object. do. (S211, S212)
  • the line of sight of the person PSN includes the first object OBJ1, the second object OBJ2, the first indicator IND1, It is determined whether the device is directed to the second indicator IND2, the detailed information DI1 of the first object, or the detailed information DI2 of the second object, and accordingly, the first indicator is displayed in a partial region on the first transparent display panel 100. (IND1), the second indicator IND2, the detailed information DI1 of the first object, or the detailed information DI2 of the second object.
  • the first embodiment of the present invention provides detailed information about the object OBJ to the person PSN who views the first and / or second objects OBJ1 and OBJ2 using the transparent display device. Can be. That is, the second embodiment of the present invention can increase service satisfaction for a person PSN by utilizing a transparent display device.
  • FIG. 7 is a perspective view illustrating a transparent display device according to still another embodiment of the present invention.
  • FIG. 8 is a block diagram of the transparent display device of FIG. 7. 7 and 8, a transparent display device according to an exemplary embodiment of the present invention may include a first transparent display panel 100, a first transparent display panel driver 110, a second transparent display panel 120, and a second display panel.
  • the transparent display panel driver 130, the first gaze detection sensor 200, the gaze direction determiner 210, and the controller 300 may be included.
  • the first transparent display panel 100, the first transparent display panel driver 110, the first gaze detection sensor 200, and the gaze of the transparent display device according to the exemplary embodiment of the present invention. Since the direction determiner 210, the controller 300, and the like are substantially the same as those described with reference to FIGS. 1 and 2, a detailed description thereof will be omitted.
  • the second transparent display panel 120 may be positioned on the front, rear, left, right, top, or bottom surfaces of the first transparent display panel 100.
  • the second transparent display panel 120 is disposed to be spaced apart from the rear surface of the first transparent display panel 100 by a predetermined distance, but the present disclosure is not limited thereto. .
  • the second transparent display panel 120 may be implemented as transparent as the first transparent display panel 100 and simultaneously display an image.
  • the second transparent display panel 120 may be implemented as a flat panel display device such as a liquid crystal display (LCD) and an organic light emitting diode (OLED).
  • LCD liquid crystal display
  • OLED organic light emitting diode
  • the present invention has been described with reference to the second transparent display panel 120 being implemented as a liquid crystal display device, the present invention is not limited thereto. Meanwhile, when the second transparent display panel 120 is implemented as a liquid crystal display device, since the second transparent display panel 120 may be substantially the same as the first transparent display panel 100 described with reference to FIGS. 1 and 2, a detailed description thereof will be provided. Will be omitted.
  • the second transparent display panel driver 130 includes a second gate driver 131, a second data driver 132, and a second timing controller 133. Since the second transparent display panel driver 130 may be substantially the same as the first transparent display panel driver 110 described with reference to FIGS. 1 and 2, a detailed description thereof will be omitted.
  • FIG. 9 is a flowchart illustrating a control method of a transparent display device according to a third embodiment of the present invention.
  • 10A to 10F are exemplary views illustrating a transparent display device and a person looking at the transparent display device in FIG. 9.
  • the second transparent display panel 120 is spaced apart from the rear surface of the first transparent display panel 100 by a predetermined distance, and the first transparent display panel 100 and the second transparent display are disposed.
  • the first object OBJ1 is positioned between the panels 120 and the second object OBJ2 is located on the back of the second transparent display panel 120, the first and second transparent displays are displayed according to a human's eyes.
  • the method of controlling the panels 100 and 120 is shown in detail.
  • the controller 300 is configured to transmit the digital image data of the peak white gray level to the first transparent display panel driver 110 and the second transparent display panel so as to transparently implement the first and second transparent display panels 100 and 120. Transmission to the driver 130.
  • the first and second transparent display panels 100 and 120 are implemented to be transparent, the first and second transparent display panels 100 and 120 are positioned in front of the first and second transparent display panels 100 and 120.
  • the person PSN looking at 120 may see the first and second objects OBJ1 and OBJ2. (S301)
  • the controller 300 determines whether the eyes of the person PSN facing the first and second transparent display panels 100 and 120 are directed to one of the first and second objects OBJ1 and OBJ2. .
  • the first gaze sensor 200 generates image data by capturing an image of a person PSN looking at the first transparent display panel 100 from the front of the first transparent display panel 100.
  • the image data can be output to the gaze direction determination unit 210.
  • the gaze direction determination unit 210 may analyze the image data to calculate the position coordinates of the person PSN and calculate the gaze direction of the person PSN.
  • the controller 300 may determine the position coordinates of the person PSN and the person PSN gaze direction calculated from the gaze direction determining unit 210, and each of the first and second objects OBJ1 and OBJ2 pre-stored in the memory. Based on the position coordinates, it may be determined whether the gaze of the person PSN is directed to any one of the first and second objects OBJ1 and OBJ2. The controller 300 may turn the first transparent display panel 100 when the gaze of the person PSN facing the first transparent display panel 100 does not point to any one of the first and second objects OBJ1 and OBJ2. Continue to implement transparency. (S302, S309)
  • the controller 300 removes the first indicator IND1 for the first object OBJ1 as shown in FIG. 10B. 1 is controlled to be displayed on the transparent display panel 100.
  • the first indicator IND1 is an identification mark for attracting the user's attention
  • the first indicator IND1 has been described based on the implementation of “ ⁇ ” in FIG. 10B, but the present invention is not limited thereto. That is, the first indicator IND1 may be implemented in any form, such as a circle, a triangle, and a rectangle.
  • the first indicator IND1 may be displayed in front of the first object OBJ1 on the first transparent display panel 100.
  • the display position of the first indicator IND1 may be adjusted according to the position of the person PSN looking at the first object OBJ1.
  • the first indicator IND1 may be the first transparent display panel 100. May be displayed on the front left side of the first object OBJ1. In this case, the person PSN looking at the first object OBJ1 may more easily recognize the first indicator IND1.
  • the controller 300 determines whether the gaze of the person PSN is directed to the first indicator IND1.
  • the controller 300 controls the first indicator IND1 to disappear from the first transparent display panel 100 when the line of sight of the person PSN does not face the first indicator IND1 for a predetermined period of time.
  • the controller 300 may display the detailed information DI1 of the first object as shown in FIG. 10C in the first transparent display panel 100. Control to display.
  • the detailed information DI1 of the first object may be any information as long as it is information for expressing the object OBJ such as a window, an image, or a video including text in detail.
  • the detailed information DI1 of the first object may be displayed at the position where the first indicator IND1 is displayed. That is, the detailed information DI1 of the first object may be displayed on the front of the first object OBJ1 on the first transparent display panel 100.
  • the display position of the detailed information DI1 of the first object may be adjusted according to the position of the person PSN looking at the first object OBJ. For example, when the person PSN looking at the first object OBJ1 is located on the left side of the first object OBJ1 as shown in FIG. 10C, the detailed information DI1 of the first object is displayed in the first transparent display panel ( 100 may be displayed on the front left side of the first object OBJ1. Alternatively, the detailed information DI1 of the first object may be displayed on the entire first transparent display panel 100. (S304, S305, S306)
  • the controller 300 determines whether the gaze of the person PSN is directed to the detailed information DI1 of the first object. If the line of sight of the person PSN does not point to the detailed information DI1 of the first object for a predetermined period of time, the controller 300 may cause the detailed information DI1 of the first object to disappear from the first transparent display panel 100. To control. In addition, the controller 300 controls to continuously display the detailed information DI1 of the first object on the first transparent display panel 100 when the gaze of the person PSN is directed to the detailed information DI1 of the first object. do. (S307, S308)
  • the controller 300 removes the second indicator IND2 for the second object OBJ2 as shown in FIG. 10E. 2 is controlled to be displayed on the transparent display panel 120.
  • the second indicator IND2 is an identification mark for attracting the user's attention.
  • the second indicator IND2 has been described based on the implementation of “ ⁇ ” in FIG. 10E, but is not limited thereto. That is, the second indicator IND2 may be implemented in any form, such as a circle, a triangle, and a rectangle.
  • the second indicator IND2 may be displayed in front of the second object OBJ2 on the second transparent display panel 120.
  • the display position of the second indicator IND2 may be adjusted according to the position of the person PSN looking at the second object OBJ2. For example, when the person PSN looking at the second object OBJ2 is located at the left side of the second object OBJ2 as shown in FIG. 10E, the second indicator IND2 is the second transparent display panel 120. It may be displayed on the front left side of the second object OBJ2 at. In this case, the person PSN looking at the second object OBJ2 can more easily recognize the second indicator IND2. (S310)
  • the controller 300 determines whether the gaze of the person PSN is directed to the second indicator IND2.
  • the controller 300 controls the second indicator IND2 to disappear from the second transparent display panel 120 when the line of sight of the person PSN does not face the second indicator IND2 for a predetermined period of time.
  • the controller 300 may display the detailed information DI2 of the second object as shown in FIG. 10F. Control to display.
  • the detailed information DI2 of the second object may be any information as long as it is information for expressing the second object OBJ2 such as a window, an image, or a video including text in detail.
  • the detailed information DI2 of the second object may be displayed at the position where the second indicator IND2 is displayed. That is, the detailed information DI2 of the second object may be displayed on the front of the second object OBJ2 on the second transparent display panel 120.
  • the display position of the detailed information DI2 of the second object may be adjusted according to the position of the person PSN looking at the second object OBJ2. For example, when the person PSN looking at the second object OBJ2 is located at the left side of the second object OBJ2, as shown in FIG. 10F, the detailed information DI2 of the second object is displayed in the second transparent display panel ( In operation 120, the display may be displayed on the front left side of the second object OBJ2. Alternatively, the detailed information DI2 of the second object may be displayed on the entire second transparent display panel 120. (S311, S312, S313)
  • the controller 300 determines whether the gaze of the person PSN is directed to the detailed information DI2 of the second object. If the line of sight of the person PSN does not point to the detailed information DI2 of the second object for a predetermined period of time, the controller 300 causes the detailed information DI2 of the second object to disappear from the second transparent display panel 120. To control. In addition, the controller 300 controls to continuously display the detailed information DI2 of the second object on the second transparent display panel 120 when the gaze of the person PSN is directed to the detailed information DI2 of the second object. do. (S314, S315)
  • steps S303 to S305 may be omitted in the third embodiment of the present invention.
  • the third embodiment of the present invention when the line of sight of the person PSN is directed to the first object OBJ1, the detailed information DI1 of the first object may be immediately displayed without the first indicator IND1. It can be displayed on the panel 100.
  • steps S310 to S312 may be omitted in the third exemplary embodiment of the present invention.
  • the second object when the gaze of the person PSN is directed to the second object OBJ2, the second object displays the detailed information DI2 of the second object immediately without the second indicator IND2. It may be displayed on the panel 120.
  • the eyes of the person PSN may have a first object OBJ1, a second object OBJ2, a first indicator IND1, Determining whether it is directed to the second indicator IND2, the detailed information DI1 of the first object, or the detailed information DI2 of the second object, and accordingly, the first transparent display panel 100 or the second transparent display panel ( The first indicator IND1, the second indicator IND2, the detailed information DI1 of the first object, or the detailed information DI2 of the second object are displayed in a partial area of the 120.
  • the third embodiment of the present invention may provide the PSN who views the object in detail using the transparent display device. That is, the third embodiment of the present invention can increase service satisfaction for a person PSN by utilizing a transparent display device.
  • FIG. 11 is a perspective view illustrating a transparent display device according to still another embodiment of the present invention.
  • FIG. 12 is a block diagram of the transparent display device of FIG. 11.
  • a transparent display device according to another embodiment of the present invention may include a first transparent display panel 100, a first transparent display panel driver 110, a mirror display panel 140, and a mirror display.
  • the panel driver 150, the first gaze detection sensor 200, the gaze direction determiner 210, and the controller 300 may be included.
  • FIGS. 11 and 12 the first transparent display panel 100, the first transparent display panel driver 110, the first gaze detection sensor 200, and the gaze of the transparent display device according to the exemplary embodiment of the present invention are illustrated in FIGS. 11 and 12. Since the direction determiner 210, the controller 300, and the like are substantially the same as those described with reference to FIGS. 1 and 2, a detailed description thereof will be omitted.
  • the mirror display panel 140 may be located on the rear surface of the first transparent display panel 100. 11 and 14A to 14F, the mirror display panel 140 is disposed to be spaced apart from the rear surface of the first transparent display panel 100 by a predetermined distance.
  • the mirror display panel 140 includes a second transparent display panel 141 and a mirror 142 as shown in FIG. 11.
  • the second transparent display panel 141 can be implemented as transparent as the first transparent display panel 100 and display an image. Therefore, when the second transparent display panel 141 is implemented to be transparent, the mirror display panel 140 functions as a mirror. In addition, when the second transparent display panel 141 displays an image, the mirror display panel 140 displays an image.
  • the second transparent display panel 141 may be implemented as a flat panel display device such as a liquid crystal display (LCD) and an organic light emitting diode (OLED).
  • the second transparent display panel 141 is described as being implemented as a liquid crystal display device, but it should be noted that the present invention is not limited thereto.
  • the second transparent display panel 141 is implemented as a liquid crystal display device, since the second transparent display panel 141 may be substantially the same as the first transparent display panel 100 described with reference to FIGS. 1 and 2, a detailed description thereof will be provided. Will be omitted.
  • the mirror display panel driver 150 includes a second gate driver 131, a second data driver 132, and a second timing controller 133 for driving the second transparent display panel 141. Since the second transparent display panel driver 130 may be substantially the same as the first transparent display panel driver 110 described with reference to FIGS. 1 and 2, a detailed description thereof will be omitted.
  • FIG. 13 is a flowchart illustrating a control method of a transparent display device according to a fourth embodiment of the present invention.
  • 14A to 14F are exemplary views illustrating a transparent display device and a person looking at the same in FIG. 13. 13 and 14A to 14F, the mirror display panel 140 is disposed away from the rear surface of the first transparent display panel 100 by a predetermined distance, and the first transparent display panel 100 and the mirror display panel 140 are disposed. When the object OBJ is positioned between them, a method of controlling the first transparent display panel 100 and the mirror display panel 140 according to the eyes of a person is described in detail.
  • the controller 300 transmits digital image data of peak white gray levels to the first transparent display panel driver 110 so as to transparently implement the first transparent display panel 100.
  • the controller 300 transmits digital image data of peak white gray levels to the mirror display panel driver 150 so that the mirror display panel 140 functions as a mirror.
  • the person PSN is not only the front surface of the object OBJ but also the mirror display panel 140. You can see the back of the object OBJ. (S401)
  • the controller 300 determines whether the gaze of the person PSN is directed toward the front of the object OBJ or the back of the object OBJ.
  • the first gaze sensor 200 generates image data by capturing an image of a person PSN looking at the first transparent display panel 100 from the front of the first transparent display panel 100.
  • the image data can be output to the gaze direction determination unit 210.
  • the gaze direction determination unit 210 may analyze the image data to calculate the position coordinates of the person PSN and calculate the gaze direction of the person PSN.
  • the controller 300 may determine the position coordinates of the person PSN calculated from the eye gaze direction determining unit 210, the direction of the person PSN, the position coordinates of the object OBJ previously stored in the memory, and the mirror display panel 140. Based on the coordinates of), it may be determined whether the gaze of the person PSN is directed toward the front of the object OBJ or the back of the object OBJ through the mirror display panel 140.
  • the controller 300 controls the first transparent display panel 100 in substantially the same manner as described with reference to FIGS. 3 and 4A to 4C when the line of sight of the person PSN faces the front surface of the object OBJ.
  • the mirror display panel 140 serves as a mirror. That is, the controller 300 controls the first transparent display panel 100 as in steps S103 to S108 of FIG. 3. Therefore, when the line of sight of the person PSN is directed toward the front of the object OBJ, a detailed description of the control method of the first transparent display panel 100 will be omitted.
  • control unit 300 does not face the object PSB facing the first transparent display panel 100 toward the front of the object OBJ, but rather to the rear surface of the object OBJ through the mirror display panel 140. If not, the first transparent display panel 100 is continuously implemented to be transparent, and the mirror display panel 140 continues to function as a mirror. (S402)
  • the controller 300 mirrors the second indicator IND2 of the object OBJ as shown in FIG. 14B.
  • the second indicator IND2 is an identification mark for attracting the user's attention.
  • the second indicator IND2 has been described based on the implementation of “ ⁇ ” in FIG. 14B, but is not limited thereto. That is, the second indicator IND1 may be implemented in any form, such as a circle, a triangle, and a rectangle.
  • the second indicator IND2 may be displayed on a part of the mirror display panel 140 where the gaze of the person PSN is directed. have. In this case, the person PSN looking at the rear surface of the object OBJ can more easily recognize the second indicator IND1. (S403)
  • the controller 300 determines whether the gaze of the person PSN is directed to the second indicator IND2.
  • the controller 300 controls the second indicator IND2 to disappear from the mirror display panel 140 when the line of sight of the person PSN does not face the second indicator IND1 for a predetermined period of time.
  • the controller 300 controls to display the detailed information DI of the object on the mirror display panel 140 as shown in FIG. 14C. do.
  • the detailed information DI of the object may be any information as long as it is information for expressing the object OBJ in detail, such as a window, an image, or a video including text.
  • the detailed information DI of the object displayed on the mirror display panel 140 may be the same as or different from the detailed information DI of the object displayed on the first transparent display panel 100.
  • the detailed information DI of the object displayed on the first transparent display panel 100 is detailed information on the front surface of the object OBJ
  • the detailed information of the object displayed on the mirror display panel 140 ( DI) may be detailed information about the back side of the object OBJ.
  • the detailed information DI of the object may be displayed at the position where the second indicator IND2 was displayed.
  • the detailed information DI of the object may be displayed on the entire mirror display panel 140.
  • the controller 300 determines whether the gaze of the person PSN is directed to the detailed information DI of the object displayed on the mirror display panel 140. If the line of sight of the person PSN is not directed to the detailed information DI of the object displayed on the mirror display panel 140 for a predetermined period, the detailed information DI of the object is displayed on the mirror display panel 140. Controls to disappear. In addition, when the gaze of the person PSN is directed to the detailed information DI of the object displayed on the mirror display panel 140, the controller 300 continuously displays the detailed information DI of the object on the mirror display panel 140. To control. (S407, S408)
  • steps S403 to S405 may be omitted in the fourth embodiment of the present invention.
  • the mirror display panel 140 displays the detailed information DI of the object without the second indicator IND2. Can be marked on.
  • the control method of the transparent display device determines whether the gaze of the person PSN is directed to the object OBJ, the indicator, or the detailed information DI of the object. Accordingly, an indicator or detailed information DI of the object is displayed on a portion of the first transparent display panel 100 or the mirror display panel 140.
  • the fourth exemplary embodiment of the present invention can provide the PSN who views the object in detail using the transparent display device. That is, the fourth embodiment of the present invention can increase service satisfaction for a person PSN by utilizing a transparent display device.
  • FIG. 15 is a perspective view illustrating a transparent display device according to still another embodiment of the present invention.
  • FIG. 16 is a block diagram of the transparent display device of FIG. 15.
  • a transparent display device according to another embodiment of the present invention may include a first transparent display panel 100, a first transparent display panel driver 110, a second transparent display panel 120, The second transparent display panel driver 130, the first gaze detection sensor 200, the second gaze detection sensor 220, the gaze direction determining unit 210, and the controller 300 may be included.
  • a first transparent display panel 100 a first transparent display panel driver 110, a first gaze detection sensor 200, and a gaze of a transparent display device according to an exemplary embodiment of the present invention. Since the direction determiner 210, the controller 300, and the like are substantially the same as those described with reference to FIGS. 1 and 2, a detailed description thereof will be omitted.
  • the second transparent display panel 120 may be positioned on the rear surface of the first transparent display panel 100.
  • the second transparent display panel 120 is spaced apart from the rear surface of the first transparent display panel 100 by a predetermined interval.
  • the direction of the front side of the second transparent display panel 120 is opposite to the direction of the front side of the first transparent display panel 100.
  • the second gaze detection sensor 220 is a sensor for detecting a gaze of a person looking at the second transparent display panel 200 from the front of the second transparent display panel 120.
  • the second gaze detection sensor 220 may be disposed on an upper surface of the second transparent display panel 120 as shown in FIG. 15. Since the direction that the front of the second transparent display panel 120 faces is the direction opposite to the direction of the front of the first transparent display panel 100, the direction that the second gaze detection sensor 220 faces is also the first. It is a direction opposite to the direction that the gaze sensor 200 looks. Therefore, if the first gaze detection sensor 200 is a sensor for detecting a gaze of a person located in front of the first transparent display panel 100, the second gaze detection sensor 200 may be the first transparent display panel 100. It is a sensor for detecting the gaze of a person located on the back of the camera.
  • the second gaze detection sensor 220 may be implemented as a CCD camera sensor or a CMOS camera sensor. In this case, the second gaze sensor 220 generates an image data by photographing an image of a person looking at the second transparent display panel 120 from the front of the second transparent display panel 120, and generates image data. Output to the line of sight determination unit 210.
  • the second transparent display panel 120 may be implemented as transparent as the first transparent display panel 100 and simultaneously display an image.
  • the second transparent display panel 120 may be implemented as a flat panel display device such as a liquid crystal display (LCD) and an organic light emitting diode (OLED).
  • LCD liquid crystal display
  • OLED organic light emitting diode
  • the present invention has been described with reference to the second transparent display panel 120 being implemented as a liquid crystal display device, the present invention is not limited thereto. Meanwhile, when the second transparent display panel 120 is implemented as a liquid crystal display device, since the second transparent display panel 120 may be substantially the same as the first transparent display panel 100 described with reference to FIGS. 1 and 2, a detailed description thereof will be provided. Will be omitted.
  • the second transparent display panel driver 130 includes a second gate driver 131, a second data driver 132, and a second timing controller 133. Since the second transparent display panel driver 130 may be substantially the same as the first transparent display panel driver 110 described with reference to FIGS. 1 and 2, a detailed description thereof will be omitted.
  • FIG. 17 is a flowchart illustrating a control method of a transparent display device according to a fifth embodiment of the present invention.
  • 18A to 18F are exemplary views illustrating a transparent display device and a person looking at the transparent display device in FIG. 17.
  • the second transparent display panel 120 is spaced apart from the rear surface of the first transparent display panel 100 by a predetermined distance, and the front surface of the second transparent display panel 120 is viewed.
  • the direction is opposite to the direction viewed by the front of the first transparent display panel 100, and the object OBJ1 is located between the first transparent display panel 100 and the second transparent display panel 120.
  • a method of controlling the first and second transparent display panels 100 and 120 according to the eyes of a person is described in detail.
  • the controller 300 is configured to transmit the digital image data of the peak white gray level to the first transparent display panel driver 110 and the second transparent display panel so as to transparently implement the first and second transparent display panels 100 and 120. Transmission to the driver 130.
  • the first and second transparent display panels 100 and 120 are implemented to be transparent, the person PSN is the object OBJ through the first transparent display panel 100 or the second transparent display panel 120. Can be seen. (S501)
  • the controller 300 determines whether the gaze of the person PSN is directed to the object OBJ through the first transparent display panel 100.
  • the first gaze sensor 200 generates image data by capturing an image of a person PSN looking at the first transparent display panel 100 from the front of the first transparent display panel 100.
  • the image data can be output to the gaze direction determination unit 210.
  • the gaze direction determination unit 210 may analyze the image data to calculate the position coordinates of the person PSN and calculate the gaze direction of the person PSN.
  • the controller 300 may determine the person PSN based on the position coordinates of the person PSN calculated from the eye gaze direction determining unit 210, the person PSN eye direction, and the position coordinates of the object OBJ previously stored in the memory. ) May determine whether the line of sight is directed toward the object OBJ through the first transparent display panel 100. (S502)
  • the controller 300 faces the object OBJ through the first transparent display panel 100 as shown in FIG. 18A, the controller 300 sets the first indicator IND1 for the object OBJ as shown in FIG. 18B. Control to display on the transparent display panel 100.
  • the first indicator IND1 is an identification mark for attracting the user's attention, the first indicator IND1 has been described based on the implementation of “ ⁇ ” in FIG. 18B, but is not limited thereto. That is, the first indicator IND1 may be implemented in any form, such as a circle, a triangle, and a rectangle.
  • the first indicator IND1 may be displayed in front of the object OBJ on the first transparent display panel 100.
  • the display position of the first indicator IND1 may be adjusted according to the position of the person PSN looking at the object OBJ. For example, when the person PSN looking at the object OBJ is located on the left side of the object OBJ, as shown in FIG. 18B, the first indicator IND1 is the object OBJ on the first transparent display panel 100. ) May be displayed on the front left side. In this case, the person PSN looking at the object OBJ can more easily recognize the first indicator IND1. (S503)
  • the controller 300 determines whether the gaze of the person PSN is directed to the first indicator IND1.
  • the controller 300 controls the first indicator IND1 to disappear from the first transparent display panel 100 when the line of sight of the person PSN does not face the first indicator IND1 for a predetermined period of time.
  • the controller 300 displays detailed information DI1 of the object on the first transparent display panel 100 as illustrated in FIG. 18C.
  • the detailed information DI1 of the object displayed on the first transparent display panel 100 may be any information as long as it is information for expressing the object OBJ such as a window, an image, or a video including text in detail.
  • the detailed information DI1 of the object object displayed on the first transparent display panel 100 may be displayed at the position where the first indicator IND1 is displayed. That is, the detailed information DI1 of the object displayed on the first transparent display panel 100 may be displayed in front of the object OBJ on the first transparent display panel 100.
  • the display position of the detailed information DI1 of the object displayed on the first transparent display panel 100 may be adjusted according to the position of the person PSN looking at the object OBJ. For example, when the person PSN looking at the object OBJ is located on the left side of the object OBJ, as shown in FIG. 18C, the detailed information DI1 of the object displayed on the first transparent display panel 100 may be the first.
  • the transparent display panel 100 may be displayed on the front left side of the object OBJ.
  • detailed information DI1 of the object displayed on the first transparent display panel 100 may be displayed on the entire first transparent display panel 100.
  • the controller 300 determines whether the gaze of the person PSN is directed to the detailed information DI1 of the object displayed on the first transparent display panel 100. If the line of sight of the person PSN does not point to the detailed information DI1 of the object displayed on the first transparent display panel 100 for a predetermined period of time, the control unit 300 displays the details of the object on the first transparent display panel 100. The information DI1 is controlled to disappear. In addition, when the line of sight of the person PSN is directed to the detailed information DI1 of the object displayed on the first transparent display panel 100, the controller 300 directs the detailed information DI1 of the object to the first transparent display panel 100. To continue to display). (S507, S508)
  • the controller 300 determines whether the gaze of the person PSN is directed to the object OBJ through the second transparent display panel 100.
  • the second gaze sensor 220 generates image data by capturing an image of a person PSN looking at the second transparent display panel 120 from the front of the second transparent display panel 120.
  • the image data can be output to the gaze direction determination unit 210.
  • the second gaze sensor 220 generates image data by capturing an image of a person PSN facing the second transparent display panel 120 from the front of the second transparent display panel 120, and generates image data.
  • the gaze direction determination unit 210 may output the result. In this case, the gaze direction determination unit 210 may analyze the image data to calculate the position coordinates of the person PSN and calculate the gaze direction of the person PSN.
  • the controller 300 may determine the person PSN based on the position coordinates of the person PSN calculated from the eye gaze direction determining unit 210, the person PSN eye direction, and the position coordinates of the object OBJ previously stored in the memory. ) May determine whether the line of sight is directed toward the object OBJ through the second transparent display panel 120. (S509)
  • the controller 300 displays the second object with respect to the object OBJ as shown in FIG. 18E.
  • the indicator IND2 is controlled to be displayed on the second transparent display panel 120.
  • the second indicator IND2 is an identification mark for attracting the user's attention.
  • the second indicator IND2 has been described based on the implementation of “ ⁇ ” in FIG. 18E, but is not limited thereto. That is, the second indicator IND2 may be implemented in any form, such as a circle, a triangle, and a rectangle.
  • the second indicator IND2 may be displayed in front of the object OBJ on the second transparent display panel 120.
  • the display position of the second indicator IND2 may be adjusted according to the position of the person PSN looking at the object OBJ. For example, when the person PSN looking at the object OBJ is located on the right side of the object OBJ, as illustrated in FIG. 18E, the second indicator IND2 is the object OBJ on the second transparent display panel 120. ) May be displayed on the front right. In this case, the person PSN looking at the object OBJ can more easily recognize the second indicator IND2. (S510)
  • the controller 300 determines whether the gaze of the person PSN is directed to the second indicator IND2.
  • the controller 300 controls the second indicator IND2 to disappear from the second transparent display panel 120 when the line of sight of the person PSN does not face the second indicator IND2 for a predetermined period of time.
  • the controller 300 displays the detailed information DI2 of the object on the second transparent display panel 120 as shown in FIG. 18F.
  • the detailed information DI2 of the object displayed on the second transparent display panel 120 may be any information as long as it is information for expressing an object OBJ such as a window, an image, or a video including text in detail.
  • the detailed information DI2 of the object displayed on the second transparent display panel 120 may be displayed at the position where the second indicator IND2 is displayed. That is, the detailed information DI2 of the object displayed on the second transparent display panel 120 may be displayed in front of the object OBJ on the second transparent display panel 120.
  • the display position of the detailed information DI2 of the object displayed on the second transparent display panel 120 may be adjusted according to the position of the person PSN looking at the object OBJ. For example, when the person PSN looking at the object OBJ is located at the right side of the object OBJ, as shown in FIG. 10F, the detailed information DI2 of the object displayed on the second transparent display panel 120 is determined as the second.
  • the transparent display panel 120 may display the front right side of the object OBJ.
  • detailed information DI2 of the object displayed on the second transparent display panel 120 may be displayed on the entire second transparent display panel 120.
  • the controller 300 determines whether the gaze of the person PSN is directed to the detailed information DI2 of the object displayed on the second transparent display panel 120. If the line of sight of the person PSN does not point to the detailed information DI2 of the object displayed on the second transparent display panel 120, the controller 300 displays the detailed information DI2 of the object on the second transparent display panel 120. Controls to disappear. In addition, when the line of sight of the person PSN is directed to the detailed information DI2 of the object displayed on the second transparent display panel 120, the controller 300 directs the detailed information DI2 of the object to the second transparent display panel 120. To continue to display). (S514, S515)
  • steps S503 to S505 may be omitted in the fifth embodiment of the present invention.
  • the detailed information DI1 of the object is immediately available without the first indicator IND1.
  • steps S510 to S512 may be omitted in the fifth embodiment of the present invention.
  • the detailed information DI2 of the object is immediately available without the second indicator IND2.
  • the line of sight of the person PSN is the object OBJ, the first indicator IND1, the second indicator IND2, and the object. Determining whether to go to the detailed information, according to the detailed information of the first indicator (IND1), the second indicator (IND2), or the object in a portion of the first transparent display panel 100 or the second transparent display panel 120 Is displayed.
  • information on the object may be provided to the person PSN who views the object in detail using the transparent display device. That is, the fifth embodiment of the present invention can increase service satisfaction for a person PSN by utilizing a transparent display device.
  • the present invention can be used in the industry related to a transparent display device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

투명 디스플레이 장치가 개시된다. 일 실시예에 따른 투명 디스플레이 장치는, 투명표시패널을 통해 소정의 화상을 표시하고, 상기 투명표시패널을 바라보는 사람의 시선 방향을 감지하여, 상기 사람의 시선이 상기 투명표시패널의 배면에 위치한 객체로 향하는 경우, 투명표시패널에 상기 객체의 상세 정보를 표시할 수 있도록 한다.

Description

투명 디스플레이 장치와 그의 제어방법
본 발명은 투명 디스플레이 장치와 그의 제어방법에 관한 것이다.
표시장치는 소비자의 요구에 따라 다양한 형태로 변화하고 있다. 일 예로, 최근에는 유리와 같이 투명하게 구현되는 투명 디스플레이 장치가 개발되고 있다. 투명 디스플레이 장치는 투명하게 구현되므로, 사용자는 투명 디스플레이 장치의 배면에 위치하여 투명 디스플레이 장치에 가려지는 물체 또는 풍경을 투명 디스플레이 장치를 통해 볼 수 있다.
예를 들어, 투명 디스플레이 장치는 다음과 같이 구현될 수 있다. 투명 디스플레이 장치가 매장의 상품을 진열하는 쇼윈도(show window)로 구현되는 경우, 매장의 상품들이 투명 디스플레이 장치를 통해 보여질 수 있을 뿐만 아니라, 그 상품들의 정보가 투명 디스플레이 장치에 표시될 수도 있다. 또는, 투명 디스플레이 장치가 디지털 정보를 표시하는 디지털 사이니지(digital signage)로 구현되는 경우, 물체 또는 풍경이 투명 디스플레이 장치를 통해 보여질 수 있을 뿐만 아니라, 다양한 디지털 정보가 투명 디스플레이 장치를 통해 표시될 수 있다.
특히, 위와 같은 예의 경우, 투명 디스플레이 장치가 투명 디스플레이 장치로 향하는 사람의 시선에 따라 제어된다면, 투명 디스플레이 장치의 활용도는 크게 높아질 수 있다.
본 발명은 투명 디스플레이 장치로 향하는 사람의 시선 방향을 감지하고, 사람의 시선 방향에 따라 투명 디스플레이 장치를 제어하는 투명 디스플레이 장치와 그의 제어방법을 제공한다.
본 발명의 실시 예에 따른 투명 디스플레이 장치는 투명하게 구현됨과 동시에 화상을 표시하는 제1 투명표시패널; 상기 제1 투명표시패널을 바라보는 사람의 시선 방향을 감지하기 위한 제1 시선 감지 센서; 및 상기 사람의 시선 방향을 분석하여 상기 사람의 시선이 상기 제1 투명표시패널 배면에 위치한 객체로 향하는 경우 상기 제1 투명표시패널에 상기 객체의 상세 정보를 표시하도록 제어하는 제어부를 구비한다.
본 발명의 실시 예에 따른 투명 디스플레이 장치의 제어방법은 투명하게 구현됨과 동시에 화상을 표시하는 제1 투명표시패널을 구비하는 투명 디스플레이 장치의 제어방법에 있어서, 상기 제1 시선 감지 센서를 이용하여 제1 투명표시패널을 바라보는 사람의 시선 방향을 감지하는 제1 단계; 상기 사람의 시선 방향을 분석하여 상기 사람의 시선이 상기 제1 투명표시패널 배면에 위치한 객체로 향하는 경우 상기 제1 투명표시패널에 상기 객체의 상세 정보를 표시하는 제2 단계를 포함한다.
본 발명은 사람의 시선이 객체로 향하는지를 판단하고, 그에 따라 투명표시패널에 인디케이터 또는 객체의 상세 정보를 표시한다. 그 결과, 본 발명은 투명 디스플레이 장치를 이용하여 객체를 바라보는 사람에게 그 객체에 대한 정보를 상세히 제공할 수 있다. 이로 인해, 본 발명은 투명 디스플레이 장치를 활용함으로써 사람에 대한 서비스 만족도를 높일 수 있다.
도 1은 본 발명의 실시 예에 따른 투명 디스플레이 장치를 보여주는 사시도.
도 2는 도 1의 투명 디스플레이 장치의 블록도.
도 3은 본 발명의 제1 실시 예에 따른 투명 디스플레이 장치의 제어방법을 보여주는 흐름도.
도 4a 내지 도 4c는 도 3의 경우 투명 디스플레이 장치와 그를 바라보는 사람을 보여주는 예시도면들.
도 5는 본 발명의 제2 실시 예에 따른 투명 디스플레이 장치의 제어방법을 보여주는 흐름도.
도 6a 내지 도 6e는 도 5의 경우 투명 디스플레이 장치와 그를 바라보는 사람을 보여주는 예시도면들.
도 7은 본 발명의 또 다른 실시 예에 따른 투명 디스플레이 장치를 보여주는 사시도.
도 8은 도 7의 투명 디스플레이 장치의 블록도.
도 9는 본 발명의 제3 실시 예에 따른 투명 디스플레이 장치의 제어방법을 보여주는 흐름도.
도 10a 내지 도 10f는 도 9의 경우 투명 디스플레이 장치와 그를 바라보는 사람을 보여주는 예시도면들.
도 11은 본 발명의 또 다른 실시 예에 따른 투명 디스플레이 장치를 보여주는 사시도.
도 12는 도 11의 투명 디스플레이 장치의 블록도.
도 13은 본 발명의 제4 실시 예에 따른 투명 디스플레이 장치의 제어방법을 보여주는 흐름도.
도 14a 내지 도 14f는 도 13의 경우 투명 디스플레이 장치와 그를 바라보는 사람을 보여주는 예시도면들.
도 15는 본 발명의 또 다른 실시 예에 따른 투명 디스플레이 장치를 보여주는 사시도.
도 16은 도 15의 투명 디스플레이 장치의 블록도.
도 17은 본 발명의 제5 실시 예에 따른 투명 디스플레이 장치의 제어방법을 보여주는 흐름도.
도 18a 내지 도 18f는 도 17의 경우 투명 디스플레이 장치와 그를 바라보는 사람을 보여주는 예시도면들.
이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예들을 상세히 설명한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 실질적으로 동일한 구성요소들을 의미한다. 이하의 설명에서, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다. 이하의 설명에서 사용되는 구성요소 명칭은 명세서 작성의 용이함을 고려하여 선택된 것으로, 실제 제품의 명칭과는 상이할 수 있다.
도 1은 본 발명의 실시 예에 따른 투명 디스플레이 장치를 보여주는 사시도이다. 도 2는 도 1의 투명 디스플레이 장치의 블록도이다. 도 1 및 도 2를 참조하면, 본 발명의 실시 예에 따른 투명 디스플레이 장치는 제1 투명표시패널(100), 제1 투명표시패널 구동부(110), 제1 시선 감지 센서(200), 시선 방향 판단부(210), 제어부(300) 등을 포함한다.
제1 투명표시패널(100)은 액정표시소자(Liquid Crystal Display, LCD), 유기발광다이오드 소자(Organic Light Emitting Diode, OLED) 등의 평판 표시소자로 구현될 수 있다. 본 발명은 아래의 실시 예에서 제1 투명표시패널(100)이 액정표시소자로 구현되는 것을 중심으로 설명하였지만, 이에 한정되지 않는 것에 주의하여야 한다.
제1 투명표시패널(100)은 두 장의 유리기판 사이에 형성되는 액정층을 포함한다. 제1 투명표시패널(100)의 하부 유리기판에는 다수의 데이터 라인들과 다수의 게이트 라인들이 교차된다. 데이터 라인들과 게이트 라인들의 교차 구조에 의해 정의되는 셀 영역들에 액정셀들이 매트릭스 형태로 배치된다. 또한, 제1 투명표시패널(100)의 하부 유리기판에는 박막트랜지스터(Thin Film Transistor, TFT), 박막트랜지스터(TFT)에 접속된 액정셀의 화소전극, 스토리지 커패시터(Storage Capacitor) 등이 형성된다. 박막트랜지스터는 게이트 라인의 게이트 펄스에 응답하여 데이터 라인의 데이터 전압을 액정셀의 화소전극에 공급한다. 액정셀들은 화소전극에 공급된 데이터전압과 공통전극에 공급된 공통전압의 전위차에 의해 발생되는 전계에 의해 구동되어 제1 투명표시패널(100)에서 투과되는 광양을 조정한다.
제1 투명표시패널(100)의 상부 유리기판상에는 블랙매트릭스, 컬러필터 및 공통전극이 형성된다. 공통전극은 TN(Twisted Nematic) 모드와 VA(Vertical Alignment) 모드와 같은 수직전계 구동방식에서 상부 유리기판상에 형성되며, IPS(In Plane Switching) 모드와 FFS(Fringe Field Switching) 모드와 같은 수평전계 구동방식에서 화소전극과 함께 하부 유리기판상에 형성된다. 제1 투명표시패널(100)의 상부 유리기판에는 상부 편광판이 부착되고 하부 유리기판에는 하부 편광판이 부착된다. 상부 편광판과 하부 편광판은 서로 직교될 수 있다. 액정층의 액정과 접하는 내면에 액정의 프리틸트각을 설정하기 위한 배향막이 형성된다.
제1 투명표시패널(100)은 투명하게 구현됨과 동시에 화상을 표시할 수 있다. 구체적으로, 제1 투명표시패널(100)의 액정셀들은 블랙 계조, 그레이 계조 및 화이트 계조를 표현함으로써 화상을 표시한다. 이때에는 제1 투명표시패널(100)에 백라이트가 공급되어야 한다. 또한, 제1 투명표시패널(100)의 액정셀들은 피크 화이트 계조를 표현함으로써 투명하게 구현될 수 있다. 이때에는 제1 투명표시패널(100)에 백라이트가 공급되지 않는다. 예를 들어, 제1 투명표시패널(100)의 일부영역에만 화상이 표시되고 나머지 영역은 투명하게 구현되는 경우, 그 일부 영역에는 백라이트가 공급되고 그 나머지 영역에는 백라이트가 공급되지 않아야 한다. 한편, 8비트(bits)의 256 계조에서, 피크 블랙 계조는 G0, 피크 화이트 계조는 G255를 지시한다.
제1 투명표시패널 구동부(110)는 제1 투명표시패널(100)을 구동하기 위한 다수의 신호를 공급한다. 제1 투명표시패널 구동부(110)는 제1 게이트 구동부(111), 제1 데이터 구동부(112), 및 제1 타이밍 제어부(113)를 포함한다. 제1 데이터 구동부(112)는 다수의 데이터 드라이브 집적회로들로 구성될 수 있다. 제1 데이터 구동부(112)는 제1 타이밍 제어부(113)의 제어 하에 디지털 비디오 데이터를 정극성/부극성 감마보상전압을 이용하여 정극성/부극성 아날로그 데이터전압들로 변환한 후 제1 투명표시패널(100)의 데이터 라인들에 공급한다. 제1 게이트 구동부(110)는 제1 타이밍 제어부(113)의 제어 하에 데이터 전압들이 공급될 액정셀들을 선택하기 위해 게이트 펄스(또는 스캔 펄스)를 순차적으로 출력하여 제1 투명표시패널(100)의 게이트 라인들에 공급한다.
제1 타이밍 제어부(113)는 제어부(300)로부터 입력되는 디지털 비디오 데이터와 타이밍신호들을 입력받는다. 타이밍신호들은 수직 동기신호, 수평 동기신호, 데이터 인에이블신호, 도트 클럭신호 등을 포함할 수 있다. 제1 타이밍 제어부(113)는 디지털 비디오 데이터와 타이밍신호들에 기초하여 제1 데이터 구동부(112)와 제1 게이트 구동부(111)의 동작 타이밍을 제어하기 위한 타이밍 제어신호들을 발생한다. 제1 타이밍 제어부(113)는 제1 데이터 구동부(112)와 제1 게이트 구동부(111)의 타이밍을 제어하기 위해 타이밍 제어신호들을 제1 데이터 구동부(112)와 제1 게이트 구동부(111)로 출력한다.
제1 투명표시패널(100)이 액정표시소자로 구현되는 경우, 투명 디스플레이 장치는 제1 투명표시패널(100)에 백라이트를 공급하기 위한 백라이트 유닛(미도시)을 더 포함한다.
백라이트 유닛(미도시)은 광원 어레이와 도광판 등을 구비하며, 에지형 백라이트 유닛으로 구현될 수 있다. 이 경우, 제1 투명표시패널(100)의 아래에 도광판이 배치되고, 도광판의 측면에 광원 어레이가 배치되는 구조를 갖는다. 광원들은 고효율, 고휘도, 저소비 전력 등의 장점을 가지는 발광다이오드(Light Emitting Diode)로 구현될 수 있다. 광원들은 광원 구동부로부터 구동 전류를 공급받아 점등 및 소등된다. 도광판은 광원 어레이의 광원들로부터의 빛을 면광원으로 변환하여 표시패널에 조사한다. 도광판은 투명한 재질로 구현된다.
제1 시선 감지 센서(200)는 제1 투명표시패널(100)의 정면에서 제1 투명표시패널(100)을 바라보는 사람의 시선을 감지하기 위한 센서이다. 제1 시선 감지 센서(200)는 도 1과 같이 제1 투명표시패널(100)의 상면에 배치될 수 있다. 또한, 제1 시선 감지 센서(200)는 CCD(Charged Coupled Device) 카메라 센서 또는 CMOS(Complementary Metal Oxide Semiconductor) 카메라 센서로 구현될 수 있다. 이 경우, 제1 시선 감지 센서(200)는 제1 투명표시패널(100)의 정면에서 제1 투명표시패널(100)을 바라보는 사람에 대한 화상을 촬영하여 화상 데이터를 생성하고, 화상 데이터를 시선 방향 판단부(210)로 출력한다.
시선 방향 판단부(210)는 화상 데이터를 분석하여 제1 투명표시패널(100)을 바라보는 사람의 위치 좌표를 산출하고, 그 사람의 시선 방향을 산출한다. 제어부(300)는 시선 방향 판단부(210)로부터 산출된 사람의 위치 좌표와 사람의 시선 방향에 기초하여 사람의 시선이 어디로 향하는지를 판단한다. 사람의 시선 방향이 어디로 향하는지를 판단하는 알고리즘은 공지된 어떠한 알고리즘들 중 어느 하나로 구현될 수 있다.
제어부(300)는 투명 디스플레이 장치의 전반적인 동작을 제어한다. 구체적으로, 제어부(300)는 사람의 시선 방향에 따라 투명 디스플레이 장치를 제어한다. 즉, 제어부(300)는 사람의 시선 방향이 객체로 향하는지에 따라 제1 투명표시패널(100)을 제어한다. 제어부(300)는 메모리(미도시)에 저장된 디지털 영상 데이터를 입력받고, 입력된 디지털 영상 데이터를 제1 투명표시패널 구동부(110)로 출력하도록 제어함으로써, 제1 투명표시패널(100)을 투명하게 구현할 수 있으며, 제1 투명표시패널(100)에 정보를 표시할 수도 있다. 제어부(300)의 투명 디스플레이 장치의 제어방법에 대한 자세한 설명은 도 3 및 도 4a 내지 도 4c를 결부하여 후술한다.
한편, 본 발명의 실시 예에 따른 투명 디스플레이 장치는 제1 투명표시패널(100)을 투명하게 구현하기 위한 디지털 영상 데이터와 제1 투명표시패널(100)에 표시되는 정보에 해당하는 디지털 영상 데이터를 저장하는 메모리(미도시), 투명 디스플레이 장치가 외부 기긱와 연결되는 통로 역할을 하는 인터페이스부(미도시), 및 투명 디스플레이 장치의 구성 요소들 각각에 필요한 전원을 공급하기 위한 전원 공급부(미도시) 등을 더 구비할 수 있다.
도 3은 본 발명의 제1 실시 예에 따른 투명 디스플레이 장치의 제어방법을 보여주는 흐름도이다. 도 4a 내지 도 4c는 도 3의 경우 투명 디스플레이 장치와 그를 바라보는 사람을 보여주는 예시도면들이다. 도 3 및 도 4a 내지 도 4c에는 제1 투명표시패널(100)을 바라보는 사람의 시선이 제1 투명표시패널(100)의 배면에 위치하는 객체로 향하는 경우, 제1 투명표시패널(100)을 제어하는 방법이 상세히 나타나 있다.
첫 번째로, 제어부(300)는 제1 투명표시패널(100)을 투명하게 구현하도록 피크 화이트 계조의 디지털 영상 데이터를 제1 투명표시패널 구동부(110)에 전송한다. 그 결과, 제1 투명표시패널(100)은 투명하게 구현되므로, 제1 투명표시패널(100)의 정면에 위치하여 제1 투명표시패널(100)을 바라보는 사람(PSN)은 제1 투명표시패널(100)을 통해 객체를 볼 수 있다. (S101)
두 번째로, 제어부(300)는 제1 투명표시패널(100)을 바라보는 사람(PSN)의 시선이 객체로 향하는지를 판단한다. 구체적으로, 제1 시선 감지 센서(200)는 제1 투명표시패널(100)의 정면에서 제1 투명표시패널(100)을 바라보는 사람(PSN)에 대한 화상을 촬영하여 화상 데이터를 생성하고, 화상 데이터를 시선 방향 판단부(210)로 출력할 수 있다. 이 경우, 시선 방향 판단부(210)는 화상 데이터를 분석하여 사용자의 위치 좌표를 산출하고, 사용자의 시선 방향을 산출할 수 있다. 제어부(300)는 시선 방향 판단부(210)로부터 산출된 사용자의 위치 좌표와 사용자의 시선 방향, 및 메모리에 미리 저장되어 있는 객체의 위치 좌표에 기초하여 사용자의 시선이 객체로 향하는지를 판단할 수 있다. 제어부(300)는 제1 투명표시패널(100)을 바라보는 사람(PSN)의 시선이 객체로 향하지 않는 경우, 제1 투명표시패널(100)을 계속해서 투명하게 구현한다. (S102)
세 번째로, 제어부(300)는 도 4a와 같이 제1 투명표시패널(100)을 바라보는 사람(PSN)의 시선이 객체(OBJ)로 향하는 경우, 도 4b와 같이 그 객체(OBJ)에 대한 인디케이터(indicator, IND)를 제1 투명표시패널(100)에 표시하도록 제어한다. 인디케이터(IND)는 사용자의 주의를 끌기 위한 식별 표시로, 도 4b에서는 "⊙"로 구현된 것을 중심으로 설명하였으나, 이에 한정되지 않음에 주의하여야 한다. 즉, 인디케이터(IND)는 원, 삼각형, 사각형 등 어떠한 형태로 구현될 수 있다.
인디케이터(IND)는 제1 투명표시패널(100)에서 객체(OBJ)의 정면에 표시될 수 있다. 또는, 인디케이터(IND)의 표시 위치는 객체(OBJ)를 바라보는 사람(PSN)의 위치에 따라 조정될 수 있다. 예를 들어, 도 4b와 같이 객체(OBJ)를 바라보는 사람(PSN)이 객체(OBJ)의 왼쪽에 위치하는 경우, 인디케이터(IND)는 제1 투명표시패널(100)에서 객체(OBJ)의 정면 왼쪽에 표시될 수 있다. 이 경우, 객체(OBJ)를 바라보는 사람(PSN)은 인디케이터(IND)를 보다 쉽게 인지할 수 있다. (S103)
네 번째로, 제어부(300)는 사람(PSN)의 시선이 인디케이터(IND)로 향하는지를 판단한다. 제어부(300)는 사람(PSN)의 시선이 소정의 기간 동안 인디케이터(IND)로 향하지 않는 경우, 제1 투명표시패널(100)에서 인디케이터(IND)가 사라지게 제어한다. 또한, 제어부(300)는 도 4b와 같이 사람(PSN)의 시선이 인디케이터(IND)로 향하는 경우, 도 4c와 같이 객체의 상세 정보(DI)를 제1 투명표시패널(100)에 표시하도록 제어한다. 객체의 상세 정보(DI)는 텍스트를 포함하는 윈도우, 이미지, 또는 동영상 등 객체(OBJ)를 상세히 표현하기 위한 정보이면 그 어떠한 것이든 가능하다.
객체의 상세 정보(DI)는 인디케이터(IND)가 표시되었던 위치에 표시될 수 있다. 즉, 객체의 상세 정보(DI)는 제1 투명표시패널(100)에서 객체(OBJ)의 정면에 표시될 수 있다. 또한, 객체의 상세 정보(DI)의 표시 위치는 객체(OBJ)를 바라보는 사람(PSN)의 위치에 따라 조정될 수 있다. 예를 들어, 도 4c와 같이 객체(OBJ)를 바라보는 사람(PSN)이 객체(OBJ)의 왼쪽에 위치하는 경우 객체의 상세 정보(DI)는 제1 투명표시패널(100)에서 객체(OBJ)의 정면 왼쪽에 표시될 수 있다. 이 경우, 객체(OBJ)를 바라보는 사람(PSN)은 객체의 상세 정보(DI)를 보다 쉽게 인지할 수 있다. 또는, 객체의 상세 정보(DI)는 제1 투명표시패널(100) 전체에 표시될 수 있다. (S104, S105, S106)
다섯 번째로, 제어부(300)는 사람(PSN)의 시선이 소정의 기간 동안 객체의 상세 정보(DI)로 향하는지를 판단한다. 제어부(300)는 사람(PSN)의 시선이 객체의 상세 정보(DI)로 향하지 않는 경우, 제1 투명표시패널(100)에서 객체의 상세 정보(DI)가 사라지게 제어한다. 또한, 제어부(300)는 사람(PSN)의 시선이 객체의 상세 정보(DI)로 향하는 경우, 객체의 상세 정보(DI)를 제1 투명표시패널(100)에 계속 표시하도록 제어한다. (S107, S108)
한편, 본 발명의 제1 실시 예에서 S103 내지 S105 단계들은 생략될 수 있다. 이 경우, 본 발명의 제1 실시 예는 제1 투명표시패널(100)을 바라보는 사람(PSN)의 시선이 객체(OBJ)로 향하는 경우, 인디케이터(IND) 없이 바로 객체의 상세 정보(DI)를 제1 투명표시패널(100)에 표시할 수 있다.
이상에서 살펴본 바와 같이, 본 발명의 제1 실시 예에 따른 투명 디스플레이 장치의 제어방법은 사람(PSN)의 시선이 객체(OBJ), 인디케이터(IND), 또는 객체의 상세 정보(DI)로 향하는지를 판단하고, 그에 따라 제1 투명표시패널(100)에 일부 영역에 인디케이터(IND) 또는 객체의 상세 정보를 표시한다. 그 결과, 본 발명의 제1 실시 예는 투명 디스플레이 장치를 이용하여 객체(OBJ)를 바라보는 사람(PSN)에게 그 객체(OBJ)에 대한 정보를 상세히 제공할 수 있다. 즉, 본 발명의 제1 실시 예는 투명 디스플레이 장치를 활용함으로써 사람(PSN)에 대한 서비스 만족도를 높일 수 있다.
도 5는 본 발명의 제2 실시 예에 따른 투명 디스플레이 장치의 제어방법을 보여주는 흐름도이다. 도 6a 내지 도 6e는 도 5의 경우 투명 디스플레이 장치와 그를 바라보는 사람을 보여주는 예시도면들이다. 도 5 및 도 6a 내지 도 6e에는 제1 투명표시패널(100)을 바라보는 사람의 시선이 제1 투명표시패널(100)의 배면에 위치하는 복수의 객체 중 어느 하나로 향하는 경우, 제1 투명표시패널(100)을 제어하는 방법이 상세히 나타나 있다. 즉, 본 발명의 제2 실시 예는 제1 투명표시패널(100)의 배면에 복수의 객체가 위치하는 경우 투명 디스플레이 장치의 제어방법에 관한 것이다. 도 6a 내지 도 6e에서는 제1 투명표시패널(100)의 배면에 2 개의 객체가 위치하는 것을 중심으로 설명하였으나, 이에 한정되지 않음에 주의하여야 한다. 즉, 제1 투명표시패널(100)의 배면에는 n(n은 2 이상의 자연수) 개의 객체가 위치할 수 있다.
첫 번째로, 제어부(300)는 제1 투명표시패널(100)을 투명하게 구현하도록 피크 화이트 계조의 디지털 영상 데이터를 제1 투명표시패널 구동부(110)에 전송한다. 그 결과, 제1 투명표시패널(100)은 투명하게 구현되므로, 제1 투명표시패널(100)의 정면에 위치하여 제1 투명표시패널(100)을 바라보는 사람(PSN)은 제1 투명표시패널(100)을 통해 복수의 객체를 볼 수 있다. (S201)
두 번째로, 제어부(300)는 제1 투명표시패널(100)을 바라보는 사람(PSN)의 시선이 복수의 객체 중 어느 하나로 향하는지를 판단한다. 구체적으로, 제1 시선 감지 센서(200)는 제1 투명표시패널(100)의 정면에서 제1 투명표시패널(100)을 바라보는 사람(PSN)에 대한 화상을 촬영하여 화상 데이터를 생성하고, 화상 데이터를 시선 방향 판단부(210)로 출력할 수 있다. 이 경우, 시선 방향 판단부(210)는 화상 데이터를 분석하여 사용자의 위치 좌표를 산출하고, 사용자의 시선 방향을 산출할 수 있다. 제어부(300)는 시선 방향 판단부(210)로부터 산출된 사용자의 위치 좌표와 사용자의 시선 방향, 및 메모리에 미리 저장되어 있는 복수의 객체 각각의 위치 좌표에 기초하여 사용자의 시선이 복수의 객체 중 어느 하나로 향하는지를 판단할 수 있다. 제어부(300)는 제1 투명표시패널(100)을 바라보는 사람(PSN)의 시선이 복수의 객체 중 어느 하나로 향하지 않는 경우, 제1 투명표시패널(100)을 계속해서 투명하게 구현한다. (S202)
세 번째로, 제어부(300)는 도 6a와 같이 제1 투명표시패널(100)을 바라보는 사람(PSN)의 시선이 복수의 객체 중 제1 객체(OBJ1)로 향하는 경우, 도 6b와 같이 제1 객체(OBJ1)에 대한 제1 인디케이터(IND1)를 제1 투명표시패널(100)에 표시하도록 제어한다. 이와 동시에, 제어부(300)는 제1 객체(OBJ1)와 관련있는 객체를 바라보도록 유도하는 제2 인디케이터(IND2)를 제1 투명표시패널(100)에 표시하도록 제어한다. 제1 객체(OBJ1)와 관련있는 객체는 제1 객체(OBJ1)와 유사한 형태, 모양, 기능, 속성, 재질, 또는 특성을 갖는 객체일 수 있다. 도 6a에서는 제1 객체(OBJ1)와 관련있는 객체로 제2 객체(OBJ2)를 예시하였다.
제1 및 제2 인디케이터(IND1, IND2)는 사용자의 주의를 끌기 위한 식별 표시로, 도 6b에서는 "⊙"로 구현된 것을 중심으로 설명하였으나, 이에 한정되지 않음에 주의하여야 한다. 즉, 제1 및 제2 인디케이터(IND1, IND2)는 원, 삼각형, 사각형 등 어떠한 형태로 구현될 수 있다.
제1 인디케이터(IND1)는 제1 투명표시패널(100)에서 제1 객체(OBJ1)의 정면에 표시되고, 제2 인디케이터(IND2)는 제1 투명표시패널(100)에서 제2 객체(OBJ2)의 정면에 표시될 수 있다. 또는, 제1 및 제2 인디케이터(IND1, IND2)의 표시 위치는 제1 및 제2 객체(OBJ1, OBJ2)를 바라보는 사람(PSN)의 위치에 따라 조정될 수 있다. 예를 들어, 도 6b와 같이 제1 객체(OBJ1)를 바라보는 사람(PSN)이 객체(OBJ)의 왼쪽에 위치하는 경우, 제1 인디케이터(IND1)는 제1 투명표시패널(100)에서 제1 객체(OBJ1)의 정면 왼쪽에 표시되고, 제2 인디케이터(IND2)는 제1 투명표시패널(100)에서 제2 객체(OBJ2)의 정면 왼쪽에 표시될 수 있다. 이 경우, 제1 및 제2 객체(OBJ1, OBJ2)를 바라보는 사람(PSN)은 제1 및 제2 인디케이터(IND1, IND2)를 보다 쉽게 인지할 수 있다. (S203)
네 번째로, 제어부(300)는 사람(PSN)의 시선이 제1 및 제2 인디케이터(IND1, IND2) 중 어디로 향하는지를 판단한다. 먼저, 제어부(300)는 사람(PSN)의 시선이 제1 인디케이터(IND1)로 향하는지를 판단한다. 제어부(300)는 도 6b와 같이 사람(PSN)의 시선이 제1 인디케이터(IND1)로 향하는 경우, 도 6c와 같이 제1 객체의 상세 정보(DI1)를 제1 투명표시패널(100)에 표시하도록 제어한다. 제어부(300)는 사람(PSN)의 시선이 제1 인디케이터(IND1)로 향하지 않는 경우, 제2 인디케이터(IND2)로 향하는지를 판단한다. 제어부(300)는 도 6d와 같이 사람(PSN)의 시선이 제2 인디케이터(IND2)로 향하는 경우, 도 6e와 같이 제2 객체의 상세 정보(DI2)를 제1 투명표시패널(100)에 표시하도록 제어한다. 제어부(300)는 사람(PSN)의 시선이 소정의 기간 동안 제1 및 제2 인디케이터(IND1, IND2)로 향하지 않는 경우, 제1 투명표시패널(100)에서 제1 및 제2 인디케이터(IND1, IND2)가 사라지도록 제어한다.
제1 및 제2 객체의 상세 정보(DI1, DI2)는 텍스트를 포함하는 윈도우, 이미지, 또는 동영상 등 객체(OBJ)를 상세히 표현하기 위한 정보이면 그 어떠한 것이든 가능하다. 제1 객체의 상세 정보(DI1)는 제1 인디케이터(IND1)가 표시되었던 위치에 표시되고, 제2 객체의 상세 정보(DI2)는 제2 인디케이터(IND2)가 표시되었던 위치에 표시될 수 있다. 예를 들어, 제1 객체의 상세 정보(DI1)는 제1 투명표시패널(100)에서 제1 객체(OBJ1)의 정면에 표시되고, 제2 객체의 상세 정보(DI2)는 제2 투명표시패널(100)에서 제2 객체(OBJ2)의 정면에 표시될 수 있다. 또는, 제1 객체의 상세 정보(DI1)와 제2 객체의 상세 정보(DI2)의 표시 위치는 제1 및 제2 객체(OBJ1, OBJ2)를 바라보는 사람(PSN)의 위치에 따라 조정될 수 있다. 예를 들어, 도 6c와 같이 제1 객체(OBJ1)를 바라보는 사람(PSN)이 제1 객체(OBJ1)의 왼쪽에 위치하는 경우, 제1 객체의 상세 정보(DI1)는 제1 투명표시패널(100)에서 제1 객체(OBJ1)의 정면 왼쪽에 표시될 수 있다. 또한, 도 6e와 같이 제2 객체(OBJ2)를 바라보는 사람(PSN)이 제2 객체(OBJ2)의 왼쪽에 위치하는 경우, 제2 객체의 상세 정보(DI2)는 제1 투명표시패널(100)에서 제2 객체(OBJ2)의 정면 왼쪽에 표시될 수 있다. 또는, 제1 및 제2 객체의 상세 정보(DI1, DI2)는 제1 투명표시패널(100) 전체에 표시될 수 있다. (S204, S205, S206, S207, S208)
제어부(300)는 사람(PSN)의 시선이 제1 객체의 상세 정보(DI1)로 향하는지를 판단한다. 제어부(300)는 사람(PSN)의 시선이 소정의 기간 동안 제1 객체의 상세 정보(DI1)로 향하지 않는 경우, 제1 투명표시패널(100)에서 제1 객체의 상세 정보(DI1)가 사라지게 제어한다. 또한, 제어부(300)는 사람(PSN)의 시선이 제1 객체의 상세 정보(DI1)로 향하는 경우, 제1 객체의 상세 정보(DI1)를 제1 투명표시패널(100)에 계속 표시하도록 제어한다. (S209, S210)
제어부(300)는 사람(PSN)의 시선이 제2 객체의 상세 정보(DI2)로 향하는지를 판단한다. 제어부(300)는 사람(PSN)의 시선이 소정의 기간 동안 제2 객체의 상세 정보(DI2)로 향하지 않는 경우, 제1 투명표시패널(100)에서 제2 객체의 상세 정보(DI2)가 사라지게 제어한다. 또한, 제어부(300)는 사람(PSN)의 시선이 제2 객체의 상세 정보(DI2)로 향하는 경우, 제2 객체의 상세 정보(DI2)를 제1 투명표시패널(100)에 계속 표시하도록 제어한다. (S211, S212)
이상에서 살펴본 바와 같이, 본 발명의 제2 실시 예에 따른 투명 디스플레이 장치의 제어방법은 사람(PSN)의 시선이 제1 객체(OBJ1), 제2 객체(OBJ2), 제1 인디케이터(IND1), 제2 인디케이터(IND2), 제1 객체의 상세 정보(DI1), 또는 제2 객체의 상세 정보(DI2)로 향하는지를 판단하고, 그에 따라 제1 투명표시패널(100)에 일부 영역에 제1 인디케이터(IND1), 제2 인디케이터(IND2), 제1 객체의 상세 정보(DI1), 또는 제2 객체의 상세 정보(DI2)를 표시한다. 그 결과, 본 발명의 제1 실시 예는 투명 디스플레이 장치를 이용하여 제1 및/또는 제2 객체(OBJ1, OBJ2)를 바라보는 사람(PSN)에게 그 객체(OBJ)에 대한 정보를 상세히 제공할 수 있다. 즉, 본 발명의 제2 실시 예는 투명 디스플레이 장치를 활용함으로써 사람(PSN)에 대한 서비스 만족도를 높일 수 있다.
도 7은 본 발명의 또 다른 실시 예에 따른 투명 디스플레이 장치를 보여주는 사시도이다. 도 8은 도 7의 투명 디스플레이 장치의 블록도이다. 도 7 및 도 8을 참조하면, 본 발명의 실시 예에 따른 투명 디스플레이 장치는 제1 투명표시패널(100), 제1 투명표시패널 구동부(110), 제2 투명표시패널(120), 제2 투명표시패널 구동부(130), 제1 시선 감지 센서(200), 시선 방향 판단부(210), 제어부(300) 등을 포함한다.
도 7 및 도 8에 도시된 본 발명의 또 다른 실시 예에 따른 투명 디스플레이 장치의 제1 투명표시패널(100), 제1 투명표시패널 구동부(110), 제1 시선 감지 센서(200), 시선 방향 판단부(210), 제어부(300) 등은 도 1 및 도 2를 결부하여 설명한 바와 실질적으로 동일하므로, 이들에 대한 자세한 설명은 생략하기로 한다.
도 7을 참조하면, 제2 투명표시패널(120)은 제1 투명표시패널(100)의 정면, 배면, 좌측면, 우측면, 상면 또는 하면에 위치할 수 있다. 도 7 및 도 10a 내지 도 10f에서는 제2 투명표시패널(120)이 제1 투명표시패널(100)의 배면으로부터 소정의 간격만큼 떨어져 배치된 것을 중심으로 설명하였으나, 이에 한정되지 않음에 주의하여야 한다.
제2 투명표시패널(120)은 제1 투명표시패널(100)과 같이 투명하게 구현됨과 동시에 화상을 표시할 수 있다. 제2 투명표시패널(120)은 액정표시소자(Liquid Crystal Display, LCD), 유기발광다이오드 소자(Organic Light Emitting Diode, OLED) 등의 평판 표시소자로 구현될 수 있다. 본 발명은 아래의 실시 예에서 제2 투명표시패널(120)이 액정표시소자로 구현되는 것을 중심으로 설명하였지만, 이에 한정되지 않는 것에 주의하여야 한다. 한편, 제2 투명표시패널(120)이 액정표시소자로 구현되는 경우, 도 1 및 도 2를 결부하여 설명한 제1 투명표시패널(100)과 실질적으로 동일하게 구현될 수 있으므로, 이에 대한 자세한 설명은 생략하기로 한다.
제2 투명표시패널 구동부(130)는 제2 게이트 구동부(131), 제2 데이터 구동부(132), 및 제2 타이밍 제어부(133)를 포함한다. 제2 투명표시패널 구동부(130)는 도 1 및 도 2를 결부하여 설명한 제1 투명표시패널 구동부(110)와 실질적으로 동일하게 구현될 수 있으므로, 이에 대한 자세한 설명은 생략하기로 한다.
도 9는 본 발명의 제3 실시 예에 따른 투명 디스플레이 장치의 제어방법을 보여주는 흐름도이다. 도 10a 내지 도 10f는 도 9의 경우 투명 디스플레이 장치와 그를 바라보는 사람을 보여주는 예시도면들이다. 도 9 및 도 10a 내지 도 10f에는 제2 투명표시패널(120)이 제1 투명표시패널(100)의 배면으로부터 소정의 간격만큼 떨어져 배치되고, 제1 투명표시패널(100)과 제2 투명표시패널(120) 사이에 제1 객체(OBJ1)가 위치하며, 제2 투명표시패널(120)의 배면에 제2 객체(OBJ2)가 위치하는 경우, 사람의 시선에 따라 제1 및 제2 투명표시패널(100, 120)을 제어하는 방법이 상세히 나타나 있다.
첫 번째로, 제어부(300)는 제1 및 제2 투명표시패널(100, 120)을 투명하게 구현하도록 피크 화이트 계조의 디지털 영상 데이터를 제1 투명표시패널 구동부(110)와 제2 투명표시패널 구동부(130)에 전송한다. 그 결과, 제1 및 제2 투명표시패널(100, 120)은 투명하게 구현되므로, 제1 및 제2 투명표시패널(100, 120)의 정면에 위치하여 제1 및 제2 투명표시패널(100, 120)을 바라보는 사람(PSN)은 제1 및 제2 객체(OBJ1, OBJ2)를 볼 수 있다. (S301)
두 번째로, 제어부(300)는 제1 및 제2 투명표시패널(100, 120)을 바라보는 사람(PSN)의 시선이 제1 및 제2 객체(OBJ1, OBJ2) 중 어느 하나로 향하는지를 판단한다. 구체적으로, 제1 시선 감지 센서(200)는 제1 투명표시패널(100)의 정면에서 제1 투명표시패널(100)을 바라보는 사람(PSN)에 대한 화상을 촬영하여 화상 데이터를 생성하고, 화상 데이터를 시선 방향 판단부(210)로 출력할 수 있다. 이 경우, 시선 방향 판단부(210)는 화상 데이터를 분석하여 사람(PSN)의 위치 좌표를 산출하고, 사람(PSN)의 시선 방향을 산출할 수 있다. 제어부(300)는 시선 방향 판단부(210)로부터 산출된 사람(PSN)의 위치 좌표와 사람(PSN) 시선 방향, 및 메모리에 미리 저장되어 있는 제1 및 제2 객체(OBJ1, OBJ2) 각각의 위치 좌표에 기초하여 사람(PSN)의 시선이 제1 및 제2 객체(OBJ1, OBJ2) 중 어느 하나로 향하는지를 판단할 수 있다. 제어부(300)는 제1 투명표시패널(100)을 바라보는 사람(PSN)의 시선이 제1 및 제2 객체(OBJ1, OBJ2) 중 어느 하나로 향하지 않는 경우, 제1 투명표시패널(100)을 계속해서 투명하게 구현한다. (S302, S309)
세 번째로, 제어부(300)는 도 10a와 같이 사람(PSN)의 시선이 제1 객체(OBJ1)로 향하는 경우, 도 10b와 같이 제1 객체(OBJ1)에 대한 제1 인디케이터(IND1)를 제1 투명표시패널(100)에 표시하도록 제어한다. 제1 인디케이터(IND1)는 사용자의 주의를 끌기 위한 식별 표시로, 도 10b에서는 "⊙"로 구현된 것을 중심으로 설명하였으나, 이에 한정되지 않음에 주의하여야 한다. 즉, 제1 인디케이터(IND1)는 원, 삼각형, 사각형 등 어떠한 형태로 구현될 수 있다.
제1 인디케이터(IND1)는 제1 투명표시패널(100)에서 제1 객체(OBJ1)의 정면에 표시될 수 있다. 또는, 제1 인디케이터(IND1)의 표시 위치는 제1 객체(OBJ1)를 바라보는 사람(PSN)의 위치에 따라 조정될 수 있다. 예를 들어, 도 10b와 같이 제1 객체(OBJ1)를 바라보는 사람(PSN)이 제1 객체(OBJ1)의 왼쪽에 위치하는 경우, 제1 인디케이터(IND1)는 제1 투명표시패널(100)에서 제1 객체(OBJ1)의 정면 왼쪽에 표시될 수 있다. 이 경우, 제1 객체(OBJ1)를 바라보는 사람(PSN)은 제1 인디케이터(IND1)를 보다 쉽게 인지할 수 있다. (S303)
네 번째로, 제어부(300)는 사람(PSN)의 시선이 제1 인디케이터(IND1)로 향하는지를 판단한다. 제어부(300)는 사람(PSN)의 시선이 소정의 기간 동안 제1 인디케이터(IND1)로 향하지 않는 경우, 제1 투명표시패널(100)에서 제1 인디케이터(IND1)가 사라지게 제어한다. 또한, 제어부(300)는 도 10b와 같이 사람(PSN)의 시선이 제1 인디케이터(IND1)로 향하는 경우, 도 10c와 같이 제1 객체의 상세 정보(DI1)를 제1 투명표시패널(100)에 표시하도록 제어한다. 제1 객체의 상세 정보(DI1)는 텍스트를 포함하는 윈도우, 이미지, 또는 동영상 등 객체(OBJ)를 상세히 표현하기 위한 정보이면 그 어떠한 것이든 가능하다.
제1 객체의 상세 정보(DI1)는 제1 인디케이터(IND1)가 표시되었던 위치에 표시될 수 있다. 즉, 제1 객체의 상세 정보(DI1)는 제1 투명표시패널(100)에서 제1 객체(OBJ1)의 정면에 표시될 수 있다. 또한, 제1 객체의 상세 정보(DI1)의 표시 위치는 제1 객체(OBJ)를 바라보는 사람(PSN)의 위치에 따라 조정될 수 있다. 예를 들어, 도 10c와 같이 제1 객체(OBJ1)를 바라보는 사람(PSN)이 제1 객체(OBJ1)의 왼쪽에 위치하는 경우 제1 객체의 상세 정보(DI1)는 제1 투명표시패널(100)에서 제1 객체(OBJ1)의 정면 왼쪽에 표시될 수 있다. 또는, 제1 객체의 상세 정보(DI1)는 제1 투명표시패널(100) 전체에 표시될 수 있다. (S304, S305, S306)
다섯 번째로, 제어부(300)는 사람(PSN)의 시선이 제1 객체의 상세 정보(DI1)로 향하는지를 판단한다. 제어부(300)는 사람(PSN)의 시선이 소정의 기간 동안 제1 객체의 상세 정보(DI1)로 향하지 않는 경우, 제1 투명표시패널(100)에서 제1 객체의 상세 정보(DI1)가 사라지게 제어한다. 또한, 제어부(300)는 사람(PSN)의 시선이 제1 객체의 상세 정보(DI1)로 향하는 경우, 제1 객체의 상세 정보(DI1)를 제1 투명표시패널(100)에 계속 표시하도록 제어한다. (S307, S308)
여섯 번째로, 제어부(300)는 도 10d와 같이 사람(PSN)의 시선이 제2 객체(OBJ2)로 향하는 경우, 도 10e와 같이 제2 객체(OBJ2)에 대한 제2 인디케이터(IND2)를 제2 투명표시패널(120)에 표시하도록 제어한다. 제2 인디케이터(IND2)는 사용자의 주의를 끌기 위한 식별 표시로, 도 10e에서는 "⊙"로 구현된 것을 중심으로 설명하였으나, 이에 한정되지 않음에 주의하여야 한다. 즉, 제2 인디케이터(IND2)는 원, 삼각형, 사각형 등 어떠한 형태로 구현될 수 있다.
제2 인디케이터(IND2)는 제2 투명표시패널(120)에서 제2 객체(OBJ2)의 정면에 표시될 수 있다. 또는, 제2 인디케이터(IND2)의 표시 위치는 제2 객체(OBJ2)를 바라보는 사람(PSN)의 위치에 따라 조정될 수 있다. 예를 들어, 도 10e와 같이 제2 객체(OBJ2)를 바라보는 사람(PSN)이 제2 객체(OBJ2)의 왼쪽에 위치하는 경우, 제2 인디케이터(IND2)는 제2 투명표시패널(120)에서 제2 객체(OBJ2)의 정면 왼쪽에 표시될 수 있다. 이 경우, 제2 객체(OBJ2)를 바라보는 사람(PSN)은 제2 인디케이터(IND2)를 보다 쉽게 인지할 수 있다. (S310)
일곱 번째로, 제어부(300)는 사람(PSN)의 시선이 제2 인디케이터(IND2)로 향하는지를 판단한다. 제어부(300)는 사람(PSN)의 시선이 소정의 기간 동안 제2 인디케이터(IND2)로 향하지 않는 경우, 제2 투명표시패널(120)에서 제2 인디케이터(IND2)가 사라지게 제어한다. 또한, 제어부(300)는 도 10e와 같이 사람(PSN)의 시선이 제2 인디케이터(IND2)로 향하는 경우, 도 10f와 같이 제2 객체의 상세 정보(DI2)를 제2 투명표시패널(120)에 표시하도록 제어한다. 제2 객체의 상세 정보(DI2)는 텍스트를 포함하는 윈도우, 이미지, 또는 동영상 등 제2 객체(OBJ2)를 상세히 표현하기 위한 정보이면 그 어떠한 것이든 가능하다.
제2 객체의 상세 정보(DI2)는 제2 인디케이터(IND2)가 표시되었던 위치에 표시될 수 있다. 즉, 제2 객체의 상세 정보(DI2)는 제2 투명표시패널(120)에서 제2 객체(OBJ2)의 정면에 표시될 수 있다. 또한, 제2 객체의 상세 정보(DI2)의 표시 위치는 제2 객체(OBJ2)를 바라보는 사람(PSN)의 위치에 따라 조정될 수 있다. 예를 들어, 도 10f와 같이 제2 객체(OBJ2)를 바라보는 사람(PSN)이 제2 객체(OBJ2)의 왼쪽에 위치하는 경우 제2 객체의 상세 정보(DI2)는 제2 투명표시패널(120)에서 제2 객체(OBJ2)의 정면 왼쪽에 표시될 수 있다. 또는, 제2 객체의 상세 정보(DI2)는 제2 투명표시패널(120) 전체에 표시될 수 있다. (S311, S312, S313)
여덟 번째로, 제어부(300)는 사람(PSN)의 시선이 제2 객체의 상세 정보(DI2)로 향하는지를 판단한다. 제어부(300)는 사람(PSN)의 시선이 소정의 기간 동안 제2 객체의 상세 정보(DI2)로 향하지 않는 경우, 제2 투명표시패널(120)에서 제2 객체의 상세 정보(DI2)가 사라지게 제어한다. 또한, 제어부(300)는 사람(PSN)의 시선이 제2 객체의 상세 정보(DI2)로 향하는 경우, 제2 객체의 상세 정보(DI2)를 제2 투명표시패널(120)에 계속 표시하도록 제어한다. (S314, S315)
한편, 본 발명의 제3 실시 예에서 S303 내지 S305 단계들은 생략될 수 있다. 이 경우, 본 발명의 제3 실시 예는 사람(PSN)의 시선이 제1 객체(OBJ1)로 향하는 경우, 제1 인디케이터(IND1) 없이 바로 제1 객체의 상세 정보(DI1)를 제1 투명표시패널(100)에 표시할 수 있다. 또한, 본 발명의 제3 실시 예에서 S310 내지 S312 단계들은 생략될 수 있다. 이 경우, 본 발명의 제3 실시 예는 사람(PSN)의 시선이 제2 객체(OBJ2)로 향하는 경우, 제2 인디케이터(IND2) 없이 바로 제2 객체의 상세 정보(DI2)를 제2 투명표시패널(120)에 표시할 수 있다.
이상에서 살펴본 바와 같이, 본 발명의 제3 실시 예에 따른 투명 디스플레이 장치의 제어방법은 사람(PSN)의 시선이 제1 객체(OBJ1), 제2 객체(OBJ2), 제1 인디케이터(IND1), 제2 인디케이터(IND2), 제1 객체의 상세 정보(DI1), 또는 제2 객체의 상세 정보(DI2)로 향하는지를 판단하고, 그에 따라 제1 투명표시패널(100) 또는 제2 투명표시패널(120)의 일부 영역에 제1 인디케이터(IND1), 제2 인디케이터(IND2), 제1 객체의 상세 정보(DI1), 또는 제2 객체의 상세 정보(DI2)를 표시한다. 그 결과, 본 발명의 제3 실시 예는 투명 디스플레이 장치를 이용하여 객체를 바라보는 사람(PSN)에게 그 객체에 대한 정보를 상세히 제공할 수 있다. 즉, 본 발명의 제3 실시 예는 투명 디스플레이 장치를 활용함으로써 사람(PSN)에 대한 서비스 만족도를 높일 수 있다.
도 11은 본 발명의 또 다른 실시 예에 따른 투명 디스플레이 장치를 보여주는 사시도이다. 도 12는 도 11의 투명 디스플레이 장치의 블록도이다. 도 11 및 도 12를 참조하면, 본 발명의 또 다른 실시 예에 따른 투명 디스플레이 장치는 제1 투명표시패널(100), 제1 투명표시패널 구동부(110), 미러표시패널(140), 미러표시패널 구동부(150), 제1 시선 감지 센서(200), 시선 방향 판단부(210), 제어부(300) 등을 포함한다.
도 11 및 도 12에 도시된 본 발명의 또 다른 실시 예에 따른 투명 디스플레이 장치의 제1 투명표시패널(100), 제1 투명표시패널 구동부(110), 제1 시선 감지 센서(200), 시선 방향 판단부(210), 제어부(300) 등은 도 1 및 도 2를 결부하여 설명한 바와 실질적으로 동일하므로, 이들에 대한 자세한 설명은 생략하기로 한다.
도 11을 참조하면, 미러표시패널(140)은 제1 투명표시패널(100)의 배면에 위치할 수 있다. 도 11 및 도 14a 내지 도 14f에서는 미러표시패널(140)이 제1 투명표시패널(100)의 배면으로부터 소정의 간격만큼 떨어져 배치된 것을 중심으로 설명하였다.
미러표시패널(140)은 도 11과 같이 제2 투명표시패널(141)과 미러(142)를 포함한다. 제2 투명표시패널(141)은 제1 투명표시패널(100)과 같이 투명하게 구현됨과 동시에 화상을 표시할 수 있다. 따라서, 제2 투명표시패널(141)이 투명하게 구현되는 경우, 미러표시패널(140)은 미러로서 기능한다. 또한, 제2 투명표시패널(141)이 화상을 표시하는 경우, 미러표시패널(140)은 화상을 표시한다.
제2 투명표시패널(141)은 액정표시소자(Liquid Crystal Display, LCD), 유기발광다이오드 소자(Organic Light Emitting Diode, OLED) 등의 평판 표시소자로 구현될 수 있다. 본 발명은 아래의 실시 예에서 제2 투명표시패널(141)이 액정표시소자로 구현되는 것을 중심으로 설명하였지만, 이에 한정되지 않는 것에 주의하여야 한다. 한편, 제2 투명표시패널(141)이 액정표시소자로 구현되는 경우, 도 1 및 도 2를 결부하여 설명한 제1 투명표시패널(100)과 실질적으로 동일하게 구현될 수 있으므로, 이에 대한 자세한 설명은 생략하기로 한다.
미러표시패널 구동부(150)는 제2 투명표시패널(141)을 구동하기 위한 제2 게이트 구동부(131), 제2 데이터 구동부(132), 및 제2 타이밍 제어부(133)를 포함한다. 제2 투명표시패널 구동부(130)는 도 1 및 도 2를 결부하여 설명한 제1 투명표시패널 구동부(110)와 실질적으로 동일하게 구현될 수 있으므로, 이에 대한 자세한 설명은 생략하기로 한다.
도 13은 본 발명의 제4 실시 예에 따른 투명 디스플레이 장치의 제어방법을 보여주는 흐름도이다. 도 14a 내지 도 14f는 도 13의 경우 투명 디스플레이 장치와 그를 바라보는 사람을 보여주는 예시도면들이다. 도 13 및 도 14a 내지 도 14f에는 미러표시패널(140)이 제1 투명표시패널(100)의 배면으로부터 소정의 간격만큼 떨어져 배치되고, 제1 투명표시패널(100)과 미러표시패널(140) 사이에 객체(OBJ)가 위치하는 경우, 사람의 시선에 따라 제1 투명표시패널(100)과 미러표시패널(140)을 제어하는 방법이 상세히 나타나 있다.
첫 번째로, 제어부(300)는 제1 투명표시패널(100)을 투명하게 구현하도록 피크 화이트 계조의 디지털 영상 데이터를 제1 투명표시패널 구동부(110)에 전송한다. 또한, 제어부(300)는 미러표시패널(140)가 미러로 기능하도록 피크 화이트 계조의 디지털 영상 데이터를 미러표시패널 구동부(150)에 전송한다. 그 결과, 제1 투명표시패널(100)은 투명하게 구현되고 미러표시패널(140)은 미러로 구현되므로, 사람(PSN)은 객체(OBJ)의 앞면 뿐만 아니라, 미러표시패널(140)을 통해 객체(OBJ)의 뒷면을 볼 수 있다. (S401)
두 번째로, 제어부(300)는 사람(PSN)의 시선이 객체(OBJ)의 앞면으로 향하는지 객체(OBJ)의 뒷면으로 향하는지를 판단한다. 구체적으로, 제1 시선 감지 센서(200)는 제1 투명표시패널(100)의 정면에서 제1 투명표시패널(100)을 바라보는 사람(PSN)에 대한 화상을 촬영하여 화상 데이터를 생성하고, 화상 데이터를 시선 방향 판단부(210)로 출력할 수 있다. 이 경우, 시선 방향 판단부(210)는 화상 데이터를 분석하여 사람(PSN)의 위치 좌표를 산출하고, 사람(PSN)의 시선 방향을 산출할 수 있다. 제어부(300)는 시선 방향 판단부(210)로부터 산출된 사람(PSN)의 위치 좌표와 사람(PSN) 시선 방향, 메모리에 미리 저장되어 있는 객체(OBJ)의 위치 좌표, 및 미러표시패널(140)의 좌표에 기초하여 사람(PSN)의 시선이 객체(OBJ)의 앞면으로 향하는지 또는 미러표시패널(140)을 통해 객체(OBJ)의 뒷면으로 향하는지를 판단할 수 있다.
제어부(300)는 사람(PSN)의 시선이 객체(OBJ)의 앞면으로 향하는 경우, 도 3 및 도 4a 내지 도 4c를 결부하여 설명한 바와 실질적으로 동일하게 제1 투명표시패널(100)을 제어하며, 미러표시패널(140)은 미러로서 기능하게 한다. 즉, 제어부(300)는 도 3의 S103 내지 S108 단계들과 같이 제1 투명표시패널(100)을 제어한다. 따라서, 사람(PSN)의 시선이 객체(OBJ)의 앞면으로 향하는 경우, 제1 투명표시패널(100)의 제어방법에 대한 자세한 설명은 생략하기로 한다.
또한, 제어부(300)는 제1 투명표시패널(100)을 바라보는 사람(PSN)의 시선이 객체(OBJ)의 앞면으로 향하지 않고, 미러표시패널(140)을 통해 객체(OBJ)의 뒷면으로도 향하지 않는 경우, 제1 투명표시패널(100)을 계속해서 투명하게 구현하고, 미러표시패널(140)을 계속해서 미러로서 기능하게 한다. (S402)
세 번째로, 제어부(300)는 도 14a와 같이 사람(PSN)의 시선이 객체(OBJ)의 뒷면으로 향하는 경우, 도 14b와 같이 객체(OBJ)에 대한 제2 인디케이터(IND2)를 미러표시패널(140)에 표시하도록 제어한다. 제2 인디케이터(IND2)는 사용자의 주의를 끌기 위한 식별 표시로, 도 14b에서는 "⊙"로 구현된 것을 중심으로 설명하였으나, 이에 한정되지 않음에 주의하여야 한다. 즉, 제2 인디케이터(IND1)는 원, 삼각형, 사각형 등 어떠한 형태로 구현될 수 있다.
제2 인디케이터(IND2)는 도 14b와 같이 사람(PSN)의 시선이 객체(OBJ)의 뒷면으로 향하는 경우, 사람(PSN)의 시선이 향하게 되는 미러표시패널(140)의 일부 영역에 표시될 수 있다. 이 경우, 객체(OBJ)의 뒷면을 바라보는 사람(PSN)은 제2 인디케이터(IND1)를 보다 쉽게 인지할 수 있다. (S403)
네 번째로, 제어부(300)는 사람(PSN)의 시선이 제2 인디케이터(IND2)로 향하는지를 판단한다. 제어부(300)는 사람(PSN)의 시선이 소정의 기간 동안 제2 인디케이터(IND1)로 향하지 않는 경우, 미러표시패널(140)에서 제2 인디케이터(IND2)가 사라지게 제어한다. 또한, 제어부(300)는 도 14b와 같이 사람(PSN)의 시선이 제2 인디케이터(IND2)로 향하는 경우, 도 14c와 같이 객체의 상세 정보(DI)를 미러표시패널(140)에 표시하도록 제어한다. 객체의 상세 정보(DI)는 텍스트를 포함하는 윈도우, 이미지, 또는 동영상 등 객체(OBJ)를 상세히 표현하기 위한 정보이면 그 어떠한 것이든 가능하다.
미러표시패널(140)에 표시되는 객체의 상세 정보(DI)는 제1 투명표시패널(100)에 표시되는 객체의 상세 정보(DI)와 동일할 수도 있고 다를 수도 있다. 예를 들어, 제1 투명표시패널(100)에 표시되는 객체의 상세 정보(DI)가 객체(OBJ)의 앞면에 대한 상세 정보인 경우, 미러표시패널(140)에 표시되는 객체의 상세 정보(DI)는 객체(OBJ)의 뒷면에 대한 상세 정보일 수 있다.
또한, 객체의 상세 정보(DI)는 제2 인디케이터(IND2)가 표시되었던 위치에 표시될 수 있다. 또는, 객체의 상세 정보(DI)는 미러표시패널(140) 전체에 표시될 수 있다. (S404, S405, S406)
다섯 번째로, 제어부(300)는 사람(PSN)의 시선이 미러표시패널(140)에 표시된 객체의 상세 정보(DI)로 향하는지를 판단한다. 제어부(300)는 사람(PSN)의 시선이 소정의 기간 동안 미러표시패널(140)에 표시된 객체의 상세 정보(DI)로 향하지 않는 경우, 미러표시패널(140)에서 객체의 상세 정보(DI)가 사라지게 제어한다. 또한, 제어부(300)는 사람(PSN)의 시선이 미러표시패널(140)에 표시된 객체의 상세 정보(DI)로 향하는 경우, 객체의 상세 정보(DI)를 미러표시패널(140)에 계속 표시하도록 제어한다. (S407, S408)
한편, 본 발명의 제4 실시 예에서 S403 내지 S405 단계들은 생략될 수 있다. 이 경우, 본 발명의 제4 실시 예는 사람(PSN)의 시선이 객체(OBJ)의 뒷면으로 향하는 경우, 제2 인디케이터(IND2) 없이 바로 객체의 상세 정보(DI)를 미러표시패널(140)에 표시할 수 있다.
이상에서 살펴본 바와 같이, 본 발명의 제4 실시 예에 따른 투명 디스플레이 장치의 제어방법은 사람(PSN)의 시선이 객체(OBJ), 인디케이터, 또는 객체의 상세 정보(DI)로 향하는지를 판단하고, 그에 따라 제1 투명표시패널(100) 또는 미러표시패널(140)의 일부 영역에 인디케이터, 또는 객체의 상세 정보(DI)를 표시한다. 그 결과, 본 발명의 제4 실시 예는 투명 디스플레이 장치를 이용하여 객체를 바라보는 사람(PSN)에게 그 객체에 대한 정보를 상세히 제공할 수 있다. 즉, 본 발명의 제4 실시 예는 투명 디스플레이 장치를 활용함으로써 사람(PSN)에 대한 서비스 만족도를 높일 수 있다.
도 15는 본 발명의 또 다른 실시 예에 따른 투명 디스플레이 장치를 보여주는 사시도이다. 도 16은 도 15의 투명 디스플레이 장치의 블록도이다. 도 15 및 도 16을 참조하면, 본 발명의 또 다른 실시 예에 따른 투명 디스플레이 장치는 제1 투명표시패널(100), 제1 투명표시패널 구동부(110), 제2 투명표시패널(120), 제2 투명표시패널 구동부(130), 제1 시선 감지 센서(200), 제2 시선 감지 센서(220), 시선 방향 판단부(210), 제어부(300) 등을 포함한다.
도 15 및 도 16에 도시된 본 발명의 또 다른 실시 예에 따른 투명 디스플레이 장치의 제1 투명표시패널(100), 제1 투명표시패널 구동부(110), 제1 시선 감지 센서(200), 시선 방향 판단부(210), 제어부(300) 등은 도 1 및 도 2를 결부하여 설명한 바와 실질적으로 동일하므로, 이들에 대한 자세한 설명은 생략하기로 한다.
도 15를 참조하면, 제2 투명표시패널(120)은 제1 투명표시패널(100)의 배면에 위치할 수 있다. 제2 투명표시패널(120)은 제1 투명표시패널(100)의 배면으로부터 소정의 간격만큼 떨어져 배치된다. 제2 투명표시패널(120)의 정면이 바라보는 방향은 제1 투명표시패널(100)의 정면이 바라보는 방향에 반대되는 방향이다.
제2 시선 감지 센서(220)는 제2 투명표시패널(120)의 정면에서 제2 투명표시패널(200)을 바라보는 사람의 시선을 감지하기 위한 센서이다. 제2 시선 감지 센서(220)는 도 15와 같이 제2 투명표시패널(120)의 상면에 배치될 수 있다. 제2 투명표시패널(120)의 정면이 바라보는 방향은 제1 투명표시패널(100)의 정면이 바라보는 방향에 반대되는 방향이므로, 제2 시선 감지 센서(220)가 바라보는 방향 역시 제1 시선 감지 센서(200)가 바라보는 방향에 반대되는 방향이다. 따라서, 제1 시선 감지 센서(200)가 제1 투명표시패널(100)의 정면에 위치한 사람의 시선을 감지하기 위한 센서라면, 제2 시선 감지 센서(200)는 제1 투명표시패널(100)의 배면에 위치한 사람의 시선을 감지하기 위한 센서이다.
제2 시선 감지 센서(220)는 CCD 카메라 센서 또는 CMOS 카메라 센서로 구현될 수 있다. 이 경우, 제2 시선 감지 센서(220)는 제2 투명표시패널(120)의 정면에서 제2 투명표시패널(120)을 바라보는 사람에 대한 화상을 촬영하여 화상 데이터를 생성하고, 화상 데이터를 시선 방향 판단부(210)로 출력한다.
제2 투명표시패널(120)은 제1 투명표시패널(100)과 같이 투명하게 구현됨과 동시에 화상을 표시할 수 있다. 제2 투명표시패널(120)은 액정표시소자(Liquid Crystal Display, LCD), 유기발광다이오드 소자(Organic Light Emitting Diode, OLED) 등의 평판 표시소자로 구현될 수 있다. 본 발명은 아래의 실시 예에서 제2 투명표시패널(120)이 액정표시소자로 구현되는 것을 중심으로 설명하였지만, 이에 한정되지 않는 것에 주의하여야 한다. 한편, 제2 투명표시패널(120)이 액정표시소자로 구현되는 경우, 도 1 및 도 2를 결부하여 설명한 제1 투명표시패널(100)과 실질적으로 동일하게 구현될 수 있으므로, 이에 대한 자세한 설명은 생략하기로 한다.
제2 투명표시패널 구동부(130)는 제2 게이트 구동부(131), 제2 데이터 구동부(132), 및 제2 타이밍 제어부(133)를 포함한다. 제2 투명표시패널 구동부(130)는 도 1 및 도 2를 결부하여 설명한 제1 투명표시패널 구동부(110)와 실질적으로 동일하게 구현될 수 있으므로, 이에 대한 자세한 설명은 생략하기로 한다.
도 17은 본 발명의 제5 실시 예에 따른 투명 디스플레이 장치의 제어방법을 보여주는 흐름도이다. 도 18a 내지 도 18f는 도 17의 경우 투명 디스플레이 장치와 그를 바라보는 사람을 보여주는 예시도면들이다. 도 17 및 도 18a 내지 도 18f에는 제2 투명표시패널(120)이 제1 투명표시패널(100)의 배면으로부터 소정의 간격만큼 떨어져 배치되고, 제2 투명표시패널(120)의 정면이 바라보는 방향은 제1 투명표시패널(100)의 정면이 바라보는 방향에 반대되는 방향이며, 제1 투명표시패널(100)과 제2 투명표시패널(120) 사이에 객체(OBJ1)가 위치하는 경우, 사람의 시선에 따라 제1 및 제2 투명표시패널(100, 120)을 제어하는 방법이 상세히 나타나 있다.
첫 번째로, 제어부(300)는 제1 및 제2 투명표시패널(100, 120)을 투명하게 구현하도록 피크 화이트 계조의 디지털 영상 데이터를 제1 투명표시패널 구동부(110)와 제2 투명표시패널 구동부(130)에 전송한다. 그 결과, 제1 및 제2 투명표시패널(100, 120)은 투명하게 구현되므로, 사람(PSN)은 제1 투명표시패널(100) 또는 제2 투명표시패널(120)을 통해 객체(OBJ)를 볼 수 있다. (S501)
두 번째로, 제어부(300)는 사람(PSN)의 시선이 제1 투명표시패널(100)을 통해 객체(OBJ)로 향하는지를 판단한다. 구체적으로, 제1 시선 감지 센서(200)는 제1 투명표시패널(100)의 정면에서 제1 투명표시패널(100)을 바라보는 사람(PSN)에 대한 화상을 촬영하여 화상 데이터를 생성하고, 화상 데이터를 시선 방향 판단부(210)로 출력할 수 있다. 이 경우, 시선 방향 판단부(210)는 화상 데이터를 분석하여 사람(PSN)의 위치 좌표를 산출하고, 사람(PSN)의 시선 방향을 산출할 수 있다. 제어부(300)는 시선 방향 판단부(210)로부터 산출된 사람(PSN)의 위치 좌표와 사람(PSN) 시선 방향, 및 메모리에 미리 저장되어 있는 객체(OBJ)의 위치 좌표에 기초하여 사람(PSN)의 시선이 제1 투명표시패널(100)을 통해 객체(OBJ)로 향하는지를 판단할 수 있다. (S502)
세 번째로, 제어부(300)는 도 18a와 같이 제1 투명표시패널(100)을 통해 객체(OBJ)로 향하는 경우, 도 18b와 같이 객체(OBJ)에 대한 제1 인디케이터(IND1)를 제1 투명표시패널(100)에 표시하도록 제어한다. 제1 인디케이터(IND1)는 사용자의 주의를 끌기 위한 식별 표시로, 도 18b에서는 "⊙"로 구현된 것을 중심으로 설명하였으나, 이에 한정되지 않음에 주의하여야 한다. 즉, 제1 인디케이터(IND1)는 원, 삼각형, 사각형 등 어떠한 형태로 구현될 수 있다.
제1 인디케이터(IND1)는 제1 투명표시패널(100)에서 객체(OBJ)의 정면에 표시될 수 있다. 또는, 제1 인디케이터(IND1)의 표시 위치는 객체(OBJ)를 바라보는 사람(PSN)의 위치에 따라 조정될 수 있다. 예를 들어, 도 18b와 같이 객체(OBJ)를 바라보는 사람(PSN)이 객체(OBJ)의 왼쪽에 위치하는 경우, 제1 인디케이터(IND1)는 제1 투명표시패널(100)에서 객체(OBJ)의 정면 왼쪽에 표시될 수 있다. 이 경우, 객체(OBJ)를 바라보는 사람(PSN)은 제1 인디케이터(IND1)를 보다 쉽게 인지할 수 있다. (S503)
네 번째로, 제어부(300)는 사람(PSN)의 시선이 제1 인디케이터(IND1)로 향하는지를 판단한다. 제어부(300)는 사람(PSN)의 시선이 소정의 기간 동안 제1 인디케이터(IND1)로 향하지 않는 경우, 제1 투명표시패널(100)에서 제1 인디케이터(IND1)가 사라지게 제어한다. 또한, 제어부(300)는 도 18b와 같이 사람(PSN)의 시선이 제1 인디케이터(IND1)로 향하는 경우, 도 18c와 같이 객체의 상세 정보(DI1)를 제1 투명표시패널(100)에 표시하도록 제어한다. 제1 투명표시패널(100)에 표시된 객체의 상세 정보(DI1)는 텍스트를 포함하는 윈도우, 이미지, 또는 동영상 등 객체(OBJ)를 상세히 표현하기 위한 정보이면 그 어떠한 것이든 가능하다.
제1 투명표시패널(100)에 표시된 객체 객체의 상세 정보(DI1)는 제1 인디케이터(IND1)가 표시되었던 위치에 표시될 수 있다. 즉, 제1 투명표시패널(100)에 표시된 객체의 상세 정보(DI1)는 제1 투명표시패널(100)에서 객체(OBJ)의 정면에 표시될 수 있다. 또한, 제1 투명표시패널(100)에 표시된 객체의 상세 정보(DI1)의 표시 위치는 객체(OBJ)를 바라보는 사람(PSN)의 위치에 따라 조정될 수 있다. 예를 들어, 도 18c와 같이 객체(OBJ)를 바라보는 사람(PSN)이 객체(OBJ)의 왼쪽에 위치하는 경우 제1 투명표시패널(100)에 표시된 객체의 상세 정보(DI1)는 제1 투명표시패널(100)에서 객체(OBJ)의 정면 왼쪽에 표시될 수 있다. 또는, 제1 투명표시패널(100)에 표시된 객체의 상세 정보(DI1)는 제1 투명표시패널(100) 전체에 표시될 수 있다. (S504, S505, S506)
다섯 번째로, 제어부(300)는 사람(PSN)의 시선이 제1 투명표시패널(100)에 표시된 객체의 상세 정보(DI1)로 향하는지를 판단한다. 제어부(300)는 사람(PSN)의 시선이 소정의 기간 동안 제1 투명표시패널(100)에 표시된 객체의 상세 정보(DI1)로 향하지 않는 경우, 제1 투명표시패널(100)에서 객체의 상세 정보(DI1)가 사라지게 제어한다. 또한, 제어부(300)는 사람(PSN)의 시선이 제1 투명표시패널(100)에 표시된 객체의 상세 정보(DI1)로 향하는 경우, 객체의 상세 정보(DI1)를 제1 투명표시패널(100)에 계속 표시하도록 제어한다. (S507, S508)
여섯 번째로, 제어부(300)는 사람(PSN)의 시선이 제2 투명표시패널(100)을 통해 객체(OBJ)로 향하는지를 판단한다. 구체적으로, 제2 시선 감지 센서(220)는 제2 투명표시패널(120)의 정면에서 제2 투명표시패널(120)을 바라보는 사람(PSN)에 대한 화상을 촬영하여 화상 데이터를 생성하고, 화상 데이터를 시선 방향 판단부(210)로 출력할 수 있다. 제2 시선 감지 센서(220)는 제2 투명표시패널(120)의 정면에서 제2 투명표시패널(120)을 바라보는 사람(PSN)에 대한 화상을 촬영하여 화상 데이터를 생성하고, 화상 데이터를 시선 방향 판단부(210)로 출력할 수 있다. 이 경우, 시선 방향 판단부(210)는 화상 데이터를 분석하여 사람(PSN)의 위치 좌표를 산출하고, 사람(PSN)의 시선 방향을 산출할 수 있다. 제어부(300)는 시선 방향 판단부(210)로부터 산출된 사람(PSN)의 위치 좌표와 사람(PSN) 시선 방향, 및 메모리에 미리 저장되어 있는 객체(OBJ)의 위치 좌표에 기초하여 사람(PSN)의 시선이 제2 투명표시패널(120)을 통해 객체(OBJ)로 향하는지를 판단할 수 있다. (S509)
일곱 번째로, 제어부(300)는 도 18d와 같이 사람(PSN)의 시선이 제2 투명표시패널(120)을 통해 객체(OBJ)로 향하는 경우, 도 18e와 같이 객체(OBJ)에 대한 제2 인디케이터(IND2)를 제2 투명표시패널(120)에 표시하도록 제어한다. 제2 인디케이터(IND2)는 사용자의 주의를 끌기 위한 식별 표시로, 도 18e에서는 "⊙"로 구현된 것을 중심으로 설명하였으나, 이에 한정되지 않음에 주의하여야 한다. 즉, 제2 인디케이터(IND2)는 원, 삼각형, 사각형 등 어떠한 형태로 구현될 수 있다.
제2 인디케이터(IND2)는 제2 투명표시패널(120)에서 객체(OBJ)의 정면에 표시될 수 있다. 또는, 제2 인디케이터(IND2)의 표시 위치는 객체(OBJ)를 바라보는 사람(PSN)의 위치에 따라 조정될 수 있다. 예를 들어, 도 18e와 같이 객체(OBJ)를 바라보는 사람(PSN)이 객체(OBJ)의 오른쪽에 위치하는 경우, 제2 인디케이터(IND2)는 제2 투명표시패널(120)에서 객체(OBJ)의 정면 오른쪽에 표시될 수 있다. 이 경우, 객체(OBJ)를 바라보는 사람(PSN)은 제2 인디케이터(IND2)를 보다 쉽게 인지할 수 있다. (S510)
여덟 번째로, 제어부(300)는 사람(PSN)의 시선이 제2 인디케이터(IND2)로 향하는지를 판단한다. 제어부(300)는 사람(PSN)의 시선이 소정의 기간 동안 제2 인디케이터(IND2)로 향하지 않는 경우, 제2 투명표시패널(120)에서 제2 인디케이터(IND2)가 사라지게 제어한다. 또한, 제어부(300)는 도 18e와 같이 사람(PSN)의 시선이 제2 인디케이터(IND2)로 향하는 경우, 도 18f와 같이 객체의 상세 정보(DI2)를 제2 투명표시패널(120)에 표시하도록 제어한다. 제2 투명표시패널(120)에 표시된 객체의 상세 정보(DI2)는 텍스트를 포함하는 윈도우, 이미지, 또는 동영상 등 객체(OBJ)를 상세히 표현하기 위한 정보이면 그 어떠한 것이든 가능하다.
제2 투명표시패널(120)에 표시된 객체의 상세 정보(DI2)는 제2 인디케이터(IND2)가 표시되었던 위치에 표시될 수 있다. 즉, 제2 투명표시패널(120)에 표시된 객체의 상세 정보(DI2)는 제2 투명표시패널(120)에서 객체(OBJ)의 정면에 표시될 수 있다. 또한, 제2 투명표시패널(120)에 표시된 객체의 상세 정보(DI2)의 표시 위치는 객체(OBJ)를 바라보는 사람(PSN)의 위치에 따라 조정될 수 있다. 예를 들어, 도 10f와 같이 객체(OBJ)를 바라보는 사람(PSN)이 객체(OBJ)의 오른쪽에 위치하는 경우 제2 투명표시패널(120)에 표시된 객체의 상세 정보(DI2)는 제2 투명표시패널(120)에서 객체(OBJ)의 정면 오른쪽에 표시될 수 있다. 또는, 제2 투명표시패널(120)에 표시된 객체의 상세 정보(DI2)는 제2 투명표시패널(120) 전체에 표시될 수 있다. (S511, S512, S513)
아홉 번째로, 제어부(300)는 사람(PSN)의 시선이 제2 투명표시패널(120)에 표시된 객체의 상세 정보(DI2)로 향하는지를 판단한다. 제어부(300)는 사람(PSN)의 시선이 제2 투명표시패널(120)에 표시된 객체의 상세 정보(DI2)로 향하지 않는 경우, 제2 투명표시패널(120)에서 객체의 상세 정보(DI2)가 사라지게 제어한다. 또한, 제어부(300)는 사람(PSN)의 시선이 제2 투명표시패널(120)에 표시된 객체의 상세 정보(DI2)로 향하는 경우, 객체의 상세 정보(DI2)를 제2 투명표시패널(120)에 계속 표시하도록 제어한다. (S514, S515)
한편, 본 발명의 제5 실시 예에서 S503 내지 S505 단계들은 생략될 수 있다. 이 경우, 본 발명의 제5 실시 예는 사람(PSN)의 시선이 제1 투명표시패널(100)을 통해 객체(OBJ)로 향하는 경우, 제1 인디케이터(IND1) 없이 바로 객체의 상세 정보(DI1)를 제1 투명표시패널(100)에 표시할 수 있다. 또한, 본 발명의 제5 실시 예에서 S510 내지 S512 단계들은 생략될 수 있다. 이 경우, 본 발명의 제5 실시 예는 사람(PSN)의 시선이 제2 투명표시패널(120)을 통해 객체(OBJ)로 향하는 경우, 제2 인디케이터(IND2) 없이 바로 객체의 상세 정보(DI2)를 제2 투명표시패널(120)에 표시할 수 있다.
이상에서 살펴본 바와 같이, 본 발명의 제5 실시 예에 따른 투명 디스플레이 장치의 제어방법은 사람(PSN)의 시선이 객체(OBJ), 제1 인디케이터(IND1), 제2 인디케이터(IND2), 객체의 상세 정보로 향하는지를 판단하고, 그에 따라 제1 투명표시패널(100) 또는 제2 투명표시패널(120)의 일부 영역에 제1 인디케이터(IND1), 제2 인디케이터(IND2), 또는 객체의 상세 정보를 표시한다. 그 결과, 본 발명의 제5 실시 예는 투명 디스플레이 장치를 이용하여 객체를 바라보는 사람(PSN)에게 그 객체에 대한 정보를 상세히 제공할 수 있다. 즉, 본 발명의 제5 실시 예는 투명 디스플레이 장치를 활용함으로써 사람(PSN)에 대한 서비스 만족도를 높일 수 있다.
이상 설명한 내용을 통해 당업자라면 본 발명의 기술사상을 일탈하지 아니하는 범위에서 다양한 변경 및 수정이 가능함을 알 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허 청구의 범위에 의해 정하여져야만 할 것이다.
본 발명은 투명 디스플레이 장치에 관한 산업에 이용될 수 있다.

Claims (25)

  1. 투명하게 구현됨과 동시에 화상을 표시하는 제1 투명표시패널;
    상기 제1 투명표시패널을 바라보는 사람의 시선 방향을 감지하기 위한 제1 시선 감지 센서; 및
    상기 사람의 시선 방향을 분석하여 상기 사람의 시선이 상기 제1 투명표시패널 배면에 위치한 객체로 향하는 경우 상기 제1 투명표시패널에 상기 객체의 상세 정보를 표시하도록 제어하는 제어부를 구비하는 투명 디스플레이 장치.
  2. 제 1 항에 있어서,
    상기 제어부는,
    상기 사람의 시선이 상기 객체로 향하는 경우 상기 제1 투명표시패널에 인디케이터를 표시하고, 상기 사람의 시선이 상기 인디케이터로 향하는 경우 상기 제1 투명표시패널에 상기 객체의 상세 정보를 표시하도록 제어하는 것을 특징으로 하는 투명 디스플레이 장치.
  3. 제 2 항에 있어서,
    상기 사람의 시선이 소정의 기간 동안 상기 인디케이터 또는 상기 객체의 상세 정보로 향하지 않는 경우 상기 제1 투명표시패널에 표시된 상기 인디케이터 또는 상기 객체의 상세 정보를 사라지도록 제어하는 것을 특징으로 하는 투명 디스플레이 장치.
  4. 제 1 항에 있어서,
    상기 사람의 시선이 상기 제1 투명표시패널의 배면에 위치한 복수의 객체 중 어느 하나로 향하는 경우, 상기 사람의 시선이 향하는 제1 객체의 제1 인디케이터를 상기 제1 투명표시패널에 표시함과 동시에 상기 사람의 시선이 상기 제1 객체와 관련있는 제2 객체를 향하도록 유도하는 제2 인디케이터를 상기 제1 투명표시패널에 표시하도록 제어하는 것을 특징으로 하는 투명 디스플레이 장치.
  5. 제 4 항에 있어서,
    상기 사람의 시선이 상기 제1 인디케이터로 향하는 경우 상기 제1 투명표시패널에 상기 제1 객체의 상세 정보를 표시하고, 상기 사람의 시선이 상기 제2 인디케이터로 향하는 경우 상기 제1 투명표시패널에 상기 제2 객체의 상세 정보를 표시하도록 제어하는 것을 특징으로 하는 투명 디스플레이 장치.
  6. 제 5 항에 있어서,
    상기 사람의 시선이 소정의 기간 동안 상기 제1 인디케이터, 상기 제2 인디케이터, 상기 제1 객체의 상세 정보 또는 상기 제2 객체의 상세 정보로 향하지 않는 경우 상기 제1 투명표시패널에 표시된 상기 제1 인디케이터, 상기 제2 인디케이터, 상기 제1 객체의 상세 정보 또는 상기 제2 객체의 상세 정보를 사라지도록 제어하는 것을 특징으로 하는 투명 디스플레이 장치.
  7. 제 1 항에 있어서,
    상기 제1 투명표시패널의 정면, 배면, 좌측면, 우측면, 상면 또는 하면에 위치하고, 투명하게 구현됨과 동시에 화상을 표시하는 제2 투명표시패널을 더 구비하는 투명 디스플레이 장치.
  8. 제 7 항에 있어서,
    상기 사람의 시선이 상기 제1 투명표시패널의 배면에 위치한 제1 객체로 향하는 경우 상기 제1 객체의 제1 인디케이터를 상기 제1 투명표시패널에 표시하고, 상기 사람의 시선이 상기 제2 투명표시패널의 배면에 위치한 제2 객체로 향하는 경우 상기 제2 객체의 제2 인디케이터를 상기 제2 투명표시패널에 표시하는 것을 특징으로 하는 투명 디스플레이 장치.
  9. 제 8 항에 있어서,
    상기 사람의 시선이 상기 제1 인디케이터로 향하는 경우 상기 제1 투명표시패널에 상기 제1 객체의 상세 정보를 표시하고, 상기 사람의 시선이 상기 제2 인디케이터로 향하는 경우 상기 제2 투명표시패널에 상기 제2 객체의 상세 정보를 표시하도록 제어하는 것을 특징으로 하는 투명 디스플레이 장치.
  10. 제 9 항에 있어서,
    상기 사람의 시선이 소정의 기간 동안 상기 제1 인디케이터 또는 상기 제1 객체의 상세 정보로 향하지 않는 경우 상기 제1 투명표시패널에 표시된 상기 제1 인디케이터 또는 상기 제1 객체의 상세 정보를 사라지도록 제어하고, 상기 사람의 시선이 소정의 기간 동안 상기 제2 인디케이터 또는 상기 제2 객체의 상세 정보로 향하지 않는 경우 상기 제2 투명표시패널에 표시된 상기 제2 인디케이터 또는 상기 제2 객체의 상세 정보를 사라지도록 제어하는 것을 특징으로 하는 투명 디스플레이 장치.
  11. 제 1 항에 있어서,
    상기 제1 투명표시패널의 배면에 위치하고, 미러로 구현됨과 동시에 화상을 표시하는 미러표시패널을 더 구비하는 투명 디스플레이 장치.
  12. 제 11 항에 있어서,
    상기 사람의 시선이 상기 제1 투명표시패널을 통해 상기 객체의 정면으로 향하는 경우 상기 객체의 제1 인디케이터를 상기 제1 투명표시패널에 표시하고, 상기 사람의 시선이 상기 미러표시패널을 통해 상기 객체의 뒷면으로 향하는 경우 상기 객체의 제2 인디케이터를 상기 미러표시패널에 표시하는 것을 특징으로 하는 투명 디스플레이 장치.
  13. 제 12 항에 있어서,
    상기 사람의 시선이 상기 제1 인디케이터로 향하는 경우 상기 제1 투명표시패널에 상기 객체의 상세 정보를 표시하고, 상기 사람의 시선이 상기 제2 인디케이터로 향하는 경우 상기 미러표시패널에 상기 객체의 상세 정보를 표시하도록 제어하는 것을 특징으로 하는 투명 디스플레이 장치.
  14. 제 13 항에 있어서,
    상기 사람의 시선이 소정의 기간 동안 상기 제1 인디케이터 또는 상기 제1 투명표시패널에 표시된 객체의 상세 정보로 향하지 않는 경우 상기 제1 투명표시패널에 표시된 상기 제1 인디케이터 또는 상기 제1 투명표시패널에 표시된 객체의 상세 정보를 사라지도록 제어하고, 상기 사람의 시선이 소정의 기간 동안 상기 제2 인디케이터 또는 상기 미러표시패널에 표시된 제2 객체의 상세 정보로 향하지 않는 경우 상기 제2 투명표시패널에 표시된 상기 제2 인디케이터 또는 상기 미러표시패널에 표시된 제2 객체의 상세 정보를 사라지도록 제어하는 것을 특징으로 하는 투명 디스플레이 장치.
  15. 제 1 항에 있어서,
    상기 제1 투명표시패널의 배면에 위치하고, 투명하게 구현됨과 동시에 화상을 표시하는 제2 투명표시패널; 및
    상기 제2 투명표시패널을 바라보는 사람의 시선 방향을 감지하는 제2 시선 감지 센서를 더 구비하는 투명 디스플레이 장치.
  16. 제 15 항에 있어서,
    상기 사람의 시선이 상기 제1 투명표시패널을 통해 상기 객체로 향하는 경우 상기 객체의 제1 인디케이터를 상기 제1 투명표시패널에 표시하고, 상기 사람의 시선이 상기 제2 투명표시패널을 통해 상기 객체로 향하는 경우 상기 제2 객체의 제2 인디케이터를 상기 제2 투명표시패널에 표시하는 것을 특징으로 하는 투명 디스플레이 장치.
  17. 제 16 항에 있어서,
    상기 사람의 시선이 상기 제1 인디케이터로 향하는 경우 상기 제1 투명표시패널에 상기 객체의 상세 정보를 표시하고, 상기 사람의 시선이 상기 제2 인디케이터로 향하는 경우 상기 제2 투명표시패널에 상기 객체의 상세 정보를 표시하도록 제어하는 것을 특징으로 하는 투명 디스플레이 장치.
  18. 제 17 항에 있어서,
    상기 사람의 시선이 소정의 기간 동안 상기 제1 인디케이터 또는 상기 제1 투명표시패널에 표시된 객체의 상세 정보로 향하지 않는 경우 상기 제1 투명표시패널에 표시된 상기 제1 인디케이터 또는 상기 제1 투명표시패널에 표시된 객체의 상세 정보를 사라지도록 제어하고, 상기 사람의 시선이 소정의 기간 동안 상기 제2 인디케이터 또는 상기 제2 투명표시패널에 표시된 객체의 상세 정보로 향하지 않는 경우 상기 제2 투명표시패널에 표시된 상기 제2 인디케이터 또는 상기 제2 투명표시패널에 표시된 객체의 상세 정보를 사라지도록 제어하는 것을 특징으로 하는 투명 디스플레이 장치.
  19. 제 1 항에 있어서,
    상기 시선 방향 추적 센서에 의해 감지된 사람의 시선 방향을 분석하여 상기 사람의 사람의 위치 좌표와 상기 사람의 시선 방향을 산출하는 시선 방향 판단부를 더 구비하고,
    상기 제어부는 상기 사람의 위치 좌표와 상기 사람의 시선 방향에 기초하여 사람의 시선이 어디로 향하는지를 판단하는 것을 특징으로 하는 투명 디스플레이 장치.
  20. 투명하게 구현됨과 동시에 화상을 표시하는 제1 투명표시패널을 구비하는 투명 디스플레이 장치의 제어방법에 있어서,
    상기 제1 시선 감지 센서를 이용하여 제1 투명표시패널을 바라보는 사람의 시선 방향을 감지하는 제1 단계;
    상기 사람의 시선 방향을 분석하여 상기 사람의 시선이 상기 제1 투명표시패널 배면에 위치한 객체로 향하는 경우 상기 제1 투명표시패널에 상기 객체의 상세 정보를 표시하는 제2 단계를 포함하는 투명 디스플레이 장치의 제어방법.
  21. 제 20 항에 있어서,
    상기 제2 단계는,
    상기 사람의 시선이 상기 객체로 향하는 경우 상기 제1 투명표시패널에 인디케이터를 표시하는 단계;
    상기 사람의 시선이 상기 인디케이터로 향하는 경우 상기 제1 투명표시패널에 상기 객체의 상세 정보를 표시하는 단계; 및
    상기 사람의 시선이 소정의 기간 동안 상기 인디케이터 또는 상기 객체의 상세 정보로 향하지 않는 경우 상기 제1 투명표시패널에 표시된 상기 인디케이터 또는 상기 객체의 상세 정보를 사라지도록 하는 단계를 포함하는 것을 특징으로 하는 투명 디스플레이 장치의 제어방법.
  22. 제 20 항에 있어서,
    상기 제2 단계는,
    상기 사람의 시선이 상기 제1 투명표시패널의 배면에 위치한 복수의 객체 중 어느 하나로 향하는 경우, 상기 사람의 시선이 향하는 제1 객체의 제1 인디케이터를 상기 제1 투명표시패널에 표시함과 동시에 상기 사람의 시선이 상기 제1 객체와 관련있는 제2 객체를 향하도록 유도하는 제2 인디케이터를 상기 제1 투명표시패널에 표시하는 단계;
    상기 사람의 시선이 상기 제1 인디케이터로 향하는 경우 상기 제1 투명표시패널에 상기 제1 객체의 상세 정보를 표시하고, 상기 사람의 시선이 상기 제2 인디케이터로 향하는 경우 상기 제1 투명표시패널에 상기 제2 객체의 상세 정보를 표시하는 단계; 및
    상기 사람의 시선이 소정의 기간 동안 상기 제1 인디케이터, 상기 제2 인디케이터, 상기 제1 객체의 상세 정보 또는 상기 제2 객체의 상세 정보로 향하지 않는 경우 상기 제1 투명표시패널에 표시된 상기 제1 인디케이터, 상기 제2 인디케이터, 상기 제1 객체의 상세 정보 또는 상기 제2 객체의 상세 정보를 사라지도록 하는 단계를 포함하는 것을 특징으로 하는 투명 디스플레이 장치의 제어방법.
  23. 제 20 항에 있어서,
    상기 제1 투명표시패널의 정면, 배면, 좌측면, 우측면, 상면 또는 하면에 위치하고, 투명하게 구현됨과 동시에 화상을 표시하는 제2 투명표시패널을 더 구비하는 투명 디스플레이 장치의 제어방법에 있어서,
    상기 제2 단계는,
    상기 사람의 시선이 상기 제1 투명표시패널의 배면에 위치한 제1 객체로 향하는 경우 상기 제1 객체의 제1 인디케이터를 상기 제1 투명표시패널에 표시하고, 상기 사람의 시선이 상기 제2 투명표시패널의 배면에 위치한 제2 객체로 향하는 경우 상기 제2 객체의 제2 인디케이터를 상기 제2 투명표시패널에 표시하는 단계;
    상기 사람의 시선이 상기 제1 인디케이터로 향하는 경우 상기 제1 투명표시패널에 상기 제1 객체의 상세 정보를 표시하고, 상기 사람의 시선이 상기 제2 인디케이터로 향하는 경우 상기 제2 투명표시패널에 상기 제2 객체의 상세 정보를 표시하는 단계; 및
    상기 사람의 시선이 소정의 기간 동안 상기 제1 인디케이터 또는 상기 제1 객체의 상세 정보로 향하지 않는 경우 상기 제1 투명표시패널에 표시된 상기 제1 인디케이터 또는 상기 제1 객체의 상세 정보를 사라지도록 제어하고, 상기 사람의 시선이 소정의 기간 동안 상기 제2 인디케이터 또는 상기 제2 객체의 상세 정보로 향하지 않는 경우 상기 제2 투명표시패널에 표시된 상기 제2 인디케이터 또는 상기 제2 객체의 상세 정보를 사라지도록 하는 단계를 포함하는 것을 특징으로 하는 투명 디스플레이 장치의 제어방법.
  24. 제 20 항에 있어서,
    상기 제1 투명표시패널의 배면에 위치하고, 미러로 구현됨과 동시에 화상을 표시하는 미러표시패널을 더 구비하는 투명 디스플레이 장치의 제어방법에 있어서,
    상기 제2 단계는,
    상기 사람의 시선이 상기 제1 투명표시패널을 통해 상기 객체의 정면으로 향하는 경우 상기 객체의 제1 인디케이터를 상기 제1 투명표시패널에 표시하고, 상기 사람의 시선이 상기 미러표시패널을 통해 상기 객체의 뒷면으로 향하는 경우 상기 객체의 제2 인디케이터를 상기 미러표시패널에 표시하는 단계;
    상기 사람의 시선이 상기 제1 인디케이터로 향하는 경우 상기 제1 투명표시패널에 상기 객체의 상세 정보를 표시하고, 상기 사람의 시선이 상기 제2 인디케이터로 향하는 경우 상기 미러표시패널에 상기 객체의 상세 정보를 표시하는 단계;
    상기 사람의 시선이 소정의 기간 동안 상기 제1 인디케이터 또는 상기 제1 투명표시패널에 표시된 객체의 상세 정보로 향하지 않는 경우 상기 제1 투명표시패널에 표시된 상기 제1 인디케이터 또는 상기 제1 투명표시패널에 표시된 객체의 상세 정보를 사라지도록 하는 단계; 및
    상기 사람의 시선이 소정의 기간 동안 상기 제2 인디케이터 또는 상기 미러표시패널에 표시된 제2 객체의 상세 정보로 향하지 않는 경우 상기 제2 투명표시패널에 표시된 상기 제2 인디케이터 또는 상기 미러표시패널에 표시된 제2 객체의 상세 정보를 사라지도록 하는 단계를 포함하는 것을 특징으로 하는 투명 디스플레이 장치의 제어방법.
  25. 제 20 항에 있어서,
    상기 제1 투명표시패널의 배면에 위치하고, 투명하게 구현됨과 동시에 화상을 표시하는 제2 투명표시패널; 및 상기 제2 투명표시패널을 바라보는 사람의 시선 방향을 감지하는 제2 시선 감지 센서를 더 구비하는 투명 디스플레이 장치의 제어방법에 있어서,
    상기 제2 단계는,
    상기 사람의 시선이 상기 제1 투명표시패널을 통해 상기 객체로 향하는 경우 상기 객체의 제1 인디케이터를 상기 제1 투명표시패널에 표시하고, 상기 사람의 시선이 상기 제2 투명표시패널을 통해 상기 객체로 향하는 경우 상기 제2 객체의 제2 인디케이터를 상기 제2 투명표시패널에 표시하는 단계;
    상기 사람의 시선이 상기 제1 인디케이터로 향하는 경우 상기 제1 투명표시패널에 상기 객체의 상세 정보를 표시하고, 상기 사람의 시선이 상기 제2 인디케이터로 향하는 경우 상기 제2 투명표시패널에 상기 객체의 상세 정보를 표시하는 단계;
    상기 사람의 시선이 소정의 기간 동안 상기 제1 인디케이터 또는 상기 제1 투명표시패널에 표시된 객체의 상세 정보로 향하지 않는 경우 상기 제1 투명표시패널에 표시된 상기 제1 인디케이터 또는 상기 제1 투명표시패널에 표시된 객체의 상세 정보를 사라지도록 제어하는 단계; 및
    상기 사람의 시선이 소정의 기간 동안 상기 제2 인디케이터 또는 상기 제2 투명표시패널에 표시된 객체의 상세 정보로 향하지 않는 경우 상기 제2 투명표시패널에 표시된 상기 제2 인디케이터 또는 상기 제2 투명표시패널에 표시된 객체의 상세 정보를 사라지도록 제어하는 단계를 포함하는 것을 특징으로 하는 투명 디스플레이 장치의 제어방법.
PCT/KR2013/010383 2013-11-15 2013-11-15 투명 디스플레이 장치와 그의 제어방법 WO2015072604A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/036,772 US9990034B2 (en) 2013-11-15 2013-11-15 Transparent display device and control method therefor
PCT/KR2013/010383 WO2015072604A1 (ko) 2013-11-15 2013-11-15 투명 디스플레이 장치와 그의 제어방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2013/010383 WO2015072604A1 (ko) 2013-11-15 2013-11-15 투명 디스플레이 장치와 그의 제어방법

Publications (1)

Publication Number Publication Date
WO2015072604A1 true WO2015072604A1 (ko) 2015-05-21

Family

ID=53057535

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/010383 WO2015072604A1 (ko) 2013-11-15 2013-11-15 투명 디스플레이 장치와 그의 제어방법

Country Status (2)

Country Link
US (1) US9990034B2 (ko)
WO (1) WO2015072604A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017059058A1 (en) * 2015-09-29 2017-04-06 Panasonic Intellectual Property Management Co., Ltd. A system and method for detecting a person interested in a target

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105874528B (zh) * 2014-01-15 2018-07-20 麦克赛尔株式会社 信息显示终端、信息显示系统以及信息显示方法
US10445577B2 (en) * 2014-04-08 2019-10-15 Maxell, Ltd. Information display method and information display terminal
KR102337682B1 (ko) * 2014-10-01 2021-12-09 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법
US9880634B2 (en) 2015-03-20 2018-01-30 Optim Corporation Gesture input apparatus, gesture input method, and program for wearable terminal
WO2017113757A1 (zh) * 2015-12-31 2017-07-06 北京小鸟看看科技有限公司 一种环绕式界面布局方法、三维沉浸式环境下内容切换方法和列表切换方法
CA3033109A1 (en) * 2016-08-12 2018-02-15 Magic Leap, Inc. Word flow annotation
CN108630156A (zh) * 2017-03-24 2018-10-09 京东方科技集团股份有限公司 显示装置及显示方法
JP2019035903A (ja) * 2017-08-18 2019-03-07 富士ゼロックス株式会社 情報処理装置及びプログラム
TWI719343B (zh) 2018-08-28 2021-02-21 財團法人工業技術研究院 資訊顯示方法及其顯示系統

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000000146A (ja) * 1998-06-12 2000-01-07 N Ii C Design:Kk 展示ケース
KR20110136012A (ko) * 2010-06-14 2011-12-21 주식회사 비즈모델라인 위치와 시선방향을 추적하는 증강현실 장치
KR20120029230A (ko) * 2010-09-16 2012-03-26 엘지전자 주식회사 투명 디스플레이 장치 및 객체 탐지 방법
KR20120029228A (ko) * 2010-09-16 2012-03-26 엘지전자 주식회사 투명 디스플레이 장치 및 객체 정보 제공 방법
KR20120104475A (ko) * 2011-03-13 2012-09-21 엘지전자 주식회사 투명 디스플레이 장치

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6181371B1 (en) * 1995-05-30 2001-01-30 Francis J Maguire, Jr. Apparatus for inducing attitudinal head movements for passive virtual reality
JP3725460B2 (ja) * 2000-10-06 2005-12-14 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2009059257A (ja) * 2007-09-03 2009-03-19 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US20110128223A1 (en) * 2008-08-07 2011-06-02 Koninklijke Phillips Electronics N.V. Method of and system for determining a head-motion/gaze relationship for a user, and an interactive display system
US8379981B1 (en) * 2011-08-26 2013-02-19 Toyota Motor Engineering & Manufacturing North America, Inc. Segmenting spatiotemporal data based on user gaze data
US9323325B2 (en) * 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US20130155309A1 (en) * 2011-12-20 2013-06-20 Research In Motion Limited Method and Apparatus for Controlling Camera Functions Using Facial Recognition and Eye Tracking
US8915738B2 (en) * 2012-01-24 2014-12-23 Toyota Motor Engineering & Manufacturing North America, Inc. Driver quality assessment for driver education
KR101793628B1 (ko) * 2012-04-08 2017-11-06 삼성전자주식회사 투명 디스플레이 장치 및 그 디스플레이 방법
US9189021B2 (en) * 2012-11-29 2015-11-17 Microsoft Technology Licensing, Llc Wearable food nutrition feedback system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000000146A (ja) * 1998-06-12 2000-01-07 N Ii C Design:Kk 展示ケース
KR20110136012A (ko) * 2010-06-14 2011-12-21 주식회사 비즈모델라인 위치와 시선방향을 추적하는 증강현실 장치
KR20120029230A (ko) * 2010-09-16 2012-03-26 엘지전자 주식회사 투명 디스플레이 장치 및 객체 탐지 방법
KR20120029228A (ko) * 2010-09-16 2012-03-26 엘지전자 주식회사 투명 디스플레이 장치 및 객체 정보 제공 방법
KR20120104475A (ko) * 2011-03-13 2012-09-21 엘지전자 주식회사 투명 디스플레이 장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017059058A1 (en) * 2015-09-29 2017-04-06 Panasonic Intellectual Property Management Co., Ltd. A system and method for detecting a person interested in a target
US10699101B2 (en) 2015-09-29 2020-06-30 Panasonic Intellectual Property Management Co., Ltd. System and method for detecting a person interested in a target

Also Published As

Publication number Publication date
US9990034B2 (en) 2018-06-05
US20160291691A1 (en) 2016-10-06

Similar Documents

Publication Publication Date Title
WO2015072604A1 (ko) 투명 디스플레이 장치와 그의 제어방법
WO2020085768A1 (en) Display apparatus and method for driving same
WO2014109498A1 (en) Head mounted display providing eye gaze calibration and control method thereof
WO2018062658A1 (en) Display apparatus and controlling method thereof
WO2016204471A1 (en) User terminal device and method for adjusting luminance thereof
WO2011081344A2 (en) Method and apparatus for displaying 3-dimensional image and method and apparatus for controlling shutter glasses
WO2014038898A1 (en) Transparent display apparatus and object selection method using the same
WO2015012452A1 (en) Head mounted display and method of controlling therefor
WO2012044130A2 (ko) 배리어를 이용하는 3d 디스플레이 장치 및 그 구동 방법
WO2015005525A1 (en) Head mounted display device including multiple user interface formats and method of controlling therefor
KR102142624B1 (ko) 표시장치
WO2018084480A1 (en) Display device and displaying method
KR20180046951A (ko) 표시패널 및 표시장치
WO2019050235A1 (en) ELECTRONIC DEVICE COMPRISING AN INACTIVE ZONE
WO2013069977A1 (ko) 투명 디스플레이 패널을 구비하는 쇼케이스 및 이를 구비하는 쇼케이스 시스템
WO2021157894A1 (ko) 표시 영역에 따른 감마 전압 운용 방법 및 이를 지원하는 전자 장치
WO2020218856A1 (ko) 디스플레이 및 그것을 포함하는 전자 장치
WO2021040417A1 (en) Display apparatus and method of controlling the same
WO2019125001A1 (ko) 이미지의 특성에 기반하여 픽셀의 소스 구동을 제어하기 위한 전자 장치 및 전자 장치를 이용한 영상 출력 방법
WO2019017513A1 (en) VISIOCASQUE AND ITS CONTROL METHOD
WO2018113167A1 (zh) 液晶显示器的驱动方法、装置及液晶显示器
WO2020101229A1 (en) Display apparatus and driving method thereof
EP3298762A1 (en) User terminal device and method for adjusting luminance thereof
KR101495347B1 (ko) 액정표시장치
EP3895151A1 (en) Display apparatus and controlling method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13897405

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15036772

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13897405

Country of ref document: EP

Kind code of ref document: A1