WO2019190209A1 - 디스플레이 장치 및 그것의 제어방법 - Google Patents

디스플레이 장치 및 그것의 제어방법 Download PDF

Info

Publication number
WO2019190209A1
WO2019190209A1 PCT/KR2019/003601 KR2019003601W WO2019190209A1 WO 2019190209 A1 WO2019190209 A1 WO 2019190209A1 KR 2019003601 W KR2019003601 W KR 2019003601W WO 2019190209 A1 WO2019190209 A1 WO 2019190209A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
unit
light
photosynthesis
visual information
Prior art date
Application number
PCT/KR2019/003601
Other languages
English (en)
French (fr)
Inventor
이학림
신지용
김삼엽
임상혁
한종범
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2019190209A1 publication Critical patent/WO2019190209A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/02Details of features involved during the holographic process; Replication of holograms without interference recording
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/26Processes or apparatus specially adapted to produce multiple sub- holograms or to obtain images from them, e.g. multicolour technique

Definitions

  • the present invention relates to a display device capable of outputting visual information and a control method thereof.
  • the display apparatus (or an image output apparatus, an image display apparatus, or an image display apparatus) includes both an apparatus for receiving and displaying a broadcast, recording and playing a video, and an apparatus for recording and playing audio.
  • the display device is, for example, a television, a computer monitor, a projector, a tablet. Terminal and the like.
  • the display device may be a multimedia player having complex functions such as taking a picture or video, playing a game, and receiving a broadcast. Is being implemented. Furthermore, recently, display apparatuses have been implemented as smart devices (for example, smart televisions and artificial intelligence robots).
  • the display device is implemented in the form of a multimedia player having complex functions such as taking a picture or a video, playing a music or a video file, playing a game, or receiving a broadcast.
  • One object of the present invention is to provide a display device capable of providing visual information having a three-dimensional depth. More specifically, to provide a display device that can produce a hologram effect using a two-dimensional display.
  • a display apparatus including: a first display configured to output first light for forming first visual information; A second display for outputting a second light forming second visual information; And a photosynthesis portion that transmits one of the first light and the second light, and reflects the other of the first light and the second light so that the first light and the second light travel in the same path.
  • the display apparatus may output the first light in a first direction, and the second display may output the second light in a second direction different from the first direction. Can be.
  • the first direction and the second direction may be perpendicular to each other.
  • the photosynthesis may be inclined at a predetermined angle with respect to the first display to overlap the first display.
  • one end of the photosynthesis unit may be spaced apart from the first display by a predetermined distance.
  • the predetermined distance may be a minimum of 8mm to a maximum of 20mm.
  • the display apparatus may further include a controller configured to control at least one of the photosynthesis unit, the first display, and the second display such that the light amount of the first light and the light amount of the second light satisfy a reference condition.
  • the display apparatus may further include an illuminance sensor for sensing an illuminance, and the reference condition may vary according to the illuminance.
  • the photosynthesis unit may be configured such that at least one of transmittance and reflectance is variable, and the controller may adjust at least one of the transmittance and the reflectance such that the reference condition is satisfied.
  • the controller may adjust brightness of at least one of the first display and the second display so that the reference condition is satisfied.
  • the controller may adjust brightness of at least one of the first display and the second display based on the transmittance and reflectance of the photosynthesis unit.
  • the photosynthesis unit may be formed to be tiltable such that an angle between the first display and the first display is variable.
  • the display apparatus may further include a driving unit having a rotating shaft for providing power, and the photosynthetic unit may be coupled to the rotating shaft to tilt between the first display and the second display.
  • the angle between the above may vary depending on the position of the user's eyes.
  • the light transmittance of the at least one region is formed to be variable, and the light transmittance may vary according to the angle between the at least one region.
  • the display apparatus may include a camera for capturing an image; And a controller configured to extract a partial region including a user from the image, and to control the second display to output the partial region as the second visual information.
  • the controller may control the second display such that at least one of a display position and a display size of the partial region is changed according to the first visual information.
  • the controller may search for a space capable of displaying the partial area in the first visual information, and control the second display to overlap the space with the partial area.
  • the display apparatus may include a mounting unit capable of mounting a mobile terminal including a display unit; A wireless communication unit for communicating with the mobile terminal; And a controller configured to control the wireless communication unit to turn off the first display and to display the first visual information on the display unit of the mobile terminal when the mobile terminal is mounted on the holder.
  • the photosynthesis may have a reflectance and a transmittance of 6: 4.
  • a two-dimensional display By using a two-dimensional display, it is possible to provide a user with visual information having a three-dimensional depth, and to produce a hologram effect at a low cost. Furthermore, a physical distance is generated between visual information output to different displays due to the structural feature in which the display is disposed, and the stereoscopic feeling can be maximized.
  • the display device may produce an effect of changing at least one of a display size and a display position of information displayed on the second display 151b by adjusting an angle between the first display and the photosynthesis unit. Since the angle between the eyes varies depending on the position of the eye of the user, visual information output from the second display and reflected by the photosynthesis unit may be prevented from disappearing from the user's field of view.
  • the display device may give a blur effect on the first visual information output from the first display by adjusting the light transmittance of the photosynthesis unit.
  • the first visual information changes to a defocused state according to the light transmittance of the photosynthesis unit 155
  • the second visual information output from the second display is displayed as it is, the depth of view may be lowered.
  • the effect of looking at the display device using a telephoto lens occurs, three-dimensional effect can be improved.
  • FIG. 1 is a block diagram illustrating a display device related to the present invention.
  • FIGS. 2A, 2B, and 2C are perspective, front, and cross-sectional views of a display apparatus according to an embodiment.
  • 3 is a cross-sectional view for describing the display device in more detail.
  • FIG. 4 is a flowchart for explaining an operation of a display apparatus.
  • 5A and 5B are conceptual views for explaining an example in which the photosynthetic part is tilted
  • FIG. 6 is a flowchart for describing an operation of a display apparatus using a camera.
  • 7A and 7B are exemplary diagrams for describing an operation of FIG. 6.
  • FIG. 8 is an exemplary diagram for explaining a structure of mounting a mobile terminal
  • FIG. 9 is a flowchart illustrating a method in which the display device according to the present invention outputs information in a two-dimensional or three-dimensional manner in conjunction with a mobile terminal.
  • FIG. 10 is an exemplary diagram for describing a display device having an object recognition sensor.
  • 11A and 11B are conceptual views for explaining a light source unit generating light of a predetermined color with a photosynthesis unit;
  • FIG. 12 is an exemplary view for explaining the structural features of the photosynthesis unit according to an embodiment of the present invention.
  • the display device described herein includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device, and a slate PC.
  • PDA personal digital assistant
  • PMP portable multimedia player
  • Tablet PC ultrabook
  • wearable device eg, smartwatch, glass glass, head mounted display
  • FIG. 1 is a block diagram illustrating a display device related to the present invention.
  • the display apparatus 100 may include a wireless communication unit 110, an input unit 120, an electromagnetic wave generation unit 130, a detection unit 140, an output unit 150, an interface unit 160, a memory 170, and a control unit ( 180 and the power supply unit 190 may be included.
  • the components shown in FIG. 1A are not essential to implementing a display device, so that the display device described herein may have more or fewer components than those listed above.
  • the wireless communication unit 110 of the components, between the display device 100 and the wireless communication system, between the display device 100 and another display device 100, or the display device 100 and the external server It may include one or more modules that enable wireless communication therebetween.
  • the wireless communication unit 110 may include one or more modules for connecting the display apparatus 100 to one or more networks.
  • the wireless communication unit 110 may include at least one of the broadcast receiving module 111, the mobile communication module 112, the wireless internet module 113, the short range communication module 114, and the location information module 115. .
  • the input unit 120 may include a camera 121 or an image input unit for inputting an image signal, a microphone 122 for inputting an audio signal, an audio input unit, or a user input unit 123 for receiving information from a user. , Touch keys, mechanical keys, and the like.
  • the voice data or the image data collected by the input unit 120 may be analyzed and processed as a control command of the user.
  • the electromagnetic wave generator 130 generates an electromagnetic wave having a straightness as a trigger signal for controlling an external device located in a short distance. More specifically, the electromagnetic wave generator 130 generates electromagnetic waves having a specific frequency under the control of the controller 180. That is, the electromagnetic waves generated by the electromagnetic wave generator 130 may have various frequencies under the control of the controller 180. Meanwhile, the electromagnetic wave may include various data for controlling an external device. In more detail, a request message for requesting information related to an external device or an identifier for security may be included.
  • the sensing unit 140 may include one or more sensors for sensing at least one of information in the display device, surrounding environment information surrounding the display device, and user information.
  • the sensing unit 140 may include a proximity sensor 141, an illumination sensor 142, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity.
  • Optical sensors e.g. cameras 121), microphones (see 122), battery gauges, environmental sensors (e.g.
  • the display device disclosed in the present specification may use a combination of information sensed by at least two or more of these sensors.
  • the output unit 150 is used to generate an output related to sight, hearing, or tactile sense, and includes at least one of a display unit 151, an audio output unit 152, a hap tip module 153, and an optical output unit 154. can do.
  • the display unit 151 forms a layer structure with or is integrated with the touch sensor, thereby implementing a touch screen.
  • the touch screen may function as a user input unit 123 that provides an input interface between the display apparatus 100 and the user, and may also provide an output interface between the display apparatus 100 and the user.
  • the display unit 151 displays (outputs) information processed by the display apparatus 100.
  • the display unit 151 may display execution screen information of an application program driven by the display apparatus 100, or UI (User Interface) or Graphic User Interface (GUI) information according to the execution screen information. .
  • UI User Interface
  • GUI Graphic User Interface
  • the display unit 151 may include a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display (flexible display).
  • the display may include at least one of a bendable display, a 3D display, and an e-ink display.
  • two or more display units 151 may exist according to the implementation form of the display apparatus 100.
  • a plurality of display units may be spaced apart from or integrally disposed on one surface of the display apparatus 100, or may be disposed on different surfaces.
  • the display unit 151 may include a touch sensor that senses a touch on the display unit 151 so as to receive a control command by a touch method.
  • the touch sensor may sense the touch, and the controller 180 may generate a control command corresponding to the touch based on the touch sensor.
  • the content input by the touch method may be letters or numbers or menu items that can be indicated or designated in various modes.
  • the touch sensor is formed of a film having a touch pattern and disposed between the window 151a and the display (not shown) on the rear surface of the window 151a or directly patterned on the rear surface of the window 151a. May be Alternatively, the touch sensor may be integrally formed with the display. For example, the touch sensor may be disposed on a substrate of the display or provided in the display.
  • the display unit 151 may form a touch screen together with the touch sensor.
  • the touch screen may function as the user input unit 123 (see FIG. 1A).
  • the touch screen may replace at least some functions of the first manipulation unit 123a.
  • the interface unit 160 serves as a path to various types of external devices connected to the display apparatus 100.
  • the interface unit 160 connects a device equipped with a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, and an identification module. It may include at least one of a port, an audio input / output (I / O) port, a video input / output (I / O) port, and an earphone port.
  • I / O audio input / output
  • I / O video input / output
  • earphone port an earphone port
  • the memory 170 stores data supporting various functions of the display apparatus 100.
  • the memory 170 may store a plurality of application programs or applications that are driven by the display apparatus 100, data for operating the display apparatus 100, and instructions. At least some of these applications may be downloaded from an external server via wireless communication.
  • at least some of these application programs may exist on the display device 100 from the time of shipment for basic functions of the display device 100 (for example, a call forwarding, a calling function, a message receiving, and a calling function).
  • the application program may be stored in the memory 170 and installed on the display apparatus 100 to be driven by the controller 180 to perform an operation (or function) of the display apparatus.
  • the controller 180 In addition to the operation related to the application program, the controller 180 typically controls the overall operation of the display apparatus 100.
  • the controller 180 may provide or process information or a function appropriate to a user by processing signals, data, information, and the like, which are input or output through the above-described components, or by driving an application program stored in the memory 170.
  • controller 180 may control at least some of the components described with reference to FIG. 1A in order to drive an application program stored in the memory 170. In addition, the controller 180 may operate by combining at least two or more of the components included in the display apparatus 100 to drive the application program.
  • the power supply unit 190 receives power from an external power source or an internal power source under the control of the controller 180 to supply power to each component included in the display apparatus 100.
  • the power supply unit 190 includes a battery, which may be a built-in battery or a replaceable battery.
  • At least some of the components may operate in cooperation with each other to implement an operation, control, or control method of the display apparatus according to various embodiments described below.
  • the operation, control, or control method of the display apparatus may be implemented on the display apparatus by driving at least one application program stored in the memory 170.
  • the broadcast receiving module 111 of the wireless communication unit 110 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel.
  • the broadcast channel may include a satellite channel and a terrestrial channel.
  • Two or more broadcast receiving modules may be provided to the mobile terminal 100 for simultaneous broadcast reception or switching of broadcast channels for at least two broadcast channels.
  • the mobile communication module 112 may include technical standards or communication schemes (eg, Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Code Division Multi Access 1000 (CDMA1000), and EV).
  • GSM Global System for Mobile communication
  • CDMA Code Division Multi Access
  • CDMA1000 Code Division Multi Access 1000
  • EV Enhanced Voice-Data Optimized or Enhanced Voice-Data Only (DO), Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), LTE-A (Long Term Evolution-Advanced) and the like to transmit and receive a radio signal with at least one of a base station, an external terminal, a server on a mobile communication network.
  • GSM Global System for Mobile communication
  • CDMA Code Division Multi Access
  • CDMA1000 Code Division Multi Access 1000
  • EV Enhanced Voice-Data Optimized or Enhanced Voice-Data Only (DO)
  • WCDMA Wideband CDMA
  • HSDPA High
  • the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.
  • the wireless internet module 113 refers to a module for wireless internet access and may be embedded or external to the display apparatus 100.
  • the wireless internet module 113 is configured to transmit and receive wireless signals in a communication network according to wireless internet technologies.
  • wireless Internet technologies include Wireless LAN (WLAN), Wireless-Fidelity (Wi-Fi), Wireless Fidelity (Wi-Fi) Direct, Digital Living Network Alliance (DLNA), Wireless Broadband (WiBro), and WiMAX (World).
  • the wireless Internet module 113 for performing a wireless Internet access through the mobile communication network 113 May be understood as a kind of mobile communication module 112.
  • the short range communication module 114 is for short range communication, and includes Bluetooth TM, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and NFC. (Near Field Communication), at least one of Wi-Fi (Wireless-Fidelity), Wi-Fi Direct, Wireless USB (Wireless Universal Serial Bus) technology can be used to support short-range communication.
  • the short-range communication module 114 may be provided between the display apparatus 100 and the wireless communication system, between the display apparatus 100 and another display apparatus 100, or the display apparatus 100 through a wireless area network. ) And a network in which the other display device 100 (or an external server) is located.
  • the short range wireless communication network may be short range wireless personal area networks.
  • the other display device 100 is a wearable device capable of exchanging (or interworking) data with the display device 100 according to the present invention (eg, smartwatch, smart glasses). (smart glass), head mounted display (HMD).
  • the short range communication module 114 may sense (or recognize) a wearable device that can communicate with the display apparatus 100 around the display apparatus 100.
  • the controller 180 may include at least a portion of data processed by the display apparatus 100. The transmission may be transmitted to the wearable device through 114. Therefore, a user of the wearable device may use data processed by the display apparatus 100 through the wearable device.
  • the user when a call is received by the display apparatus 100, the user performs a phone call through the wearable device, or when a message is received by the display apparatus 100, the user receives the received call through the wearable device. It is possible to check the message.
  • the location information module 115 is a module for obtaining a location (or current location) of a display device.
  • Examples of the location information module 115 include a global positioning system (GPS) module or a wireless fidelity (WiFi) module.
  • GPS global positioning system
  • WiFi wireless fidelity
  • the display device may acquire a location of the display device using a signal transmitted from a GPS satellite.
  • the Wi-Fi module may acquire the location of the display device based on information of the Wi-Fi module and the wireless access point (AP) transmitting or receiving a wireless signal.
  • the location information module 115 may perform any function of other modules of the wireless communication unit 110 to substitute or additionally obtain data regarding the location of the display device.
  • the location information module 115 is a module used to acquire the location (or current location) of the display device, and is not limited to a module that directly calculates or obtains the location of the display device.
  • the input unit 120 is for inputting image information (or signal), audio information (or signal), data, or information input from a user.
  • the display apparatus 100 is one.
  • the plurality of cameras 121 may be provided.
  • the camera 121 processes image frames such as still images or moving images obtained by the image sensor in the video call mode or the photographing mode.
  • the processed image frame may be displayed on the display unit 151 or stored in the memory 170.
  • the plurality of cameras 121 provided in the display apparatus 100 may be arranged to form a matrix structure, and through the camera 121 forming the matrix structure, various angles or focuses may be provided to the display apparatus 100.
  • the plurality of pieces of image information may be input.
  • the plurality of cameras 121 may be arranged in a stereo structure to acquire a left image and a right image for implementing a stereoscopic image.
  • the microphone 122 processes external sound signals into electrical voice data.
  • the processed voice data may be variously used according to a function (or an application program being executed) performed by the display apparatus 100. Meanwhile, various noise reduction algorithms may be implemented in the microphone 122 to remove noise generated in the process of receiving an external sound signal.
  • the user input unit 123 is for receiving information from a user. When information is input through the user input unit 123, the controller 180 may control an operation of the display apparatus 100 to correspond to the input information. .
  • the user input unit 123 may be a mechanical input unit (or a mechanical key, for example, buttons located on the front, rear, or side surfaces of the display apparatus 100, a dome switch, a jog wheel, Jog switch, etc.) and touch input means.
  • the touch input means may include a virtual key, a soft key, or a visual key displayed on the touch screen through a software process, or a portion other than the touch screen.
  • the virtual key or the visual key may be displayed on the touch screen while having various forms, for example, graphic or text. ), An icon, a video, or a combination thereof.
  • the sensing unit 140 senses at least one of information in the display device, surrounding environment information surrounding the display device, and user information, and generates a sensing signal corresponding thereto.
  • the controller 180 may control driving or operation of the display apparatus 100 or perform data processing, function, or operation related to an application program installed in the display apparatus 100, based on the sensing signal. Representative sensors among various sensors that may be included in the sensing unit 140 will be described in more detail.
  • the proximity sensor 141 refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using a mechanical contact by using an electromagnetic force or infrared rays.
  • the proximity sensor 141 may be disposed in an inner region of the display device covered by the touch screen as described above or near the touch screen.
  • the proximity sensor 141 examples include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.
  • the proximity sensor 141 may be configured to detect the proximity of the object by the change of the electric field according to the proximity of the conductive object.
  • the touch screen (or touch sensor) itself may be classified as a proximity sensor.
  • the proximity sensor 141 may detect a proximity touch and a proximity touch pattern (for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state). have.
  • the controller 180 processes data (or information) corresponding to the proximity touch operation and the proximity touch pattern detected through the proximity sensor 141 as described above, and further, provides visual information corresponding to the processed data. It can be output on the touch screen. Furthermore, the controller 180 may control the display apparatus 100 to process different operations or data (or information) according to whether the touch on the same point on the touch screen is a proximity touch or a touch touch. .
  • the touch sensor applies a touch (or touch input) applied to the touch screen (or the display unit 151) using at least one of various touch methods such as a resistive film method, a capacitive method, an infrared method, an ultrasonic method, and a magnetic field method. Detect.
  • the touch sensor may be configured to convert a change in pressure applied to a specific portion of the touch screen or capacitance generated at a specific portion into an electrical input signal.
  • the touch sensor may be configured to detect a position, area, pressure at the touch, capacitance at the touch, and the like, when the touch object applying the touch on the touch screen is touched on the touch sensor.
  • the touch object is an object applying a touch to the touch sensor, and may be, for example, a finger, a touch pen or a stylus pen, a pointer, or the like.
  • the touch controller processes the signal (s) and then transmits the corresponding data to the controller 180.
  • the controller 180 can know which area of the display unit 151 is touched.
  • the touch controller may be a separate component from the controller 180 or may be the controller 180 itself.
  • the controller 180 may perform different control or perform the same control according to the type of touch object that touches the touch screen (or a touch key provided in addition to the touch screen). Whether to perform different control or the same control according to the type of touch object may be determined according to the operation state of the display device 100 or an application program being executed.
  • the touch sensor may be configured to detect a touch input by using different methods in the activated and deactivated state of the display unit 151.
  • the different methods may be related to the activation period of the touch sensor. More specifically, the touch sensor may be activated at different periods depending on whether the display unit 151 is activated. That is, the touch sensor may sense a touch input applied to the touch sensor while having different activation cycles according to whether the display unit 151 is activated.
  • the touch sensor when the display unit 151 is deactivated, the touch sensor may be activated at a predetermined specific period.
  • the specific period may be a period corresponding to a time greater than zero.
  • the touch sensor when the display unit 151 is activated, the touch sensor may be operated in an activated state at all times. That is, in this case, the activation period of the touch sensor may be zero or a period having a time very close to zero.
  • Whether or not the touch sensor is activated may be distinguished using power consumption of the touch sensor. For example, when the power consumption of the touch sensor is less than or equal to a preset reference value based on 0, the touch sensor corresponds to a deactivated state and when the power consumption of the touch sensor is greater than the preset reference value based on 0. , It can be said to be activated.
  • the touch sensor When the display unit 151 is in an active state (hereinafter referred to as an active mode), the touch sensor may continue to be activated and may wait for application of a touch input to the display unit 151. have. On the contrary, when the display unit 151 is in an inactive state (hereinafter referred to as a dose mode), the touch sensor may be activated every predetermined period.
  • an active mode When the display unit 151 is in an active state (hereinafter referred to as an active mode), the touch sensor may be activated every predetermined period.
  • the shorter the specific period of activation of the touch sensor the faster the speed of detecting the touch input hitting the display unit 151, but accordingly the power consumed by the touch sensor may be increased.
  • the longer the period in which the touch sensor is activated the smaller the power consumed by the touch sensor, but the speed of detecting the touch input hitting the display unit 151 may be slower.
  • the specific period may be set to increase the efficiency of power consumption while being fast enough that the detection speed is not recognized by the user in detecting the touch input hitting the display unit 151.
  • the specific period may be set so that the touch sensor is deactivated and activated 20 times (1 Hz) per second.
  • the touch sensor may also be activated, and in the activated state, the activation period T of the touch sensor may be zero or very close to zero.
  • the period of the touch sensor may be several times shorter than a specific period in which the touch sensor is activated in the state in which the display unit 151 is inactivated. That is, the touch sensor may be activated at different periods depending on whether the display unit 151 is activated.
  • a predetermined touch input for example, tapping a predetermined area continuously within a reference time
  • the controller 180 may switch the doze mode to an active mode in which the display unit and the touch sensor are activated.
  • the touch sensor may be driven at different periods based on the state of the display unit 151. For example, when the display unit 151 is in the closed state, the dose mode may be executed, and when the display unit 151 is switched from the closed state to the open state, the active mode may be executed.
  • the above-described touch sensor and proximity sensor may be independently or combined, and may be a short (or touch input) touch, a long touch, a multi touch, a drag touch on a touch screen.
  • various methods such as touch, flick touch, pinch-in touch, pinch-out touch, swipe touch, hovering touch, etc. Can sense a touch.
  • the ultrasonic sensor may recognize location information of a sensing object using ultrasonic waves.
  • the controller 180 can calculate the position of the wave generation source through the information detected from the optical sensor and the plurality of ultrasonic sensors.
  • the position of the wave source can be calculated using the property that the light is much faster than the ultrasonic wave, that is, the time that the light reaches the optical sensor is much faster than the time when the ultrasonic wave reaches the ultrasonic sensor. More specifically, the position of the wave generation source may be calculated using a time difference from the time when the ultrasonic wave reaches the light as the reference signal.
  • the camera 121 which has been described as the configuration of the input unit 120, includes at least one of a camera sensor (eg, CCD, CMOS, etc.), a photo sensor (or image sensor), and a laser sensor.
  • a camera sensor eg, CCD, CMOS, etc.
  • a photo sensor or image sensor
  • a laser sensor e.g., a laser sensor
  • the camera 121 and the laser sensor may be combined with each other to detect a touch of a sensing object with respect to a 3D stereoscopic image.
  • the photo sensor may be stacked on the display element, which is configured to scan the movement of the sensing object in proximity to the touch screen. More specifically, the photo sensor mounts a photo diode and a transistor (TR) in a row / column and scans contents mounted on the photo sensor by using an electrical signal that varies according to the amount of light applied to the photo diode. That is, the photo sensor calculates coordinates of the sensing object according to the amount of light change, and thus, the position information of the sensing object can be obtained.
  • TR transistor
  • the camera 121 includes at least one of a first camera 121a formed on the front surface of the terminal body and a second camera 121b formed on the rear surface of the terminal body.
  • the first camera 121a processes an image frame of a still image or a moving image obtained by the image sensor in a shooting mode or a video call mode.
  • the processed image frame may be displayed on the display unit 151 and stored in the memory 170.
  • the second camera 121b may include a plurality of lenses arranged along at least one line.
  • the plurality of lenses may be arranged in a matrix format.
  • Such a camera may be referred to as an "array camera.”
  • the second camera 121b is configured as an array camera, images may be photographed in various ways using a plurality of lenses, and images of better quality may be obtained.
  • the flash (not shown) may be disposed adjacent to the second camera 121b.
  • the flash (not shown) emits light toward the subject when the subject is photographed by the second camera 121b.
  • the electromagnetic wave generating unit (not shown) may be disposed adjacent to the second camera 121b.
  • the electromagnetic wave generator (not shown) emits the generated electromagnetic waves when the second camera 121b is activated.
  • the display unit 151 displays (outputs) information processed by the display apparatus 100.
  • the display unit 151 may display execution screen information of an application program driven by the display apparatus 100, or UI (User Interface) or Graphic User Interface (GUI) information according to the execution screen information. .
  • UI User Interface
  • GUI Graphic User Interface
  • the display unit 151 may be configured as a stereoscopic display unit for displaying a stereoscopic image.
  • the stereoscopic display unit may be a three-dimensional display method such as a stereoscopic method (glasses method), an auto stereoscopic method (glasses-free method), a projection method (holographic method).
  • the sound output unit 152 may output audio data received from the wireless communication unit 110 or stored in the memory 170 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like.
  • the sound output unit 152 may also output a sound signal related to a function (eg, a call signal reception sound, a message reception sound, etc.) performed by the display apparatus 100.
  • the sound output unit 152 may include a receiver, a speaker, a buzzer, and the like.
  • the sound output unit 152 includes at least one of the first sound output unit 152a and the second sound output unit 152b.
  • the first sound output unit 152a may be implemented as a receiver for transmitting a call sound to the user's ear, and the second sound output unit 152b may be a loud speaker for outputting various alarm sounds or multimedia reproduction sounds. It can be implemented in the form of).
  • the haptic module 153 generates various haptic effects that a user can feel.
  • a representative example of the tactile effect generated by the haptic module 153 may be vibration.
  • the intensity and pattern of vibration generated by the haptic module 153 may be controlled by the user's selection or the setting of the controller. For example, the haptic module 153 may synthesize different vibrations and output or sequentially output them.
  • the haptic module 153 may be used to stimulate pins that vertically move with respect to the contact skin surface, jetting force or suction force of air through the jetting or suction port, grazing to the skin surface, contact of electrodes, and electrostatic force
  • Various tactile effects can be generated, such as effects by the endothermic and the reproduction of a sense of cold using the elements capable of endothermic heat generation.
  • the haptic module 153 may not only deliver a tactile effect through direct contact, but also may allow a user to feel the tactile effect through a muscle sense such as a finger or an arm. Two or more haptic modules 153 may be provided according to configuration aspects of the display apparatus 100.
  • the light output unit 154 outputs a signal for notifying occurrence of an event by using light of a light source of the display apparatus 100.
  • Examples of events generated in the display apparatus 100 may include user authentication success / failure, message reception, call signal reception, missed call, alarm, schedule notification, email reception, and information reception through an application.
  • the controller 180 may control the light output unit 154 to end the light output.
  • the signal output from the light output unit 154 is implemented as the display device emits light of a single color or a plurality of colors to the front or the rear.
  • the signal output may be terminated by the display device detecting the user's event confirmation.
  • the interface unit 160 serves as a path to all external devices connected to the display apparatus 100.
  • the interface unit 160 receives data from an external device, receives power, transfers the power to each component inside the display apparatus 100, or transmits the data inside the display apparatus 100 to an external device.
  • the port, audio input / output (I / O) port, video input / output (I / O) port, earphone port, etc. may be included in the interface unit 160.
  • the identification module is a chip that stores a variety of information for authenticating the use authority of the display device 100, a user identification module (UIM), subscriber identity module (SIM), universal user authentication And a universal subscriber identity module (USIM).
  • a device equipped with an identification module (hereinafter referred to as an 'identification device') may be manufactured in the form of a smart card. Therefore, the identification device may be connected to the terminal 100 through the interface unit 160.
  • the interface unit 160 may be a passage for supplying power from the cradle to the display apparatus 100 or may be input from the cradle by a user.
  • Various command signals may be passages for transmitting to the display apparatus 100.
  • Various command signals or power input from the cradle may operate as signals for recognizing that the display apparatus 100 is correctly mounted on the cradle.
  • the memory 170 may store a program for the operation of the controller 180 and may temporarily store input / output data (for example, a phone book, a message, a still image, a video, etc.).
  • the memory 170 may store data regarding vibration and sound of various patterns output when a touch input on the touch screen is performed.
  • the memory 170 may include a flash memory type, a hard disk type, a solid state disk type, an SSD type, a silicon disk drive type, and a multimedia card micro type. ), Card-type memory (e.g., SD or XD memory), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read It may include at least one type of storage medium of -only memory (PROM), programmable read-only memory (PROM), magnetic memory, magnetic disk and optical disk.
  • the display apparatus 100 may be operated in association with a web storage that performs a storage function of the memory 170 on the Internet.
  • the controller 180 controls an operation related to an application program, and generally an overall operation of the display apparatus 100. For example, if the state of the display device satisfies a set condition, the controller 180 may execute or release a lock state that restricts input of a user's control command to applications.
  • controller 180 may perform control and processing related to voice call, data communication, video call, or the like, or may perform pattern recognition processing for recognizing handwriting input or drawing input performed on a touch screen as text and images, respectively. Can be.
  • controller 180 may control any one or a plurality of components described above in order to implement the various embodiments described below on the display apparatus 100 according to the present invention.
  • the power supply unit 190 receives an external power source and an internal power source under the control of the controller 180 to supply power for operation of each component.
  • the power supply unit 190 may include a battery, and the battery may be a built-in battery configured to be rechargeable, and may be detachably coupled to the body of the display device for charging.
  • the power supply unit 190 may be provided with a connection port, the connection port may be configured as an example of the interface 160 is electrically connected to the external charger for supplying power for charging the battery.
  • the power supply unit 190 may be configured to charge the battery in a wireless manner without using the connection port.
  • the power supply unit 190 uses one or more of an inductive coupling based on a magnetic induction phenomenon or a magnetic resonance coupling based on an electromagnetic resonance phenomenon from an external wireless power transmitter. Power can be delivered.
  • An accessory may be added to the display apparatus 100 to protect the appearance or to assist or expand the function of the display apparatus 100.
  • An example of such an accessory may be a cover or pouch that covers or accommodates at least one surface of the display apparatus 100.
  • the cover or pouch may be configured to be linked with the display unit 151 to expand the function of the display apparatus 100.
  • Another example of the accessory may be a touch pen for assisting or extending a touch input to a touch screen.
  • various embodiments of the present disclosure may be implemented in a recording medium readable by a computer or a similar device using, for example, software, hardware, or a combination thereof.
  • FIGS. 2A, 2B, and 2C are perspective, front, and cross-sectional views of a display device according to one embodiment.
  • the display apparatus 100 includes a first display 151a, a second display 151b, and a photosynthesis unit 155.
  • the first and second displays 151a and 151b may output various pieces of information under the control of the controller 180 provided in the display apparatus 100.
  • the first display 151a may output a first light for forming first visual information
  • the second display 151b may output a second light for forming second visual information.
  • the first and second displays 151a and 151b include a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode, OLED), a flexible display, a 3D display, and an e-ink display.
  • LCD liquid crystal display
  • TFT LCD thin film transistor-liquid crystal display
  • OLED organic light-emitting diode
  • the first display 151a may be disposed to face a first direction
  • the second display 151b may be disposed to face a second direction perpendicular to the first direction.
  • the second direction may mean a direction forming an angle in a predetermined range close to the vertical with respect to the first direction.
  • the first direction may be a direction toward the eyes of the user, and the second direction may be a direction having an angle between the first direction and the predetermined direction.
  • the second direction may be a gravity direction or a direction opposite to the gravity direction.
  • the first display 151a enters the user's field of view, but the second display 151b does not enter the field of view.
  • the photosynthesis unit 155 is disposed to be inclined with respect to the first display 151a by a predetermined angle and overlaps the first display 151a.
  • the visual information generated by the first display 151a passes through the photosynthesis unit 155 to reach the user.
  • the photosynthesis unit 155 is positioned on a traveling path of each of the first light and the second light.
  • the photosynthesis unit 155 may form a first acute angle with the first display 151a and a second acute angle with the second display 151b.
  • the first acute angle and the second acute angle may be the same angle or different angles.
  • One end of the photosynthesis unit 155 may be positioned adjacent to the first and second displays 151a and 151b.
  • the first and second displays 151a and 151b move toward the other end of the photosynthetic unit 155 from one end of the photosynthetic unit 155 so that the photosynthetic unit 155 is the first.
  • second displays 151a and 151b move toward the other end of the photosynthetic unit 155 from one end of the photosynthetic unit 155 so that the photosynthetic unit 155 is the first.
  • second displays 151a and 151b are examples of the photosynthetic unit 155 that the photosynthetic unit 155 is the first.
  • second displays 151a and 151b move toward the other end of the photosynthetic unit 155 from one end of the photosynthetic unit 155 so that the photosynthetic unit 155 is the first.
  • second displays 151a and 151b move toward the other end of the photosynthetic unit 155 from one end of the photosynthetic unit
  • the photosynthesis unit 155 transmits the first light between the first and second displays 151a and 151b so that the first light and the second light travel in the same path. Is made to reflect. In other words, the photosynthesis unit 155 synthesizes the first light and the second light so that the first light and the second light travel in the same optical path.
  • the photosynthesis unit 155 may be formed of a mirror such as a dichroic mirro, a wire grid polarization (or a wire grid polarizer), a film, an optical prism, or the like.
  • the second light generated by the second display 151b disposed to face the second direction is combined with the first light by the photosynthesis unit 155 to form a composite light, and the synthesized light is the first light. Will proceed in the direction.
  • the sound output unit 152, the power supply unit 190, and the second display 151b are sequentially stacked, and the second display 151b may be gravity. It may be arranged to output visual information in a direction opposite to the direction. The second display 151b may be arranged to output visual information in the direction of gravity.
  • the first display 151a is disposed to be orthogonal to the second display 151b to face the front of the display apparatus 100.
  • the photosynthesis unit 155 is disposed between the first display 151a and the second display 151b.
  • the camera 121 may be disposed to face the front of the display apparatus 100 and used to track the user.
  • 3 is a cross-sectional view for describing the display device in more detail.
  • a first graphic object may be output to the first display 151a and a second graphic object may be output to the second display 151b.
  • the user may display the first graphic object in the first display 151a. Intuition or perception can be perceived as being output from. This is because the photosynthesis unit 155 is made transparent.
  • the user may intuitively recognize or recognize that the second visual information is displayed on the photosynthesis unit 155. .
  • the user recognizes that the first graphic object is located in the first display 151a and the second graphic object is located in the photosynthesis unit 155. Accordingly, a sense of distance corresponding to the distance between the photosynthesis unit 155 and the first display 151a may be formed between the first and second graphic objects.
  • the user may recognize the first and second graphic objects as being located on the first graphic object.
  • the user may determine that the second graphic object is located closer to him than the first graphic object, or that the first graphic object is farther from him than the second graphic object, It can be recognized. That is, due to the difference in position between the photosynthesis unit 155 and the first display 151a, the user may feel a three-dimensional depth.
  • the depth of feeling refers to an index indicating a distance difference between a virtual point and an object displayed on the display apparatus 100.
  • the depth value of the object may be defined as “0”.
  • a depth value of an object that appears to protrude out of the display apparatus 100 from the predetermined point may be defined as a negative number, and a depth value of an object that appears to enter inside may be defined as a positive number.
  • the absolute value of the depth value is larger, the object may be interpreted as being farther from the predetermined point.
  • the photosynthesis unit 155 is positioned between the first and second displays 151a and 151b, and one surface of the photosynthesis unit 155 has an angle ⁇ between the first display 151a and the predetermined display. Because it is arranged to have.
  • an angle between the photosynthesis unit 155 and the first display 151a is defined as an “angle between”.
  • the user When no information is displayed on the second display 151b, the user is provided with the information displayed on the first display 151a in a two-dimensional form.
  • all the information displayed on the first and second displays 810 and 820 may be provided in a three-dimensional form. Due to the positional difference between the photosynthetic unit 155 and the first display 151a, the information displayed on the second display 151b has a different depth value according to the display position.
  • the photosynthesis unit 155 is disposed to be inclined with respect to the first display 151a by a predetermined angle.
  • the predetermined angle may be 45 degrees. For this reason, one end of the photosynthesis unit 155 is located closest to the first display 151a, and the other end of the photosynthesis unit 155 is located farthest from the first display 151a.
  • One end of the photosynthesis unit 155 is spaced apart from the first display 151a by a predetermined distance x.
  • the predetermined distance may be at least 8 mm and at most 20 mm.
  • the second visual information has a three-dimensional effect with respect to the first visual information.
  • the photosynthesis unit 155 Since one end of the photosynthesis unit 155 is spaced apart from the first display 151a by a predetermined distance x, the first portion between the center of the photosynthesis unit 155 and the center of the second display 151b. The distance is shorter than the second distance between the center of the photosynthesis 155 and the center of the first display 151a. Due to the difference in distance, the stereoscopic sense of visual information provided by the display apparatus 100 is maximized.
  • the photosynthesis unit 155 has a first surface facing the first display 151a and a second surface facing the second display 151b.
  • the first coating 310 may be formed on the first surface to reduce the reflection amount of the second light generated by the second display 151b while increasing the transmission amount of the first light generated by the first display 151a.
  • the first surface may be AR coated. The visibility of the first visual information increases by the first coating.
  • the second coating 320 may be formed on the second surface to decrease the amount of transmission of the first light generated by the first display 151a while increasing the amount of reflection of the second light generated by the second display 151b.
  • a half-mirror coating may be formed on the second surface.
  • Half-mirror coating is a coating to increase the reflection amount by depositing a thin film of aluminum or silver. The visibility of the second visual information is increased by the second coating.
  • FIG. 4 is a flowchart for explaining an operation of the display apparatus.
  • the controller 180 is configured to control at least one of the first and second displays 151a and 151b.
  • the first visual information may be output to the first display 151a and the second visual information to the second display 151b (S410).
  • the controller 180 may calculate the light amount of the first light and the light amount of the second light (S430).
  • the controller 180 calculates the light amount of the first light output from the first display 151a and the light amount of the second light output from the second display 151b in consideration of RGB information, brightness information, and the like of each display. can do.
  • the controller 180 may control at least one of the photosynthesis unit, the first display, and the second display so that the light amount of the first light and the light amount of the second light satisfy a reference condition (S450).
  • the controller 180 may calculate a target amount of light to reach the user based on the user.
  • the target amount of light means an amount of light that satisfies the reference condition to be described below.
  • a brightness ratio of the first visual information output from the first display 151a and the second visual information output from the second display 151b may be set to 48:60.
  • the case where the reflectance and the transmittance of the photosynthetic unit 155 are 6: 4 will be described as an example.
  • the first display 151a When the first display 151a outputs the first light at a level of luminous intensity of 100 and the second display 151b outputs the second light at a level of luminous intensity of 100 degrees, the first display 151a outputs the first light by the reflectance of the photosynthesis unit 155.
  • the two lights reach the user with 60 levels of illumination, and the first light reaches the user with 40 levels of illumination by the transmittance of the photosynthesis unit 155.
  • the controller may calculate the first target light amount of the first display 151a and / or the second target light amount of the second display 151b to satisfy the ratio of 48:60 corresponding to the reference condition.
  • the controller 180 may control the first display 151a to calculate a first target amount of light at an illumination level of 120 levels and output the first target amount of light. According to the control, the brightness ratio of the first visual information output from the first display 151a and the second visual information output from the second display 151b satisfies the reference condition.
  • the display apparatus 100 may further include an illuminance sensor for sensing an illuminance.
  • the reference condition may vary according to the illuminance. For example, when the illuminance is within the first range, a first reference condition may be set, and when the illuminance is within the second range, a second reference condition different from the first reference condition may be set.
  • the controller 180 may control at least one of the photosynthesis unit, the first display, and the second display according to different conditions according to the illuminance sensed by the illuminance sensor.
  • the photosynthesis unit 155 may be formed such that at least one of transmittance and reflectance is variable.
  • the controller 180 may adjust at least one of the transmittance and the reflectance such that the reference condition is satisfied.
  • the photosynthesis unit 155 may be formed so that the light transmittance of at least one region is variable.
  • the photosynthesis unit 155 transmits the first light so that the first light output from the first display 151a and the second light output from the second display 151b travel in the same path.
  • the second light reflects.
  • the transmission amount of the first light passing through the photosynthesis unit 155 is variable, but the reflection amount of the second light reflected by the photosynthesis unit 155 is to be kept constant. Can be. In this case, while the sharpness of the second graphic object formed by the second light is maintained as it is, the sharpness of the first graphic object formed by the first light is varied.
  • the processor 830 may give a blur effect to the first graphic object by adjusting the light transmittance of the photosynthesis unit 155.
  • the first graphic object changes to a defocused state according to the light transmittance of the photosynthesis unit 155
  • the second graphic object is displayed as it is, and thus the depth of view may be lowered. Since the effect of looking at the display device using a telephoto lens occurs, it is possible to induce the user to concentrate on the second graphic object.
  • the controller 180 may adjust the brightness of at least one of the first display and the second display so that the reference condition is satisfied.
  • the controller 180 may adjust the brightness of at least one of the first display and the second display based on the transmittance and reflectance of the photosynthesis unit 155.
  • 5A and 5B are conceptual views illustrating an example in which the photosynthetic part is tilted.
  • the user recognizes that the first graphic object 872 is located on the first display 151a and the second graphic object 874 is located on the photosynthesis unit 155. Accordingly, a sense of distance between the first and second graphic objects 872 and 874 may be formed by the distance d between the photosynthetic unit 155 and the first display 151a.
  • the user may recognize the first and second graphic objects 872 and 874 by placing the second graphic object 874 on the first graphic object 872.
  • the user may have the second graphic object 874 located closer to the user than the first graphic object 872, or the first graphic object 872 may be farther away from itself than the second graphic object 874.
  • the first and second graphic objects 872 and 874 may be recognized. That is, due to the difference in position between the photosynthesis unit 155 and the first display 151a, the user may feel a three-dimensional depth.
  • the controller 180 is configured to control at least one of the first and second displays 151a and 151b.
  • the controller 180 may determine whether at least one condition is satisfied among a plurality of preset conditions based on various information through the wireless communication unit 110.
  • the controller 180 may control at least one of the first and second displays 151a and 151b in different ways so that the information corresponding to the satisfied condition is displayed.
  • the controller 180 may detect that an event occurs in the application and determine whether the detected event satisfies the preset condition. In this case, the controller 180 may detect that an event occurs from the information received through the communication unit 810.
  • the application is a concept including a widget, a home launcher, etc., and means any type of program that can be driven in the vehicle 100. Accordingly, the application may be a program that performs a function of a web browser, video playback, message transmission, reception, schedule management, and application updating.
  • an event can occur when there is a missed call, when there is an application to be updated, when a message arrives, start on, start off, autonomous driving on / off, display activation key pressed (LCD awake key), alarm (alarm), incoming call (Incoming call), missed notification (missed notification) and the like.
  • LCD awake key display activation key pressed
  • alarm alarm
  • incoming call Incoming call
  • missed notification missed notification
  • the controller 180 controls the first display 151a and / or the second display 151b to display information corresponding to the satisfied condition.
  • event information related to the generated event needs to be provided to the user of the display apparatus 100.
  • the information displayed on the first display 151a and the information displayed on the second display 151b are distinguished.
  • general information to be provided to the user may be displayed on the first display 151a as main information, and sub information for emphasizing the main information may be displayed on the second display 151b.
  • a background image may be displayed on the first display 151a, and a character may be displayed on the second display 151b.
  • the controller 180 may display predetermined time information on the first display 151a and move the predetermined time information to the second display 151b in response to a preset condition being satisfied. have.
  • the predetermined time information may be displayed on the first display 151a and then disappear, and may be displayed on the second display 151b.
  • the controller 180 may display a graphic object such as a character on the second display 151b.
  • the graphic object is for emphasizing the information displayed on the first display 151a, and may be different graphic objects according to the information displayed on the first display 151a. As another example, different graphic objects may be used depending on the type of event that has occurred. Different graphic objects mean, for example, images having different shapes, lengths, colors, and the like.
  • the type of the graphic object displayed on the second display 151b may vary according to the first visual information displayed on the first display 820.
  • the display position where the graphic object is displayed on the second display 151b may vary according to first visual information displayed on the first display 820.
  • controller 180 outputs information having a three-dimensional depth using the second display 151b will be described below with reference to the accompanying drawings.
  • Figure 5b is an exemplary view for explaining the change in the three-dimensional depth according to the tilting of the photosynthesis.
  • the photosynthesis unit 155 may be formed to be tiltable so that an angle between the first and second displays 151a is variable.
  • the driving unit 156 may include a rotation shaft that provides power, and the photosynthesis unit 155 may be coupled to the rotation shaft to tilt between the first and second displays 151a and 151b.
  • the controller 180 controls the driving unit 156 such that the angle between the variable is changed to a predetermined angle corresponding to the preset condition in response to the predetermined condition being satisfied.
  • the controller 180 may control the driver 156 accordingly. For example, when the first condition is satisfied, the driver 156 may be controlled to be an angle between the first, and when the second condition is satisfied, the driver 156 may be controlled to be an angle between the second. have.
  • the photosynthesis unit 155 is moved in rotation, and the angle between the first display 151a varies according to the movement.
  • At least one of the display position and the display size of the graphic object recognized by the user is variable according to the angle therebetween.
  • the output position and the output size mean the position and the size displayed on the second display 151b.
  • the display position and the display size may have the same effect as the information output from the second display 151b is reflected by the photosynthesis unit 155 and displayed on the first display 151a. Refers to the position and size on the first display 151a.
  • At least one of the display position and the display size may vary according to the angle therebetween.
  • the first graphic object 872 is displayed on the first display 151a
  • the second graphic object 874 is displayed on the second display 151b. Can be.
  • the first and second graphic objects 872 and 874 may overlap at a first angle ⁇ 1.
  • the display size of the second graphic object 874 is defined as the first size
  • the second graphic object 874 has a first depth value d1.
  • first and second graphic objects 872 and 874 may be displayed at different positions at the second angle ⁇ 2.
  • the display size of the second graphic object 874 may be a second size, and the second graphic object 874 has a second depth value d2.
  • the controller 180 may produce an effect of changing at least one of a display size and a display position of the information displayed on the second display 151b by adjusting the angle between the controller 180 and the display unit. For example, when the photosynthesis unit 155 is tilted from the second angle ⁇ 2 to the first angle ⁇ 1, the second graphic object 874 is the first graphic object 872. An effect of gradually moving to the third and third objects occurs because the depth of the second graphic object 874 is changed.
  • the controller 180 may fix the display position of the second graphic object 874 output from the second display 151b on the first display 151a. In order to change only the 3D depth value, at least one of an output position and an output size of the second graphic object 874 may be changed according to the angle between the two.
  • the controller 180 may adjust at least one of the display size and the display position of the information output from the second display 874 by varying the angle between the output information while maintaining the output information as it is. You can change it.
  • At least one of an output size and an output position of information output from the second display 874 may be changed while maintaining the angle therebetween.
  • At least one of an output size and an output position of the information being output from the second display 874 may be changed while varying the angle therebetween.
  • various pieces of information may be output in a three-dimensional manner having different depth values.
  • the display apparatus 100 may provide the user with 3D information in any one of various embodiments.
  • the display apparatus 100 may generate an optimal hologram effect based on the eye height.
  • the controller 180 obtains the eye height and / or the gaze direction of the user.
  • the display apparatus 100 may check the eye height and / or the eye direction of the user based on information received from various sensors provided in the vehicle 100.
  • the display apparatus 100 may further include a camera (not shown), and the eye height and / or the eye direction of the user may be tracked using the camera.
  • the controller 180 may control the driver 156 such that the angle between the photosynthetic unit 155 is different based on the obtained information.
  • the photosynthesis unit 155 may be tilted such that the angle between the photosynthetic unit 155 has a predetermined angle, and the predetermined angle may vary according to the eye position and / or the eye direction of the user.
  • the controller 180 may specify a gaze direction according to the eye position of the user, and calculate an angle between the specified gaze direction and a direction toward which one surface of the photosynthesis unit 155 faces.
  • the driving unit 156 may be controlled such that the calculated angle is within a predetermined angle range. As the eye position of the user is changed, the angle between the eyes may also be changed in real time.
  • FIG. 6 is a flowchart for describing an operation of a display apparatus using a camera
  • FIGS. 7A and 7B are exemplary views for explaining the operation of FIG. 6.
  • the controller 180 can take an image using the camera 121 (S610).
  • the camera 121 may photograph a user looking at the first display 151a. In other words, the image includes the user.
  • controller 180 may extract a partial region including the user from the image (S630).
  • At least one of the position, size, and shape of the partial region may vary as the user moves.
  • the controller 180 may track the movement of the user in real time and extract the partial region in real time.
  • the controller 180 controls the second display 151b to output the partial region as second visual information.
  • the partial region extracted by the controller 180 is output as second visual information through the second display 151b.
  • the position at which the second visual information is output and the size of the second visual information are determined by the position and size of the partial region extracted by the user from the image photographed by the camera 121.
  • the first visual information 710 is displayed as a background image through the first display 151a, and a partial region extracted from the image is transferred to the second visual information 720.
  • the second display 151b is displayed like a hologram. Since the first visual information 710 and the second visual information 720 have different depths, a hologram effect occurs.
  • the controller 180 may control the second display such that at least one of a display position and a display size of the partial region is changed according to the first visual information.
  • the controller 180 may search for a space capable of displaying the partial area in the first visual information, and control the second display to overlap the space with the partial area.
  • the second visual information may be displayed at the center of the first visual information. Subsequently, as shown in FIG. 7B, the display position of the second time information may be changed as the space in the first time information is changed.
  • the display apparatus 100 may create new user needs by synthesizing different images while creating a hologram effect on the images including the user.
  • the controller 180 may store the first visual information output through the first display and the second visual information output through the second display in synchronization with each other.
  • the user may synthesize his own image in the form of a hologram on an image published in the air by using the display apparatus 100, and play the synthesized image to watch his own image again.
  • FIG. 8 is an exemplary view illustrating a structure of mounting a mobile terminal
  • FIG. 9 is a flowchart illustrating a method of outputting information in a two-dimensional or three-dimensional manner by the display apparatus according to the present invention in connection with the mobile terminal. .
  • a mobile terminal 1300 having a display unit 1310 may be mounted on the display apparatus 100. More specifically, the display apparatus 100 may further include a holder 800 capable of mounting a mobile terminal having a display.
  • the second display 151b may be replaced by the display unit 1310 of the mobile terminal 1300.
  • the first display 151a is replaced for convenience of description.
  • the display apparatus 100 or the controller 180 controls the first display 151a to output information in a two-dimensional manner (S1310).
  • the display apparatus 100 will be briefly described. However, the operation of the display apparatus 100 may be performed by the controller 180.
  • the first display 151a When the output is performed in a two-dimensional manner, the first display 151a outputs the first visual information.
  • the display apparatus 100 may display the first visual information as 2. Provided in a dimensional manner.
  • the two-dimensional method means "a method in which the information output from the display apparatus 100 is recognized by the user as being located on one surface".
  • the face may be planar or spherical.
  • the first display 151a outputs a first light for forming first visual information
  • the second display 151b outputs a second light for forming second visual information.
  • the display unit 1310 outputs the first light for forming the first visual information.
  • the display apparatus 100 includes a first display 151a, a photosynthesis unit 155, and a holder 800. Since the first display 151a and the photosynthesis unit 155 have been described above with reference to FIGS. 8A and 8B, description thereof will be omitted.
  • the holder 800 is configured to support the mobile terminal 1300 having the display unit 1310.
  • the mounting portion 800 is spaced apart from the second display 151b with the photosynthesis portion 155 therebetween, and the first light output from the display portion 1310 is the photosynthesis portion 155. Support the mobile terminal 1300 to face ().
  • the display unit 1310 may face the photosynthesis unit 155.
  • the photosynthesis unit 155 transmits one of the second light output from the second display 151b and the first light output from the display unit 1310 and reflects the other.
  • the mounting unit 800 supports the front surface of the mobile terminal 1300 such that the display unit 1310 forms an acute angle with the photosynthesis unit 155.
  • the angle is acute.
  • At least a portion of the mounting portion 800 which is in contact with the display portion 1310 supports the mobile terminal 1300 while directing the first light output from the display portion 1310 toward the photosynthesis portion 155. It can be made transparent.
  • the holder 800 supports the mobile terminal 1300 to prevent the mobile terminal 1300 from being lowered by gravity.
  • the first light output from the display unit 1310 is directed to the photosynthesis unit 155 and passes through the photosynthesis unit 155.
  • the same path as the second light output from the second display 151b is directed.
  • the same path means traveling in parallel with the first light and the second light.
  • a power supply unit (not shown) for supplying power to the mobile terminal 1300 is further provided to the display apparatus 100. May be included.
  • connection terminal for electrically connecting the power supply unit 190 and the mobile terminal 1300 may be formed in the holder 800. Power may be supplied to the mobile terminal 1300 by connecting the connection terminal.
  • the controller 180 may sense that the mobile terminal 1300 is mounted on the holder 800 (S1330).
  • the controller 180 may sense that the mobile terminal 1300 is mounted on the holder 800 based on the information received from the detector 130.
  • the display apparatus 100 may further include a sensor (not shown) configured to sense that the mobile terminal 1300 is mounted on the holder 800.
  • the senor may be a camera configured to photograph the mounting unit 800, and the sensor or the controller 180 may determine whether the mobile terminal 1300 is mounted using an image captured by the camera. You can decide.
  • the object is mounted on the mounting unit 800 by using a weight sensor for measuring the weight, and the communication unit 180 attempts to communicate with the object, so that the object is connected to the mobile terminal 1300. ) Can be determined.
  • the senor detects a capacitance changing by an object mounted on the mounting part 800, determines whether the object is communicable based on the sensed capacitance, and determines the determined object.
  • Communication with the mobile terminal may determine whether the object corresponds to the mobile terminal 1300.
  • the display device 100 may be provided with sensing means for detecting that the mobile terminal 1300 is inserted and mounted on the mounting portion.
  • the mounting of the mobile terminal 1300 to the mounting unit 800 may be sensed using various sensors.
  • the controller 180 controls the communication unit 850 to output information in a three-dimensional manner (S1350).
  • the controller 180 controls the second display 151b to output second visual information that varies according to the vehicle driving information on the second display 151b (S1370).
  • the controller 180 controls the communication unit 850 to output the first visual information on the display unit 1310.
  • the mobile terminal 13100 outputs the first visual information to the display unit 1310 (S1390).
  • the controller 180 When the mobile terminal 1300 is mounted on the holder 800, the controller 180 establishes a connection with the mobile terminal 1300.
  • the controller 180 may acquire characteristics of the display unit 1310 such as the resolution and size of the display unit 1310 based on the terminal information received from the mobile terminal 1300.
  • the controller 180 may generate an optimal state screen to be displayed on the display unit 1310 based on the characteristics of the display unit 1310.
  • the screen stored in the memory or the cloud may be edited or one of the plurality of screens stored may be selected.
  • the controller 180 displays the determined screen on the display unit 1310 of the mobile terminal 1300 as the first visual information. ).
  • data corresponding to the second visual information may be transmitted from the display apparatus 100 to the mobile terminal 1300.
  • the communication unit 850 transmits a message to the mobile terminal 1300 such that the first visual information is output from the display unit 1310 when the mobile terminal 1300 is mounted on the mounting unit 800. .
  • the message transmitted to the mobile terminal 1300 by the communication unit 800 may include vehicle driving information generated by at least one control unit provided in the vehicle 100.
  • the display apparatus 100 outputs the second visual information to the second display 155b (S1370).
  • the mobile terminal 1300 turns on the display unit 1310 which is turned off in response to the message, and outputs the first visual information to the display unit 1310 in operation S1370.
  • the visual information passing through the photosynthesis unit 155 is unique to the first visual information generated by the first display 151a. Therefore, various kinds of information are provided in a two-dimensional manner.
  • the first and second visual information generated by the display apparatus 100 and the mobile terminal 1300 may include the photosynthesis unit. Since passing through 155, various pieces of information are provided in a three-dimensional manner.
  • an event may occur while the first visual information is output to the first display 151a and the second visual information is output to the display unit 1310.
  • the display device 180 controls the second display 151b so that the third visual information corresponding to the event is output from the second display 151a, and the fourth visual information corresponding to the event is stored.
  • the communication unit 850 is controlled to be output from the display unit 1310. That is, as the second time information output from the second display 151a is changed, the first time information output from the display 1310 is also changed.
  • FIG. 10 is an exemplary diagram for describing a display apparatus having an object recognition sensor.
  • an object sensor 1010 such as an image sensor, an RFID, or an NFC may be provided on an upper end of the display apparatus 100.
  • the object recognition sensor 1010 may detect an object 1020 mounted on an upper end of the display apparatus 100.
  • the controller 180 specifies the detected object based on sensing information sensed by the object recognition sensor 1010, and outputs the second visual information by the graphic object 1030 corresponding to the detected object.
  • the second display 151b may be controlled so as to be controlled.
  • a first graphic object corresponding to the first object is output as the second visual information
  • a second graphic object corresponding to the second object May be output as the second visual information
  • 11A and 11B are conceptual views illustrating a light source unit generating light of a predetermined color with the photosynthesis unit.
  • a light source unit 1610 irradiating light of a predetermined color to the photosynthesis unit 155 may be disposed at one end of the photosynthesis unit 155.
  • the photosynthesis 155 Since the photosynthesis 155 is transparent, the light of the predetermined color generated by the light source 1610 is reflected in the photosynthesis 155 and spreads through the photosynthesis 155.
  • the controller 180 may change a sense of depth generated by the photosynthesis unit 155 by adjusting the color of light emitted from the light source unit 1610. In addition, the controller 180 may control the light source unit 1610 to emit light of different colors according to the angle between the photosynthesis unit 155.
  • the photosynthesis unit 155 may be formed so that the light transmittance of at least one region is variable.
  • the photosynthesis unit 155 transmits the first light so that the first light output from the first display 151a and the second light output from the second display 151b travel in the same path.
  • the second light reflects.
  • the transmission amount of the first light passing through the photosynthesis unit 155 is variable, but the reflection amount of the second light reflected by the photosynthesis unit 155 is to be kept constant. Can be. In this case, while the sharpness of the second graphic object formed by the second light is maintained as it is, the sharpness of the first graphic object formed by the first light is varied.
  • the processor 830 may give a blur effect to the first graphic object by adjusting the light transmittance of the photosynthesis unit 155.
  • the first graphic object changes to a defocused state according to the light transmittance of the photosynthesis unit 155
  • the second graphic object is displayed as it is, and thus the depth of view may be lowered. Since the effect of looking at the display device using a telephoto lens occurs, it is possible to induce the user to concentrate on the second graphic object.
  • the display apparatus 100 may further include structural features for generating the above-described blur effect more effectively.
  • FIG. 12 is an exemplary view for explaining the structural features of the photosynthesis unit according to an embodiment of the present invention.
  • the photosynthetic unit 155 overlaps the first photosynthetic unit 1710 having a first light transmittance and the first photosynthetic unit and a second photosynthetic unit 1720 having a second light transmittance. It may include.
  • the second light output from the second display 151b is reflected by the first photosynthesis unit 155 to face the same path as the first light output from the first display 151a.
  • the second visual information formed by the second light becomes clearer than the first visual information formed by the first light. In other words, a blur effect may occur only on the first visual information.
  • the controller 180 may control the at least one such that at least one of the first light transmittance and the second light transmittance varies according to the angle between the photosynthesis unit 155.
  • the at least one light transmittance may be controlled to maximize the blur effect when the angle between the angles is within the first angle range, and the at least one light transmittance may be controlled to minimize the blur effect when the angle between the angles is within the first angle range. have.
  • the present invention described above can be embodied as computer readable code (or an application or software) on a medium on which a program is recorded.
  • the above-described control method of the autonomous vehicle can be realized by a code stored in a memory or the like.
  • the computer-readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored.
  • Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAMs, CD-ROMs, magnetic tapes, floppy disks, optical data storage devices, and the like. This also includes implementations in the form of carrier waves (eg, transmission over the Internet).
  • the computer may also include a processor or a controller. Accordingly, the above detailed description should not be construed as limiting in all aspects and should be considered as illustrative. The scope of the invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the invention are included in the scope of the invention.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명은 3차원 깊이감을 가지는 시각 정보를 제공할 수 있는 디스플레이를 제공하기 위하여, 제1시각정보를 형성하는 제1광을 출력하는 제1디스플레이, 제2시각정보를 형성하는 제2광을 출력하는 제2디스플레이 및 상기 제1광과 상기 제2광이 동일 경로로 진행하도록, 상기 제1 및 제2디스플레이 사이에서 상기 제1광과 상기 제2광 중 어느 하나는 투과하고, 다른 하나는 반사하는 광합성부를 포함하는 디스플레이 장치에 관한 것으로서, 2차원 디스플레이를 이용하여 홀로그램 효과를 만들어낼 수 있는 디스플레이 장치를 구현하는 효과가 있다.

Description

디스플레이 장치 및 그것의 제어방법
본 발명은 시각 정보를 출력할 수 있는 디스플레이 장치 및 그것의 제어방법에 관한 것이다.
디스플레이 장치(또는, 영상출력기기, 영상표시장치, 영상표시기기)는 방송을 수신하여 표시하거나, 동영상을 기록 및 재생하는 장치와 오디오를 기록 및 재생하는 장치를 모두 포함한다. 상기 디스플레이 장치는 예를 들어, 텔레비전, 컴퓨터 모니터, 프로젝터, 테블릿. 단말기 등을 포함할 수 있다.
이와 같은 디스플레이 장치는 기능이 다양화됨에 따라, 방송이나, 음악이나 동영상 파일의 재생 기능 외에도, 사진 이나 동영상의 촬영, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. 나아가, 최근에는 디스플레이 장치가 스마트 기기(예를 들어, 스마트 텔레비전, 인공지능 로봇)로서 구현되고 있다.
디스플레이 장치는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다.
이러한 디스플레이 장치의 기능 지지 및 증대를 위해, 디스플레이 장치의 구조적인 부분 및/또는 소프트웨어적인 부분을 개량하는 것이 고려될 수 있다.
본 발명은 전술한 문제 및 다른 문제를 해결하는 것을 목적으로 한다.
본 발명의 일 목적은 3차원 깊이감을 가지는 시각 정보를 제공할 수 있는 디스플레이 장치를 제공하는 것이다. 보다 구체적으로, 2차원 디스플레이를 이용하여 홀로그램 효과를 만들어낼 수 있는 디스플레이 장치를 제공하는 것이다.
본 발명에 따른 디스플레이 장치는, 제1시각정보를 형성하는 제1광을 출력하는 제1디스플레이; 제2시각정보를 형성하는 제2광을 출력하는 제2디스플레이; 및 상기 제1광과 상기 제2광이 동일 경로로 진행하도록, 상기 제1 및 제2디스플레이의 사이에서 상기 제1광과 상기 제2광 중 어느 하나는 투과하고, 다른 하나는 반사하는 광합성부를 포함한다.
일 실시 예에 따르면, 상기 디스플레이 장치는, 상기 제1디스플레이는 제1방향으로 상기 제1광을 출력하고, 상기 제2디스플레이는 상기 제1방향과 다른 제2방향으로 상기 제2광을 출력할 수 있다.
일 실시 예에 따르면, 상기 제1방향과 상기 제2방향은 상호 직교할 수 있다.
일 실시 예에 따르면, 상기 광합성부는 상기 제1디스플레이에 대하여 소정 각도만큼 경사지게 배치되어 상기 제1 디스플레이와 오버랩 될 수 있다.
일 실시 예에 따르면, 상기 광합성부의 일 단은 상기 제1 디스플레이와 소정 거리만큼 이격될 수 있다.
일 실시 예에 따르면, 상기 소정 거리는 최소 8mm 내지 최대 20mm 일 수 있다.
일 실시 예에 따르면, 상기 제1광의 광량과 상기 제2광의 광량이 기준 조건을 만족하도록 상기 광합성부, 상기 제1 디스플레이 및 상기 제2 디스플레이 중 적어도 하나를 제어하는 제어부를 더 포함할 수 있다.
일 실시 예에 따르면, 상기 디스플레이 장치는, 조도를 센싱하는 조도 센서를 더 포함하며, 상기 기준 조건은 상기 조도에 따라 가변될 수 있다.
일 실시 예에 따르면, 상기 광합성부는 투과율 및 반사율 중 적어도 하나가 가변 가능하게 형성되며, 상기 제어부는, 상기 기준 조건이 만족되도록 상기 투과율 및 상기 반사율 중 적어도 하나를 조절할 수 있다.
일 실시 예에 따르면, 상기 제어부는, 상기 기준 조건이 만족되도록 상기 제1 디스플레이 및 상기 제2 디스플레이 중 적어도 하나의 밝기를 조절할 수 있다.
일 실시 예에 따르면, 상기 제어부는, 상기 광합성부의 투과율 및 반사율에 근거하여 상기 제1 디스플레이 및 상기 제2 디스플레이 중 적어도 하나의 밝기를 조절할 수 있다.
일 실시 예에 따르면, 상기 광합성부는 상기 제1디스플레이와 사이 각도가 가변하도록 틸팅 가능하게 형성될 수 있다.
일 실시 예에 따르면, 상기 디스플레이 장치는, 동력을 제공하는 회전축을 구비하는 구동부를 더 포함하고, 상기 광합성부는 상기 제1디스플레이와 제2디스플레이의 사이에서 틸팅되도록 상기 회전축에 결합될 수 있다.
일 실시 예에 따르면, 상기 사이 각도는 사용자의 눈 위치에 따라 달라질 수 있다.
일 실시 예에 따르면, 상기 광합성부는 적어도 일 영역의 광투과율이 가변 가능하게 형성되며, 상기 광투과율은 상기 사이 각도에 따라 달라질 수 있다.
일 실시 예에 따르면, 상기 디스플레이 장치는, 영상을 촬영하는 카메라; 및 상기 영상에서 사용자가 포함된 일부 영역을 추출하며, 상기 일부 영역이 상기 제2 시각정보로 출력되도록 상기 제2 디스플레이를 제어하는 제어부를 포함할 수 있다.
일 실시 예에 따르면, 상기 제어부는, 상기 제1 시각정보에 따라 상기 일부 영역의 표시 위치 및 표시 크기 중 적어도 하나가 가변되도록 상기 제2 디스플레이를 제어할 수 있다.
일 실시 예에 따르면, 상기 제어부는, 상기 제1 시각정보에서 상기 일부 영역을 표시할 수 있는 공백을 탐색하고, 상기 공백과 상기 일부 영역이 중첩되도록 상기 제2 디스플레이를 제어할 수 있다.
일 실시 예에 따르면, 상기 디스플레이 장치는, 디스플레이부를 구비한 이동 단말기를 거치할 수 있는 거치부; 상기 이동 단말기와 통신을 수행하는 무선 통신부; 및 상기 이동 단말기가 상기 거치부에 거치되는 경우, 상기 제1 디스플레이를 오프시키고, 상기 제1 시각정보가 상기 이동 단말기의 디스플레이부에서 표시되도록 상기 무선 통신부를 제어하는 제어부를 포함할 수 있다.
일 실시 예에 따르면, 상기 광합성부는 반사율과 투과율이 6:4일 수 있다.
본 발명에 따른 디스플레이 장치의 효과에 대해 설명하면 다음과 같다.
2차원 디스플레이를 이용하여 3차원 깊이감을 가지는 시각 정보를 사용자에게 제공할 수 있으며, 저렴한 비용으로 홀로그램 효과를 만들어낼 수 있다. 나아가, 디스플레이가 배치되는 구조적 특징에 의하여 서로 다른 디스플레이에 출력되는 시각 정보 사이에 물리적 거리감이 생성되며, 입체감이 극대화될 수 있다.
또한, 상기 디스플레이 장치는 제1 디스플레이와 광합성부 사이의 사이 각도를 조절함으로써 상기 제2 디스플레이(151b)에 표시되는 정보의 표시 크기 및 표시 위치 중 적어도 하나가 달라지는 효과를 만들어낼 수 있다. , 상기 사이 각도가 상기 사용자의 눈 위치에 따라 달라지기 때문에, 상기 제2 디스플레이에서 출력되어 상기 광합성부에 의하여 반사되는 시각정보가 사용자의 시야에서 사라지는 것을 미연에 방지할 수 있다.
상기 디스플레이 장치는 상기 광합성부의 광투과율을 조절함으로써 제1 디스플레이에서 출력되는 제1시각정보에 대한 블러(blur) 효과를 줄 수 있다. 다시 말해, 상기 제1 시각정보는 상기 광합성부(155)의 광투과율에 따라 탈초점 상태로 변화하지만, 상기 제2 디스플레이에서 출력되는 제2 시각정보는 그대로 표시되기 때문에, 시야 심도가 낮아질 수 있다. 마치 망원 렌즈를 이용하여 디스플레이 장치를 바라보는 효과가 발생하기 때문에, 입체감을 향상시킬 수 있다.
도 1은 본 발명과 관련된 디스플레이 장치를 설명하기 위한 블록도
도 2a, 도 2b 및 도 2c는 일 실시 예에 따른 디스플레이 장치의 사시도, 정면도 및 단면도
도 3은 디스플레이 장치를 보다 구체적으로 설명하기 위한 단면도
도 4는 디스플레이 장치의 동작을 설명하기 위한 흐름도
도 5a 및 도 5b는 광합성부가 틸팅되는 예를 설명하기 위한 개념도들
도 6은 카메라를 이용한 디스플레이 장치의 동작을 설명하기 위한 흐름도
도 7a 및 도 7b는 도 6의 동작을 설명하기 위한 예시도들
도 8은 이동 단말기를 거치하는 구조를 설명하기 위한 예시도
도 9는 본 발명에 따른 디스플레이 장치가 이동 단말기와 연동하여 정보를 2차원 또는 3차원 방식으로 출력하는 방법을 설명하기 위한 흐름도
도 10은 사물 인식 센서를 구비한 디스플레이 장치를 설명하기 위한 예시도
도 11a 및 도 11b는 광합성부로 소정 색의 빛을 발생시키는 광원부를 설명하기 위한 개념도들
도 12는 본 발명의 일 실시 예에 따른 광합성부의 구조적 특징을 설명하기 위한 예시도
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서에서 설명되는 디스플레이 장치에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다.
그러나, 본 명세서에 기재된 실시 예에 따른 구성은 디스플레이 장치에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.
도 1은 본 발명과 관련된 디스플레이 장치를 설명하기 위한 블록도이다.
상기 디스플레이 장치(100)는 무선 통신부(110), 입력부(120), 전자파 생성부(130), 감지부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1a에 도시된 구성요소들은 디스플레이 장치를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서상에서 설명되는 디스플레이 장치는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 디스플레이 장치(100)와 무선 통신 시스템 사이, 디스플레이 장치(100)와 다른 디스플레이 장치(100) 사이, 또는 디스플레이 장치(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 디스플레이 장치(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.
이러한 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.
전자파 생성부(130)는 근거리에 위치한 외부기기를 제어하기 위한 트리거 신호로써, 직진성을 가지는 전자파를 생성한다. 보다 구체적으로, 전자파 생성부(130)는 제어부(180)의 제어에 의하여 특정 주파수를 가지는 전자파를 생성한다. 즉, 전자파 생성부(130)에 의하여 생성되는 전자파는 제어부(180)의 제어에 따라 다양한 주파수를 가질 수 있다. 한편, 상기 전자파에는 외부기기를 제어하기 위한 다양한 데이터가 포함될 수 있다. 보다 구체적으로, 외부기기와 관련된 정보를 요청하는 요청 메시지나, 보안을 위한 식별인자가 포함될 수 있다.
센싱부(140)는 디스플레이 장치 내 정보, 디스플레이 장치를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 디스플레이 장치는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152), 햅팁 모듈(153), 광 출력부(154) 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 디스플레이 장치(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 디스플레이 장치(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.
디스플레이부(151)는 디스플레이 장치(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(151)는 디스플레이 장치(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.
디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 벤더블 디스플레이(bendable display) 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.
또한, 디스플레이부(151)는 디스플레이 장치(100)의 구현 형태에 따라 2개 이상 존재할 수 있다. 이 경우, 디스플레이 장치(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.
디스플레이부(151)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있도록, 디스플레이부(151)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. 이를 이용하여, 디스플레이부(151)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, 제어부(180)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 이루어질 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.
한편, 터치센서는, 터치패턴을 구비하는 필름 형태로 구성되어 윈도우(151a)와 윈도우(151a)의 배면 상의 디스플레이(미도시) 사이에 배치되거나, 윈도우(151a)의 배면에 직접 패터닝되는 메탈 와이어가 될 수도 있다. 또는, 터치센서는 디스플레이와 일체로 형성될 수 있다. 예를 들어, 터치센서는, 디스플레이의 기판 상에 배치되거나, 디스플레이의 내부에 구비될 수 있다.
이처럼, 디스플레이부(151)는 터치센서와 함께 터치 스크린을 형성할 수 있으며, 이 경우에 터치 스크린은 사용자 입력부(123, 도 1a 참조)로 기능할 수 있다. 경우에 따라, 터치 스크린은 제1조작유닛(123a)의 적어도 일부 기능을 대체할 수 있다.
인터페이스부(160)는 디스플레이 장치(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 디스플레이 장치(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.
또한, 메모리(170)는 디스플레이 장치(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 디스플레이 장치(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 디스플레이 장치(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 디스플레이 장치(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 디스플레이 장치(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 디스플레이 장치(100) 상에 설치되어, 제어부(180)에 의하여 상기 디스플레이 장치의 동작(또는 기능)을 수행하도록 구동될 수 있다.
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 디스플레이 장치(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1a와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 디스플레이 장치(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.
전원공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 디스플레이 장치(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 디스플레이 장치의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 디스플레이 장치의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 디스플레이 장치 상에서 구현될 수 있다.
이하에서는, 위에서 살펴본 디스플레이 장치(100)를 통하여 구현되는 다양한 실시 예들을 살펴보기에 앞서, 위에서 열거된 구성요소들에 대하여 도 1a를 참조하여 보다 구체적으로 살펴본다.
먼저, 무선 통신부(110)에 대하여 살펴보면, 무선 통신부(110)의 방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 적어도 두 개의 방송 채널들에 대한 동시 방송 수신 또는 방송 채널 스위칭을 위해 둘 이상의 상기 방송 수신 모듈이 상기 이동단말기(100)에 제공될 수 있다.
이동통신 모듈(112)은, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA1000(Code Division Multi Access 1000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다.
상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 디스플레이 장치(100)에 내장되거나 외장될 수 있다. 무선 인터넷 모듈(113)은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.
무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 상기 무선 인터넷 모듈(113)은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다.
WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A 등에 의한 무선인터넷 접속은 이동통신망을 통해 이루어진다는 관점에서 본다면, 상기 이동통신망을 통해 무선인터넷 접속을 수행하는 상기 무선 인터넷 모듈(113)은 상기 이동통신 모듈(112)의 일종으로 이해될 수도 있다.
근거리 통신 모듈(114)은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 근거리 통신 모듈(114)은, 근거리 무선 통신망(Wireless Area Networks)을 통해 디스플레이 장치(100)와 무선 통신 시스템 사이, 디스플레이 장치(100)와 다른 디스플레이 장치(100) 사이, 또는 디스플레이 장치(100)와 다른 디스플레이 장치(100, 또는 외부서버)가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다. 상기 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.
여기에서, 다른 디스플레이 장치(100)는 본 발명에 따른 디스플레이 장치(100)와 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 웨어러블 디바이스(wearable device, 예를 들어, 스마트워치(smartwatch), 스마트 글래스(smart glass), HMD(head mounted display))가 될 수 있다. 근거리 통신 모듈(114)은, 디스플레이 장치(100) 주변에, 상기 디스플레이 장치(100)와 통신 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다. 나아가, 제어부(180)는 상기 감지된 웨어러블 디바이스가 본 발명에 따른 디스플레이 장치(100)와 통신하도록 인증된 디바이스인 경우, 디스플레이 장치(100)에서 처리되는 데이터의 적어도 일부를, 상기 근거리 통신 모듈(114)을 통해 웨어러블 디바이스로 전송할 수 있다. 따라서, 웨어러블 디바이스의 사용자는, 디스플레이 장치(100)에서 처리되는 데이터를, 웨어러블 디바이스를 통해 이용할 수 있다. 예를 들어, 이에 따르면 사용자는, 디스플레이 장치(100)에 전화가 수신된 경우, 웨어러블 디바이스를 통해 전화 통화를 수행하거나, 디스플레이 장치(100)에 메시지가 수신된 경우, 웨어러블 디바이스를 통해 상기 수신된 메시지를 확인하는 것이 가능하다.
위치정보 모듈(115)은 디스플레이 장치의 위치(또는 현재 위치)를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다. 예를 들어, 디스플레이 장치는 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 디스플레이 장치의 위치를 획득할 수 있다. 다른 예로서, 디스플레이 장치는 Wi-Fi모듈을 활용하면, Wi-Fi모듈과 무선신호를 송신 또는 수신하는 무선 AP(Wireless Access Point)의 정보에 기반하여, 디스플레이 장치의 위치를 획득할 수 있다. 필요에 따라서, 위치정보모듈(115)은 치환 또는 부가적으로 디스플레이 장치의 위치에 관한 데이터를 얻기 위해 무선 통신부(110)의 다른 모듈 중 어느 기능을 수행할 수 있다. 위치정보모듈(115)은 디스플레이 장치의 위치(또는 현재 위치)를 획득하기 위해 이용되는 모듈로, 디스플레이 장치의 위치를 직접적으로 계산하거나 획득하는 모듈로 한정되지는 않는다.
다음으로, 입력부(120)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 영상 정보의 입력을 위하여, 디스플레이 장치(100) 는 하나 또는 복수의 카메라(121)를 구비할 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시되거나 메모리(170)에 저장될 수 있다. 한편, 디스플레이 장치(100)에 구비되는 복수의 카메라(121)는 매트릭스 구조를 이루도록 배치될 수 있으며, 이와 같이 매트릭스 구조를 이루는 카메라(121)를 통하여, 디스플레이 장치(100)에는 다양한 각도 또는 초점을 갖는 복수의 영상정보가 입력될 수 있다. 또한, 복수의 카메라(121)는 입체영상을 구현하기 위한 좌 영상 및 우 영상을 획득하도록, 스트레오 구조로 배치될 수 있다.
마이크로폰(122)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 디스플레이 장치(100)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다. 한편, 마이크로폰(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
사용자 입력부(123)는 사용자로부터 정보를 입력받기 위한 것으로서, 사용자 입력부(123)를 통해 정보가 입력되면, 제어부(180)는 입력된 정보에 대응되도록 디스플레이 장치(100)의 동작을 제어할 수 있다. 이러한, 사용자 입력부(123)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 디스플레이 장치(100)의 전·후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다.
한편, 센싱부(140)는 디스플레이 장치 내 정보, 디스플레이 장치를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하고, 이에 대응하는 센싱 신호를 발생시킨다. 제어부(180)는 이러한 센싱 신호에 기초하여, 디스플레이 장치(100)의 구동 또는 동작을 제어하거나, 디스플레이 장치(100)에 설치된 응용 프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행 할 수 있다. 센싱부(140)에 포함될 수 있는 다양한 센서 중 대표적인 센서들의 대하여, 보다 구체적으로 살펴본다.
먼저, 근접 센서(141)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선 등을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 이러한 근접 센서(141)는 위에서 살펴본 터치 스크린에 의해 감싸지는 디스플레이 장치의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다.
근접 센서(141)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전 용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 터치 스크린이 정전식인 경우에, 근접 센서(141)는 전도성을 갖는 물체의 근접에 따른 전계의 변화로 상기 물체의 근접을 검출하도록 구성될 수 있다. 이 경우 터치 스크린(또는 터치센서) 자체가 근접 센서로 분류될 수 있다.
한편, 설명의 편의를 위해, 터치 스크린 상에 물체가 접촉되지 않으면서 근접되어 상기 물체가 상기 터치 스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 명명하고, 상기 터치 스크린 상에 물체가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 명명한다. 상기 터치 스크린 상에서 물체가 근접 터치 되는 위치라 함은, 상기 물체가 근접 터치될 때 상기 물체가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다. 상기 근접 센서(141)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지할 수 있다. 한편, 제어부(180)는 위와 같이, 근접 센서(141)를 통해 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 데이터(또는 정보)를 처리하며, 나아가, 처리된 데이터에 대응하는 시각적인 정보를 터치 스크린상에 출력시킬 수 있다. 나아가, 제어부(180)는, 터치 스크린 상의 동일한 지점에 대한 터치가, 근접 터치인지 또는 접촉 터치인지에 따라, 서로 다른 동작 또는 데이터(또는 정보)가 처리되도록 디스플레이 장치(100)를 제어할 수 있다.
터치센서는 저항막 방식, 정전용량 방식, 적외선 방식, 초음파 방식, 자기장 방식 등 여러 가지 터치방식 중 적어도 하나를 이용하여 터치 스크린(또는 디스플레이부(151))에 가해지는 터치(또는 터치입력)을 감지한다.
일 예로서, 터치센서는, 터치 스크린의 특정 부위에 가해진 압력 또는 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치센서는, 터치 스크린 상에 터치를 가하는 터치 대상체가 터치센서 상에 터치 되는 위치, 면적, 터치 시의 압력, 터치 시의 정전 용량 등을 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다.
이와 같이, 터치센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다. 여기에서, 터치 제어기는, 제어부(180)와 별도의 구성요소일 수 있고, 제어부(180) 자체일 수 있다.
한편, 제어부(180)는, 터치 스크린(또는 터치 스크린 이외에 구비된 터치키)을 터치하는, 터치 대상체의 종류에 따라 서로 다른 제어를 수행하거나, 동일한 제어를 수행할 수 있다. 터치 대상체의 종류에 따라 서로 다른 제어를 수행할지 또는 동일한 제어를 수행할 지는, 현재 디스플레이 장치(100)의 동작상태 또는 실행 중인 응용 프로그램에 따라 결정될 수 있다.
한편, 터치센서는 는 상기 디스플레이부(151)의 활성화 및 비활성화된 상태에서 서로 다른 방식을 이용하여 터치입력을 감지하도록 형성될 수 있다. 이때, 상기 서로 다른 방식은 터치센서의 활성화 주기와 관련될 수 있다. 보다 구체적으로, 상기 터치센서는, 디스플레이부(151)의 활성화 여부에 따라 서로 다른 주기로 활성화될 수 있다. 즉, 터치센서는, 디스플레이부(151)의 활성화 여부에 따라, 서로 다른 활성화 주기를 가지면서, 터치센서에 가해지는 터치입력을 감지할 수 있다.
예를 들어, 디스플레이부(151)가 비활성화된 상태에서는, 터치센서가 기 설정된 특정 주기로 활성화될 수 있다. 이 경우, 상기 특정 주기는, 0보다 큰 시간(time)에 대응되는 주기일 수 있다. 그리고, 디스플레이부(151)가 활성화된 상태에서는, 터치센서가 항상 활성화 상태로 동작될 수 있다. 즉, 이 경우, 터치센서의 활성화 주기는 0 또는, 0에 매우 가까운 정도의 시간을 갖는 주기일 수 있다.
터치센서의 활성화 여부는, 터치센서의 전력 소모량을 이용하여 구분할 수 있다. 예를 들어, 터치센서의 전력 소모량이 0을 기준으로 기 설정된 기준 값 이하이면, 상기 터치센서는 비활성화된 상태에 해당하고, 상기 터치센서의 전력 소모량이 0을 기준으로 상기 기 설정된 기준 값 초과이면, 활성화된 상태라고 말할 수 있다.
디스플레이부(151)가 활성화 상태인 경우(active mode, 이하 '액티브 모드'로 호칭), 상기 터치센서는 계속하여 활성화 상태를 유지하고, 디스플레이부(151)에 대한 터치입력의 인가를 대기할 수 있다. 이와 달리, 디스플레이부(151)가 비활성화 상태인 경우(dose mode, 이하 '도즈 모드'로 호칭), 터치센서는 기 설정된 특정 주기마다 활성화될 수 있다.
한편, 터치센서가 활성화되는 특정 주기가 짧을수록, 디스플레이부(151)를 두드리는 터치입력을 감지하는 속도가 빨라지지만, 그에 따라 터치센서에 의해 소모되는 전력이 커질 수 있다. 이와 달리, 터치센서가 활성화되는 주기가 길수록, 터치센서에 의해 소모되는 전력은 작아지지만, 디스플레이부(151)를 두드리는 터치입력을 감지하는 속도는 느려질 수 있다.
따라서, 특정 주기는 디스플레이부(151)를 두드리는 터치입력을 감지함에 있어 감지 속도가 사용자에게 인식되지 않을 정도로 빠르면서도, 전력 소모의 효율이 증대되도록 설정될 수 있다. 예를 들어, 특정 주기는 터치센서가 비활성화되어 있다가 1초에 20번(1Hz) 정도 활성화되도록 설정될 수 있다.
한편, 디스플레이부(151)가 활성화된 상태 동안에는, 터치센서도 함께 활성화될 수 있으며, 활성화된 상태에서 터치센서의 활성화 주기(T)는 0이거나, 0에 매우 가까울 수 있다. 또는, 상기 터치센서가 활성화된 상태에서, 상기 터치센서의 주기는, 상기 디스플레이부(151)가 비활성화된 상태에서 터치센서가 활성화되도록 설정된 특정 주기보다 몇 배로 짧을 수 있다. 즉, 터치센서는 디스플레이부(151)의 활성화 여부에 따라 서로 다른 주기로 활성화될 수 있다.
한편, 디스플레이부(151)가 비활성화되어 있고, 터치센서가 주기적으로 활성화되는 도즈 모드(doze mode)에서, 터치센서에 의하여 기 설정된 터치입력(예를 들어, 소정의 영역을 기준시간 이내에 연속적으로 두드리는 제1 및 제2 터치입력)이 감지되면, 제어부(180)는 상기 도즈 모드(doze mode)를, 디스플레이부 및 터치센서가 활성화되는 액티브 모드(active mode)로 전환할 수 있다.
뿐만 아니라, 터치센서는 디스플레이부(151)의 상태에 근거하여 서로 다른 주기로 구동될 수 있다. 예를 들어, 디스플레이부(151)가 닫힘상태에 있는 경우, 도즈 모드를 실행하고, 닫힘상태에서 열림상태로 전환되는 경우, 액티브 모드를 실행할 수 있다.
한편, 위에서 살펴본 터치센서 및 근접 센서는 독립적으로 또는 조합되어, 터치 스크린에 대한 숏(또는 터치입력) 터치(short touch), 롱 터치(long touch), 멀티 터치(multi touch), 드래그 터치(drag touch), 플리크 터치(flick touch), 핀치-인 터치(pinch-in touch), 핀치-아웃 터치(pinch-out 터치), 스와이프(swype) 터치, 호버링(hovering) 터치 등과 같은, 다양한 방식의 터치를 센싱할 수 있다.
초음파 센서는 초음파를 이용하여, 감지대상의 위치정보를 인식할 수 있다. 한편 제어부(180)는 광 센서와 복수의 초음파 센서로부터 감지되는 정보를 통해, 파동 발생원의 위치를 산출하는 것이 가능하다. 파동 발생원의 위치는, 광이 초음파보다 매우 빠른 성질, 즉, 광이 광 센서에 도달하는 시간이 초음파가 초음파 센서에 도달하는 시간보다 매우 빠름을 이용하여, 산출될 수 있다. 보다 구체적으로 광을 기준 신호로 초음파가 도달하는 시간과의 시간차를 이용하여 파동 발생원의 위치가 산출될 수 있다.
한편, 입력부(120)의 구성으로 살펴본, 카메라(121)는 카메라 센서(예를 들어, CCD, CMOS 등), 포토 센서(또는 이미지 센서) 및 레이저 센서 중 적어도 하나를 포함한다.
카메라(121)와 레이저 센서는 서로 조합되어, 3차원 입체영상에 대한 감지대상의 터치를 감지할 수 있다. 포토 센서는 디스플레이 소자에 적층될 수 있는데, 이러한 포토 센서는 터치 스크린에 근접한 감지대상의 움직임을 스캐닝하도록 이루어진다. 보다 구체적으로, 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호를 이용하여 포토 센서 위에 올려지는 내용물을 스캔한다. 즉, 포토 센서는 빛의 변화량에 따른 감지대상의 좌표 계산을 수행하며, 이를 통하여 감지대상의 위치정보가 획득될 수 있다.
한편, 카메라(121)는 단말기 본체의 전면에 형성되는 제1 카메라(121a)와 후면에 형성되는 제2 카메라(121b) 중 적어도 하나를 구비한다.
제1 카메라(121a)는 촬영 모드 또는 화상통화 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있으며, 메모리(170)에 저장될 수 있다.
제2카메라(121b)는 적어도 하나의 라인을 따라 배열되는 복수의 렌즈를 포함할 수 있다. 복수의 렌즈는 행렬(matrix) 형식으로 배열될 수도 있다. 이러한 카메라는, ‘어레이(array) 카메라’로 명명될 수 있다. 제2카메라(121b)가 어레이 카메라로 구성되는 경우, 복수의 렌즈를 이용하여 다양한 방식으로 영상을 촬영할 수 있으며, 보다 나은 품질의 영상을 획득할 수 있다.
플래시(미도시)는 제2카메라(121b)에 인접하게 배치될 수 있다. 플래시(미도시)는 제2카메라(121b)로 피사체를 촬영하는 경우에 피사체를 향하여 빛을 비추게 된다.
또한, 전자파 생성부(미도시)는 제2카메라(121b)에 인접하게 배치될 수 있다. 전자파 생성부(미도시)는 제2카메라(121b)가 활성화되는 경우, 생성된 전자파를 방사한다.
디스플레이부(151)는 디스플레이 장치(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(151)는 디스플레이 장치(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.
또한, 상기 디스플레이부(151)는 입체영상을 표시하는 입체 디스플레이부로서 구성될 수 있다.
상기 입체 디스플레이부에는 스테레오스코픽 방식(안경 방식), 오토 스테레오스코픽 방식(무안경 방식), 프로젝션 방식(홀로그래픽 방식) 등의 3차원 디스플레이 방식이 적용될 수 있다.
음향 출력부(152)는 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(170)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력부(152)는 디스플레이 장치(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력부(152)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.
음향 출력부(152)는 제1 음향 출력부(152a)와 제2 음향 출력부(152b) 중 적어도 하나를 포함한다. 제1 음향 출력부(152a)는 통화음을 사용자의 귀에 전달시키는 리시버(receiver)로 구현될 수 있으며, 제2 음향 출력부(152b)는 각종 알람음이나 멀티미디어의 재생음을 출력하는 라우드 스피커(loud speaker)의 형태로 구현될 수 있다.
햅틱 모듈(haptic module)(153)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(153)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 햅틱 모듈(153)에서 발생하는 진동의 세기와 패턴 등은 사용자의 선택 또는 제어부의 설정에 의해 제어될 수 있다. 예를 들어, 상기 햅틱 모듈(153)은 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
햅틱 모듈(153)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(electrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.
햅틱 모듈(153)은 직접적인 접촉을 통해 촉각 효과를 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(153)은 디스플레이 장치(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.
광출력부(154)는 디스플레이 장치(100)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. 디스플레이 장치(100)에서 발생 되는 이벤트의 예로는 사용자 인증 성공/실패, 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등이 될 수 있다. 제어부(180)는 사용자의 이벤트 확인이 감지되면, 빛의 출력이 종료되도록 광 출력부(154)를 제어할 수 있다.
광출력부(154)가 출력하는 신호는 디스플레이 장치가 전면이나 후면으로 단색이나 복수색의 빛을 발광함에 따라 구현된다. 상기 신호 출력은 디스플레이 장치가 사용자의 이벤트 확인을 감지함에 의하여 종료될 수 있다.
인터페이스부(160)는 디스플레이 장치(100)에 연결되는 모든 외부 기기와의 통로 역할을 한다. 인터페이스부(160)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 디스플레이 장치(100) 내부의 각 구성요소에 전달하거나, 디스플레이 장치(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트(port), 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 등이 인터페이스부(160)에 포함될 수 있다.
한편, 식별 모듈은 디스플레이 장치(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(user identify module; UIM), 가입자 인증 모듈(subscriber identity module; SIM), 범용 사용자 인증 모듈(universal subscriber identity module; USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 상기 인터페이스부(160)를 통하여 단말기(100)와 연결될 수 있다.
또한, 상기 인터페이스부(160)는 디스플레이 장치(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 디스플레이 장치(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 디스플레이 장치(100)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 디스플레이 장치(100)가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수 있다.
메모리(170)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(170)는 상기 터치 스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.
메모리(170)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 디스플레이 장치(100)는 인터넷(internet)상에서 상기 메모리(170)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다.
한편, 앞서 살펴본 것과 같이, 제어부(180)는 응용 프로그램과 관련된 동작과, 통상적으로 디스플레이 장치(100)의 전반적인 동작을 제어한다. 예를 들어, 제어부(180)는 상기 디스플레이 장치의 상태가 설정된 조건을 만족하면, 애플리케이션들에 대한 사용자의 제어 명령의 입력을 제한하는 잠금 상태를 실행하거나, 해제할 수 있다.
또한, 제어부(180)는 음성 통화, 데이터 통신, 화상 통화 등과 관련된 제어 및 처리를 수행하거나, 터치 스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. 나아가 제어부(180)는 이하에서 설명되는 다양한 실시 예들을 본 발명에 따른 디스플레이 장치(100) 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다.
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다. 전원공급부(190)는 배터리를 포함하며, 배터리는 충전 가능하도록 이루어지는 내장형 배터리가 될 수 있으며, 충전 등을 위하여 디스플레이 장치의 바디에 착탈 가능하게 결합될 수 있다.
또한, 전원공급부(190)는 연결포트를 구비할 수 있으며, 연결포트는 배터리의 충전을 위하여 전원을 공급하는 외부 충전기가 전기적으로 연결되는 인터페이스(160)의 일 예로서 구성될 수 있다.
다른 예로서, 전원공급부(190)는 상기 연결포트를 이용하지 않고 무선방식으로 배터리를 충전하도록 이루어질 수 있다. 이 경우에, 전원공급부(190)는 외부의 무선 전력 전송장치로부터 자기 유도 현상에 기초한 유도 결합(Inductive Coupling) 방식이나 전자기적 공진 현상에 기초한 공진 결합(Magnetic Resonance Coupling) 방식 중 하나 이상을 이용하여 전력을 전달받을 수 있다.
디스플레이 장치(100)에는 외관을 보호하거나, 디스플레이 장치(100)의 기능을 보조 또는 확장시키는 액세서리가 추가될 수 있다. 이러한 액세서리의 일 예로, 디스플레이 장치(100)의 적어도 일면을 덮거나 수용하는 커버 또는 파우치를 들 수 있다. 커버 또는 파우치는 디스플레이부(151)와 연동되어 디스플레이 장치(100)의 기능을 확장시키도록 구성될 수 있다. 액세서리의 다른 일 예로, 터치 스크린에 대한 터치입력을 보조 또는 확장하기 위한 터치펜을 들 수 있다.
한편, 이하에서 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
도 2a, 도 2b 및 도 2c는 일 실시 예에 따른 디스플레이 장치의 사시도, 정면도 및 단면도이다.
도 2a를 참조하면, 상기 디스플레이 장치(100)는 제1 디스플레이(151a), 제2 디스플레이(151b) 및 광합성부(155)를 포함한다.
제1 및 제2 디스플레이(151a, 151b)는 디스플레이 장치(100)에 구비된 제어부(180)의 제어에 따라 다양한 정보를 출력할 수 있다. 예를 들어, 상기 제1 디스플레이(151a)는 제1 시각정보를 형성하는 제1광을 출력하고, 상기 제2 디스플레이(151b)는 제2 시각정보를 형성하는 제2광을 출력할 수 있다.
상기 제1 및 제2 디스플레이(151a,151b)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.
상기 제1 디스플레이(151a)는 제1 방향을 향하도록 배치되고, 상기 제2 디스플레이(151b)는 상기 제1 방향에 대하여 수직인 제2 방향을 향하도록 배치될 수 있다. 상기 제2 방향은 상기 제1 방향에 대하여 수직에 가까운 소정 범위의 각도를 이루는 방향을 의미할 수도 있다.
상기 제1 방향은 사용자의 눈을 향하는 방향이고, 상기 제2 방향은 상기 제1 방향에 대한 소정 사이 각도를 가지는 방향일 수 있다. 일 예로, 상기 제2 방향은 중력 방향 또는 중력 방향에 대한 반대 방향일 수 있다.
이러한 상기 제1 및 제2 디스플레이(151a,151b)의 배치에 의하여 상기 제1 디스플레이(151a)는 사용자의 시야에 들어가지만, 상기 제2 디스플레이(151b)는 상기 시야에 들어가지 않게 된다.
상기 광합성부(155)는 상기 제1 디스플레이(151a)에 대하여 소정 각도만큼 경사지게 배치되어 상기 제1 디스플레이(151a)와 오버랩된다. 상기 제1디스플레이(151a)에서 생성된 시각정보는 상기 광합성부(155)를 통과하여 사용자에게 도달한다.
상기 광합성부(155)는 상기 제1광 및 상기 제2광 각각의 진행경로 상에 위치한다. 구체적으로, 상기 광합성부(155)는 상기 제1 디스플레이(151a)와 제1예각을 이루고, 상기 제2 디스플레이(151b)와 제2예각을 이룰 수 있다. 상기 제1예각과 상기 제2예각은 동일한 각도이거나 서로 다른 각도 일 수 있다.
상기 광합성부(155)의 일 단은 상기 제1 및 제2 디스플레이들(151a,151b)에 인접하게 위치할 수 있다. 그리고, 상기 광합성부(155)의 일 단에서 상기 광합성부(155)의 타 단으로 갈수록 상기 제1 및 제2 디스플레이들(151a,151b)로부터 멀어지도록, 상기 광합성부(155)는 상기 제1 및 제2 디스플레이들(151a,151b) 사이에 배치될 수 있다.
상기 광합성부(155)는 상기 제1광과 상기 제2광이 동일 경로로 진행하도록, 상기 제1 및 제2 디스플레이(151a,151b)의 사이에서 상기 제1광은 투과하고, 상기 제2광은 반사하도록 이루어진다. 다시 말해, 상기 광합성부(155)는 상기 제1광 및 상기 제2광이 동일한 광 경로로 진행될 수 있도록 상기 제1광 및 상기 제2광을 합성한다.
상기 광합성부(155)는 다이크로익 미러(dichroic mirro)와 같은 미러나 와이어그리드 폴러라이즈(또는, 와이어그리드 편광판), 필름, 광학 프리즘 등으로 이루어질 수 있다.
상기 제2 방향을 향하도록 배치된 상기 제2 디스플레이(151b)에서 발생된 제2광은 상기 광합성부(155)에 의하여 상기 제1광과 합성되어 합성광을 이루고, 상기 합성광은 상기 제1방향을 향하여 진행하게 된다.
일 실시 예에 따르면, 도 2b 및 도 2c에 도시된 바와 같이, 음향 출력부(152), 전원 공급부(190), 제2 디스플레이(151b)가 순차적으로 적층되고, 제2 디스플레이(151b)는 중력 방향의 반대 방향으로 시각 정보를 출력하도록 배치될 수 있다. 제2 디스플레이(151b)가 중력 방향으로 시각 정보를 출력하도록 배치될 수도 있다.
제1 디스플레이(151a)는 제2 디스플레이(151b)와 직교하도록 배치되어, 디스플레이 장치(100)의 전면을 향한다. 제1 디스플레이(151a) 및 제2 디스플레이(151b) 사이에 광합성부(155)가 배치된다.
카메라(121)는 디스플레이 장치(100)의 전면을 향하도록 배치되어 사용자의 추적하는데 이용될 수 있다.
도 3은 디스플레이 장치를 보다 구체적으로 설명하기 위한 단면도이다.
상기 제1 디스플레이(151a)에는 제1 그래픽 객체가 출력되고, 상기 제2 디스플레이(151b)에는 제2 그래픽 객체가 출력될 수 있다.
상기 제1 그래픽 객체에 대응하는 제1광은 상기 광합성부(155)에 의하여 반사되지 않고 상기 광합성부(155)를 그대로 통과되기 때문에, 사용자는 상기 제1 그래픽 객체가 상기 제1 디스플레이(151a)에서 출력되고 있는 것으로 직감 또는 인지할 수 있다. 상기 광합성부(155)는 투명하게 이루어지기 때문이다.
이와 달리, 상기 제2 그래픽 객체에 대응하는 제2광은 상기 광합성부(155)에 의하여 반사되기 때문에, 사용자는 상기 제2 시각정보가 광합성부(155)에서 표시되고 있는 것으로 직감 또는 인지하게 된다.
사용자는 상기 제1 그래픽 객체는 상기 제1 디스플레이(151a)에 위치하고, 상기 제2 그래픽 객체는 광합성부(155)에 위치하고 있는 것으로 인식한다. 이에 따라, 상기 제1 및 제2 그래픽 객체들 사이에는 상기 광합성부(155)와 상기 제1 디스플레이(151a) 사이의 거리만큼의 거리감이 형성될 수 있다.
사용자는 상기 제1 그래픽 객체 위에 상기 제2 그래픽 객체가 위치하는 것으로 상기 제1 및 제2 그래픽 객체들을 인지할 수 있다. 사용자는 상기 제1 그래픽 객체 보다 상기 제2 그래픽 객체가 자기에게 가까이 위치하는 것으로, 또는 상기 제1 그래픽 객체가 상기 제2 그래픽 객체보다 자기부터 멀리 떨어져 있는 것으로, 상기 제1 및 제2 그래픽 객체들을 인지할 수 있다. 즉, 상기 광합성부(155)와 상기 제1 디스플레이(151a) 의 위치 차이로 인하여, 사용자는 3차원 깊이감을 느낄 수 있다.
상기 제1 디스플레이(151a)에서 제1 시각정보가 디스플레이 되고 상기 제2 디스플레이(151b)에서 제2 시각정보가 동시에 디스플레이 되는 경우, 각 디스플레이에 표시되는 정보에는 3차원 깊이감(depth)이 형성될 수 있다.
여기서 ‘깊이감’ 또는 ‘깊이 값’은 디스플레이 장치(100)에서 표시되는 객체에 대하여 가상의 일 지점과의 거리 차이를 나타내는 지표를 의미한다. 디스플레이 장치(100)에 의해 표시된 객체가 소정 지점에 위치하는 경우, 객체의 깊이 값은 “0”으로 정의할 수 있다. 상기 소정 지점으로부터 디스플레이 장치(100)의 외부로 돌출된 형태로 보이는 객체의 깊이 값은 음수로 정의되고, 내부로 들어간 형태로 보이는 객체의 깊이 값은 양수로 정의될 수 있다. 깊이 값의 절대 값이 클수록, 해당 객체는 상기 소정 지점으로부터 멀리 떨어진 것으로 해석될 수 있다.
동일한 그래픽 객체가 동일한 크기로 표시되더라도, 상기 제2 디스플레이(151b)의 어느 위치에서 표시되는지에 따라 서로 다른 깊이 값을 가질 수 있다. 상기 광합성부(155)가 상기 제1 및 제2 디스플레이들(151a,151b) 사이에 위치하며, 상기 광합성부(155)의 일 면은 상기 제1 디스플레이(151a)와 소정 사이 각도(θ)를 가지도록 배치되기 때문이다.
이하에서, 상기 광합성부(155)와 상기 제1 디스플레이(151a) 사이의 각도를 ‘사이 각도’로 정의한다.
상기 제2 디스플레이(151b)에 어떠한 정보도 표시되지 않는 경우, 사용자는 상기 제1 디스플레이(151a)에 표시되는 정보를 2차원 형태로 제공받게 된다.
이와 달리, 상기 제2 디스플레이(151b)에 정보가 표시되는 경우, 상기 제1 및 제2 디스플레이들(810, 820)에 표시되는 모든 정보는 3차원 형태로 제공될 수 있다. 상기 광합성부(155)와 상기 제1 디스플레이(151a) 사이의 위치 차이로 인하여, 상기 제2 디스플레이(151b)에 표시되는 정보는 표시 위치에 따라 다른 깊이 값을 가지게 된다.
광합성부(155)는 제1 디스플레이(151a)에 대하여 소정 각도만큼 경사지게 배치된다. 예를 들어, 소정 각도는 45도일 수 있다. 이 때문에, 광합성부(155)의 일 단은 제1 디스플레이(151a)와 가장 가까운 곳에 위치하고, 광합성부(155)의 타 단은 제1 디스플레이(151a)와 가장 먼 곳에 위치한다.
상기 광합성부(155)의 일 단은 상기 제1 디스플레이(151a)와 소정 거리(x)만큼 이격된다. 예를 들어, 소정 거리는 최소 8mm 내지 최대 20mm일 수 있다. 실험적으로 소정 거리가 최소 8mm 내지 최대 20mm 일 때, 제1시각정보에 대하여 제2시각정보가 입체감을 가진다.
상기 광합성부(155)의 일 단이 상기 제1 디스플레이(151a)와 소정 거리(x)만큼 이격되기 때문에, 상기 광합성부(155)의 중심과 상기 제2 디스플레이(151b)의 중심 사이의 제1거리는 상기 광합성부(155)의 중심과 상기 제1 디스플레이(151a)의 중심 사이의 제2거리 보다 짧다. 이러한 거리의 차이로 디스플레이 장치(100)가 제공하는 시각정보의 입체감이 극대화된다.
상기 광합성부(155)는 제1 디스플레이(151a)와 마주하는 제1면과 제2 디스플레이(151b)와 마주하는 제2면을 구비한다.
상기 제1면에는, 제1 디스플레이(151a)에서 생성된 제1광의 투과량을 증가시키면서도 제2 디스플레이(151b)에서 생성된 제2광의 반사량을 감소시키는 제1코팅(310)이 이루어질 수 있다. 예를 들어, 제1면에는 AR 코팅이 이루어질 수 있다. 제1코팅에 의하여 제1시각정보의 시인성이 증가한다.
상기 제2면에는 제2 디스플레이(151b)에서 생성된 제2광의 반사량을 증가시키면서도 제1 디스플레이(151a)에서 생성된 제1광의 투과량을 감소시키는 제2코팅(320)이 이루어질 수 있다. 예를 들어, 제2면에는 하프미러(Half-mirror) 코팅이 이루어질 수 있다. 하프미러 코팅은 알루미늄이나 은을 박막 증착하여 반사량을 높이는 코팅이다. 제2코팅에 의하여 제2시각정보의 시인성이 증가한다.
도 4는 디스플레이 장치의 동작을 설명하기 위한 흐름도이다.
제어부(180)는 상기 제1 및 제2 디스플레이들(151a,151b) 중 적어도 하나를 제어하도록 이루어진다. 구체적으로, 제1 시각정보를 제1 디스플레이(151a)에 제2 시각정보를 제2디스플레이(151b)에 출력할 수 있다(S410).
제어부(180)는 상기 제1광의 광량과 상기 제2광의 광량을 산출할 수 있다(S430).
제어부(180)는 각 디스플레이의 RGB 정보, 밝기 정보 등을 종합적으로 고려하여 제1 디스플레이(151a)에서 출력되고 있는 제1광의 광량과 제2 디스플레이(151b)에서 출력되고 있는 제2광의 광량을 산출할 수 있다.
제어부(180)는 상기 제1광의 광량과 상기 제2광의 광량이 기준 조건을 만족하도록 상기 광합성부, 상기 제1 디스플레이 및 상기 제2 디스플레이 중 적어도 하나를 제어할 수 있다(S450).
제어부(180)는 사용자를 기준으로 사용자에게 도달해야 하는 목표 광량을 산출할 수 있다. 목표 광량은 이하에서 설명할 기준 조건을 만족하는 광량을 의미한다.
예를 들어, 기준 조건으로, 제1 디스플레이(151a)에서 출력되는 제1 시각정보와 제2 디스플레이(151b)에서 출력되는 제2 시각정보의 밝기 비가 48:60으로 설정될 수 있다.
상기 광합성부(155)의 반사율과 투과율이 6:4 인 경우를 예로 들어 설명한다. 제1 디스플레이(151a)가 100 수준의 조도로 제1광을 출력하고, 제2 디스플레이(151b)가 100 수준의 조도로 제2광을 출력하는 경우, 상기 광합성부(155)의 반사율에 의하여 제2광은 60 수준의 조도로 사용자에게 도달하고, 상기 광합성부(155)의 투과율에 의하여 제1광은 40 수준의 조도로 사용자에게 도달한다.
상기 제어부는 기준 조건에 해당하는 48:60의 비율을 만족하기 위하여, 제1 디스플레이(151a)의 제1 목표 광량 및/또는 제2 디스플레이(151b)의 제2 목표 광량을 산출할 수 있다. 일 예로, 상기 제어부(180)는 제1 목표 광량을 120 수준의 조도로 산출하고, 상기 제1 목표 광량을 출력하도록 상기 제1 디스플레이(151a)를 제어할 수 있다. 이러한 제어에 따라, 제1 디스플레이(151a)에서 출력되는 제1 시각정보와 제2 디스플레이(151b)에서 출력되는 제2 시각정보의 밝기 비가 기준 조건을 만족하게 된다.
상기 디스플레이 장치(100)에는 조도를 센싱하는 조도 센서가 더 포함될 수 있다. 그리고 상기 기준 조건은 상기 조도에 따라 가변될 수 있다. 예를 들어, 상기 조도가 제1범위 내인 경우, 제1 기준 조건이 설정되고, 상기 조도가 제2 범위 내인 경우, 상기 제1 기준 조건과 다른 제2 기준 조건이 설정될 수 있다. 다시 말해, 상기 제어부(180)는 조도 센서에서 센싱된 조도에 따라 서로 다른 조건에 맞추어 상기 광합성부, 상기 제1 디스플레이 및 상기 제2 디스플레이 중 적어도 하나를 제어할 수 있다.
상기 광합성부(155)는 투과율 및 반사율 중 적어도 하나가 가변 가능하게 형성될 수 있다. 이경우, 상기 제어부(180)는 상기 기준 조건이 만족되도록 상기 투과율 및 상기 반사율 중 적어도 하나를 조절할 수 있다.
한편, 상기 광합성부(155)는 적어도 일 영역의 광투과율이 가변 가능하게 형성될 수 있다 .
상기 광합성부(155)는, 상기 제1 디스플레이(151a)에서 출력되는 제1광과 상기 제2 디스플레이(151b)에서 출력되는 제2광이 동일 경로로 진행하도록, 상기 제1광은 투과하고, 상기 제2광은 반사한다.
상기 광합성부(155)의 광투과율이 달라지는 경우, 상기 광합성부(155)를 통과하는 상기 제1광의 투과량은 가변되지만, 상기 광합성부(155)에 의하여 반사되는 제2광의 반사량은 일정하게 유지될 수 있다. 이경우, 제2광이 형성하는 제2 그래픽 객체의 선명도는 그대로 유지되지만, 제1광이 형성하는 제1 그래픽 객체의 선명도는 가변된다.
상기 프로세서(830)는 상기 광합성부(155)의 광투과율을 조절함으로써 제1 그래픽 객체에 블러(blur) 효과를 줄 수 있다. 다시 말해, 제1 그래픽 객체는 상기 광합성부(155)의 광투과율에 따라 탈초점 상태로 변화하지만, 제2 그래픽 객체는 그대로 표시되기 때문에, 시야 심도가 낮아질 수 있다. 마치 망원 렌즈를 이용하여 디스플레이 장치를 바라보는 효과가 발생하기 때문에, 제2 그래픽 객체에 대한 사용자의 집중을 유도할 수 있다.
상기 제어부(180)는, 상기 기준 조건이 만족되도록 상기 제1 디스플레이 및 상기 제2 디스플레이 중 적어도 하나의 밝기를 조절할 수 있다.
상기 제어부(180)는 상기 광합성부(155)의 투과율 및 반사율에 근거하여 상기 제1 디스플레이 및 상기 제2 디스플레이 중 적어도 하나의 밝기를 조절할 수 있다.
도 5a 및 도 5b는 광합성부가 틸팅되는 예를 설명하기 위한 개념도들이다.
사용자는 상기 제1 그래픽 객체(872)는 상기 제1 디스플레이(151a)에 위치하고, 상기 제2 그래픽 객체(874)는 광합성부(155)에 위치하고 있는 것으로 인식한다. 이에 따라, 상기 제1 및 제2 그래픽 객체들(872,874) 사이에는 상기 광합성부(155)와 상기 제1 디스플레이(151a) 사이의 거리(d)만큼의 거리감이 형성될 수 있다.
사용자는 상기 제1 그래픽 객체(872) 위에 상기 제2 그래픽 객체(874)가 위치하는 것으로 상기 제1 및 제2 그래픽 객체들(872, 874)을 인지할 수 있다. 사용자는 상기 제1 그래픽 객체(872) 보다 상기 제2 그래픽 객체(874)가 자기에게 가까이 위치하는 것으로, 또는 상기 제1 그래픽 객체(872)가 상기 제2 그래픽 객체(874)보다 자기부터 멀리 떨어져 있는 것으로, 상기 제1 및 제2 그래픽 객체들(872, 874)을 인지할 수 있다. 즉, 상기 광합성부(155)와 상기 제1 디스플레이(151a) 의 위치 차이로 인하여, 사용자는 3차원 깊이감을 느낄 수 있다.
상기 제1 디스플레이(151a)에서 제1 시각정보가 디스플레이 되고 상기 제2 디스플레이(151b)에서 제2 시각정보가 동시에 디스플레이 되는 경우, 각 디스플레이에 표시되는 정보에는 3차원 깊이감(depth)이 형성될 수 있다.
제어부(180)는 상기 제1 및 제2 디스플레이들(151a, 151b) 중 적어도 하나를 제어하도록 이루어진다.
구체적으로, 제어부(180)는 상기 무선 통신부(110)를 통해 다양한 정보에 근거하여, 기 설정되어 있는 복수의 조건들 중에서 적어도 하나의 조건이 만족되는지를 판단할 수 있다. 만족되는 조건에 대응하는 정보가 표시되도록, 상기 제어부(180)는 상기 제1 및 제2 디스플레이들(151a, 151b) 중 적어도 하나를 서로 다른 방식으로 제어할 수 있다.
기 설정된 조건과 관련하여, 제어부(180)는 애플리케이션에서 이벤트가 발생한 것을 감지하고, 감지된 이벤트가 기 설정된 조건을 만족하는지를 판단할 수 있다. 이때, 제어부(180)는 통신부(810)를 통해 수신된 정보로부터 이벤트가 발생한 것을 감지할 수도 있다.
상기 애플리케이션은 위젯(widget)이나 홈 런처 등을 포함한 개념으로서, 차량(100)에서 구동 가능한 모든 형태의 프로그램을 의미한다. 따라서, 상기 애플리케이션은 웹 브라우저, 동영상 재생, 메세지 송수신, 일정 관리, 애플리케이션의 업데이트의 기능을 수행하는 프로그램이 될 수 있다.
예를 들어, 이벤트 발생은, 부재중 전화가 있는 경우, 업데이트 대상인 애플리케이션이 있는 경우, 메세지가 도착한 경우, 시동 온(start on), 시동 오프(start off), 자율 주행 온/오프, 디스플레이 활성화 키 눌림(LCD awake key), 알람(alarm), 호 연결(Incoming call), 부재중 알림(missed notification) 등이 될 수 있다.
발생한 이벤트가 기 설정된 조건에 만족되는 경우, 제어부(180)는 만족되는 조건에 대응하는 정보가 표시되도록 상기 제1 디스플레이(151a) 및/또는 상기 제2 디스플레이(151b)를 제어한다.
이벤트가 발생한 경우, 발생한 이벤트와 관련된 이벤트 정보가 디스플레이 장치(100)의 사용자에게 제공될 필요가 있다. 이때, 상기 제1 디스플레이(151a)에 표시되는 정보와 상기 제2 디스플레이(151b)에 표시되는 정보는 구분된다.
일 예로, 사용자에게 제공되어야 하는 일반적인 정보가 메인 정보로 상기 제1 디스플레이(151a)에 표시되고, 상기 메인 정보를 강조하기 위한 서브 정보는 상기 제2 디스플레이(151b)에 표시될 수 있다.
다른 일 예로, 상기 제1 디스플레이(151a)에는 배경 이미지가 표시되고, 상기 제2 디스플레이(151b)에는 캐릭터가 표시될 수 있다.
또 다른 일 예로, 상기 제어부(180)는 소정 시각 정보를 상기 제1 디스플레이(151a)에 표시하다가 기 설정된 조건이 만족되는 것에 응답하여 상기 소정 시각 정보를 상기 제2 디스플레이(151b)로 이동시킬 수 있다. 다시 말해, 상기 소정 시각 정보가 상기 제1 디스플레이(151a)에서 표시되다가 사라지고, 상기 제2 디스플레이(151b)에서 표시될 수 있다.
상기 제어부(180)는 캐릭터 같은 그래픽 객체를 상기 제2 디스플레이(151b)에 표시할 수 있다.
상기 그래픽 객체는 상기 제1 디스플레이(151a)에 표시되는 정보를 강조하기 위한 것으로, 상기 제1 디스플레이(151a)에 표시되는 정보에 따라 서로 다른 그래픽 객체가 될 수 있다. 다른 예로서, 발생한 이벤트의 종류에 따라 서로 다른 그래픽 객체가 될 수 있다. 서로 다른 그래픽 객체란, 예를 들어, 형상, 길이, 색상 등이 다른 이미지를 의미한다.
상기 제2 디스플레이(151b)에 표시되는 상기 그래픽 객체의 종류는 상기 제1 디스플레이(820)에 표시되는 제1 시각정보에 따라 가변될 수 있다.
상기 제2 디스플레이(151b) 상에서 상기 그래픽 객체가 표시되는 표시 위치는 상기 제1 디스플레이(820)에 표시되는 제1 시각정보에 따라 달라질 수 있다.
상기 제어부(180)가 상기 제2 디스플레이(151b)를 이용하여 3차원 깊이감을 가지는 정보를 출력하는 다양한 실시 예들에 대해서는 이하에 첨부된 도면들을 참조하며 후술한다.
한편, 도 5b는 광합성부의 틸팅에 따른 3차원 깊이감의 변화를 설명하기 위한 예시도이다.
본 발명에 따른 디스플레이 장치(100)에서 상기 광합성부(155)는 상기 제1 디스플레이(151a)와 사이 각도가 가변하도록 틸팅 가능하게 형성될 수 있다.
상기 구동부(156)는 동력을 제공하는 회전축을 구비하며, 상기 광합성부(155)는 상기 제1 및 제2 디스플레이들(151a, 151b) 사이에서 틸팅되도록 상기 회전축에 결합될 수 있다.
보다 구체적으로, 상기 제어부(180)는 기 설정된 조건이 만족되는 것에 응답하여 상기 사이 각도가 상기 기 설정된 조건에 대응하는 소정 각도로 가변되도록, 상기 구동부(156)를 제어한다.
상기 제어부(180)는 기 설정된 조건에 만족하는지 경우, 그에 따라 상기 구동부(156)를 제어할 수 있다. 예를 들어, 제1 조건이 만족되는 경우, 제1 사이 각도가 되도록 상기 구동부(156)를 제어하고, 제2 조건이 만족되는 경우, 제2 사이 각도가 되도록 상기 구동부(156)를 제어할 수 있다.
상기 구동부(156)가 구동됨에 따라, 상기 광합성부(155)는 회전 이동을 하게 되며, 이동에 따라 상기 제1 디스플레이(151a) 사이에서의 사이 각도가 가변되게 된다.
한편, 동일한 그래픽 객체가 상기 제2 디스플레이(151b)에 표시되는 경우라도, 상기 사이 각도에 따라 사용자가 인식하는 그래픽 객체의 표시 위치 및 표기 크기 중 적어도 하나는 가변되게 된다.
여기서, 출력 위치 및 출력 크기는 상기 제2 디스플레이(151b)에서 표시되는 위치 및 크기를 의미한다. 이와 달리, 표시 위치 및 표시 크기는 상기 제2 디스플레이(151b)에서 출력되는 정보는 상기 광합성부(155)에 의하여 반사되어 상기 제1 디스플레이(151a) 상에 표시되는 것과 같은 효과가 발생하는데, 사용자가 인식하게 되는 상기 제1 디스플레이(151a) 상에서의 위치 및 크기를 의미한다.
즉, 출력 위치 및 출력 크기가 동일한 경우라도, 상기 사이 각도에 따라 표시 위치 및 표시 크기 중 적어도 하나는 가변될 수 있다.
예를 들어, 도 5b에 도시된 바와 같이, 상기 제1 디스플레이(151a)에 상기 제1 그래픽 객체(872)가 표시되고, 상기 제2 디스플레이(151b)에 상기 제2 그래픽 객체(874)가 표시될 수 있다.
제1 사이 각도(θ1)에서는 상기 제1 및 제2 그래픽 객체들(872, 874)이 오버랩 될 수 있다. 이때, 상기 제2 그래픽 객체(874)의 표시 크기를 제1 크기라고 정의할 때, 상기 제2 그래픽 객체(874)는 제1 깊이 값(d1)을 가지게 된다.
이와 달리, 제2 사이 각도(θ2)에서는 상기 제1 및 제2 그래픽 객체들(872, 874)이 서로 다른 위치에서 표시될 수 있다. 이때, 상기 제2 그래픽 객체(874)의 표시 크기는 제2 크기가 될 수 있으며, 상기 제2 그래픽 객체(874)는 제2 깊이 값(d2)을 가지게 된다.
상기 제어부(180)는 상기 사이 각도를 조절함으로써 상기 제2 디스플레이(151b)에 표시되는 정보의 표시 크기 및 표시 위치 중 적어도 하나가 달라지는 효과를 만들어낼 수 있다. 예를 들어, 상기 제2 사이 각도(θ2)에서 상기 제1 사이 각도(θ1)로 상기 광합성부(155)가 틸팅되는 경우, 상기 제2 그래픽 객체(874)가 상기 제1 그래픽 객체(872)로 점점 이동하는 효과가 발생하며, 상기 제2 그래픽 객체(874)의 깊이 감이 달라지기 때문에 입체적 효과가 발생한다.
상기 제어부(180)는 상기 제2 디스플레이(151b)에서 출력되는 상기 제2 그래픽 객체(874)의 표시 위치를 상기 제1 디스플레이(151a) 상에 고정시킨 상태에서 상기 제2 그래픽 객체(874)의 3차원 깊이 값만 변경하기 위하여, 상기 사이 각도에 따라, 상기 제2 그래픽 객체(874)의 출력 위치 및 출력 크기 중 적어도 하나를 변경할 수 있다.
다양한 효과를 발생시키기 위하여, 상기 사이 각도를 변경함과 동시에 상기 제2 그래픽 객체(874)의 출력 위치 및 출력 크기 중 적어도 하나를 변경하는 것도 가능하다.
정리하자면, 상기 제어부(180)는 일 실시 예에 따라, 출력되는 정보를 그대로 유지한 상태에서 사이 각도를 가변시킴으로써 제2 디스플레이(874)에서 출력되고 있는 정보의 표시 크기 및 표시 위치 중 적어도 하나를 변경할 수 있다.
다른 일 실시 예에 따르면, 사이 각도를 그대로 유지시킨 상태에서, 제2 디스플레이(874)에서 출력되고 있는 정보의 출력 크기 및 출력 위치 중 적어도 하나를 변경할 수 있다.
또 다른 일 실시 예에 따르면, 사이 각도를 가변시킴과 동시에 제2 디스플레이(874)에서 출력되고 있는 정보의 출력 크기 및 출력 위치 중 적어도 하나를 변경할 수 있다.
이러한 제어부(180)의 동작에 의하여 각종 정보가 서로 다른 깊이 값을 가지는 3차원 방식으로 출력될 수 있다. 본 발명에 따른 디스플레이 장치(100)는 3차원 정보를 다양한 실시 예들 중 어느 하나의 방식으로 사용자에게 제공할 수 있다.
사용자의 신체 구조 그리고 디스플레이 장치(100)의 설치 장소에 따라 본 발명의 디스플레이 장치를 바라보는 눈 높이는 달라질 수 밖에 없다. 본 발명에 따른 디스플레이 장치(100)는 상기 눈 높이에 근거하여 최적의 홀로그램 효과를 생성할 수 있다.
먼저, 상기 제어부(180)는 상기 사용자의 눈 높이 및/또는 시선 방향을 획득한다. 예를 들어, 본 발명에 따른 디스플레이 장치(100)는 상기 차량(100)에 구비된 다양한 센서들로부터 수신되는 정보에 근거하여 상기 사용자의 눈 높이 및/또는 시선 방향을 확인할 수 있다. 다른 예를 들어, 상기 디스플레이 장치(100)는 카메라(미도시)를 더 구비하고, 상기 카메라를 이용하여 상기 사용자의 눈 높이 및/또는 시선 방향을 추적하는 것도 가능하다.
상기 제어부(180)는 획득된 정보에 근거하여 상기 광합성부(155)의 상기 사이 각도가 달라지도록 상기 구동부(156)를 제어할 수 있다. 다시 말해, 상기 광합성부(155)는 상기 사이 각도가 소정 각도를 가지도록 틸팅 되며, 상기 소정 각도는 상기 사용자의 눈 위치 및/또는 시선 방향에 따라 달라질 수 있다.
구체적으로, 상기 제어부(180)는 상기 사용자의 눈 위치에 따른 시선 방향을 특정하고, 특정된 시선 방향과 상기 광합성부(155)의 일 면이 향하는 방향 간의 사이 각을 산출할 수 있다. 그리고 산출된 사이 각이 소정 각도 범위 내에 있도록, 상기 구동부(156)를 제어할 수 있다. 상기 사용자의 눈 위치가 달라짐에 따라, 상기 사이 각도도 실시간으로 가변될 수 있다.
상기 사이 각도가 상기 사용자의 눈 위치에 따라 달라지기 때문에, 상기 제2 디스플레이(151b)에서 출력되어 광합성부(155)에 의하여 반사되는 시각정보가 사용자의 시야에서 사라지는 것을 미연에 방지할 수 있다.
도 6은 카메라를 이용한 디스플레이 장치의 동작을 설명하기 위한 흐름도이고, 도 7a 및 도 7b는 도 6의 동작을 설명하기 위한 예시도들이다.
상기 제어부(180)는 상기 카메라(121)를 이용하여 영상을 촬영할 수 있다(S610).
상기 카메라(121)는 상기 디스플레이 장치(100)의 전면을 향하므로, 상기 제1 디스플레이(151a)를 바라보는 사용자를 촬영할 수 있다. 다시 말해, 상기 영상에는 상기 사용자가 포함된다.
나아가, 상기 제어부(180)는 상기 영상에서 상기 사용자가 포함된 일부 영역을 추출할 수 있다(S630).
상기 일부 영역의 위치, 크기 및 형태 중 적어도 하나는 상기 사용자가 움직임에 따라 가변된다. 상기 제어부(180)는 상기 사용자의 움직임을 실시간으로 추적하고, 상기 일부 영역을 실시간으로 추출할 수 있다.
상기 제어부(180)는 상기 일부 영역이 제2 시각정보로 출력되도록 상기 제2 디스플레이(151b)를 제어한다. 상기 제어부(180)에 의하여 추출된 상기 일부 영역은 상기 제2 디스플레이(151b)를 통해 제2 시각정보로 출력된다.
제2 시각정보가 출력되는 위치 그리고 제2 시각정보의 크기는 상기 카메라(121)가 촬영한 영상에서 상기 사용자가 추출된 일부 영역의 위치 및 크기에 의하여 결정된다.
도 7a 및 도 7b에 도시된 바와 같이, 제1 시각정보(710)가 상기 제1 디스플레이(151a)를 통해 배경 이미지처럼 표시되고, 상기 영상에서 추출된 일부 영역이 제2 시각정보(720)로 상기 제2 디스플레이(151b)를 통해 홀로그램처럼 표시된다. 상기 제1 시각정보(710)와 상기 제2 시각정보(720)는 서로 다른 깊이감을 가지기 때문에, 홀로그램 효과가 발생한다.
한편, 상기 제어부(180)는, 상기 제1 시각정보에 따라 상기 일부 영역의 표시 위치 및 표시 크기 중 적어도 하나가 가변되도록 상기 제2 디스플레이를 제어할 수 있다.
구체적으로, 상기 제어부(180)는, 상기 제1 시각정보에서 상기 일부 영역을 표시할 수 있는 공백을 탐색하고, 상기 공백과 상기 일부 영역이 중첩되도록 상기 제2 디스플레이를 제어할 수 있다.
도 7a에 도시된 바와 같이, 상기 제2 시각정보는 상기 제1 시각정보의 중앙에 표시될 수 있다. 이후, 도 7b에 도시된 바와 같이, 상기 제1 시각정보 내의 공백이 달라짐에 따라 제2 시각정보의 표시 위치가 가변될 수 있다.
상기 디스플레이 장치(100)는 서로 다른 영상을 합성하면서도 사용자가 포함된 영상에 홀로그램 효과를 만들어냄으로써 새로운 사용자 니즈를 만들어낼 수 있다.
상기 제어부(180)는 제1 디스플레이를 통해 출력되는 제1 시각정보와 제2 디스플레이를 통해 출력되는 제2 시각정보를 동기화하여 메모리에 저장할 수 있다. 사용자는 상기 디스플레이 장치(100)를 이용하여 공중에 공개된 영상에 자신의 영상을 홀로그램 형태로 합성하고, 합성된 영상을 재생하여 자신만의 영상을 다시 시청할 수 있다.
도 8은 이동 단말기를 거치하는 구조를 설명하기 위한 예시도이고, 도 9는 본 발명에 따른 디스플레이 장치가 이동 단말기와 연동하여 정보를 2차원 또는 3차원 방식으로 출력하는 방법을 설명하기 위한 흐름도이다.
도 8을 참조하면, 디스플레이부(1310)를 구비하는 이동 단말기(1300)가 상기 디스플레이 장치(100)에 거치될 수 있다. 보다 구체적으로, 상기 디스플레이 장치(100)는 디스플레이부를 구비한 이동 단말기를 거치할 수 있는 거치부(800)를 더 구비할 수 있다.
도 8에는 상기 제1 디스플레이(151a)가 상기 이동 단말기(1300)의 디스플레이부(1310)에 의하여 대체되는 예가 도시되어 있으나, 이는 일 실시 예에 불과하다. 다른 실시 예에 따르면, 상기 제2 디스플레이(151b)가 상기 이동 단말기(1300)의 디스플레이부(1310)에 의하여 대체될 수도 있다. 이하에서는 설명의 편의를 위하여 제1 디스플레이가(151a)가 대체되는 경우를 예로 들어 설명한다.
상기 디스플레이 장치(100) 또는 상기 제어부(180)는 정보가 2차원 방식으로 출력되도록 상기 제1 디스플레이(151a)를 제어한다(S1310). 이하에서는 설명의 편의를 위하여 상기 디스플레이 장치(100)로 간략히 기재하나, 상기 디스플레이 장치(100)의 동작은 상기 제어부(180)에 의하여 수행될 수 있다.
2차원 방식으로의 출력이 이루어지는 경우, 기 제1 디스플레이(151a)는 상기 제1시각정보를 출력한다.
상기 광합성부(155)를 통과하여 사용자에게 전달되는 시각정보는 상기 제1 디스플레이(151a)에서 출력되는 상기 제1시각정보가 유일하기 때문에, 상기 디스플레이 장치(100)는 상기 제1시각정보를 2차원 방식으로 제공하게 된다.
여기서, 2차원 방식이란 “상기 디스플레이 장치(100)가 출력하는 정보가 하나의 면 상에 위치하는 것으로 사용자에게 인지되는 방식”을 의미한다. 상기 면은 평면이거나 구면일 수 있다.
상기 제1 디스플레이(151a)는 제1시각정보를 형성하는 제1광을 출력하고, 상기 제2 디스플레이(151b)는 제2시각정보를 형성하는 제2광을 출력한다. 상기 제1 디스플레이(151a)가 상기 이동 단말기(1300)의 디스플레이부(1310)으로 대체되는 경우, 상기 디스플레이부(1310)가 상기 제1시각정보를 형성하는 상기 제1광을 출력하게 된다.
본 발명의 일 실시 예에 따른 디스플레이 장치(100)는 제1 디스플레이(151a), 광합성부(155) 그리고 거치부(800)를 포함한다. 상기 제1 디스플레이(151a) 및 상기 광합성부(155)는 도 8a 및 도 8b에서 상술하였으므로, 설명을 생략한다.
상기 거치부(800)는 디스플레이부(1310)을 구비하는 이동 단말기(1300)를 지지하도록 이루어진다. 구체적으로, 상기 거치부(800)는 상기 광합성부(155)를 사이에 두고 상기 제2 디스플레이(151b)와 이격 배치되며, 상기 디스플레이부(1310)에서 출력되는 제1광이 상기 광합성부(155)를 향하도록 상기 이동 단말기(1300)를 지지한다.
상기 이동 단말기(1300)가 상기 거치부(800)에 거치되면, 상기 디스플레이부(1310)은 상기 광합성부(155)를 향할 수 있다.
상기 광합성부(155)는 상기 제2 디스플레이(151b)에서 출력되는 제2광 및 상기 디스플레이부(1310)에서 출력되는 제1광 중 어느 하나는 투과하고, 다른 하나는 반사하도록 이루어진다.
상기 거치부(800)는 상기 디스플레이부(1310)이 상기 광합성부(155)와 예각을 이루도록 상기 이동 단말기(1300)의 전면을 지지한다. 상기 거치부(800)에 상기 이동 단말기(1300)가 거치되는 경우, 상기 디스플레이부(1310)의 중심점을 통과하는 제1 직선과 상기 광합성부(155)의 중심점을 통과하는 제2 직선이 이루는 사이 각도는 예각을 이룬다.
상기 디스플레이부(1310)과 맞닿는 상기 거치부(800)의 적어도 일부는, 상기 이동 단말기(1300)를 지지하면서도 상기 디스플레이부(1310)에서 출력되는 제1광이 상기 광합성부(155)를 향하도록, 투명하게 이루어질 수 있다.
상기 거치부(800)는 상기 이동 단말기(1300)가 중력에 의하여 하강되는 것이 방지되도록 상기 이동 단말기(1300)를 지지한다. 상기 이동 단말기(1300)가 상기 거치부(800)에 거치되는 경우, 상기 디스플레이부(1310)에서 출력되는 제1광은 상기 광합성부(155)로 향하며, 상기 광합성부(155)에 통과하여 상기 제2 디스플레이(151b)에서 출력되는 제2광과 동일한 경로를 향하게 된다. 여기서, 동일한 경로란 상기 제1광과 상기 제2광을 평행하게 나아가는 것을 의미한다.
도면에 도시되지 않았으나, 상기 거치부(800)에 상기 이동 단말기(1300)가 거치되는 경우, 상기 이동 단말기(1300)로 전원을 공급하는 전원공급부(미도시)가 상기 디스플레이 장치(100)에 더 포함될 수 있다.
일 예로, 상기 거치부(800)에는 상기 전원공급부(190)와 상기 이동 단말기(1300)를 전기적으로 연결하기 위한 연결 단자가 형성될 수 있다. 상기 연결 단자의 연결에 의해 상기 이동 단말기(1300)에 전원이 공급될 수 있다.
상기 제어부(180)는 상기 거치부(800)에 상기 이동 단말기(1300)가 거치되는 것을 센싱할 수 있다(S1330).
상기 제어부(180)는 상기 감지부(130)로부터 수신되는 정보에 근거하여 상기 거치부(800)에 상기 이동 단말기(1300)가 거치되는 것을 센싱할 수 있다.
상기 디스플레이 장치(100)는 상기 거치부(800)에 상기 이동 단말기(1300)가 거치되는 것을 센싱하도록 이루어지는 센서(미도시)를 더 포함할 수 있다.
예를 들어, 상기 센서는 상기 거치부(800)를 촬영하도록 이루어지는 카메라일 수 있으며, 상기 센서 또는 상기 제어부(180)는 상기 카메라로부터 촬영된 영상을 이용하여 상기 이동 단말기(1300)의 거치 여부를 결정할 수 있다.
다른 예를 들어, 무게를 측정하는 무게 센서를 이용하여 상기 거치부(800)에 물체가 거치되는 것을 감지하고, 상기 통신부(180)가 상기 물체와 통신을 시도함으로써 상기 물체가 상기 이동 단말기(1300)에 해당하는지 여부를 결정할 수 있다.
또 다른 예를 들어, 상기 센서는 상기 거치부(800)에 거치되는 물체에 의해 변화하는 정전용량을 감지하고, 상기 감지된 정전용량에 근거하여 상기 물체가 통신 가능한지 여부를 결정하고, 상기 결정된 물체와 통신을 수행함으로써 상기 물체가 상기 이동 단말기(1300)에 해당하는지 여부를 결정할 수 있다.
또 다른 예를 들어, 상기 이동 단말기(1300)가 삽입되어 상기 거치부 위에 장착되는 것을 감지하는 감지 수단이 상기 디스플레이 장치(100)에 구비될 수도 있다.
이외에도 다양한 방식의 센서를 이용하여, 상기 거치부(800)에 상기 이동 단말기(1300)가 거치되는 것이 센싱될 수 있다.
상기 이동 단말기(1300)가 상기 거치부(800)에 거치되는 경우, 상기 제어부(180)는 정보가 3차원 방식으로 출력되도록 상기 통신부(850)를 제어한다(S1350).
상기 제어부(180)는 상기 차량 주행 정보에 따라 가변되는 제2시각정보가 상기 제2 디스플레이(151b)에서 출력되도록 상기 제2 디스플레이(151b)를 제어한다(S1370).
그리고, 상기 제어부(180)는 상기 제1시각정보가 상기 디스플레이부(1310)에서 출력되도록 상기 통신부(850)를 제어한다. 그 결과, 상기 이동 단말기(13100)는 상기 디스플레이부(1310)에 상기 제1시각정보를 출력한다(S1390).
상기 거치부(800)에 상기 이동 단말기(1300)가 거치되는 경우, 상기 제어부(180)는 상기 이동 단말기(1300)와 연결을 수립한다. 상기 제어부(180)는 상기 이동 단말기(1300)로부터 수신되는 단말기 정보에 근거하여, 상기 디스플레이부(1310)의 해상도 그리고 크기와 같은 상기 디스플레이부(1310)의 특성을 획득할 수 있다.
상기 제어부(180)는 상기 디스플레이부(1310)의 특성에 근거하여 상기 디스플레이부(1310)에 표시될 최적 상태의 화면을 생성할 수 있다. 또는, 메모리나 클라우드에 저장되어 있는 화면을 편집하거나, 저장되어 있는 복수의 화면들 중 어느 하나의 화면을 선택할 수 있다.
상기 디스플레이부(1310)에 표시될 화면이 결정되면, 상기 제어부(180)는 결정된 화면이 상기 제1시각정보로서 상기 이동 단말기(1300)의 상기 디스플레이부(1310)에 표시되도록, 상기 통신부(850)를 제어한다.
구체적으로, 상기 제2시각정보에 대응하는 데이터가 상기 디스플레이 장치(100)에서 상기 이동 단말기(1300)로 전송될 수 있다. 상기 통신부(850)는 상기 거치부(800)에 상기 이동 단말기(1300)가 거치되는 경우, 상기 디스플레이부(1310)에서 제1시각정보가 출력되도록, 상기 이동 단말기(1300)로 메시지를 전송한다 .
상기 통신부(800)에 의하여 상기 이동 단말기(1300)로 전송되는 메시지에는, 상기 차량(100)에 구비된 적어도 하나의 제어부에서 생성된 차량 주행 정보가 포함될 수 있다.
상기 디스플레이 장치(100)는 상기 제2 디스플레이(155b)에 상기 제2시각정보를 출력한다(S1370)
상기 이동 단말기(1300)는 상기 메시지에 응답하여 꺼져 있던 상기 디스플레이부(1310)은 켜며, 상기 디스플레이부(1310)에 상기 제1시각정보를 출력한다(S1370).
상기 거치부(800)에 상기 이동 단말기(1300)가 거치되지 않은 기본 상태에서는, 상기 광합성부(155)를 통과하는 시각정보는 상기 제1 디스플레이(151a)에서 생성된 제1시각정보가 유일하기 때문에, 각종 정보가 2차원 방식으로 제공된다.
이와 달리, 상기 이동 단말기(1300)가 상기 거치부(800)에 거치되는 경우, 상기 디스플레이 장치(100)와 상기 이동 단말기(1300)에서 생성된 제1시각정보와 제2시각정보가 상기 광합성부(155)를 통과하기 때문에, 각종 정보가 3차원 방식으로 제공된다.
도면에 도시되지 않았으나, 상기 제1디스플레이(151a)에 상기 제1시각정보가 출력되고 상기 디스플레이부(1310)에 상기 제2시각정보가 출력되는 중에 이벤트가 발생할 수 있다.
이경우, 상기 디스플레이 장치(180)는 상기 이벤트에 대응하는 제3시각정보가 상기 제2디스플레이(151a)에서 출력되도록 상기 제2디스플레이(151b)를 제어하고, 상기 이벤트에 대응하는 제4시각정보가 상기 디스플레이부(1310)에서 출력되도록 상기 통신부(850)를 제어한다. 즉, 상기 제2 디스플레이(151a)에서 출력되는 제2시각정보가 가변됨에 따라 상기 디스플레이부(1310)에서 출력되는 제1시각정보도 가변된다.
도 10은 사물 인식 센서를 구비한 디스플레이 장치를 설명하기 위한 예시도이다.
도 10을 참조하면, 상기 디스플레이 장치(100)의 상단에는 이미지 센서, RFID나 NFC와 같은 사물 인식 센서(1010)가 구비될 수 있다.
상기 사물 인식 센서(1010)는 상기 디스플레이 장치(100)의 상단에 거치되는 물체(1020)를 탐지할 수 있다. 상기 제어부(180)는 상기 사물 인식 센서(1010)에서 센싱된 센싱 정보에 근거하여 상기 탐지된 물체를 특정하고, 상기 탐지된 물체에 대응하는 그래픽 객체(1030)가 해 상기 제2 시각정보로 출력되도록 상기 제2 디스플레이(151b)를 제어할 수 있다.
예를 들어, 제1 물체가 탐지되는 경우, 제1 물체에 대응하는 제1 그래픽 객체가 상기 제2 시각정보로 출력되고, 제2 물체가 탐지되는 경우, 제2 물체에 대응하는 제2 그래픽 객체가 상기 제2 시각정보로 출력될 수 있다.
도 11a 및 도 11b는 광합성부로 소정 색의 빛을 발생시키는 광원부를 설명하기 위한 개념도들이다.
도 11a에 도시된 바와 같이, 상기 광합성부(155)의 일 단에는 상기 광합성부(155)로 소정 색의 광을 조사하는 광원부(1610)가 배치될 수 있다.
상기 광합성부(155)는 투명하게 이루어지기 때문에, 상기 광원부(1610)에서 발생된 상기 소정 색의 광은 상기 광합성부(155) 내에서 반사되며 상기 광합성부(155)에 퍼지게 된다.
도 11b에 도시된 바와 같이, 상기 광원부(1610)가 발광하는 경우, 상기 광합성부(155)가 상기 소정 색을 가지는 배경 이미지를 출력하는 것과 같은 효과가 발생한다.
상기 제어부(180)는 상기 광원부(1610)으로부터 조사되는 광의 색을 조절함으로써 상기 광합성부(155)에 의하여 발생하는 깊이 감에 변화를 줄 수 있다. 또한, 상기 제어부(180)는 상기 광합성부(155)의 상기 사이 각도에 따라 서로 다른 색의 광을 발광하도록 상기 광원부(1610)를 제어할 수 있다.
한편, 상기 광합성부(155)는 적어도 일 영역의 광투과율이 가변 가능하게 형성될 수 있다.
상기 광합성부(155)는, 상기 제1 디스플레이(151a)에서 출력되는 제1광과 상기 제2 디스플레이(151b)에서 출력되는 제2광이 동일 경로로 진행하도록, 상기 제1광은 투과하고, 상기 제2광은 반사한다.
상기 광합성부(155)의 광투과율이 달라지는 경우, 상기 광합성부(155)를 통과하는 상기 제1광의 투과량은 가변되지만, 상기 광합성부(155)에 의하여 반사되는 제2광의 반사량은 일정하게 유지될 수 있다. 이경우, 제2광이 형성하는 제2 그래픽 객체의 선명도는 그대로 유지되지만, 제1광이 형성하는 제1 그래픽 객체의 선명도는 가변된다.
상기 프로세서(830)는 상기 광합성부(155)의 광투과율을 조절함으로써 제1 그래픽 객체에 블러(blur) 효과를 줄 수 있다. 다시 말해, 제1 그래픽 객체는 상기 광합성부(155)의 광투과율에 따라 탈초점 상태로 변화하지만, 제2 그래픽 객체는 그대로 표시되기 때문에, 시야 심도가 낮아질 수 있다. 마치 망원 렌즈를 이용하여 디스플레이 장치를 바라보는 효과가 발생하기 때문에, 제2 그래픽 객체에 대한 사용자의 집중을 유도할 수 있다.
본 발명에 따른 디스플레이 장치(100)는 상술한 블러 효과를 좀 더 효과적으로 발생시키기 위한 구조적 특징을 더 구비할 수 있다.
도 12는 본 발명의 일 실시 예에 따른 광합성부의 구조적 특징을 설명하기 위한 예시도이다.
도 12에 도시된 바와 같이, 상기 광합성부(155)는 제1 광투과율을 가지는 제1 광합성부(1710)와 상기 제1 광합성부와 오버랩되며 제2 광투과율을 가지는 제2 광합성부(1720)를 포함할 수 있다.
상기 제2 디스플레이(151b)에서 출력되는 제2광은 상기 제1 광합성부(155)에 의하여 반사되어 상기 제1 디스플레이(151a)에서 출력되는 제1광과 동일 경로를 향한다.
상기 제1 디스플레이(151a)에서 출력되는 제2광은 상기 제1 및 제2 광합성부(1710,1720)를 모두 통과해야 하므로, 상기 제2광보다는 낮은 양이 사용자에게 전달되게 된다.
이러한 구조적 특징에 의하여, 상기 제2광에 의하여 형성되는 제2시각정보가 상기 제1광에 의하여 형성되는 제1시각정보에 비하여 더 선명해지는 효과가 발생한다. 다시 말해, 상기 제1시각정보에만 블러 효과가 발생할 수 있다.
한편, 상기 제어부(180)는 상기 광합성부(155)의 상기 사이 각도에 따라 상기 제1 광투과율 및 상기 제2 광투과율 중 적어도 하나가 달라지도록 상기 적어도 하나를 제어할 수 있다. 예를 들어, 상기 사이 각도가 제1 각도 범위 내이면 블러 효과가 최대화되도록 상기 적어도 하나의 광 투과율을 제어하고, 제2 각도 범위 내이면 블러 효과가 최소화되도록 상기 적어도 하나의 광 투과율을 제어할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드(또는, 애플리케이션이나 소프트웨어)로서 구현하는 것이 가능하다. 상술한 자율 주행 차량의 제어 방법은 메모리 등에 저장된 코드에 의하여 실현될 수 있다.
컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서 또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (20)

  1. 제1시각정보를 형성하는 제1광을 출력하는 제1디스플레이;
    제2시각정보를 형성하는 제2광을 출력하는 제2디스플레이; 및
    상기 제1광과 상기 제2광이 동일 경로로 진행하도록, 상기 제1 및 제2디스플레이의 사이에서 상기 제1광과 상기 제2광 중 어느 하나는 투과하고, 다른 하나는 반사하는 광합성부를 포함하는 것을 특징으로 하는 디스플레이 장치.
  2. 제1항에 있어서,
    상기 제1디스플레이는 제1방향으로 상기 제1광을 출력하고,
    상기 제2디스플레이는 상기 제1방향과 다른 제2방향으로 상기 제2광을 출력하는 것을 특징으로 하는 디스플레이 장치.
  3. 제2항에 있어서,
    상기 제1방향과 상기 제2방향은 상호 직교하는 것을 특징으로 하는 디스플레이 장치.
  4. 제2항에 있어서,
    상기 광합성부는 상기 제1디스플레이에 대하여 소정 각도만큼 경사지게 배치되어 상기 제1 디스플레이와 오버랩 되는 것을 특징으로 하는 디스플레이 장치.
  5. 제4항에 있어서,
    상기 광합성부의 일 단은 상기 제1 디스플레이와 소정 거리만큼 이격되는 것을 특징으로 하는 디스플레이 장치.
  6. 제5항에 있어서,
    상기 소정 거리는 최소 8mm 내지 최대 20mm 인 것을 특징으로 하는 디스플레이 장치.
  7. 제1항에 있어서,
    상기 제1광의 광량과 상기 제2광의 광량이 기준 조건을 만족하도록 상기 광합성부, 상기 제1 디스플레이 및 상기 제2 디스플레이 중 적어도 하나를 제어하는 제어부를 더 포함하는 것을 특징으로 하는 디스플레이 장치.
  8. 제7항에 있어서,
    조도를 센싱하는 조도 센서를 더 포함하며,
    상기 기준 조건은 상기 조도에 따라 가변되는 것을 특징으로 하는 디스플레이 장치.
  9. 제7항에 있어서,
    상기 광합성부는 투과율 및 반사율 중 적어도 하나가 가변 가능하게 형성되며,
    상기 제어부는,
    상기 기준 조건이 만족되도록 상기 투과율 및 상기 반사율 중 적어도 하나를 조절하는 것을 특징으로 하는 디스플레이 장치.
  10. 제7항에 있어서,
    상기 제어부는,
    상기 기준 조건이 만족되도록 상기 제1 디스플레이 및 상기 제2 디스플레이 중 적어도 하나의 밝기를 조절하는 것을 특징으로 하는 디스플레이 장치.
  11. 제10항에 있어서,
    상기 제어부는,
    상기 광합성부의 투과율 및 반사율에 근거하여 상기 제1 디스플레이 및 상기 제2 디스플레이 중 적어도 하나의 밝기를 조절하는 것을 특징으로 하는 디스플레이 장치.
  12. 제1항에 있어서,
    상기 광합성부는 상기 제1디스플레이와 사이 각도가 가변하도록 틸팅 가능하게 형성되는 것을 특징으로 하는 디스플레이 장치.
  13. 제12항에 있어서,
    동력을 제공하는 회전축을 구비하는 구동부를 더 포함하고,
    상기 광합성부는 상기 제1디스플레이와 제2디스플레이의 사이에서 틸팅되도록 상기 회전축에 결합되는 것을 특징으로 하는 디스플레이 장치.
  14. 제13항에 있어서,
    상기 사이 각도는 사용자의 눈 위치에 따라 달라지는 것을 특징으로 하는 디스플레이 장치.
  15. 제12항에 있어서,
    상기 광합성부는 적어도 일 영역의 광투과율이 가변 가능하게 형성되며, 상기 광투과율은 상기 사이 각도에 따라 달라지는 것을 특징으로 하는 디스플레이 장치.
  16. 제1항에 있어서,
    영상을 촬영하는 카메라; 및
    상기 영상에서 사용자가 포함된 일부 영역을 추출하며, 상기 일부 영역이 상기 제2 시각정보로 출력되도록 상기 제2 디스플레이를 제어하는 제어부를 포함하는 것을 특징으로 하는 디스플레이 장치.
  17. 제16항에 있어서,
    상기 제어부는,
    상기 제1 시각정보에 따라 상기 일부 영역의 표시 위치 및 표시 크기 중 적어도 하나가 가변되도록 상기 제2 디스플레이를 제어하는 것을 특징으로 하는 디스플레이 장치.
  18. 제17항에 있어서,
    상기 제어부는,
    상기 제1 시각정보에서 상기 일부 영역을 표시할 수 있는 공백을 탐색하고, 상기 공백과 상기 일부 영역이 중첩되도록 상기 제2 디스플레이를 제어하는 것을 특징으로 하는 디스플레이 장치.
  19. 제1항에 있어서,
    디스플레이부를 구비한 이동 단말기를 거치할 수 있는 거치부;
    상기 이동 단말기와 통신을 수행하는 무선 통신부; 및
    상기 이동 단말기가 상기 거치부에 거치되는 경우, 상기 제1 디스플레이를 오프시키고, 상기 제1 시각정보가 상기 이동 단말기의 디스플레이부에서 표시되도록 상기 무선 통신부를 제어하는 제어부를 포함하는 것을 특징으로 하는 디스플레이 장치.
  20. 제1항에 있어서,
    상기 광합성부는 반사율과 투과율이 6:4인 것을 특징으로 하는 디스플레이 장치.
PCT/KR2019/003601 2018-03-27 2019-03-27 디스플레이 장치 및 그것의 제어방법 WO2019190209A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862648925P 2018-03-27 2018-03-27
US62/648,925 2018-03-27

Publications (1)

Publication Number Publication Date
WO2019190209A1 true WO2019190209A1 (ko) 2019-10-03

Family

ID=68060579

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/003601 WO2019190209A1 (ko) 2018-03-27 2019-03-27 디스플레이 장치 및 그것의 제어방법

Country Status (1)

Country Link
WO (1) WO2019190209A1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5782547A (en) * 1996-11-08 1998-07-21 Videotronic Systems Magnified background image spatial object display
KR20070036438A (ko) * 2005-09-29 2007-04-03 (주)세븐데이타 입체 영상기의 입력 장치 및 방법
KR100986286B1 (ko) * 2010-04-12 2010-10-07 이용범 사람 눈처럼 주시각 제어가 가능한 직교식 양안 입체 카메라 시스템 및 그 제어방법
KR20160143623A (ko) * 2016-12-05 2016-12-14 주식회사 쓰리디팩토리 무안경 3d 영상을 이용한 적층형 홀로그램 구현 시스템
KR101704724B1 (ko) * 2015-03-16 2017-02-08 주식회사 케이홀로그램 실내용 홀로그램 영상 표출 장치
KR101798898B1 (ko) * 2016-07-28 2017-12-12 주식회사 아이아라 입체화 영상 표시 방법 및 입체화 영상을 표시하기 위한 사용자 단말기

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5782547A (en) * 1996-11-08 1998-07-21 Videotronic Systems Magnified background image spatial object display
KR20070036438A (ko) * 2005-09-29 2007-04-03 (주)세븐데이타 입체 영상기의 입력 장치 및 방법
KR100986286B1 (ko) * 2010-04-12 2010-10-07 이용범 사람 눈처럼 주시각 제어가 가능한 직교식 양안 입체 카메라 시스템 및 그 제어방법
KR101704724B1 (ko) * 2015-03-16 2017-02-08 주식회사 케이홀로그램 실내용 홀로그램 영상 표출 장치
KR101798898B1 (ko) * 2016-07-28 2017-12-12 주식회사 아이아라 입체화 영상 표시 방법 및 입체화 영상을 표시하기 위한 사용자 단말기
KR20160143623A (ko) * 2016-12-05 2016-12-14 주식회사 쓰리디팩토리 무안경 3d 영상을 이용한 적층형 홀로그램 구현 시스템

Similar Documents

Publication Publication Date Title
WO2018159864A1 (ko) 이동 단말기 및 그 이동 단말기의 제어 방법
WO2017082508A1 (ko) 와치형 단말기 및 그 제어방법
WO2016035921A1 (ko) 이동 단말기 및 그것의 제어방법
WO2016182132A1 (ko) 이동단말기 및 그 제어방법
WO2017003018A1 (ko) 이동 단말기 및 그 제어 방법
WO2016195147A1 (ko) 헤드 마운티드 디스플레이
WO2018124334A1 (ko) 전자장치
WO2016010202A1 (en) Mobile terminal and control method for the mobile terminal
WO2019168238A1 (ko) 이동단말기 및 그 제어 방법
WO2016129778A1 (ko) 이동 단말기 및 그 제어 방법
WO2016167406A1 (ko) 디스플레이 장치, 웨어러블 장치를 포함하는 동기화 시스템 및 제어 방법
WO2015194723A1 (ko) 이동단말기 및 그 제어방법
WO2016195146A1 (ko) 헤드 마운티드 디스플레이
WO2017086538A1 (ko) 이동 단말기 및 이의 제어방법
WO2017090920A1 (en) Mobile terminal and method for controlling the same
WO2017200182A1 (en) Mobile terminal and control method thereof
WO2015126012A1 (ko) 이동단말기 및 그 제어방법
WO2020105757A1 (ko) 이동 단말기
WO2018030619A1 (ko) 이동 단말기
WO2017209333A1 (ko) 홈 오토메이션 시스템 및 그 제어방법
WO2016111406A1 (ko) 이동단말기 및 그 제어방법
WO2016035920A1 (ko) 이동 단말기 및 이의 제어 방법
WO2017018680A1 (ko) 이동 단말기 및 그 제어 방법
WO2017026632A1 (ko) 이동 단말기 및 그 제어 방법
WO2017082472A1 (ko) 이동단말기 및 그 제어방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19775751

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19775751

Country of ref document: EP

Kind code of ref document: A1