WO2024010221A1 - 디스플레이 패널을 포함하는 웨어러블 장치 - Google Patents

디스플레이 패널을 포함하는 웨어러블 장치 Download PDF

Info

Publication number
WO2024010221A1
WO2024010221A1 PCT/KR2023/007305 KR2023007305W WO2024010221A1 WO 2024010221 A1 WO2024010221 A1 WO 2024010221A1 KR 2023007305 W KR2023007305 W KR 2023007305W WO 2024010221 A1 WO2024010221 A1 WO 2024010221A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
wearable device
substrate
display panel
emitting devices
Prior art date
Application number
PCT/KR2023/007305
Other languages
English (en)
French (fr)
Inventor
조정민
김광태
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220108438A external-priority patent/KR20240005560A/ko
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of WO2024010221A1 publication Critical patent/WO2024010221A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K50/00Organic light-emitting devices
    • H10K50/10OLEDs or polymer light-emitting diodes [PLED]
    • H10K50/11OLEDs or polymer light-emitting diodes [PLED] characterised by the electroluminescent [EL] layers
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K50/00Organic light-emitting devices
    • H10K50/80Constructional details
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K50/00Organic light-emitting devices
    • H10K50/80Constructional details
    • H10K50/805Electrodes
    • H10K50/81Anodes
    • H10K50/818Reflective anodes, e.g. ITO combined with thick metallic layers
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K50/00Organic light-emitting devices
    • H10K50/80Constructional details
    • H10K50/805Electrodes
    • H10K50/82Cathodes
    • H10K50/822Cathodes characterised by their shape
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K59/00Integrated devices, or assemblies of multiple devices, comprising at least one organic light-emitting element covered by group H10K50/00
    • H10K59/10OLED displays
    • H10K59/12Active-matrix OLED [AMOLED] displays
    • H10K59/122Pixel-defining structures or layers, e.g. banks
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K59/00Integrated devices, or assemblies of multiple devices, comprising at least one organic light-emitting element covered by group H10K50/00
    • H10K59/10OLED displays
    • H10K59/12Active-matrix OLED [AMOLED] displays
    • H10K59/127Active-matrix OLED [AMOLED] displays comprising two substrates, e.g. display comprising OLED array and TFT driving circuitry on different substrates
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K59/00Integrated devices, or assemblies of multiple devices, comprising at least one organic light-emitting element covered by group H10K50/00
    • H10K59/60OLEDs integrated with inorganic light-sensitive elements, e.g. with inorganic solar cells or inorganic photodiodes
    • H10K59/65OLEDs integrated with inorganic image sensors

Definitions

  • Embodiments of the present disclosure relate to a wearable device including a display panel.
  • Wearable devices are mounted on the user's body and can provide various information by creating and displaying a virtual image in front of the user through a display panel.
  • a wearable device can provide a user with a virtual reality (VR), mixed reality (MR), or extended reality (XR) experience.
  • VR virtual reality
  • MR mixed reality
  • XR extended reality
  • Wearable devices can be used in a variety of industries.
  • a wearable device including a display panel may be advantageous in thinning or miniaturizing the display panel, or may provide clear image quality or color reproduction.
  • the display panel includes a plurality of light-emitting devices, a substrate on which the plurality of light-emitting devices are disposed, and a plurality of subpixels that surround and partition each of the plurality of light-emitting devices. It may include a PDL bank defining a cholesteric liquid crystal (CLC) film disposed on top of the substrate and converting light output from the plurality of light emitting devices into circularly polarized light.
  • each of the plurality of light emitting devices may include an organic layer, an upper electrode disposed on the organic layer and the PDL bank, and a lower electrode disposed below the organic layer and the PDL bank.
  • the PDL bank surrounds a portion of the outer peripheral surface of each of the plurality of light emitting devices, faces the first surface substantially perpendicular to the substrate and the CLC film, and has a second surface substantially parallel to the substrate.
  • the display panel may include a plurality of light-emitting devices, a substrate on which the plurality of light-emitting devices are arranged, a PDL bank that surrounds and partitions each of the plurality of light-emitting devices to define a plurality of subpixels, and the substrate. It is disposed on the top and may include a CLC film that converts the light output from the plurality of light emitting devices into circularly polarized light.
  • each of the plurality of light emitting devices may include an organic layer, an upper electrode disposed on the organic layer and the PDL bank, and a lower electrode disposed below the organic layer and the PDL bank.
  • the PDL bank surrounds a portion of the outer peripheral surface of each of the plurality of light emitting devices, has a first surface substantially perpendicular to the substrate, faces the CLC film, and has a second surface substantially parallel to the substrate. It may include two sides and a third side that surrounds a portion of the outer peripheral surface of each of the plurality of light-emitting devices that is different from the first side, is inclined at a predetermined angle from the substrate, and extends from one light-emitting device to another adjacent light-emitting device. You can.
  • the upper electrode is disposed on the second side of the PDL bank, a reflective electrode that reflects light reflected by the CLC film, and the organic layer and the third side, It may include a connection electrode that connects the plurality of light emitting devices to each other.
  • FIG. 1 is a block diagram of an electronic device in a network environment according to various embodiments.
  • Figure 2A is a front perspective view of a wearable device according to one embodiment.
  • Figure 2b is a rear perspective view of a wearable device according to an embodiment.
  • Figure 3 is a diagram illustrating the structure of a display module according to an embodiment.
  • Figure 4a is a graph illustrating the profile of the RGB wavelength spectrum of the display panel.
  • Figure 4b is a graph showing the transmittance profile of the CLC layer for a light source in the blue wavelength range of the display panel.
  • Figure 4c is a graph showing the transmittance profile of the CLC layer for a light source in the green wavelength range of the display panel.
  • Figure 4d is a graph showing the transmittance profile of the CLC layer for a light source in the red wavelength range of the display panel.
  • Figure 4e is a graph showing the transmittance profile of the CLC film of the display panel.
  • Figure 5 is a diagram illustrating the structure of a display panel according to one embodiment.
  • Figure 6 is a diagram showing the structure of a display panel according to one embodiment.
  • Figure 7 is a front view showing a display panel according to one embodiment.
  • Figure 8 is a diagram illustrating a PDL bank of a display panel according to an embodiment.
  • Figure 9 is a cross-sectional view showing a display panel according to one embodiment.
  • Figure 10 is a cross-sectional view showing a display panel according to one embodiment.
  • first, second, or first or second may be used simply to distinguish one element from another and may be used to distinguish such elements in other respects, such as importance or order) is not limited.
  • One (e.g. first) component is said to be “coupled” or “connected” to another (e.g. second) component, with or without the terms “functionally” or “communicatively”. Where mentioned, it means that any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
  • module used in various embodiments may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example.
  • a module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments include software (e.g., one or more instructions stored in a storage medium (e.g., built-in memory 136 or external memory 138) that can be read by a machine (e.g., electronic device). : Can be implemented as a program (120)).
  • a processor of a device e.g, an electronic device
  • the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter.
  • a device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' simply means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term refers to cases where data is stored semi-permanently in the storage medium. There is no distinction between temporary storage cases.
  • methods according to various embodiments disclosed in the present disclosure may be included and provided in a computer program product.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • the computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smartphones) or online.
  • a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
  • each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components.
  • one or more of the components or operations described above may be omitted, or one or more other components or operations may be added.
  • multiple components eg, modules or programs
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component of the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, omitted, or , or one or more other operations may be added.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100 according to various embodiments.
  • the electronic device 101 communicates with the electronic device 102 through a first network 198 (e.g., a short-range wireless communication network) or a second network 199. It is possible to communicate with at least one of the electronic device 104 or the server 108 through (e.g., a long-distance wireless communication network).
  • the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or may include an antenna module 197.
  • at least one of these components eg, the connection terminal 178) may be omitted or one or more other components may be added to the electronic device 101.
  • some of these components e.g., sensor module 176, camera module 180, or antenna module 197) are integrated into one component (e.g., display module 160). It can be.
  • the processor 120 for example, executes software (e.g., program 140) to operate at least one other component (e.g., hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and various data processing or calculations can be performed. According to one embodiment, as at least part of data processing or computation, processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • software e.g., program 140
  • processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132.
  • the commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • the processor 120 includes a main processor 121 (e.g., a central processing unit or an application processor) or an auxiliary processor 123 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • a main processor 121 e.g., a central processing unit or an application processor
  • auxiliary processor 123 e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor.
  • the electronic device 101 includes a main processor 121 and a auxiliary processor 123
  • the auxiliary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can.
  • the auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.
  • the auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the electronic device 101 (e.g., the display module 160, the sensor module 176, or the communication module 190) At least some of the functions or states related to can be controlled.
  • coprocessor 123 e.g., image signal processor or communication processor
  • may be implemented as part of another functionally related component e.g., camera module 180 or communication module 190. there is.
  • the auxiliary processor 123 may include a hardware structure specialized for processing artificial intelligence models.
  • Artificial intelligence models can be created through machine learning. For example, such learning may be performed in the electronic device 101 itself on which the artificial intelligence model is performed, or may be performed through a separate server (e.g., server 108).
  • Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited.
  • An artificial intelligence model may include multiple artificial neural network layers.
  • Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above.
  • artificial intelligence models may additionally or alternatively include software structures.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto.
  • Memory 130 may include volatile memory 132 or non-volatile memory 134.
  • the program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.
  • the input module 150 may receive commands or data to be used in a component of the electronic device 101 (e.g., the processor 120) from outside the electronic device 101 (e.g., a user).
  • the input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).
  • the sound output module 155 may output sound signals to the outside of the electronic device 101.
  • the sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback.
  • the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
  • the display module 160 can visually provide information to the outside of the electronic device 101 (eg, a user).
  • the display module 160 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device.
  • the display module 160 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.
  • the audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device (e.g., directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102 (e.g., speaker or headphone).
  • the electronic device 102 e.g., speaker or headphone
  • the sensor module 176 detects the operating state (e.g., power or temperature) of the electronic device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.
  • the interface 177 may support one or more designated protocols that can be used to connect the electronic device 101 directly or wirelessly with an external electronic device (eg, the electronic device 102).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card interface
  • audio interface audio interface
  • connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 can capture still images and moving images.
  • the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 can manage power supplied to the electronic device 101.
  • the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • Battery 189 may supply power to at least one component of electronic device 101.
  • the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
  • Communication module 190 is configured to provide a direct (e.g., wired) communication channel or wireless communication channel between electronic device 101 and an external electronic device (e.g., electronic device 102, electronic device 104, or server 108). It can support establishment and communication through established communication channels. Communication module 190 operates independently of processor 120 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
  • processor 120 e.g., an application processor
  • the communication module 190 is a wireless communication module 192 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (e.g., : LAN (local area network) communication module, or power line communication module) may be included.
  • a wireless communication module 192 e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 e.g., : LAN (local area network) communication module, or power line communication module
  • the corresponding communication module is a first network 198 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (e.g., legacy It may communicate with an external electronic device 104 through a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network
  • the wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 to communicate within a communication network such as the first network 198 or the second network 199.
  • subscriber information e.g., International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the wireless communication module 192 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology).
  • NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency). -latency communications)) can be supported.
  • the wireless communication module 192 may support high frequency bands (eg, mmWave bands), for example, to achieve high data rates.
  • the wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. It can support technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna.
  • the wireless communication module 192 may support various requirements specified in the electronic device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199).
  • the wireless communication module 192 supports Peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC.
  • Peak data rate e.g., 20 Gbps or more
  • loss coverage e.g., 164 dB or less
  • U-plane latency e.g., 164 dB or less
  • the antenna module 197 may transmit or receive signals or power to or from the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB).
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is, for example, connected to the plurality of antennas by the communication module 190. can be selected. Signals or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna.
  • other components eg, radio frequency integrated circuit (RFIC) may be additionally formed as part of the antenna module 197.
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.
  • a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the
  • peripheral devices e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • signal e.g. commands or data
  • commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
  • Each of the external electronic devices 102 or 104 may be of the same or different type as the electronic device 101.
  • all or part of the operations performed in the electronic device 101 may be executed in one or more of the external electronic devices 102, 104, or 108.
  • the electronic device 101 may perform the function or service instead of executing the function or service on its own.
  • one or more external electronic devices may be requested to perform at least part of the function or service.
  • One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device 101.
  • the electronic device 101 may process the result as is or additionally and provide it as at least part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology can be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of Things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or server 108 may be included in the second network 199.
  • the electronic device 101 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
  • Electronic devices may be of various types.
  • Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances.
  • Electronic devices according to embodiments of this document are not limited to the above-described devices.
  • FIG. 2A is a front perspective view of a wearable device according to an embodiment
  • FIG. 2B is a rear perspective view of a wearable device according to an embodiment.
  • the wearable device 200 (eg, the electronic device 101 of FIG. 1 ) may be worn on a part of the user's body and provide a user interface.
  • the wearable device 200 may output photos and/or videos to the user.
  • the wearable device 200 may provide images related to augmented reality services and/or virtual reality services.
  • the wearable device 200 may provide the user with an experience of augmented reality, virtual reality, mixed reality, and/or extended reality.
  • the wearable device 200 may provide augmented reality to the user.
  • the wearable device 200 may transmit a virtual object image output from the display module 250 (e.g., the display module 160 of FIG. 1) toward the user's eyes, and the virtual object image may be transmitted through a plurality of cameras 230a, 230b, 230c, 230d), it is possible to utilize data about real world images taken.
  • the wearable device 200 may be, for example, a head mounted display (HMD), a face mounted display (FMD), or an augmented reality (AR) VR ( It may be smart glass or a headset that provides extended reality such as virtual reality glass or mixed reality, but is not limited thereto.
  • HMD head mounted display
  • FMD face mounted display
  • AR augmented reality
  • VR may be smart glass or a headset that provides extended reality such as virtual reality glass or mixed reality, but is not limited thereto.
  • the wearable device 200 may include at least a portion of a housing 210, a plurality of cameras 230a, 230b, 230c, and 230d, and a display module 250.
  • FIGS. 2A and 2B illustrate an exemplary external appearance of the wearable device 200 according to an embodiment of this document, and actual implementation is not limited thereto.
  • the wearable device 200 may include a housing 210.
  • Housing 210 may be configured to accommodate at least one component.
  • the housing 210 includes a first side 211a (e.g., front), a second side 211b opposite the first side 211a (e.g., rear or wearing surface), and a first side 211a and It may include a third surface 211c (eg, side surface) between the second surfaces 211b.
  • housing 210 may include a plurality of housing parts.
  • the housing 210 may include a first housing part 211 and a second housing part 212.
  • the first housing part 211 may form the first surface 211a of the housing 210.
  • the first housing part 211 may form at least a portion of the third surface 211c of the housing 210.
  • the second housing part 212 may form the second surface 211b of the housing 210.
  • the second housing part 212 may form at least a portion of the third surface 211c of the housing 210.
  • the second housing part 212 may face a part of the user's body (eg, face).
  • the first housing part 211 and the second housing part 212 may be separably coupled.
  • the first housing part 211 and the second housing part 212 may be integrally and seamlessly connected.
  • housing 210 may include a cover 213.
  • the cover 213 may form the first surface 211a of the housing 210.
  • the cover 213 may be configured to cover at least a portion of the first housing part 211 .
  • housing 210 may include bridge 214 .
  • the bridge 214 may be configured to face a part of the user's body (eg, nose).
  • bridge 214 may be supported by the user's nose.
  • the bridge 214 may be formed on at least one of the first housing part 211, the second housing part 212, or the cover 213, or a combination thereof.
  • the wearable device 200 may include a lens structure 220.
  • the lens structure 220 may include a plurality of lenses configured to adjust the focus of an image provided to the user.
  • a plurality of lenses may be configured to adjust the focus of an image output by the display module 250.
  • the plurality of lenses may be disposed at positions corresponding to the positions of the display module 250.
  • the plurality of lenses may include, for example, a Fresnel lens, a pancake lens, a multichannel lens, and/or any other suitable lens.
  • the wearable device 200 may include a display module 250 (eg, display module 160 of FIG. 1).
  • the display module 250 may be configured to provide images (eg, virtual images) to the user.
  • the display module 250 may include a liquid crystal display (LCD), a digital mirror device (DMD), a liquid crystal on silicon (LCoS), It may include an organic light emitting diode (OLED), and/or a micro light emitting diode (micro LED).
  • the display module 250 may include a light source (not shown) configured to transmit an optical signal to an area where an image is output.
  • the display module 250 may provide images to the user by generating light signals on its own.
  • the display module 250 may be disposed on the second side 211b of the housing 210.
  • one side of a pair of lenses (eg, lens 263 in FIG. 3) of the display module 250 may be positioned to be exposed to the outside through the second side 211b.
  • the display module 250 may be, for example, a liquid crystal display (LCD), a digital mirror device (DMD), or a liquid crystal on silicon (LCoS) device. ), organic light emitting diode (OLED), organic light emitting diode on silicon (OLEDoS), or micro LED (micro light emitting diode, micro LED).
  • LCD liquid crystal display
  • DMD digital mirror device
  • LCD liquid crystal on silicon
  • OLED organic light emitting diode
  • OLEDoS organic light emitting diode on silicon
  • micro LED micro light emitting diode, micro LED
  • the display module 250 may be composed of organic light emitting diodes (OLED).
  • OLED organic light emitting diodes
  • OLED can express red (R), green (G), and blue (B) through self-luminescence of organic materials.
  • R red
  • G green
  • B blue
  • one pixel may include R, G, and B, and one chip may be implemented with a plurality of pixels including R, G, and B.
  • the display module 250 can display various images.
  • video is a concept that includes still images and moving images
  • the display module 250 can display various images such as broadcast content and multimedia content.
  • the display module 250 may display a user interface (UI) and icons.
  • UI user interface
  • the display module 250 includes a separate IC chip, and the IC chip may display an image based on an image signal received from a processor (eg, processor 120 of FIG. 1).
  • the IC chip generates a driving signal of a plurality of light-emitting elements based on the image signal received from the processor 120, and controls the emission of a plurality of pixels included in the display panel based on the driving signal to display the image. can be displayed.
  • the display module 250 may be disposed in the second housing part 212.
  • the display module 250 may include a first display area 250a and a second display area 250b.
  • the first display area 250a may be placed to face the user's left eye
  • the second display area 250b may be placed to face the user's right eye.
  • the first display area 250a and the second display area 250b may include glass, plastic, and/or polymer. In one embodiment, the first display area 250a and the second display area 250b may include a transparent or translucent material.
  • first display area 250a and the second display area 250b may form a single display area. In one embodiment, the first display area 250a and the second display area 250b may form a plurality of display areas.
  • the display module 250 may include a plurality of pixels to display a virtual image. In one embodiment, the display module 250 may further include infrared pixels that emit infrared light.
  • the display module 250 is disposed between pixels and includes a light-receiving pixel (e.g., photo sensor pixel) that receives light reflected from the user's eyes, converts it into electrical energy, and outputs it. More may be included.
  • the light-receiving pixel may be referred to as an 'eye tracking sensor'.
  • the eye tracking sensor may detect infrared light emitted by infrared pixels included in the display module 250 and reflected by the user's eyes.
  • the wearable device 200 may detect the user's gaze direction (eg, eye movement) through light-receiving pixels. For example, the wearable device 200 detects the gaze direction of the user's left eye and the user's gaze through one or more light-receiving pixels constituting the first display area 250a and one or more light-receiving pixels constituting the second display area 250b. The gaze direction for the right eye can be detected and tracked.
  • the user's gaze direction eg, eye movement
  • the wearable device 200 detects the gaze direction of the user's left eye and the user's gaze through one or more light-receiving pixels constituting the first display area 250a and one or more light-receiving pixels constituting the second display area 250b.
  • the gaze direction for the right eye can be detected and tracked.
  • the wearable device 200 determines the location of the center of the virtual image according to the gaze direction of the user's left and right eyes (e.g., the direction in which the pupils of the user's left and right eyes are gazing) detected through one or more light-receiving pixels. You can also decide.
  • the wearable device 200 may include a sensor 235 (eg, sensor module 176 in FIG. 1).
  • the sensor 235 may be configured to detect the depth of the subject.
  • the sensor 235 may be configured to transmit a signal toward and/or receive a signal from the subject.
  • the transmitted signal may include near-infrared light, ultrasound, and/or laser.
  • the sensor 235 may be configured to measure the time of flight (ToF) of a signal to measure the distance between the wearable device 200 and the subject.
  • the sensor 235 may be disposed on the first side 211a of the housing 210.
  • the sensor 235 may be disposed at the center of the first housing part 211 and/or the cover 213.
  • the plurality of cameras 230a, 230b, 230c, 230d (e.g., the camera module 180 of Figure 1) includes a plurality of front cameras 230a, 230b, an eye tracking camera 230c, and a facial recognition camera. It may include at least some of (230d).
  • the plurality of cameras 230a, 230b, 230c, and 230d may photograph the outside of the housing 210, for example, a user and/or other subjects.
  • the plurality of cameras 230a, 230b, 230c, and 230d may convert optical signals into input data and provide the input data to a processor (eg, processor 120 of FIG. 1).
  • the processor 120 receives the received input data and sends output data to the display module 250 or a display panel of the display module 250 (e.g., the display panel 261 in FIG. 3). It can be delivered. In one embodiment, the processor 120 may control the display module 250 by combining data input from each of the plurality of cameras 230a, 230b, 230c, and 230d, and processing the combined data.
  • the plurality of front cameras 230a and 230b may be spaced apart from each other on the first surface 211a of the housing 210 and capture a direction in which the first surface 211a of the housing 210 faces. It may include at least one first camera 230a and at least one second camera 230b. In one embodiment, the plurality of front cameras 230a and 230b may be arranged to be spaced apart from each other on the first surface 211a of the housing 210. The plurality of front cameras 230a and 230b may be arranged to face different directions in order to capture images in various directions, such as the first side 211a or the third side 211c.
  • the first camera 230a may be configured to acquire an image from a subject.
  • the first camera 230a may be formed in plurality, and one of the plurality of first cameras 230a may be located on a portion of the first surface 211a of the housing 210 (e.g. : is disposed in the - It may be placed in the +X direction portion of FIG. 2A).
  • a plurality of first cameras 230a may be disposed on both sides of the sensor 235, respectively.
  • the plurality of first cameras 230a may include an image stabilizer actuator (not shown) and/or an autofocus actuator (not shown).
  • the plurality of first cameras 230a may include at least one camera configured to acquire a color image, a global shutter camera, or a rolling shutter camera, or a combination thereof.
  • the second camera 230b may be configured to recognize a subject.
  • the second camera 230b may be formed in plural, and the plurality of second cameras 230b are configured to detect and/or track an object (e.g., a human head or hand) or space with 3 degrees of freedom or 6 degrees of freedom. It can be.
  • the plurality of second cameras 230b may include global shutter cameras.
  • the plurality of second cameras 230b may be configured to perform simultaneous localization and mapping (SLAM) using depth information of the subject.
  • SLAM simultaneous localization and mapping
  • the plurality of second cameras 230b may be configured to recognize the subject's gesture.
  • a plurality of second cameras 230b may be disposed on the first surface 211a of the housing 210.
  • the plurality of second cameras 230b may be respectively disposed in corner areas of the first housing part 211 and/or the cover 213.
  • the plurality of front cameras 230a and 230b may be shooting cameras, may be referred to as high resolution (HR) or photo video (PV), and may include high resolution cameras.
  • the plurality of front cameras 230a and 230b may include color cameras equipped with functions for obtaining high-quality images, such as an auto focus (AF) function and an optical image stabilizer (OIS). It is not limited to this, and the plurality of front cameras 230a and 230b may include a global shutter (GS) camera or a rolling shutter (RS) camera.
  • GS global shutter
  • RS rolling shutter
  • the eye tracking camera 230c may be disposed on the second side 211b of the housing 210.
  • the eye tracking camera 230c can detect the movement of an object looking at the display panel 261 of the display module 250 and, for example, can be configured to detect and track the user's eyes.
  • the plurality of eye tracking cameras 230c may include global shutter cameras.
  • one eye tracking camera 230c may be placed to correspond to the user's left eye
  • the other eye tracking camera 230c may be placed to correspond to the user's right eye. .
  • the wearable device 200 may include a plurality of fourth cameras 230d (eg, the camera module 180 of FIG. 1).
  • the plurality of fourth cameras 230d may be configured to recognize the user's face.
  • the plurality of fourth cameras 230d may be configured to detect and track the user's facial expression.
  • At least one of the plurality of cameras has 3 degrees of freedom (DoF), head tracking with 6 degrees of freedom (DoF), and hand ( may include a camera used for hand detection and tracking, gesture and/or spatial recognition.
  • DoF degrees of freedom
  • DoF head tracking with 6 degrees of freedom
  • hand may include a camera used for hand detection and tracking, gesture and/or spatial recognition.
  • At least one of the plurality of cameras 230a, 230b, 230c, and 230d may include a global shutter (GS) camera to detect and track the movement of the head and hand.
  • GS global shutter
  • a stereo camera can be used, so two global shutter (GS) cameras of the same standard and performance can be used, and can detect and detect fine movements such as fast hand movements and fingers.
  • RS rolling shutter
  • At least one of the plurality of cameras 230a, 230b, 230c, and 230d may be a global shutter (GS) camera having excellent performance (e.g., image drag) compared to the camera, but is not necessarily limited thereto.
  • GS global shutter
  • RS rolling shutter
  • At least one of the plurality of cameras 230a, 230b, 230c, and 230d may perform simultaneous localization and mapping (SLAM) functions through spatial recognition and depth shooting for 6 degrees of freedom (DoF).
  • SLAM simultaneous localization and mapping
  • DoF degrees of freedom
  • at least one of the plurality of cameras 230a, 230b, 230c, and 230d in one embodiment may perform a user gesture recognition function.
  • the wearable device 200 includes a sensor (not shown), a lighting unit (not shown), a plurality of microphones (not shown), a plurality of speakers (not shown), and a battery (not shown). , may include at least a portion of a printed circuit board (not shown).
  • sensors for various purposes (e.g., gyro sensors, acceleration sensors, geomagnetic sensors, and/or gesture sensors), for example, At least one of the following features: head tracking for 6 degrees of freedom (DoF), pose estimation & prediction, gesture and/or spatial recognition, and/or slam through depth imaging You can do one.
  • DoF degrees of freedom
  • pose estimation & prediction pose estimation & prediction
  • gesture and/or spatial recognition gesture and/or spatial recognition
  • slam through depth imaging You can do one.
  • a lighting unit may have various uses depending on where it is attached.
  • a lighting unit may be attached around the second surface 211b of the wearable device 200.
  • a lighting unit may be used as an auxiliary means to facilitate eye gaze detection when the eye tracking camera 230c photographs the pupil.
  • the lighting unit may use an IR LED (infra-red light emitting device) of visible light wavelength or infrared wavelength.
  • a lighting unit may be attached to the front 211a of the wearable device 200 or around it.
  • a lighting unit may be used as a means to supplement ambient brightness when the plurality of front cameras 230a and 230b take pictures.
  • a lighting unit can be used especially in dark environments or when it is difficult to detect a subject to be photographed due to mixing and reflected light from various light sources.
  • the lighting unit may be omitted.
  • the lighting unit (not shown) may be replaced by infrared pixels included in the first display area 250a and the second display area 250b.
  • a lighting unit may be included in the wearable device 200 to assist infrared pixels included in the first display area 250a and the second display area 250b.
  • a plurality of microphones may process external acoustic signals into electrical voice data.
  • Processed voice data can be used in various ways depending on the function (or application being executed) being performed by the wearable device 200.
  • a plurality of speakers may output audio data received from a communication circuit (e.g., communication module 190 of FIG. 1) or stored in a memory (e.g., memory 130 of FIG. 1). there is.
  • a communication circuit e.g., communication module 190 of FIG. 1
  • a memory e.g., memory 130 of FIG. 1).
  • one or more batteries may be included in the wearable device 200 and may supply power to components constituting the wearable device 200.
  • a printed circuit board may transmit electrical signals to each module (eg, camera, display, audio, or sensor) and other printed circuit boards through a flexible printed circuit board (FPCB).
  • module eg, camera, display, audio, or sensor
  • FPCB flexible printed circuit board
  • a printed circuit board includes a control circuit (not shown) that controls the components constituting the wearable device 200 except for the first display area 250a and the second display area 250b. can be located
  • a control circuit may control components other than the first display area 250a and the second display area 250b and perform calculations.
  • the control circuit may include a communication circuit (e.g., communication module 190 of FIG. 1) or a memory (e.g., memory 130 of FIG. 1).
  • the present invention is not limited thereto, and a control circuit (not shown) in one embodiment may control the first display area 250a, the second display area 250b, and/or other components.
  • FIG. 3 is a diagram illustrating the structure of the display module 250 according to one embodiment.
  • the display module 250 may include a display panel 261, a lens 263, and a screen 265.
  • light emitted from the display panel 261 may pass through the lens 263 and the screen 265 and face the user's eyes 267.
  • the display panel 261 may emit light based on one direction (e.g., +Y direction) toward the user's eyes 267, and the light emitted from the display panel 261 may be emitted in a plurality of directions. It can diffuse and move in the direction, and the diffused light can be refracted while passing through the lens 263 and guided to the screen 265.
  • the lens 263 may be placed on the front of the display module 250.
  • the lens 263 may have a triple structure consisting of a plurality of sub-lenses 263a, 263b, and 263c.
  • the lens 263 may be implemented as a pancake lens (or 'folded optics') structure.
  • the lens 263 implemented as a pancake lens may be advantageous in reducing the overall thickness of the device.
  • the lens 263 may be a pancake lens.
  • the plurality of sub-lenses 261a, 263b, and 263c may include concave lenses and/or convex lenses.
  • the plurality of sub-lenses 261a, 263b, and 263c may include a projection lens or a collimation lens.
  • light emitted from the display module 250 may pass through a plurality of sub-lenses 261a, 263b, and 263c and be guided in a light path toward the user's eyes 267.
  • screen 265 may be made of glass, plastic, or polymer, and may be transparent or translucent.
  • the screen 265 may include a nanopattern formed on one of its inner or outer surfaces, for example, a polygonal or curved grating structure, that is, a lattice structure.
  • the screen 265 may include at least one of at least one diffractive element (e.g., a diffractive optical element (DOE), a holographic optical element (HOE)) or a reflective element (e.g., a reflective mirror).
  • DOE diffractive optical element
  • HOE holographic optical element
  • reflective element e.g., a reflective mirror
  • a plurality of lenses 263 and screens 265 may be formed to face the user's left and right eyes, respectively.
  • light emitted from the display panel 261 may be diffracted in various ranges depending on the viewing angle of the display panel 261. For example, some of the light emitted from the display panel 261 may pass through the edge area of the lens 263. Passing through the edge area of the lens 263, light may be refracted at different refractive indices depending on the wavelength. Light that passes through the lens 263 and is guided to the edge area of the screen 265 may form a relatively reddish color band compared to the center area. The color band phenomenon of the display panel 261 will be described with reference to FIGS. 4A to 4E.
  • Figure 4a is a graph profiling the RGB wavelength spectrum of the display panel
  • Figures 4b, 4c, and 4d respectively show the blue (hereinafter 'B') wavelength band, green wavelength band (hereinafter 'G'), and red wavelength band (hereinafter 'G') of the display panel, respectively.
  • 'R' is a graph profiling the transmittance of the CLC layer with respect to the light source
  • Figure 4e is a graph profiling the transmittance of the CLC film of the display panel.
  • the B wavelength band may be the wavelength band of a blue light source (e.g., a wavelength band of about 450 to 460 nm)
  • the G wavelength band may be the wavelength band of a green light source (e.g., a wavelength band of about 530 to 540 nm)
  • the R wavelength range may be the wavelength range of a red light source (a wavelength range of approximately 615 to 625 nm).
  • this is an example wavelength range that is arbitrarily limited for convenience of explanation, and in actual implementation, it is not limited to this range and can be set based on various ranges.
  • the CLC film may have different wavelengths converted into circularly polarized light depending on the pitch of the cholesteric liquid crystal layer. Taking this into account, for full-color, for example, circularly polarized conversion in the R, G, and B wavelengths, a CLC film comprising three single CLC layers corresponding to the R, G, and B wavelengths, respectively. This may be required.
  • the CLC layer for the B wavelength light source, the CLC layer for the G wavelength light source, and the CLC layer for the R wavelength light source each have a relatively high transmittance (e.g., 50% or more) in the target wavelength band. It can provide a relatively low transmittance (e.g., about 10%) for light sources of wavelengths outside a certain range.
  • a CLC film composed of at least three CLC layers by stacking the CLC layer for the B wavelength light source, the CLC layer for the G wavelength light source, and the CLC layer for the R wavelength light source in each of Figures 4b to 4d. Transmittance can be predicted.
  • the circular polarization conversion efficiency of the CLC film can be increased by matching the wavelength range at the point where the transmittance shown in Figure 4e is maximum to the range of the RGB wavelength spectrum of the display panel shown in Figure 4a.
  • a display panel including a CLC film can relatively simply convert unpolarized light into circularly polarized light. There may be an advantage to having it.
  • a display panel including a CLC film can change the wavelength of light output through the CLC film depending on the angle of light incident on the CLC film.
  • the display panel including the CLC film when a user views the display panel through a lens implemented as a pancake lens, the display panel including the CLC film exhibits a phenomenon in which the white balance of the outer portion of the white screen is distorted due to the above-described wavelength change. It may cause color banding.
  • a display panel (e.g., the display panel 261 of FIG. 3) according to an embodiment of the present document can maintain or improve the above-described advantages by including a CLC film, and the color band is formed through the structural features of the display panel 261.
  • a wearable device including a display panel capable of preventing the color banding phenomenon described above and providing clear image quality and/or color reproduction is described.
  • a display panel including a CLC film a wearable device including a display panel capable of preventing the color banding phenomenon described above and providing clear image quality and/or color reproduction is described.
  • FIG. 5 is a diagram illustrating the structure of the display panel 261 according to one embodiment.
  • the display panel 261 may include a substrate 273 and a cholesteric liquid crystal (CLC) film 277.
  • CLC cholesteric liquid crystal
  • the display panel 261 may output circular polarization.
  • the display panel 261 may output circularly polarized light.
  • the display panel 261 may include a CLC film 277.
  • a plurality of light-emitting devices may be disposed on the substrate 273.
  • the substrate 273 may output light through a plurality of light emitting devices 269.
  • the output light may pass through the CLC film 277 disposed in one direction (eg, +Y direction) of the substrate 273.
  • the light output from the substrate 273 may be incident light (Lin), and the light passing through the CLC film 277 may be output light (Lout).
  • the substrate 273 of the display panel 261 may include a rear substrate 271 and a front substrate 275.
  • the rear substrate 271 may be made of a silicon wafer, for example, silicon oxide (SiOx), silicon nitride (SiNx), or multiple layers thereof.
  • a thin film transistor eg, thin film transistor 283 in FIG. 9 is provided on the rear substrate 271, so that the rear substrate 271 can protect it.
  • the front substrate 275 may be provided on top of the rear substrate 271.
  • the front substrate 275 may have some configurations among a PDL bank (e.g., PDL bank 290 in FIG. 7) and a plurality of light-emitting devices 269, and is a component for driving the plurality of light-emitting devices 269. can be prepared.
  • the CLC film 277 is disposed on the substrate 273 and can circularly polarize the light output from the plurality of light emitting devices 269.
  • the CLC film 277 can circularly polarize the incident light Lin in a non-polarized state and output it.
  • the output light (Lout) passing through the CLC film 277 may be right-circularly polarized (RCP) or left-circularly polarized (LCP).
  • RCP right-circularly polarized
  • LCP left-circularly polarized
  • the state circularly polarized in a counterclockwise direction may be left circularly polarized light (LCP)
  • the state circularly polarized clockwise may be right circularly polarized light (RCP).
  • the wavelength of incident light Lin may change as it passes through the CLC film 277 depending on the angle of incidence.
  • the output light (Lout) may change to the second wavelength after passing through the CLC film 277.
  • the second wavelength may change from the first wavelength based on the sine value (sin ⁇ ) of the angle ( ⁇ ) at which the incident light (Lin) is emitted.
  • the display panel 261 can reduce or prevent color changes in the output light (Lout) by controlling the output angle of the incident light (Lin), and the display panel 261 can provide a clear and clear photo or image. can be provided.
  • the display panel 261 may limit the angle at which the incident light Lin is emitted by limiting the viewing angle of the light output from the plurality of light emitting devices 269.
  • the display panel 261 may limit the inclination angle of the PDL bank 290 to control the viewing angle of the plurality of light emitting elements 269, which will be described below in FIG. 7.
  • FIG. 6 is a diagram illustrating the structure of the display panel 261 according to one embodiment.
  • At least a portion of the light emitted from the display panel 261 may be reflected by the CLC film 277.
  • L1 may be light emitted from a plurality of light emitting devices 269 (eg, incident light (Lin) in FIG. 5). L1 may be in a non-polarized light state.
  • incident light L1
  • L1 may be in a non-polarized light state.
  • L2 may be at least a portion of L1 that has passed through the CLC film 277.
  • the light quantity of L2 may be approximately 50% of that of L1.
  • L2 may pass through the CLC film 277 and be in a left circularly polarized (LCP) state.
  • LCP left circularly polarized
  • L3 may be at least a portion of L1 reflected by the CLC film 277.
  • the light quantity of L3 may be approximately 50% of that of L1.
  • L3 may be reflected by the CLC film 277 and be in a right-circular polarization (RCP) state.
  • RCP right-circular polarization
  • L4 may be at least a portion of L3 reflected from the substrate 273 toward the CLC film 277.
  • the amount of light of L4 may vary depending on the reflection efficiency of the upper surface of the substrate 273, and may be approximately 10% to 50% compared to L1.
  • L3 may be reflected on the top surface of the substrate 273 and be in a left circularly polarized (LCP) state.
  • L5 may be at least a portion of L4 that has passed through the CLC film 277. In one embodiment, L5 may pass through the CLC film 277 and be in a left circularly polarized (LCP) state. L5 and L2 may be light emitted from the display panel 261 (eg, output light (Lout) in FIG. 5).
  • LCP left circularly polarized
  • the display panel 261 may lose the amount of light in the process in which L3 reflected by the CLC film 277 is reflected on the substrate 273. In one embodiment, by increasing the light reflection efficiency of the upper surface of the substrate 273, the display panel 261 can provide relatively improved luminance and/or color reproducibility.
  • the display panel 261 of one embodiment may have at least some of the upper electrodes (e.g., the upper electrode 281 of FIG. 7) deposited on the upper surface of the substrate 273 be reflective electrodes (e.g., the reflective electrodes of FIG. 7). (281a)), which will be described below in FIG. 7.
  • Figure 7 is a front view showing the display panel 261 according to one embodiment.
  • the display panel 261 may include a plurality of light emitting elements 269 and a pixel defining layer (PDL) bank 290.
  • PDL pixel defining layer
  • the display panel 261 may include a plurality of subpixels 10-1, 10-2, and 10-3. Some of the plurality of subpixels 10-1, 10-2, and 10-3 are gathered to form one pixel 10, and the plurality of pixels 10 can form the screen of the display panel 261. .
  • each of the plurality of pixels 10 includes a first subpixel 10-1 that is a red (R) subpixel 10-1 and a second subpixel 10-2 that is a green (G) subpixel. and a plurality of subpixels 10-1, 10-2, and 10-3 including a third subpixel 10-3, which is a blue (B) subpixel.
  • a set of a plurality of subpixels 10-1, 10-2, and 10-3 consisting of red (R), green (G), and blue (B) subpixels is one unit of a display module.
  • a pixel 10 can be configured.
  • the arrangement order of the plurality of subpixels 10-1, 10-2, and 10-3 is described as R, G, and B, but within one pixel 10, the order of R, G, and B is actually It is not arranged in this disclosure, and in the description of the plurality of subpixels 10-1, 10-2, and 10-3, reference numerals are described and described in the order of R, B, and G, which are also used in the description. For convenience purposes only, the actual placement order may be the same or different.
  • the shape and structure of the plurality of pixels 10 and the plurality of subpixels 10-1, 10-2, and 10-3 shown in FIG. 7 are conceptual spatial divisions for explanation, and in actual implementation, the boundaries are not It may not be clear, and may be implemented in various ways depending on the type and nature of the display panel 261 and the light emitting element 269.
  • the pixel 10 is composed of a plurality of subpixels (10-1, 10-2, 10-3) made up of three types of subpixels (10-1, 10-2, and 10-3). Although it has been described as being possible, it is not limited to this, and the pixel 10 may be implemented with four types of subpixels such as R, G, B, and W (white), or a different number of subpixels (10-1, 10-). 2, 10-3) may constitute one pixel 10.
  • the pixel 10 is composed of three types of subpixels 10-1, 10-2, and 10-3 such as R, G, and B will be described as an example.
  • each of the plurality of light-emitting devices 269 may be an organic light-emitting diode.
  • Each of the plurality of light emitting elements 269 may include at least a portion of an organic layer (e.g., the organic layer 280 in FIG. 9), an upper electrode 281, and a lower electrode (e.g., the lower electrode 282 in FIG. 9). You can.
  • the PDL bank 290 may surround and partition each of the plurality of light emitting devices 269 to define a plurality of subpixels 10-1, 10-2, and 10-3.
  • the PDL bank 290 may also be referred to as a ‘pixel defining layer.’
  • the PDL bank 290 is made of a light-transmissive material so that light output from the plurality of light-emitting devices 269 toward the first surface (e.g., the first surface 291 in FIG. 8) passes through. It can be done with
  • the PDL bank 290 may be made of an organic material such as polyimide, acrylate, or benzocyclobutene series resin.
  • the PDL bank 290 in one embodiment may be an insulating layer.
  • the PDL bank 290 may be formed only in a portion of the upper surface of the lower electrode 282, and the organic layer 280 and the upper electrode 281 may be formed in the area where the PDL bank 290 is not formed. They may be arranged to form a plurality of subpixels 10-1, 10-2, and 10-3.
  • the upper electrode 281 may be disposed on the PDL bank 290 and the organic layer 280 (eg, in the +Y direction).
  • the upper electrode 281 may be a cathode electrode, and the lower electrode 282 may be an anode electrode.
  • the upper electrode 281 may include a reflective electrode 281a and a connection electrode 281b.
  • the reflective electrode 281a may be disposed on the upper surface of the PDL bank 290 (e.g., the second surface 292 in FIG. 8), and the connecting electrode 281b may be formed on a plurality of organic layer 280 and It may be placed on some side of the PDL bank 290 (e.g., the third side 293 in FIG. 8).
  • the reflective electrode 281a may reflect light reflected by the CLC film 277.
  • the reflective electrode 281a may be made of aluminum (Al), copper (Cu), silver (Ag), nickel (Ni), or an alloy thereof.
  • the reflective electrode 281a may be made of aluminum (Al), copper (Cu), silver (Ag), nickel (Ni), gold (Au), platinum (Pt), tungsten (W), chromium (Cr), molybdenum ( It may include a reflective film formed of Mo), iron (Fe), cobalt (Co), palladium (Pd), titanium (Ti), and alloys thereof.
  • the upper electrode 281 including the reflective electrode 281a may provide improved luminance of the output light of the display panel 261 (eg, output light Lout in FIG. 5).
  • the upper electrode 281 including the reflective electrode 281a is relatively Can provide high light reflectance.
  • L4 in the display panel 261 including the reflective electrode 281a may be approximately 50%, and the light amount of L5 passing through the CLC film 277 is approximately 22.5. It may be %.
  • the incident light (Lin) emitted from the plurality of light-emitting devices 269 of the substrate 273 is reflected by the substrate 273 through the upper electrode 281 including the reflective electrode 281a, and generates Light loss can be reduced, and the display panel 261 can provide improved luminance and/or color reproducibility.
  • FIG. 8 is a diagram illustrating the PDL bank 290 of the display panel 261 according to one embodiment. Specifically, FIG. 8 is a perspective view illustrating only the PDL bank 290 among the P areas shown in FIG. 7.
  • the PDL bank 290 may include a first side 291, a second side 292, and a third side 293.
  • the first surface 291 may be a surface surrounding a portion of the outer peripheral surface of each of the plurality of light emitting devices 269.
  • the first surface 291 may be substantially perpendicular to the reference surface (eg, X-Y plane) of the display panel 361 (eg, the substrate 273 of FIG. 5 or 6 or a surface parallel thereto).
  • the first surface 291 may have an inclination of approximately 80 to 90 degrees in an upward direction (eg, +Y direction) with respect to a reference plane (eg, X-Z plane) parallel to the substrate 273.
  • the first surface 291 may limit the viewing angle at which light emitted from the plurality of light emitting devices 269 spreads from the substrate 273.
  • the first surface 291 may limit the angle of the incident light Lin in FIG. 5 to be close to 90 degrees. If the angle of the incident light (Lin) is close to 90 degrees, the change in the wavelength of light during the process of passing through the CLC film 277 can be reduced or prevented.
  • the display panel 261 can provide vivid color reproduction.
  • the second side 292 may be a side facing the CLC film 277.
  • the second surface 292 may be the top surface of the PDL bank 290 extending from the first surface 291.
  • the first surface 291 may be a partial area of the side of the PDL bank 290.
  • the second surface 292 may be substantially parallel to the substrate 273.
  • the reflective electrode 281a of the upper electrode 281 may be disposed on the second surface 292.
  • the third surface 293 may be a surface surrounding a portion of the outer peripheral surface of each of the plurality of light emitting devices 269 that is different from the first surface 291.
  • the third surface 293 may be inclined at a predetermined angle from the substrate 273.
  • the third surface 293 may have an inclination of approximately 30 to 45 degrees in an upward direction (eg, +Y direction) with respect to a plane parallel to the substrate 273 (eg, X-Z plane).
  • the third surface 293 may be a surface that extends from one light-emitting device 269 to another adjacent light-emitting device 269.
  • the third surface 293 may be a surface on which a connection electrode 281b for interconnecting the plurality of light emitting devices 269 is disposed.
  • connection electrode 281b when the first surface 291 surrounds all areas of the outer peripheral surface of each of the plurality of light emitting devices 269 without including the third surface 293, the connection electrode 281b is connected to the first surface (281b). 291) and the edge of the second side 292 may be bent or bent approximately 90 degrees. A bent or bent connection electrode 281b may be damaged or disconnected.
  • the PDL bank 290 including the third surface 293 has a structure inclined at a predetermined angle so that the connection electrode 281b is relatively less bent or bent through the third surface 293. You can have
  • Figure 9 is a cross-sectional view showing the display panel 261 according to one embodiment.
  • the display panel 261 may include a lower electrode 282 and a thin film transistor 283.
  • Figure 9 roughly shows the cross-sectional structure of the display panel 261 for one subpixel (10-1, 10-2, and 10-3), and in actual implementation, some of these structures may be omitted or It may change, and other configurations may be added.
  • the substrate 273 may include at least a portion of a planarization film 276 (eg, a passivation film), an insulating film 279, and a plurality of buffer layers 272 and 274.
  • a planarization film 276 eg, a passivation film
  • an insulating film 279 e.g., a dielectric film
  • a plurality of buffer layers 272 and 274 e.g., a passivation film
  • at least some of the planarization film 276, the insulating film 279, and the plurality of buffer layers 272 and 274 are at least a portion of a rear substrate (e.g., the rear substrate 271 in FIG. 5) composed of multiple layers. can be configured.
  • a lower electrode 282 may be disposed on the upper surface of the planarization film 276.
  • a via hole is formed in the planarization film 276, and the lower electrode 282 can be connected to the thin film transistor 283 through the via hole.
  • a thin film transistor 283 may be located in the insulating film 279.
  • the plurality of buffer layers 272 and 274 may include a first buffer layer 272 and a second buffer layer 274.
  • a plurality of buffer layers 272 and 274 may protect the thin film transistor 283.
  • a shield layer 287 may be formed between the first buffer layer 272 and the second buffer layer 274. The shield layer 287 may be formed in an area corresponding to the thin film transistor 283 and may prevent loss of current for driving the display panel 261.
  • the thin film transistor 283 may include at least a portion of a drain electrode 284a, a source electrode 284b, a gate electrode 285, and a semiconductor layer 286.
  • the thin film transistor 283 may be formed in plural numbers to correspond to each of the plurality of subpixels 10-1, 10-2, and 10-3.
  • the thin film transistor 283 may be connected to the lower electrode 282.
  • the thin film transistor 283 may be connected to the IC chip or processor 120 of the display panel 261 and may receive input signals to control the operation of the plurality of light emitting elements 269.
  • the lower electrode 282 may be made of the same material as the reflective electrode 281a.
  • the lower electrode 282 may reflect light emitted from the organic layer 280 in an upward direction (eg, +Y direction).
  • the lower electrode 282 in one embodiment may be made of a transparent conductive material.
  • the organic layer 280 may include a light-emitting layer that includes a light-emitting material and emits light by combining electrons and holes.
  • a hole transport layer and a hole injection layer may be formed between the organic layer 280 and the lower electrode 282, and between the connection electrode 281b of the organic layer 280 and the upper electrode 281.
  • An electron transport layer and an electron injection layer may be formed.
  • the PDL bank 290 may include a first surface 291 that is substantially perpendicular to the substrate 273 and a second surface 292 that is substantially parallel to the substrate 273 .
  • the first surface 291 may limit the viewing angle of light emitted from the light emitting device 269 and guide it in a straight direction (eg, +Y direction).
  • the second surface 292 may have a reflective electrode 281a disposed on the top, and may reflect light reflected by the CLC film 277 back to the CLC film 277.
  • the reflective electrode 281a disposed on the second surface 292 the display panel 261 can provide improved luminance and/or color reproducibility.
  • the wearable device 200 can provide high-definition and high-brightness images using the above-described PDL bank 290 and upper electrode 281 using a narrow viewing angle.
  • Figure 10 is a cross-sectional view showing the display panel 261 according to one embodiment.
  • the third side 293 of the PDL bank 290 includes at least a portion of the first end 293-1, the second end 293-2, and the middle area 298. may include.
  • the plurality of light-emitting devices 269 may include a first light-emitting device 269-1 and a second light-emitting device 269-2 that are adjacent to each other.
  • the first light emitting device 269-1 may include a first organic layer 282-1 that emits light in one of red (R), green (G), and blue (b).
  • the second light emitting device 269-2 may include a second organic layer 282-2 that emits light in a different color than the first organic layer 282-1.
  • the third surface 293 may connect the first light emitting device 269-1 and the second light emitting device 269-2.
  • a connection electrode 281b may be disposed on the first light emitting device 269-1, the third surface 293, and the second light emitting device 269-2, and the connection electrode 281b may be disposed on the first light emitting device 269-1, the third surface 293, and the second light emitting device 269-2.
  • the first light emitting device 269-1 and the second light emitting device 269-2 may be electrically connected.
  • the third surface 293 is opposite to the first end 293-1 and the first end 293-1 facing a portion of the outer peripheral surface of the first light emitting device 269-1, It may include a second end 293-2 facing a portion of the outer peripheral surface of the second light emitting device 269-2.
  • the first end 293-1 and the second end 293-2 may form a curved slope when the connection electrode 281b is deposited.
  • the connection electrode 281b can be stably deposited according to the inclination of the first end 293-1 and the second end 293-2.
  • the angle ⁇ 1 at which the first end 293-1 and the second end 293-2 are inclined from the reference plane is approximately 30 to 45 degrees. You can.
  • connection electrode 281b when the first end 293-1 and the second end 293-2 are bent at an angle substantially perpendicular to or adjacent to the substrate 273, or are bent at more than 90 degrees, the connection electrode 281b ) may be disconnected or damaged in areas corresponding to the first end 293-1 and the second end 293-2.
  • the third surface 293 of one embodiment is relatively smooth and gently inclined, so that the connection electrode 281b can be stably disposed.
  • the third side 293 is provided between the first end 293-1 and the second end 293-2 and has an intermediate region 298 substantially parallel to the second side 292.
  • the connection electrode 281b can be stably deposited, like the first end 293-1 and the second end 293-2. there is.
  • the angle ⁇ 2 at which both ends of the middle region 298 are inclined from the adjacent region or the reference plane may be approximately 30 degrees to 45 degrees.
  • the middle area 298 of the third surface 293 in one embodiment may form a curved surface.
  • the third surface 293 has a curved structure, so that the connection electrode 281b can be deposited on the upper part relatively more stably compared to the inclined structure.
  • the display panel 261 includes a plurality of light-emitting elements 269 and a substrate 273 on which the plurality of light-emitting elements 269 are disposed. , disposed on the upper part of the PDL bank 290 and the substrate 273, which surround and partition each of the plurality of light emitting devices 269 to define a plurality of subpixels 10-1, 10-2, and 10-3, It may include a CLC film 277 that converts the light output from the plurality of light emitting devices 269 into circularly polarized light.
  • each of the plurality of light emitting devices 269 includes an organic layer 280, an upper electrode 281 disposed on the organic layer 280, and the PDL bank 290, and an organic layer 280 and a PDL bank. It may include a lower electrode 282 disposed below 290.
  • the PDL bank 290 surrounds a portion of the outer peripheral surface of each of the plurality of light emitting devices 269, and includes a first surface 291 and a CLC film 277 that are substantially perpendicular to the substrate 273. It may include a second surface 292 that faces the substrate 273 and is substantially parallel to the substrate 273 .
  • the PDL bank 290 surrounds a partial area different from the first surface 291 on the outer peripheral surface of each of the plurality of light emitting devices 269, and has a third surface inclined at a predetermined angle from the substrate 273. It may include (293). In one embodiment, the third surface 293 may extend from one light emitting device 269 to another adjacent light emitting device 269 .
  • the upper electrode 281 is disposed on the second surface 292 of the PDL bank 290 and includes a reflective electrode 281a and an organic layer that reflect light reflected by the CLC film 277. It may include a connection electrode 281b disposed on 280 and the third surface 293 and connecting the plurality of light emitting devices 269 to each other.
  • the reflective electrode 281a may be made of substantially the same material as the lower electrode 282.
  • the plurality of light-emitting devices 269 may include a first light-emitting device 269-1 and a second light-emitting device 269-2 that are adjacent to each other.
  • the third surface 293 is opposite to the first end 293-1 and the first end 293-1 facing a portion of the outer peripheral surface of the first light emitting device 269-1.
  • first end 293-1 and the second end 293-2 may be formed to be inclined between 30 degrees and 45 degrees from the substrate 273.
  • the third surface 293 is provided between the first end 293-1 and the second end 293-2, and the middle region 298 is substantially parallel to the second surface 292. ) may include. In one embodiment, the third surface 293 may be formed at both ends of the middle region 298 to be inclined between 30 degrees and 45 degrees from the adjacent region.
  • the PDL bank 290 may be made of a light-transmissive material so that light output from the plurality of light-emitting devices 269 toward the first surface 291 passes through.
  • the substrate 273 is made of a silicon wafer, is provided on the rear substrate 271 and a back substrate 271 on which a thin film transistor 283 is provided, and a plurality of light emitting elements 269 and a PDL It may include a front substrate 275 on which a bank 290 is provided.
  • the wearable device 200 may include a housing 210 and a pair of lenses 263 located in the housing 210.
  • the display panel 261 is disposed inside the housing 210 and may output light toward a pair of lenses 263.
  • the wearable device 200 receives input data from a plurality of cameras 230a, 230b, 230c, and 230d that photograph the exterior of the housing 210 and a plurality of cameras 230a, 230b, 230c, and 230d. It may include a processor 120 that receives and transmits output data to the display panel 261.
  • the housing 210 may include a first surface 211a and a second surface 211b opposite the first surface 211a and on which a pair of lenses 263 are provided.
  • the plurality of cameras 230a, 230b, 230c, and 230d are arranged to be spaced apart from each other on the first surface 211a of the housing 210 and face the direction in which the first surface 211a of the housing 210 faces. It may include a plurality of front cameras 230a and 230b that take pictures.
  • the plurality of cameras 230a, 230b, 230c, and 230d are disposed on the second surface 211b of the housing 210 and perform eye tracking to detect the movement of an object looking at the display panel 261. It may include a camera 230c.
  • the processor 120 may control the display panel 261 by combining data received from each of the plurality of front cameras 230a and 230b and processing the combined data.
  • the display panel 261 includes a plurality of light-emitting devices 269, a substrate 273 on which the plurality of light-emitting devices 269 are disposed, and a plurality of light-emitting devices 269 that surround and partition each of the plurality of light-emitting devices 269. It is disposed on the upper part of the PDL bank 290 and the substrate 273 that defines the subpixels 10-1, 10-2, and 10-3, and converts the light output from the plurality of light emitting elements 269 into circularly polarized light. It may include a CLC film 277.
  • each of the plurality of light emitting devices 269 includes an organic layer 280, an upper electrode 281 disposed on the organic layer 280, and the PDL bank 290, and an organic layer 280 and a PDL bank. It may include a lower electrode 282 disposed below 290.
  • the PDL bank 290 surrounds a portion of the outer peripheral surface of each of the plurality of light emitting devices 269 and includes a first surface 291 substantially perpendicular to the substrate 273, a CLC film 277, and
  • the second surface 292 faces the substrate 273 and is substantially parallel to the substrate 273, and surrounds a portion of the outer peripheral surface of each of the plurality of light emitting elements 269 that is different from the first surface 291, and is separated from the substrate 273 by a predetermined amount.
  • It may include a third surface 293 that is inclined at an angle and extends from one light emitting device 269 to another adjacent light emitting device 269.
  • the upper electrode 281 is disposed on the second surface 292 of the PDL bank 290 and includes a reflective electrode 281a and an organic layer that reflect light reflected by the CLC film 277. It may include a connection electrode 281b disposed on 280 and the third surface 293 and connecting the plurality of light emitting devices 269 to each other.
  • the plurality of light-emitting devices 269 includes first light-emitting devices 269-1 and second light-emitting devices 269-2 adjacent to each other, and the third surface 293 is the first light-emitting device 269-2.
  • first end 293-1 and the second end 293-2 may be formed to be inclined between 30 degrees and 45 degrees from the substrate 273.
  • the third surface 293 is provided between the first end 293-1 and the second end 293-2, and the middle region 298 is substantially parallel to the second surface 292. ) may include.
  • the third surface 293 may be formed at both ends of the middle region 298 to be inclined between 30 degrees and 45 degrees from the adjacent region.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Chemical & Material Sciences (AREA)
  • Inorganic Chemistry (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Sustainable Development (AREA)
  • Electroluminescent Light Sources (AREA)

Abstract

일 실시 예에 따른 디스플레이 패널을 포함하는 웨어러블 장치는, 디스플레이 패널은, 복수의 발광 소자, 복수의 발광 소자가 배치되는 기판, 복수의 발광 소자 각각을 둘러싸며 구획하여 복수의 서브 픽셀을 정의하는 PDL 뱅크 및 기판의 상부에 배치되고, 복수의 발광 소자에서 출력되는 빛을 원편광으로 변환하는 콜레스테릭액정(cholesteric liquid crystal, CLC) 필름을 포함할 수 있다. 일 실시 예에서, 복수의 발광 소자 각각은, 유기막층, 유기막층 및 PDL 뱅크 상에 배치되는 상부 전극 및 유기막층 및 PDL 뱅크의 아래에 배치되는 하부 전극을 포함할 수 있다. 일 실시 예에서, PDL 뱅크는, 복수의 발광 소자 각각의 외주면의 일부 영역을 둘러싸고, 기판으로부터 실질적으로 수직한 제1 면 및 CLC 필름과 마주보고, 기판과 실질적으로 평행한 제2 면을 포함할 수 있다.

Description

디스플레이 패널을 포함하는 웨어러블 장치
본 개시의 실시 예들은, 디스플레이 패널을 포함하는 웨어러블 장치에 관한 것이다.
웨어러블 장치는 사용자의 신체에 장착되고, 디스플레이 패널을 통하여 사용자의 전방에 가상의 이미지(virtual image)을 생성하고 표시하여 다양한 정보를 제공할 수 있다.
예를 들면, 웨어러블 장치는 사용자에게 VR(virtual reality), MR(mixed reality) 또는 XR(extended reality) 경험을 제공할 수 있다. 웨어러블 장치는 다양한 산업 분야에서 활용될 수 있다.
단, 상술한 내용은 본 문서에 기재된 내용에 대한 선행 기술로 인정한 것으로 해석되어서는 안 되며, 본 문서에 기재된 발명에 관련된 기술(related art)로 해석되어야 한다.
사용자에게 더욱 선명하고 현실적인 영상 경험을 제공하기 위하여, 웨어러블 장치의 디스플레이 성능은 향상되어 왔다. 또한, 웨어러블 장치는 사용자의 착용이 용이하고 편리하도록 박형화, 소형화 또는 경량화에 대한 요구가 존재하였다.
본 문서의 일 실시 예에 따르면, 디스플레이 패널을 포함하는 웨어러블 장치는 디스플레이 패널의 박형화 또는 소형화에 유리할 수 있고, 또는, 선명한 화질 또는 색 재현성을 제공할 수 있다.
일 실시 예에 따른 디스플레이 패널을 포함하는 웨어러블 장치에 있어서, 상기 디스플레이 패널은, 복수의 발광 소자, 상기 복수의 발광 소자가 배치되는 기판, 상기 복수의 발광 소자 각각을 둘러싸며 구획하여 복수의 서브 픽셀을 정의하는 PDL 뱅크 및 상기 기판의 상부에 배치되고, 상기 복수의 발광 소자에서 출력되는 빛을 원편광으로 변환하는 콜레스테릭액정(cholesteric liquid crystal, CLC) 필름을 포함할 수 있다. 일 실시 예에서, 상기 복수의 발광 소자 각각은, 유기막층, 상기 유기막층 및 상기 PDL 뱅크 상에 배치되는 상부 전극 및 상기 유기막층 및 상기 PDL 뱅크의 아래에 배치되는 하부 전극을 포함할 수 있다. 일 실시 예에서, 상기 PDL 뱅크는, 상기 복수의 발광 소자 각각의 외주면의 일부 영역을 둘러싸고, 상기 기판으로부터 실질적으로 수직한 제1 면 및 상기 CLC 필름과 마주보고, 상기 기판과 실질적으로 평행한 제2 면을 포함할 수 있다.
또는, 일 실시 예에 따르는 디스플레이 패널은, 복수의 발광 소자, 상기 복수의 발광 소자가 배치되는 기판, 상기 복수의 발광 소자 각각을 둘러싸며 구획하여 복수의 서브 픽셀을 정의하는 PDL 뱅크 및 상기 기판의 상부에 배치되고, 상기 복수의 발광 소자에서 출력되는 빛을 원편광으로 변환하는 CLC 필름을 포함할 수 있다. 일 실시 예에서, 상기 복수의 발광 소자 각각은, 유기막층, 상기 유기막층 및 상기 PDL 뱅크 상에 배치되는 상부 전극 및 상기 유기막층 및 상기 PDL 뱅크의 아래에 배치되는 하부 전극을 포함할 수 있다. 일 실시 예에서, 상기 PDL 뱅크는, 상기 복수의 발광 소자 각각의 외주면의 일부 영역을 둘러싸고, 상기 기판으로부터 실질적으로 수직한 제1 면, 상기 CLC 필름과 마주보고, 상기 기판과 실질적으로 평행한 제2 면 및 상기 복수의 발광 소자 각각의 외주면에서 상기 제1 면과 상이한 일부 영역을 둘러싸고, 상기 기판으로부터 소정의 각도로 경사지고, 하나의 발광 소자로부터 인접한 다른 발광 소자로 이어지는 제3 면을 포함할 수 있다. 일 실시 예에서, 상기 상부 전극은, 상기 PDL 뱅크의 상기 제2 면 상에 배치되고, 상기 CLC 필름에 의하여 반사된 빛을 반사하는 반사 전극 및 상기 유기막층 및 상기 제3 면 상에 배치되고, 상기 복수의 발광 소자를 상호 연결하는 연결 전극을 포함할 수 있다.
도 1은 다양한 실시 예들에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2a는 일 실시 예에 따르는 웨어러블 장치의 정면 사시도이다.
도 2b는 일 실시 예에 따르는 웨어러블 장치의 배면 사시도이다.
도 3은 일 실시 예에 따르는 디스플레이 모듈의 구조를 도시한 도면이다.
도 4a는 디스플레이 패널의 RGB 파장 스펙트럼을 프로파일한 그래프이다.
도 4b는 디스플레이 패널의 blue 파장대의 광원에 대한 CLC 레이어의 투과율을 프로파일한 그래프이다.
도 4c는 디스플레이 패널의 green 파장대의 광원에 대한 CLC 레이어의 투과율을 프로파일한 그래프이다.
도 4d는 디스플레이 패널의 red 파장대의 광원에 대한 CLC 레이어의 투과율을 프로파일한 그래프이다.
도 4e는 디스플레이 패널의 CLC 필름의 투과율을 프로파일한 그래프이다.
도 5는 일 실시 예에 따르는 디스플레이 패널의 구조를 도시한 도면이다.
도 6은 일 실시 예에 따르는 디스플레이 패널의 구조를 도시한 도면이다.
도 7은 일 실시 예에 따르는 디스플레이 패널을 도시한 정면도이다.
도 8는 일 실시 예에 따르는 디스플레이 패널의 PDL 뱅크를 도시한 도면이다.
도 9는 일 실시 예에 따르는 디스플레이 패널을 도시한 단면도이다.
도 10은 일 실시 예에 따르는 디스플레이 패널을 도시한 단면도이다.
이하, 실시 예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.
다양한 실시 예들 및 이에 사용된 용어들은 본 개시에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 개시에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1 ", "제2 ", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2 ) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
다양한 실시 예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시 예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
다양한 실시 예들은 기기(machine)(예: 전자 장치) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(120))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치)의 프로세서는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비 일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비 일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시 예에 따르면, 본 개시에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시 예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시 예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱 하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
도 1은 다양한 실시 예들에 따른 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시 예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시 예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시 예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시 예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시 예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시 예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시 예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시 예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일 실시 예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시 예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시 예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시 예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일 실시 예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시 예에 따르면, 명령 또는 데이터는 제2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시 예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일 실시 예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
도 2a는 일 실시 예에 따르는 웨어러블 장치의 정면 사시도이고, 도 2b는 일 실시 예에 따르는 웨어러블 장치의 배면 사시도이다.
도 2a 및 도 2b를 참고하면, 웨어러블 장치(200)(예: 도 1의 전자 장치(101))는 사용자의 신체의 일부에 착용되어 사용자 인터페이스를 제공할 수 있다.
일 실시 예에서, 웨어러블 장치(200)는 사용자에게 사진 및/또는 영상을 출력할 수 있다. 또는, 웨어러블 장치(200)는 증강 현실 서비스 및/또는 가상 현실 서비스와 관련된 영상을 제공할 수 있다. 예를 들면, 웨어러블 장치(200)는 사용자에게 증강 현실(augmented reality), 가상 현실(virtual reality), 혼합 현실(mixed reality) 및/또는 확장 현실(extended reality)의 경험을 제공할 수 있다.
예를 들면, 웨어러블 장치(200)는 사용자에게 증강 현실을 제공할 수 있다. 웨어러블 장치(200)는 디스플레이 모듈(250)(예: 도 1의 디스플레이 모듈(160))로부터 출력되는 가상 객체 이미지를 사용자의 눈 쪽으로 전달할 수 있고, 가상 객체 이미지는 복수의 카메라(230a, 230b, 230c, 230d)을 통해 촬영한 현실 세계(real world)의 이미지에 대한 데이터를 활용할 수 있다.
일 실시 예에서, 웨어러블 장치(200)는, 예를 들어, 머리 착용 디스플레이(head mounted display; HMD), 얼굴 착용 디스플레이(face mounted display; FMD)일 수도 있고, 또는, AR(augmented reality) VR(virtual reality glass), 혼합 현실(mixed reality)과 같은 확장 현실(extended reality)을 제공하는 스마트 글래스(smart glass) 또는 헤드셋일 수도 있으며, 이에 한정되지는 않는다.
일 실시 예에서, 웨어러블 장치(200)는 하우징(210), 복수의 카메라(230a, 230b, 230c, 230d) 및 디스플레이 모듈(250) 중 적어도 일부를 포함할 수 있다. 단, 도 2a 및 도 2b는 본 문서의 일 실시 예의 웨어러블 장치(200)의 예시적인 외형을 도시한 것으로, 실제 구현 시에는 이에 한정되지 아니한다.
일 실시 예에서, 웨어러블 장치(200)는 하우징(210)을 포함할 수 있다. 하우징(210)은 적어도 하나의 컴포넌트를 수용하도록 구성될 수 있다. 하우징(210)은, 제1 면(211a)(예: 전면), 제1 면(211a)에 반대되는 제2 면(211b)(예: 후면 또는 착용면), 및 제1 면(211a) 및 제2 면(211b) 사이의 제3 면(211c)(예: 사이드 면)을 포함할 수 있다.
일 실시 예에서, 하우징(210)은 복수의 하우징 파트들을 포함할 수 있다. 예를 들면, 하우징(210)은 제1 하우징 파트(211) 및 제2 하우징 파트(212)를 포함할 수 있다. 제1 하우징 파트(211)는 하우징(210)의 제1 면(211a)을 형성할 수 있다. 제1 하우징 파트(211)는 하우징(210)의 제3 면(211c)의 적어도 일부를 형성할 수 있다. 제2 하우징 파트(212)는 하우징(210)의 제2 면(211b)을 형성할 수 있다. 제2 하우징 파트(212)는 하우징(210)의 제3 면(211c)의 적어도 일부를 형성할 수 있다. 일 실시 예에서, 제2 하우징 파트(212)는 사용자의 신체의 일부(예: 얼굴)를 대면할 수 있다. 일 실시 예에서, 제1 하우징 파트(211) 및 제2 하우징 파트(212)는 분리 가능하게 결합될 수 있다. 일 실시 예에서, 제1 하우징 파트(211) 및 제2 하우징 파트(212)는 일체로 심리스하게 연결될 수 있다.
일 실시 예에서, 하우징(210)은 커버(213)를 포함할 수 있다. 커버(213)는 하우징(210)의 제1 면(211a)을 형성할 수 있다. 커버(213)는 제1 하우징 파트(211)의 적어도 일부의 영역을 덮도록 구성될 수 있다.
일 실시 예에서, 하우징(210)은 브릿지(214)를 포함할 수 있다. 브릿지(214)는 사용자의 신체의 일부(예: 코)를 대면하도록 구성될 수 있다. 예를 들면, 브릿지(214)는 사용자의 코에 의해 지지될 수 있다. 브릿지(214)는, 제1 하우징 파트(211), 제2 하우징 파트(212) 또는 커버(213) 중 적어도 하나 또는 이들의 조합에 형성될 수 있다.
일 실시 예에서, 웨어러블 장치(200)는 렌즈 구조체(220)를 포함할 수 있다. 렌즈 구조체(220)는 사용자에게 제공되는 이미지의 초점을 조절하도록 구성된 복수의 렌즈들을 포함할 수 있다. 예를 들면, 복수의 렌즈들은 디스플레이 모듈(250)에 의해 출력되는 영상의 초점을 조절하도록 구성될 수 있다. 복수의 렌즈들은 디스플레이 모듈(250)의 위치에 대응하는 위치에 배치될 수 있다. 복수의 렌즈들은, 예를 들면, 프레넬 렌즈(Fresnel lens), 팬케이크 렌즈(Pancake lens), 멀티채널 렌즈 및/또는 기타 임의의 적합한 렌즈를 포함할 수 있다.
일 실시 예에서, 웨어러블 장치(200)는 디스플레이 모듈(250)(예: 도 1의 디스플레이 모듈(160))를 포함할 수 있다. 디스플레이 모듈(250)은 사용자에게 영상(예: 가상 영상)을 제공하도록 구성될 수 있다. 예를 들면, 디스플레이 모듈(250)은, 액정 표시 장치(liquid crystal display)(LCD), 디지털 미러 표시 장치(digital mirror device)(DMD), 실리콘 액정 표시 장치(liquid crystal on silicon)(LCoS), 유기 발광 다이오드(organic light emitting diode)(OLED), 및/또는 마이크로 엘이디(micro light emitting diode)(micro LED)를 포함할 수 있다. 어떤 실시 예에서, 디스플레이 모듈(250)은 영상이 출력되는 영역에 광 신호를 송신하도록 구성된 광원(미도시)을 포함할 수 있다. 어떤 실시 예에서, 디스플레이 모듈(250)은 자체적으로 광 신호를 발생시킴으로써 사용자에게 영상을 제공할 수 있다.
일 실시 예에서, 디스플레이 모듈(250)은 하우징(210)의 제2 면(211b)에 배치될 수 있다. 예를 들면, 디스플레이 모듈(250)의 한 쌍의 렌즈(예: 도 3의 렌즈(263))의 일 면이 제2 면(211b)을 통하여 외부로 노출되도록 위치할 수 있다.
일 실시 예에서, 디스플레이 모듈(250)은, 예를 들면, 액정 표시 장치(liquid crystal display, LCD), 디지털 미러 표시 장치(digital mirror device, DMD), 실리콘 액정 표시 장치(liquid crystal on silicon, LCoS), 유기 발광 다이오드(organic light emitting diode, OLED), 실리콘 온 유기 발광 다이오드(organic light emitting diode on silicon, OLEDoS), 또는 마이크로 엘이디(micro light emitting diode, micro LED)를 포함할 수 있다.
일 실시 예에 따른 디스플레이 모듈(250)은 OLED(organic light emitting diodes)로 구성될 수 있다. 예컨대, OLED는 유기물의 자체 발광을 통하여 적색(R, red), 녹색(G, green), 및 청색(B, blue)을 표현할 수 있다. 다만, 이에 한정하는 것은 아니며, 하나의 픽셀은 R, G, 및 B를 포함할 수 있으며, 하나의 칩은 R, G, 및 B를 포함하는 픽셀이 복수개로 구현될 수 있다.
일 실시 예에서, 디스플레이 모듈(250)은 다양한 영상을 표시할 수 있다. 여기에서, 영상은 정지 영상 및 동영상을 포함하는 개념이며, 디스플레이 모듈(250)은 방송 콘텐츠, 멀티미디어 콘텐츠 등과 같은 다양한 영상을 표시할 수 있다. 또한, 디스플레이 모듈(250)은 유저 인터페이스(UI) 및 아이콘을 표시할 수도 있다.
일 실시 예에서, 디스플레이 모듈(250)은 별도의 IC 칩을 포함하고, IC 칩은 프로세서(예: 도 1의 프로세서(120))로부터 수신된 영상 신호에 기초하여 영상을 표시할 수 있다. 일 실시 예에서, IC 칩은 프로세서(120)로부터 수신된 영상 신호에 기초하여 복수의 발광 소자의 구동 신호를 생성하고, 구동 신호에 기초하여 디스플레이 패널에 포함된 복수의 화소들의 발광을 제어함으로써 영상을 표시할 수 있다.
일 실시 예에서, 디스플레이 모듈(250)은 제2 하우징 파트(212)에 배치될 수 있다. 일 실시 예에서, 디스플레이 모듈(250)은 제1 표시 영역(250a) 및 제2 표시 영역(250b)을 포함할 수 있다. 예를 들면, 제1 표시 영역(250a)은 사용자의 좌안에 대면하게 배치될 수 있고, 제2 표시 영역(250b)은 사용자의 우안에 대면하게 배치될 수 있다.
일 실시 예에서, 제1 표시 영역(250a) 및 제2 표시 영역(250b)은 글래스, 플라스틱 및/또는 폴리머를 포함할 수 있다. 일 실시 예에서, 제1 표시 영역(250a) 및 제2 표시 영역(250b)은 투명 재질 또는 반투명 재질을 포함할 수 있다.
일 실시 예에서, 제1 표시 영역(250a) 및 제2 표시 영역(250b)은 단일의 표시 영역을 형성할 수 있다. 일 실시 예에서, 제1 표시 영역(250a) 및 제2 표시 영역(250b)은 복수의 표시 영역들을 형성할 수 있다.
일 실시 예에서, 디스플레이 모듈(250)은 가상의 영상을 표시하기 위한 복수의 픽셀(pixel)을 포함할 수 있다. 일 실시 예에서, 디스플레이 모듈(250)은 적외선 광을 방출하는 적외선 픽셀들을 더 포함할 수 있다.
일 실시 예에서, 디스플레이 모듈(250)은 픽셀들 사이에 배치되고, 사용자의 눈에서 반사되는 광을 수광하여 전기 에너지로 변환하고 출력하는 수광 픽셀(예: 포토 센서 픽셀(photo sensor pixel))을 더 포함할 수 있다. 수광 픽셀은 '시선 추적 센서'로 지칭될 수 있다. 시선 추적 센서는 디스플레이 모듈(250)에 포함된 적외선 픽셀에 의해 방출된 광이 사용자의 눈에 의해 반사된 적외선 광을 감지할 수 있다.
일 실시 예에서, 웨어러블 장치(200)는 수광 픽셀들을 통해 사용자의 시선 방향(예: 눈동자 움직임)을 검출할 수 있다. 예를 들면, 웨어러블 장치(200)는 제1 표시 영역(250a)을 구성하는 하나 이상의 수광 픽셀 및 제2 표시 영역(250b)을 구성하는 하나 이상의 수광 픽셀을 통해 사용자의 좌안에 대한 시선 방향 및 사용자의 우안에 대한 시선 방향을 검출하고 추적할 수 있다.
일 실시 예에서, 웨어러블 장치(200)는 하나 이상의 수광 픽셀들을 통해 검출되는 사용자의 좌안 및 우안의 시선 방향(예: 사용자의 좌안 및 우안의 눈동자가 응시하는 방향)에 따라 가상 영상의 중심의 위치를 결정할 수도 있다.
일 실시 예에서, 웨어러블 장치(200)는 센서(235)(예: 도 1의 센서 모듈(176))를 포함할 수 있다. 센서(235)는 피사체의 깊이를 감지하도록 구성될 수 있다. 센서(235)는 피사체를 향해 신호를 송신 및/또는 피사체로부터 신호를 수신하도록 구성될 수 있다. 예를 들면, 송신 신호는 근적외선, 초음파 및/또는 레이저를 포함할 수 있다. 센서(235)는 웨어러블 장치(200) 및 피사체 사이의 거리를 측정하기 위해 신호의 비행 시간(time of flight)(ToF)을 측정하도록 구성될 수 있다. 일 실시 예에서, 센서(235)는 하우징(210)의 제1 면(211a)에 배치될 수 있다. 일 실시 예에서, 센서(235)는 제1 하우징 파트(211) 및/또는 커버(213)의 중심부에 배치될 수 있다.
일 실시 예에서, 복수의 카메라(230a, 230b, 230c, 230d)(예: 도 1의 카메라 모듈(180))는 복수의 전면 카메라(230a, 230b), 시선 추적 카메라(230c) 및 안면 인식 카메라(230d) 중 적어도 일부를 포함할 수 있다. 복수의 카메라(230a, 230b, 230c, 230d)는 하우징(210)의 외부, 예를 들면 사용자 및/또는 다른 피사체를 촬영할 수 있다. 예를 들면, 복수의 카메라(230a, 230b, 230c, 230d)는 광학 신호를 입력 데이터로 변환하고, 프로세서(예: 도 1의 프로세서(120))에 제공할 수 있다.
일 실시 예에서, 프로세서(120)는 전달받은 입력 데이터를 수신하고, 디스플레이 모듈(250), 또는, 디스플레이 모듈(250)의 디스플레이 패널(예: 도 3의 디스플레이 패널(261))로 출력 데이터를 전달할 수 있다. 일 실시 예에서, 프로세서(120)는 복수의 카메라(230a, 230b, 230c, 230d) 각각으로부터 입력받은 데이터를 조합하고, 조합된 데이터를 가공하여 디스플레이 모듈(250)을 제어할 수 있다.
일 실시 예에서, 복수의 전면 카메라(230a, 230b)는 하우징(210)의 제1 면(211a)에 이격 배치되어, 하우징(210)의 제1 면(211a)이 향하는 방향을 촬영할 수 있다. 적어도 하나의 제1 카메라(230a) 및 적어도 하나의 제2 카메라(230b)를 포함할 수 있다. 일 실시 예에서, 복수의 전면 카메라(230a, 230b)는 하우징(210)의 제1 면(211a)에 상호 이격 배치될 수 있다. 복수의 전면 카메라(230a, 230b)는, 제1 면(211a) 또는 제3 면(211c)과 같이 다양한 방향을 촬영하기 위하여, 상호 상이한 방향을 바라보도록 배치될 수 있다.
일 실시 예에서, 제1 카메라(230a)는 피사체로부터 이미지를 획득하도록 구성될 수 있다. 제1 카메라(230a)는 복수로 형성될 수 있고, 복수의 제1 카메라(230a)들 중 어느 하나의 제1 카메라(230a)는 하우징(210)의 제1 면(211a) 중에서 일부 영역(예: 도 2a의 -X 방향 부분)에 배치되고, 다른 하나의 제1 카메라(230a)는 하우징(210)의 제1 면(211a) 중에서 제1 부분과 다른 하우징(210)의 다른 영역(예: 도 2a의 +X 방향 부분)에 배치될 수 있다. 복수의 제1 카메라(230a)는 센서(235)의 양 측에 각각 배치될 수 있다. 복수의 제1 카메라(230a)는 이미지 스태빌라이저 액추에이터(미도시) 및/또는 오토 포커스 액추에이터(미도시)를 포함할 수 있다. 예를 들면, 복수의 제1 카메라(230a)는 컬러 이미지를 획득하도록 구성된 카메라, 글로벌 셔터 카메라, 또는 롤링 셔터 카메라 중 적어도 하나의 카메라 또는 이들의 조합을 포함할 수 있다.
일 실시 예에서, 제2 카메라(230b)는 피사체를 인식하도록 구성될 수 있다. 제2 카메라(230b)는 복수로 형성될 수 있고, 복수의 제2 카메라(230b)는 3자유도 또는 6자유도의 물체(예: 인체의 머리 또는 손) 또는 공간을 검출 및/또는 추적하도록 구성될 수 있다. 예를 들면, 복수의 제2 카메라(230b)는 글로벌 셔터 카메라를 포함할 수 있다. 복수의 제2 카메라(230b)는 피사체의 깊이 정보를 이용하여 동시적 위치추정 및 지도작성(simultaneous localization and mapping)(SLAM)을 수행하도록 구성될 수 있다. 복수의 제2 카메라(230b)는 피사체의 제스처를 인식하도록 구성될 수 있다. 일 실시 예에서, 복수의 제2 카메라(230b)는 하우징(210)의 제1 면(211a)에 배치될 수 있다. 일 실시 예에서, 복수의 제2 카메라(230b)는 제1 하우징 파트(211) 및/또는 커버(213)의 코너 영역들에 각각 배치될 수 있다.
일 실시 예에서, 복수의 전면 카메라(230a, 230b)는 촬영용 카메라일 수 있고, HR(high resolution) 또는 PV(photo video)로 지칭될 수 있으며, 고해상도의 카메라를 포함할 수 있다. 복수의 전면 카메라(230a, 230b)는 AF(auto focus) 기능과 떨림 보정(optical image stabilizer; OIS)과 같은 고화질의 영상을 얻기 위한 기능들이 구비된 칼라(color) 카메라를 포함할 수 있다. 이에 한정하는 것은 아니며, 복수의 전면 카메라(230a, 230b)는 글로벌 셔터(global shutter; GS) 카메라 또는 롤링 셔터(rolling shutter; RS) 카메라를 포함할 수 있다.
일 실시 예에서, 시선 추적 카메라(230c)는 하우징(210)의 제2 면(211b)에 배치될 수 있다. 시선 추적 카메라(230c)는 디스플레이 모듈(250)의 디스플레이 패널(261)을 바라보는 객체의 움직임을 감지할 수 있고, 예를 들면, 사용자의 눈동자들을 검출 및 추적하도록 구성될 수 있다. 시선 추적 카메라(230c)는 복수로 형성될 수 있다. 디스플레이 모듈(250)에 표시되는 영상의 중심이 사용자의 눈동자들이 응시하는 방향에 따라 이동하도록 사용자의 눈동자들에 대한 위치 정보가 사용될 수 있다.
예를 들면, 복수의 시선 추적 카메라(230c)는 글로벌 셔터 카메라를 포함할 수 있다. 복수의 시선 추적 카메라(230c) 중 어느 하나의 시선 추적 카메라(230c)는 사용자의 왼쪽 눈에 대응되게 배치되고, 다른 하나의 시선 추적 카메라(230c)는 사용자의 오른쪽 눈에 대응되게 배치될 수 있다.
일 실시 예에서, 웨어러블 장치(200)는 복수의 제4 카메라(230d)(예: 도 1의 카메라 모듈(180))들을 포함할 수 있다. 복수의 제4 카메라(230d)들은 사용자의 얼굴을 인식하도록 구성될 수 있다. 예를 들면, 복수의 제4 카메라(230d)들은 사용자의 얼굴 표정을 검출 및 추적하도록 구성될 수 있다.
일 실시 예에서, 복수의 카메라(230a, 230b, 230c, 230d) 중 적어도 하나는 3 자유도(DoF)(3 degrees of freedom), 6 자유도(DoF)의 헤드 트래킹(head tracking), 핸드(hand) 검출과 트래킹(tracking), 제스처(gesture) 및/또는 공간 인식을 위해 사용되는 카메라를 포함할 수 있다.
일 실시 예에서, 복수의 카메라(230a, 230b, 230c, 230d) 중 적어도 하나는 헤드 및 핸드의 움직임을 검출하고, 움직임을 추적하기 위해 GS(global shutter) 카메라를 포함할 수 있다. 예를 들어, 머리 추적과 공간 인식을 위해서는 스테레오(stereo) 카메라가 사용될 수 있으므로 동일 규격, 성능의 2대의 글로벌 셔터(GS) 카메라가 사용될 수 있고, 빠른 손동작과 손가락 등 미세한 움직임을 검출하고 움직임을 추적하는 데에는 롤링 셔터(rolling shutter; RS) 카메라 사용될 수 있다.
일 실시 예에서, 복수의 카메라(230a, 230b, 230c, 230d) 중 적어도 하나는 카메라 대비 성능(예: 영상 끌림)이 우수한 글로벌 셔터(GS) 카메라가 주로 사용될 수 있으나, 반드시 이에 한정되지는 않으며, 예를 들면, 롤링 셔터(RS) 카메라가 사용될 수도 있다. 복수의 카메라(230a, 230b, 230c, 230d) 중 적어도 하나는 6 자유도(DoF)를 위한 공간 인식, 깊이(depth) 촬영을 통한 SLAM(simultaneous localization and mapping) 기능을 수행할 수 있다. 또는, 일 실시 예의 복수의 카메라(230a, 230b, 230c, 230d) 중 적어도 하나는 사용자 제스처 인식 기능을 수행할 수도 있다.
일 실시 예에서, 도면에는 도시 되지 않았으나, 웨어러블 장치(200)는 센서(미도시), 조명 유닛(미도시), 복수의 마이크(미도시), 복수의 스피커(미도시) 배터리(미도시), 인쇄 회로 기판(미도시) 중 적어도 일부를 포함할 수 있다.
일 실시 예에서, 센서(미도시) 다양한 목적(예: 자이로 센서, 가속도 센서, 지자기 센서, 및/또는 제스처 센서)으로 하나 또는 그 이상으로 존재할 수 있고, 예를 들면, 센서(미도시)는 6 자유도(DoF)를 위한 헤드 트래킹(head tracking), 움직임 감지와 예측(pose estimation & prediction), 제스처 및/또는 공간 인식, 및/또는 뎁스(depth) 촬영을 통한 슬램(slam) 기능 중 적어도 하나를 수행할 수 있다.
일 실시 예에서, 조명 유닛(미도시)은 부착되는 위치에 따라 용도가 다양해질 수 있다. 예를 들어, 조명 유닛(미도시)은 웨어러블 장치(200)의 제2 면(211b) 주변에 부착될 수 있다. 조명 유닛(미도시)은 시선 추적 카메라(230c)가 동공을 촬영할 때 시선(eye gaze) 검출을 용이하게 하기 위한 보조 수단으로 사용될 수 있다. 조명 유닛(미도시)은 가시광 파장 또는 적외선 파장의 IR LED(infra-red light emitting device)를 사용할 수 있다.
예를 들어, 조명 유닛(미도시)은 웨어러블 장치(200)의 전면(211a) 또는 그 주변에 부착될 수 있다. 조명 유닛(미도시)은 복수의 전면 카메라(230a, 230b)가 촬영 시에 주변 밝기를 보충하는 수단으로 사용될 수 있다. 조명 유닛(미도시)은 특히 어두운 환경이나 여러 광원들의 혼입 및 반사 빛 때문에 촬영하고자 하는 피사체 검출이 용이하지 않을 때 사용될 수 있다.
일 실시 예에 따라서, 조명 유닛(미도시)은 생략될 수도 있다. 조명 유닛(미도시)은 제1 표시 영역(250a), 제2 표시 영역(250b)에 포함된 적외선 픽셀에 의해 대체될 수 있다. 일 실시 예에서, 조명 유닛(미도시)은 웨어러블 장치(200)에 포함되어 제1 표시 영역(250a), 제2 표시 영역(250b)에 포함된 적외선 픽셀을 보조할 수도 있다.
일 실시 예에서, 복수의 마이크(미도시)는 외부의 음향 신호를 전기적인 음성 데이터로 처리할 수 있다. 처리된 음성 데이터는 웨어러블 장치(200)에서 수행 중인 기능(또는 실행 중인 어플리케이션)에 따라 다양하게 활용될 수 있다.
일 실시 예에서, 복수의 스피커(미도시)는 통신 회로(예: 도 1의 통신 모듈(190))로부터 수신되거나 메모리(예: 도 1의 메모리(130))에 저장된 오디오 데이터를 출력할 수 있다.
일 실시 예에서, 배터리(미도시)는 웨어러블 장치(200)에 하나 이상 포함될 수 있으며, 웨어러블 장치(200)를 구성하는 구성요소들에 전원을 공급할 수 있다.
일 실시 예에서, 인쇄 회로 기판(미도시)은 FPCB(flexible printed circuit board)를 통해 각 모듈(예: camera, display, audio, 또는 sensor) 및 다른 인쇄 회로 기판에 전기 신호를 전달할 수 있다.
일 실시 예에서, 인쇄 회로 기판(미도시)에는 제1 표시 영역(250a), 제2 표시 영역(250b)을 제외한 웨어러블 장치(200)를 구성하는 구성요소를 제어하는 제어 회로(미도시)가 위치할 수 있다. 제어 회로(미도시)는 제1 표시 영역(250a), 제2 표시 영역(250b) 이외의 다른 구성요소들을 제어하고 연산을 수행할 수 있다. 제어 회로(미도시)는 통신 회로(예: 도 1의 통신 모듈(190)) 또는 메모리(예: 도 1의 메모리(130))를 포함할 수 있다. 이에 한정되지 아니하고, 일 실시 예의 제어 회로(미도시)는, 제1 표시 영역(250a), 제2 표시 영역(250b) 및/또는 다른 구성 요소들을 제어할 수 있다.
도 3은 일 실시 예에 따르는 디스플레이 모듈(250)의 구조를 도시한 도면이다.
도 3을 참고하면, 일 실시 예에 따르는 디스플레이 모듈(250)은 디스플레이 패널(261), 렌즈(263) 및 스크린(265)을 포함할 수 있다.
일 실시 예에서, 디스플레이 패널(261)로부터 방출되는 빛은 렌즈(263) 및 스크린(265)을 거쳐 사용자의 눈(267)에 대면할 수 있다. 일 실시 예에서, 디스플레이 패널(261)은 사용자의 눈(267)을 향하는 일 방향(예: +Y 방향)을 기준으로 빛을 방출할 수 있고, 디스플레이 패널(261)로부터 방출된 빛은, 복수의 방향으로 확산되어 이동할 수 있고, 확산된 빛은 렌즈(263)를 통과하며 굴절되어, 스크린(265)으로 유도될 수 있다.
일 실시 예에서, 렌즈(263)는 디스플레이 모듈(250)의 전면에 배치될 수 있다. 렌즈(263)는 복수의 서브 렌즈(263a, 263b, 263c)로 구성되는 삼중 구조를 가질 수 있다. 예를 들면 렌즈(263)는 팬케이크 렌즈(pancake lens)(또는, 'folded optics') 구조로 구현될 수 있다.
일 실시 예에서, 팬케이크 렌즈로 구현되는 렌즈(263)는 장치 전반의 박형화에 유리할 수 있다. 예를 들면, 웨어러블 장치(200) 또는 휴대용 디스플레이 장치(미도시)와 같이, 장치에 대하여 소형화, 경량화 또는 박형화가 요구되는 경우, 렌즈(263)는 팬케이크 렌즈가 채택할 수 있다.
일 실시 예에서, 복수의 서브 렌즈(261a, 263b, 263c)는 오목 렌즈 및/또는 볼록 렌즈를 포함할 수 있다. 예컨대, 복수의 서브 렌즈(261a, 263b, 263c)는 프로젝션 렌즈(projection lens) 또는 콜리메이션 렌즈(collimation lens)을 포함할 수 있다. 일 실시 예에서, 디스플레이 모듈(250)로부터 방출되는 빛은 복수의 서브 렌즈(261a, 263b, 263c)를 통과하며 사용자 눈(267) 방향으로 광 경로가 유도될 수 있다.
일 실시 예에서, 스크린(265)은 글래스, 플라스틱 또는 폴리머로 제작될 수 있으며, 투명 또는 반투명하게 제작될 수 있다. 스크린(265)은 내부 또는 외부의 일표면에 형성된 나노 패턴, 예를 들어, 다각형 또는 곡면 형상의 그레이팅 구조(grating structure), 다시 말해 격자 구조를 포함할 수 있다.
일 실시 예에서, 스크린(265)은 적어도 하나의 회절 요소(예: DOE(diffractive optical element), HOE(holographic optical element)) 또는 반사 요소(예: 반사 거울) 중 적어도 하나를 포함할 수 있다. 스크린(265)은 스크린(265)에 포함된 적어도 하나의 회절 요소 또는 반사 요소를 이용하여 디스플레이 패널(261)로부터 방출된 빛을 사용자의 눈으로 유도할 수 있다.
일 실시 예에서, 렌즈(263) 및 스크린(265)은 사용자의 좌안 및 우안에 각각 대면하도록 복수로 형성될 수 있다.
일 실시 예에서, 디스플레이 패널(261)에서 방출된 빛은, 디스플레이 패널(261)의 시야각에 따라 여러 범위로 회절할 수 있다. 예를 들면, 디스플레이 패널(261)에서 방출된 빛 중 일부는 렌즈(263)의 가장 자리 영역을 통과할 수 있다. 렌즈(263)의 가장 자리 영역을 통과하며, 빛은 파장에 따라 상이한 굴절률로 굴절할 수 있다. 렌즈(263)를 통과하여 스크린(265)의 가장 자리 영역으로 유도되는 빛은, 중심 영역과 비교하여 상대적으로 불그스름한(reddish) 색띠가 형성될 수 있다. 디스플레이 패널(261)의 색띠 현상과 관련하여는, 도 4a 내지 도 4e를 참고하여 설명한다.
도 4a는 디스플레이 패널의 RGB 파장 스펙트럼을 프로파일한 그래프이고, 도 4b, 4c 및 4d 각각은 디스플레이 패널의 각각 blue(이하, 'B') 파장대, green 파장대(이하, 'G') 및 red 파장대(이하, 'R') 광원에 대한 CLC 레이어의 투과율을 프로파일한 그래프이고, 도 4e는 디스플레이 패널의 CLC 필름의 투과율을 프로파일한 그래프이다.
예를 들면, B 파장대는 청색 계열의 광원의 파장대(예: 약 450 ~ 460 nm의 파장대)일 수 있고, G 파장대는 녹색 계열의 광원의 파장대(약 530 ~ 540 nm의 파장대)일 수 있고, R 파장대는 적색 계열의 광원의 파장대(약 615 ~ 625 nm의 파장대)일 수 있다. 다만, 이는 설명의 편의를 위하여 임의로 예시적인 파장대 범위를 한정한 것으로, 실제 구현 시에는 이러한 범위에 한정되지 아니하고, 다양한 범위를 기준으로 설정될 수 있다.
도 4a를 참고하면, CLC 필름은 콜레스테릭 액정 층의 피치에 따라 원편광으로 변환하는 파장이 상이할 수 있다. 이를 고려하면, 풀 컬러의, 예를 들면R 파장대, G 파장대 및 B 파장대 각각의 원편광 변환을 위해서는, R파장대, G파장대 및 B 파장대에 각각에 대응되는 3개의 단일 CLC 레이어를 포함하는CLC 필름이 요구될 수 있다.
도 4b 내지 도 4d를 참고하면, B파장대 광원에 대한 CLC 레이어, G파장대 광원에 대한 CLC 레이어 및 R 파장대 광원에 대한 CLC 레이어는 각각 타겟하는 파장대에서 상대적으로 높은(예: 50% 이상의) 투과율을 제공할 수 있고, 일정 범위를 벗어나는 파장대의 광원에 대하여는 상대적으로 낮은(예: 10% 정도의) 투과율을 제공할 수 있다.
도4e를 참고하면, 도 4b 내지 도 4d 각각의 B파장대 광원에 대한 CLC 레이어, G파장대 광원에 대한 CLC 레이어 및 R 파장대 광원에 대한 CLC 레이어를 적층하여, 적어도 3개의 CLC 레이어로 구성된 CLC 필름의 투과율을 예상할 수 있다.
일 실시 예에서, 도4e에 도시된 투과율이 최대가 되는 지점의 파장 범위를, 도 4a에 도시된 디스플레이 패널의 RGB 파장 스펙트럼의 범위와 일치시켜, CLC 필름의 원편광 변환 효율을 높일 수 있다.
일 실시 예에서, QWP(quarter wave plate) 및 POL(polarization) 필름을 포함하는 디스플레이 패널과 비교하여, CLC 필름을 포함하는 디스플레이 패널은, 상대적으로 간단하게 비편광된 빛을 원편광으로 변환할 수 있다는 장점이 있을 수 있다. 그러나, CLC 필름을 포함하는 디스플레이 패널은, CLC 필름으로 입사하는 빛의 각도에 따라 CLC 필름을 통과하여 출력되는 빛의 파장을 변화시킬 수 있다.
일 실시 예에서, 팬케이크 렌즈로 구현되는 렌즈를 통하여 사용자가 디스플레이 패널을 보았을 때, CLC 필름을 포함하는 디스플레이 패널은, 상술한 파장 변화에 의하여 백색 화면의 외곽부의 화이트 밸런스(white balance)가 틀어지는 현상인 색띠 현상을 일으킬 수 있다.
본 문서의 일 실시 예에 따르는 디스플레이 패널(예: 도 3의 디스플레이 패널(261)은, CLC 필름을 포함하여 상술한 장점을 유지 또는 향상시킬 수 있고, 디스플레이 패널(261)의 구조적 특징을 통하여 색띠 현상을 감소 또는 방지할 수 있다. 이하에서는, CLC 필름을 포함하는 디스플레이 패널에 있어서, 상술한 색띠 현상을 방지하고, 선명한 화질 및/또는 색 재현성을 제공할 수 있는 디스플레이 패널을 포함하는 웨어러블 장치에 대하여 설명한다.
도 5는 일 실시 예에 따르는 디스플레이 패널(261)의 구조를 도시한 도면이다.
도 5를 참고하면, 일 실시 예에 따르는 디스플레이 패널(261)은 기판(273) 및 CLC(cholesteric liquid crystal) 필름(277)을 포함할 수 있다.
일 실시 예에서, 디스플레이 패널(261)은 원편광(circular polarization)을 출력할 수 있다. 예를 들면, 디스플레이 패널(261)에서 출력된 빛이 팬케이크 렌즈(예: 도 3의 렌즈(263))를 통과하는 경우, 디스플레이 패널(261)은 원편광을 출력할 수 있다. 원편광을 출력하기 위하여, 디스플레이 패널(261)은 CLC 필름(277)을 포함할 수 있다.
일 실시 예에서, 기판(273)에는 복수의 발광 소자(예: 도 7의 복수의 발광 소자(269))가 배치될 수 있다. 기판(273)은 복수의 발광 소자(269)를 통하여 빛을 출력할 수 있다. 출력된 빛은, 기판(273)의 일 방향(예: +Y 방향)에 배치된 CLC 필름(277)을 통과할 수 있다. 예를 들면, 기판(273)에서 출력된 빛은 입사광(incident light)(Lin)일 수 있고, CLC 필름(277)을 통과한 빛은 출력광(output light)(Lout)일 수 있다.
일 실시 예에서, 디스플레이 패널(261)의 기판(273)은 후면 기판(271) 및 전면 기판(275)을 포함할 수 있다. 후면 기판(271)은 실리콘 웨이퍼로 이루어질 수 있고, 예를 들면 실리콘 산화물(SiOx), 실리콘 질화물(SiNx) 또는 이들의 다중층일 수 있다. 후면 기판(271)에는 박막트랜지스터(예: 도 9의 박막트랜지스터(283))가 마련되어 후면 기판(271)이 이를 보호할 수 있다.
일 실시 예에서, 전면 기판(275)은 후면 기판(271)의 상부에 마련될 수 있다. 전면 기판(275)은 PDL 뱅크(예: 도 7의 PDL 뱅크(290)), 복수의 발광 소자(269) 중 일부 구성이 마련될 수 있고, 복수의 발광 소자(269)를 구동하기 위한 구성요소가 마련될 수 있다.
일 실시 예에서, CLC 필름(277)은 기판(273)의 상부에 배치되고, 복수의 발광 소자(269)에서 출력되는 빛을 원편광할 수 있다. 예를 들면, CLC 필름(277)은 비-편광(non-polarized light) 상태의 입사광(Lin)을 원편광시켜 출력할 수 있다. CLC 필름(277)을 통과한 출력광(Lout)은 우원편광(right-circularly polarized, RCP) 또는 좌원편광(left-circularly polarized, LCP)일 수 있다. 출력광(Lout)의 출력 방향(예: +Y 방향)을 기준으로, 반시계 방향으로 원편광된 상태가 좌원편광(LCP)이고, 시계 방향으로 원편광된 상태가 우원편광(RCP)일 수 있다.
일 실시 예에서, 입사광(Lin)은 입사각에 따라 CLC 필름(277)을 통과하며 파장이 변화할 수 있다. 예를 들면, 입사광(Lin)이 제1 파장을 갖는 빛인 경우, CLC 필름(277)을 통과하여 출력광(Lout)은 제2 파장으로 변화할 수 있다. 제2 파장은 입사광(Lin)이 출사되는 각도(θ)의 사인 값(sin θ)에 기초하여 제1 파장으로부터 변화할 수 있다.
일 실시 예에서, 디스플레이 패널(261)은 입사광(Lin)의 출력 각도를 제어함으로써, 출력광(Lout)의 색 변화를 줄이거나 방지할 수 있고, 디스플레이 패널(261)은 선명하고 깨끗한 사진 또는 영상을 제공할 수 있다.
예를 들면, 입사광(Lin)이 출사되는 각도(θ)가 기판(273)으로부터 실질적으로 수직한 경우(예: θ=90도) 또는 이에 인접한 경우, 상술한 사인 값(sin θ)은 '1'이 되어, 출력광(Lout)의 색 변화 및 이로 인한 색띠 현상을 줄이거나 방지할 수 있다.
일 실시 예에서, 디스플레이 패널(261)은 복수의 발광 소자(269)가 출력하는 빛의 시야각을 제한함으로써, 입사광(Lin)이 출사되는 각도를 제한할 수 있다. 예를 들면, 디스플레이 패널(261)은 복수의 발광 소자(269)의 시야각을 제어하기 위하여 PDL 뱅크(290)의 경사각을 한정할 수 있고, 이에 관하여는, 도 7 이하에서 설명한다.
도 6은 일 실시 예에 따르는 디스플레이 패널(261)의 구조를 도시한 도면이다.
도 6을 참고하면, 디스플레이 패널(261)로부터 출사되는 빛의 적어도 일부는 CLC 필름(277)에 의하여 반사될 수 있다.
일 실시 예에서, L1은 복수의 발광 소자(269)로부터 출사되는 빛(예: 도 5의 입사광(Lin))일 수 있다. L1은 비-편광(non-polarized light) 상태일 수 있다. 이하에서는, L1의 광량을 100%로 기준하여 변화를 설명하며, 다만 광량에 대한 후술할 수치는 설명의 편의를 위하여 예시적으로 수치화한 것에 불과하다.
일 실시 예에서, L2는 L1 중 CLC 필름(277)을 통과한 적어도 일부일 수 있다. 예를 들면, L2의 광량은 L1과 비교하여 대략 50%일 수 있다. 일 실시 예에서, L2는 CLC 필름(277)을 통과하여 좌원편광(LCP) 상태일 수 있다.
일 실시 예에서, L3는 L1 중 CLC 필름(277)에 의하여 반사된 적어도 일부일 수 있다. 예를 들면, L3의 광량은 L1과 비교하여 대략 50%일 수 있다. 일 실시 예에서, L3는 CLC 필름(277)에 반사되어 우원편광(RCP) 상태일 수 있다.
일 실시 예에서, L4는 L3 중 기판(273)으로부터 CLC 필름(277) 방향으로 반사된 적어도 일부일 수 있다. 예를 들면, L4의 광량은 기판(273)의 상면의 반사 효율에 따라 상이할 수 있으며, L1과 비교하면 대략 10% 내지 50%일 수 있다. 일 실시 예에서, L3는 기판(273)의 상면에 반사되어 좌원편광(LCP) 상태일 수 있다.
일 실시 예에서, L5는 L4 중 CLC 필름(277)을 통과한 적어도 일부일 수 있다. 일 실시 예에서, L5는 CLC 필름(277)을 통과하여 좌원편광(LCP) 상태일 수 있다. L5 및 L2는 디스플레이 패널(261)로부터 출사되는 빛(예: 도 5의 출력광(Lout))일 수 있다.
일 실시 예에서, 디스플레이 패널(261)은 CLC 필름(277)에 의하여 반사되는 L3가 기판(273)에 반사되는 과정에서, 광량의 손실이 발생할 수 있다. 일 실시 예에서, 기판(273)의 상면의 광반사 효율을 높임으로써, 디스플레이 패널(261)은 상대적으로 향상된 휘도 및/또는 색 재현성을 제공할 수 있다. 예를 들면, 일 실시 예의 디스플레이 패널(261)은 기판(273)의 상면에 증착되는 상부 전극(예: 도 7의 상부 전극(281)) 중 적어도 일부가 반사 전극(예: 도 7의 반사 전극(281a))을 포함할 수 있고, 이에 관하여는, 도 7 이하에서 설명한다.
도 7은 일 실시 예에 따르는 디스플레이 패널(261)을 도시한 정면도이다.
도 7을 참고하면, 일 실시 예에 따르는 디스플레이 패널(261)은 복수의 발광 소자(269) 및 PDL(pixel defining layer) 뱅크(290)를 포함할 수 있다.
일 실시 예에서, 디스플레이 패널(261)은 복수의 서브 픽셀(10-1, 10-2, 10-3)을 포함할 수 있다. 복수의 서브 픽셀(10-1, 10-2, 10-3) 중 일부가 모여 하나의 픽셀(10)을 형성하고, 복수의 픽셀(10)이 디스플레이 패널(261)의 화면을 형성할 수 있다.
예를 들면, 복수의 픽셀(10) 각각은 적색(R) 서브 픽셀(10-1)인 제1 서브 픽셀(10-1), 녹색(G) 서브 픽셀인 제2 서브 픽셀(10-2) 및 청색(B) 서브 픽셀인 제3 서브 픽셀(10-3)으로 이루어진 복수의 서브 픽셀(10-1, 10-2, 10-3)을 포함할 수 있다. 일 실시 예에서, 적색(R), 녹색(G), 청색(B) 서브 픽셀로 이루어진 복수의 서브 픽셀(10-1, 10-2, 10-3)은 한 세트가 디스플레이 모듈의 하나의 단위 픽셀(10)을 구성할 수 있다.
일 실시 예에서, 복수의 서브 픽셀(10-1, 10-2, 10-3)의 배치 순서는 R, G, B로 기재되나, 하나의 픽셀(10) 내에서 실제로 R, G, B 순서로 배치되는 것은 아니며, 본 개시에 있어서는 복수의 서브 픽셀(10-1, 10-2, 10-3)의 설명에 있어 R, B, G 순서로 도면 부호를 기재하고 설명하였고, 이 또한 설명의 편의를 위한 것으로, 실제 배치 순서는 이와 같거나 다를 수 있다.
도 7에서 도시된 복수의 픽셀(10) 및 복수의 서브 픽셀(10-1, 10-2, 10-3)의 형상 및 구조는 설명을 위한 관념적인 공간 구획으로서, 실제 구현에 있어서는 그 경계가 명확하지 않을 수 있으며, 디스플레이 패널(261)과 발광 소자(269)의 종류와 성질에 따라 다양한 방식으로 구현될 수 있다.
한편, 상술한 예에서는 픽셀(10)이 3종류의 서브 픽셀(10-1, 10-2, 10-3)로 이루어진 복수의 서브 픽셀(10-1, 10-2, 10-3)로 구성되는 것으로 설명하였으나, 이에 한정되지 아니하고, 픽셀(10)은 R, G, B, W(white)와 같이 4종류의 서브 픽셀로 구현될 수도 있으며 또는 다른 개수의 서브 픽셀(10-1, 10-2, 10-3)이 하나의 픽셀(10)을 구성할 수도 있다. 이하에서는, 설명의 편의를 위해, 픽셀(10)이 R, G, B와 같은 세 종류의 서브 픽셀(10-1, 10-2, 10-3)로 구성된 경우를 예로 들어 설명하도록 한다.
일 실시 예에서, 복수의 발광 소자(269) 각각은 유기발광다이오드(organic light-emitting diode)일 수 있다. 복수의 발광 소자(269) 각각은 유기막층(예: 도 9의 유기막층(280)), 상부 전극(281) 및 하부 전극(예: 도 9의 하부 전극(282)) 중 적어도 일부를 포함할 수 있다.
일 실시 예에서, PDL 뱅크(290)는 복수의 발광 소자(269) 각각을 둘러싸며 구획하여 복수의 서브 픽셀(10-1, 10-2, 10-3)을 정의할 수 있다. 예를 들면, PDL 뱅크(290)는 '화소 정의막'으로도 호칭될 수 있다.
일 실시 예에서, PDL 뱅크(290)는 복수의 발광 소자(269)에서 출력되는 빛 중 제1 면(예: 도 8의 제1 면(291))을 향하여 출력되는 빛이 통과하도록 광투과성 물질로 이루어질 수 있다. 예를 들면, PDL 뱅크(290)는 폴리이미드(polyimide), 아크릴레이트(acrylate) 또는 벤조사이클로부틴계 수지(benzocyclobutene series resin)과 같은 유기물로 이루어질 수 있다. 또는, 일 실시 예의 PDL 뱅크(290)는 절연층일 수 있다.
일 실시 예에서, PDL 뱅크(290)는 하부 전극(282)의 상면 중 일부 영역에만 형성될 수 있고, PDL 뱅크(290)가 형성되지 않은 영역에는 유기막층(280) 및 상부 전극(281)이 배치되어 복수의 서브 픽셀(10-1, 10-2, 10-3)을 형성할 수 있다.
일 실시 예에서, 상부 전극(281)은 PDL 뱅크(290) 및 유기막층(280)의 상부(예: +Y 방향)에 배치될 수 있다. 상부 전극(281)은 캐소드(cathode) 전극일 수 있고, 하부 전극(282)은 애노드(anode) 전극일 수 있다.
일 실시 예에서, 상부 전극(281)은 반사 전극(281a) 및 연결 전극(281b)을 포함할 수 있다. 예를 들면, 반사 전극(281a)은 PDL 뱅크(290)의 상면(예: 도 8의 제2 면(292))에 배치될 수 있고, 연결 전극(281b)은 복수의 유기막층(280) 및 PDL 뱅크(290) 중 일부면(예: 도 8의 제3 면(293))에 배치될 수 있다.
일 실시 예에서, 반사 전극(281a)은 CLC 필름(277)에 의하여 반사된 빛을 반사할 수 있다. 예를 들면, 반사 전극(281a)은 알루미늄(Al), 구리(Cu), 은(Ag), 니켈(Ni) 또는 이들의 합금으로 이루어질 수 있다. 또는, 반사 전극(281a)은 알루미늄(Al), 구리(Cu), 은(Ag), 니켈(Ni), 금(Au), 백금(Pt), 텅스텐(W), 크롬(Cr), 몰리브덴(Mo), 철(Fe), 코발트(Co), 팔라듐(Pd), 티탄(Ti) 및 이들의 합금으로 형성된 반사막을 포함할 수 있다.
일 실시 예에서, 반사 전극(281a)을 포함하는 상부 전극(281)은 디스플레이 패널(261)의 출력광(예: 도 5의 출력광(Lout))의 개선된 휘도를 제공할 수 있다. 또는, 반사 전극(281a)을 포함하는 상부 전극(281)은 CLC 필름(277)에서 반사된 광이 다시 기판(예: 도 5 또는 도 6의 기판(273))에 반사되는 상황에서, 상대적으로 높은 광 반사율을 제공할 수 있다.
예를 들면, 도 6에서 상술한 바와 같이, CLC 필름(277)에 의하여 반사되는 L3로부터 기판(273)에 반사되는 L4로 반사되는 경우, 반사 전극(281a)은 상대적으로 광반사율이 높기에, L4의 광량을 늘릴 수 있다. 도 6의 L1의 광량 100%를 기준으로, 반사 전극(281a)을 포함하는 디스플레이 패널(261)에서의 L4는 대략 50%일 수 있고, CLC 필름(277)을 통과한 L5의 광량은 대략 22.5%일 수 있다.
일 실시 예에서, 기판(273)의 복수의 발광 소자(269)에서 출사되는 입사광(Lin)은, 반사 전극(281a)을 포함하는 상부 전극(281)을 통하여 기판(273)에 반사되며 발생하는 광 손실을 줄일 수 있고, 디스플레이 패널(261)은 향상된 휘도 및/또는 색 재현성을 제공할 수 있다.
도 8는 일 실시 예에 따르는 디스플레이 패널(261)의 PDL 뱅크(290)를 도시한 도면이다. 구체적으로, 도 8은 도 7에 도시된 P 영역 중 PDL 뱅크(290)만을 예시적으로 도시한 사시도이다.
도 8을 참고하면, 일 실시 예에 따르는 PDL 뱅크(290)는 제1 면(291), 제2 면(292) 및 제3 면(293)을 포함할 수 있다.
일 실시 예에서, 제1 면(291)은 복수의 발광 소자(269) 각각의 외주면의 일부 영역을 둘러싸는 면일 수 있다. 제1 면(291)은 디스플레이 패널(361)의 기준면(예: X-Y 평면)(예: 도 5 또는 도 6의 기판(273) 또는 이에 평행한 면)으로부터 실질적으로 수직할 수 있다. 예를 들면, 제1 면(291)은 기판(273)에 평행한 기준면(예: X-Z 평면)을 기준으로 상부 방향(예: +Y 방향)으로 대략 80도 내지 90도의 경사를 가질 수 있다.
일 실시 예에서, 제1 면(291)은 복수의 발광 소자(269)에서 출사되는 빛이 기판(273)으로부터 퍼져나가는 시야각을 제한할 수 있다. 예를 들면, 제1 면(291)은 도 5의 입사광(Lin)의 각도를 90도에 인접하게 제한할 수 있다. 입사광(Lin)의 각도가 90도에 인접하면, CLC 필름(277)을 통과하는 과정에서 빛의 파장의 변화를 줄이거나 방지할 수 있다. 제1 면(291)을 포함하는 PDL 뱅크(290)를 통하여, 디스플레이 패널(261)은 선명한 색 재현성을 제공할 수 있다.
일 실시 예에서, 제2 면(292)은 CLC 필름(277)과 마주보는 면일 수 있다. 제2 면(292)은 제1 면(291)으로부터 이어지는 PDL 뱅크(290)의 상면일 수 있고, 이 경우, 제1 면(291)은 PDL 뱅크(290)의 측면 중 일부 영역일 수 있다. 일 실시 예에서, 제2 면(292)은 기판(273)과 실질적으로 평행할 수 있다. 제2 면(292) 상에는 상부 전극(281)의 반사 전극(281a)이 배치될 수 있다.
일 실시 예에서, 제3 면(293)은 복수의 발광 소자(269) 각각의 외주면에서 제1 면(291)과 상이한 일부 영역을 둘러싸는 면일 수 있다. 일 실시 예에서, 제3 면(293)은 기판(273)으로부터 소정의 각도로 경사질 수 있다. 예를 들면, 제3 면(293)은 기판(273)에 평행한 면(예: X-Z 평면)을 기준으로 상부 방향(예: +Y 방향)으로 대략 30도 내지 45도의 경사를 가질 수 있다.
일 실시 예에서, 제3 면(293)은 하나의 발광 소자(269)로부터 인접한 다른 발광 소자(269)로 이어지는 면일 수 있다. 또는, 제3 면(293)은 복수의 발광 소자(269)를 상호 연결하기 위한 연결 전극(281b)이 배치되는 면일 수 있다.
일 실시 예에서, 제3 면(293)을 포함하지 않고 복수의 발광 소자(269) 각각의 외주면의 모든 영역을 제1 면(291)이 둘러싸는 경우, 연결 전극(281b)은 제1면(291) 및 제2 면(292)의 경계인 가장 자리에서 90도 내외로 휘어지거나 꺾일 수 있다. 휘어지거나 꺾인 연결 전극(281b)은 파손되거나 단선될 수 있다. 일 실시 예에서, 제3 면(293)을 포함하는 PDL 뱅크(290)는, 제3 면(293)을 통하여 연결 전극(281b)이 상대적으로 덜 휘어지거나 꺾이도록, 소정의 각도로 경사지는 구조를 가질 수 있다.
도 9는 일 실시 예에 따르는 디스플레이 패널(261)을 도시한 단면도이다.
도 9를 참고하면, 일 실시 예에 따르는 디스플레이 패널(261)은 하부 전극(282) 및 박막트랜지스터(283)를 포함할 수 있다. 단, 도 9는 하나의 서브 픽셀(10-1, 10-2, 10-3)에 대한 디스플레이 패널(261)의 단면 구조를 대략적으로 도시한 것으로, 실제 구현 시에는 이들 구성 중 일부가 생략 또는 변경될 수 있고, 다른 구성이 더 추가될 수도 있다.
일 실시 예에서, 기판(273)은 평탄화막(276)(예: 패시베이션막(passivation)), 절연막(279) 및 복수의 버퍼 층(272, 274) 중 적어도 일부를 포함할 수 있다. 예를 들면, 평탄화막(276), 절연막(279) 및 복수의 버퍼 층(272, 274) 중 적어도 일부는 다중 레이어로 구성되는 후면 기판(예: 도 5의 후면 기판(271))의 적어도 일부를 구성할 수 있다.
일 실시 예에서, 평탄화막(276)의 상면에는 하부 전극(282)이 배치될 수 있다. 평탄화막(276)은 비아 홀이 형성되고, 비아 홀을 통하여 하부 전극(282)은 박막트랜지스터(283)와 연결될 수 있다. 일 실시 예에서, 절연막(279)에는 박막트랜지스터(283)가 위치할 수 있다.
일 실시 예에서, 복수의 버퍼 층(272, 274)은 제1 버퍼 층(272) 및 제2 버퍼 층(274)으로 이루어질 수 있다. 복수의 버퍼 층(272, 274)은 박막트랜지스터(283)를 보호할 수 있다. 제1 버퍼 층(272) 및 제2 버퍼 층(274) 사이에는 쉴드층(287)이 형성될 수 있다. 쉴드층(287)은 박막트랜지스터(283)에 대응되는 영역에 형성될 수 있고, 디스플레이 패널(261)의 구동을 위한 전류의 손실을 방지할 수 있다.
일 실시 예에서, 박막트랜지스터(283)는 드레인 전극(284a), 소스 전극(284b), 게이트 전극(285) 및 반도체 층(286) 중 적어도 일부를 포함할 수 있다. 박막트랜지스터(283)는 복수의 서브 픽셀(10-1, 10-2, 10-3) 각각에 대응되도록 복수로 형성될 수 있다. 박막트랜지스터(283)는 하부 전극(282)과 연결될 수 있다. 박막트랜지스터(283)는 디스플레이 패널(261)의 IC 칩 또는 프로세서(120)에 연결될 수 있고, 입력 신호를 전달받아 복수의 발광 소자(269)의 구동을 제어할 수 있다.
일 실시 예에서, 하부 전극(282)은 반사 전극(281a)과 동일한 소재로 이루어질 수 있다. 하부 전극(282)은 유기막층(280)에서 발광하는 빛을 상부 방향(예: +Y 방향)으로 반사시킬 수 있다. 또는, 일 실시 예의 하부 전극(282)은 투명한 도전성 물질로 이루어질 수 있다.
일 실시 예에서, 유기막층(280)은 발광 물질을 포함하여, 전자와 정공이 결합하여 발광하는 발광층을 포함할 수 있다. 도면에는 도시되지 않았으나, 유기막층(280) 및 하부 전극(282) 사이에는 전공 수송층 및 정공 주입층이 형성될 수 있고, 유기막층(280) 및 상부 전극(281) 중 연결 전극(281b) 사이에는 전자 수송층 및 전자 주입층이 형성될 수 있다.
일 실시 예에서, PDL 뱅크(290)는 기판(273)에 실질적으로 수직한 제1 면(291) 및 기판(273)에 실질적으로 평행한 제2 면(292)을 포함할 수 있다. 일 실시 예에서, 제1 면(291)은 발광 소자(269)로부터 출사되는 빛의 시야각을 제한하고, 직진 방향(예: +Y 방향)으로 가이드할 수 있다.
일 실시 예에서, 제2 면(292)은 상부에 반사 전극(281a)이 배치될 수 있고, CLC 필름(277)에 반사된 빛을 다시 CLC 필름(277)으로 반사할 수 있다. 제2 면(292)에 배치되는 반사 전극(281a)을 통하여, 디스플레이 패널(261)은 향상된 휘도 및/또는 색 재현성을 제공할 수 있다.
예를 들면, 디스플레이 패널(261)은 웨어러블 장치(200)에 이용되는 경우, 사용자와 디스플레이 패널(261) 사이 사이의 거리가 가까울 수 있다. 사용자와 거리가 가까운 경우, 디스플레이 패널(261)은 상대적으로 시야각 구현에 자유로울 수 있다. 일 실시 예에서, 웨어러블 장치(200)는 좁은 시야각을 이용하여, 상술한 PDL 뱅크(290) 및 상부 전극(281)에 의하여 고화질 및 높은 휘도의 영상을 제공할 수 있다.
도 10은 일 실시 예에 따르는 디스플레이 패널(261)을 도시한 단면도이다.
도 10을 참고하면, 일 실시 예에 따르는 PDL 뱅크(290)의 제3 면(293)은 제1 단부(293-1), 제2 단부(293-2) 및 중간 영역(298) 중 적어도 일부를 포함할 수 있다.
일 실시 예에서, 복수의 발광 소자(269)는 상호 인접한 제1 발광 소자(269-1) 및 제2 발광 소자(269-2)를 포함할 수 있다. 제1 발광 소자(269-1)는 적색(R), 녹색(G) 및 청색(b) 중 하나의 색으로 발광하는 제1 유기막층(282-1)을 포함할 수 있다. 제2 발광 소자(269-2)는 제1 유기막층(282-1)과 상이한 색으로 발광하는 제2 유기막층(282-2)을 포함할 수 있다.
일 실시 예에서, 제3 면(293)은 제1 발광 소자(269-1) 및 제2 발광 소자(269-2)를 연결할 수 있다. 예를 들면, 제1 발광 소자(269-1), 제3 면(293), 제2 발광 소자(269-2) 상에는 연결 전극(281b)이 배치될 수 있고, 연결 전극(281b)을 통하여 제1 발광 소자(269-1) 및 제2 발광 소자(269-2)가 전기적으로 연결될 수 있다.
일 실시 예에서, 제3 면(293)은 제1 발광 소자(269-1)의 외주면의 일부 영역과 마주보는 제1 단부(293-1) 및 제1 단부(293-1)에 반대되고, 제2 발광 소자(269-2)의 외주면의 일부 영역과 마주보는 제2 단부(293-2)를 포함할 수 있다.
일 실시 예에서, 제1 단부(293-1) 및 제2 단부(293-2)는 연결 전극(281b)이 증착되며 휘어지는 경사를 형성할 수 있다. 제1 단부(293-1) 및 제2 단부(293-2)의 경사에 따라 연결 전극(281b)이 안정적으로 증착될 수 있다. 예를 들면, 제1 단부(293-1) 및 제2 단부(293-2)가 기준면(예: 기판(273) 또는 X-Y 평면)으로부터 경사지는 각도(θ1)는, 대략 30도 내지 45도 일 수 있다.
일 실시 예에서, 제1 단부(293-1) 및 제2 단부(293-2)가 기판(273)으로부터 실질적으로 수직하거나 이에 인접한 각도로 휘어지거나, 90도 이상으로 휘어지는 경우, 연결 전극(281b)은 제1 단부(293-1) 및 제2 단부(293-2)에 대응되는 영역에서 단선되거나 파손될 수 있다. 일 실시 예의 제3 면(293)은, 상대적으로 매끄럽고 완만하게 경사짐으로써, 안정적으로 연결 전극(281b)이 배치될 수 있다.
일 실시 예에서, 제3 면(293)은 제1 단부(293-1) 및 제2 단부(293-2) 사이에 마련되고, 제2 면(292)과 실질적으로 평행한 중간 영역(298)을 포함할 수 있다. 일 실시 예에서, 중간 영역(298)의 양 단부의 경사에 대하여도, 제1 단부(293-1) 및 제2 단부(293-2)와 마찬가지로, 연결 전극(281b)이 안정적으로 증착될 수 있다. 예를 들면, 중간 영역(298)의 양 단부가, 인접한 영역 내지 기준면(예: 기판(273) 또는 X-Y 평면)으로부터 경사지는 각도(θ2)는, 대략 30도 내지 45도 일 수 있다.
이에 한정되지 아니하고, 도면에는 도시되지 않았으나, 일 실시 예의 제3 면(293)의 중간 영역(298)은 굴곡지는 곡면을 형성할 수 있다. 제3 면(293)은 곡면 구조를 통하여, 경사지는 구조와 비교하여, 상대적으로 더 안정적으로 상부에 연결 전극(281b)이 증착될 수 있다.
다양한 실시 예에 따른 디스플레이 패널(261)을 포함하는 웨어러블 장치(200)에 있어서, 디스플레이 패널(261)은, 복수의 발광 소자(269), 복수의 발광 소자(269)가 배치되는 기판(273), 복수의 발광 소자(269) 각각을 둘러싸며 구획하여 복수의 서브 픽셀(10-1, 10-2, 10-3)을 정의하는 PDL 뱅크(290) 및 기판(273)의 상부에 배치되고, 복수의 발광 소자(269)에서 출력되는 빛을 원편광으로 변환하는 CLC 필름(277)을 포함할 수 있다. 일 실시 예에서, 복수의 발광 소자(269) 각각은, 유기막층(280), 유기막층(280) 및 PDL 뱅크(290) 상에 배치되는 상부 전극(281) 및 유기막층(280) 및 PDL 뱅크(290)의 아래에 배치되는 하부 전극(282)을 포함할 수 있다. 일 실시 예에서, PDL 뱅크(290)는, 복수의 발광 소자(269) 각각의 외주면의 일부 영역을 둘러싸고, 기판(273)으로부터 실질적으로 수직한 제1 면(291) 및 CLC 필름(277)과 마주보고, 기판(273)과 실질적으로 평행한 제2 면(292)을 포함할 수 있다.
일 실시 예에서, PDL 뱅크(290)는, 복수의 발광 소자(269) 각각의 외주면에서 제1 면(291)과 상이한 일부 영역을 둘러싸고, 기판(273)으로부터 소정의 각도로 경사지는 제3 면(293)을 포함할 수 있다. 일 실시 예에서, 제3 면(293)은, 하나의 발광 소자(269)로부터 인접한 다른 발광 소자(269)로 이어질 수 있다.
일 실시 예에서, 상부 전극(281)은, PDL 뱅크(290)의 제2 면(292) 상에 배치되고, CLC 필름(277)에 의하여 반사된 빛을 반사하는 반사 전극(281a) 및 유기막층(280) 및 제3 면(293) 상에 배치되고, 복수의 발광 소자(269)를 상호 연결하는 연결 전극(281b)을 포함할 수 있다.
일 실시 예에서, 반사 전극(281a)은, 하부 전극(282)과 실질적으로 동일한 소재로 이루질 수 있다.
일 실시 예에서, 복수의 발광 소자(269)는, 상호 인접한 제1 발광 소자(269-1) 및 제2 발광 소자(269-2)를 포함할 수 있다. 일 실시 예에서, 제3 면(293)은, 제1 발광 소자(269-1)의 외주면의 일부 영역과 마주보는 제1 단부(293-1) 및 제1 단부(293-1)에 반대되고, 제2 발광 소자(269-2)의 외주면의 일부 영역과 마주보는 제2 단부(293-2)를 포함할 수 있다.
일 실시 예에서, 제1 단부(293-1) 및 제2 단부(293-2)는, 기판(273)으로부터 30도 및 45도 사이로 경사지도록 형성될 수 있다.
일 실시 예에서, 제3 면(293)은, 제1 단부(293-1) 및 제2 단부(293-2) 사이에 마련되고, 제2 면(292)과 실질적으로 평행한 중간 영역(298)을 포함할 수 있다. 일 실시 예에서, 제3 면(293)은, 중간 영역(298)의 양 단부에서, 인접한 영역으로부터 30 도 및 45도 사이로 경사지도록 형성될 수 있다.
일 실시 예에서, PDL 뱅크(290)는, 복수의 발광 소자(269)에서 출력되는 빛 중 제1 면(291)을 향하여 출력되는 빛이 통과하도록, 광투과성 물질로 이루어질 수 있다.
일 실시 예에서, 기판(273)은, 실리콘 웨이퍼로 이루어지고, 박막트랜지스터(283)가 마련되는 후면 기판(271) 및 후면 기판(271) 상에 마련되고, 복수의 발광 소자(269) 및 PDL 뱅크(290)가 마련되는 전면 기판(275)을 포함할 수 있다.
일 실시 예에서, 웨어러블 장치(200)는, 하우징(210) 및 하우징(210)에 위치하는 한 쌍의 렌즈(263)를 포함할 수 있다. 일 실시 예에서, 디스플레이 패널(261)은, 하우징(210) 내부에 배치되고, 한 쌍의 렌즈(263)를 향하여 빛을 출력할 수 있다.
일 실시 예에서, 웨어러블 장치(200)는, 하우징(210)의 외부를 촬영하는 복수의 카메라(230a, 230b, 230c, 230d) 및 복수의 카메라(230a, 230b, 230c, 230d)로부터 입력 데이터를 수신하고, 디스플레이 패널(261)로 출력 데이터를 전달하는 프로세서(120)를 포함할 수 있다.
일 실시 예에서, 하우징(210)은 제1 면(211a) 및 제1 면(211a)에 반대되고 한 쌍의 렌즈(263)가 마련되는 제2 면(211b)을 포함할 수 있다. 일 실시 예에서, 복수의 카메라(230a, 230b, 230c, 230d)는, 하우징(210)의 제1 면(211a)에 이격 배치되어, 하우징(210)의 제1 면(211a)이 향하는 방향을 촬영하는 복수의 전면 카메라(230a, 230b)를 포함할 수 있다.
일 실시 예에서, 복수의 카메라(230a, 230b, 230c, 230d)는, 하우징(210)의 제2 면(211b)에 배치되어, 디스플레이 패널(261)을 바라보는 객체의 움직임을 감지하는 시선 추적 카메라(230c)를 포함할 수 있다.
일 실시 예에서, 프로세서(120)는, 복수의 전면 카메라(230a, 230b) 각각으로부터 입력받은 데이터를 조합하고, 조합된 데이터를 가공하여 디스플레이 패널(261)을 제어할 수 있다.
일 실시 예에 따르는 디스플레이 패널(261)은, 복수의 발광 소자(269), 복수의 발광 소자(269)가 배치되는 기판(273), 복수의 발광 소자(269) 각각을 둘러싸며 구획하여 복수의 서브 픽셀(10-1, 10-2, 10-3)을 정의하는 PDL 뱅크(290) 및 기판(273)의 상부에 배치되고, 복수의 발광 소자(269)에서 출력되는 빛을 원편광으로 변환하는 CLC 필름(277)을 포함할 수 있다. 일 실시 예에서, 복수의 발광 소자(269) 각각은, 유기막층(280), 유기막층(280) 및 PDL 뱅크(290) 상에 배치되는 상부 전극(281) 및 유기막층(280) 및 PDL 뱅크(290)의 아래에 배치되는 하부 전극(282)을 포함할 수 있다. 일 실시 예에서, PDL 뱅크(290)는, 복수의 발광 소자(269) 각각의 외주면의 일부 영역을 둘러싸고, 기판(273)으로부터 실질적으로 수직한 제1 면(291), CLC 필름(277)과 마주보고, 기판(273)과 실질적으로 평행한 제2 면(292) 및 복수의 발광 소자(269) 각각의 외주면에서 제1 면(291)과 상이한 일부 영역을 둘러싸고, 기판(273)으로부터 소정의 각도로 경사지고, 하나의 발광 소자(269)로부터 인접한 다른 발광 소자(269)로 이어지는 제3 면(293)을 포함할 수 있다. 일 실시 예에서, 상부 전극(281)은, PDL 뱅크(290)의 제2 면(292) 상에 배치되고, CLC 필름(277)에 의하여 반사된 빛을 반사하는 반사 전극(281a) 및 유기막층(280) 및 제3 면(293) 상에 배치되고, 복수의 발광 소자(269)를 상호 연결하는 연결 전극(281b)을 포함할 수 있다.
일 실시 예에서, 복수의 발광 소자(269)는, 상호 인접한 제1 발광 소자(269-1) 및 제2 발광 소자(269-2)를 포함하고, 제3 면(293)은, 제1 발광 소자(269-1)의 외주면의 일부 영역과 마주보는 제1 단부(293-1) 및 제1 단부(293-1)에 반대되고, 제2 발광 소자(269-2)의 외주면의 일부 영역과 마주보는 제2 단부(293-2)를 포함할 수 있다.
일 실시 예에서, 제1 단부(293-1) 및 제2 단부(293-2)는, 기판(273)으로부터 30도 및 45도 사이로 경사지도록 형성될 수 있다.
일 실시 예에서, 제3 면(293)은, 제1 단부(293-1) 및 제2 단부(293-2) 사이에 마련되고, 제2 면(292)과 실질적으로 평행한 중간 영역(298)을 포함할 수 있다.
일 실시 예에서, 제3 면(293)은, 중간 영역(298)의 양 단부에서, 인접한 영역으로부터 30 도 및 45도 사이로 경사지도록 형성될 수 있다.
이상에서는 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위 상에서 청구하는 요지를 벗어남이 없이 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형실시들은 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.

Claims (15)

  1. 디스플레이 패널을 포함하는 웨어러블 장치에 있어서,
    상기 디스플레이 패널은,
    복수의 발광 소자;
    상기 복수의 발광 소자가 배치되는 기판;
    상기 복수의 발광 소자 각각을 둘러싸며 구획하여 복수의 서브 픽셀 영역을 정의하는 PDL 뱅크; 및
    상기 기판의 상부에 배치되고, 상기 복수의 발광 소자에서 출력되는 빛을 원편광으로 변환 CLC 필름을 포함하고,
    상기 복수의 발광 소자 각각은,
    유기막층, 상기 유기막층 및 상기 PDL 뱅크 상에 배치되는 상부 전극 및 상기 유기막층 및 상기 PDL 뱅크의 아래에 배치되는 하부 전극을 포함하고,
    상기 PDL 뱅크는,
    상기 복수의 발광 소자 각각의 외주면의 일부 영역을 둘러싸고, 상기 기판으로부터 실질적으로 수직한 제1 면; 및
    상기 CLC 필름과 마주보고, 상기 기판과 실질적으로 평행한 제2 면을 포함하는, 웨어러블 장치.
  2. 제1항에 있어서,
    상기 PDL 뱅크는,
    상기 복수의 발광 소자 각각의 외주면에서 상기 제1 면과 상이한 일부 영역을 둘러싸고, 상기 기판으로부터 소정의 각도로 경사지는 제3 면을 포함하고,
    상기 제3 면은, 하나의 발광 소자로부터 인접한 다른 발광 소자로 이어지는, 웨어러블 장치.
  3. 제1항 또는 제2항에 있어서,
    상기 상부 전극은,
    상기 PDL 뱅크의 상기 제2 면 상에 배치되고, 상기 CLC 필름에 의하여 반사된 빛을 반사하는 반사 전극 및
    상기 유기막층 및 상기 제3 면 상에 배치되고, 상기 복수의 발광 소자를 상호 연결하는 연결 전극을 포함하는, 웨어러블 장치.
  4. 제1항 내지 제3항 중 어느 하나에 있어서,
    상기 반사 전극은,
    상기 하부 전극과 실질적으로 동일한 소재로 이루어지는, 웨어러블 장치.
  5. 제1항 내지 제4항 중 어느 하나에 있어서,
    상기 복수의 발광 소자는, 상호 인접한 제1 발광 소자 및 제2 발광 소자를 포함하고,
    상기 제3 면은,
    상기 제1 발광 소자의 외주면의 일부 영역과 마주보는 제1 단부; 및
    상기 제1 단부에 반대되고, 상기 제2 발광 소자의 외주면의 일부 영역과 마주보는 제2 단부를 포함하는, 웨어러블 장치.
  6. 제1항 내지 제5항 중 어느 하나에 있어서,
    상기 제1 단부 및 상기 제2 단부는, 상기 기판으로부터 30도 및 45도 사이로 경사지도록 형성되는, 웨어러블 장치.
  7. 제1항 내지 제6항 중 어느 하나에 있어서,
    상기 제3 면은,
    상기 제1 단부 및 상기 제2 단부 사이에 마련되고, 상기 제2 면과 실질적으로 평행한 중간 영역을 포함하는, 웨어러블 장치.
  8. 제1항 내지 제7항 중 어느 하나에 있어서,
    상기 제3 면은,
    상기 중간 영역의 양 단부에서, 인접한 영역으로부터 30 도 및 45도 사이로 경사지도록 형성되는, 웨어러블 장치.
  9. 제1항 내지 제8항 중 어느 하나에 있어서,
    상기 PDL 뱅크는,
    상기 복수의 발광 소자에서 출력되는 빛 중 상기 제1 면을 향하여 출력되는 빛이 통과하도록, 광투과성 물질로 이루어지는, 웨어러블 장치.
  10. 제1항 내지 제9항 중 어느 하나에 있어서,
    상기 기판은,
    실리콘 웨이퍼로 이루어지고, 박막트랜지스터가 마련되는 후면 기판; 및
    상기 후면 기판 상에 마련되고, 상기 복수의 발광 소자 및 상기 PDL 뱅크가 마련되는 전면 기판을 포함하는, 웨어러블 장치.
  11. 제1항 내지 제10항 중 어느 하나에 있어서,
    상기 웨어러블 장치는,
    하우징; 및
    상기 하우징에 위치하는 한 쌍의 렌즈를 포함하고,
    상기 디스플레이 패널은, 상기 하우징 내부에 배치되고, 상기 한 쌍의 렌즈를 향하여 빛을 출력하는, 웨어러블 장치.
  12. 제1항 내지 제11항 중 어느 하나에 있어서,
    상기 웨어러블 장치는,
    상기 하우징의 외부를 촬영하는 복수의 카메라; 및
    상기 복수의 카메라로부터 입력 데이터를 수신하고, 상기 디스플레이 패널로 출력 데이터를 전달하는 프로세서를 포함하는, 웨어러블 장치.
  13. 제1항 내지 제12항 중 어느 하나에 있어서,
    상기 하우징은,
    제1 면 및 상기 제1 면에 반대되고 상기 한 쌍의 렌즈가 마련되는 제2 면을 포함하고,
    상기 복수의 카메라는,
    상기 하우징의 제1 면에 이격 배치되어, 상기 하우징의 제1 면이 향하는 방향을 촬영하는 복수의 전면 카메라를 포함하는, 웨어러블 장치.
  14. 제1항 내지 제13항 중 어느 하나에 있어서,
    상기 복수의 카메라는,
    상기 하우징의 제2 면에 배치되어, 상기 디스플레이 패널을 바라보는 객체의 움직임을 감지하는 시선 추적 카메라를 포함하는, 웨어러블 장치.
  15. 제1항 내지 제14항 중 어느 하나에 있어서,
    상기 프로세서는,
    상기 복수의 전면 카메라 각각으로부터 입력받은 데이터를 조합하고, 조합된 데이터를 가공하여 상기 디스플레이 패널을 제어하는, 웨어러블 장치.
PCT/KR2023/007305 2022-07-05 2023-05-26 디스플레이 패널을 포함하는 웨어러블 장치 WO2024010221A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2022-0082301 2022-07-05
KR20220082301 2022-07-05
KR1020220108438A KR20240005560A (ko) 2022-07-05 2022-08-29 디스플레이 패널을 포함하는 웨어러블 장치
KR10-2022-0108438 2022-08-29

Publications (1)

Publication Number Publication Date
WO2024010221A1 true WO2024010221A1 (ko) 2024-01-11

Family

ID=89453680

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/007305 WO2024010221A1 (ko) 2022-07-05 2023-05-26 디스플레이 패널을 포함하는 웨어러블 장치

Country Status (1)

Country Link
WO (1) WO2024010221A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100085732A (ko) * 2009-01-21 2010-07-29 삼성모바일디스플레이주식회사 유기 발광 표시 장치
KR20110042950A (ko) * 2009-10-20 2011-04-27 삼성모바일디스플레이주식회사 유기 발광 디스플레이 장치
US20140008618A1 (en) * 2012-07-06 2014-01-09 Jae Ik Lim Organic light emitting display device and method of manufacturing the same
KR20140014685A (ko) * 2012-07-25 2014-02-06 삼성디스플레이 주식회사 유기 발광 디스플레이 소자 및 그 제조 방법
KR20140139427A (ko) * 2013-05-27 2014-12-05 삼성디스플레이 주식회사 채널을 갖는 화소정의막이 구비된 유기발광 표시장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100085732A (ko) * 2009-01-21 2010-07-29 삼성모바일디스플레이주식회사 유기 발광 표시 장치
KR20110042950A (ko) * 2009-10-20 2011-04-27 삼성모바일디스플레이주식회사 유기 발광 디스플레이 장치
US20140008618A1 (en) * 2012-07-06 2014-01-09 Jae Ik Lim Organic light emitting display device and method of manufacturing the same
KR20140014685A (ko) * 2012-07-25 2014-02-06 삼성디스플레이 주식회사 유기 발광 디스플레이 소자 및 그 제조 방법
KR20140139427A (ko) * 2013-05-27 2014-12-05 삼성디스플레이 주식회사 채널을 갖는 화소정의막이 구비된 유기발광 표시장치

Similar Documents

Publication Publication Date Title
WO2022102954A1 (ko) 디스플레이를 포함하는 웨어러블 전자 장치
WO2022092517A1 (ko) 디스플레이를 포함하는 웨어러블 전자 장치, 그 디스플레이를 제어하는 방법, 및 그 웨어러블 전자 장치 및 케이스를 포함하는 시스템
WO2023017986A1 (ko) 영상 데이터 및 오디오 데이터 출력 방법 및 전자 시스템
WO2023008711A1 (ko) 조정 장치 및 조정 장치의 동작 방법
WO2024010221A1 (ko) 디스플레이 패널을 포함하는 웨어러블 장치
WO2024101747A1 (ko) 카메라를 포함하는 웨어러블 전자 장치 및 이의 동작 방법
WO2024029858A1 (ko) 디스플레이 모듈 제어 방법 및 상기 방법을 수행하는 전자 장치
WO2022234947A1 (ko) 웨어러블 전자 장치 및 3d 이미지 출력 방법
WO2024043611A1 (ko) 디스플레이 모듈 제어 방법 및 상기 방법을 수행하는 전자 장치
WO2024048937A1 (ko) 웨어러블 전자 장치 및 이를 포함하는 충전 시스템
WO2023080420A1 (ko) 가변형 그라운드를 포함하는 웨어러블 전자 장치
WO2024043564A1 (ko) 제 1 렌즈 상에 배치되는 발광 소자를 포함하는 렌즈 어셈블리 및 이를 포함하는 웨어러블 전자 장치
WO2024071903A1 (ko) 헤드 마운트 디스플레이 장치 및 그의 착용 상태 감지 방법
WO2024029720A1 (ko) 증강 현실에서 사용자를 인증하는 장치 및 방법
WO2024025126A1 (ko) 웨어러블 전자 장치 및 그 동작 방법
WO2023048462A1 (ko) 착색 가능한 렌즈의 광 투과도를 조정하는 전자 장치 및 그 제어 방법
WO2024071681A1 (ko) 이미지를 제공하는 방법 및 이를 지원하는 웨어러블 전자 장치
WO2024048986A1 (ko) 사용자 의도를 고려해서 주변 기기를 제어하기 위한 장치 및 방법
WO2023048466A1 (ko) 전자 장치 및 컨텐츠 표시 방법
WO2024043468A1 (ko) 객체들을 이용하여 인증 패턴을 등록 및 해제하는 장치 및 방법
WO2023080419A1 (ko) 비전 정보를 이용하여 전자기기를 제어하는 웨어러블 전자 장치 및 방법
WO2023136533A1 (ko) 간섭 제거 방법 및 상기 방법을 수행하는 전자 장치
WO2024076058A1 (ko) 센서를 포함하는 웨어러블 전자 장치 및 이의 동작 방법
WO2024043438A1 (ko) 카메라 모듈을 제어하는 웨어러블 전자 장치 및 그 동작 방법
WO2023120892A1 (ko) 글린트를 이용한 시선 추적에서 광원을 제어하는 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23835690

Country of ref document: EP

Kind code of ref document: A1