WO2024075969A1 - 디스플레이 장치 및 이의 동작 방법 - Google Patents

디스플레이 장치 및 이의 동작 방법 Download PDF

Info

Publication number
WO2024075969A1
WO2024075969A1 PCT/KR2023/012060 KR2023012060W WO2024075969A1 WO 2024075969 A1 WO2024075969 A1 WO 2024075969A1 KR 2023012060 W KR2023012060 W KR 2023012060W WO 2024075969 A1 WO2024075969 A1 WO 2024075969A1
Authority
WO
WIPO (PCT)
Prior art keywords
display panel
light
area
light emission
deformation
Prior art date
Application number
PCT/KR2023/012060
Other languages
English (en)
French (fr)
Inventor
김광돈
전병우
이재린
천무호
Original Assignee
삼성전자 주식회사
성균관대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사, 성균관대학교 산학협력단 filed Critical 삼성전자 주식회사
Publication of WO2024075969A1 publication Critical patent/WO2024075969A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K59/00Integrated devices, or assemblies of multiple devices, comprising at least one organic light-emitting element covered by group H10K50/00
    • H10K59/40OLEDs integrated with touch screens

Definitions

  • the technical idea of the present disclosure relates to a display device, and more specifically, to a display device for detecting tactile information and a method of operating the same.
  • display devices are image display devices for sharing various information (e.g., tactile information) sensed from users or devices with the other party, and organic light emitting display devices (Organic Light Emitting Display, Various types of display devices such as OLED, Liquid Crystal Display, LCD, etc. are being developed.
  • the conventional display device had a technical limitation in that it could only sense rough tactile information about an object in contact with the display panel using a specific sensor (eg, an electrostatic sensor or an ultrasonic sensor, etc.).
  • a specific sensor eg, an electrostatic sensor or an ultrasonic sensor, etc.
  • a display device includes a display panel including a plurality of pixels; A memory that stores one or more instructions; and one or more processors.
  • the one or more processors may change the light emission pattern of pixels included in a contact area between the display panel and an object by executing the one or more instructions.
  • the one or more processors may measure a first reflection pattern reflected from the contact area according to the changed light emission pattern by executing the one or more instructions.
  • the one or more processors may detect surface roughness of the object based on the first reflection pattern by executing the one or more instructions.
  • the one or more processors may estimate the degree of deformation of the transparent layer of the display panel caused by contact between the display panel and an object by executing the one or more instructions.
  • the one or more processors may measure a second reflection pattern reflected from the contact area based on the degree of deformation of the transparent layer by executing the one or more instructions.
  • the one or more processors may detect the hardness of the object based on the second reflection pattern by executing the one or more instructions.
  • a method of operating a display device may include changing a light emission pattern of pixels included in a contact area between a display panel and an object.
  • a method of operating a display device may include measuring a first reflection pattern reflected from the contact area according to the changed light emission pattern.
  • a method of operating a display device may include detecting surface roughness of the object based on the first reflection pattern.
  • a method of operating a display device may include estimating the degree of deformation of the transparent layer of the display panel caused by contact between the display panel and an object.
  • a method of operating a display device may include measuring a second reflection pattern reflected from the contact area based on the degree of deformation of the transparent layer.
  • a method of operating a display device may include detecting the hardness of the object based on the second reflection pattern.
  • the display panel may include a plurality of pixels.
  • a computer-readable recording medium on which a program for executing a method of operating a display device according to an embodiment of the present disclosure is recorded may be provided.
  • FIG. 1 is a block diagram showing a display device according to an embodiment.
  • Figure 2 is a schematic plan view showing a display device according to one embodiment.
  • 3A shows a picture of a pixel in a display device according to an embodiment. An enlarged view is shown.
  • Figure 3b shows a detection area of tactile information according to one embodiment.
  • Figure 3C shows a detection area of tactile information according to another embodiment.
  • Figure 4 shows the structure of a display panel according to one embodiment.
  • Figure 5 shows a method of operating a display device according to an embodiment.
  • Figure 6 shows a method of operating a display device according to an embodiment.
  • Figure 7 is a diagram showing an operation to change a light emission pattern according to an embodiment.
  • FIG. 8 is a diagram illustrating an operation for estimating the degree of deformation of a display panel according to an embodiment.
  • FIG. 9 is a block diagram illustrating an electronic device including a processor according to an embodiment.
  • Figure 10 is a block diagram showing an electronic device including a display module according to an embodiment.
  • the term “user” refers to a person who controls a system, function, or operation, and may include a developer, administrator, or installer.
  • 'image' or 'picture' may refer to a still image, a moving image consisting of a plurality of consecutive still images (or frames), or a video.
  • a “pixel” is the minimum unit that constitutes an image displayed on a display device and may include LED (Light Emitting Diode), OLED (Organic LED), and AMOLED (Active Matrix OLED). .
  • sub pixel region may mean a region including a red sub-pixel, a green sub-pixel, and a blue sub-pixel.
  • empty space inside a pixel may mean the remaining area within the pixel excluding the sub-pixel area.
  • “tactile information” may include information about the surface roughness or hardness of an object.
  • FIG. 1 is a block diagram showing a display device according to an embodiment.
  • the display device 100 includes a display panel (DP) including a plurality of pixels (PX), a timing controller 111, a scan driver 112, a data driver 113, and a power management circuit (power management IC, PMIC) 120.
  • DP display panel
  • PX pixels
  • PX timing controller
  • scan driver 112 a scan driver
  • data driver 113 a data driver
  • PMIC power management circuit
  • the timing controller 111 may provide a data value (DATA), a data control signal (DCS), etc. for each frame to the data driver 113.
  • DATA data value
  • DCS data control signal
  • the timing controller 111 may provide a clock signal, a scan control signal (SCS), etc. to the scan driver 112.
  • SCS scan control signal
  • the data driver 113 generates data voltages to be provided to the data lines DL1 to DLm using the data value (DATA) and the data control signal (DCS) received from the timing controller 111.
  • DATA data value
  • DCS data control signal
  • the scan driver 112 receives a scan control signal (SCS) (including a clock signal, a scan start signal, etc.) from the timing controller 111 and provides scan signals to be provided to the scan lines (SL1 to SLn).
  • SCS scan control signal
  • n is a natural number.
  • the display panel DP may include a light receiving layer, a light emitting layer, and a transparent layer stacked in a vertical direction.
  • the light-receiving layer may include at least one light detector that measures a reflection pattern
  • the light-emitting layer may be disposed on top of the light-receiving layer and include a plurality of pixels (PX).
  • the transparent layer is disposed on top of the light-emitting layer in the display panel DP and may be made of a stretchable material.
  • the display panel DP includes a plurality of pixels (eg, a plurality of self-luminous elements) PX.
  • the plurality of pixels PX may be connected to corresponding data lines and scan lines, respectively.
  • each of the plurality of pixels PX may be a red pixel that emits red light, a blue pixel that emits blue light, or a green pixel that emits green light. there is.
  • the plurality of pixels PX may include white, cyan, magenta, and yellow pixels instead of red, green, and blue pixels.
  • a circuit including at least one of the timing controller 111, the scan driver 112, and the data driver 113 may be referred to as a display driver IC (DDI) 110.
  • DPI display driver IC
  • the display driving circuit 110 may be provided in the form of an integrated circuit.
  • power management circuit 120 may receive external power (e.g., battery voltage). In one example, the power management circuit 120 may generate a voltage to be supplied to the display driving circuit 110 based on the external input voltage.
  • external power e.g., battery voltage
  • the power management circuit 120 may generate a voltage to be supplied to the display driving circuit 110 based on the external input voltage.
  • the power management circuit 120 may generate a voltage to be provided to the timing controller 111 of the display driving circuit 110.
  • power management circuit 120 may include at least one regulator.
  • the at least one regulator may generate an output voltage having various voltage levels from a voltage supplied from an external power source.
  • the at least one regulator may be formed as a controller or disposed within the controller.
  • the at least one regulator may include a buck-convertor, but is not limited thereto.
  • the at least one regulator may include at least one of a buck-boost converter, a boost converter, or a Cuk converter.
  • the device and method according to an embodiment of the present disclosure can provide a display device capable of detecting the surface roughness or hardness of an object along with an image display function, and a method of operating the same.
  • Figure 2 is a schematic plan view 200 showing a display device according to one embodiment.
  • the display device is provided on a substrate (SUB) 210 and includes pixels (PXL1, PXL2, PXL3) (251-1, 251-2, 251-3) each including at least one light-emitting element. ) and a wiring unit connecting the pixels (PXL1, PXL2, PXL3) (251-1, 251-2, 251-3) and the driving unit.
  • the substrate (SUB) 210 may include a display area (DA) 230 and a non-display area (NDA) 240.
  • DA display area
  • NDA non-display area
  • the display area (DA) 230 may be an area where pixels (PXL1, PXL2, PXL3) 251-1, 251-2, and 251-3 that display images are provided.
  • the non-display area (NDA) 240 includes a driver for driving the pixels (PXL1, PXL2, PXL3) (251-1, 251-2, 251-3) and the pixels (PXL1, PXL2, PXL3) (251- 1, 251-2, 251-3) and the driving unit may be an area where a portion of the wiring unit is provided.
  • the surface of the display area (DA) 230 may include a transparent layer made of a stretchable material to detect the hardness of an object in contact with the display device.
  • the non-display area (NDA) 240 may be located adjacent to the display area (DA) 230.
  • the non-display area (NDA) 240 may be provided on at least one side of the display area (DA) 230 .
  • the non-display area (NDA) 240 may surround the perimeter (or edge) of the display area (DA) 230.
  • the wiring unit may electrically connect the driver and the pixels (PXL1, PXL2, and PXL3) (251-1, 251-2, and 251-3).
  • the wiring unit provides signals to the pixels (PXL1, PXL2, PXL3) (251-1, 251-2, 251-3) and the pixels (PXL1, PXL2, PXL3) (251-1, 251-2, 251-3) )
  • It may include signal lines connected to each other, for example, a fan-out line connected to a scan line, a data line, an emission control line, etc.
  • the substrate (SUB) 210 may include a transparent insulating material to allow light to pass through.
  • the substrate (SUB) 210 may be a rigid substrate or a flexible substrate.
  • the pixels (PXL1, PXL2, PXL3) 251-1, 251-2, and 251-3 include a first pixel (PXL1), a second pixel (PXL2), and a third pixel (PXL3). It can be included.
  • the first pixel (PXL1) may be a red pixel
  • the second pixel (PXL2) may be a green pixel
  • the third pixel (PXL3) may be a blue pixel.
  • the pixels (PXL1, PXL2, PXL3) 251-1, 251-2, and 251-3 may emit light in colors other than red, green, and blue, respectively.
  • the first pixel (PXL1) (251-1), the second pixel (PXL2) (251-2), and the third pixel (PXL3) (251-3) are sequentially arranged in the second direction (DR2). can be placed.
  • each of the pixels (PXL1, PXL2, PXL3) 251-1, 251-2, and 251-3 includes at least one light-emitting element (e.g., sub-pixel) driven by a corresponding scan signal and data signal. (sub pixel)).
  • the light emitting device may have a small size ranging from nanoscale (or nanometer) to microscale (or micrometer) and may be connected in parallel with adjacent light emitting devices, but is not limited to this.
  • Each of the pixels (PXL1, PXL2, PXL3) 251-1, 251-2, and 251-3 may constitute a light source, and the display device contacts the display panel by measuring a reflection pattern according to the changed light emission pattern of the pixels. The surface roughness and/or hardness of an object can be detected.
  • FIG. 3A shows an enlarged view 310 of a pixel included in a display panel according to one embodiment.
  • sub pixel region may mean a region including a red sub-pixel, a green sub-pixel, and a blue sub-pixel.
  • empty space inside a pixel may mean the remaining area within the pixel excluding the sub-pixel area.
  • the display panel of the display device may be composed of first to fourth pixels.
  • the first pixel may include a first sub-pixel area 311 and a first area 321 that is an empty space within the first pixel.
  • the second pixel may include a second sub-pixel area 312 and a second area 322 that is an empty space within the second pixel.
  • the third pixel may include a third sub-pixel area 313 and a third area 323 that is an empty space within the third pixel.
  • the fourth pixel may include a fourth sub-pixel area 314 and a fourth area 324 that is an empty space within the fourth pixel.
  • a display device may detect the surface roughness and/or hardness of an object in contact with the display panel based on the first to fourth regions 321 to 324 of the display panel.
  • a description of the specific surface roughness detection area and hardness detection area is provided in FIG. 3B.
  • the display panel is shown as consisting of first to fourth pixels, but it is not limited thereto, and the number of pixels constituting the display panel of the display device according to the embodiment of the present disclosure is determined for the purpose of manufacturing the device or It may change depending on the manufacturing method.
  • Figure 3b shows a detection area of tactile information according to one embodiment.
  • a detection area of tactile information of an object is shown on the display panel of the display device 100 in FIG. 1 .
  • a plan view 350 of a pixel region 353 corresponding to one pixel in a display panel including a plurality of pixels is viewed from the z-axis direction.
  • the pixel area may refer to an area allocated to one pixel to perform the function of the pixel in the display panel.
  • the pixel area 353 may include a first sub-area 355-1 and a second sub-area 355-2.
  • the first sub-area 355-1 is composed of at least one sub-pixel (e.g., at least one of red, green, or blue sub-pixels) included in the pixel. may include an area that emits light using at least one subpixel.
  • the second sub-area 355-2 is an area that does not overlap with the first sub-area 355-1 among the pixel areas, and is used to detect the surface roughness and/or hardness of an object in contact with the display panel.
  • Can include areas.
  • the surface roughness detection area and the hardness detection area of the object may overlap in at least one area included in the second sub-area 355-2.
  • a display device detects the surface illumination detection area and hardness of an object in an empty space of the pixel area in the display panel (e.g., the second sub-area 355-2 in the pixel area). By including overlapping areas, it is possible to provide a display device with an added function of detecting tactile information of a touched object while maintaining the form and image expression function of the existing display device.
  • Figure 3C shows a detection area of tactile information according to another embodiment.
  • a detection area of tactile information of an object is shown on the display panel of the display device 100 in FIG. 1 .
  • FIG. 3C it is a top view 370 of a pixel region 373 corresponding to one pixel in a display panel including a plurality of pixels, viewed from the z-axis direction.
  • the pixel area may refer to an area allocated to one pixel to perform the function of the pixel in the display panel.
  • the pixel area 373 may include a first sub-area 375-1, a second sub-area 375-2, and a third sub-area 375-3.
  • the first sub-area 375-1 is composed of at least one sub-pixel (e.g., at least one of red, green, or blue sub-pixels) included in the pixel. may include an area that emits light using at least one subpixel.
  • the second sub-area 375-2 is an area that does not overlap with the first sub-area 375-1 and the third sub-area 375-3 among the pixel areas, and is an area of the pixel area that does not overlap with the first sub-area 375-1 and the third sub-area 375-3. It may include an area for detecting surface roughness.
  • the third sub-area 375-3 is an area that does not overlap with the first sub-area 375-1 and the second sub-area 375-2 among the pixel areas, and is an area of the object in contact with the display panel. It may include an area for detecting hardness.
  • the surface roughness detection area and the hardness detection area of the object may include different areas among the second sub-areas of the display panel.
  • the display device is a surface of an object in an empty space of the pixel area in the display panel (e.g., the second area 375-2 and the third area 375-3 in the pixel area).
  • an illumination detection area and a hardness detection area it is possible to provide a display device with an added function of detecting tactile information of a touched object while maintaining the form and image expression function of the existing display device.
  • Figure 4 shows the structure of a display panel according to one embodiment.
  • the structure 400 of the display panel of the display device 100 in FIG. 1 is shown.
  • the display panel may include a transparent layer 410, a light-emitting layer 430, and a light-receiving layer 450 stacked in a vertical direction.
  • the transparent layer 410 is disposed on top of the light-emitting layer 430 of the display panel and may be implemented with an elastic material (eg, elastomer).
  • an elastic material eg, elastomer
  • the shape of the transparent layer 410 may be deformed due to contact between the display panel and an object, and a plurality of light emitting layers 430 may be formed based on the deformed shape or degree of deformation of the transparent layer 410.
  • the reflection pattern of light emitted from the pixels (eg, 431, 433, and 435) may be changed.
  • the light-emitting layer 430 is disposed on the light-receiving layer 450 of the display panel and displays a plurality of pixels (e.g., the first pixel 431, the second pixel 433, and the third pixel 435). )) may be included.
  • the processor when contact occurs between the display panel and the object, selects pixels included in the contact area between the display panel and the object (e.g., the first pixel 431) among the plurality of pixels included in the light emitting layer 430. , the second pixel 433 and the third pixel 435) can be identified.
  • the light emission pattern of the light emitting layer 430 is the wavelength between the lights emitted from the pixels (e.g., the first pixel 431, the second pixel 433, and the third pixel 435) included in the contact area. It may be changed based on at least one of the difference, the reflectivity of the transparent layer of the display panel, or the resolution required when measuring surface roughness.
  • the processor determines the emission color of the pixels (e.g., the first pixel 431, the second pixel 433, and the third pixel 435) of the light-emitting layer 430 included in the contact area between the display panel and the object.
  • the emission pattern can be changed by changing the type (e.g. red (R), green (G), blue (B)), emission form, emission period, and emission direction.
  • the light receiving layer 450 may include a first photo detector 451, a second photo detector 453, and a third photo detector 455.
  • the first photo detector 451, the second photo detector 453, and the third photo detector 455 of the light receiving layer 450 are connected to pixels of the light emitting layer 430 (e.g., the first pixel 431, It may be placed in a position that does not overlap with the second pixel 433 and the third pixel 435.
  • the first light detector 451, the second light detector 453, and the third light detector 455 may measure the reflection pattern of the light emitted from the pixels and reflected from the contact surface with the object. there is.
  • the first light detector 451 included in the light receiving layer 450 emits light from a plurality of pixels (e.g., 431, 433, and 435) of the light emitting layer 430 through the first passage 441 to detect the object.
  • the reflection pattern reflected from the contact surface can be measured.
  • the first passage 441 connects the light emitting layer 430 and the light receiving layer 450 and may refer to a passage through which the first light detector 451 can measure the reflection pattern (or reflected light).
  • the second light detector 453 included in the light receiving layer 450 emits light from a plurality of pixels (e.g., 431, 433, and 435) of the light emitting layer 430 through the second passage 443 to detect the object.
  • the reflection pattern reflected from the contact surface can be measured.
  • the second passage 443 connects the light emitting layer 430 and the light receiving layer 450 and may refer to a passage through which the second light detector 453 can measure the reflection pattern (or reflected light).
  • the third light detector 455 included in the light receiving layer 450 emits light from a plurality of pixels (e.g., 431, 433, and 435) of the light emitting layer 430 through the third passage 445 to detect the object.
  • the reflection pattern reflected from the contact surface can be measured.
  • the third passage 445 connects the light emitting layer 430 and the light receiving layer 450 and may refer to a passage through which the third light detector 455 can measure the reflection pattern (or reflected light).
  • the processor may identify the contact area between the surface layer (eg, transparent layer 410) of the display panel and the object based on the amount of light received by the light receiving layer 450.
  • the surface layer eg, transparent layer 410
  • the processor may detect the surface roughness or hardness of an object in contact with a surface layer (eg, transparent layer 410) of the display panel based on the reflection pattern measured by the light receiving layer 450.
  • a surface layer eg, transparent layer 410
  • Figure 5 shows a method of operating a display device according to an embodiment.
  • this is a diagram 500 for explaining the operation of changing the light emission pattern on the contact surface with the object by the display device 100 of FIG. 1 and the operation of detecting the surface illuminance of the object based on the changed light emission pattern.
  • the operation of changing the light emission pattern and detecting surface roughness by the processor of the display device may include steps 510, 520, 530, 540, and 550.
  • the processor may change the light emission pattern of the pixels included in the contact area.
  • the processor when a contact area by an object is detected on the display panel, changes the light emission pattern of the pixels included in the light emitting layer of the display panel to a predetermined light emission pattern (e.g., a light emission pattern for measuring the surface illuminance of an object). It can be changed to .
  • a predetermined light emission pattern e.g., a light emission pattern for measuring the surface illuminance of an object.
  • the processor creates a light emission pattern based on at least one of the wavelength difference between the lights emitted from the pixels included in the contact area, the reflectivity of the transparent layer of the display panel, or the resolution required when measuring surface roughness. You can change it.
  • the processor may change the light emission pattern by changing the type of light emission color, light emission type, light emission period, and light emission direction of the pixels included in the contact area between the display panel and the object.
  • the processor may change the light emission pattern so that the first area of the contact area emits red light and the second area emits green light.
  • the processor causes the first region to emit red light, the second region to emit green light, and the third region to emit blue light among the contact regions, and then the color emitted for each region changes according to a predetermined time.
  • the emission pattern can be changed. The operation of changing the light emission pattern for measuring the surface roughness of an object is explained in FIG. 7, which will be described later.
  • the processor may measure the first reflection pattern.
  • the processor may measure a first reflection pattern of light emitted from pixels included in the contact area and reflected from the contact surface with the object based on the changed light emission pattern.
  • the processor may detect the surface roughness of the object based on the first reflection pattern.
  • the processor may detect the surface illuminance value of an object in contact with the display surface by substituting the measured first reflection pattern into a predetermined algorithm to calculate a surface illuminance value corresponding to the first reflection pattern.
  • the processor may detect the surface roughness value of an object in contact with the display surface by searching a database for data corresponding to the measured first reflection pattern and identifying the surface roughness value that matches the first reflection pattern. there is. At this time, the surface roughness value may be stored in a database in association with data corresponding to the first reflection pattern.
  • the processor may estimate the degree of deformation of the display panel.
  • the processor may measure the deformation time of the transparent layer of the display panel, the deformation recovery time of the transparent layer, and the deformation over time.
  • the deformation time of the transparent layer may refer to the period from the start of contact between the display panel and the object to the time when the object can no longer be compressed due to contact.
  • the deformation recovery time of the transparent layer may refer to the period from the time when the object can no longer be compressed due to contact between the display panel and the object until the time when the object recovers its original state.
  • the processor may estimate the degree of deformation (e.g., deformation indentation, or deformation area) of the transparent layer caused by contact between the display panel and the object based on the deformation time, deformation recovery time, and deformation over time of the transparent layer. there is.
  • degree of deformation e.g., deformation indentation, or deformation area
  • the processor may measure the second reflection pattern.
  • the processor creates a second reflection pattern of light emitted from pixels included in the contact area and reflected from the contact surface with the object based on the degree of deformation (e.g., deformation indentation, or deformation area) of the transparent layer of the display panel. It can be measured.
  • degree of deformation e.g., deformation indentation, or deformation area
  • the processor may detect the hardness of the object based on the second reflection pattern.
  • the processor may detect the hardness value of an object in contact with the display surface by substituting the measured second reflection pattern into a predetermined algorithm to calculate a surface roughness value corresponding to the second reflection pattern.
  • the processor may detect the surface roughness value of an object in contact with the display surface by searching a database for data corresponding to the measured second reflection pattern and identifying a hardness value that matches the second reflection pattern. .
  • the hardness value may be stored in the database in association with data corresponding to the second reflection pattern.
  • the display device detects the surface roughness of a contacted object by adjusting the light emission pattern of the display panel and detects the hardness and roughness of the object by estimating the degree of deformation of the transparent layer of the display panel, thereby requiring separate additional equipment. It is possible to detect various tactile information without
  • Figure 6 shows a method of operating a display device according to an embodiment.
  • this is a diagram 600 for explaining an identification operation for a contact area between a display panel and an object by the display device 100 of FIG. 1.
  • an identification operation for a contact area by a processor of a display device may include steps 611, 613, and 615.
  • the processor may identify whether the amount of light received in a sub-region included in the display panel is less than a threshold.
  • the processor may determine that the amount of light received has temporarily decreased due to contact between the display panel and the object and perform step 613.
  • the processor may perform step 615 by determining that the amount of light received is greater than or equal to the threshold because no contact occurs between the display panel and the object.
  • the processor may identify the contact area between the display panel and the object.
  • the processor may identify the sub-area included in the display panel as a contact area between the display panel and the object.
  • the processor may identify a non-contact area between the display panel and the object.
  • the processor may identify the sub-area included in the display panel as a non-contact area between the display panel and the object.
  • Figure 7 is a diagram showing an operation to change a light emission pattern according to an embodiment.
  • this is a diagram 700 for explaining an operation for changing the light emission pattern by the display device 100 of FIG. 1.
  • the display panel of the display device may include a contact area 713 and non-contact areas 711 and 715 between the display panel and the object.
  • the processor may identify the contact area 713 between the display panel and the object based on the embodiment described above in FIG. 6 .
  • the processor may change the light emission pattern of pixels included in the contact area 713.
  • the processor changes the light emission pattern based on at least one of the wavelength difference between the lights emitted from the pixels included in the contact area, the reflectivity of the transparent layer of the display panel, or the resolution required when measuring surface roughness. You can.
  • the processor may change the light emission pattern by changing the type of light emission color, light emission type, light emission period, and light emission direction of the pixels included in the contact area between the display panel and the object.
  • the processor may change the light emission pattern of the pixels included in the contact area so that the wavelength difference between the lights emitted from the pixels included in the contact area is greater than or equal to a threshold.
  • the processor causes the pixels in the first contact area 731-1 to emit red light and the pixels in the second contact area 731-2 to emit blue light so that the wavelength difference between the lights emitted from the pixels is greater than a threshold value.
  • the light emission pattern can be changed to the first light emission pattern to emit.
  • the processor may change the light emission pattern of the pixels included in the contact area so that the light emission color of the pixels included in the contact area changes at a predetermined cycle (or rotation cycle).
  • the processor repeats three cycles to change the light emitting color emitted from the pixels included in the first to third contact areas 733-1 to 733-3 in a counterclockwise (or clockwise) direction.
  • the light emission pattern can be changed to a second light emission pattern so as to rotate.
  • the processor may, based on the second light emission pattern, during the first cycle, the pixels in the first contact area 733-1 emit red light, the pixels in the second contact area 733-2 emit blue light, and the pixels in the second contact area 733-2 emit blue light.
  • the pixels of the contact area 733-3 may be configured to emit green light.
  • the pixels of the first contact area 733-1 emit blue light
  • the pixels of the second contact area 733-2 emit green light
  • the third contact area (733-2) emits green light.
  • the pixels of 733-3) may be configured to emit red light.
  • the pixels in the first contact area 733-1 emit green light
  • the pixels in the second contact area 733-2 emit red light
  • the pixels in the third contact area 733-1 emit red light.
  • the pixels of (733-3) may be configured to emit blue light.
  • the processor may measure the reflection pattern of light emitted from pixels included in the contact area and reflected from the contact surface with the object based on the changed light emission pattern.
  • the processor may detect the surface roughness of an object in contact with the display surface by substituting the measured reflection pattern into a predetermined algorithm or searching a database to calculate a surface roughness value corresponding to the reflection pattern.
  • the processor of the display device changes the light emission pattern of the pixels in the contact area, measures the reflection pattern according to the changed light emission pattern, and detects the contact with the object based on the measured reflection pattern.
  • a display device capable of detecting the surface roughness of an object can be provided.
  • the changed light emission pattern in the contact area with the object is explained based on the first light emission pattern and the second light emission pattern, but it is not limited thereto and includes the type of light emission color, light emission form, light emission cycle, and light emission of the pixels included in the contact area. Depending on the direction change, it can change into various light emission patterns.
  • FIG. 8 is a diagram illustrating an operation for estimating the degree of deformation of a display panel according to an embodiment.
  • this is a diagram 800 for explaining the operation of estimating the degree of deformation of the display panel by the display device 100 of FIG. 1.
  • the display panel of the display device may include a transparent layer and a light-receiving layer.
  • the first shape 830-2 and the second shape 850-2 are plan views looking at an object in contact with the display panel in the z-axis direction from the light detector of the light receiving layer of the display panel.
  • the light receiving layer of the display panel may include a light detector 811 for estimating the degree of deformation of the transparent layer due to contact between the display panel and an object.
  • the light detector 811 is a module for detecting light in the display panel or measuring the amount of light received or reflection pattern and may include a CCD camera (charge-coupled device camera) or an image sensor.
  • the processor may use the photodetector 811 to measure the strain time, strain recovery time, and strain over time of the display panel (e.g., transparent layer) due to contact between the display panel (e.g., transparent layer) and an object. there is.
  • the deformation time of the transparent layer may refer to the period from the start of contact between the display panel and the object to the time when the object can no longer be compressed due to contact.
  • the deformation recovery time of the transparent layer refers to the period from the point when the object can no longer be compressed due to contact between the display panel and the object to the point when the object recovers its original state, and the degree of deformation of the transparent layer is determined by the contact between the display panel and the object. It may mean the area transformed due to
  • the first state 830-1 is a state immediately before the object contacts the display panel (e.g., transparent layer), and the shape captured by the photo detector 811 may correspond to the first shape 830-2. there is. At this time, the width of the transparent layer before deformation due to contact with the object may be 'a' (a>0).
  • the second state 850-1 is a state in which an object is in contact with a display panel (e.g., a transparent layer), and the shape captured by the photo detector 811 may correspond to the second shape 850-2. .
  • the width of the transparent layer after deformation due to contact with the object may be 'b' (b>a>0).
  • the processor estimates the degree of deformation (e.g., deformation indentation, or deformation area) of the transparent layer caused by contact between the display panel and the object based on the deformation time, deformation recovery time, and deformation width over time of the transparent layer. You can.
  • degree of deformation e.g., deformation indentation, or deformation area
  • the processor may measure a reflection pattern of light emitted from pixels included in the contact area and reflected from the contact surface with the object based on the estimated degree of deformation of the transparent layer.
  • the processor may detect the hardness of an object in contact with the display surface by substituting the measured reflection pattern into a predetermined algorithm or searching a database to calculate a hardness value corresponding to the reflection pattern.
  • the processor of the display device estimates the degree of deformation of the transparent layer due to the contact, and detects the hardness of the object in contact based on the estimated degree of deformation of the transparent layer. can be provided.
  • FIG. 9 is a block diagram 900 showing an electronic device including a processor according to an embodiment.
  • the electronic device 1000 includes a vision sensor 1100, an image sensor 1200, a main processor 1300, a working memory 1400, a storage 1500, a display device 1600, and a user interface ( 1700) and a communication unit 1800. Meanwhile, the present disclosure is not limited to this, and the electronic device 1000 may be implemented so that at least some of the above-described components are omitted or additional components are added.
  • the display device 100 described above with reference to FIGS. 1 to 8 may be applied as the display device 1600, and the processor may be applied as the main processor 1300.
  • the vision sensor 1100 may sense an object, generate event signals, and transmit the generated event signals to the main processor 1300. 1 to 8B, the vision sensor 1100 may be interpreted as a component included in the image sensor 1200, but is not limited thereto, and the vision sensor 1100 according to an embodiment of the present disclosure is the vision sensor 100.
  • the electronic device 1000 can function or operate as an independent sensor.
  • the image sensor 1200 may generate image data, such as raw image data, based on the received optical signal and provide the image data to the main processor 1300.
  • the main processor 1300 can control the overall operation of the electronic device 1000 and can identify whether or not there is contact between the display panel and an object on the display panel or the contact area.
  • the main processor 1300 may change the emission pattern of pixels included in the contact area between the display panel and the object, and measure the first reflection pattern of lights reflected from the contact surface between the display panel and the object according to the changed emission pattern.
  • the main processor 1300 estimates the degree of deformation of the transparent layer of the display panel that is deformed due to contact between the display panel and the object, the deformation recovery time, and the deformation over time. A second reflection pattern of lights reflected from a contact surface between objects can be measured.
  • the main processor 1300 may detect the surface roughness of the object in contact based on the measured second reflection pattern.
  • the working memory 1400 may store data used in the operation of the electronic device 1000.
  • the working memory 1400 may temporarily store packets or frames processed by the main processor 1300.
  • the working memory 1400 may provide a first reflection pattern of lights reflected from the contact surface between the display panel and the object according to the changed light emission pattern or a first reflection pattern of lights reflected from the contact surface between the display panel and the object according to the degree of deformation of the transparent layer of the display panel.
  • the second reflection pattern of lights can be temporarily stored.
  • the working memory 1400 may include volatile memory such as Dynamic RAM (DRAM), Synchronous RAM (SDRAM), and/or Phase-change RAM (PRAM), Magneto-resistive RAM (MRAM), and Resistive RAM (ReRAM). , and may include non-volatile memory such as FRAM (Ferro-electric RAM).
  • volatile memory such as Dynamic RAM (DRAM), Synchronous RAM (SDRAM), and/or Phase-change RAM (PRAM), Magneto-resistive RAM (MRAM), and Resistive RAM (ReRAM).
  • FRAM Ferro-electric RAM
  • the storage 1500 may store data requested to be stored by the main processor 1300 or other components.
  • Storage 1500 may include non-volatile memory such as flash memory, PRAM, MRAM, ReRAM, FRAM, etc.
  • the storage 1500 may store an algorithm or database for detecting the surface roughness or hardness of an object.
  • the display device 1600 may include a display panel, a display driving circuit, and a display serial interface (DSI).
  • a display panel may be implemented with various devices such as a Liquid Crystal Display (LCD) device, a Light Emitting Diode (LED) display device, an Organic LED (OLED) display device, and an Active Matrix OLED (AMOLED) display device.
  • the display driving circuit may include a timing controller, source driver, etc. required to drive the display panel.
  • the DSI host built into the main processor 1300 can perform serial communication with the display panel through DSI.
  • the user interface 1700 may include at least one of input interfaces such as a keyboard, mouse, keypad, button, touch panel, touch screen, touch pad, touch ball, gyroscope sensor, vibration sensor, acceleration sensor, etc.
  • input interfaces such as a keyboard, mouse, keypad, button, touch panel, touch screen, touch pad, touch ball, gyroscope sensor, vibration sensor, acceleration sensor, etc.
  • the communication unit 1800 may exchange signals with an external device/system through the antenna 1830.
  • the transceiver 1810 and MODEM (Modulator/Demodulator, 1820) of the communication unit 1800 are LTE (Long Term Evolution), WIMAX (Worldwide Interoperability for Microwave Access), GSM (Global System for Mobile communication), and CDMA (Code Division Multiple Access). ), Bluetooth, NFC (Near Field Communication), Wi-Fi (Wireless Fidelity), RFID (Radio Frequency Identification), etc., can process signals exchanged with external devices/systems.
  • Components of the electronic device 1000 such as vision sensor 1100, image sensor 1200, main processor 1200, working memory 1400, storage 1500, display device 1600, and user interface.
  • (1700) and communication department (1800) include USB (Universal Serial Bus), SCSI (Small Computer System Interface), MIPI, I2C, PCIe (Peripheral Component Interconnect Express), M-PCIe (Mobile PCIe), and ATA (Advanced Technology Attachment) , various interfaces such as Parallel ATA (PATA), Serial ATA (SATA), Serial Attached SCSI (SAS), Integrated Drive Electronics (IDE), Enhanced IDE (EIDE), Nonvolatile Memory Express (NVMe), Universal Flash Storage (UFS), etc. Data may be exchanged based on one or more of the protocols.
  • the electronic device 1001 communicates with the electronic device 1002 through a first network 1098 (e.g., a short-range wireless communication network) or a second network 1099. It is possible to communicate with the electronic device 1004 or the server 1008 through (e.g., a long-distance wireless communication network). According to one embodiment, the electronic device 1001 may communicate with the electronic device 1004 through the server 1008.
  • a first network 1098 e.g., a short-range wireless communication network
  • a second network 1099 e.g., a second network 1099.
  • the electronic device 1004 or the server 1008 e.g., a long-distance wireless communication network.
  • the electronic device 1001 may communicate with the electronic device 1004 through the server 1008.
  • the electronic device 1001 includes a processor 1020, a memory 1030, an input module 1050, an audio output module 1055, a display module 1060, an audio module 1070, and a sensor module ( 1076), interface (1077), connection terminal (1078), haptic module (1079), camera module (1080), power management module (1088), battery (1089), communication module (1090), subscriber identification module (1096) , or may include an antenna module 1097.
  • a sensor module 1076
  • interface (1077) connection terminal (1078)
  • haptic module (1079) haptic module
  • camera module 1080
  • power management module (1088
  • battery (1089 battery
  • communication module 1090
  • subscriber identification module (1096) or may include an antenna module 1097.
  • at least one of these components eg, the connection terminal 1078
  • some of these components e.g., sensor module 1076, camera module 1080, or antenna module 1097
  • are integrated into one component e.g., display module 1060). It can be.
  • the processor 1020 executes software (e.g., program 1040) to operate at least one other component (e.g., hardware or software component) of the electronic device 1001 connected to the processor 1020. It can be controlled and various data processing or calculations can be performed. According to one embodiment, as at least part of data processing or computation, the processor 1020 stores commands or data received from another component (e.g., sensor module 1076 or communication module 1090) in volatile memory 1032. The commands or data stored in the volatile memory 1032 can be processed, and the resulting data can be stored in the non-volatile memory 1034.
  • software e.g., program 1040
  • the processor 1020 stores commands or data received from another component (e.g., sensor module 1076 or communication module 1090) in volatile memory 1032.
  • the commands or data stored in the volatile memory 1032 can be processed, and the resulting data can be stored in the non-volatile memory 1034.
  • the processor 1020 may include a main processor 1021 (e.g., a central processing unit or an application processor) or an auxiliary processor 1023 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • a main processor 1021 e.g., a central processing unit or an application processor
  • auxiliary processor 1023 e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor.
  • the electronic device 1001 includes a main processor 1021 and a auxiliary processor 1023
  • the auxiliary processor 1023 may be set to use lower power than the main processor 1021 or be specialized for a designated function. You can.
  • the auxiliary processor 1023 may be implemented separately from the main processor 1021 or as part of it.
  • the processor 1020 may change the light emission pattern of the display panel and measure the reflection pattern of lights reflected from the contact surface between the display panel and the object, thereby detecting the surface illuminance value of the object in contact. .
  • the processor 1020 estimates the degree of deformation of the display panel due to contact between the display panel and the object and measures the reflection pattern of lights reflected from the contact surface between the display panel and the object based on the degree of deformation of the display panel.
  • the hardness value of the object in contact can be detected.
  • the auxiliary processor 1023 may, for example, act on behalf of the main processor 1021 while the main processor 1021 is in an inactive (e.g., sleep) state, or while the main processor 1021 is in an active (e.g., application execution) state. ), together with the main processor 1021, at least one of the components of the electronic device 1001 (e.g., the display module 1060, the sensor module 1076, or the communication module 1090) At least some of the functions or states related to can be controlled.
  • coprocessor 1023 e.g., image signal processor or communication processor
  • may be implemented as part of another functionally related component e.g., camera module 1080 or communication module 1090. there is.
  • the auxiliary processor 1023 may include a hardware structure specialized for processing artificial intelligence models.
  • Artificial intelligence models can be created through machine learning. For example, such learning may be performed in the electronic device 1001 itself, where artificial intelligence is performed, or may be performed through a separate server (e.g., server 1008).
  • Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited.
  • An artificial intelligence model may include multiple artificial neural network layers.
  • Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above.
  • artificial intelligence models may additionally or alternatively include software structures.
  • the memory 1030 may store various data used by at least one component (eg, the processor 1020 or the sensor module 1076) of the electronic device 1001. Data may include, for example, input data or output data for software (e.g., program 1040) and instructions related thereto.
  • Memory 1030 may include volatile memory 1032 or non-volatile memory 1034.
  • the program 1040 may be stored as software in the memory 1030 and may include, for example, an operating system 1042, middleware 1044, or application 1046.
  • the input module 1050 may receive commands or data to be used in a component of the electronic device 1001 (e.g., the processor 1020) from outside the electronic device 1001 (e.g., a user).
  • the input module 1050 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).
  • the sound output module 1055 can output sound signals to the outside of the electronic device 1001.
  • the sound output module 1055 may include, for example, a speaker or receiver. Speakers can be used for general purposes such as multimedia playback or recording playback.
  • the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
  • the display module 1060 can visually provide information to the outside of the electronic device 1001 (eg, a user).
  • the display module 1060 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device.
  • the display module 1060 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.
  • the display module 1060 may display an image and simultaneously detect the surface roughness or hardness of an object in contact with the display module 1060.
  • the audio module 1070 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 1070 acquires sound through the input module 1050, the sound output module 1055, or an external electronic device (e.g., directly or wirelessly connected to the electronic device 1001). Sound may be output through an electronic device 1002 (e.g., speaker or headphone).
  • an electronic device 1002 e.g., speaker or headphone
  • the sensor module 1076 detects the operating state (e.g., power or temperature) of the electronic device 1001 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 1076 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.
  • the interface 1077 may support one or more designated protocols that can be used to connect the electronic device 1010 directly or wirelessly with an external electronic device (e.g., the electronic device 1002).
  • the interface 1077 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • connection terminal 1078 may include a connector through which the electronic device 1001 can be physically connected to an external electronic device (eg, the electronic device 1002).
  • the connection terminal 1078 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 1079 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses.
  • the haptic module 1079 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 1080 can capture still images and videos. According to one embodiment, the camera module 1080 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 1088 can manage power supplied to the electronic device 1001. According to one embodiment, the power management module 1088 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 1089 may supply power to at least one component of the electronic device 1001.
  • the battery 1089 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
  • the communication module 1090 provides a direct (e.g., wired) communication channel or a wireless communication channel between the electronic device 1001 and an external electronic device (e.g., the electronic device 1002, the electronic device 1004, or the server 1008). It can support establishment and communication through established communication channels.
  • Communication module 1090 operates independently of processor 1020 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
  • the communication module 1090 is a wireless communication module 1092 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 1094 (e.g.
  • GNSS global navigation satellite system
  • LAN local area network
  • power line communication module may be included.
  • the corresponding communication module is a first network 1098 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (Wi-Fi) direct, or infrared data association (IrDA)) or a second network 1099 (e.g. : Can communicate with an external electronic device 1004 through a long-distance communication network such as a legacy cellular network, 5G network, next-generation communication network, Internet, or computer network (e.g., LAN or WAN).
  • a first network 1098 e.g., a short-range communication network such as Bluetooth, wireless fidelity (Wi-Fi) direct, or infrared data association (IrDA)
  • a second network 1099 e.g. : Can communicate with an external electronic device 1004 through a long-distance communication network such as a legacy cellular network, 5G network, next-generation communication network, Internet, or computer network (e.g., LAN or
  • the wireless communication module 1092 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 1096 to communicate within a communication network, such as the first network 1098 or the second network 1099.
  • subscriber information e.g., International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the electronic device 1001 can be identified or authenticated.
  • the wireless communication module 1092 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology).
  • NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency). -latency communications)) can be supported.
  • the wireless communication module 1092 may support high frequency bands (e.g., mmWave bands), for example, to achieve high data rates.
  • the wireless communication module 1092 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. It can support technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna.
  • the wireless communication module 1092 may support various requirements specified in the electronic device 1001, an external electronic device (e.g., electronic device 1004), or a network system (e.g., second network 1099).
  • the wireless communication module 1092 supports peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC.
  • peak data rate e.g., 20 Gbps or more
  • loss coverage e.g., 164 dB or less
  • U-plane latency e.g., 164 dB or less
  • the antenna module 1097 may transmit or receive signals or power to or from the outside (e.g., an external electronic device).
  • the antenna module 1097 may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB).
  • the antenna module 1097 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 1098 or the second network 1099 is, for example, connected to the plurality of antennas by the communication module 1090. can be selected. Signals or power may be transmitted or received between the communication module 1090 and an external electronic device through the selected at least one antenna.
  • other components eg, radio frequency integrated circuit (RFIC) may be additionally formed as part of the antenna module 1097.
  • RFIC radio frequency integrated circuit
  • the antenna module 1097 may form a mmWave antenna module.
  • a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.
  • a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the
  • peripheral devices e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • signal e.g. commands or data
  • commands or data may be transmitted or received between the electronic device 1001 and the external electronic device 1004 through the server 1008 connected to the second network 1099.
  • Each of the external electronic devices 1002 or 1004 may be of the same or different type as the electronic device 1001.
  • all or part of the operations performed in the electronic device 1001 may be executed in one or more of the external electronic devices 1002, 1004, or 1008.
  • the electronic device 1001 may perform the function or service instead of executing the function or service on its own.
  • one or more external electronic devices may be requested to perform at least part of the function or service.
  • the external electronic device 1004 or server 1008 may be included in the second network 1099.
  • the electronic device 1001 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
  • the memory 1030 may include tasks for performing machine learning, a neural network algorithm for performing the tasks, a goal function, and input data or output data for commands related thereto.
  • the memory 1030 may store instructions or data related to at least one other component of the electronic device 1001.
  • the command may be executed by at least one of the processor or the image processing module.
  • the command may include a collection command related to collecting a candidate image, a display command related to displaying a candidate image, an analysis command related to analyzing a selected candidate image, or a provision command related to generating and providing at least one recommended image based on the analysis result, or a selected image. It may include at least one of provision commands related to provision.
  • the collection command may be a command used to collect candidate images using at least one of the communication module 1090 or the camera.
  • the collection command is a command for connecting to the server 1008 or an external electronic device 1002 or 1004 according to scheduled settings or user input, and a command related to receiving a candidate image list of the connected server 1008 or an external electronic device. , a command to request and collect candidate images selected according to user input, etc.
  • the analysis commands may include, for example, key feature object (ROI)-centered image analysis commands, user context-based image analysis commands, etc. At least one command included in the above-described analysis command may be used to apply a candidate image according to settings or user input.
  • ROI key feature object
  • the memory 1030 may store an analysis database and an image database.
  • the analysis database may store at least one command or at least one program related to candidate image analysis.
  • the analysis database may store an analysis algorithm that separates and classifies candidate images by object.
  • the analysis algorithm can distinguish, for example, background objects, human objects, object objects, animal objects, etc. in the candidate image.
  • the analysis database may store texture information or feature point information that can distinguish people, objects, animals, etc.
  • the analysis database can store feature point information or texture information that can distinguish between human faces and animal faces.
  • the image database may store at least one candidate image.
  • the image database may store at least one candidate image applied to the lock screen, home screen, designated application execution screen, etc.
  • Candidate images stored in the image database may be collected through a camera as described above, or may be received from an external electronic device or server. According to various embodiments, the image database may store recommended images generated based on specific candidate images. The image database may store device information of the electronic device 1001 or the external electronic device 1002. Additionally, the image database may store information on selected images applied to the electronic device 1001 or the external electronic device 1002.
  • the device and method according to an embodiment of the present disclosure can provide a display device capable of detecting the surface roughness or hardness of an object along with an image display function, and a method of operating the same.
  • a display device comprising: a display panel including a plurality of pixels; A memory that stores one or more instructions; and one or more processors, wherein the one or more processors execute the one or more instructions to change a light emission pattern of pixels included in a contact area between the display panel and an object, and perform the operation of the light emission pattern according to the changed light emission pattern.
  • Measure a first reflection pattern reflected in the contact area detect surface roughness of the object based on the first reflection pattern, and determine the degree of deformation of the transparent layer of the display panel caused by contact between the display panel and the object. It is possible to estimate, measure a second reflection pattern reflected from the contact area based on the degree of deformation of the transparent layer, and detect the hardness of the object based on the second reflection pattern.
  • the one or more processors may identify the at least one sub-area as the contact area between the display panel and the object when the amount of light received in the at least one sub-area included in the display panel is less than a threshold value. You can.
  • the one or more processors are based on at least one of a wavelength difference between lights emitted from the pixels included in the contact area, a reflectivity of the transparent layer, or a resolution required when measuring the surface roughness. It may be configured to determine the light emission pattern.
  • the one or more processors according to an embodiment may be configured to change the light emission pattern by changing the type of light emission color, light emission type, light emission period, and light emission direction of the pixels included in the contact area.
  • the one or more processors measure the deformation time of the transparent layer and the deformation recovery time of the transparent layer, and based on the measured deformation time, deformation recovery time, and time-dependent deformation of the transparent layer, deformation of the transparent layer It can be configured to estimate the degree.
  • the first reflection pattern and the second reflection pattern may represent a reflection pattern of light reflected from a contact surface between the display panel and the object among lights emitted from pixels included in the contact area.
  • the display panel includes a light receiving layer, a light emitting layer, and a transparent layer stacked in a vertical direction, the light receiving layer includes a light detector that measures the first reflection pattern or the second reflection pattern, and the light emitting layer may be disposed on the light receiving layer and include the plurality of pixels.
  • the transparent layer according to one embodiment is disposed on the light-emitting layer in the display panel and may be implemented with an elastic material.
  • the surface roughness detection area and the hardness detection area are,
  • the plurality of pixels may overlap each other in at least one area among the areas allocated to each of the plurality of pixels.
  • the surface roughness detection area includes a first area included in each of the plurality of pixels, and the hardness detection area includes a second area included in each of the plurality of pixels, The first area and the second area may represent different areas.
  • a method of operating a display device comprising: changing a light emission pattern of pixels included in a contact area between a display panel and an object; first reflection reflected from the contact area according to the changed light emission pattern; Measuring a pattern, detecting the surface roughness of the object based on the first reflection pattern, estimating the degree of deformation of the transparent layer of the display panel caused by contact between the display panel and the object, the transparent layer An operation of measuring a second reflection pattern reflected from the contact area based on the degree of deformation, and an operation of detecting the hardness of the object based on the second reflection pattern, wherein the display panel includes a plurality of pixels. It can be included.
  • the method may further include identifying the at least one sub-area as the contact area between the display panel and the object. there is.
  • the light emission pattern is determined based on at least one of a wavelength difference between lights emitted from the pixels included in the contact area, a reflectivity of the transparent layer, or a resolution required when measuring the surface roughness according to an embodiment. Additional actions may be included.
  • the operation of changing the light emission pattern may include changing the light emission pattern by changing the type of light emission color, light emission type, light emission period, and light emission direction of the pixels included in the contact area.
  • An operation of measuring the deformation time of the transparent layer and the deformation recovery time of the transparent layer according to an embodiment, and an operation of estimating the degree of deformation of the transparent layer based on the measured deformation time, deformation recovery time, and deformation over time of the transparent layer. It may further include.
  • the first reflection pattern and the second reflection pattern may represent a reflection pattern of light reflected from a contact surface between the display panel and the object among lights emitted from pixels included in the contact area.
  • the display panel includes a light receiving layer, a light emitting layer, and a transparent layer stacked in a vertical direction, the light receiving layer includes a light detector that measures the first reflection pattern or the second reflection pattern, and the light emitting layer is disposed on the light-receiving layer and includes the plurality of pixels, and the transparent layer is disposed on the light-emitting layer and may be implemented as a stretchable material.
  • the surface roughness detection area and the hardness detection area according to an embodiment may overlap each other in areas included in each of the plurality of pixels.
  • the surface roughness detection area includes a first area included in each of the plurality of pixels, and the hardness detection area includes a second area included in each of the plurality of pixels, The first area and the second area may represent different areas.
  • a method of operating a display device may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium.
  • the computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination.
  • Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and non-volatile media, removable and non-removable media. Additionally, computer-readable media may include computer storage media and communication media. Computer storage media includes both volatile and non-volatile, removable and non-removable media implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules, or other data. Communication media typically may include computer readable instructions, data structures, or other data, such as modulated data signals, or program modules.
  • computer-readable storage media may be provided in the form of non-transitory storage media.
  • 'non-transitory storage medium' simply means that it is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is semi-permanently stored in a storage medium and temporary storage media. It does not distinguish between cases where it is stored as .
  • a 'non-transitory storage medium' may include a buffer where data is temporarily stored.
  • Program instructions recorded on the medium may be specially designed and constructed for the present invention or may be known and usable by those skilled in the art of computer software.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks.
  • Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.
  • At least one of the method of operating a display device and the method of operating an electronic device according to the disclosed embodiments may be included and provided in a computer program product.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • a computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store or between two user devices (e.g. smartphones). It may be distributed in person or online (e.g., downloaded or uploaded). In the case of online distribution, at least a portion of the computer program product (e.g., a downloadable app) is stored on a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server. It can be temporarily stored or created temporarily.
  • a machine-readable storage medium such as the memory of a manufacturer's server, an application store's server, or a relay server. It can be temporarily stored or created temporarily.
  • a computer program product may include a S/W program and a computer-readable storage medium in which the S/W program is stored.
  • a computer program product may include a product in the form of a S/W program (e.g., a downloadable app) distributed electronically by the manufacturer of an electronic device or through an electronic marketplace (e.g., Google Play Store, App Store). there is.
  • a storage medium may be a manufacturer's server, an electronic market server, or a relay server's storage medium that temporarily stores the SW program.
  • a computer program product in a system comprised of a server and a client device, may include a storage medium of a server or a storage medium of a client device.
  • the computer program product may include a storage medium of the third device.
  • the computer program product may include the S/W program itself, which is transmitted from a server to a client device or a third device, or from a third device to a client device.
  • one of the server, the client device, and the third device may execute the computer program product to perform the method according to the disclosed embodiments.
  • two or more of a server, a client device, and a third device may execute the computer program product and perform the methods according to the disclosed embodiments in a distributed manner.
  • a server eg, a cloud server or an artificial intelligence server, etc.
  • a server may execute a computer program product stored on the server and control a client device connected to the server to perform the method according to the disclosed embodiments.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Nonlinear Science (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

일 실시예에 따른 디스플레이 장치에 있어서, 복수의 화소들을 포함하는 디스플레이 패널; 하나 이상의 인스트럭션을 저장하는 메모리; 및 하나 이상의 프로세서를 포함하며, 상기 하나 이상의 프로세서는 상기 하나 이상의 인스트럭션을 실행하여, 상기 디스플레이 패널과 객체(object) 간의 접촉 영역에 포함된 화소들의 발광 패턴을 변경하고, 상기 변경된 발광 패턴에 따라 상기 접촉 영역에서 반사되는 제1 반사 패턴을 측정하고, 상기 제1 반사 패턴에 기초하여 상기 객체의 표면 조도를 검출하고, 상기 디스플레이 패널과 객체 간의 접촉으로 인해 발생된 상기 디스플레이 패널의 투명층의 변형 정도를 추정하고, 상기 투명층의 변형 정도에 기초하여 상기 접촉 영역에서 반사되는 제2 반사 패턴을 측정하고, 상기 제2 반사 패턴에 기초하여 상기 객체의 경도를 검출할 수 있다.

Description

디스플레이 장치 및 이의 동작 방법
본 개시의 기술적 사상은 디스플레이 장치에 관한 것으로, 상세하게는, 촉각 정보를 검출하기 위한 디스플레이 장치 및 이의 동작 방법에 관한 것이다.
최근 디스플레이 장치는 멀티미디어의 발달과 함께 그 중요성이 증대되고 있다. 특히, 무선 네트워크 기술의 발달로 디스플레이 장치는 사용자 또는 사용 장치로부터 센싱되는 다양한 정보(예: 촉각 정보)를 상대방과 공유하기 위한 이미지(image) 표시 장치로서, 유기 발광 디스플레이 장치(Organic Light Emitting Display, OLED), 액정 디스플레이 장치(Liquid Crystal Display, LCD)등과 같은 여러 종류의 디스플레이 장치가 개발되고 있다.
다만, 종래의 디스플레이 장치는 특정 센서(예: 정전 센서 또는 초음파 센서 등)를 이용하여 디스플레이 패널에 접촉되는 객체에 대한 개략적인 촉각 정보만을 센싱 가능한 기술적 한계가 존재하였다.
이에 따라, 이미지 표시 기능을 수행하는 동시에 디스플레이 장치에 접촉되는 객체에 대한 다양한 종류의 촉각 정보들을 검출 가능한 디스플레이 장치에 대한 필요성이 대두되었다.
본 개시의 일 실시예에 따른, 디스플레이 장치는 복수의 화소들을 포함하는 디스플레이 패널; 하나 이상의 인스트럭션을 저장하는 메모리; 및 하나 이상의 프로세서를 포함할 수 있다.
상기 하나 이상의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 디스플레이 패널과 객체(object) 간의 접촉 영역에 포함된 화소들의 발광 패턴을 변경할 수 있다.
상기 하나 이상의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 변경된 발광 패턴에 따라 상기 접촉 영역에서 반사되는 제1 반사 패턴을 측정할 수 있다.
상기 하나 이상의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 제1 반사 패턴에 기초하여 상기 객체의 표면 조도를 검출할 수 있다.
상기 하나 이상의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 디스플레이 패널과 객체 간의 접촉으로 인해 발생된 상기 디스플레이 패널의 투명층의 변형 정도를 추정할 수 있다.
상기 하나 이상의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 투명층의 변형 정도에 기초하여 상기 접촉 영역에서 반사되는 제2 반사 패턴을 측정할 수 있다.
상기 하나 이상의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 제2 반사 패턴에 기초하여 상기 객체의 경도를 검출할 수 있다.
본 개시의 일 실시예에 따른 디스플레이 장치의 동작 방법은, 디스플레이 패널과 객체(object) 간의 접촉 영역에 포함된 화소들의 발광 패턴을 변경하는 동작을 포함할 수 있다.
일 실시예에 따른 디스플레이 장치의 동작 방법은, 상기 변경된 발광 패턴에 따라 상기 접촉 영역에서 반사되는 제1 반사 패턴을 측정하는 동작을 포함할 수 있다.
일 실시예에 따른 디스플레이 장치의 동작 방법은, 상기 제1 반사 패턴에 기초하여 상기 객체의 표면 조도를 검출하는 동작을 포함할 수 있다.
일 실시예에 따른 디스플레이 장치의 동작 방법은, 상기 디스플레이 패널과 객체 간의 접촉으로 인해 발생된 상기 디스플레이 패널의 투명층의 변형 정도를 추정하는 동작을 포함할 수 있다.
일 실시예에 따른 디스플레이 장치의 동작 방법은, 상기 투명층의 변형 정도에 기초하여 상기 접촉 영역에서 반사되는 제2 반사 패턴을 측정하는 동작을 포함할 수 있다.
일 실시예에 따른 디스플레이 장치의 동작 방법은, 상기 제2 반사 패턴에 기초하여 상기 객체의 경도를 검출하는 동작을 포함할 수 있다.
일 실시예에 따른 디스플레이 장치의 동작 방법에서, 상기 디스플레이 패널은 복수의 화소들을 포함할 수 있다.
본 개시의 일 실시예에 따른 디스플레이 장치가 동작하는 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능 기록매체를 제공할 수 있다.
도 1은 일 실시예에 따른 디스플레이 장치를 나타내는 블록도이다.
도 2는 일 실시예에 따른 디스플레이 장치를 나타내는 개략적인 평면도이다.
도 3a는 일 실시예에 따른 디스플레이 장치 내에 화소의 확대도를 도시한다.
도 3b는 일 실시예에 따른 촉각 정보의 검출 영역을 도시한다.
도 3c는 다른 일 실시예에 따른 촉각 정보의 검출 영역을 도시한다.
도 4는 일 실시예에 따른 디스플레이 패널의 구조를 도시한다.
도 5는 일 실시예에 따른 디스플레이 장치의 동작 방법을 도시한다.
도 6은 일 실시예에 따른 디스플레이 장치의 동작 방법을 도시한다.
도 7은 일 실시예에 따른 발광 패턴의 변경 동작을 나타내는 도면이다.
도 8은 일 실시예에 따른 디스플레이 패널의 변형 정도의 추정 동작을 나타내는 도면이다.
도 9는 일 실시예에 따른 프로세서를 포함하는 전자 장치를 나타내는 블록도이다.
도 10은 일 실시예에 따른 디스플레이 모듈을 포함하는 전자 장치를 나타내는 블록도이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 명세서의 실시예에서 "사용자"라는 용어는 시스템, 기능 또는 동작을 제어하는 사람을 의미하며, 개발자, 관리자 또는 설치 기사를 포함할 수 있다.
또한, 본 명세서의 실시예에서, '이미지(image)' 또는 '픽처'는 정지영상, 복수의 연속된 정지영상(또는 프레임)으로 구성된 동영상, 또는 비디오를 나타낼 수 있다.
본 명세서의 실시예에서 "화소(pixel)"는 디스플레이 장치에서 표시되는 이미지를 구성하는 최소 단위로서, LED (Light Emitting Diode), OLED(Organic LED), AMOLED (Active Matrix OLED)를 포함할 수 있다.
본 명세서의 실시예에서 "부 화소 영역(sub pixel region)"은 적색(red) 부 화소, 녹색(green) 부 화소, 및 청색(blue) 부 화소를 포함하는 영역을 의미할 수 있다.
본 명세서의 실시예에서 "화소 내부의 빈 공간(empty space)"은 화소 내에서 부 화소 영역을 제외한 나머지 영역을 의미할 수 있다.
본 명세서의 실시예에서 "촉각 정보"는 객체의 표면 조도 또는 경도에 대한 정보를 포함할 수 있다.
도 1은 일 실시예에 따른 디스플레이 장치를 나타내는 블록도이다.
도 1을 참조하면, 본 개시에 따른 디스플레이 장치(100)는 복수의 화소들(PX)을 포함하는 디스플레이 패널(DP), 타이밍 컨트롤러(111), 스캔 드라이버(112), 데이터 드라이버(113), 및 전력 관리 회로(power management IC, PMIC)(120)를 포함할 수 있다.
일 실시예에서, 타이밍 컨트롤러(111)는 각 프레임에 대한 데이터 값(DATA), 데이터 제어 신호(DCS) 등을 데이터 드라이버(113)에 제공할 수 있다.
일 실시예에서, 타이밍 컨트롤러(111)는 클록 신호, 스캔 제어 신호(SCS) 등을 스캔 드라이버(112)에 제공할 수 있다.
일 실시예에서, 데이터 드라이버(113)는 타이밍 컨트롤러(111)로부터 수신한 데이터 값(DATA) 및 데이터 제어 신호(DCS)를 이용하여 데이터 라인들(DL1 내지 DLm)로 제공할 데이터 전압들을 생성할 수 있다. 여기서, m은 자연수이다.
일 실시예에서, 스캔 드라이버(112)는 타이밍 컨트롤러(111)로부터 스캔 제어 신호(SCS)(클럭 신호, 스캔 시작 신호 등 포함)를 수신하여 스캔 라인들(SL1 내지 SLn)에 제공할 스캔 신호들을 생성할 수 있다. 여기서, n은 자연수이다.
일 실시예에서, 디스플레이 패널(DP)은 수직 방향으로 적층된 수광층, 발광층, 투명층을 포함할 수 있다. 여기서, 수광층은 반사 패턴을 측정하는 적어도 하나의 광 검출기를 포함할 수 있고, 발광층은 수광층 상부에 배치되어 복수의 화소들(PX)을 포함할 수 있다. 투명층은 디스플레이 패널(DP)에서 발광층의 상부에 배치되고 신축성 물질로 구성될 수 있다.
일 실시예에서, 디스플레이 패널(DP)은 복수의 화소들(예: 복수의 자발광 소자들)(PX)을 포함한다. 복수의 화소들(PX)은 각각 대응되는 데이터 라인 및 스캔 라인에 연결될 수 있다.
일 실시예에서, 복수의 화소들(PX)은 각각 적색(red) 광을 방출하는 적색 화소이거나, 청색(blue) 광을 방출하는 청색 화소이거나, 녹색(green) 광을 방출하는 녹색 화소일 수 있다. 다른 일 예시에서, 복수의 화소들(PX)은 적색, 녹색, 청색 화소 대신 백색(white), 시안(cyan), 마젠타(magenta), 옐로우(yellow) 화소를 포함할 수 있다.
본 명세서에서, 타이밍 컨트롤러(111), 스캔 드라이버(112), 및 데이터 드라이버(113) 중 적어도 하나를 포함하는 회로를 디스플레이 구동 회로(DDI, display driver IC)(110)로 지칭될 수 있다.
일 실시 예에서, 디스플레이 구동 회로(110)는 집적 회로 형태로 구비될 수 있다.
일 실시 예에서, 전력 관리 회로(120)는 외부 전원(예: 배터리 전압)을 수신할 수 있다. 일 예시에서, 전력 관리 회로(120)는 상기 외부 입력 전압을 기반으로 디스플레이 구동 회로(110)에 공급할 전압을 생성할 수 있다.
일 실시 예에서, 전력 관리 회로(120)는 디스플레이 구동 회로(110)의 타이밍 컨트롤러(111)에 제공하기 위한 전압을 생성할 수 있다.
일 실시예에서, 전력 관리 회로(120)는 적어도 하나의 레귤레이터(regulator)를 포함할 수 있다. 일 예시에서, 상기 적어도 하나의 레귤리이터는 외부 전원으로부터 공급받은 전압으로부터 다양한 전압 레벨을 갖는 출력 전압을 생성할 수 있다. 일 예시에서, 상기 적어도 하나의 레귤레이터는 컨트롤러로 형성되거나, 컨트롤러 내에 배치될 수 있다. 일 예시에서, 상기 적어도 하나의 레귤레이터는 벅-컨버터(buck-convertor)를 포함할 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 상기 적어도 하나의 레귤레이터는 벅-부스트 컨버터(buck-boost converter), 부스트 컨버터(boost converter), 또는 쿡 컨버터(cuk converter) 중 적어도 하나를 포함할 수 있다.
본 개시의 실시예에 따른 장치 및 방법은, 이미지 표시 기능과 함께, 객체의 표면 조도 또는 경도를 검출 가능한 디스플레이 장치 및 이의 동작 방법을 제공할 수 있다.
도 2는 일 실시예에 따른 디스플레이 장치를 나타내는 개략적인 평면도(200)이다.
도 2를 참고하면, 디스플레이 장치는 기판(SUB)(210) 상에 제공되며 적어도 하나의 발광 소자를 각각 포함하는 화소들(PXL1, PXL2, PXL3)(251-1, 251-2, 251-3)을 구동하는 구동부, 및 화소들(PXL1, PXL2, PXL3)(251-1, 251-2, 251-3)과 구동부를 연결하는 배선부를 포함할 수 있다.
이상에서는 본 발명의 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
일 실시예에서, 기판(SUB)(210)은 표시 영역(DA)(230) 및 비표시 영역(NDA) (240)을 포함할 수 있다.
일 실시예에서, 표시 영역(DA)(230)은 영상을 표시하는 화소들(PXL1, PXL2, PXL3)(251-1, 251-2, 251-3)이 제공되는 영역일 수 있다. 비표시 영역(NDA)(240)은 화소들(PXL1, PXL2, PXL3)(251-1, 251-2, 251-3)을 구동하기 위한 구동부 및 화소들(PXL1, PXL2, PXL3)(251-1, 251-2, 251-3)과 구동부를 연결하는 배선부의 일부가 제공되는 영역일 수 있다.
일 실시예에서, 표시 영역(DA)(230)의 표면은, 디스플레이 장치에 접촉된 객체의 경도를 검출하기 위해, 신축성 물질로 구성된 투명층을 포함할 수 있다.
일 실시예에서, 비표시 영역(NDA)(240)은 표시 영역(DA)(230)에 인접하게 위치할 수 있다. 비표시 영역(NDA)(240)은 표시 영역(DA)(230)의 적어도 일측에 제공될 수 있다. 일 예로, 비표시 영역(NDA)(240)은 표시 영역(DA)(230)의 둘레(또는 가장 자리)를 둘러쌀 수 있다.
일 실시예에서, 배선부는 구동부와 화소들(PXL1, PXL2, PXL3)(251-1, 251-2, 251-3)을 전기적으로 연결할 수 있다. 배선부는 화소들(PXL1, PXL2, PXL3)(251-1, 251-2, 251-3)에 신호를 제공하며 화소들(PXL1, PXL2, PXL3)(251-1, 251-2, 251-3) 각각에 연결된 신호선들, 일 예로, 주사선, 데이터선, 발광 제어선 등과 연결된 팬아웃선을 포함할 수 있다.
일 실시예에서, 기판(SUB)(210)은 투명 절연 물질을 포함하여 광의 투과가 가능할 수 있다. 기판(SUB)(210)은 경성(rigid) 기판이거나 가요성(flexible) 기판일 수 있다.
일 실시예에서, 화소들(PXL1, PXL2, PXL3)(251-1, 251-2, 251-3)은 제1 화소(PXL1), 제2 화소(PXL2), 및 제3 화소(PXL3)를 포함할 수 있다.
일 예시에서, 제1 화소(PXL1)는 적색 화소일 수 있고, 제2 화소(PXL2)는 녹색 화소일 수 있으며, 제3 화소(PXL3)는 청색 화소일 수 있다. 다만, 이에 한정되는 것은 아니며, 화소들(PXL1, PXL2, PXL3)(251-1, 251-2, 251-3)은 각각 적색, 녹색, 및 청색이 아닌 다른 색으로 발광할 수도 있다.
일 실시예에서, 제1 화소(PXL1)(251-1), 제2 화소(PXL2)(251-2) 및 제3 화소(PXL3)(251-3)는 제2 방향(DR2)으로 순차적으로 배치될 수 있다.
일 실시예에서, 화소들(PXL1, PXL2, PXL3)(251-1, 251-2, 251-3) 각각은 대응되는 스캔 신호 및 데이터 신호에 의해 구동되는 적어도 하나 이상의 발광 소자(예: 부 화소(sub pixel))를 포함할 수 있다. 발광 소자는 나노 스케일(또는 나노 미터) 내지 마이크로 스케일(또는 마이크로 미터) 정도로 작은 크기를 가지며 인접하게 배치된 발광 소자들과 서로 병렬로 연결될 수 있으나, 이에 한정되는 것은 아니다. 화소들(PXL1, PXL2, PXL3)(251-1, 251-2, 251-3) 각각은 광원을 구성할 수 있고, 디스플레이 장치는 화소들의 변경된 발광 패턴에 따른 반사 패턴을 측정함으로써 디스플레이 패널에 접촉한 객체의 표면 조도 및/또는 경도를 검출할 수 있다.
도 3a는 일 실시예에 따른 디스플레이 패널에 포함된 화소의 확대도(310)를 도시한다.
상세하게는 도 1의 디스플레이 장치(100)의 디스플레이 패널에 포함된 화소에 대한 확대도를 도시한다.
본 명세서의 실시예에서 "부 화소 영역(sub pixel region)"은 적색(red) 부 화소, 녹색(green) 부 화소, 및 청색(blue) 부 화소를 포함하는 영역을 의미할 수 있다. 본 명세서의 실시예에서, "화소 내부의 빈 공간(empty space)"은 화소 내에서 부 화소 영역을 제외한 나머지 영역을 의미할 수 있다.
도 3a를 참조하면, 디스플레이 장치의 디스플레이 패널은 제1 화소 내지 제4 화소로 구성될 수 있다.
일 실시예에서, 제1 화소(Pixel)는 제1 부 화소 영역(311) 및 제1 화소 내 빈 공간(empty space)인 제1 영역(321)을 포함할 수 있다. 제2 화소는 제2 부 화소 영역(312) 및 제2 화소 내 빈 공간인 제2 영역(322)을 포함할 수 있다. 제3 화소는 제3 부 화소 영역(313) 및 제3 화소 내 빈 공간인 제3 영역(323)을 포함할 수 있다. 제4 화소는 제4 부 화소 영역(314) 및 제4 화소 내 빈 공간인 제4 영역(324)을 포함할 수 있다.
본 개시의 실시예에 따른 디스플레이 장치는 디스플레이 패널의 제1 영역(321) 내지 제4 영역(324)에 기초하여 디스플레이 패널에 접촉한 객체의 표면 조도 및/또는 경도를 검출할 수 있다. 구체적인 표면 조도의 검출 영역 및 경도의 검출 영역에 대한 설명은 도 3b에서 설명된다.
전술된 도 3a에서 디스플레이 패널은 제1 화소 내지 제4 화소로 구성된 것으로 도시되었으나, 이에 한정되지 않으며, 본 개시의 실시예에 따른 디스플레이 장치의 디스플레이 패널을 구성하는 화소의 개수는 장치의 제조 목적 또는 제조 방법에 따라 변경될 수 있다.
도 3b는 일 실시예에 따른 촉각 정보의 검출 영역을 도시한다.
상세하게는 도 1의 디스플레이 장치(100)의 디스플레이 패널에서 객체의 촉각 정보의 검출 영역을 도시한다.
도 3b를 참조하면, 복수의 화소들을 포함하는 디스플레이 패널에서 하나의 화소에 대응하는 화소 영역(pixel region)(353)을 z축 방향에서 바라본 평면도(350)이다. 여기서, 화소 영역은 디스플레이 패널에서 화소의 기능을 수행하기 위해 하나의 화소에 할당된 영역을 의미할 수 있다.
일 실시예에서, 화소 영역(353)은 제1 서브 영역(355-1)과 제2 서브 영역(355-2)를 포함할 수 있다.
일 실시예에서 제1 서브 영역(355-1)은 상기 화소에 포함된 적어도 하나의 부 화소(예: 적색(red), 녹색(green), 또는 청색(blue) 부 화소 중 적어도 하나)로 구성되어, 적어도 하나의 부 화소를 이용하여 광(light)을 방출하는 영역을 포함할 수 있다.
일 실시예에서 제2 서브 영역(355-2)은 화소 영역 중에서 제1 서브 영역(355-1)과 중첩되지 않는 영역으로서, 디스플레이 패널에 접촉된 객체의 표면 조도 및/또는 경도를 검출하기 위한 영역을 포함할 수 있다.
일 실시예에서 객체의 표면 조도의 검출 영역과 경도의 검출 영역은 제2 서브 영역(355-2)에 포함된 적어도 하나의 영역에서 중첩될 수 있다.
본 개시의 실시예에 따른 디스플레이 장치는 디스플레이 패널 내 화소 영역의 빈 공간(empty space)(예: 화소 영역 내 제2 서브 영역(355-2))에 객체의 표면 조도의 검출 영역과 경도의 검출 영역을 중첩시켜 포함함으로써, 기존 디스플레이 장치의 형태 및 이미지 표현 기능을 유지하면서, 접촉된 객체의 촉각 정보의 검출 기능이 추가된 디스플레이 장치를 제공할 수 있다.
도 3c는 다른 일 실시예에 따른 촉각 정보의 검출 영역을 도시한다.
상세하게는 도 1의 디스플레이 장치(100)의 디스플레이 패널에서 객체의 촉각 정보의 검출 영역을 도시한다.
도 3c를 참조하면, 복수의 화소들을 포함하는 디스플레이 패널에서 하나의 화소에 대응하는 화소 영역(pixel region)(373)을 z축 방향에서 바라본 평면도(370)이다. 여기서, 화소 영역은 디스플레이 패널에서 화소의 기능을 수행하기 위해 하나의 화소에 할당된 영역을 의미할 수 있다.
일 실시예에서, 화소 영역(373)은 제1 서브 영역(375-1), 제2 서브 영역(375-2) 및 제3 서브 영역(375-3)을 포함할 수 있다.
일 실시예에서 제1 서브 영역(375-1)은 상기 화소에 포함된 적어도 하나의 부 화소(예: 적색(red), 녹색(green), 또는 청색(blue) 부 화소 중 적어도 하나)로 구성되어, 적어도 하나의 부 화소를 이용하여 광(light)을 방출하는 영역을 포함할 수 있다.
일 실시예에서 제2 서브 영역(375-2)은 화소 영역 중에서 제1 서브 영역(375-1) 및 제3 서브 영역(375-3)과 중첩되지 않는 영역으로서, 디스플레이 패널에 접촉된 객체의 표면 조도를 검출하기 위한 영역을 포함할 수 있다.
일 실시예에서 제3 서브 영역(375-3)은 화소 영역 중에서 제1 서브 영역(375-1) 및 제2 서브 영역(375-2)과 중첩되지 않는 영역으로서, 디스플레이 패널에 접촉된 객체의 경도를 검출하기 위한 영역을 포함할 수 있다.
일 실시예에서 객체의 표면 조도의 검출 영역과 경도의 검출 영역은 디스플레이 패널의 제2 서브 영역 중에서 서로 다른 영역을 포함할 수 있다.
본 개시의 실시예에 따른 디스플레이 장치는 디스플레이 패널 내 화소 영역의 빈 공간(empty space)(예: 화소 영역 내 제2 영역(375-2), 제3 영역(375-3))에 객체의 표면 조도의 검출 영역과 경도의 검출 영역을 각각 포함함으로써, 기존 디스플레이 장치의 형태 및 이미지 표현 기능을 유지하면서, 접촉된 객체의 촉각 정보의 검출 기능이 추가된 디스플레이 장치를 제공할 수 있다.
도 4는 일 실시예에 따른 디스플레이 패널의 구조를 도시한다.
상세하게는 도 1의 디스플레이 장치(100)의 디스플레이 패널의 구조(400)를 도시한다.
도 4를 참조하면, 디스플레이 패널은 수직 방향으로 적층된 투명층(410), 발광층(430), 수광층(450)을 포함할 수 있다.
일 실시예에서, 투명층(410)은 디스플레이 패널의 발광층(430)의 상부에 배치되고 신축성 물질(예: 엘라스토모어(elastomer))로 구현될 수 있다.
일 실시예에서, 투명층(410)은 디스플레이 패널과 객체 간의 접촉으로 인해 투명층(410)의 형태가 변형될 수 있고, 투명층(410)의 변형된 형태 또는 변형 정도에 기초하여 발광층(430)의 복수의 화소들(예: 431, 433, 435)로부터 방출된 광들의 반사 패턴이 변경될 수 있다.
일 실시예에서, 발광층(430)은 디스플레이 패널의 수광층(450)의 상부에 배치되어, 복수의 화소들(예: 제1 화소(431), 제2 화소(433), 제3 화소(435))을 포함할 수 있다.
일 실시예에서, 디스플레이 패널과 객체 간의 접촉이 생긴 경우, 프로세서는 발광층(430)에 포함된 복수의 화소들 중에서 디스플레이 패널과 객체 간의 접촉 영역에 포함된 화소들(예: 제1 화소(431), 제2 화소(433), 제3 화소(435))을 식별 할 수 있다.
일 실시예에서, 발광층(430)의 발광 패턴은 접촉 영역에 포함된 화소들(예: 제1 화소(431), 제2 화소(433), 제3 화소(435))로부터 방출되는 광들 간의 파장 차이, 디스플레이 패널의 투명층의 반사도, 또는 표면 조도의 측정시 필요한 분해능(resolution) 중 적어도 하나에 기초하여 변경될 수 있다.
일 실시예에서, 프로세서는 디스플레이 패널과 객체 간의 접촉 영역에 포함된 발광층(430)의 화소들(예: 제1 화소(431), 제2 화소(433), 제3 화소(435))의 발광색의 종류(예: 적색(R), 녹색(G), 청색(B)), 발광 형태, 발광 주기, 발광 방향을 변경함으로써 발광 패턴을 변경할 수 있다.
일 실시예에서, 수광층(450)은 제1 광 검출기(451), 제2 광 검출기(453), 및 제3 광 검출기(455)를 포함할 수 있다. 여기서, 수광층(450)의 제1 광 검출기(451), 제2 광 검출기(453), 및 제3 광 검출기(455)는 발광층(430)의 화소들(예: 제1 화소(431), 제2 화소(433), 제3 화소(435))과 중첩되지 않는 위치로 배치될 수 있다.
일 실시예에서, 제1 광 검출기(451), 제2 광 검출기(453), 및 제3 광 검출기(455)는 화소들에서 방출되어 객체와의 접촉면으로부터 반사된 광들의 반사 패턴을 측정할 수 있다.
예를 들어, 수광층(450)에 포함된 제1 광 검출기(451)는 제1 통로(441)을 통해 발광층(430)의 복수의 화소들(예: 431, 433, 435)에서 방출되어 객체와의 접촉면으로부터 반사된 반사 패턴을 측정할 수 있다. 이때 제1 통로(441)는 발광층(430)과 수광층(450)을 연결하고, 제1 광 검출기(451)가 반사 패턴(또는 반사광)을 측정할 수 있기 위한 통로를 의미할 수 있다.
예를 들어, 수광층(450)에 포함된 제2 광 검출기(453)는 제2 통로(443)을 통해 발광층(430)의 복수의 화소들(예: 431, 433, 435)에서 방출되어 객체와의 접촉면으로부터 반사된 반사 패턴을 측정할 수 있다. 이때 제2 통로(443)는 발광층(430)과 수광층(450)을 연결하고, 제2 광 검출기(453)가 반사 패턴(또는 반사광)을 측정할 수 있기 위한 통로를 의미할 수 있다.
예를 들어, 수광층(450)에 포함된 제3 광 검출기(455)는 제3 통로(445)을 통해 발광층(430)의 복수의 화소들(예: 431, 433, 435)에서 방출되어 객체와의 접촉면으로부터 반사된 반사 패턴을 측정할 수 있다. 이때 제3 통로(445)는 발광층(430)과 수광층(450)을 연결하고, 제3 광 검출기(455)가 반사 패턴(또는 반사광)을 측정할 수 있기 위한 통로를 의미할 수 있다.
일 실시예에서, 프로세서는 수광층(450)에 의해 측정된 수광량에 기초하여 디스플레이 패널의 표면층(예: 투명층(410))과 객체 간의 접촉 영역을 식별할 수 있다.
일 실시예에서, 프로세서는 수광층(450)에 의해 측정된 반사 패턴에 기초하여 디스플레이 패널의 표면층(예: 투명층(410))과 접촉한 객체의 표면 조도 또는 경도를 검출할 수 있다.
도 5는 일 실시예에 따른 디스플레이 장치의 동작 방법을 도시한다.
상세하게는 도 1의 디스플레이 장치(100)에 의해 객체와의 접촉면에서의 발광 패턴의 변경 동작 및 변경된 발광 패턴에 기초하여 객체의 표면 조도의 검출 동작을 설명하기 위한 도면(500)이다.
도 5를 참조하면, 디스플레이 장치의 프로세서에 의한 발광 패턴의 변경 동작 및 표면 조도의 검출 동작은 단계들(510, 520, 530, 540, 550)을 포함할 수 있다.
단계(510)에서, 프로세서는 접촉 영역에 포함된 화소들의 발광 패턴을 변경할 수 있다.
일 실시예에서, 디스플레이 패널에 객체에 의한 접촉 영역을 감지한 경우, 프로세서는 디스플레이 패널의 발광층에 포함된 화소들의 발광 패턴을 미리 결정된 발광 패턴(예: 객체의 표면 조도를 측정하기 위한 발광 패턴)으로 변경할 수 있다. 객체에 의한 접촉 영역을 감지하는 동작은 후술되는 도 6에서 설명된다.
일 실시예에서, 프로세서는 접촉 영역에 포함된 상기 화소들로부터 방출되는 광들 간의 파장 차이, 디스플레이 패널의 투명층의 반사도, 또는 표면 조도의 측정시 필요한 분해능(resolution) 중 적어도 하나에 기초하여 발광 패턴을 변경할 수 있다.
일 실시예에서, 프로세서는 디스플레이 패널과 객체 간의 접촉 영역에 포함된 화소들의 발광색의 종류, 발광 형태, 발광 주기, 발광 방향을 변경함으로써 상기 발광 패턴을 변경할 수 있다.
일 실시예에서, 프로세서는 접촉 영역 중에서 제1 영역은 적색으로 발광되고, 제2 영역은 녹색으로 발광되도록 발광 패턴을 변경할 수 있다.
일 실시예에서, 프로세서는 접촉 영역 중에서 제1 영역은 적색으로 발광되고, 제2 영역은 녹색으로 발광되고 제3 영역은 청색으로 발광된 이후, 미리 결정된 시간에 따라 영역별 발광되는 색상이 변경되도록 발광 패턴을 변경할 수 있다. 객체의 표면 조도를 측정하기 위한 발광 패턴의 변경 동작은 후술되는 도 7에서 설명된다.
단계(520)에서, 프로세서는 제1 반사 패턴을 측정할 수 있다.
일 실시예에서, 프로세서는 변경된 발광 패턴에 기초하여 접촉 영역에 포함된 화소들로부터 방출되어 객체와의 접촉면으로부터 반사된 광의 제1 반사 패턴을 측정할 수 있다.
단계(530)에서, 프로세서는 제1 반사 패턴에 기초하여 객체의 표면 조도를 검출할 수 있다.
일 실시예에서, 프로세서는 측정된 제1 반사 패턴을 미리 결정된 알고리즘에 대입하여 제1 반사 패턴에 대응하는 표면 조도 값을 계산함으로써 디스플레이 표면에 접촉한 객체의 표면 조도 값을 검출할 수 있다.
일 실시예에서, 프로세서는 측정된 제1 반사 패턴에 대응하는 데이터를 데이터 베이스에서 검색하여 제1 반사 패턴과 매칭되는 표면 조도 값을 식별함으로써 디스플레이 표면에 접촉한 객체의 표면 조도 값을 검출할 수 있다. 이때, 표면 조도 값은 데이터 베이스에 제1 반사 패턴에 대응하는 데이터에 연관되어 저장될 수 있다.
단계(540)에서, 프로세서는 디스플레이 패널의 변형 정도를 추정할 수 있다.
일 실시예에서, 프로세서는 디스플레이 패널의 투명층의 변형 시간, 상기 투명층의 변형 회복 시간, 및 시간별 변형을 측정할 수 있다. 여기서, 투명층의 변형 시간은 디스플레이 패널과 객체 간의 접촉 시작 시점부터 접촉으로 인해 객체 더 이상 압축될 수 없는 시점까지의 기간을 의미할 수 있다. 투명층의 변형 회복 시간은 디스플레이 패널과 객체 간의 접촉으로 인해 객체 더 이상 압축될 수 없는 시점부터 객체가 원래 상태를 회복한 시점까지의 기간을 의미할 수 있다.
일 실시예에서, 프로세서는 투명층의 변형 시간, 변형 회복 시간, 및 시간별 변형에 기초하여, 디스플레이 패널과 객체 간의 접촉으로 발생된 투명층의 변형 정도(예: 변형 압흔, 또는 변형 면적)를 추정할 수 있다.
단계(550)에서, 프로세서는 제2 반사 패턴을 측정할 수 있다.
일 실시예에서, 프로세서는 디스플레이 패널의 투명층의 변형 정도(예: 변형 압흔, 또는 변형 면적)에 기초하여 접촉 영역에 포함된 화소들로부터 방출되어 객체와의 접촉면으로부터 반사된 광의 제2 반사 패턴을 측정할 수 있다.
단계(560)에서, 프로세서는 제2 반사 패턴에 기초하여 객체의 경도를 검출할 수 있다.
일 실시예에서, 프로세서는 측정된 제2 반사 패턴을 미리 결정된 알고리즘에 대입하여 제2 반사 패턴에 대응하는 표면 조도 값을 계산함으로써 디스플레이 표면에 접촉한 객체의 경도 값을 검출할 수 있다.
일 실시예에서, 프로세서는 측정된 제2 반사 패턴에 대응하는 데이터를 데이터 베이스에서 검색하여 제2 반사 패턴과 매칭되는 경도 값을 식별함으로써 디스플레이 표면에 접촉한 객체의 표면 조도 값을 검출할 수 있다. 이때, 경도 값은 데이터 베이스에 제2 반사 패턴에 대응하는 데이터에 연관되어 저장될 수 있다.
본 개시의 실시예에 따른 디스플레이 장치는 디스플레이 패널의 발광 패턴을 조절하여 접촉된 객체의 표면 조도의 검출하고, 디스플레이 패널의 투명층의 변형 정도를 추정하여 객체의 경도 조도의 검출함으로써, 별도의 추가 장비 없이 다양한 촉각 정보들을 검출 가능하다.
도 6은 일 실시예에 따른 디스플레이 장치의 동작 방법을 도시한다.
상세하게는 도 1의 디스플레이 장치(100)에 의해 디스플레이 패널과 객체 간의 접촉 영역에 대한 식별 동작을 설명하기 위한 도면(600)이다.
도 6을 참조하면, 디스플레이 장치의 프로세서에 의한 접촉 영역에 대한 식별 동작은 단계들(611, 613, 615)을 포함할 수 있다.
단계(611)에서, 프로세서는 디스플레이 패널에 포함된 서브 영역의 수광량이 임계값 미만 인지 여부를 식별할 수 있다.
일 실시예에서, 디스플레이 패널에 포함된 서브 영역의 수광량이 임계값 미만인 경우, 프로세서는 디스플레이 패널과 객체 간의 접촉으로 인해 수광량이 일시적으로 감소한 것으로 결정하여 단계(613)을 수행할 수 있다.
일 실시예에서, 디스플레이 패널에 포함된 서브 영역의 수광량이 임계값 이상인 경우, 프로세서는 디스플레이 패널과 객체 간의 접촉이 발생하지 않아 수광량이 임계값 이상인 것으로 결정하여 단계(615)를 수행할 수 있다.
단계(613)에서, 프로세서는 디스플레이 패널과 객체 간의 접촉 영역으로 식별할 수 있다.
일 실시예에서, 디스플레이 패널에 포함된 서브 영역의 수광량이 임계값 미만인 경우, 프로세서는 디스플레이 패널에 포함된 상기 서브 영역을 디스플레이 패널과 객체 간의 접촉 영역으로 식별할 수 있다.
단계(615)에서, 프로세서는 디스플레이 패널과 객체 간의 비접촉 영역으로 식별할 수 있다.
일 실시예에서, 디스플레이 패널에 포함된 서브 영역의 수광량이 임계값 이상인 경우, 프로세서는 디스플레이 패널에 포함된 상기 서브 영역을 디스플레이 패널과 객체 간의 비접촉 영역으로 식별할 수 있다.
도 7은 일 실시예에 따른 발광 패턴의 변경 동작을 나타내는 도면이다.
상세하게는 도 1의 디스플레이 장치(100)에 의해 발광 패턴을 변경하기 위한 동작을 설명하기 위한 도면(700)이다.
도 7을 참조하면, 디스플레이 장치의 디스플레이 패널은 디스플레이 패널과 객체 간의 접촉 영역(713)과 비접촉 영역(711, 715)를 포함할 수 있다.
일 실시예에서, 프로세서는 도 6에서 전술된 실시예에 기초하여 디스플레이 패널과 객체 간의 접촉 영역(713)을 식별할 수 있다.
일 실시예에서, 디스플레이 패널과 객체 간의 접촉 영역(713)이 식별된 경우, 프로세서는 접촉 영역(713)에 포함된 화소들의 발광 패턴을 변경할 수 있다.
일 실시예에서, 프로세서는 접촉 영역에 포함된 화소들로부터 방출되는 광들 간의 파장 차이, 디스플레이 패널의 투명층의 반사도, 또는 표면 조도의 측정시 필요한 분해능(resolution) 중 적어도 하나에 기초하여 발광 패턴을 변경할 수 있다.
일 실시예에서, 프로세서는 디스플레이 패널과 객체 간의 접촉 영역에 포함된 화소들의 발광색의 종류, 발광 형태, 발광 주기, 발광 방향을 변경함으로써 상기 발광 패턴을 변경할 수 있다.
일 실시예에서, 프로세서는 접촉 영역에 포함된 화소들로부터 방출된 광들의 파장 차이가 임계값 이상이되도록 접촉 영역에 포함된 화소들의 발광 패턴을 변경할 수 있다.
예를 들어, 프로세서는 화소들로부터 방출된 광들의 파장 차이가 임계값 이상이 되도록 제1 접촉 영역(731-1)의 화소들은 적색광을 방출하고 제2 접촉 영역(731-2)의 화소들은 청색광을 방출하도록 발광 패턴을 제1 발광 패턴으로 변경할 수 있다.
일 실시예에서, 프로세서는 접촉 영역에 포함된 화소들의 발광색이 미리 결정된 주기(또는 회전 사이클)로 변경되도록 접촉 영역에 포함된 화소들의 발광 패턴을 변경할 수 있다.
예를 들어, 프로세서는 제1 접촉 영역(733-1) 내지 제3 접촉 영역(733-3)에 포함된 화소들로부터 방출되는 발광색을 3개의 사이클을 반복하여 반시계 방향(또는 시계 방향)으로 회전하도록 발광 패턴을 제2 발광 패턴으로 변경할 수 있다.
예를 들어, 프로세서는 제2 발광 패턴에 기초하여 제1 사이클 동안 제1 접촉 영역(733-1)의 화소들이 적색광을 방출하고 제2 접촉 영역(733-2)의 화소들이 청색광을 방출하고 제3 접촉 영역(733-3)의 화소들이 녹색광을 방출하도록 구성될 수 있다. 프로세서는 제2 발광 패턴에 기초하여 제2 사이클 동안 제1 접촉 영역(733-1)의 화소들이 청색광을 방출하고 제2 접촉 영역(733-2)의 화소들이 녹색광을 방출하고 제3 접촉 영역(733-3)의 화소들이 적색광을 방출하도록 구성될 수 있다. 프로세서는, 제2 발광 패턴에 기초하여 제3 사이클 동안 제1 접촉 영역(733-1)의 화소들이 녹색광을 방출하고 제2 접촉 영역(733-2)의 화소들이 적색광을 방출하고 제3 접촉 영역(733-3)의 화소들이 청색광을 방출하도록 구성될 수 있다.
일 실시예에서, 프로세서는 변경된 발광 패턴에 기초하여 접촉 영역에 포함된 화소들로부터 방출되어 객체와의 접촉면으로부터 반사된 광의 반사 패턴을 측정할 수 있다.
일 실시예에서, 프로세서는 측정된 반사 패턴을 미리 결정된 알고리즘에 대입하거나 데이터 베이스에 검색하여 반사 패턴에 대응하는 표면 조도 값을 계산함으로써 디스플레이 표면에 접촉한 객체의 표면 조도를 검출할 수 있다.
본 개시의 실시예에 따른 디스플레이 장치의 프로세서는 객체와의 접촉이 감지되면 접촉 영역의 화소들의 발광 패턴을 변경하고, 변경된 발광 패턴에 따라 반사 패턴을 측정하고, 측정된 반사 패턴에 기초하여 접촉된 객체의 표면 조도의 검출이 가능한 디스플레이 장치를 제공할 수 있다.
도 7에서는 객체와의 접촉 영역에서 변경된 발광 패턴은 제1 발광 패턴 및 제2 발광 패턴에 기초하여 설명하였으나, 이에 한정되지 않으며 접촉 영역에 포함된 화소들의 발광색의 종류, 발광 형태, 발광 주기, 발광 방향의 변경에 따라 다양한 발광 패턴으로 변경될 수 있다.
도 8은 일 실시예에 따른 디스플레이 패널의 변형 정도의 추정 동작을 나타내는 도면이다.
상세하게는 도 1의 디스플레이 장치(100)에 의해 디스플레이 패널의 변형 정도의 추정 동작을 설명하기 위한 도면(800)이다.
도 8을 참조하면, 디스플레이 장치의 디스플레이 패널은 투명층(transparent layer)및 수광층( light-receiving layer)을 포함할 수 있다. 이때, 제1 형상(830-2) 및 제2 형상(850-2)은 디스플레이 패널의 수광층의 광 검출기에서 디스플레이 패널에 접촉한 객체를 z축 방향으로 바라본 평면도이다.
일 실시예에서, 디스플레이 패널의 수광층에는 디스플레이 패널과 객체 간의 접촉으로 인한 투명층의 변형 정도를 추정하기 위한 광 검출기(811)을 포함할 수 있다. 여기서 광 검출기(811)는 디스플레이 패널 내의 광을 검출 하거나 수광량 또는 반사 패턴을 측정하기 위한 모듈로서 CCD 카메라(charge-coupled device camera ) 또는 이미지 센서를 포함할 수 있다.
일 실시예에서, 프로세서는 광 검출기(811)를 이용하여, 디스플레이 패널(예: 투명층)과 객체 간의 접촉으로 인해 디스플레이 패널(예: 투명층)의 변형 시간, 변형 회복 시간, 시간별 변형을 측정할 수 있다.
여기서, 투명층의 변형 시간은 디스플레이 패널과 객체 간의 접촉 시작 시점부터 접촉으로 인해 객체 더 이상 압축될 수 없는 시점까지의 기간을 의미할 수 있다. 투명층의 변형 회복 시간은 디스플레이 패널과 객체 간의 접촉으로 인해 객체 더 이상 압축될 수 없는 시점부터 객체가 원래 상태를 회복한 시점까지의 기간을 의미하고, 투명층의 변형 정도는 디스플레이 패널과 객체 간의 접촉으로 인해 변형된 면적을 의미할 수 있다.
예를 들어, 제1 상태(830-1)는 객체가 디스플레이 패널(예: 투명층)에 접촉하기 직전 상태로서, 광 검출기(811)에서 촬영된 형상은 제1 형상(830-2)에 대응할 수 있다. 이때 객체의 접촉으로 인한 변형 전 투명층의 너비는 'a'일 수 있다(a>0).
예를 들어, 제2 상태(850-1)는 객체가 디스플레이 패널(예: 투명층)에 접촉 중인 상태로서, 광 검출기(811)에서 촬영된 형상은 제2 형상(850-2)에 대응할 수 있다. 이때 객체의 접촉으로 인한 변형 후 투명층의 너비는 'b'일 수 있다(b>a>0).
일 실시예에서, 프로세서는 투명층의 변형 시간, 변형 회복 시간, 및 시간별 변형 너비에 기초하여, 디스플레이 패널과 객체 간의 접촉으로 발생된 투명층의 변형 정도(예: 변형 압흔, 또는 변형 면적)를 추정할 수 있다.
일 실시예에서, 프로세서는 추정된 투명층의 변형 정도에 기초하여 접촉 영역에 포함된 화소들로부터 방출되어 객체와의 접촉면으로부터 반사된 광의 반사 패턴을 측정할 수 있다.
일 실시예에서, 프로세서는 측정된 반사 패턴을 미리 결정된 알고리즘에 대입하거나 데이터 베이스에 검색하여 반사 패턴에 대응하는 경도 값을 계산함으로써 디스플레이 표면에 접촉한 객체의 경도를 검출할 수 있다.
본 개시의 실시예에 따른 디스플레이 장치의 프로세서는 객체와의 접촉이 감지되면 접촉으로 인한 투명층의 변형 정도를 추정하고, 추정된 투명층의 변형 정도에 기초하여 접촉된 객체의 경도의 검출이 가능한 디스플레이 장치를 제공할 수 있다.
도 9는 일 실시예에 따른 프로세서를 포함하는 전자 장치를 나타내는 블록도(900)이다.
도 9를 참조하면, 전자 장치(1000)는 비전 센서(1100), 이미지 센서(1200), 메인 프로세서(1300), 워킹 메모리(1400), 스토리지(1500), 디스플레이 장치(1600), 유저 인터페이스(1700) 및 통신부(1800)를 포함할 수 있다. 한편, 본 개시는 이에 한하지 않으며, 전자 장치(1000)는 전술한 구성 요소들 중 적어도 일부가 생략되거나 별도의 구성 요소가 추가되도록 구현될 수 있다.
도 1 내지 도 8을 참조하여 전술된 디스플레이 장치(100)가 디스플레이 장치(1600)으로 적용되고, 프로세서가 메인 프로세서(1300)로 적용될 수 있다.
비전 센서(1100)는 오브젝트를 센싱하여 이벤트 신호들을 생성하고, 생성된 이벤트 신호들을 메인 프로세서(1300)로 전송할 수 있다. 도 1 내지 도 8b에서 비전 센서(1100)는 이미지 센서(1200)에 포함된 구성으로 해석될 여지가 있으나, 이에 한정되지 않으며 본 개시의 실시예에 따른 비전 센서(1100)는 비전 센서(100)만으로도 전자 장치(1000)에서 독자적인 센서로 기능하거나 동작할 수 있다.
이미지 센서(1200)는 수신되는 광 신호를 기초로 이미지 데이터, 예컨대 원시 이미지 데이터를 생성하고 이미지 데이터를 메인 프로세서(1300)에 제공할 수 있다.
메인 프로세서(1300)는 전자 장치(1000)의 전반적인 동작을 제어할 수 있으며, 디스플레이 패널에서 디스플레이 패널과 객체 간의 접촉 여부 또는 접촉 영역을 식별할 수 있다.
메인 프로세서(1300)는 디스플레이 패널과 객체 간의 접촉 영역에 포함된 화소들의 발광 패턴을 변경하고, 변경된 발광 패턴에 따라 디스플레이 패널과 객체 간의 접촉면으로부터 반사되는 광들의 제1 반사 패턴을 측정할 수 있다.
메인 프로세서(1300)는 디스플레이 패널과 객체 간의 접촉으로 인해 변형된 디스플레이 패널의 투명층의 변형 시간, 변형 회복 시간, 시간별 변형에 기초하여 투명층의 변형 정도를 추정하고, 투명층의 변형 정도에 따라 디스플레이 패널과 객체 간의 접촉면으로부터 반사되는 광들의 제2 반사 패턴을 측정할 수 있다.
메인 프로세서(1300)는 측정된 제2 반사 패턴에 기초하여 접촉한 객체의 표면 조도를 검출할 수 있다.
워킹 메모리(1400)는 전자 장치(1000)의 동작에 이용되는 데이터를 저장할 수 있다. 예를 들어, 워킹 메모리는(1400)는 메인 프로세서(1300)에 의해 처리된 패킷들 또는 프레임들을 일시적으로 저장할 수 있다. 예를 들어, 워킹 메모리는(1400)는 변경된 발광 패턴에 따라 디스플레이 패널과 객체 간의 접촉면으로부터 반사되는 광들의 제1 반사 패턴 또는 디스플레이 패널의 투명층의 변형 정도에 따라 디스플레이 패널과 객체 간의 접촉면으로부터 반사되는 광들의 제2 반사 패턴을 일시적으로 저장할 수 있다.
예를 들어, 워킹 메모리(1400)는 DRAM (Dynamic RAM), SDRAM (Synchronous RAM) 등과 같은 휘발성 메모리, 및/또는 PRAM (Phase-change RAM), MRAM (Magneto-resistive RAM), ReRAM (Resistive RAM), FRAM (Ferro-electric RAM) 등과 같은 불휘발성 메모리를 포함할 수 있다.
스토리지(1500)는 메인 프로세서(1300) 또는 다른 구성들로부터 저장이 요청된 데이터를 저장할 수 있다. 스토리지(1500)는 플래시 메모리, PRAM, MRAM, ReRAM, FRAM 등과 같은 불휘발성 메모리를 포함할 수 있다. 스토리지(1500)는 객체의 표면 조도 또는 경도를 검출하기 위한 알고리즘 또는 데이터 베이스를 저장할 수 있다.
디스플레이 장치(1600)는 디스플레이 패널, 디스플레이 구동 회로, 및 DSI (display serial interface)를 포함할 수 있다. 예를 들어, 디스플레이 패널은 LCD (Liquid Crystal Display) 장치, LED (Light Emitting Diode) 표시 장치, OLED(Organic LED) 표시 장치, AMOLED (Active Matrix OLED) 표시 장치 등과 같은 다양한 장치로 구현될 수 있다. 디스플레이 구동 회로는 디스플레이 패널을 구동하는데 필요한 타이밍 컨트롤러, 소스 드라이버 등을 포함할 수 있다. 메인 프로세서(1300)에 내장된 DSI 호스트는 DSI를 통하여 디스플레이 패널과 시리얼 통신을 수행할 수 있다.
유저 인터페이스(1700)는 키보드, 마우스, 키패드, 버튼, 터치 패널, 터치 스크린, 터치 패드, 터치 볼, 자이로스코프 센서, 진동 센서, 가속 센서 등과 같은 입력 인터페이스들 중 적어도 하나를 포함할 수 있다.
통신부(1800)는 안테나(1830)를 통해 외부 장치/시스템과 신호를 교환할 수 있다. 통신부(1800)의 송수신기(1810) 및 MODEM (Modulator/Demodulator, 1820)은 LTE (Long Term Evolution), WIMAX (Worldwide Interoperability for Microwave Access), GSM (Global System for Mobile communication), CDMA (Code Division Multiple Access), Bluetooth, NFC (Near Field Communication), Wi-Fi (Wireless Fidelity), RFID(Radio Frequency Identification) 등과 같은 무선 통신 규약에 따라, 외부 장치/시스템과 교환되는 신호를 처리할 수 있다.
전자 장치(1000)의 구성 요소들, 예를 들어 비전 센서(1100), 이미지 센서(1200), 메인 프로세서(1200), 워킹 메모리(1400), 스토리지(1500), 디스플레이 장치(1600), 유저 인터페이스(1700) 및 통신부(1800)는 USB (Universal Serial Bus), SCSI (Small Computer System Interface), MIPI, I2C, PCIe (Peripheral Component Interconnect Express), M-PCIe (Mobile PCIe), ATA (Advanced Technology Attachment), PATA (Parallel ATA), SATA (Serial ATA), SAS (Serial Attached SCSI), IDE (Integrated Drive Electronics), EIDE (Enhanced IDE), NVMe (Nonvolatile Memory Express), UFS (Universal Flash Storage) 등과 같은 다양한 인터페이스 규약 중 하나 이상에 의거하여 데이터를 교환할 수 있다.
도 10은 일 실시예에 따른 디스플레이 모듈을 포함하는 전자 장치를 나타내는 블록도이다.
도 10을 참고하면, 네트워크 환경(1003)에서 전자 장치(1001)는 제1 네트워크(1098)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(1002)와 통신하거나, 또는 제2 네트워크(1099)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(1004) 또는 서버(1008)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(1001)는 서버(1008)를 통하여 전자 장치(1004)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(1001)는 프로세서(1020), 메모리(1030), 입력 모듈(1050), 음향 출력 모듈(1055), 디스플레이 모듈(1060), 오디오 모듈(1070), 센서 모듈(1076), 인터페이스(1077), 연결 단자(1078), 햅틱 모듈(1079), 카메라 모듈(1080), 전력 관리 모듈(1088), 배터리(1089), 통신 모듈(1090), 가입자 식별 모듈(1096), 또는 안테나 모듈(1097)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(1001)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(1078))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시 예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(1076), 카메라 모듈(1080), 또는 안테나 모듈(1097))은 하나의 구성요소(예: 디스플레이 모듈(1060))로 통합될 수 있다.
프로세서(1020)는, 예를 들면, 소프트웨어(예: 프로그램(1040))를 실행하여 프로세서(1020)에 연결된 전자 장치(1001)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시 예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(1020)는 다른 구성요소(예: 센서 모듈(1076) 또는 통신 모듈(1090))로부터 수신된 명령 또는 데이터를 휘발성 메모리(1032)에 저장하고, 휘발성 메모리(1032)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(1034)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(1020)는 메인 프로세서(1021)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(1023)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(1001)가 메인 프로세서(1021) 및 보조 프로세서(1023)를 포함하는 경우, 보조 프로세서(1023)는 메인 프로세서(1021)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(1023)는 메인 프로세서(1021)와 별개로, 또는 그 일부로서 구현될 수 있다.
프로세서(1020)는, 예를 들면, 디스플레이 패널의 발광 패턴을 변경시켜 디스플레이 패널과 객체 간의 접촉면으로부터 반사된 광들의 반사 패턴을 측정함으로써 접촉한 객체의 표면 조도 값을 검출할 수 있다. .
프로세서(1020)는, 예를 들면, 디스플레이 패널과 객체 간의 접촉으로 인한 디스플레이 패널의 변형 정도를 추정하고 디스플레이 패널의 변형 정도에 기초하여 디스플레이 패널과 객체 간의 접촉면으로부터 반사된 광들의 반사 패턴을 측정함으로써 접촉한 객체의 경도 값을 검출할 수 있다.
보조 프로세서(1023)는, 예를 들면, 메인 프로세서(1021)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(1021)를 대신하여, 또는 메인 프로세서(1021)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(1021)와 함께, 전자 장치(1001)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(1060), 센서 모듈(1076), 또는 통신 모듈(1090))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(1023)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(1080) 또는 통신 모듈(1090))의 일부로서 구현될 수 있다. 일 실시 예에 따르면, 보조 프로세서(1023)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능이 수행되는 전자 장치(1001) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(1008))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(1030)는, 전자 장치(1001)의 적어도 하나의 구성요소(예: 프로세서(1020) 또는 센서 모듈(1076))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(1040)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(1030)는, 휘발성 메모리(1032) 또는 비휘발성 메모리(1034)를 포함할 수 있다.
프로그램(1040)은 메모리(1030)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(1042), 미들웨어(1044) 또는 어플리케이션(1046)을 포함할 수 있다.
입력 모듈(1050)은, 전자 장치(1001)의 구성요소(예: 프로세서(1020))에 사용될 명령 또는 데이터를 전자 장치(1001)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(1050)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(1055)은 음향 신호를 전자 장치(1001)의 외부로 출력할 수 있다. 음향 출력 모듈(1055)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(1060)은 전자 장치(1001)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(1060)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 디스플레이 모듈(1060)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
일 실시 예에 따르면, 디스플레이 모듈(1060)은 이미지를 표시함과 동시에, 디스플레이 모듈(1060)에 접촉한 객체의 표면 조도 또는 경도를 검출할 수 있다.
오디오 모듈(1070)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(1070)은, 입력 모듈(1050)을 통해 소리를 획득하거나, 음향 출력 모듈(1055), 또는 전자 장치(1001)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(1002))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(1076)은 전자 장치(1001)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시 예에 따르면, 센서 모듈(1076)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(1077)는 전자 장치(1010)가 외부 전자 장치(예: 전자 장치(1002))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(1077)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(1078)는, 그를 통해서 전자 장치(1001)가 외부 전자 장치(예: 전자 장치(1002))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시 예에 따르면, 연결 단자(1078)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(1079)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시 예에 따르면, 햅틱 모듈(1079)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(1080)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(1080)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(1088)은 전자 장치(1001)에 공급되는 전력을 관리할 수 있다. 일 실시 예에 따르면, 전력 관리 모듈(1088)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(1089)는 전자 장치(1001)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일 실시 예에 따르면, 배터리(1089)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(1090)은 전자 장치(1001)와 외부 전자 장치(예: 전자 장치(1002), 전자 장치(1004), 또는 서버(1008)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(1090)은 프로세서(1020)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(1090)은 무선 통신 모듈(1092)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(1094)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(1098)(예: 블루투스, Wi-Fi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제2 네트워크(1099)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(1004)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(1092)은 가입자 식별 모듈(1096)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제1 네트워크(1098) 또는 제2 네트워크(1099)와 같은 통신 네트워크 내에서 전자 장치(1001)를 식별 또는 인증할 수 있다.
무선 통신 모듈(1092)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(1092)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(1092)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전 차원 다중 입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(1092)은 전자 장치(1001), 외부 전자 장치(예: 전자 장치(1004)) 또는 네트워크 시스템(예: 제2 네트워크(1099))에 규정되는 다양한 요구사항을 지원할 수 있다. 일 실시 예에 따르면, 무선 통신 모듈(1092)은 eMBB 실현을 위한 Peak 데이터율(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(dl) 및 업링크(ul) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(1097)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시 예에 따르면, 안테나 모듈(1097)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시 예에 따르면, 안테나 모듈(1097)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제1 네트워크(1098) 또는 제2 네트워크(1099)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(1090)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(1090)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시 예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(1097)의 일부로 형성될 수 있다.
다양한 실시 예에 따르면, 안테나 모듈(1097)은 mmWave 안테나 모듈을 형성할 수 있다. 일 실시 예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시 예에 따르면, 명령 또는 데이터는 제2 네트워크(1099)에 연결된 서버(1008)를 통해서 전자 장치(1001)와 외부의 전자 장치(1004)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(1002, 또는 1004) 각각은 전자 장치(1001)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(1001)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(1002, 1004, 또는 1008) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(1001)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(1001)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(1001)로 전달할 수 있다. 전자 장치(1001)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(1001)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시 예에 있어서, 외부의 전자 장치(1004)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(1008)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일 실시 예에 따르면, 외부의 전자 장치(1004) 또는 서버(1008)는 제2 네트워크(1099) 내에 포함될 수 있다. 전자 장치(1001)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
메모리(1030)는 머신 러닝의 수행을 위한 태스크들 및 상기 태스크를 수행하기 위한 신경망 알고리즘, 목표 함수 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다.
메모리(1030)는, 예를 들면, 전자 장치(1001)의 적어도 하나의 다른 구성요소에 관계된 명령어 또는 데이터를 저장할 수 있다. 상기 명령어는 상기 프로세서 또는 상기 이미지 처리 모듈 중 적어도 하나에 의하여 실행될 수 있다. 상기 명령어는 후보 이미지 수집과 관련한 수집 명령어, 후보 이미지 표시와 관련한 표시 명령어, 선택된 후보 이미지 분석과 관련한 분석 명령어, 또는 분석 결과 기반으로 한 적어도 하나의 추천 이미지 생성 및 제공과 관련한 제공 명령어, 또는 선택 이미지 제공과 관련한 제공 명령어 중 적어도 하나를 포함할 수 있다.
상기 수집 명령어는 예컨대, 통신 모듈(1090) 또는 카메라 중 적어도 하나를 이용하여 후보 이미지를 수집하는 동작에 이용되는 명령어일 수 있다. 예컨대, 수집 명령어는 스케줄링 된 설정 또는 사용자 입력에 따라 서버(1008) 또는 외부 전자 장치 (1002, 1004) 접속을 수행하는 명령어, 접속된 서버(1008) 또는 외부 전자 장치의 후보 이미지 목록 수신과 관련 명령어, 사용자 입력에 따라 선택된 후보 이미지를 요청하여 수집하는 명령어 등을 포함할 수 있다. 상기 분석 명령어는 예컨대, 주요 특징 객체(ROI) 중심 이미지 분석 명령어, 사용자 Context 기반 이미지 분석 명령어 등을 포함할 수 있다. 상술한 분석 명령어에 포함된 적어도 하나의 명령어는 설정에 따라 또는 사용자 입력에 따라 후보 이미지 적용에 이용될 수 있다. 상기 제공 명령어는 주요 특징 객체(region of interest, ROI) 중심 이미지 추천 및 프리뷰(preview) 제공 명령어, 설정될 화면 속성에 기반하여 이미지를 추천하도록 하는 명령어, 실제 이미지를 초과하여 추천하도록 하는 명령어, 수정된 이미지에 여백이 포함된 경우 여백을 표시하도록 하는 명령어, 전자 장치의 화면 형태에 기반하여 이미지 추천하도록 하는 명령어, 또는 이미지 추천 시 지정된 필터를 적용하도록 하는 명령어 중 적어도 하나를 포함할 수 있다.
도면에는 도시되지 않았으나, 메모리(1030)은 분석 데이터베이스, 이미지 데이터베이스를 저장할 수 있다. 상기 분석 데이터베이스는 후보 이미지 분석과 관련한 적어도 하나의 명령어 또는 적어도 하나의 프로그램을 저장할 수 있다. 상기 분석 데이터베이스는 예컨대, 후보 이미지를 객체별로 구분 및 분류하는 분석 알고리즘을 저장할 수 있다. 상기 분석 알고리즘은 예컨대, 후보 이미지의 배경 객체, 사람 객체, 사물 객체, 동물 객체 등을 구분할 수 있다. 이와 관련하여, 상기 분석 데이터베이스는 사람, 사물, 동물 등을 구분할 수 있는 텍스처 정보 또는 특징점 정보를 저장할 수 있다. 또한, 분석 데이터베이스는 사람의 얼굴, 동물의 얼굴 등을 구분할 수 있는 특징점 정보 또는 텍스처 정보를 저장할 수 있다. 상기 이미지 데이터베이스는 적어도 하나의 후보 이미지를 저장할 수 있다. 예컨대, 상기 이미지 데이터베이스는 잠금 화면, 홈 화면, 지정된 어플리케이션 실행 화면 등에 적용되는 적어도 하나의 후보 이미지를 저장할 수 있다. 상기 이미지 데이터베이스에 저장된 후보 이미지는 앞서 설명한 바와 같이 카메라를 통해 수집되거나, 외부 전자 장치 또는 서버로부터 수신될 수 있다. 다양한 실시 예에 따르면, 상기 이미지 데이터베이스는 특정 후보 이미지를 기반으로 생성된 추천 이미지를 저장할 수 있다. 상기 이미지 데이터베이스는 전자 장치(1001) 또는 외부 전자 장치(1002)의 장치 정보를 저장할 수 있다. 또한, 이미지 데이터베이스는 전자 장치(1001) 또는 외부 전자 장치(1002)에 적용된 선택 이미지들의 정보를 저장할 수 있다.
본 개시의 실시예에 따른 장치 및 방법은, 이미지 표시 기능과 함께, 객체의 표면 조도 또는 경도를 검출 가능한 디스플레이 장치 및 이의 동작 방법을 제공할 수 있다.
일 실시예에 따른 디스플레이 장치에 있어서, 복수의 화소들을 포함하는 디스플레이 패널; 하나 이상의 인스트럭션을 저장하는 메모리; 및 하나 이상의 프로세서를 포함하며, 상기 하나 이상의 프로세서는 상기 하나 이상의 인스트럭션을 실행하여, 상기 디스플레이 패널과 객체(object) 간의 접촉 영역에 포함된 화소들의 발광 패턴을 변경하고, 상기 변경된 발광 패턴에 따라 상기 접촉 영역에서 반사되는 제1 반사 패턴을 측정하고, 상기 제1 반사 패턴에 기초하여 상기 객체의 표면 조도를 검출하고, 상기 디스플레이 패널과 객체 간의 접촉으로 인해 발생된 상기 디스플레이 패널의 투명층의 변형 정도를 추정하고, 상기 투명층의 변형 정도에 기초하여 상기 접촉 영역에서 반사되는 제2 반사 패턴을 측정하고, 상기 제2 반사 패턴에 기초하여 상기 객체의 경도를 검출할 수 있다.
일 실시예에 따른 상기 하나 이상의 프로세서는, 상기 디스플레이 패널에 포함된 적어도 하나의 서브 영역의 수광량이 임계값 미만인 경우, 상기 적어도 하나의 서브 영역을 상기 디스플레이 패널과 상기 객체 간의 상기 접촉 영역으로 식별할 수 있다.
일 실시예에 따른 상기 하나 이상의 프로세서는, 상기 접촉 영역에 포함된 상기 화소들로부터 방출되는 광들 간의 파장 차이, 상기 투명층의 반사도, 또는 상기 표면 조도의 측정시 필요한 분해능(resolution) 중 적어도 하나에 기초하여 상기 발광 패턴을 결정하도록 구성될 수 있다.
일 실시예에 따른 상기 하나 이상의 프로세서는, 상기 접촉 영역에 포함된 화소들의 발광색의 종류, 발광 형태, 발광 주기, 발광 방향을 변경함으로써 상기 발광 패턴을 변경하도록 구성될 수 있다.
일 실시예에 따른 상기 하나 이상의 프로세서는, 상기 투명층의 변형 시간 및 상기 투명층의 변형 회복 시간을 측정하고, 상기 측정된 투명층의 변형 시간, 변형 회복 시간, 및 시간별 변형에 기초하여, 상기 투명층의 변형 정도를 추정하도록 구성될 수 있다.
일 실시예에 따른 상기 제1 반사 패턴 및 상기 제2 반사 패턴은 상기 접촉 영역에 포함된 화소들로부터 방출된 광들 중에서 상기 디스플레이 패널과 상기 객체 간의 접촉면으로부터 반사된 광의 반사 패턴을 나타낼 수 있다.
일 실시예에 따른 상기 디스플레이 패널은 수직 방향으로 적층된 수광층, 발광층, 투명층을 포함하고, 상기 수광층은 상기 제1 반사 패턴 또는 상기 제2 반사 패턴을 측정하는 광 검출기를 포함하고, 상기 발광층은 상기 수광층 위에 배치되어 상기 복수의 화소들을 포함할 수 있다.
일 실시예에 따른 상기 투명층은, 상기 디스플레이 패널에서 상기 발광층 위에 배치되고 신축성 물질로 구현될 수 있다.
일 실시예에 따른 상기 표면 조도의 검출 영역 및 상기 경도의 검출 영역은,
상기 복수의 화소들 각각에 할당된 영역 중 적어도 하나의 영역에서 서로 중첩될 수 있다.
일 실시예에 따른 상기 표면 조도의 검출 영역은 상기 복수의 화소들 각각에 포함된 제1 영역을 포함하고, 상기 경도의 검출 영역은 상기 복수의 화소들 각각에 포함된 제2 영역을 포함하고, 상기 제1 영역과 상기 제2 영역은 서로 다른 영역을 나타낼 수 있다.
일 실시예에 따른 디스플레이 장치의 동작 방법에 있어서, 디스플레이 패널과 객체(object) 간의 접촉 영역에 포함된 화소들의 발광 패턴을 변경하는 동작, 상기 변경된 발광 패턴에 따라 상기 접촉 영역에서 반사되는 제1 반사 패턴을 측정하는 동작, 상기 제1 반사 패턴에 기초하여 상기 객체의 표면 조도를 검출하는 동작, 상기 디스플레이 패널과 객체 간의 접촉으로 인해 발생된 상기 디스플레이 패널의 투명층의 변형 정도를 추정하는 동작, 상기 투명층의 변형 정도에 기초하여 상기 접촉 영역에서 반사되는 제2 반사 패턴을 측정하는 동작, 및 상기 제2 반사 패턴에 기초하여 상기 객체의 경도를 검출하는 동작을 포함하고, 상기 디스플레이 패널은 복수의 화소들을 포함할 수 있다.
일 실시예에 따른 상기 디스플레이 패널에 포함된 적어도 하나의 서브 영역의 수광량이 임계값 미만인 경우, 상기 적어도 하나의 서브 영역을 상기 디스플레이 패널과 상기 객체 간의 상기 접촉 영역으로 식별하는 동작을 더 포함할 수 있다.
일 실시예에 따른 상기 접촉 영역에 포함된 상기 화소들로부터 방출되는 광들 간의 파장 차이, 상기 투명층의 반사도, 또는 상기 표면 조도의 측정시 필요한 분해능(resolution) 중 적어도 하나에 기초하여 상기 발광 패턴을 결정하는 동작을 더 포함할 수 있다.
일 실시예에 따른 상기 발광 패턴을 변경하는 동작은, 상기 접촉 영역에 포함된 화소들의 발광색의 종류, 발광 형태, 발광 주기, 발광 방향을 변경함으로써 상기 발광 패턴을 변경하는 동작을 포함할 수 있다.
일 실시예에 따른 상기 투명층의 변형 시간 및 상기 투명층의 변형 회복 시간을 측정하는 동작, 상기 측정된 투명층의 변형 시간, 변형 회복 시간, 및 시간별 변형에 기초하여, 상기 투명층의 변형 정도를 추정하는 동작을 더 포함할 수 있다.
일 실시예에 따른 상기 제1 반사 패턴 및 상기 제2 반사 패턴은 상기 접촉 영역에 포함된 화소들로부터 방출된 광들 중에서 상기 디스플레이 패널과 상기 객체 간의 접촉면으로부터 반사된 광의 반사 패턴을 나타낼 수 있다.
일 실시예에 따른 상기 디스플레이 패널은 수직 방향으로 적층된 수광층, 발광층, 투명층을 포함하고, 상기 수광층은 상기 제1 반사 패턴 또는 상기 제2 반사 패턴을 측정하는 광 검출기를 포함하고, 상기 발광층은 상기 수광층 위에 배치되어 상기 복수의 화소들을 포함하고, 상기 투명층은 상기 발광층 위에 배치되어 신축성 물질로 구현될 수 있다.
일 실시예에 따른 상기 표면 조도의 검출 영역 및 상기 경도의 검출 영역은, 상기 복수의 화소들 각각에 포함된 영역에서 서로 중첩될 수 있다.
일 실시예에 따른 상기 표면 조도의 검출 영역은 상기 복수의 화소들 각각에 포함된 제1 영역을 포함하고, 상기 경도의 검출 영역은 상기 복수의 화소들 각각에 포함된 제2 영역을 포함하고, 상기 제1 영역과 상기 제2 영역은 서로 다른 영역을 나타낼 수 있다.
일 실시예에 따른 디스플레이 장치의 동작 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.
컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스 될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독 가능 매체는 컴퓨터 저장 매체 및 통신 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독 가능 명령어, 데이터 구조, 또는 프로그램 모듈과 같은 변조된 데이터 신호의 기타 데이터를 포함할 수 있다.
또한, 컴퓨터에 의해 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.
상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
또한, 개시된 실시예들에 따른 디스플레이 장치의 동작 방법 및 전자 장치의 동작 방법 중 적어도 하나는 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
컴퓨터 프로그램 제품은 S/W 프로그램, S/W 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장 매체를 포함할 수 있다. 예를 들어, 컴퓨터 프로그램 제품은 전자 장치의 제조사 또는 전자 마켓(예, 구글 플레이 스토어, 앱 스토어)을 통해 전자적으로 배포되는 S/W 프로그램 형태의 상품(예, 다운로더블 앱)을 포함할 수 있다. 전자적 배포를 위하여, S/W 프로그램의 적어도 일부는 저장 매체에 저장되거나, 임시적으로 생성될 수 있다. 이 경우, 저장 매체는 제조사의 서버, 전자 마켓의 서버, 또는 SW 프로그램을 임시적으로 저장하는 중계 서버의 저장매체가 될 수 있다.
컴퓨터 프로그램 제품은, 서버 및 클라이언트 장치로 구성되는 시스템에서, 서버의 저장매체 또는 클라이언트 장치의 저장매체를 포함할 수 있다. 또는, 서버 또는 클라이언트 장치와 통신 연결되는 제3 장치(예, 스마트폰)가 존재하는 경우, 컴퓨터 프로그램 제품은 제3 장치의 저장매체를 포함할 수 있다. 또는, 컴퓨터 프로그램 제품은 서버로부터 클라이언트 장치 또는 제3 장치로 전송되거나, 제3 장치로부터 클라이언트 장치로 전송되는 S/W 프로그램 자체를 포함할 수 있다.
이 경우, 서버, 클라이언트 장치 및 제3 장치 중 하나가 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 수행할 수 있다. 또는, 서버, 클라이언트 장치 및 제3 장치 중 둘 이상이 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 분산하여 실시할 수 있다.
예를 들면, 서버(예로, 클라우드 서버 또는 인공 지능 서버 등)가 서버에 저장된 컴퓨터 프로그램 제품을 실행하여, 서버와 통신 연결된 클라이언트 장치가 개시된 실시예들에 따른 방법을 수행하도록 제어할 수 있다.
전술한 본 개시의 설명은 예시를 위한 것이며, 본 개시가 속하는 기술분야의 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 개시의 범위는 상기 상세한 설명보다는 후술하는 특허 청구범위에 의하여 나타내어지며, 특허 청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.
이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.

Claims (15)

  1. 디스플레이 장치에 있어서,
    복수의 화소들을 포함하는 디스플레이 패널;
    하나 이상의 인스트럭션을 저장하는 메모리; 및
    하나 이상의 프로세서를 포함하며, 상기 하나 이상의 프로세서는 상기 하나 이상의 인스트럭션을 실행하여,
    상기 디스플레이 패널과 객체(object) 간의 접촉 영역에 포함된 화소들의 발광 패턴을 변경하고,
    상기 변경된 발광 패턴에 따라 상기 접촉 영역에서 반사되는 제1 반사 패턴을 측정하고,
    상기 제1 반사 패턴에 기초하여 상기 객체의 표면 조도를 검출하고,
    상기 디스플레이 패널과 객체 간의 접촉으로 인해 발생된 상기 디스플레이 패널의 투명층의 변형 정도를 추정하고,
    상기 투명층의 변형 정도에 기초하여 상기 접촉 영역에서 반사되는 제2 반사 패턴을 측정하고,
    상기 제2 반사 패턴에 기초하여 상기 객체의 경도를 검출하는 디스플레이 장치.
  2. 청구항 1에 있어서,
    상기 하나 이상의 프로세서는,
    상기 디스플레이 패널에 포함된 적어도 하나의 서브 영역의 수광량이 임계값 미만인 경우, 상기 적어도 하나의 서브 영역을 상기 디스플레이 패널과 상기 객체 간의 상기 접촉 영역으로 식별하는 디스플레이 장치.
  3. 청구항 1에 있어서,
    상기 하나 이상의 프로세서는,
    상기 접촉 영역에 포함된 상기 화소들로부터 방출되는 광들 간의 파장 차이, 상기 투명층의 반사도, 또는 상기 표면 조도의 측정시 필요한 분해능(resolution) 중 적어도 하나에 기초하여 상기 발광 패턴을 결정하도록 구성되는 디스플레이 장치.
  4. 청구항 1에 있어서,
    상기 하나 이상의 프로세서는,
    상기 접촉 영역에 포함된 화소들의 발광색의 종류, 발광 형태, 발광 주기, 발광 방향을 변경함으로써 상기 발광 패턴을 변경하도록 구성되는 디스플레이 장치.
  5. 청구항 1에 있어서,
    상기 하나 이상의 프로세서는,
    상기 투명층의 변형 시간 및 상기 투명층의 변형 회복 시간을 측정하고,
    상기 측정된 투명층의 변형 시간, 변형 회복 시간, 및 시간별 변형에 기초하여, 상기 투명층의 변형 정도를 추정하도록 구성되는 디스플레이 장치.
  6. 청구항 1에 있어서,
    상기 디스플레이 패널은 수직 방향으로 적층된 수광층, 발광층, 투명층을 포함하고,
    상기 수광층은 상기 제1 반사 패턴 또는 상기 제2 반사 패턴을 측정하는 광 검출기를 포함하고,
    상기 발광층은 상기 수광층 위에 배치되어 상기 복수의 화소들을 포함하는 디스플레이 장치.
  7. 청구항 1에 있어서,
    상기 표면 조도의 검출 영역 및 상기 경도의 검출 영역은,
    상기 복수의 화소들 각각에 할당된 영역 중 적어도 하나의 영역에서 서로 중첩되는 디스플레이 장치.
  8. 디스플레이 장치의 동작 방법에 있어서,
    디스플레이 패널과 객체(object) 간의 접촉 영역에 포함된 화소들의 발광 패턴을 변경하는 동작,
    상기 변경된 발광 패턴에 따라 상기 접촉 영역에서 반사되는 제1 반사 패턴을 측정하는 동작,
    상기 제1 반사 패턴에 기초하여 상기 객체의 표면 조도를 검출하는 동작,
    상기 디스플레이 패널과 객체 간의 접촉으로 인해 발생된 상기 디스플레이 패널의 투명층의 변형 정도를 추정하는 동작,
    상기 투명층의 변형 정도에 기초하여 상기 접촉 영역에서 반사되는 제2 반사 패턴을 측정하는 동작, 및
    상기 제2 반사 패턴에 기초하여 상기 객체의 경도를 검출하는 동작을 포함하고,
    상기 디스플레이 패널은 복수의 화소들을 포함하는 방법.
  9. 청구항 8에 있어서,
    상기 디스플레이 패널에 포함된 적어도 하나의 서브 영역의 수광량이 임계값 미만인 경우, 상기 적어도 하나의 서브 영역을 상기 디스플레이 패널과 상기 객체 간의 상기 접촉 영역으로 식별하는 동작을 더 포함하는 방법.
  10. 청구항 8에 있어서,
    상기 접촉 영역에 포함된 상기 화소들로부터 방출되는 광들 간의 파장 차이, 상기 투명층의 반사도, 또는 상기 표면 조도의 측정시 필요한 분해능(resolution) 중 적어도 하나에 기초하여 상기 발광 패턴을 결정하는 동작을 더 포함하는 방법.
  11. 청구항 8에 있어서,
    상기 발광 패턴을 변경하는 동작은,
    상기 접촉 영역에 포함된 화소들의 발광색의 종류, 발광 형태, 발광 주기, 발광 방향을 변경함으로써 상기 발광 패턴을 변경하는 동작을 포함하는 방법.
  12. 청구항 8에 있어서,
    상기 투명층의 변형 시간 및 상기 투명층의 변형 회복 시간을 측정하는 동작,
    상기 측정된 투명층의 변형 시간, 변형 회복 시간, 및 시간별 변형에 기초하여, 상기 투명층의 변형 정도를 추정하는 동작을 더 포함하는 방법.
  13. 청구항 8에 있어서,
    상기 디스플레이 패널은 수직 방향으로 적층된 수광층, 발광층, 투명층을 포함하고,
    상기 수광층은 상기 제1 반사 패턴 또는 상기 제2 반사 패턴을 측정하는 광 검출기를 포함하고,
    상기 발광층은 상기 수광층 위에 배치되어 상기 복수의 화소들을 포함하고,
    상기 투명층은 상기 발광층 위에 배치되어 신축성 물질로 구현되는 방법.
  14. 청구항 8항에 있어서,
    상기 표면 조도의 검출 영역 및 상기 경도의 검출 영역은,
    상기 복수의 화소들 각각에 포함된 영역에서 서로 중첩되는 방법.
  15. 청구항 8 내지 청구항 14 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
PCT/KR2023/012060 2022-10-07 2023-08-14 디스플레이 장치 및 이의 동작 방법 WO2024075969A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220129043A KR20240049012A (ko) 2022-10-07 2022-10-07 디스플레이 장치 및 이의 동작 방법
KR10-2022-0129043 2022-10-07

Publications (1)

Publication Number Publication Date
WO2024075969A1 true WO2024075969A1 (ko) 2024-04-11

Family

ID=90608549

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/012060 WO2024075969A1 (ko) 2022-10-07 2023-08-14 디스플레이 장치 및 이의 동작 방법

Country Status (2)

Country Link
KR (1) KR20240049012A (ko)
WO (1) WO2024075969A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012515403A (ja) * 2009-01-14 2012-07-05 ペルセプトイベ ピクエル インコーポレイテッド タッチ感応ディスプレイ
US20170160871A1 (en) * 2015-12-02 2017-06-08 Rapt Ip Limited Vibrated waveguide surface for optical touch detection
KR20190060025A (ko) * 2017-11-23 2019-06-03 삼성디스플레이 주식회사 표시 장치 및 이의 구동방법
KR20190066433A (ko) * 2017-12-05 2019-06-13 삼성전자주식회사 마이크로 홀이 형성된 차광 부재를 포함하는 전자 장치
KR20200098935A (ko) * 2019-02-13 2020-08-21 삼성전자주식회사 디스플레이 및 이를 포함하는 전자 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012515403A (ja) * 2009-01-14 2012-07-05 ペルセプトイベ ピクエル インコーポレイテッド タッチ感応ディスプレイ
US20170160871A1 (en) * 2015-12-02 2017-06-08 Rapt Ip Limited Vibrated waveguide surface for optical touch detection
KR20190060025A (ko) * 2017-11-23 2019-06-03 삼성디스플레이 주식회사 표시 장치 및 이의 구동방법
KR20190066433A (ko) * 2017-12-05 2019-06-13 삼성전자주식회사 마이크로 홀이 형성된 차광 부재를 포함하는 전자 장치
KR20200098935A (ko) * 2019-02-13 2020-08-21 삼성전자주식회사 디스플레이 및 이를 포함하는 전자 장치

Also Published As

Publication number Publication date
KR20240049012A (ko) 2024-04-16

Similar Documents

Publication Publication Date Title
AU2019307343A1 (en) Display assembly including antenna and electronic device including the same
WO2022097857A1 (en) Electronic device and method for displaying image on flexible display
WO2021066468A1 (en) Electronic device and control method thereof
WO2020071823A1 (en) Electronic device and gesture recognition method thereof
WO2022154379A1 (ko) 전자 장치 및 밝기 조절 방법
WO2024075969A1 (ko) 디스플레이 장치 및 이의 동작 방법
WO2022154423A1 (ko) 전자 장치 및 전자 장치에서 스타일러스 펜의 입력을 처리하는 방법
WO2021256709A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2022173117A1 (ko) 전자 장치 및 전자 장치에서 픽셀 데이터를 보정하는 방법
WO2022177134A1 (ko) 전자 장치 및 전자 장치에서 광학 센서의 인식률을 개선시키는 방법
WO2024063432A1 (ko) 전자 장치의 어플리케이션 실행 화면 제어 방법 및 그 전자 장치
WO2023008854A1 (ko) 디스플레이 내장형 광학 센서를 포함하는 전자 장치
WO2023043072A1 (ko) 카메라를 포함하는 전자 장치 및 그 동작 방법
WO2024085642A1 (ko) 디스플레이를 포함하는 전자 장치 및 이의 동작 방법
WO2023003119A1 (ko) 디스플레이를 포함하는 전자 장치 및 방법
WO2023018119A1 (ko) 카메라 모듈을 포함하는 전자 장치
WO2023017999A1 (ko) 디스플레이를 포함하는 전자 장치
WO2022270726A1 (ko) 표시 영역 내의 잔상을 감소시키기 위한 전자 장치, 방법, 및 컴퓨터 판독가능 저장 매체
WO2024111943A1 (ko) 복수의 카메라를 이용하여 코드 정보에 대응하는 시각적 객체를 식별하기 위한 전자 장치, 방법, 및 컴퓨터 판독 가능 저장 매체
WO2023128364A1 (ko) Udc(under display camera)를 위한 디스플레이 패널 및 이를 포함하는 전자 장치
WO2023063560A1 (ko) 시야 각 제어를 위한 디스플레이 장치 및 전자 장치
WO2024071930A1 (ko) 이미지를 적응적으로 저장하는 디스플레이 구동 회로를 포함하는 전자 장치
WO2022050539A1 (ko) 센서를 포함하는 전자 장치 및 이를 이용한 생체 정보 획득 방법
WO2022225207A1 (ko) 터치 데이터를 양자화하기 위한 방법 및 이를 지원하는 전자 장치
WO2022220401A1 (ko) 어플리케이션을 실행하는 방법 및 이를 지원하는 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23875039

Country of ref document: EP

Kind code of ref document: A1