WO2022225148A1 - Method for calibrating multi-display and apparatus for calibrating multi-display - Google Patents

Method for calibrating multi-display and apparatus for calibrating multi-display Download PDF

Info

Publication number
WO2022225148A1
WO2022225148A1 PCT/KR2022/001513 KR2022001513W WO2022225148A1 WO 2022225148 A1 WO2022225148 A1 WO 2022225148A1 KR 2022001513 W KR2022001513 W KR 2022001513W WO 2022225148 A1 WO2022225148 A1 WO 2022225148A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
display
image data
image
value
Prior art date
Application number
PCT/KR2022/001513
Other languages
French (fr)
Korean (ko)
Inventor
안토니자쿠비아크
체자리흐샤노프스키
파웰키스
로만프레제크
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of WO2022225148A1 publication Critical patent/WO2022225148A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • H04N5/202Gamma control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1446Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0271Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping
    • G09G2320/0276Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping for the purpose of adaptation to the characteristics of a display device, i.e. gamma correction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0673Adjustment of display parameters for control of gamma adjustment, e.g. selecting another gamma curve

Definitions

  • the present disclosure relates to a multi-display calibration method and a multi-display calibration apparatus, and more particularly, to a method and apparatus for calibrating a multi-display using a camera.
  • the multi-display is a configuration for displaying one image using a plurality of display devices (eg, a display panel or a projector).
  • a plurality of display devices eg, a display panel or a projector.
  • color deviation or brightness deviation between the display apparatuses may occur as the characteristics of each display apparatus are different.
  • the plurality of display devices each include a non-linear gamma correction function, it is difficult to calibrate the multi-display so that the plurality of display devices display a unified image.
  • An aspect of the disclosed invention provides a multi-display calibration method and a multi-display calibration apparatus capable of calibrating multi-displays regardless of characteristics of a plurality of display devices.
  • An aspect of the disclosed invention provides a multi-display calibration method and a multi-display calibration apparatus capable of calibrating multi-displays regardless of ambient light.
  • a multi-display calibration method includes: displaying, by a multi-display, a first image and a second image, respectively; obtaining, by a camera, first image data corresponding to the first image and second image data corresponding to the second image by photographing the multi-display; determining a correction function for each pixel based on a difference value between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data; and correcting the multi-display based on the correction function for each pixel.
  • the first image may be a full white image
  • the second image may be a full black image
  • the determining of the correction function for each pixel may include calculating a first difference value between a data value of a first pixel included in the first image data and a data value of the first pixel included in the second image data. to do; determining the darkest pixel based on a difference value between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data; and determining a correction function of the first pixel based on the data value of the darkest pixel and the first difference value.
  • the method may further include calculating a second difference value between a data value of a second pixel included in the first image data and a data value of the second pixel included in the second image data; and determining a correction function of the second pixel based on the data value of the darkest pixel and the second difference value.
  • the correction function of the first pixel is a response function for normalizing the first difference value based on the data value of the darkest pixel
  • the correction function of the second pixel is the second difference value. It may be a response function for normalizing based on the data value of the darkest pixel.
  • the multi-display correction method may include: displaying, by the multi-display, a third image; obtaining, by the camera, third image data corresponding to the third image by photographing the multi-display; and mapping the plurality of pixels included in the image data of the third image and the plurality of pixels included in the third image data; may further include.
  • mapping of the plurality of pixels included in the image data of the third image and the plurality of pixels included in the third image data may include: It may include; mapping the pixel to any one of the plurality of pixels included in the third image data.
  • the multi-display correction method may include: displaying a third image and a fourth image at different timings, respectively, by a plurality of display devices constituting the multi-display; obtaining, by the camera, third image data corresponding to the third image and fourth image data corresponding to the fourth image by photographing the multi-display; estimating a luminance value of each of the plurality of display devices based on a luminance data value included in the third image data and a luminance data value included in the fourth image data; and determining a global correction function applied to all pixels of each of the plurality of display devices based on the luminance values of each of the plurality of display devices.
  • the determining of the global correction function may include: determining a minimum luminance value among luminance values of each of the plurality of display devices; and determining a global correction function corresponding to each of the plurality of display devices based on the minimum luminance value and the respective luminance values of the plurality of display devices.
  • the global correction function corresponding to the first display device among the plurality of display devices may be a response function for limiting the luminance value of the first display device based on the minimum luminance value.
  • the multi-display calibration method may further include calibrating each of the plurality of display devices based on a global correction function applied to all pixels of each of the plurality of display devices.
  • the determining of the correction function for each pixel based on a difference value between the data value for each pixel included in the first image data and the data value for each pixel included in the second image data is included in the first image data. and determining a correction function for each pixel group of the multi-display based on a difference value between the data value for each pixel and the data value for each pixel included in the second image data.
  • a multi-display apparatus includes: a communication interface for receiving, by a camera, first image data and second image data obtained by photographing the multi-display; and determining a correction function for each pixel of the multi-display based on a difference value between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data, and to the correction function for each pixel. It may include; a processor for correcting the multi-display based on the.
  • the processor is further configured to calculate a first difference value between a data value of a first pixel included in the first image data and a data value of the first pixel included in the second image data, and the first image data
  • the darkest pixel is determined based on a difference value between a data value for each pixel included in the , and a data value for each pixel included in the second image data, and the darkest pixel is determined based on the data value of the darkest pixel and the first difference value.
  • a correction function of the first pixel may be determined.
  • the processor calculates a second difference value between a data value of a second pixel included in the first image data and a data value of the second pixel included in the second image data, and The correction function of the second pixel may be determined based on the data value and the second difference value.
  • the correction function of the first pixel is a response function for normalizing the first difference value based on the data value of the darkest pixel
  • the correction function of the second pixel is the second difference value. It may be a response function for normalizing based on the data value of the darkest pixel.
  • the communication interface receives third image data and fourth image data obtained by photographing the multi-display by the camera
  • the processor includes a luminance data value included in the third image data and the fourth image
  • a global correction function that estimates the luminance value of each of the plurality of display devices based on the luminance data value included in the data, and is applied to all pixels of each of the plurality of display devices based on the luminance value of each of the plurality of display devices may be determined, and each of the plurality of display devices may be corrected based on a global correction function applied to all pixels of each of the plurality of display devices.
  • the processor determines a minimum luminance value from among the luminance values of each of the plurality of display apparatuses, and based on the minimum luminance value and the luminance values of each of the plurality of display apparatuses, a global corresponding to each of the plurality of display apparatuses.
  • a correction function can be determined.
  • the global correction function corresponding to the first display device among the plurality of display devices may be a response function for limiting the luminance value of the first display device based on the minimum luminance value.
  • the processor may determine a correction function for each pixel group of the multi-display based on a difference value between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data. .
  • a unified image may be provided to a user using a multi-display.
  • FIG. 1 is a diagram illustrating an example of a multi-display according to an embodiment.
  • FIG. 2 is a diagram illustrating another example of a multi-display according to an embodiment.
  • FIG. 3 is a block diagram of a multi-display calibration apparatus according to an exemplary embodiment.
  • FIG. 4 is an integrated flowchart of a multi-display calibration method according to an exemplary embodiment.
  • FIG. 5 shows an example of pixel mapping according to an embodiment.
  • 6 and 7 are flowcharts of a specific embodiment of a multi-display calibration method according to an embodiment.
  • ⁇ part may mean a unit for processing at least one function or operation.
  • the terms may refer to at least one process processed by at least one hardware such as a field-programmable gate array (FPGA)/application specific integrated circuit (ASIC), at least one software stored in a memory, or a processor.
  • FPGA field-programmable gate array
  • ASIC application specific integrated circuit
  • FIG. 1 is a diagram illustrating an example of a multi-display according to an embodiment.
  • a multi-display 10 may include a plurality of display devices 10 - 1 and 10 - 2 .
  • each of the plurality of display devices 10 - 1 and 10 - 2 may include an independent display panel (eg, an LED panel or a liquid crystal panel).
  • each of the plurality of display devices 10 - 1 and 10 - 2 may include a plurality of pixels, and each of the plurality of pixels includes a red sub-pixel emitting red light and a green light emitting green light.
  • the sub-pixel may include a blue sub-pixel emitting blue light.
  • a plurality of display devices 10 - 1 and 10 - 2 may be arranged in a two-dimensional matrix form or may be arranged in one dimension.
  • the multi-display 10 according to an exemplary embodiment does not limit a method in which a plurality of display devices are arranged or the number of independent display devices constituting one display panel.
  • each of the plurality of display apparatuses 10 - 3 and 10 - 4 constituting the multi-display 10 may include an independent image projection apparatus (eg, a beam projector).
  • an independent image projection apparatus eg, a beam projector
  • the plurality of display apparatuses 10 - 3 and 10 - 4 may configure one screen by projecting an image on the same projection area.
  • the multi-display 10 may be configured as a combination of a display panel and an image projection apparatus.
  • a plurality of display devices constituting the multi-display 10 may have different characteristics (eg, a gamma correction curve, a maximum gray value for each pixel, and the number of pixels). Even if a plurality of display devices constituting the multi-display 10 are the same model produced in the same factory, they have different characteristics due to a change in characteristics according to the period of use.
  • characteristics eg, a gamma correction curve, a maximum gray value for each pixel, and the number of pixels.
  • the unity of the images output by the multi-display 10 may be deteriorated.
  • the sharpness and/or gradation value for each pixel of one display device is different from the sharpness and/or gradation value for each pixel of an adjacent display device, the user may feel a sense of difference due to the difference in sharpness and/or brightness.
  • each display device should be calibrated according to the characteristics of each display device, or image data input to each display device should be calibrated.
  • calibrating the multi-display may include both calibrating a plurality of display devices constituting the multi-display and calibrating image data input to each display device.
  • the multi-display calibration apparatus 100 may generate a per-pixel calibration function and/or a global calibration function based on the display image of the multi-display 10 acquired through the camera 200 .
  • FIG. 3 is a block diagram of a multi-display calibration apparatus according to an exemplary embodiment.
  • the multi-display calibration apparatus 100 includes a communication interface 110 capable of communicating directly or indirectly with the camera 200 and/or the multi-display 10 , and at least one The processor 120 and at least one memory 130 may be included.
  • the communication interface 110 may include a short-range communication module and/or a wireless communication module and/or a wireless communication module.
  • WiBro Global System for Mobile Communication
  • CDMA Code Division Multiple Access
  • WCDMA Wideband Code Division Multiple Access
  • UMTS Universal Mobile Telecommunications System
  • TDMA Time Division Multiple Access
  • LTE Long Term Evolution
  • 4th generation mobile communication 5th generation mobile communication, and the like.
  • Short-distance communication module includes Bluetooth module, infrared communication module, RFID (Radio Frequency Identification) communication module, WLAN (Wireless Local Access Network) communication module, NFC communication module, Zigbee communication module, Z-Wave communication It may include at least one of various short-range communication modules for transmitting and receiving signals using a wireless communication network in a short distance, such as a module, a Wi-Fi direct communication module, and a low-power Bluetooth module (BLE).
  • RFID Radio Frequency Identification
  • WLAN Wireless Local Access Network
  • NFC communication module Wireless Local Access Network
  • Zigbee communication module Zigbee communication module
  • Z-Wave communication It may include at least one of various short-range communication modules for transmitting and receiving signals using a wireless communication network in a short distance, such as a module, a Wi-Fi direct communication module, and a low-power Bluetooth module (BLE).
  • BLE low-power Bluetooth module
  • the wired communication module may include a local area network (LAN) communication module or a power line communication module.
  • LAN local area network
  • the communication interface 110 may include one or more that the multi-display calibration device 100 may be used to directly or wirelessly connect with an external electronic device (eg, the multi-display 10 and the camera 200). It can support specified protocols.
  • an external electronic device eg, the multi-display 10 and the camera 200. It can support specified protocols.
  • the communication interface 110 may include a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, or an SD card interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital interface
  • the communication interface 110 may include a connector that can be physically connected to an external electronic device (eg, the multi-display 10 or the camera 200) through a connection terminal.
  • the communication interface 110 may include an HDMI connector, a USB connector, or an SD card connector.
  • the at least one memory 130 may store a program and data for calibrating the multi-display 10 , and may store temporary data generated while calibrating components included in the multi-display.
  • the memory 130 may include a program for generating a per-pixel correction function, a program for calibrating the multi-display 10 according to the per-pixel correction function, a program for generating a global correction function, and a multi-function according to the global correction function.
  • a program for calibrating the display 10 may be included.
  • the memory 130 may store image data (eg, full black image data, full white image data, full red image data) used to correct the multi-display 10 .
  • image data eg, full black image data, full white image data, full red image data
  • data, full green image data, full blue image data, pattern image data can be stored.
  • the full black image data means image data in which data values for all pixels are a first preset value (0 to 10)
  • a full white image Data may mean image data in which data values for all pixels are second preset values (250 to 255).
  • the memory 130 includes a non-volatile memory such as a read only memory and a flash memory for storing data for a long period of time, and a static random access memory (S-RAM) and D for temporarily storing data.
  • a non-volatile memory such as a read only memory and a flash memory for storing data for a long period of time
  • S-RAM static random access memory
  • D for temporarily storing data.
  • -Volatile memory such as RAM (Dynamic Random Access Memory) may be included.
  • the at least one processor 120 may calibrate the multi-display 10 according to the program and data stored in the at least one memory 130 .
  • the at least one processor 120 may include an arithmetic circuit that performs logical operations and arithmetic operations, and a memory circuit that stores the calculated data.
  • the camera 200 may acquire image data corresponding to an image output from the multi-display 10 by photographing the multi-display 10 .
  • the camera 200 photographing the multi-display 10 may mean “the camera 200 photographing the display area of the multi-display 10".
  • the camera 200 shoots the multi-display 10 means "taking the projection surface of the beam projector”.
  • camera 200 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the multi-display calibrating apparatus 100 may be provided as a component of the camera 200 or may be provided as a component separate from the camera 200 .
  • FIG. 4 is an integrated flowchart of a multi-display calibration method according to an embodiment
  • FIG. 5 shows an example of pixel mapping according to an embodiment.
  • the multi-display calibrating apparatus 100 may map pixels of image data obtained through the camera 200 and pixels of the multi-display 10 ( 1000 ).
  • the processor 120 may transmit image data for mapping (hereinafter, 'mapping image data') (eg, image data including a phase shift pattern) through the communication interface 110, and multi-display 10 may display an image corresponding to the mapping image data (hereinafter, 'mapping image'), and the camera 200 captures the multi-display 10 to obtain image data corresponding to the mapping image (hereinafter, 'pattern image data'). ') can be obtained.
  • 'mapping image data' eg, image data including a phase shift pattern
  • the processor 120 may match the domain of the multi-display 10 with the domain of the camera 200 based on the pattern image data obtained from the camera 200 and the mapping image data.
  • the processor 120 may control the angle of the lens of the camera 200 or control the focus function of the camera 200 so that the mapping image data and the pattern image data match.
  • the processor 120 may control the angle of the lens of the image projection apparatus constituting the multi-display 10 so that the mapping image data and the pattern image data match, or control the focus function of the image projection apparatus.
  • the processor 120 may generate a response function for the pattern image data to match the mapping image data with the pattern image data.
  • the processor 120 may map a plurality of pixels included in the mapping image data MI and a plurality of pixels included in the pattern image data CI.
  • the multi-display 10 relatively many pixels are used to output one image by a plurality of display devices, whereas relatively few pixels are used in the case of the camera 200 .
  • the processor 120 may map at least one pixel among a plurality of pixels included in the mapping image data MI and any one pixel among a plurality of pixels included in the pattern image data CI. have.
  • the processor 120 may map ten pixels included in the mapping image data M1 and one pixel included in the pattern image data CI.
  • the pixels of each of the plurality of display devices constituting the multi-display 10 may match the domains of the pixels of the image obtained through the camera 200 .
  • the processor 120 may acquire first image data and second image data from the camera 200 ( 1100 ).
  • the processor 120 may transmit image data (hereinafter, 'first corrected image data') corresponding to the first image (eg, a full-white image) to the multi-display 10 through the communication interface 110 .
  • the multi-display 10 may display the first image
  • the camera 200 may acquire the first image data corresponding to the first image by photographing the multi-display 10 .
  • the processor 120 may transmit image data (hereinafter, 'second corrected image data') corresponding to the second image (eg, a full black image) to the multi-display 10 through the communication interface 110 , , the multi-display 10 may display a second image, and the camera 200 may acquire second image data corresponding to the second image by photographing the multi-display 10 .
  • image data hereinafter, 'second corrected image data'
  • the multi-display 10 may display a second image
  • the camera 200 may acquire second image data corresponding to the second image by photographing the multi-display 10 .
  • the multi-display 10 outputs a monochromatic grayscale image (eg, a full black image, a full white image, or a full gray image), and the camera 200 shoots the multi-display 10 that outputs a monochromatic grayscale image
  • the multi-display calibration apparatus 100 may receive image data obtained from the camera 200 .
  • the monochromatic grayscale image may be a full-red image, a full-green image, or a full-blue image in order to obtain correction data for each color channel.
  • the processor 120 may determine a correction function for each pixel (eg, a correction function for each pixel of the camera 200 or a correction function for each pixel of the multi-display 10 ) based on the first image data and the second image data (eg, a correction function for each pixel of the multi-display 10 ). 1200).
  • the processor 120 may determine a correction function for each pixel in consideration of the characteristics of the image projection surface.
  • the user may input information on the image projection surface through an input device such as a remote control.
  • the user may be provided with a projection surface (eg, a flat board having uniform visual characteristics) used to calibrate the image projection device, and the user may use the projection surface to calibrate the multi-display according to an embodiment method can be used.
  • a projection surface eg, a flat board having uniform visual characteristics
  • the processor 120 may compare the first image data and/or the second image data with pre-stored comparison image data to determine a characteristic of the corresponding image projection surface.
  • the per-pixel correction function of the camera 200 or the per-pixel correction function of the multi-display 10 are all multi-display (10) can be used to correct
  • the processor 120 may determine a global correction function based on the first image data and the second image data ( 1300 ).
  • the global correction function may mean a single correction function applied to each of the display devices 10-1, 10-2, 10-3, and 10-4 constituting the multi-display 10 . Details of determining the global correction function will be described later with reference to FIG. 7 .
  • the per-pixel correction function and/or the global correction function may refer to a response function to input image data input to a pixel.
  • the data value of the input image data applied to the first pixel of the multi-display 10 is “R: 100, G: 255, B: 50”
  • the data value is corrected by a correction function that halves the data value.
  • the input image data value may be "R: 50, G: 123, B: 25".
  • the processor 120 may calibrate the multi-display 10 by applying a pixel-by-pixel correction function or a global correction function to the multi-display 10 ( 1400 ).
  • 6 and 7 are flowcharts of a specific embodiment of a multi-display calibration method according to an embodiment.
  • FIG. 6 shows a process of determining a correction function for each pixel
  • FIG. 7 shows a process of determining a global correction function.
  • the processor 120 may calculate a difference value between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data ( 2000 ).
  • the processor 120 may determine a minimum value (hereinafter, referred to as a 'minimum difference value') among a difference value between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data.
  • a minimum value hereinafter, referred to as a 'minimum difference value'
  • the processor 120 may determine the darkest pixel among pixels included in the first image data and the second image data. For example, the processor 120 may determine the pixel having the smallest difference value as the darkest pixel.
  • the processor 120 may determine a correction function for each pixel based on a difference value between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data ( 2100 , 2100 ). 2200, 2300).
  • the processor 120 determines a correction function for each pixel based on difference values between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data and a minimum difference value.
  • the processor 120 may determine the correction function for each pixel based on the data value of the darkest pixel.
  • the first image data and the second image data are obtained by photographing the multi-display 10 that outputs different monochromatic grayscale images, when a plurality of display devices constituting the multi-display 10 have the same characteristics, the pixel All differences are assumed to be constant.
  • the first image data is image data obtained by photographing the multi-display 10 that outputs a full-white image
  • the second image data is image data obtained by photographing the multi-display 10 that outputs a full-black image.
  • image data it is preferably estimated that the difference value for each pixel is in the range of 240 to 255.
  • the processor 120 calculates a first difference value between the data value of the first pixel included in the first image data and the data value of the first pixel included in the second image data, and based on the first difference value A correction function of the pixel may be determined ( 2100 ).
  • the processor 120 may determine the correction function of the first pixel based on the first difference value and the data value (eg, the minimum difference value) of the darkest pixel.
  • the processor 120 calculates a second difference value between the data value of the second pixel included in the first image data and the data value of the second pixel included in the second image data, and the second difference value is the darkest
  • a correction function of the second pixel may be determined based on a data value (eg, a minimum difference value) of the pixel.
  • the processor 120 repeats the above process to include the data value of the nth pixel included in the first image data and the second image data.
  • An n-th difference value of the data values of the n-th pixel may be calculated, and a correction function of the n-th pixel may be determined based on the n-th difference value.
  • the processor 120 compares the first difference value with the minimum difference value, and determines, as the correction function of the first pixel, a response function that allows the first difference value to fall within a range set by the minimum difference value.
  • the processor 120 For example, assuming that the first difference value is "250" and the difference value of the darkest pixel is "230", the processor 120 generates a response function for normalizing the range [0,250] based on [0,230]. It can be determined as a correction function of 1 pixel.
  • the maximum grayscale value that can be output by the first pixel may be matched to “230” based on the response characteristic of the camera 200 .
  • the processor 120 outputs a first monochromatic grayscale image (eg, a full-white image) from the multi-display 10 , and includes data about a first voltage value applied to the first pixel and a second monochromatic grayscale image.
  • a first monochromatic grayscale image eg, a full-white image
  • a second monochromatic grayscale image e.g. a full black image
  • data about a second voltage value applied to the first pixel may be received, and a difference value between the first voltage value and the second voltage value may be compared with the first difference value.
  • a response function for correcting a voltage value applied to the first pixel may be determined.
  • the memory 130 may store a lookup table for a response function for normalizing the n-th difference value according to a preset reference range.
  • the processor 120 may A correction function for each pixel group of the multi-display 10 may be determined based on a difference value between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data.
  • the multi-display 10 is calibrated based on image data acquired through the camera 200 , it is not necessary to consider the characteristics of each of the plurality of display devices constituting the multi-display 10 . (10) can be corrected.
  • the multi-display 10 may be calibrated based on all pixel data ranges (0 to 255) by using the full black image and the full white image.
  • uniformity of an image may be achieved by correcting the remaining pixels based on the darkest pixel.
  • the multi-display 10 includes a first display device (eg 10-1), a second display device (eg 10-2), and a third display device (eg 10-3).
  • the processor 120 may include a first global correction function applied to all pixels of the first display device, a second global correction function applied to all pixels of the second display device, and a third global correction function applied to all pixels of the third display device.
  • a global correction function can be determined.
  • the multi-display calibration apparatus 100 controls the multi-display 10 so that each of the plurality of display apparatuses displays the third image and the fourth image at different timings.
  • the processor 120 may control the second display device to sequentially display the third image and the fourth image. have.
  • the first display device may sequentially display a third image (eg, a full white image) and a fourth image (eg, a full black image), and the camera 200 displays the multi-display 10 .
  • 3-1 th image data corresponding to the first display device and the third image and 4-1 th image data corresponding to the first display and the fourth image may be obtained by photographing.
  • the processor 120 may acquire the 3-1 th image data and the 4-1 th image data through the communication interface 110 .
  • the processor 120 generates 3-2 th image data corresponding to the second display device and the third image, 4-2 th image data corresponding to the second display and the fourth image, and the third 3-3 image data corresponding to the display device and the third image and 4-3 image data corresponding to the third display and the fourth image may be acquired.
  • the 3-1, 3-2, and 3-3 image data are all referred to as third image data, and the 4-1, 4-2, and 4-3 image data are collectively referred to as the fourth image data. do.
  • the processor 120 may calculate a difference value between the luminance data value of the third image data and the luminance data value of the fourth image data (3000).
  • the processor 120 may calculate a difference value between each of the 3-1, 3-2, and 3-3 image data and each of the 4-1, 4-2, and 4-3 image data.
  • the difference between the luminance data value of the third image data and the luminance data value of the fourth image data is the difference between the average value of the data values for each pixel included in the third image data and the average value of the data values for each pixel included in the fourth image data. It can contain values.
  • the processor 120 may estimate the luminance value of each of the plurality of display devices based on a difference value between the luminance data value of the third image data and the luminance data value of the fourth image data ( 3100 ). .
  • the luminance value of each display device may include a maximum luminance value that each display device can output, which may be different according to characteristics of each display device.
  • the processor 120 may determine a minimum luminance value from among luminance values of each of the plurality of display devices.
  • the processor 120 may determine a display device having the darkest luminance characteristic among a plurality of display devices constituting the multi-display 10 .
  • the processor 120 may determine a global correction function applied to all pixels of each of the plurality of display apparatuses based on the luminance value of each of the plurality of display apparatuses and the determined minimum luminance value ( 3200 ).
  • the processor 120 may determine a global correction function corresponding to the first display device among the plurality of display devices as a response function for limiting the luminance value of the first display device based on the minimum luminance value.
  • the processor 120 may determine a first global correction function applied to the first display apparatus and a third global correction function applied to the third display apparatus based on "220", which is the minimum luminance value.
  • the processor 120 may determine a response function for limiting the luminance value of the first display device to “220” as the first global correction function, and limit the luminance value of the third display device to “220”.
  • a response sum to be calculated may be determined as a third global correction function.
  • the processor 120 may calibrate each of the plurality of display devices based on a global correction function applied to each of the plurality of display devices constituting the multi-display 10 ( 1400 ).
  • the maximum grayscale value of a pixel may be determined by applying the maximum power and the minimum power to all pixels constituting the multi-display 10 , and the pixel having the smallest maximum grayscale value (the darkest pixel) ) based on a correction function for each pixel, and by applying maximum and minimum power to all display devices constituting the multi-display 10 , the maximum grayscale value of the display device can be determined, and the grayscale characteristic having the worst An image may be uniformed by determining a global correction function for each display device based on the display device (the darkest display device).
  • the multi-display 10 may be calibrated using only the relative response characteristics inherent in the camera 200 irrespective of the characteristics of each display device constituting the multi-display 10 .
  • the multi-display 10 may be corrected regardless of ambient light.
  • the disclosed embodiments may be implemented in the form of a recording medium storing instructions executable by a computer. Instructions may be stored in the form of program code, and when executed by a processor, may generate program modules to perform operations of the disclosed embodiments.
  • the recording medium may be implemented as a computer-readable recording medium.
  • the computer-readable recording medium includes any type of recording medium in which instructions readable by the computer are stored.
  • ROM read only memory
  • RAM random access memory
  • magnetic tape magnetic tape
  • magnetic disk magnetic disk
  • flash memory 130 an optical data storage device, and the like.
  • the computer-readable recording medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory storage medium' is a tangible device and only means that it does not contain a signal (eg, electromagnetic wave). It does not distinguish the case where it is stored as
  • the 'non-transitory storage medium' may include a buffer in which data is temporarily stored.
  • the method according to various embodiments disclosed in this document may be provided in a computer program product (computer program product).
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable recording medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play StoreTM) or on two user devices ( It can be distributed (eg downloaded or uploaded) directly, online between smartphones (eg: smartphones).
  • a portion of a computer program product eg, a downloadable app
  • a device-readable record such as a server of a manufacturer, a server of an application store, or memory 130 of a relay server. At least temporarily stored in the medium, or may be temporarily created.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

A method for calibrating a multi-display, whereby the multi-display can be calibrated irrespective of the characteristics of a plurality of display devices, comprises the steps in which: the multi-display displays each of a first image and a second image; a camera captures the multi-display, thereby acquiring first image data corresponding to the first image and second image data corresponding to the second image; and calibration functions are determined for each of pixels of the multi-display on the basis of difference values between data values for each of pixels included in the first image data and data values for each of pixels included in the second image data.

Description

멀티 디스플레이 보정 방법 및 멀티 디스플레이 보정 장치Multi-display calibration method and multi-display calibration device
본 개시는 멀티 디스플레이 보정 방법 및 멀티 디스플레이 보정 장치에 관한 것으로, 보다 상게하게는 카메라를 이용하여 멀티 디스플레이를 보정하기 위한 방법 및 장치에 관한 것이다.The present disclosure relates to a multi-display calibration method and a multi-display calibration apparatus, and more particularly, to a method and apparatus for calibrating a multi-display using a camera.
멀티 디스플레이는 복수의 디스플레이 장치(예: 디스플레이 패널 또는 프로젝터)를 이용하여 하나의 영상을 표시하기 위한 구성이다.The multi-display is a configuration for displaying one image using a plurality of display devices (eg, a display panel or a projector).
복수의 디스플레이 장치를 사용하는 경우, 각각의 디스플레이 장치의 특성이 상이함에 따라 디스플레이 장치 간의 색 편차 또는 밝기 편차가 발생할 수 있기 때문에 이를 해결하기 위한 디스플레이 장치의 보정 기술이 요구된다. When a plurality of display apparatuses are used, color deviation or brightness deviation between the display apparatuses may occur as the characteristics of each display apparatus are different.
복수의 디스플레이 장치는 각각 비선형적인 감마 보정 함수를 포함하고 있기 때문에, 복수의 디스플레이 장치가 통일된 영상을 표시하도록 멀티 디스플레이를 보정하는 과정에는 어려움이 존재한다.Since the plurality of display devices each include a non-linear gamma correction function, it is difficult to calibrate the multi-display so that the plurality of display devices display a unified image.
개시된 발명의 일 측면은, 복수의 디스플레이 장치의 특성과 무관하게 멀티 디스플레이를 보정할 수 있는 멀티 디스플레이 보정 방법 및 멀티 디스플레이 보정 장치를 제공한다.An aspect of the disclosed invention provides a multi-display calibration method and a multi-display calibration apparatus capable of calibrating multi-displays regardless of characteristics of a plurality of display devices.
개시된 발명의 일 측면은, 주변광(ambient light)과 무관하게 멀티 디스플레이를 보정할 수 있는 멀티 디스플레이 보정 방법 및 멀티 디스플레이 보정 장치를 제공한다.An aspect of the disclosed invention provides a multi-display calibration method and a multi-display calibration apparatus capable of calibrating multi-displays regardless of ambient light.
개시된 발명의 일 실시예에 따른 멀티 디스플레이 보정 방법은, 멀티 디스플레이가 제1 영상과 제2 영상을 각각 표시하는 단계; 카메라가 상기 멀티 디스플레이를 촬영하여 상기 제1 영상에 대응되는 제1 영상데이터와 상기 제2 영상에 대응되는 제2 영상데이터를 획득하는 단계; 상기 제1 영상데이터에 포함된 픽셀별 데이터 값과 상기 제2 영상데이터에 포함된 픽셀별 데이터 값의 차이값에 기초하여 픽셀별 보정 함수를 결정하는 단계; 및 상기 픽셀별 보정 함수에 기초하여 상기 멀티 디스플레이를 보정하는 단계;를 포함할 수 있다.A multi-display calibration method according to an embodiment of the disclosed invention includes: displaying, by a multi-display, a first image and a second image, respectively; obtaining, by a camera, first image data corresponding to the first image and second image data corresponding to the second image by photographing the multi-display; determining a correction function for each pixel based on a difference value between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data; and correcting the multi-display based on the correction function for each pixel.
또한, 상기 제1 영상은 풀화이트(Full White) 영상이고, 상기 제2 영상은 풀블랙(Full Black) 영상인 것을 특징으로 할 수 있다.In addition, the first image may be a full white image, and the second image may be a full black image.
또한, 상기 픽셀별 보정 함수를 결정하는 단계는, 상기 제1 영상데이터에 포함된 제1 픽셀의 데이터 값과 상기 제2 영상데이터에 포함된 상기 제1 픽셀의 데이터 값의 제1 차이값을 산출하는 단계; 상기 제1 영상데이터에 포함된 픽셀별 데이터 값과 상기 제2 영상데이터에 포함된 픽셀별 데이터 값의 차이값에 기초하여 가장 어두운 픽셀을 결정하는 단계; 및 상기 가장 어두운 픽셀의 데이터 값과 상기 제1 차이값에 기초하여 상기 제1 픽셀의 보정 함수를 결정하는 단계;를 포함할 수 있다.The determining of the correction function for each pixel may include calculating a first difference value between a data value of a first pixel included in the first image data and a data value of the first pixel included in the second image data. to do; determining the darkest pixel based on a difference value between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data; and determining a correction function of the first pixel based on the data value of the darkest pixel and the first difference value.
또한, 상기 제1 영상데이터에 포함된 제2 픽셀의 데이터 값과 상기 제2 영상데이터에 포함된 상기 제2 픽셀의 데이터 값의 제2 차이값을 산출하는 단계; 및 상기 가장 어두운 픽셀의 데이터값과 상기 제2 차이값에 기초하여 상기 제2 픽셀의 보정 함수를 결정하는 단계;를 포함할 수 있다.The method may further include calculating a second difference value between a data value of a second pixel included in the first image data and a data value of the second pixel included in the second image data; and determining a correction function of the second pixel based on the data value of the darkest pixel and the second difference value.
또한, 상기 제1 픽셀의 보정 함수는, 상기 제1 차이값을 상기 가장 어두운 픽셀의 데이터값에 기초하여 정규화하기 위한 응답 함수이고, 상기 제2 픽셀의 보정 함수는, 상기 제2 차이값을 상기 가장 어두운 픽셀의 데이터값에 기초하여 정규화하기 위한 응답 함수일 수 있다.In addition, the correction function of the first pixel is a response function for normalizing the first difference value based on the data value of the darkest pixel, and the correction function of the second pixel is the second difference value. It may be a response function for normalizing based on the data value of the darkest pixel.
또한, 상기 멀티 디스플레이 보정 방법은, 상기 멀티 디스플레이가 제3 영상을 표시하는 단계; 상기 카메라가 상기 멀티 디스플레이를 촬영하여 상기 제3 영상에 대응되는 제3 영상데이터를 획득하는 단계; 및 상기 제3 영상의 영상데이터에 포함된 복수의 픽셀과 상기 제3 영상데이터에 포함된 복수의 픽셀을 매핑(mapping)하는 단계;를 더 포함할 수 있다.In addition, the multi-display correction method may include: displaying, by the multi-display, a third image; obtaining, by the camera, third image data corresponding to the third image by photographing the multi-display; and mapping the plurality of pixels included in the image data of the third image and the plurality of pixels included in the third image data; may further include.
또한, 상기 제3 영상의 영상데이터에 포함된 복수의 픽셀과 상기 제3 영상데이터에 포함된 복수의 픽셀을 매핑하는 단계는, 상기 제3 영상의 영상데이터에 포함된 복수의 픽셀 중 적어도 두 개의 픽셀과 상기 제3 영상데이터에 포함된 복수의 픽셀 중 어느 하나의 픽셀을 매핑하는 단계;를 포함할 수 있다.In addition, the mapping of the plurality of pixels included in the image data of the third image and the plurality of pixels included in the third image data may include: It may include; mapping the pixel to any one of the plurality of pixels included in the third image data.
또한, 상기 멀티 디스플레이 보정 방법은, 상기 멀티 디스플레이를 구성하는 복수의 디스플레이 장치 각각이 서로 상이한 타이밍에 제3 영상 및 제4 영상을 표시하는 단계; 상기 카메라가 상기 멀티 디스플레이를 촬영하여 상기 제3 영상에 대응되는 제3 영상데이터 및 상기 제4 영상에 대응되는 제4 영상데이터를 획득하는 단계; 상기 제3 영상데이터에 포함된 휘도데이터 값과 상기 제4 영상데이터에 포함된 휘도데이터 값에 기초하여 상기 복수의 디스플레이 장치 각각의 휘도값을 추정하는 단계; 및 상기 복수의 디스플레이 장치 각각의 휘도값에 기초하여 상기 복수의 디스플레이 장치 각각의 모든 픽셀에 적용되는 글로벌 보정 함수를 결정하는 단계;를 더 포함할 수 있다.In addition, the multi-display correction method may include: displaying a third image and a fourth image at different timings, respectively, by a plurality of display devices constituting the multi-display; obtaining, by the camera, third image data corresponding to the third image and fourth image data corresponding to the fourth image by photographing the multi-display; estimating a luminance value of each of the plurality of display devices based on a luminance data value included in the third image data and a luminance data value included in the fourth image data; and determining a global correction function applied to all pixels of each of the plurality of display devices based on the luminance values of each of the plurality of display devices.
또한, 상기 글로벌 보정 함수를 결정하는 단계는, 상기 복수의 디스플레이 장치 각각의 휘도값 중에서 최소 휘도값을 결정하는 단계; 및 상기 최소 휘도값과 상기 복수의 디스플레이 장치 각각의 휘도값에 기초하여 상기 복수의 디스플레이 장치 각각에 대응되는 글로벌 보정 함수를 결정하는 단계;를 포함할 수 있다.The determining of the global correction function may include: determining a minimum luminance value among luminance values of each of the plurality of display devices; and determining a global correction function corresponding to each of the plurality of display devices based on the minimum luminance value and the respective luminance values of the plurality of display devices.
또한, 상기 복수의 디스플레이 장치 중 제1 디스플레이 장치에 대응되는 글로벌 보정 함수는, 상기 제1 디스플레이 장치의 휘도값을 상기 최소 휘도값에 기초하여 제한하기 위한 응답 함수일 수 있다.Also, the global correction function corresponding to the first display device among the plurality of display devices may be a response function for limiting the luminance value of the first display device based on the minimum luminance value.
또한, 상기 멀티 디스플레이 보정 방법은, 상기 복수의 디스플레이 장치 각각의 모든 픽셀에 적용되는 글로벌 보정 함수에 기초하여 상기 복수의 디스플레이 장치 각각을 보정하는 단계;를 더 포함할 수 있다.The multi-display calibration method may further include calibrating each of the plurality of display devices based on a global correction function applied to all pixels of each of the plurality of display devices.
또한, 상기 제1 영상데이터에 포함된 픽셀별 데이터 값과 상기 제2 영상데이터에 포함된 픽셀별 데이터 값의 차이값에 기초하여 픽셀별 보정 함수를 결정하는 단계는, 상기 제1 영상데이터에 포함된 픽셀별 데이터 값과 상기 제2 영상데이터에 포함된 픽셀별 데이터 값의 차이값에 기초하여 상기 멀티 디스플레이의 픽셀 그룹별 보정 함수를 결정하는 단계;를 포함할 수 있다.The determining of the correction function for each pixel based on a difference value between the data value for each pixel included in the first image data and the data value for each pixel included in the second image data is included in the first image data. and determining a correction function for each pixel group of the multi-display based on a difference value between the data value for each pixel and the data value for each pixel included in the second image data.
개시된 발명의 일 실시예에 따른 멀티 디스플레이 장치는, 카메라가 멀티 디스플레이를 촬영하여 획득한 제1 영상데이터와 제2 영상데이터를 수신하는 통신 인터페이스; 및 상기 제1 영상데이터에 포함된 픽셀별 데이터 값과 상기 제2 영상데이터에 포함된 픽셀별 데이터 값의 차이값에 기초하여 상기 멀티 디스플레이의 픽셀별 보정 함수를 결정하고, 상기 픽셀별 보정 함수에 기초하여 상기 멀티 디스플레이를 보정하는 프로세서;를 포함할 수 있다.A multi-display apparatus according to an embodiment of the disclosed invention includes: a communication interface for receiving, by a camera, first image data and second image data obtained by photographing the multi-display; and determining a correction function for each pixel of the multi-display based on a difference value between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data, and to the correction function for each pixel. It may include; a processor for correcting the multi-display based on the.
또한, 상기 프로세서는, 상기 제1 영상데이터에 포함된 제1 픽셀의 데이터 값과 상기 제2 영상데이터에 포함된 상기 제1 픽셀의 데이터 값의 제1 차이값을 산출하고, 상기 제1 영상데이터에 포함된 픽셀별 데이터 값과 상기 제2 영상데이터에 포함된 픽셀별 데이터 값의 차이값에 기초하여 가장 어두운 픽셀을 결정하고, 상기 가장 어두운 픽셀의 데이터값과 상기 제1 차이값에 기초하여 상기 제1 픽셀의 보정 함수를 결정할 수 있다.The processor is further configured to calculate a first difference value between a data value of a first pixel included in the first image data and a data value of the first pixel included in the second image data, and the first image data The darkest pixel is determined based on a difference value between a data value for each pixel included in the , and a data value for each pixel included in the second image data, and the darkest pixel is determined based on the data value of the darkest pixel and the first difference value. A correction function of the first pixel may be determined.
또한, 상기 프로세서는, 상기 제1 영상데이터에 포함된 제2 픽셀의 데이터 값과 상기 제2 영상데이터에 포함된 상기 제2 픽셀의 데이터 값의 제2 차이값을 산출하고, 상기 가장 어두운 픽셀의 데이터값과 상기 제2 차이값에 기초하여 상기 제2 픽셀의 보정 함수를 결정할 수 있다.In addition, the processor calculates a second difference value between a data value of a second pixel included in the first image data and a data value of the second pixel included in the second image data, and The correction function of the second pixel may be determined based on the data value and the second difference value.
또한, 상기 제1 픽셀의 보정 함수는, 상기 제1 차이값을 상기 가장 어두운 픽셀의 데이터값에 기초하여 정규화하기 위한 응답 함수이고, 상기 제2 픽셀의 보정 함수는, 상기 제2 차이값을 상기 가장 어두운 픽셀의 데이터값에 기초하여 정규화하기 위한 응답 함수일 수 있다.In addition, the correction function of the first pixel is a response function for normalizing the first difference value based on the data value of the darkest pixel, and the correction function of the second pixel is the second difference value. It may be a response function for normalizing based on the data value of the darkest pixel.
또한, 상기 통신 인터페이스는, 상기 카메라가 멀티 디스플레이를 촬영하여 획득한 제3 영상데이터와 제4 영상데이터를 수신하고, 상기 프로세서는, 상기 제3 영상데이터에 포함된 휘도데이터 값과 상기 제4 영상데이터에 포함된 휘도데이터 값에 기초하여 상기 복수의 디스플레이 장치 각각의 휘도값을 추정하고, 상기 복수의 디스플레이 장치 각각의 휘도값에 기초하여 상기 복수의 디스플레이 장치 각각의 모든 픽셀에 적용되는 글로벌 보정 함수를 결정하고, 상기 복수의 디스플레이 장치 각각의 모든 픽셀에 적용되는 글로벌 보정 함수에 기초하여 상기 복수의 디스플레이 장치 각각을 보정할 수 있다.In addition, the communication interface receives third image data and fourth image data obtained by photographing the multi-display by the camera, and the processor includes a luminance data value included in the third image data and the fourth image A global correction function that estimates the luminance value of each of the plurality of display devices based on the luminance data value included in the data, and is applied to all pixels of each of the plurality of display devices based on the luminance value of each of the plurality of display devices may be determined, and each of the plurality of display devices may be corrected based on a global correction function applied to all pixels of each of the plurality of display devices.
또한, 상기 프로세서는, 상기 복수의 디스플레이 장치 각각의 휘도값 중에서 최소 휘도값을 결정하고, 상기 최소 휘도값과 상기 복수의 디스플레이 장치 각각의 휘도값에 기초하여 상기 복수의 디스플레이 장치 각각에 대응되는 글로벌 보정 함수를 결정할 수 있다.In addition, the processor determines a minimum luminance value from among the luminance values of each of the plurality of display apparatuses, and based on the minimum luminance value and the luminance values of each of the plurality of display apparatuses, a global corresponding to each of the plurality of display apparatuses. A correction function can be determined.
또한, 상기 복수의 디스플레이 장치 중 제1 디스플레이 장치에 대응되는 글로벌 보정 함수는, 상기 제1 디스플레이 장치의 휘도값을 상기 최소 휘도값에 기초하여 제한하기 위한 응답 함수일 수 있다.Also, the global correction function corresponding to the first display device among the plurality of display devices may be a response function for limiting the luminance value of the first display device based on the minimum luminance value.
또한, 상기 프로세서는, 상기 제1 영상데이터에 포함된 픽셀별 데이터 값과 상기 제2 영상데이터에 포함된 픽셀별 데이터 값의 차이값에 기초하여 상기 멀티 디스플레이의 픽셀 그룹별 보정 함수를 결정할 수 있다.Also, the processor may determine a correction function for each pixel group of the multi-display based on a difference value between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data. .
개시된 발명의 일 측면에 따르면, 멀티 디스플레이의 주변광 또는 멀티 디스플레이를 구성하는 복수의 디스플레이 장치 각각의 특성 차이와 무관하게 멀티 디스플레이를 보정할 수 있다.According to an aspect of the disclosed invention, it is possible to correct the multi-display regardless of the ambient light of the multi-display or the characteristic difference between the plurality of display devices constituting the multi-display.
개시된 발명의 일 측면에 따르면, 멀티 디스플레이를 이용하여 사용자에게 통일된 영상을 제공할 수 있다.According to an aspect of the disclosed invention, a unified image may be provided to a user using a multi-display.
도 1은 일 실시예에 따른 멀티 디스플레이의 일 예를 도시한 도면이다.1 is a diagram illustrating an example of a multi-display according to an embodiment.
도 2는 일 실시예에 따른 멀티 디스플레이의 다른 예를 도시한 도면이다.2 is a diagram illustrating another example of a multi-display according to an embodiment.
도 3은 일 실시예에 따른 멀티 디스플레이 보정 장치의 블록도이다.3 is a block diagram of a multi-display calibration apparatus according to an exemplary embodiment.
도 4는 일 실시예에 따른 멀티 디스플레이 보정 방법의 통합 순서도이다.4 is an integrated flowchart of a multi-display calibration method according to an exemplary embodiment.
도 5는 일 실시예에 따른 픽셀 매핑의 일 예를 도시한다.5 shows an example of pixel mapping according to an embodiment.
도 6 및 도 7은 일 실시예에 따른 멀티 디스플레이 보정 방법의 구체적인 실시예에 대한 순서도이다.6 and 7 are flowcharts of a specific embodiment of a multi-display calibration method according to an embodiment.
본 명세서에 기재된 실시예와 도면에 도시된 구성은 개시된 발명의 바람직한 일 예에 불과할 뿐이며, 본 출원의 출원시점에 있어서 본 명세서의 실시예와 도면을 대체할 수 있는 다양한 변형 예들이 있을 수 있다.The configuration shown in the embodiments and drawings described in this specification is only a preferred example of the disclosed invention, and there may be various modifications that can replace the embodiments and drawings of the present specification at the time of filing of the present application.
본 명세서에서 사용한 용어는 실시예를 설명하기 위해 사용된 것으로, 개시된 발명을 제한 및/또는 한정하려는 의도가 아니다. The terminology used herein is used to describe the embodiments, and is not intended to limit and/or limit the disclosed invention.
예를 들어, 본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.For example, a singular expression herein may include a plural expression unless the context clearly dictates otherwise.
또한, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들의 조합이 존재함을 표현하고자 하는 것이며, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들의 조합의 추가적인 존재 또는 부가 가능성을 배제하지 않는다.In addition, terms such as "comprise" or "have" are intended to express the presence of a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features, It does not exclude the possibility of additional presence or addition of numbers, steps, acts, elements, parts, or combinations thereof.
또한, "제1", "제2" 등과 같이 서수를 포함하는 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위하여 사용되며, 상기 하나의 구성요소들을 한정하지 않는다.In addition, terms including an ordinal number, such as "first" and "second", are used to distinguish one element from another element, and do not limit the one element.
또한, "~부", "~기", "~블록", "~부재", "~모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어, 상기 용어들은 FPGA (field-programmable gate array)/ ASIC (application specific integrated circuit) 등 적어도 하나의 하드웨어, 메모리에 저장된 적어도 하나의 소프트웨어 또는 프로세서에 의하여 처리되는 적어도 하나의 프로세스를 의미할 수 있다.In addition, terms such as "~ part", "~ group", "~ block", "~ member", and "~ module" may mean a unit for processing at least one function or operation. For example, the terms may refer to at least one process processed by at least one hardware such as a field-programmable gate array (FPGA)/application specific integrated circuit (ASIC), at least one software stored in a memory, or a processor. have.
이하에서는 첨부한 도면을 참조하여 개시된 발명의 일 실시예가 상세하게 설명된다. 첨부된 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낼 수 있다.Hereinafter, an embodiment of the disclosed invention will be described in detail with reference to the accompanying drawings. The same reference numbers or reference numerals presented in the accompanying drawings may indicate parts or components that perform substantially the same functions.
이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.Hereinafter, the working principle and embodiments of the present invention will be described with reference to the accompanying drawings.
도 1은 일 실시예에 따른 멀티 디스플레이의 일 예를 도시한 도면이다.1 is a diagram illustrating an example of a multi-display according to an embodiment.
도 1을 참조하면, 멀티 디스플레이(10)는 복수의 디스플레이 장치(10-1, 10-2)로 구성될 수 있다. 일 실시예에서, 복수의 디스플레이 장치(10-1, 10-2) 각각은 독립된 디스플레이 패널(예: LED 패널 또는 액정 패널)을 포함할 수 있다.Referring to FIG. 1 , a multi-display 10 may include a plurality of display devices 10 - 1 and 10 - 2 . In an embodiment, each of the plurality of display devices 10 - 1 and 10 - 2 may include an independent display panel (eg, an LED panel or a liquid crystal panel).
일 실시예에서, 복수의 디스플레이 장치(10-1, 10-2) 각각은 복수 개의 픽셀을 포함할 수 있고, 복수 개의 픽셀 각각은 붉은색 광을 방출하는 적색 서브 픽셀, 녹색 광을 방출하는 녹색 서브 픽셀, 청색 광을 방출하는 청색 서브 픽셀을 포함할 수 있다.In an embodiment, each of the plurality of display devices 10 - 1 and 10 - 2 may include a plurality of pixels, and each of the plurality of pixels includes a red sub-pixel emitting red light and a green light emitting green light. The sub-pixel may include a blue sub-pixel emitting blue light.
멀티 디스플레이(10)는 복수의 디스플레이 장치(10-1, 10-2)가 2차원 매트릭스 형태로 배열되는 것도 가능하고, 1차원으로 배열되는 것도 가능하다. 일 실시예에 따른 멀티 디스플레이(10)는 복수의 디스플레이 장치가 배열되는 방식이나 하나의 디스플레이 패널을 구성하는 독립된 디스플레이 장치의 개수에 대해 제한을 두지 않는다.In the multi-display 10 , a plurality of display devices 10 - 1 and 10 - 2 may be arranged in a two-dimensional matrix form or may be arranged in one dimension. The multi-display 10 according to an exemplary embodiment does not limit a method in which a plurality of display devices are arranged or the number of independent display devices constituting one display panel.
도 2를 참조하면, 일 실시예에서, 멀티 디스플레이(10)를 구성하는 복수의 디스플레이 장치(10-3, 10-4) 각각은 독립된 영상 투영 장치(예: 빔 프로젝터)를 포함할 수 있다.Referring to FIG. 2 , in an embodiment, each of the plurality of display apparatuses 10 - 3 and 10 - 4 constituting the multi-display 10 may include an independent image projection apparatus (eg, a beam projector).
복수의 디스플레이 장치(10-3, 10-4)는 동일 투사면(projection area)에 영상을 투사하여 하나의 화면을 구성할 수 있다.The plurality of display apparatuses 10 - 3 and 10 - 4 may configure one screen by projecting an image on the same projection area.
다양한 실시예에 따라, 멀티 디스플레이(10)는 디스플레이 패널과 영상 투영 장치의 조합으로 구성될 수도 있다.According to various embodiments, the multi-display 10 may be configured as a combination of a display panel and an image projection apparatus.
멀티 디스플레이(10)를 구성하는 복수의 디스플레이 장치는 서로 다른 특성(예: 감마 보정 커브, 픽셀별 최대 계조값, 픽셀 개수)을 가질 수 있다. 멀티 디스플레이(10)를 구성하는 복수의 디스플레이 장치가 서로 같은 공장에서 생산된 같은 모델이라고 할지라도, 사용 기간에 따른 특성 변화에 의해 서로 다른 특성을 갖게 된다.A plurality of display devices constituting the multi-display 10 may have different characteristics (eg, a gamma correction curve, a maximum gray value for each pixel, and the number of pixels). Even if a plurality of display devices constituting the multi-display 10 are the same model produced in the same factory, they have different characteristics due to a change in characteristics according to the period of use.
이에 따라, 멀티 디스플레이(10)에 의해 출력되는 영상의 통일성이 떨어질 수 있다. 예를 들어, 어느 한 디스플레이 장치의 픽셀별 선명도 및/또는 계조값과 인접한 디스플레이 장치의 픽셀별 선명도 및/또는 계조값이 다르다면, 사용자는 선명도 및/또는 밝기 차이에 따른 이질감을 느낄 수 있다.Accordingly, the unity of the images output by the multi-display 10 may be deteriorated. For example, if the sharpness and/or gradation value for each pixel of one display device is different from the sharpness and/or gradation value for each pixel of an adjacent display device, the user may feel a sense of difference due to the difference in sharpness and/or brightness.
멀티 디스플레이(10)에서 출력되는 영상의 균일성을 향상시키기 위해서는, 각각의 디스플레이 장치의 특성에 맞게 각각의 디스플레이 장치를 보정하거나, 각각의 디스플레이 장치에 입력되는 영상데이터를 보정하여야 한다.In order to improve the uniformity of the images output from the multi-display 10 , each display device should be calibrated according to the characteristics of each display device, or image data input to each display device should be calibrated.
본 명세서에서, 멀티 디스플레이를 보정하는 것은 멀티 디스플레이를 구성하는 복수의 디스플레이 장치를 보정하는 것과, 각각의 디스플레이 장치에 입력되는 영상데이터를 보정하는 것을 모두 포함할 수 있다.In the present specification, calibrating the multi-display may include both calibrating a plurality of display devices constituting the multi-display and calibrating image data input to each display device.
한편, 멀티 디스플레이(10)를 구성하는 복수의 디스플레이 장치의 특성(예: 응답 함수)이 상이하기 때문에 디스플레이 장치 각각을 통일되도록 보정하는 데는 어려움이 있다.Meanwhile, since characteristics (eg, response functions) of a plurality of display devices constituting the multi-display 10 are different, it is difficult to calibrate each display device to be unified.
일 실시예에서, 멀티 디스플레이 보정 장치(100)는 카메라(200)를 통해 획득한 멀티 디스플레이(10)의 표시 영상에 기초하여 픽셀별 보정 함수 및/또는 글로벌 보정 함수를 생성할 수 있다.In an embodiment, the multi-display calibration apparatus 100 may generate a per-pixel calibration function and/or a global calibration function based on the display image of the multi-display 10 acquired through the camera 200 .
도 3은 일 실시예에 따른 멀티 디스플레이 보정 장치의 블록도이다.3 is a block diagram of a multi-display calibration apparatus according to an exemplary embodiment.
도 3을 참조하면, 일 실시예에 다른 멀티 디스플레이 보정 장치(100)는 카메라(200) 및/또는 멀티 디스플레이(10)와 직접적으로 또는 간접적으로 통신할 수 있는 통신 인터페이스(110)와, 적어도 하나의 프로세서(120)와 적어도 하나의 메모리(130)를 포함할 수 있다.Referring to FIG. 3 , the multi-display calibration apparatus 100 according to an embodiment includes a communication interface 110 capable of communicating directly or indirectly with the camera 200 and/or the multi-display 10 , and at least one The processor 120 and at least one memory 130 may be included.
일 실시예에서, 통신 인터페이스(110)는 근거리 통신 모듈 및/또는 무선 통신 모듈 및/또는 무선 통신 모듈을 포함할 수 있다.In one embodiment, the communication interface 110 may include a short-range communication module and/or a wireless communication module and/or a wireless communication module.
무선 통신 모듈은 와이파이(Wifi), 와이브로(Wireless broadband) 외에도, GSM(Global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(Universal Mobile Telecommunications System), TDMA(Time Division Multiple Access), LTE(Long Term Evolution), 4세대 이동통신, 5세대 이동통신 등과 같은 무선 통신 방식으로 인터넷망과 연결될 수 있는 다양한 무선 통신 모듈 중 적어도 하나를 포함할 수 있다.In addition to Wifi, WiBro, GSM (Global System for Mobile Communication), CDMA (Code Division Multiple Access), WCDMA (Wideband Code Division Multiple Access), UMTS (Universal Mobile Telecommunications System), It may include at least one of various wireless communication modules that can be connected to the Internet network in a wireless communication method such as Time Division Multiple Access (TDMA), Long Term Evolution (LTE), 4th generation mobile communication, 5th generation mobile communication, and the like.
근거리 통신 모듈은 블루투스 모듈, 적외선 통신 모듈, RFID(Radio Frequency Identification) 통신 모듈, WLAN(Wireless Local Access Network) 통신 모듈, NFC 통신 모듈, 지그비(Zigbee) 통신 모듈, 지-웨이브(Z-Wave) 통신 모듈, 와이파이 다이렉트 통신모듈, 저전력 블루투스 모듈(BLE) 등 근거리에서 무선 통신망을 이용하여 신호를 송수신하는 다양한 근거리 통신 모듈 중 적어도 하나를 포함할 수 있다.Short-distance communication module includes Bluetooth module, infrared communication module, RFID (Radio Frequency Identification) communication module, WLAN (Wireless Local Access Network) communication module, NFC communication module, Zigbee communication module, Z-Wave communication It may include at least one of various short-range communication modules for transmitting and receiving signals using a wireless communication network in a short distance, such as a module, a Wi-Fi direct communication module, and a low-power Bluetooth module (BLE).
유선 통신 모듈은 LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈을 포함할 수 있다.The wired communication module may include a local area network (LAN) communication module or a power line communication module.
다양한 실시예에 따라, 통신 인터페이스(110)는 멀티 디스플레이 보정 장치(100)가 외부 전자 장치(예: 멀티 디스플레이(10), 카메라(200))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다.According to various embodiments, the communication interface 110 may include one or more that the multi-display calibration device 100 may be used to directly or wirelessly connect with an external electronic device (eg, the multi-display 10 and the camera 200). It can support specified protocols.
예를 들어, 통신 인터페이스(110)는 HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스 또는 SD카드 인터페이스를 포함할 수 있다.For example, the communication interface 110 may include a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, or an SD card interface.
일 실시예에서, 통신 인터페이스(110)는 연결 단자를 통해 외부 전자 장치(예: 멀티 디스플레이(10), 카메라(200))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 예를 들어, 통신 인터페이스(110)는 HDMI 커넥터, USB 커넥터 또는 SD 카드 커넥터를 포함할 수 있다.In an embodiment, the communication interface 110 may include a connector that can be physically connected to an external electronic device (eg, the multi-display 10 or the camera 200) through a connection terminal. For example, the communication interface 110 may include an HDMI connector, a USB connector, or an SD card connector.
일 실시예에서, 적어도 하나의 메모리(130)는 멀티 디스플레이(10)를 보정하기 위한 프로그램 및 데이터를 저장하고, 멀디 디스플레이에 포함된 구성들을 보정하는 중에 발생하는 임시 데이터를 기억할 수 있다.In an embodiment, the at least one memory 130 may store a program and data for calibrating the multi-display 10 , and may store temporary data generated while calibrating components included in the multi-display.
일 예로, 메모리(130)는 픽셀별 보정 함수를 생성하기 위한 프로그램, 픽셀별 보정 함수에 따라 멀티 디스플레이(10)를 보정하기 위한 프로그램, 글로벌 보정 함수를 생성하기 위한 프로그램, 글로벌 보정 함수에 따라 멀티 디스플레이(10)를 보정하기 위한 위한 프로그램 등을 포함할 수 있다.For example, the memory 130 may include a program for generating a per-pixel correction function, a program for calibrating the multi-display 10 according to the per-pixel correction function, a program for generating a global correction function, and a multi-function according to the global correction function. A program for calibrating the display 10 may be included.
또 다른 예로, 메모리(130)는 멀티 디스플레이(10)를 보정하기 위해 사용되는 영상 데이터(예: 풀블랙(Full Black) 영상데이터, 풀화이트(Full White) 영상데이터, 풀레드(Full Red) 영상데이터, 풀그린(Full Green) 영상데이터, 풀블루(Full Blue) 영상데이터, 패턴 영상 데이터)를 저장할 수 있다. 픽셀별 영상데이터 값이 8비트(0~255)로 정의되는 경우, 풀블랙 영상데이터는 모든 픽셀에 대한 데이터 값이 제1 미리 설정된 값(0~10)인 영상데이터를 의미하고, 풀화이트 영상데이터는 모든 픽셀에 대한 데이터 값이 제2 미리 설정된 값(250~255)인 영상데이터를 의미할 수 있다.As another example, the memory 130 may store image data (eg, full black image data, full white image data, full red image data) used to correct the multi-display 10 . data, full green image data, full blue image data, pattern image data) can be stored. When the image data value for each pixel is defined as 8 bits (0 to 255), the full black image data means image data in which data values for all pixels are a first preset value (0 to 10), and a full white image Data may mean image data in which data values for all pixels are second preset values (250 to 255).
이러한 메모리(130)는 데이터를 장기간 저장하기 위한 롬(Read Only Memory), 플래시 메모리 등의 비휘발성 메모리와, 데이터를 일시적으로 기억하기 위한 S-램(Static Random Access Memory, S-RAM), D-램(Dynamic Random Access Memory) 등의 휘발성 메모리를 포함할 수 있다.The memory 130 includes a non-volatile memory such as a read only memory and a flash memory for storing data for a long period of time, and a static random access memory (S-RAM) and D for temporarily storing data. -Volatile memory such as RAM (Dynamic Random Access Memory) may be included.
적어도 하나의 프로세서(120)는 적어도 하나의 메모리(130)에 저장된 프로그램 및 데이터에 따라 멀티 디스플레이(10)를 보정할 수 있다.The at least one processor 120 may calibrate the multi-display 10 according to the program and data stored in the at least one memory 130 .
일 실시예에서, 적어도 하나의 프로세서(120)는, 논리 연산 및 산술 연산 등을 수행하는 연산 회로와, 연산된 데이터를 기억하는 기억 회로 등을 포함할 수 있다.In an embodiment, the at least one processor 120 may include an arithmetic circuit that performs logical operations and arithmetic operations, and a memory circuit that stores the calculated data.
일 실시예에서, 카메라(200)는 멀티 디스플레이(10)를 촬영하여 멀티 디스플레이(10)서 출력되는 영상에 대응되는 영상데이터를 획득할 수 있다.In an embodiment, the camera 200 may acquire image data corresponding to an image output from the multi-display 10 by photographing the multi-display 10 .
본 명세서에서 "카메라(200)가 멀티 디스플레이(10)를 촬영하는 것"은 "카메라(200)가 멀티 디스플레이(10)의 디스플레이 영역을 촬영하는 것"을 의미할 수 있다.In this specification, "the camera 200 photographing the multi-display 10" may mean "the camera 200 photographing the display area of the multi-display 10".
다양한 실시예에 따라, 멀티 디스플레이(10)가 복수 개의 빔 프로젝터로 구성되는 경우, "카메라(200)가 멀티 디스플레이(10)를 촬영하는 것"은 "빔 프로젝터의 투사면을 촬영하는 것"을 의미할 수 있다.According to various embodiments, when the multi-display 10 is composed of a plurality of beam projectors, "the camera 200 shoots the multi-display 10" means "taking the projection surface of the beam projector". can mean
일 실시예에서, 카메라(200)는 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.In one embodiment, camera 200 may include one or more lenses, image sensors, image signal processors, or flashes.
다양한 실시예에 따라, 멀티 디스플레이 보정 장치(100)는 카메라(200)의 일 구성으로서 마련될 수도 있으며, 카메라(200)와 별개의 구성으로 마련될 수도 있다.According to various embodiments, the multi-display calibrating apparatus 100 may be provided as a component of the camera 200 or may be provided as a component separate from the camera 200 .
이하에서는 멀티 디스플레이(10)의 보정 방법에 대하여 상세하게 설명한다.Hereinafter, a method of correcting the multi-display 10 will be described in detail.
도 4는 일 실시예에 따른 멀티 디스플레이 보정 방법의 통합 순서도이고, 도 5는 일 실시예에 따른 픽셀 매핑의 일 예를 도시한다.4 is an integrated flowchart of a multi-display calibration method according to an embodiment, and FIG. 5 shows an example of pixel mapping according to an embodiment.
도 4를 참조하면, 멀티 디스플레이 보정 장치(100)는 카메라(200)를 통해 획득되는 영상 데이터의 픽셀들과, 멀티 디스플레이(10)의 픽셀들을 매핑(mapping)할 수 있다(1000).Referring to FIG. 4 , the multi-display calibrating apparatus 100 may map pixels of image data obtained through the camera 200 and pixels of the multi-display 10 ( 1000 ).
일 실시예에서, 프로세서(120)는 통신 인터페이스(110)를 통해 매핑을 위한 영상데이터(이하 '매핑 영상데이터')(예: 위상 편이 패턴을 포함하는 영상데이터)를 송신할 수 있고, 멀티 디스플레이(10)는 매핑 영상데이터에 대응되는 영상(이하 '매핑 영상')을 표시할 수 있고, 카메라(200)는 멀티 디스플레이(10)를 촬영하여 매핑 영상에 대응되는 영상데이터(이하 '패턴 영상데이터')를 획득할 수 있다.In an embodiment, the processor 120 may transmit image data for mapping (hereinafter, 'mapping image data') (eg, image data including a phase shift pattern) through the communication interface 110, and multi-display 10 may display an image corresponding to the mapping image data (hereinafter, 'mapping image'), and the camera 200 captures the multi-display 10 to obtain image data corresponding to the mapping image (hereinafter, 'pattern image data'). ') can be obtained.
프로세서(120)는 카메라(200)로부터 획득된 패턴 영상데이터와, 매핑 영상데이터에 기초하여 멀티 디스플레이(10)의 도메인과 카메라(200)의 도메인을 일치시킬 수 있다.The processor 120 may match the domain of the multi-display 10 with the domain of the camera 200 based on the pattern image data obtained from the camera 200 and the mapping image data.
다양한 실시예에 따라, 프로세서(120)는 매핑 영상데이터와 패턴 영상데이터가 일치하도록 카메라(200)의 렌즈의 각도를 제어하거나, 카메라(200)의 포커스 기능을 제어할 수 있다. 또한, 프로세서(120)는 매핑 영상데이터와 패턴 영상데이터가 일치하도록 멀티 디스플레이(10)를 구성하는 영상 투사 장치의 렌즈의 각도를 제어하거나, 영상 투사 장치의 포커스 기능을 제어할 수 있다.According to various embodiments, the processor 120 may control the angle of the lens of the camera 200 or control the focus function of the camera 200 so that the mapping image data and the pattern image data match. In addition, the processor 120 may control the angle of the lens of the image projection apparatus constituting the multi-display 10 so that the mapping image data and the pattern image data match, or control the focus function of the image projection apparatus.
또한, 프로세서(120)는 패턴 영상데이터에 대한 응답 함수를 생성하여 매핑 영상데이터 패턴 영상 데이터를 일치시킬 수도 있다.Also, the processor 120 may generate a response function for the pattern image data to match the mapping image data with the pattern image data.
도 5를 참조하면, 프로세서(120)는 매핑 영상데이터(MI)에 포함된 복수의 픽셀과 패턴 영상데이터(CI)에 포함된 복수의 픽셀을 매핑할 수 있다.Referring to FIG. 5 , the processor 120 may map a plurality of pixels included in the mapping image data MI and a plurality of pixels included in the pattern image data CI.
멀티 디스플레이(10)의 경우 복수의 디스플레이 장치가 하나의 영상을 출력하기 위해 상대적으로 많은 픽셀이 사용되는 반면에, 카메라(200)의 경우 상대적으로 적은 픽셀이 사용된다.In the case of the multi-display 10 , relatively many pixels are used to output one image by a plurality of display devices, whereas relatively few pixels are used in the case of the camera 200 .
다양한 실시예에 따라, 프로세서(120)는 매핑 영상데이터(MI)에 포함된 복수의 픽셀 중 적어도 하나의 픽셀과 패턴 영상데이터(CI)에 포함된 복수의 픽셀 중 어느 하나의 픽셀을 매핑할 수 있다. According to various embodiments, the processor 120 may map at least one pixel among a plurality of pixels included in the mapping image data MI and any one pixel among a plurality of pixels included in the pattern image data CI. have.
예를 들어, 프로세서(120)는 매핑 영상데이터(M1)에 포함된 10개의 픽셀과 패턴 영상데이터(CI)에 포함된 하나의 픽셀을 매핑할 수 있다.For example, the processor 120 may map ten pixels included in the mapping image data M1 and one pixel included in the pattern image data CI.
일 실시예에 따르면, 멀티 디스플레이(10)를 구성하는 복수의 디스플레이 장치 각각의 픽셀들과 카메라(200)를 통해 획득되는 영상의 픽셀들의 도메인을 일치시킬 수 있다.According to an embodiment, the pixels of each of the plurality of display devices constituting the multi-display 10 may match the domains of the pixels of the image obtained through the camera 200 .
다시 도 4를 참조하면, 프로세서(120)는 카메라(200)로부터 제1 영상데이터와 제2 영상데이터를 획득할 수 있다(1100).Referring back to FIG. 4 , the processor 120 may acquire first image data and second image data from the camera 200 ( 1100 ).
구체적으로, 프로세서(120)는 통신 인터페이스(110)를 통해 제1 영상(예: 풀화이트 영상)에 대응되는 영상데이터(이하 '제1 보정 영상데이터')를 멀티 디스플레이(10)에게 송신할 수 있고, 멀티 디스플레이(10)는 제1 영상을 표시할 수 있고, 카메라(200)는 멀티 디스플레이(10)를 촬영하여 제1 영상에 대응되는 제1 영상데이터를 획득할 수 있다.Specifically, the processor 120 may transmit image data (hereinafter, 'first corrected image data') corresponding to the first image (eg, a full-white image) to the multi-display 10 through the communication interface 110 . In addition, the multi-display 10 may display the first image, and the camera 200 may acquire the first image data corresponding to the first image by photographing the multi-display 10 .
또한, 프로세서(120)는 통신 인터페이스(110)를 통해 제2 영상(예: 풀블랙 영상)에 대응되는 영상데이터(이하 '제2 보정 영상데이터')를 멀티 디스플레이(10)에게 송신할 수 있고, 멀티 디스플레이(10)는 제2 영상을 표시할 수 있고, 카메라(200)는 멀티 디스플레이(10)를 촬영하여 제2 영상에 대응되는 제2 영상데이터를 획득할 수 있다.In addition, the processor 120 may transmit image data (hereinafter, 'second corrected image data') corresponding to the second image (eg, a full black image) to the multi-display 10 through the communication interface 110 , , the multi-display 10 may display a second image, and the camera 200 may acquire second image data corresponding to the second image by photographing the multi-display 10 .
즉, 멀티 디스플레이(10)는 단색 계조 영상(예: 풀블랙 영상, 풀화이트 영상 또는 풀그레이 영상)을 출력하고, 카메라(200)는 단색 계조 영상을 출력하는 멀티 디스플레이(10)를 촬영하고, 멀티 디스플레이 보정 장치(100)는 카메라(200)로부터 획득된 영상데이터를 수신할 수 있다.That is, the multi-display 10 outputs a monochromatic grayscale image (eg, a full black image, a full white image, or a full gray image), and the camera 200 shoots the multi-display 10 that outputs a monochromatic grayscale image, The multi-display calibration apparatus 100 may receive image data obtained from the camera 200 .
다양한 실시예에 따라, 컬러 채널별 보정 데이터를 획득하기 위해 단색 계조 영상은 풀레드 영상, 풀그린 영상 또는 풀블루 영상일 수도 있다.According to various embodiments, the monochromatic grayscale image may be a full-red image, a full-green image, or a full-blue image in order to obtain correction data for each color channel.
프로세서(120)는 제1 영상데이터와 제2 영상데이터에 기초하여 픽셀별 보정 함수(예: 카메라(200)의 픽셀별 보정 함수 또는 멀티 디스플레이(10)의 픽셀별 보정 함수)를 결정할 수 있다(1200).The processor 120 may determine a correction function for each pixel (eg, a correction function for each pixel of the camera 200 or a correction function for each pixel of the multi-display 10 ) based on the first image data and the second image data (eg, a correction function for each pixel of the multi-display 10 ). 1200).
멀티 디스플레이(10)를 구성하는 디스플레이 장치에 영상 투사 장치가 포함되는 경우, 프로세서(120)는 영상 투사면의 특성을 고려하여 픽셀별 보정 함수를 결정할 수 있다. 이를 위해, 사용자는 영상 투사면에 대한 정보를 리모콘 등의 입력 장치를 통해 입력할 수 있다.When the image projection apparatus is included in the display apparatus constituting the multi-display 10 , the processor 120 may determine a correction function for each pixel in consideration of the characteristics of the image projection surface. To this end, the user may input information on the image projection surface through an input device such as a remote control.
일 실시예에서, 사용자에게 영상 투사 장치를 보정하기 위해 사용되는 투사면(예: 균일한 시각 특성을 갖는 평평한 보드)이 제공될 수 있으며, 사용자는 제공된 투사면을 일 실시예에 따른 멀티 디스플레이 보정 방법에 사용할 수 있다.In an embodiment, the user may be provided with a projection surface (eg, a flat board having uniform visual characteristics) used to calibrate the image projection device, and the user may use the projection surface to calibrate the multi-display according to an embodiment method can be used.
다양한 실시예에 따라, 프로세서(120)는 제1 영상데이터 및/또는 제2 영상데이터를 미리 저장된 비교 영상데이터와 비교하여, 대응되는 영상 투사면의 특성을 결정할 수 있다.According to various embodiments, the processor 120 may compare the first image data and/or the second image data with pre-stored comparison image data to determine a characteristic of the corresponding image projection surface.
픽셀별 보정 함수를 결정하는 구체적인 과정은 도 6을 참조하여 후술한다.A detailed process of determining the correction function for each pixel will be described later with reference to FIG. 6 .
일 실시예에 따르면, 카메라(200)의 도메인과 멀티 디스플레이(10)의 도메인이 매핑되어 있기 때문에, 카메라(200)의 픽셀별 보정 함수 또는 멀티 디스플레이(10)의 픽셀별 보정 함수는 모두 멀티 디스플레이(10)를 보정하는 데 사용될 수 있다.According to an embodiment, since the domain of the camera 200 and the domain of the multi-display 10 are mapped, the per-pixel correction function of the camera 200 or the per-pixel correction function of the multi-display 10 are all multi-display (10) can be used to correct
다양한 실시예에 따라, 프로세서(120)는 제1 영상데이터와 제2 영상데이터에 기초하여 글로벌 보정 함수를 결정할 수 있다(1300). 본 명세서에서 글로벌 보정 함수란 멀티 디스플레이(10)를 구성하는 디스플레이 장치(10-1, 10-2, 10-3, 10-4)별로 적용되는 단일 보정 함수를 의미할 수 있다. 글로벌 보정 함수를 결정하는 구체적인 내용은 도 7을 참조하여 후술한다.According to various embodiments, the processor 120 may determine a global correction function based on the first image data and the second image data ( 1300 ). In the present specification, the global correction function may mean a single correction function applied to each of the display devices 10-1, 10-2, 10-3, and 10-4 constituting the multi-display 10 . Details of determining the global correction function will be described later with reference to FIG. 7 .
일 실시예에서, 픽셀별 보정 함수 및/또는 글로벌 보정 함수는 픽셀에 입력되는 입력 영상데이터에 대한 응답 함수를 의미할 수 있다.In an embodiment, the per-pixel correction function and/or the global correction function may refer to a response function to input image data input to a pixel.
예를 들어, 멀티 디스플레이(10)의 제1 픽셀에 적용되는 입력 영상데이터의 데이터 값이 "R: 100, G: 255, B: 50"인 경우, 데이터 값을 절반으로 만드는 보정 함수에 의해 보정된 입력 영상데이터 값은 "R: 50, G: 123, B: 25"일 수 있다.For example, when the data value of the input image data applied to the first pixel of the multi-display 10 is “R: 100, G: 255, B: 50”, the data value is corrected by a correction function that halves the data value. The input image data value may be "R: 50, G: 123, B: 25".
일 실시예에서, 프로세서(120)는 픽셀별 보정 함수 또는 글로벌 보정 함수를 멀티 디스플레이(10)에 적용하여 멀티 디스플레이(10)를 보정할 수 있다(1400).In an embodiment, the processor 120 may calibrate the multi-display 10 by applying a pixel-by-pixel correction function or a global correction function to the multi-display 10 ( 1400 ).
도 6 및 도 7은 일 실시예에 따른 멀티 디스플레이 보정 방법의 구체적인 실시예에 대한 순서도이다.6 and 7 are flowcharts of a specific embodiment of a multi-display calibration method according to an embodiment.
구체적으로, 도 6은 픽셀별 보정 함수를 결정하는 과정을 도시하고, 도 7은 글로벌 보정 함수를 결정하는 과정을 도시한다.Specifically, FIG. 6 shows a process of determining a correction function for each pixel, and FIG. 7 shows a process of determining a global correction function.
도 6을 참조하면, 프로세서(120)는 제1 영상데이터에 포함된 픽셀별 데이터 값과 제2 영상데이터에 포함된 픽셀별 데이터 값의 차이값을 산출할 수 있다(2000).Referring to FIG. 6 , the processor 120 may calculate a difference value between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data ( 2000 ).
이에 따라, 프로세서(120)는 제1 영상데이터에 포함된 픽셀별 데이터 값과 제2 영상데이터에 포함된 픽셀별 데이터 값의 차이값 중 최소값(이하 '최소 차이값')을 결정할 수 있다.Accordingly, the processor 120 may determine a minimum value (hereinafter, referred to as a 'minimum difference value') among a difference value between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data.
다시 말해서, 프로세서(120)는 제1 영상데이터 및 제2 영상데이터에 포함된 픽셀들 중에서 가장 어두운 픽셀(dimmest pixel)을 결정할 수 있다. 예를 들어, 프로세서(120)는 최소 차이값을 갖는 픽셀을 가장 어두운 픽셀로 결정할 수 있다.In other words, the processor 120 may determine the darkest pixel among pixels included in the first image data and the second image data. For example, the processor 120 may determine the pixel having the smallest difference value as the darkest pixel.
일 실시예에서, 프로세서(120)는 제1 영상데이터에 포함된 픽셀별 데이터 값과 제2 영상데이터에 포함된 픽셀별 데이터 값의 차이값에 기초하여 픽셀별 보정 함수를 결정할 수 있다(2100, 2200, 2300).In an embodiment, the processor 120 may determine a correction function for each pixel based on a difference value between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data ( 2100 , 2100 ). 2200, 2300).
예를 들어, 프로세서(120)는 제1 영상데이터에 포함된 픽셀별 데이터 값과 제2 영상데이터에 포함된 픽셀별 데이터 값의 차이값들과, 최소 차이값에 기초하여 픽셀별 보정 함수를 결정할 수 있다.For example, the processor 120 determines a correction function for each pixel based on difference values between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data and a minimum difference value. can
다시 말해서, 프로세서(120)는 가장 어두운 픽셀의 데이터값에 기초하여 픽셀별 보정 함수를 결정할 수 있다.In other words, the processor 120 may determine the correction function for each pixel based on the data value of the darkest pixel.
일 실시예에 따르면, 제1 영상데이터에 포함된 픽셀별 데이터 값과 제2 영상데이터에 포함된 픽셀별 데이터 값의 차이값을 산출하기 때문에 주변광(ambient light)에 의한 간섭을 최소화할 수 있다.According to an exemplary embodiment, since a difference value between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data is calculated, interference caused by ambient light may be minimized. .
제1 영상데이터와 제2 영상데이터는 서로 다른 단색 계조 영상을 출력하는 멀티 디스플레이(10)를 촬영하여 획득된 것이므로, 멀티 디스플레이(10)를 구성하는 복수의 디스플레이 장치가 동일한 특성을 갖는 경우, 픽셀별 차이값이 모두 일정할 것으로 추정된다.Since the first image data and the second image data are obtained by photographing the multi-display 10 that outputs different monochromatic grayscale images, when a plurality of display devices constituting the multi-display 10 have the same characteristics, the pixel All differences are assumed to be constant.
예를 들어, 제1 영상데이터가 풀화이트 영상을 출력하는 멀티 디스플레이(10)를 촬영하여 획득된 영상데이터이고, 제2 영상데이터가 풀블랙 영상을 출력하는 멀티 디스플레이(10)를 촬영하여 획득된 영상데이터인 경우, 바람직하게는, 픽셀별 차이값이 240~255의 범위에 속할 것으로 추정된다.For example, the first image data is image data obtained by photographing the multi-display 10 that outputs a full-white image, and the second image data is image data obtained by photographing the multi-display 10 that outputs a full-black image. In the case of image data, it is preferably estimated that the difference value for each pixel is in the range of 240 to 255.
프로세서(120)는 제1 영상데이터에 포함된 제1 픽셀의 데이터 값과 제2 영상데이터에 포함된 제1 픽셀의 데이터 값의 제1 차이값을 산출하고, 제1 차이값에 기초하여 제1 픽셀의 보정 함수를 결정할 수 있다(2100).The processor 120 calculates a first difference value between the data value of the first pixel included in the first image data and the data value of the first pixel included in the second image data, and based on the first difference value A correction function of the pixel may be determined ( 2100 ).
구체적으로, 프로세서(120)는 제1 차이값과 가장 어두운 픽셀의 데이터값(예: 최소 차이값)에 기초하여 제1 픽셀의 보정함수를 결정할 수 있다.Specifically, the processor 120 may determine the correction function of the first pixel based on the first difference value and the data value (eg, the minimum difference value) of the darkest pixel.
마찬가지로, 프로세서(120)는 제1 영상데이터에 포함된 제2 픽셀의 데이터 값과 제2 영상데이터에 포함된 제2 픽셀의 데이터 값의 제2 차이값을 산출하고, 제2 차이값과 가장 어두운 픽셀의 데이터값(예: 최소 차이값)에 기초하여 제2 픽셀의 보정 함수를 결정할 수 있다.Similarly, the processor 120 calculates a second difference value between the data value of the second pixel included in the first image data and the data value of the second pixel included in the second image data, and the second difference value is the darkest A correction function of the second pixel may be determined based on a data value (eg, a minimum difference value) of the pixel.
픽셀 매핑 단계(1000)에서 매핑된 픽셀의 개수가 n개라고 가정하면, 프로세서(120)는 위와 같은 과정을 반복하여 제1 영상데이터에 포함된 제n 픽셀의 데이터 값과 제2 영상데이터에 포함된 제n 픽셀의 데이터 값의 제n 차이값을 산출하고, 제n 차이값에 기초하여 제n 픽셀의 보정 함수를 결정할 수 있다.Assuming that the number of pixels mapped in the pixel mapping step 1000 is n, the processor 120 repeats the above process to include the data value of the nth pixel included in the first image data and the second image data. An n-th difference value of the data values of the n-th pixel may be calculated, and a correction function of the n-th pixel may be determined based on the n-th difference value.
다양한 실시예에 따라, 프로세서(120)는 제1 차이값을 최소 차이값과 비교하고, 제1 차이값이 최소 차이값에 의해 설정된 범위 내에 속하도록 하는 응답 함수를 제1 픽셀의 보정 함수로 결정할 수 있다.According to various embodiments, the processor 120 compares the first difference value with the minimum difference value, and determines, as the correction function of the first pixel, a response function that allows the first difference value to fall within a range set by the minimum difference value. can
예를 들어, 제1 차이값이 "250"이고 가장 어두운 픽셀의 차이값이 "230"이라고 가정하면, 프로세서(120)는 범위 [0,250]를 [0,230]를 기준으로 정규화하기 위한 응답 함수를 제1 픽셀의 보정 함수로 결정할 수 있다.For example, assuming that the first difference value is "250" and the difference value of the darkest pixel is "230", the processor 120 generates a response function for normalizing the range [0,250] based on [0,230]. It can be determined as a correction function of 1 pixel.
이에 따라, 제1 픽셀이 출력할 수 있는 최대 계조값은 카메라(200)의 응답 특성을 기준으로 "230"에 매칭될 수 있다.Accordingly, the maximum grayscale value that can be output by the first pixel may be matched to “230” based on the response characteristic of the camera 200 .
일 실시예에서, 프로세서(120)는 멀티 디스플레이(10)로부터 제1 단색 계조 영상(예: 풀화이트 영상)을 출력하기 위해 제1 픽셀에 인가된 제1 전압값에 대한 데이터와 제2 단색 계조 영상(예: 풀블랙 영상)을 출력하기 위해 제1 픽셀에 인가된 제2 전압값에 대한 데이터를 수신할 수 있고, 제1 전압값 및 제2 전압값의 차이값과 제1 차이값을 비교하여 제1 픽셀에 인가되는 전압값을 보정하기 위한 응답 함수를 결정할 수 있다.In an exemplary embodiment, the processor 120 outputs a first monochromatic grayscale image (eg, a full-white image) from the multi-display 10 , and includes data about a first voltage value applied to the first pixel and a second monochromatic grayscale image. In order to output an image (eg, a full black image), data about a second voltage value applied to the first pixel may be received, and a difference value between the first voltage value and the second voltage value may be compared with the first difference value. Thus, a response function for correcting a voltage value applied to the first pixel may be determined.
메모리(130)는 제n 차이값을 미리 설정된 기준 범위에 따라 정규화하기 위한 응답 함수에 대한 룩업 테이블을 저장할 수 있다.The memory 130 may store a lookup table for a response function for normalizing the n-th difference value according to a preset reference range.
다양한 실시예에 따라, 제1 영상데이터 또는 제2 영상데이터에 포함된 하나의 픽셀은 멀티 디스플레이(10)의 픽셀 그룹(복수의 픽셀로 구성된 그룹)과 매핑될 수 있으므로, 프로세서(120)는 제1 영상데이터에 포함된 픽셀별 데이터 값과 제2 영상데이터에 포함된 픽셀별 데이터 값의 차이값에 기초하여 멀티 디스플레이(10)의 픽셀 그룹별 보정 함수를 결정할 수 있다.According to various embodiments, since one pixel included in the first image data or the second image data may be mapped to a pixel group (a group consisting of a plurality of pixels) of the multi-display 10 , the processor 120 may A correction function for each pixel group of the multi-display 10 may be determined based on a difference value between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data.
일 실시예에 따르면, 카메라(200)를 통해 획득한 영상데이터를 기준으로 멀티 디스플레이(10)를 보정하기 때문에, 멀티 디스플레이(10)를 구성하는 복수의 디스플레이 장치 각각의 특성을 고려할 필요 없이 멀티 디스플레이(10)를 보정할 수 있다.According to an embodiment, since the multi-display 10 is calibrated based on image data acquired through the camera 200 , it is not necessary to consider the characteristics of each of the plurality of display devices constituting the multi-display 10 . (10) can be corrected.
또한, 일 실시예에 따르면, 풀블랙 영상과 풀화이트 영상을 활용하여 모든 픽셀 데이터 범위(0~255)에 기초하여 멀티 디스플레이(10)를 보정할 수 있다.Also, according to an embodiment, the multi-display 10 may be calibrated based on all pixel data ranges (0 to 255) by using the full black image and the full white image.
또한, 일 실시예에 따르면, 가장 어두운 픽셀을 기준으로 나머지 픽셀을 보정함으로써 영상의 균일화를 도모할 수 있다.Also, according to an exemplary embodiment, uniformity of an image may be achieved by correcting the remaining pixels based on the darkest pixel.
도 7을 참조하면, 멀티 디스플레이(10)를 구성하는 복수의 디스플레이 장치 각각의 모든 픽셀에 적용되는 글로벌 보정 함수를 결정하는 과정을 확인할 수 있다.Referring to FIG. 7 , a process of determining a global correction function applied to all pixels of each of a plurality of display devices constituting the multi-display 10 may be confirmed.
다양한 실시예에 따라, 멀티 디스플레이(10)가 제1 디스플레이 장치(예: 10-1), 제2 디스플레이 장치(예: 10-2) 및 제3 디스플레이 장치(예: 10-3)로 구성되는 경우 프로세서(120)는 제1 디스플레이 장치의 모든 픽셀에 적용되는 제1 글로벌 보정 함수, 제2 디스플레이 장치의 모든 픽셀에 적용되는 제2 글로벌 보정 함수 및 제3 디스플레이 장치의 모든 픽셀에 적용되는 제3 글로벌 보정 함수를 결정할 수 있다.According to various embodiments, the multi-display 10 includes a first display device (eg 10-1), a second display device (eg 10-2), and a third display device (eg 10-3). In this case, the processor 120 may include a first global correction function applied to all pixels of the first display device, a second global correction function applied to all pixels of the second display device, and a third global correction function applied to all pixels of the third display device. A global correction function can be determined.
복수의 디스플레이 장치 각각의 글로벌 보정 함수를 결정하기 위해, 멀티 디스플레이 보정 장치(100)는 복수의 디스플레이 장치 각각이 서로 상이한 타이밍에 제3 영상 및 제4 영상을 표시하도록 멀티 디스플레이(10)를 제어할 수 있다.In order to determine the global correction function of each of the plurality of display apparatuses, the multi-display calibration apparatus 100 controls the multi-display 10 so that each of the plurality of display apparatuses displays the third image and the fourth image at different timings. can
예를 들어, 프로세서(120)는 제1 디스플레이 장치가 제3 영상과 제4 영상을 순차적으로 표시하도록 제어한 이후, 제2 디스플레이 장치가 제3 영상과 제4 영상을 순차적으로 표시하도록 제어할 수 있다.For example, after controlling the first display device to sequentially display the third image and the fourth image, the processor 120 may control the second display device to sequentially display the third image and the fourth image. have.
일 실시예에서, 제1 디스플레이 장치는 제3 영상(예: 풀화이트 영상)과 제4 영상(예: 풀블랙 영상)을 순차적으로 표시할 수 있고, 카메라(200)는 멀티 디스플레이(10)를 촬영하여 제1 디스플레이 장치와 제3 영상에 대응되는 제3-1 영상데이터 및 제1 디스플레이와 제4 영상에 대응되는 제4-1 영상데이터를 획득할 수 있다.In an embodiment, the first display device may sequentially display a third image (eg, a full white image) and a fourth image (eg, a full black image), and the camera 200 displays the multi-display 10 . 3-1 th image data corresponding to the first display device and the third image and 4-1 th image data corresponding to the first display and the fourth image may be obtained by photographing.
또한, 프로세서(120)는 통신 인터페이스(110)를 통해 제3-1 영상데이터와 제4-1 영상데이터를 획득할 수 있다.Also, the processor 120 may acquire the 3-1 th image data and the 4-1 th image data through the communication interface 110 .
다양한 실시예에 따라, 프로세서(120)는 제2 디스플레이 장치와 제3 영상에 대응되는 제3-2 영상데이터와, 제2 디스플레이와 제4 영상에 대응되는 제4-2 영상데이터와, 제3 디스플레이 장치와 제3 영상에 대응되는 제3-3 영상데이터와, 제3 디스플레이와 제4 영상에 대응되는 제4-3 영상데이터를 획득할 수 있다.According to various embodiments of the present disclosure, the processor 120 generates 3-2 th image data corresponding to the second display device and the third image, 4-2 th image data corresponding to the second display and the fourth image, and the third 3-3 image data corresponding to the display device and the third image and 4-3 image data corresponding to the third display and the fourth image may be acquired.
설명의 편의를 위해, 제3-1, 3-2, 3-3 영상데이터는 모두 제3 영상데이터로, 제4-1, 4-2, 4-3 영상데이터는 모두 제4 영상데이터로 통칭한다.For convenience of explanation, the 3-1, 3-2, and 3-3 image data are all referred to as third image data, and the 4-1, 4-2, and 4-3 image data are collectively referred to as the fourth image data. do.
프로세서(120)는 제3 영상데이터의 휘도데이터 값과 제4 영상데이터의 휘도데이터 값의 차이값을 산출할 수 있다(3000).The processor 120 may calculate a difference value between the luminance data value of the third image data and the luminance data value of the fourth image data (3000).
구체적으로, 프로세서(120)는 제3-1, 3-2, 3-3 영상데이터 각각과 제4-1, 4-2, 4-3 영상데이터 각각의 차이값을 산출할 수 있다.Specifically, the processor 120 may calculate a difference value between each of the 3-1, 3-2, and 3-3 image data and each of the 4-1, 4-2, and 4-3 image data.
제3 영상데이터의 휘도데이터 값과 제4 영상데이터의 휘도데이터 값의 차이값은 제3 영상데이터에 포함된 픽셀별 데이터 값의 평균값과 제4 영상데이터에 포함된 픽셀별 데이터 값의 평균값의 차이값을 포함할 수 있다.The difference between the luminance data value of the third image data and the luminance data value of the fourth image data is the difference between the average value of the data values for each pixel included in the third image data and the average value of the data values for each pixel included in the fourth image data. It can contain values.
다양한 실시예에 따라, 프로세서(120)는 제3 영상데이터의 휘도데이터 값과 제4 영상데이터의 휘도데이터 값의 차이값에 기초하여 복수의 디스플레이 장치 각각의 휘도값을 추정할 수 있다(3100).According to various embodiments, the processor 120 may estimate the luminance value of each of the plurality of display devices based on a difference value between the luminance data value of the third image data and the luminance data value of the fourth image data ( 3100 ). .
디스플레이 장치 각각의 휘도값은, 디스플레이 장치 각각이 출력할 수 있는 최대 휘도값을 포함할 수 있으며, 이는 디스플레이 장치 각각의 특성에 따라 상이할 수 있다.The luminance value of each display device may include a maximum luminance value that each display device can output, which may be different according to characteristics of each display device.
프로세서(120)는 복수의 디스플레이 장치 각각의 휘도값 중에서 최소 휘도값을 결정할 수 있다.The processor 120 may determine a minimum luminance value from among luminance values of each of the plurality of display devices.
즉, 프로세서(120)는 멀티 디스플레이(10)를 구성하는 복수의 디스플레이 장치 중에서 가장 어두운 휘도 특성을 갖는 디스플레이 장치를 결정할 수 있다.That is, the processor 120 may determine a display device having the darkest luminance characteristic among a plurality of display devices constituting the multi-display 10 .
프로세서(120)는 복수의 디스플레이 장치 각각의 휘도값과 결정된 최소 휘도값에 기초하여 복수의 디스플레이 장치 각각의 모든 픽셀에 적용되는 글로벌 보정 함수를 결정할 수 있다(3200).The processor 120 may determine a global correction function applied to all pixels of each of the plurality of display apparatuses based on the luminance value of each of the plurality of display apparatuses and the determined minimum luminance value ( 3200 ).
예를 들어, 프로세서(120)는 복수의 디스플레이 장치 중 제1 디스플레이 장치에 대응되는 글로벌 보정 함수를 제1 디스플레이 장치의 휘도값을 최소 휘도값에 기초하여 제한하기 위한 응답 함수로 결정할 수 있다.For example, the processor 120 may determine a global correction function corresponding to the first display device among the plurality of display devices as a response function for limiting the luminance value of the first display device based on the minimum luminance value.
일 실시예에서, 제1 디스플레이 장치의 휘도값이 "230"으로 결정되고, 제2 디스플레이 장치의 휘도값이 "220"으로 결정되고, 제3 디스플레이 장치의 휘도값이 "225"로 결정되는 경우, 프로세서(120)는 최소 휘도값인 "220"에 기초하여 제1 디스플레이 장치에 적용되는 제1 글로벌 보정 함수와 제3 디스플레이 장치에 적용되는 제3 글로벌 보정 함수를 결정할 수 있다.In an embodiment, when the luminance value of the first display apparatus is determined as "230", the luminance value of the second display apparatus is determined as "220", and the luminance value of the third display apparatus is determined as "225" , the processor 120 may determine a first global correction function applied to the first display apparatus and a third global correction function applied to the third display apparatus based on "220", which is the minimum luminance value.
예를 들어, 프로세서(120)는 제1 디스플레이 장치의 휘도값을 "220"으로 제한하기 위한 응답 함수를 제1 글로벌 보정 함수로 결정할 수 있으며, 제3 디스플레이 장치의 휘도값을 "220"으로 제한하기 위한 응답 합수를 제3 글로벌 보정 함수로 결정할 수 있다.For example, the processor 120 may determine a response function for limiting the luminance value of the first display device to “220” as the first global correction function, and limit the luminance value of the third display device to “220”. A response sum to be calculated may be determined as a third global correction function.
프로세서(120)는 멀티 디스플레이(10)를 구성하는 복수의 디스플레이 장치 각각에 적용되는 글로벌 보정 함수에 기초하여, 복수의 디스플레이 장치 각각을 보정할 수 있다(1400).The processor 120 may calibrate each of the plurality of display devices based on a global correction function applied to each of the plurality of display devices constituting the multi-display 10 ( 1400 ).
일 실시예에 따르면, 멀티 디스플레이(10)를 구성하는 모든 픽셀에 최대 전력과 최소 전력을 인가해 봄으로써 픽셀의 최대 계조값을 결정할 수 있으며, 픽셀의 최대 계조값이 가장 작은 픽셀(가장 어두운 픽셀)에 기초하여 픽셀별 보정 함수를 결정하고, 멀티 디스플레이(10)를 구성하는 모든 디스플레이 장치에 최대 전력과 최소 전력을 인가해 봄으로써 디스플레이 장치의 최대 계조값을 결정할 수 있으며, 계조 특성이 가장 나쁜 디스플레이 장치(가장 어두운 디스플레이 장치)에 기초하여 디스플레이 장치별 글로벌 보정 함수를 결정하여 영상의 균일화를 도모할 수 있다.According to an embodiment, the maximum grayscale value of a pixel may be determined by applying the maximum power and the minimum power to all pixels constituting the multi-display 10 , and the pixel having the smallest maximum grayscale value (the darkest pixel) ) based on a correction function for each pixel, and by applying maximum and minimum power to all display devices constituting the multi-display 10 , the maximum grayscale value of the display device can be determined, and the grayscale characteristic having the worst An image may be uniformed by determining a global correction function for each display device based on the display device (the darkest display device).
또한, 일 실시예에 따르면 멀티 디스플레이(10)를 구성하는 디스플레이 장치 각각의 특성과 무관하게 카메라(200)에 내재된 상대적인 응답 특성만을 이용하여 멀티 디스플레이(10)를 보정할 수 있다.Also, according to an embodiment, the multi-display 10 may be calibrated using only the relative response characteristics inherent in the camera 200 irrespective of the characteristics of each display device constituting the multi-display 10 .
또한, 일 실시예에 따르면 주변광과 무관하게 멀티 디스플레이(10)를 보정할 수 있다.Also, according to an embodiment, the multi-display 10 may be corrected regardless of ambient light.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.Meanwhile, the disclosed embodiments may be implemented in the form of a recording medium storing instructions executable by a computer. Instructions may be stored in the form of program code, and when executed by a processor, may generate program modules to perform operations of the disclosed embodiments. The recording medium may be implemented as a computer-readable recording medium.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(read only memory), RAM(random access memory), 자기 테이프, 자기 디스크, 플래쉬 메모리(130), 광 데이터 저장장치 등이 있을 수 있다.The computer-readable recording medium includes any type of recording medium in which instructions readable by the computer are stored. For example, there may be a read only memory (ROM), a random access memory (RAM), a magnetic tape, a magnetic disk, the flash memory 130 , an optical data storage device, and the like.
또한, 컴퓨터가 읽을 수 있는 기록매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.In addition, the computer-readable recording medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory storage medium' is a tangible device and only means that it does not contain a signal (eg, electromagnetic wave). It does not distinguish the case where it is stored as For example, the 'non-transitory storage medium' may include a buffer in which data is temporarily stored.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 기록 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리(130)와 같은 기기로 읽을 수 있는 기록 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be provided in a computer program product (computer program product). Computer program products may be traded between sellers and buyers as commodities. The computer program product is distributed in the form of a machine-readable recording medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play Store™) or on two user devices ( It can be distributed (eg downloaded or uploaded) directly, online between smartphones (eg: smartphones). In the case of online distribution, at least a portion of a computer program product (eg, a downloadable app) is a device-readable record, such as a server of a manufacturer, a server of an application store, or memory 130 of a relay server. At least temporarily stored in the medium, or may be temporarily created.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.The disclosed embodiments have been described with reference to the accompanying drawings as described above. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention may be practiced in other forms than the disclosed embodiments without changing the technical spirit or essential features of the present invention. The disclosed embodiments are illustrative and should not be construed as limiting.

Claims (15)

  1. 멀티 디스플레이가 제1 영상과 제2 영상을 각각 표시하는 단계;displaying the first image and the second image by the multi-display, respectively;
    카메라가 상기 멀티 디스플레이를 촬영하여 상기 제1 영상에 대응되는 제1 영상데이터와 상기 제2 영상에 대응되는 제2 영상데이터를 획득하는 단계;obtaining, by a camera, first image data corresponding to the first image and second image data corresponding to the second image by photographing the multi-display;
    상기 제1 영상데이터에 포함된 픽셀별 데이터 값과 상기 제2 영상데이터에 포함된 픽셀별 데이터 값의 차이값에 기초하여 픽셀별 보정 함수를 결정하는 단계; 및determining a correction function for each pixel based on a difference value between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data; and
    상기 픽셀별 보정 함수에 기초하여 상기 멀티 디스플레이를 보정하는 단계;를 포함하는 멀티 디스플레이 보정 방법.Compensating the multi-display based on the correction function for each pixel; Multi-display calibration method comprising a.
  2. 제1항에 있어서,According to claim 1,
    상기 제1 영상은 풀화이트(Full White) 영상이고, 상기 제2 영상은 풀블랙(Full Black) 영상인 것을 특징으로 하는 멀티 디스플레이 보정 방법.The first image is a full white image, and the second image is a full black image.
  3. 제1항에 있어서,According to claim 1,
    상기 픽셀별 보정 함수를 결정하는 단계는,The step of determining the correction function for each pixel comprises:
    상기 제1 영상데이터에 포함된 제1 픽셀의 데이터 값과 상기 제2 영상데이터에 포함된 상기 제1 픽셀의 데이터 값의 제1 차이값을 산출하는 단계;calculating a first difference value between a data value of a first pixel included in the first image data and a data value of the first pixel included in the second image data;
    상기 제1 영상데이터에 포함된 픽셀별 데이터 값과 상기 제2 영상데이터에 포함된 픽셀별 데이터 값의 차이값에 기초하여 가장 어두운 픽셀을 결정하는 단계; 및determining the darkest pixel based on a difference value between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data; and
    상기 가장 어두운 픽셀의 데이터 값과 상기 제1 차이값에 기초하여 상기 제1 픽셀의 보정 함수를 결정하는 단계;를 포함하는 멀티 디스플레이 보정 방법.and determining a correction function of the first pixel based on the data value of the darkest pixel and the first difference value.
  4. 제3항에 있어서,4. The method of claim 3,
    상기 제1 영상데이터에 포함된 제2 픽셀의 데이터 값과 상기 제2 영상데이터에 포함된 상기 제2 픽셀의 데이터 값의 제2 차이값을 산출하는 단계; 및calculating a second difference value between a data value of a second pixel included in the first image data and a data value of the second pixel included in the second image data; and
    상기 가장 어두운 픽셀의 데이터 값과 상기 제2 차이값에 기초하여 상기 제2 픽셀의 보정 함수를 결정하는 단계;를 포함하는 멀티 디스플레이 보정 방법.and determining a correction function of the second pixel based on the data value of the darkest pixel and the second difference value.
  5. 제4항에 있어서,5. The method of claim 4,
    상기 제1 픽셀의 보정 함수는,The correction function of the first pixel is,
    상기 제1 차이값을 상기 가장 어두운 픽셀의 데이터 값에 기초하여 정규화하기 위한 응답 함수이고,a response function for normalizing the first difference value based on the data value of the darkest pixel;
    상기 제2 픽셀의 보정 함수는,The correction function of the second pixel is,
    상기 제2 차이값을 상기 가장 어두운 픽셀의 데이터 값에 기초하여 정규화하기 위한 응답 함수인 멀티 디스플레이 보정 방법.and a response function for normalizing the second difference value based on the data value of the darkest pixel.
  6. 제1항에 있어서,According to claim 1,
    상기 멀티 디스플레이가 제3 영상을 표시하는 단계;displaying, by the multi-display, a third image;
    상기 카메라가 상기 멀티 디스플레이를 촬영하여 상기 제3 영상에 대응되는 제3 영상데이터를 획득하는 단계; 및obtaining, by the camera, third image data corresponding to the third image by photographing the multi-display; and
    상기 제3 영상의 영상데이터에 포함된 복수의 픽셀과 상기 제3 영상데이터에 포함된 복수의 픽셀을 매핑(mapping)하는 단계;를 더 포함하는 멀티 디스플레이 보정 방법.and mapping a plurality of pixels included in the image data of the third image with a plurality of pixels included in the third image data.
  7. 제6항에 있어서,7. The method of claim 6,
    상기 제3 영상의 영상데이터에 포함된 복수의 픽셀과 상기 제3 영상데이터에 포함된 복수의 픽셀을 매핑하는 단계는,The mapping of the plurality of pixels included in the image data of the third image to the plurality of pixels included in the third image data may include:
    상기 제3 영상의 영상데이터에 포함된 복수의 픽셀 중 적어도 두 개의 픽셀과 상기 제3 영상데이터에 포함된 복수의 픽셀 중 어느 하나의 픽셀을 매핑하는 단계;를 포함하는 멀티 디스플레이 보정 방법.and mapping at least two pixels among a plurality of pixels included in the image data of the third image to any one pixel among a plurality of pixels included in the third image data.
  8. 제1항에 있어서,According to claim 1,
    상기 멀티 디스플레이를 구성하는 복수의 디스플레이 장치 각각이 서로 상이한 타이밍에 제3 영상 및 제4 영상을 표시하는 단계;displaying a third image and a fourth image at different timings, respectively, by a plurality of display devices constituting the multi-display;
    상기 카메라가 상기 멀티 디스플레이를 촬영하여 상기 제3 영상에 대응되는 제3 영상데이터 및 상기 제4 영상에 대응되는 제4 영상데이터를 획득하는 단계;obtaining, by the camera, third image data corresponding to the third image and fourth image data corresponding to the fourth image by photographing the multi-display;
    상기 제3 영상데이터에 포함된 휘도데이터 값과 상기 제4 영상데이터에 포함된 휘도데이터 값에 기초하여 상기 복수의 디스플레이 장치 각각의 휘도값을 추정하는 단계; 및estimating a luminance value of each of the plurality of display devices based on a luminance data value included in the third image data and a luminance data value included in the fourth image data; and
    상기 복수의 디스플레이 장치 각각의 휘도값에 기초하여 상기 복수의 디스플레이 장치 각각의 모든 픽셀에 적용되는 글로벌 보정 함수를 결정하는 단계;를 더 포함하는 멀티 디스플레이 보정 방법.and determining a global correction function applied to all pixels of each of the plurality of display devices based on the luminance values of each of the plurality of display devices.
  9. 제8항에 있어서,9. The method of claim 8,
    상기 글로벌 보정 함수를 결정하는 단계는,Determining the global correction function comprises:
    상기 복수의 디스플레이 장치 각각의 휘도값 중에서 최소 휘도값을 결정하는 단계; 및determining a minimum luminance value among luminance values of each of the plurality of display devices; and
    상기 최소 휘도값과 상기 복수의 디스플레이 장치 각각의 휘도값에 기초하여 상기 복수의 디스플레이 장치 각각에 대응되는 글로벌 보정 함수를 결정하는 단계;를 포함하는 멀티 디스플레이 보정 방법.and determining a global correction function corresponding to each of the plurality of display devices based on the minimum luminance value and the respective luminance values of the plurality of display devices.
  10. 제9항에 있어서,10. The method of claim 9,
    상기 복수의 디스플레이 장치 중 제1 디스플레이 장치에 대응되는 글로벌 보정 함수는,A global correction function corresponding to a first display device among the plurality of display devices,
    상기 제1 디스플레이 장치의 휘도값을 상기 최소 휘도값에 기초하여 제한하기 위한 응답 함수인 멀티 디스플레이 보정 방법.and a response function for limiting the luminance value of the first display device based on the minimum luminance value.
  11. 제8항에 있어서,9. The method of claim 8,
    상기 복수의 디스플레이 장치 각각의 모든 픽셀에 적용되는 글로벌 보정 함수에 기초하여 상기 복수의 디스플레이 장치 각각을 보정하는 단계;를 더 포함하는 멀티 디스플레이 보정 방법.calibrating each of the plurality of display devices based on a global correction function applied to all pixels of each of the plurality of display devices;
  12. 제1항에 있어서,According to claim 1,
    상기 제1 영상데이터에 포함된 픽셀별 데이터 값과 상기 제2 영상데이터에 포함된 픽셀별 데이터 값의 차이값에 기초하여 픽셀별 보정 함수를 결정하는 단계는,determining a correction function for each pixel based on a difference value between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data,
    상기 제1 영상데이터에 포함된 픽셀별 데이터 값과 상기 제2 영상데이터에 포함된 픽셀별 데이터 값의 차이값에 기초하여 상기 멀티 디스플레이의 픽셀 그룹별 보정 함수를 결정하는 단계;를 포함하는 멀티 디스플레이 보정 방법.determining a correction function for each pixel group of the multi-display based on a difference value between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data; Calibration method.
  13. 카메라가 멀티 디스플레이를 촬영하여 획득한 제1 영상데이터와 제2 영상데이터를 수신하는 통신 인터페이스; 및a communication interface for receiving the first image data and the second image data obtained by the camera photographing the multi-display; and
    상기 제1 영상데이터에 포함된 픽셀별 데이터 값과 상기 제2 영상데이터에 포함된 픽셀별 데이터 값의 차이값에 기초하여 상기 멀티 디스플레이의 픽셀별 보정 함수를 결정하고, 상기 픽셀별 보정 함수에 기초하여 상기 멀티 디스플레이를 보정하는 프로세서;를 포함하는 멀티 디스플레이 보정 장치.A correction function for each pixel of the multi-display is determined based on a difference value between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data, and based on the correction function for each pixel A multi-display calibration apparatus comprising a; a processor for calibrating the multi-display.
  14. 제13항에 있어서,14. The method of claim 13,
    상기 프로세서는,The processor is
    상기 제1 영상데이터에 포함된 제1 픽셀의 데이터 값과 상기 제2 영상데이터에 포함된 상기 제1 픽셀의 데이터 값의 제1 차이값을 산출하고,calculating a first difference value between a data value of a first pixel included in the first image data and a data value of the first pixel included in the second image data;
    상기 제1 영상데이터에 포함된 제2 픽셀의 데이터 값과 상기 제2 영상데이터에 포함된 상기 제2 픽셀의 데이터 값의 제2 차이값을 산출하고,calculating a second difference value between a data value of a second pixel included in the first image data and a data value of the second pixel included in the second image data;
    상기 제1 영상데이터에 포함된 픽셀별 데이터 값과 상기 제2 영상데이터에 포함된 픽셀별 데이터 값의 차이값에 기초하여 가장 어두운 픽셀을 결정하고,determining the darkest pixel based on a difference value between a data value for each pixel included in the first image data and a data value for each pixel included in the second image data;
    상기 가장 어두운 픽셀의 데이터 값과 상기 제1 차이값에 기초하여 상기 제1 픽셀의 보정 함수를 결정하고,determining a correction function of the first pixel based on the data value of the darkest pixel and the first difference value;
    상기 가장 어두운 픽셀의 데이터 값과 상기 제2 차이값에 기초하여 상기 제2 픽셀의 보정 함수를 결정하는 멀티 디스플레이 보정 장치.and determining a correction function of the second pixel based on the data value of the darkest pixel and the second difference value.
  15. 제14항에 있어서,15. The method of claim 14,
    상기 제1 픽셀의 보정 함수는,The correction function of the first pixel is,
    상기 제1 차이값을 상기 가장 어두운 픽셀의 데이터 값에 기초하여 정규화하기 위한 응답 함수이고,a response function for normalizing the first difference value based on the data value of the darkest pixel;
    상기 제2 픽셀의 보정 함수는,The correction function of the second pixel is,
    상기 제2 차이값을 상기 가장 어두운 픽셀의 데이터 값에 기초하여 정규화하기 위한 응답 함수인 멀티 디스플레이 보정 장치.and a response function for normalizing the second difference value based on the data value of the darkest pixel.
PCT/KR2022/001513 2021-04-20 2022-01-27 Method for calibrating multi-display and apparatus for calibrating multi-display WO2022225148A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0050958 2021-04-20
KR1020210050958A KR20220144530A (en) 2021-04-20 2021-04-20 Method for calibrating multi-display and apparatus for calibrating multi-display

Publications (1)

Publication Number Publication Date
WO2022225148A1 true WO2022225148A1 (en) 2022-10-27

Family

ID=83722938

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/001513 WO2022225148A1 (en) 2021-04-20 2022-01-27 Method for calibrating multi-display and apparatus for calibrating multi-display

Country Status (2)

Country Link
KR (1) KR20220144530A (en)
WO (1) WO2022225148A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100029285A (en) * 2008-09-08 2010-03-17 엘지전자 주식회사 A projector and a method of image revision
JP2012088551A (en) * 2010-10-20 2012-05-10 Mitsubishi Electric Corp Color correction processing unit, color correction processing method and multi-display device
KR20150056980A (en) * 2013-11-18 2015-05-28 삼성전자주식회사 A method and device fot controlling a camera for color calibration of muli-display
KR20190087400A (en) * 2016-12-14 2019-07-24 삼성전자주식회사 METHOD AND METHOD FOR CORRECTING WHITE BALANCE OF IMAGE
JP2020009182A (en) * 2018-07-09 2020-01-16 Kddi株式会社 Image correction device, and image correction method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100029285A (en) * 2008-09-08 2010-03-17 엘지전자 주식회사 A projector and a method of image revision
JP2012088551A (en) * 2010-10-20 2012-05-10 Mitsubishi Electric Corp Color correction processing unit, color correction processing method and multi-display device
KR20150056980A (en) * 2013-11-18 2015-05-28 삼성전자주식회사 A method and device fot controlling a camera for color calibration of muli-display
KR20190087400A (en) * 2016-12-14 2019-07-24 삼성전자주식회사 METHOD AND METHOD FOR CORRECTING WHITE BALANCE OF IMAGE
JP2020009182A (en) * 2018-07-09 2020-01-16 Kddi株式会社 Image correction device, and image correction method

Also Published As

Publication number Publication date
KR20220144530A (en) 2022-10-27

Similar Documents

Publication Publication Date Title
WO2017052102A1 (en) Electronic device, and display panel device correction method and system thereof
WO2018124784A1 (en) Display apparatus and display method
WO2018084516A1 (en) Electronic device, display apparatus, and control method thereof
WO2021020670A1 (en) Electronic device and control method thereof
WO2014148829A1 (en) Method and apparatus for processing an image based on detected information
EP3514785A1 (en) Screen calibration method and screen calibration system capable of correcting full screen color tones automatically
WO2016076497A1 (en) Method and device for image display based on metadata, and recording medium therefor
WO2017061691A1 (en) Display device and control method therefor
WO2019066443A1 (en) Display apparatus and control method thereof
WO2020040457A1 (en) Display device and method for controlling brightness thereof
WO2019045497A1 (en) Electronic device including display and method for correcting same
WO2021054696A1 (en) Display device, server, and method for correcting display device
WO2019035550A1 (en) Electronic device for controlling shaking of lens part contained in camera module and operation method for electronic device
WO2019022387A1 (en) Display apparatus and control method thereof
WO2019235695A1 (en) Image data processing method and apparatus
WO2018110889A1 (en) Image white balance correction method and electronic device
WO2022034953A1 (en) Electronic device, display device and control method therefor
WO2019226025A1 (en) Method for displaying content of application via display, and electronic device
JP2021101204A (en) Operation method for control unit, control method for projector, and projector
WO2022225148A1 (en) Method for calibrating multi-display and apparatus for calibrating multi-display
WO2016129796A1 (en) Color table creating device, camera image correction/control device and method therefor
WO2019045543A1 (en) Display apparatus, content managing apparatus, content managing system, and content managing method
WO2019088481A1 (en) Electronic device and image correction method thereof
WO2015170946A1 (en) Electronic device having projector and color correction method thereof
WO2021066383A1 (en) Display device and method for controlling same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22791851

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22791851

Country of ref document: EP

Kind code of ref document: A1