WO2023063729A1 - 전자 장치 및 그 제어 방법 - Google Patents

전자 장치 및 그 제어 방법 Download PDF

Info

Publication number
WO2023063729A1
WO2023063729A1 PCT/KR2022/015439 KR2022015439W WO2023063729A1 WO 2023063729 A1 WO2023063729 A1 WO 2023063729A1 KR 2022015439 W KR2022015439 W KR 2022015439W WO 2023063729 A1 WO2023063729 A1 WO 2023063729A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
information
image
captured image
display device
Prior art date
Application number
PCT/KR2022/015439
Other languages
English (en)
French (fr)
Inventor
유진규
김석범
이인기
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of WO2023063729A1 publication Critical patent/WO2023063729A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4314Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1446Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43078Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen for seamlessly watching content streams when changing device, e.g. when watching the same program sequentially on a TV and then on a tablet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43637Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wireless protocol, e.g. Bluetooth, RF or wireless LAN [IEEE 802.11]

Definitions

  • the present invention relates to an electronic device and a control method thereof, and more particularly, to an electronic device communicating with a display device and a control method thereof.
  • the number of display modules constituting the display device increases in proportion to the size and resolution of the display device.
  • the present disclosure has been made in accordance with the above-described needs, and an object of the present disclosure is to provide an electronic device and a control method for automatically identifying positions and arrangement relationships of display modules.
  • an electronic device includes a communication interface for communicating with a display device including a plurality of display modules and a first captured image obtained by capturing the display device outputting a first image.
  • Obtain ratio information of the display device based on size information of a region corresponding to the first image in the first captured image, and based on ratio information of the display device and information related to the plurality of display modules to obtain layout information of the plurality of display modules, allocate location information to regions corresponding to each of the plurality of display modules in the first captured image based on the layout information, and first among the plurality of display modules
  • the display module transmits a second image outputting a different image from the other modules to the display device through the communication interface, and the different image is displayed in a second captured image obtained by capturing the display device outputting the second image. Identifying an area to be captured, comparing the first captured image and the second captured image to obtain location information corresponding to the identified area, and acquiring the obtained location information as location information of the first display module
  • the processor transmits a third image in which a second display module among the plurality of display modules outputs a different image from the other modules to the display device through the communication interface, and the display outputs the third image.
  • a third captured image captured by the device an area where the different image is displayed is identified, the first captured image and the second captured image are compared, and location information allocated to the area corresponding to each of the plurality of display modules is identified. Location information allocated to an area where the different images are displayed may be obtained, and the location information may be identified as location information of the second display module in the display device.
  • the processor may transmit location information of the first display module and location information of the second display module to the display device through the communication interface.
  • the information related to the plurality of display modules may include at least one of information on the number of the plurality of display modules or information on a size of each of the plurality of display modules, and the processor may, based on the information on the number of the plurality of display modules, A plurality of candidate layout information may be obtained, and any one of the plurality of candidate layout information may be identified as the layout information based on size information of each of the plurality of display modules and ratio information of the display device.
  • the first image may be an image in which each of the plurality of display modules outputs the same image.
  • the processor may further include a camera and a display, wherein the processor provides the first captured image obtained through the camera through the display, and displays the first captured image based on layout information of the plurality of display modules.
  • the display is controlled to display a guide line dividing an area corresponding to each of the plurality of display modules, and while the second captured image acquired through the camera is displayed, the second captured image corresponds to the display device.
  • the display may be controlled to display the guide line in an area of interest.
  • the processor allocates first coordinate information to regions corresponding to each of the plurality of display modules in the first captured image, and assigns second coordinate information to regions where the different images are displayed in the second captured image. allocation, identifying an area corresponding to the second coordinate information among a plurality of pieces of first coordinate information, and acquiring location information corresponding to the identified area as location information of the first display module.
  • the processor allocates the first coordinate information by scaling the size of an area corresponding to each of the plurality of display modules, and assigns one first coordinate information among the plurality of first coordinate information to one first coordinate information.
  • Coordinate information may be identified, and location information corresponding to an area corresponding to the identified first coordinate information may be obtained as location information of the first display module.
  • a method for controlling an electronic device includes obtaining a first captured image obtained by capturing a display device outputting a first image, and the first captured image in the first captured image. Obtaining ratio information of the display device based on size information of an area corresponding to one image, obtaining layout information of the plurality of display modules based on ratio information of the display device and information related to the plurality of display modules Allocating location information to an area corresponding to each of the plurality of display modules in the first captured image based on the layout information, wherein a first display module among the plurality of display modules displays an image different from the other modules.
  • Transmitting an output second image to the display device identifying a region where the different images are displayed in a second captured image obtained by capturing the display device outputting the second image, and Comparing the second captured image to obtain location information corresponding to the identified region, and acquiring the obtained location information as location information of the first display module.
  • the second display module among the plurality of display modules transmits a third image outputting a different image from the other modules to the display device, and a third captured image obtained by capturing the display device outputting the third image. Identifying an area where the different image is displayed in the step of comparing the first captured image and the second captured image, and displaying the different image among the location information allocated to the area corresponding to each of the plurality of display modules.
  • the method may further include acquiring location information allocated to and identifying the location information as location information of the second display module in the display device.
  • the method may further include transmitting location information of the first display module and location information of the second display module to the display device.
  • the plurality of display module-related information includes at least one of number information of the plurality of display modules and size information of each of the plurality of display modules, and the acquiring of the layout information includes the plurality of display modules.
  • the first image may be an image in which each of the plurality of display modules outputs the same image.
  • the assigning of the location information may include assigning first coordinate information to an area corresponding to each of the plurality of display modules in the first captured image, and the obtaining of the location information may include Allocating second coordinate information to an area where the different image is displayed in a second captured image, identifying an area corresponding to the second coordinate information among a plurality of pieces of first coordinate information, and It may include acquiring location information as location information of the first display module.
  • the allocating of the first coordinate information includes allocating the first coordinate information by scaling a size of an area corresponding to each of the plurality of display modules
  • the acquiring of the location information comprises: Identifying one piece of first coordinate information including the second coordinate information among the plurality of pieces of first coordinate information and providing location information corresponding to an area corresponding to the identified first coordinate information to the first display module. It may include acquiring as location information.
  • the control method for the electronic device includes a display outputting a first image. Obtaining a first captured image of the device; obtaining ratio information of the display device based on size information of a region corresponding to the first image in the first captured image; ratio information of the display device and obtaining layout information of the plurality of display modules based on the information related to the plurality of display modules. Based on the layout information, location information is provided to a region corresponding to each of the plurality of display modules in the first photographed image.
  • a first display module among the plurality of display modules transmitting a second image outputting a different image from the other modules to the display device, a second image of the display device outputting the second image Identifying an area where the different images are displayed in a captured image, comparing the first captured image and the second captured image to obtain location information corresponding to the identified area, and comparing the obtained location information to the and acquiring the location information of the first display module.
  • configuration when assembling and setting a display device composed of a plurality of display modules, configuration may be automatically completed.
  • FIG. 1 is a diagram for explaining a display device and an electronic device according to an embodiment of the present disclosure.
  • FIG. 2 is a diagram for explaining a display device before setting according to an embodiment of the present disclosure.
  • FIG. 3 is a block diagram for explaining the configuration of an electronic device according to an embodiment of the present disclosure.
  • FIG. 4 is a diagram for explaining a first image according to an embodiment of the present disclosure.
  • FIG. 5 is a diagram for explaining location information according to an embodiment of the present disclosure.
  • FIG. 6 is a diagram for explaining a second image according to an embodiment of the present disclosure.
  • FIG. 7 is a diagram for explaining an area where different images are displayed according to an embodiment of the present disclosure.
  • FIG. 8 is a diagram for explaining a display device after setting according to an embodiment of the present disclosure.
  • FIG. 9 is a diagram for explaining coordinate information according to an embodiment of the present disclosure.
  • FIG. 10 is a flowchart for explaining a control method of an electronic device according to an embodiment of the present disclosure.
  • Embodiments of the present disclosure may apply various transformations and may have various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the scope to specific embodiments, and should be understood to include all transformations, equivalents, and substitutes included in the spirit and scope of technology disclosed. In describing the embodiments, if it is determined that a detailed description of a related known technology may obscure the subject matter, the detailed description will be omitted.
  • a “module” or “unit” performs at least one function or operation, and may be implemented in hardware or software or a combination of hardware and software.
  • a plurality of “modules” or a plurality of “units” are integrated into at least one module and implemented by at least one processor (not shown), except for “modules” or “units” that need to be implemented with specific hardware. It can be.
  • FIG. 1 is a diagram for explaining a display device and an electronic device according to an embodiment of the present disclosure.
  • a display device 1 may include a plurality of display modules 10-1, ..., 10-n.
  • the display device 1 may display video data.
  • the display device 1 may be implemented as a TV, but is not limited thereto, such as a video wall, a large format display (LFD), a digital signage, a digital information display (DID), a projector display, and the like. Any device having a display function is not limited and can be applied.
  • the display device 1 includes a liquid crystal display (LCD), an organic light-emitting diode (OLED), a liquid crystal on silicon (LCoS), a digital light processing (DLP), a quantum dot (QD) display panel, and a quantum dot (QLED) display panel. It can be implemented in various types of displays such as dot light-emitting diodes.
  • the display device 1 may be implemented in a form including a plurality of display modules 10-1, ..., 10-n.
  • a plurality of display modules 10-1, ..., 10-n may be combined to implement one display device (ie, display device 1).
  • Each of the plurality of display modules 10-1, ..., 10-n may include a plurality of self-light emitting elements.
  • the self-light emitting device may be at least one of a light emitting diode (LED) or a micro LED (micro LED).
  • each of the plurality of display modules 10-1, ..., 10-n may be implemented as an LED cabinet including a plurality of LED (Light Emitting Diode) elements.
  • the LED element may be implemented as an RGB LED, and the RGB LED may include a RED LED, a GREEN LED, and a BLUE LED.
  • the LED device may additionally include a White LED in addition to the RGB LED.
  • the LED device may be implemented as a micro LED.
  • the micro LED is an LED with a size of about 5 to 100 micrometers, and is a subminiature light emitting device that emits light by itself without a color filter.
  • each of the plurality of display modules 10-1, ..., 10-n provided in the display device 1 may be connected to each other.
  • At least one display module that has received a control signal, video data, etc. from the electronic device 100 transmits the received control signal, video data, etc. to another display module connected in series with itself, and thus a plurality of displays.
  • Control signals, video data, etc. may be sequentially transmitted to all of the modules 10-1, ..., 10-n.
  • the processor provided in the display device 1 is based on the location information of each of the plurality of display modules 10-1, ..., 10-n, the plurality of display modules (10-1, ..., 10-n) ), respectively, control signals and video data corresponding to positions may be transmitted. Accordingly, the display device 1 may output an image corresponding to the video data received from the electronic device 100 (eg, the source device).
  • the number of the plurality of display modules 10-1, ..., 10-n provided in the display device 1 increases proportionally, and
  • the communication connection relationship between the display modules 10-1, ..., 10-n may be complicatedly and variously modified in addition to the conventional standardized communication connection relationship or daisy chain communication connection relationship.
  • FIG. 2 is a diagram for explaining a display device before setting according to an embodiment of the present disclosure.
  • FIG. 2 shows a case in which a total of 18 display modules 10-1, ... 10-18 configure one display device 1 for convenience of description.
  • the image is different from the image transmitted to the display device 1 by the electronic device 100 (eg, the source device).
  • the processor included in the display device 1 is based on the position information of each of the plurality of display modules 10-1, ..., 10-n, the plurality of display modules (10-1, ..., 10-n) -n) It is possible to control the display device 1 to output an image (ie, an entire image) received from the electronic device 100 by outputting a partial image corresponding to each position.
  • the plurality of display modules Since each of 10-1, ..., 10-n does not output a partial image corresponding to a position in the display device 1, as shown in FIG. 2, the display device 1 outputs a damaged image. there is a problem.
  • location information (or identification information, etc.) indicating where each of the plurality of display modules 10-1, ..., 10-n is located within the display device 1 or a plurality of display modules
  • layout information e.g, N x M arrangement relationship information
  • the electronic device 100 automatically Location information, layout information, etc. may be obtained and transmitted to the display device 1 .
  • the electronic device 100 includes a smart phone, a tablet PC, a mobile phone, a video phone, an e-book reader, a desktop PC, a laptop PC, a netbook computer, a workstation, a server, and a PDA. , a portable multimedia player (PMP), an MP3 player, a medical device, a camera, a virtual reality (VR) implementation device, or a wearable device.
  • PMP portable multimedia player
  • MP3 player MP3 player
  • medical device a camera
  • VR virtual reality
  • the wearable device is an accessory type (eg watch, ring, bracelet, anklet, necklace, glasses, contact lens, or head-mounted-device (HMD)), textile or clothing integral type (eg electronic clothing) ), a body-attached circuit (eg, a skin pad or tattoo), or a bio-implantable circuit
  • the electronic device 100 may include a television, a digital video disk (DVD) player, and an audio device. , refrigerators, air conditioners, vacuum cleaners, ovens, microwave ovens, washing machines, air purifiers, set top boxes, home automation control panels, security control panels, media boxes (e.g.
  • Samsung HomeSync TM , Apple TV TM , or Google TV TM
  • It may include at least one of a game console (eg, Xbox TM , PlayStation TM ), an electronic dictionary, an electronic key, a camcorder, or an electronic photo frame.
  • the electronic device 100 may include various types of medical devices (eg, various portable medical measuring devices such as a blood glucose meter, heart rate monitor, blood pressure monitor, or body temperature monitor), magnetic resonance angiography (MRA), and magnetic resonance imaging (MRI). ), CT (computed tomography), camera, or ultrasonicator, etc.), navigation device, satellite navigation system (GNSS (global navigation satellite system)), EDR (event data recorder), FDR (flight data recorder), automobile infotainment device, ship Electronic equipment (e.g.
  • navigation systems for ships, gyrocompasses, etc. avionics, security devices, head units for vehicles, industrial or domestic robots, drones, ATMs in financial institutions, POS in stores (point of sales), or IoT devices (e.g., light bulbs, various sensors, sprinkler devices, fire alarms, thermostats, street lights, toasters, exercise equipment, hot water tanks, heaters, boilers, etc.).
  • IoT devices e.g., light bulbs, various sensors, sprinkler devices, fire alarms, thermostats, street lights, toasters, exercise equipment, hot water tanks, heaters, boilers, etc.
  • the electronic device 100 provides layout information of the display device 1 and a plurality of display modules 10 based on the first and second captured images received from the camera 200. -1, ..., 10-n) Each location information can be obtained. A detailed description of this will be described later with reference to FIG. 4 .
  • the camera 200 is located at a predetermined distance from the display device 1, and each of a plurality of display modules 10-1, ..., 10-n constituting the display device 1 It can be fixed in one place until the shooting for is completed. Exposure, aperture, focus, etc. of the camera 200 may be automatically set, or may be set manually if desired by the user. In addition, the exposure, aperture, focus, etc. of the camera 200 may be set differently according to the type of measurement equipment.
  • the camera 200 may be implemented in an external electronic device distinct from the electronic device 100 .
  • the camera 200 may also refer to a component included in a user terminal device.
  • the camera 200 may of course be implemented as one component of the electronic device 100 .
  • the electronic device 100 and the camera 200 shown in FIG. 1 are implemented as one device, and each operation of the electronic device 100 and the camera 200 described later may be performed in one device. .
  • each of the plurality of display modules 10-1, ..., 10-n may display any one of Full Color Red, Green, Blue, or White.
  • specific characters, symbols, Shapes, patterns, various colors, etc. may be displayed, and the camera 200 photographs the display device 1 while each of the plurality of display modules 10-1, ..., 10-n outputs an image, and captures the image. Images may be transmitted to the electronic device 100 .
  • FIG. 3 is a block diagram for explaining the configuration of an electronic device according to an embodiment of the present disclosure.
  • the electronic device 100 includes a communication interface 110 and a processor 120 .
  • the communication interface 110 includes circuitry and is a component capable of communicating with the display device 1 .
  • the communication interface 110 may perform communication with the display device 1 based on a wired or wireless communication method.
  • the communication interface 110 may transmit various data to the display device 1 under the control of the processor 120 and may receive various data from the display device 1 .
  • the communication interface 110 may transmit a control signal, an image, a test image, and the like to the display device 1 using an Ethernet communication method under the control of the processor 120 .
  • V-by-One may be used as a connection cable between the communication interface 110 and the display device 1, but is not limited thereto, and HDMI (High Definition Multimedia Interface) cable, LVDS (Low Voltage Differential Signals) A cable, a digital visual interface (DVI) cable, a D-subminiature (D-SUB) cable, a video graphics array (VGA) cable, or an optical cable may be used.
  • the communication interface 110 may transmit a control signal, an image, a test image, and the like to the display device 1 through wireless communication.
  • the communication interface 110 may include a Wi-Fi module (not shown), a Bluetooth module (not shown), an infrared (IR) module, a local area network (LAN) module, an Ethernet module, and the like.
  • each communication module may be implemented in the form of at least one hardware chip.
  • the wireless communication module includes zigbee, USB (Universal Serial Bus), MIPI CSI (Mobile Industry Processor Interface Camera Serial Interface), 3G (3rd Generation), 3GPP (3rd Generation Partnership Project), LTE (Long Term Evolution), LTE-A (LTE Advanced), 4G (4th Generation), 5G (5th Generation), etc., may include at least one communication chip that performs communication according to various wireless communication standards.
  • USB Universal Serial Bus
  • MIPI CSI Mobile Industry Processor Interface Camera Serial Interface
  • 3G 3rd Generation
  • 3GPP 3rd Generation Partnership Project
  • LTE Long Term Evolution
  • LTE-A LTE Advanced
  • 4G (4th Generation) 5G (5th Generation), etc.
  • the communication interface 110 may use at least one communication module among various communication modules.
  • the processor 120 is electrically connected to a memory (not shown) and controls overall operations of the electronic device 100 .
  • the processor 120 may be implemented as a digital signal processor (DSP), a microprocessor, or a timing controller (TCON) that processes digital signals.
  • DSP digital signal processor
  • MCU micro controller unit
  • MPU micro processing unit
  • AP application processor
  • CP communication processor
  • AI Artificial Intelligence
  • the processor 120 may include a System on Chip (SoC) in which a processing algorithm is embedded. ), large scale integration (LSI), or field programmable gate array (FPGA), the processor 120 executes computer executable instructions stored in the memory 130. By doing so, it can perform various functions.
  • SoC System on Chip
  • LSI large scale integration
  • FPGA field programmable gate array
  • the processor 120 may transmit a test image to the display device 1 .
  • the test image is an image in which each of the plurality of display modules 10-1, ..., 10-n outputs the same image, and will be collectively referred to as a first image for convenience of description below.
  • the processor 120 may acquire a first captured image obtained by capturing the display device 1 outputting the first image from the camera 200 .
  • FIG. 4 is a diagram for explaining a first image according to an embodiment of the present disclosure.
  • the processor 120 may receive a first captured image A captured of the display device 1 through the camera 200 .
  • the display device 1 is outputting a first image
  • the first image may be an image for which each of the plurality of display modules 10-1, ..., 10-n outputs the same image.
  • each of the plurality of display modules 10-1, ..., 10-n outputs some images of the same color or some images of the same pattern, so that the display device 1 may display a first image of a single color or a single pattern.
  • the first image of can be output.
  • the first image output by the display device 1 shown in FIG. 4 is only an example, and the display device 1 may output a first image in which various colors are combined (or various patterns are combined). Of course there is.
  • each of the plurality of display modules 10-1, ..., 10-n may output some images of different colors or some images of different patterns.
  • the processor 120 When the first captured image A is received, the processor 120 according to an embodiment of the present disclosure displays the display device 1 based on size information of a region corresponding to the first image in the first captured image 1. The ratio information of can be obtained.
  • the first captured image A received from the camera 200 is the display device 1 outputting the first image and the surrounding environment where the display device 1 is disposed (eg, a wall, a table, etc.) ) may be included.
  • the processor 120 identifies a region corresponding to the first image in the first captured image A, and uses the size information of the region corresponding to the first image to determine ratio information of the display device 1. (For example, the ratio of the width (W) and height (H) of the display device) may be obtained.
  • the ratio information may also be referred to as aspect ratio information.
  • the processor 120 cannot identify each length of the width (W) and height (H) of the display device 1, but of the area corresponding to the first image in the first captured image (A).
  • the ratio of the width (W) to the height (H), that is, the aspect ratio may be obtained using the size information.
  • the processor 120 obtains depth information using a separate sensor (eg, a depth camera, etc.), and based on the depth information, distance information from the camera 200 to the display device 1 , and size information of the display device 1 may be obtained based on the distance information and the size information of the region corresponding to the first image in the first captured image A (e.g., display Width (W) and height (H) of the device (1), respectively length information).
  • a separate sensor eg, a depth camera, etc.
  • W display Width
  • H height
  • the processor 120 determines the plurality of display modules 10-1, ..., 10-n based on the ratio information of the display device 1 and information related to the plurality of display modules 10-1, ..., 10-n. ) of layout information can be obtained.
  • FIG. 5 is a diagram for explaining location information according to an embodiment of the present disclosure.
  • the processor 120 configures a plurality of display modules 10-1, . , 10-n) layout information can be obtained.
  • the information related to the plurality of display modules 10-1, ..., 10-n is information on the number of the plurality of display modules 10-1, ..., 10-n or the plurality of display modules 10-1, ..., 10-n) At least one of each size information may be included.
  • a method for obtaining layout information by the processor 120 may include four steps according to an embodiment.
  • the processor 120 determines the number (example) of the plurality of display modules 10-1, ..., 10-n constituting the display device 1 based on the number information. For example, 18) may be identified, and the size (eg, 320 x 360) of each of the plurality of display modules 10-1, ..., 10-n may be identified based on the size information.
  • the processor 120 may obtain a plurality of candidate layout information based on information on the number of the plurality of display modules 10-1, ..., 10-n. For example, if a total of 18 display modules 10-1, ..., 10-18 are identified as constituting the display device 1, the processor 120 configures configurable N x M (where N and M are integer) to obtain a plurality of candidate layout information. For example, the processor 120 may obtain a total of 6 candidate layout information (eg, 1 x 18, 2 x 9, 3 x 6, 6 x 3, 9 x 2, 18 x 1).
  • the processor 120 based on the ratio information (eg, the ratio of the width W and the height H of the display device 1) of the display device 1 obtained based on the first captured image A
  • the ratio (Width/Height) of the display device 1 may be acquired.
  • the ratio of the display device 1 is 16:9, that is, 1.778.
  • the processor 120 may obtain a candidate ratio by multiplying each of the plurality of candidate layout information obtained in Step 1 by the size of the display module 10 .
  • the processor operates a plurality of A candidate ratio (N x Width : M x Height) can be obtained.
  • Processor 120 since 4th) candidate ratio (1.778) of the total 6 candidate ratios of i) to vi) is the same as or similar to the ratio of display device 1 obtained in Step 2, 4th) Layout information, that is, 6 x 3 may be obtained based on the candidate ratio.
  • the processor 120 may provide a guide line for distinguishing a plurality of display modules in the first captured image A based on the layout information, that is, for dividing a region corresponding to each of the plurality of display modules.
  • the processor 120 includes a total of 18 cells in the first captured image A. Guidelines including (cell) can be added.
  • one cell corresponds to one display module.
  • the processor 120 transmits location information to regions corresponding to each of the plurality of display modules 10-1, ..., 10-n in the first captured image A based on the layout information.
  • (2, 5) is assigned to Specific numbers are only examples for convenience of explanation, and are not limited thereto.
  • the processor 120 transmits to the display device 1 a second image in which one of the plurality of display modules 10-1, ..., 10-n outputs an image different from that of the other display modules.
  • the communication interface 110 may be controlled. A detailed description of this will be made with reference to FIG. 6 .
  • FIG. 6 is a diagram for explaining a second image according to an embodiment of the present disclosure.
  • the processor 120 is a display device for displaying a second image in which one of the plurality of display modules 10-1, ..., 10-n outputs a different image from the other display modules. (1) can be transmitted.
  • any one of the plurality of display modules 10-1, ..., 10-n constituting the display device 1 displays a different image from the other display modules.
  • the second image may be output.
  • the camera 200 may transmit the second captured image B captured of the display device 1 to the electronic device 100 .
  • the camera 200 may be one component of the electronic device 100, and the processor 120 transmits captured images (eg, a first captured image and a second captured image) of the camera 200 to the electronic device. It can be displayed through a display (not shown) provided in (100).
  • captured images eg, a first captured image and a second captured image
  • the first captured image A and the second captured image B shown in FIGS. 3 to 7 may be displayed through the display of the electronic device 100 .
  • the electronic device 100 may display the real-time image received from the camera 200 .
  • the processor 120 corresponds to the display device 1 in the second captured image B while the second captured image B acquired through the camera 200 is displayed through the display. area can be identified.
  • the processor 120 may display a guide line in an area corresponding to the display device 1 in the second captured image B. A detailed description of this will be made with reference to FIG. 7 .
  • FIG. 7 is a diagram for explaining an area where different images are displayed according to an embodiment of the present disclosure.
  • one display module among a plurality of display modules 10-1, ..., 10-n is different from the other display modules.
  • Video is output.
  • the processor 120 may identify a region in which a different image is displayed in the second captured image. Subsequently, location information of a region where different images are displayed may be obtained by comparing the first captured image A (see FIGS. 4 and 5 ) and the second captured image B (see FIGS. 6 and 7 ). .
  • a fifteenth display module 10-15 among a total of 18 display modules 10-1, ..., 10-n outputs a different image from the other display modules.
  • the processor 120 may identify an area where a different image is displayed based on the second captured image B, but may not know whether the identified area corresponds to the fifteenth display module 10-15. does not exist.
  • the processor 120 compares the first captured image A and the second captured image B, and in the first captured image A, the region identified in the second captured image B (ie, An area corresponding to an area where different images are displayed) may be identified.
  • the processor 120 determines that the region identified in the second captured image B (ie, the region where a different image is displayed) corresponds to the 15th display module 10 - 15 in the first captured image A. If it is identified as being similar to (or coincides with) the area to be displayed, the location information (eg, (2, 2)) allocated to the fifteenth display module 10-15 is transferred to the area of the fifteenth display module 10-15. It can be obtained as location information, and the obtained location information can be transmitted to the display device 1.
  • the location information eg, (2, 2)
  • the display device 1 may receive location information from the electronic device 100 to identify where a display module currently displaying a different image is located within the display device 1 . That is, the display device 1 can identify that the fifteenth display module 10 - 15 is located in the third row and third column within the plurality of display modules 10 - 1 , ..., 10 - n.
  • the processor 120 may repeatedly perform the steps described with reference to FIGS. 6 and 7 .
  • the processor 120 transmits a second image in which one of the plurality of display modules 10-1, ..., 10-n outputs a different image from the other display modules to the display device 1. can transmit
  • the processor 120 may acquire location information of one display module outputting a different image while the display device 1 outputs the second image, and transmit the obtained location information to the display device 1 .
  • the processor 120 may transmit a third image in which one display module outputs a different image from among the remaining display modules except for the display module whose location is identified in iteration 1 to the display device 1 .
  • the processor 120 may acquire location information of one display module outputting a different image while the display device 1 outputs the third image, and transmit the obtained location information to the display device 1 .
  • the number of iterations may be adjusted based on information on the number of the plurality of display modules 10-1, ..., 10-n of the processor 120 according to an embodiment of the present disclosure.
  • the processor 120 may obtain and transmit position information of each of the plurality of display modules 10-1, ..., 10-n constituting the display device 1 to the display device 1, and display device 1 may identify a position within the display device 1 of each of the plurality of display modules 10-1, ..., 10-n.
  • the processor 120 may provide location information (or identification information, etc.) indicating where each of the display modules 10-1, ..., 10-n is located within the display device 1, or a plurality of display modules 10-n. 1, ..., 10-n) layout information (eg, N x M arrangement relationship information) without the user manually inputting the display device 1, the electronic device 100 automatically provides location information, Layout information and the like may be obtained and transmitted to the display device 1 .
  • location information or identification information, etc.
  • layout information eg, N x M arrangement relationship information
  • FIG. 8 is a diagram for explaining a display device after setting according to an embodiment of the present disclosure.
  • the processor included in the display device 1 may include a plurality of display modules (10-1, ..., 10-n) based on positional information of each 10-1, ..., 10-n) may control the display device 1 to output the image (ie, the entire image) received from the electronic device 100 by outputting a partial image corresponding to the position.
  • the display device 1 outputs a damaged image, but in the post-setting step, as shown in FIG. Images received from the device can be output.
  • FIG. 9 is a diagram for explaining coordinate information according to an embodiment of the present disclosure.
  • the processor 120 may allocate coordinate information to regions corresponding to each of the plurality of display modules 10-1, ..., 10-n based on the first captured image A. .
  • the processor 120 converts the start coordinates (Start xy) of the first captured image A to the end coordinates (60, 50).
  • (End xy) areas 160 and 150 may be identified as areas corresponding to the first display module 10-1. Subsequently, the processor 120 may allocate location information (0, 0) to an area corresponding to the first display module 10-1.
  • the processor 120 may identify an area from start coordinates (560, 250) to end coordinates (660, 150) of the first captured image (A) as an area corresponding to the eighteenth display module (10-18). can Subsequently, the processor 120 may allocate the location information 2 and 5 to an area corresponding to the eighteenth display module 10-18.
  • the processor 120 provides first coordinate information to each of the plurality of display modules by scaling (eg, enlarging) the size of an area corresponding to each of the plurality of display modules 10-1, ..., 10-n. can be assigned
  • the processor 120 converts the area corresponding to the first display module 10-1 to start coordinates (Start xy) (60, 50) to (50, 40) identified in the first captured image (A). Adjust, and end coordinates (End xy) can be adjusted from (160, 150) to (170, 160).
  • the area corresponding to the first display module 10-1 is the area from the adjusted start coordinates (50, 40) to the adjusted end coordinates (170, 160), and the processor 120 adjusts the adjusted start coordinates and end coordinates. Coordinates may be allocated as first coordinate information corresponding to the first display module 10-1.
  • the processor 120 adjusts the region corresponding to the eighteenth display module 10-18 from the start coordinates (560, 250) identified in the first captured image (A) to (550, 240), and the end coordinates (550, 240). You can adjust it from coordinates (660, 150) to (670, 360).
  • the area corresponding to the eighteenth display module 10-1 is the area from the adjusted start coordinates (550, 240) to the adjusted end coordinates (670, 360), and the processor 120 controls the adjusted start coordinates and end coordinates. Coordinates may be allocated as first coordinate information corresponding to the eighteenth display module 10-18.
  • the processor 120 may identify start coordinates and end coordinates of a region where different images are displayed in the second captured image B, and allocate the identified start coordinates and end coordinates as second coordinate information.
  • the processor 120 may identify one piece of first coordinate information including second coordinate information among the first coordinate information allocated to each of the plurality of display modules 10-1, ..., 10-n.
  • the processor 120 identifies an area where a different image is displayed in the second captured image B, and sets the end coordinates (360, 350) from the start coordinates (260, 250) of the identified area to the second coordinates. information can be assigned.
  • the processor 120 identifies at least one piece of first coordinate information including second coordinate information (ie, start coordinates (260, 250) to end coordinates (360, 350)) from among a plurality of pieces of first coordinate information.
  • second coordinate information ie, start coordinates (260, 250) to end coordinates (360, 350)
  • the processor 120 selects first coordinate information (start coordinates (250, 240) to end coordinates (370, 360) allocated to the fifteenth display module 10-15 among a plurality of first coordinate information. ) can be identified as including second coordinate information (start coordinates (260, 250) to end coordinates (360, 350)). Subsequently, the processor 120 converts the location information (2, 2) allocated to the fifteenth display module 10-15 based on the table shown in FIG. 9 to which image is different from the second captured image B. It can be identified by location information of one display module.
  • the processor 120 displays a plurality of display modules 10-1, ..., 10-n identified by the processor 120 using the first photographed image A, in actual size. ) can enlarge the size corresponding to each.
  • the actual size corresponds to the actual coordinates of FIG. 9 (ie, first coordinate information)
  • the enlarged size corresponds to the designated coordinates of FIG. 9 (ie, the adjusted first coordinates).
  • the focus may be changed according to the movement of the camera 200, and the user controlling the camera 200 Due to shaking or the like, a comparison result between the first captured image (A) and the second captured image (B) may have a problem of low reliability.
  • the processor 120 enlarges the size of the region corresponding to each of the plurality of display modules 10-1, ..., 10-n identified based on the first captured image A, and expands the size of the area corresponding to the second captured image ( In B), any one area including an area where different images are displayed may be identified, and location information of the display module 10 corresponding to the identified area may be acquired.
  • FIG. 10 is a flowchart for explaining a control method of an electronic device according to an embodiment of the present disclosure.
  • a first captured image obtained by capturing a display device outputting a first image is acquired (S1010).
  • ratio information of the display device is obtained based on size information of a region corresponding to the first image in the first captured image (S1020).
  • layout information of a plurality of display modules is obtained based on ratio information of the display device and information related to a plurality of display modules (S1030).
  • location information is assigned to regions corresponding to each of a plurality of display modules in the first captured image (S1040).
  • the first display module among the plurality of display modules transmits a second image outputting a different image from the other modules to the display device (S1050).
  • location information corresponding to the identified region is obtained by comparing the first captured image with the second captured image (S1070).
  • the obtained location information is obtained as location information of the first display module (S1080).
  • control method includes transmitting a third image in which a second display module outputs a different image from the other modules among the plurality of display modules to the display device, and photographing the display device outputting the third image. Identifying regions where different images are displayed in one third captured image, comparing the first captured image and the second captured image, and displaying regions of different images among location information allocated to regions corresponding to a plurality of display modules.
  • the method may further include obtaining location information allocated to and identifying the location information as location information of the second display module in the display device.
  • the control method according to an embodiment may further include transmitting location information of the first display module and location information of the second display module to the display device.
  • the information related to the plurality of display modules includes at least one of information on the number of the plurality of display modules or information on the size of each of the plurality of display modules, and step S1030 of obtaining layout information includes information on the number of the plurality of display modules. Acquiring a plurality of candidate layout information based on the number information and identifying any one of the plurality of candidate layout information as layout information based on size information of each of the plurality of display modules and ratio information of the display device can do.
  • the first image according to an embodiment of the present disclosure may be an image in which each of a plurality of display modules outputs the same image.
  • a control method includes providing a first captured image obtained through a camera of an electronic device through a display, and displaying a first captured image to each of a plurality of display modules based on layout information of a plurality of display modules.
  • the method may further include displaying a guide line dividing the corresponding region and displaying the guide line in the region corresponding to the display device in the second captured image while the second captured image acquired through the camera is displayed. .
  • Step S1040 of allocating location information includes allocating first coordinate information to regions corresponding to each of a plurality of display modules in a first captured image
  • step S1070 of acquiring location information includes: Allocating second coordinate information to an area where a different image is displayed in a second captured image, identifying an area corresponding to the second coordinate information among a plurality of pieces of first coordinate information, and providing location information corresponding to the identified area. It may include obtaining location information of the first display module.
  • the step of allocating the first coordinate information includes the step of allocating the first coordinate information by scaling the size of the region corresponding to each of the plurality of display modules, and the step S1070 of obtaining the location information includes a plurality of first coordinate information. Identifying one piece of first coordinate information including second coordinate information among 1 coordinate information and acquiring location information corresponding to an area corresponding to the identified first coordinate information as location information of a first display module. can include
  • embodiments described above may be implemented in a recording medium readable by a computer or a similar device using software, hardware, or a combination thereof.
  • the embodiments described herein may be implemented in a processor itself.
  • embodiments such as procedures and functions described in this specification may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein.
  • computer instructions for performing the processing operation of the electronic device according to various embodiments of the present disclosure described above may be stored in a non-transitory computer-readable medium.
  • the processing operation in the electronic device 100 according to various embodiments described above is performed by the specific device.
  • a non-transitory computer readable medium is a medium that stores data semi-permanently and is readable by a device, not a medium that stores data for a short moment, such as a register, cache, or memory.
  • Specific examples of the non-transitory computer readable media may include CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

전자 장치가 개시된다. 전자 장치는, 복수의 디스플레이 모듈을 포함하는 디스플레이 장치와 통신하는 통신 인터페이스 및 제1 이미지를 출력하는 디스플레이 장치를 촬영한 제1 촬영 영상을 획득하고, 제1 촬영 영상에서 제1 이미지에 대응되는 영역의 크기 정보에 기초하여 디스플레이 장치의 비율 정보를 획득하고, 디스플레이 장치의 비율 정보 및 복수의 디스플레이 모듈 관련 정보에 기초하여 복수의 디스플레이 모듈의 레이아웃 정보를 획득하고, 레이아웃 정보에 기초하여 제1 촬영 영상에서 복수의 디스플레이 모듈 각각에 대응되는 영역에 위치 정보를 할당하고, 복수의 디스플레이 모듈 중 제1 디스플레이 모듈이 나머지 모듈과 상이한 영상을 출력하는 제2 이미지를 통신 인터페이스를 통해 디스플레이 장치로 전송하고, 제2 이미지를 출력하는 디스플레이 장치를 촬영한 제2 촬영 영상에서 상이한 영상이 디스플레이되는 영역을 식별하고, 제1 촬영 영상 및 제2 촬영 영상을 비교하여 식별된 영역에 대응되는 위치 정보를 획득하고, 획득된 위치 정보를 제1 디스플레이 모듈의 위치 정보로 획득하는 프로세서를 포함한다.

Description

전자 장치 및 그 제어 방법
본 발명은 전자 장치 및 그 제어 방법에 관한 것으로, 보다 상세하게는 디스플레이 장치와 통신을 수행하는 전자 장치 및 그 제어 방법에 관한 것이다.
최근, 다양한 형태의 디스플레이 장치가 개발 및 보급되는 추세이다.
특히, 디스플레이 장치의 대형화, 고해상화에 따라 디스플레이 장치를 구성하는 디스플레이 모듈의 개수가 비례하여 증가하고 있다.
디스플레이 모듈의 개수가 증가함에 따라, 설치 난이도가 증가하고 있으며 특히, 디스플레이 장치의 설정 시에 복수의 디스플레이 모듈 각각의 위치, 레이아웃, 연결 관계 등을 설치자가 수동으로 입력하기에 어려움이 있으며, 그 난이도도 증가하고, 설치 에러가 발생할 확률이 증가하는 문제점이 있다.
디스플레이 장치의 설치 시에 정해진 규칙이 아닌, 임의로 디스플레이 모듈들을 배치 및 연결하는 경우에도, 별도의 설정 작업 없이 자동으로 디스플레이 모듈들의 위치와 모듈 간의 연결 관계를 파악하고, 설정을 완료하는 방법에 대한 요구가 있어왔다.
본 개시는 상술한 필요성에 따른 것으로, 본 개시의 목적은 디스플레이 모듈들의 위치, 배치 관계를 자동으로 식별하는 전자 장치 및 그 제어 방법을 제공함에 있다.
본 개시의 상술한 목적을 달성하기 위한 일 실시 예에 따르면 전자 장치는, 복수의 디스플레이 모듈을 포함하는 디스플레이 장치와 통신하는 통신 인터페이스 및 제1 이미지를 출력하는 상기 디스플레이 장치를 촬영한 제1 촬영 영상을 획득하고, 상기 제1 촬영 영상에서 상기 제1 이미지에 대응되는 영역의 크기 정보에 기초하여 상기 디스플레이 장치의 비율 정보를 획득하고, 상기 디스플레이 장치의 비율 정보 및 상기 복수의 디스플레이 모듈 관련 정보에 기초하여 상기 복수의 디스플레이 모듈의 레이아웃 정보를 획득하고, 상기 레이아웃 정보에 기초하여 상기 제1 촬영 영상에서 상기 복수의 디스플레이 모듈 각각에 대응되는 영역에 위치 정보를 할당하고, 상기 복수의 디스플레이 모듈 중 제1 디스플레이 모듈이 나머지 모듈과 상이한 영상을 출력하는 제2 이미지를 상기 통신 인터페이스를 통해 상기 디스플레이 장치로 전송하고, 상기 제2 이미지를 출력하는 상기 디스플레이 장치를 촬영한 제2 촬영 영상에서 상기 상이한 영상이 디스플레이되는 영역을 식별하고, 상기 제1 촬영 영상 및 상기 제2 촬영 영상을 비교하여 상기 식별된 영역에 대응되는 위치 정보를 획득하고, 상기 획득된 위치 정보를 상기 제1 디스플레이 모듈의 위치 정보로 획득하는 프로세서를 포함한다.
여기서, 상기 프로세서는, 상기 복수의 디스플레이 모듈 중 제2 디스플레이 모듈이 나머지 모듈과 상이한 영상을 출력하는 제3 이미지를 상기 통신 인터페이스를 통해 상기 디스플레이 장치로 전송하고, 상기 제3 이미지를 출력하는 상기 디스플레이 장치를 촬영한 제3 촬영 영상에서 상기 상이한 영상이 디스플레이되는 영역을 식별하고, 상기 제1 촬영 영상 및 상기 제2 촬영 영상을 비교하여 상기 복수의 디스플레이 모듈 각각에 대응되는 영역에 할당된 위치 정보 중 상기 상이한 영상이 디스플레이되는 영역에 할당된 위치 정보를 획득하고, 상기 위치 정보를 상기 디스플레이 장치 내에서 상기 제2 디스플레이 모듈의 위치 정보로 식별할 수 있다.
여기서, 상기 프로세서는, 상기 제1 디스플레이 모듈의 위치 정보 및 상기 제2 디스플레이 모듈의 위치 정보를 상기 통신 인터페이스를 통해 상기 디스플레이 장치로 전송할 수 있다.
또한, 상기 복수의 디스플레이 모듈 관련 정보는, 상기 복수의 디스플레이 모듈의 개수 정보 또는 상기 복수의 디스플레이 모듈 각각의 크기 정보 중 적어도 하나를 포함하며, 상기 프로세서는, 상기 복수의 디스플레이 모듈의 개수 정보에 기초하여 복수의 후보 레이아웃 정보를 획득하고, 상기 복수의 디스플레이 모듈 각각의 크기 정보 및 상기 디스플레이 장치의 비율 정보에 기초하여 상기 복수의 후보 레이아웃 정보 중 어느 하나를 상기 레이아웃 정보로 식별할 수 있다.
또한, 상기 제1 이미지는, 상기 복수의 디스플레이 모듈 각각이 동일한 이미지를 출력하는 이미지일 수 있다.
또한, 카메라 및 디스플레이를 더 포함하고, 상기 프로세서는, 상기 카메라를 통해 획득된 상기 제1 촬영 영상을 상기 디스플레이를 통해 제공하고, 상기 복수의 디스플레이 모듈의 레이아웃 정보에 기초하여 상기 제1 촬영 영상에서 상기 복수의 디스플레이 모듈 각각에 대응되는 영역을 구분하는 가이드 라인을 디스플레이하도록 상기 디스플레이를 제어하고, 상기 카메라를 통해 획득된 상기 제2 촬영 영상이 디스플레이되는 동안 상기 제2 촬영 영상에서 상기 디스플레이 장치에 대응되는 영역에 상기 가이드 라인을 디스플레이하도록 상기 디스플레이를 제어할 수 있다.
또한, 상기 프로세서는, 상기 제1 촬영 영상에서 상기 복수의 디스플레이 모듈 각각에 대응되는 영역에 제1 좌표 정보를 할당하고, 상기 제2 촬영 영상에서 상기 상이한 영상이 디스플레이되는 영역에 제2 좌표 정보를 할당하고, 복수의 제1 좌표 정보 중 상기 제2 좌표 정보에 대응되는 영역을 식별하고, 상기 식별된 영역에 대응되는 위치 정보를 상기 제1 디스플레이 모듈의 위치 정보로 획득할 수 있다.
여기서, 상기 프로세서는, 상기 복수의 디스플레이 모듈 각각에 대응되는 영역의 크기를 스케일링하여 상기 제1 좌표 정보를 할당하고, 상기 복수의 제1 좌표 정보 중 상기 제2 좌표 정보를 포함하는 하나의 제1 좌표 정보를 식별하고, 상기 식별된 제1 좌표 정보에 대응되는 영역에 대응되는 위치 정보를 상기 제1 디스플레이 모듈의 위치 정보로 획득할 수 있다.
본 개시의 상술한 목적을 달성하기 위한 일 실시 예에 따르면 전자 장치의 제어 방법은, 제1 이미지를 출력하는 디스플레이 장치를 촬영한 제1 촬영 영상을 획득하는 단계, 상기 제1 촬영 영상에서 상기 제1 이미지에 대응되는 영역의 크기 정보에 기초하여 상기 디스플레이 장치의 비율 정보를 획득하는 단계, 상기 디스플레이 장치의 비율 정보 및 상기 복수의 디스플레이 모듈 관련 정보에 기초하여 상기 복수의 디스플레이 모듈의 레이아웃 정보를 획득하는 단계, 상기 레이아웃 정보에 기초하여 상기 제1 촬영 영상에서 상기 복수의 디스플레이 모듈 각각에 대응되는 영역에 위치 정보를 할당하는 단계, 상기 복수의 디스플레이 모듈 중 제1 디스플레이 모듈이 나머지 모듈과 상이한 영상을 출력하는 제2 이미지를 상기 디스플레이 장치로 전송하는 단계, 상기 제2 이미지를 출력하는 상기 디스플레이 장치를 촬영한 제2 촬영 영상에서 상기 상이한 영상이 디스플레이되는 영역을 식별하는 단계, 상기 제1 촬영 영상 및 상기 제2 촬영 영상을 비교하여 상기 식별된 영역에 대응되는 위치 정보를 획득하는 단계 및 상기 획득된 위치 정보를 상기 제1 디스플레이 모듈의 위치 정보로 획득하는 단계를 포함한다.
여기서, 상기 복수의 디스플레이 모듈 중 제2 디스플레이 모듈이 나머지 모듈과 상이한 영상을 출력하는 제3 이미지를 상기 디스플레이 장치로 전송하는 단계, 상기 제3 이미지를 출력하는 상기 디스플레이 장치를 촬영한 제3 촬영 영상에서 상기 상이한 영상이 디스플레이되는 영역을 식별하는 단계, 상기 제1 촬영 영상 및 상기 제2 촬영 영상을 비교하여 상기 복수의 디스플레이 모듈 각각에 대응되는 영역에 할당된 위치 정보 중 상기 상이한 영상이 디스플레이되는 영역에 할당된 위치 정보를 획득하는 단계 및 상기 위치 정보를 상기 디스플레이 장치 내에서 상기 제2 디스플레이 모듈의 위치 정보로 식별하는 단계를 더 포함할 수 있다.
여기서, 상기 제1 디스플레이 모듈의 위치 정보 및 상기 제2 디스플레이 모듈의 위치 정보를 상기 디스플레이 장치로 전송하는 단계를 더 포함할 수 있다.
또한, 상기 복수의 디스플레이 모듈 관련 정보는, 상기 복수의 디스플레이 모듈의 개수 정보 또는 상기 복수의 디스플레이 모듈 각각의 크기 정보 중 적어도 하나를 포함하며, 상기 레이아웃 정보를 획득하는 단계는, 상기 복수의 디스플레이 모듈의 개수 정보에 기초하여 복수의 후보 레이아웃 정보를 획득하는 단계 및 상기 복수의 디스플레이 모듈 각각의 크기 정보 및 상기 디스플레이 장치의 비율 정보에 기초하여 상기 복수의 후보 레이아웃 정보 중 어느 하나를 상기 레이아웃 정보로 식별하는 단계를 더 포함할 수 있다.
또한, 상기 제1 이미지는, 상기 복수의 디스플레이 모듈 각각이 동일한 이미지를 출력하는 이미지일 수 있다.
또한, 상기 전자 장치의 카메라를 통해 획득된 상기 제1 촬영 영상을 상기 디스플레이를 통해 제공하는 단계, 상기 복수의 디스플레이 모듈의 레이아웃 정보에 기초하여 상기 제1 촬영 영상에서 상기 복수의 디스플레이 모듈 각각에 대응되는 영역을 구분하는 가이드 라인을 디스플레이하는 단계 및 상기 카메라를 통해 획득된 상기 제2 촬영 영상이 디스플레이되는 동안 상기 제2 촬영 영상에서 상기 디스플레이 장치에 대응되는 영역에 상기 가이드 라인을 디스플레이하는 단계를 더 포함할 수 있다.
또한, 상기 위치 정보를 할당하는 단계는, 상기 제1 촬영 영상에서 상기 복수의 디스플레이 모듈 각각에 대응되는 영역에 제1 좌표 정보를 할당하는 단계를 포함하고, 상기 위치 정보를 획득하는 단계는, 상기 제2 촬영 영상에서 상기 상이한 영상이 디스플레이되는 영역에 제2 좌표 정보를 할당하는 단계, 복수의 제1 좌표 정보 중 상기 제2 좌표 정보에 대응되는 영역을 식별하는 단계 및 상기 식별된 영역에 대응되는 위치 정보를 상기 제1 디스플레이 모듈의 위치 정보로 획득하는 단계를 포함할 수 있다.
여기서, 상기 제1 좌표 정보를 할당하는 단계는, 상기 복수의 디스플레이 모듈 각각에 대응되는 영역의 크기를 스케일링하여 상기 제1 좌표 정보를 할당하는 단계를 포함하고, 상기 위치 정보를 획득하는 단계는, 상기 복수의 제1 좌표 정보 중 상기 제2 좌표 정보를 포함하는 하나의 제1 좌표 정보를 식별하는 단계 및 상기 식별된 제1 좌표 정보에 대응되는 영역에 대응되는 위치 정보를 상기 제1 디스플레이 모듈의 위치 정보로 획득하는 단계를 포함할 수 있다.
본 개시의 상술한 목적을 달성하기 위한 일 실시 예에 따르면 전자 장치의 제어 방법을 실행하는 프로그램을 포함하는 컴퓨터 판독 가능 기록매체에 있어서, 상기 전자 장치의 제어 방법은, 제1 이미지를 출력하는 디스플레이 장치를 촬영한 제1 촬영 영상을 획득하는 단계, 상기 제1 촬영 영상에서 상기 제1 이미지에 대응되는 영역의 크기 정보에 기초하여 상기 디스플레이 장치의 비율 정보를 획득하는 단계, 상기 디스플레이 장치의 비율 정보 및 상기 복수의 디스플레이 모듈 관련 정보에 기초하여 상기 복수의 디스플레이 모듈의 레이아웃 정보를 획득하는 단계, 상기 레이아웃 정보에 기초하여 상기 제1 촬영 영상에서 상기 복수의 디스플레이 모듈 각각에 대응되는 영역에 위치 정보를 할당하는 단계, 상기 복수의 디스플레이 모듈 중 제1 디스플레이 모듈이 나머지 모듈과 상이한 영상을 출력하는 제2 이미지를 상기 디스플레이 장치로 전송하는 단계, 상기 제2 이미지를 출력하는 상기 디스플레이 장치를 촬영한 제2 촬영 영상에서 상기 상이한 영상이 디스플레이되는 영역을 식별하는 단계, 상기 제1 촬영 영상 및 상기 제2 촬영 영상을 비교하여 상기 식별된 영역에 대응되는 위치 정보를 획득하는 단계 및 상기 획득된 위치 정보를 상기 제1 디스플레이 모듈의 위치 정보로 획득하는 단계를 포함한다.
본 개시의 다양한 실시 예들에 따르면, 복수의 디스플레이 모듈로 구성된 디스플레이 장치의 조립, 설정 시에 자동으로 구성을 완료할 수 있다.
또한, 복수의 디스플레이 모듈들 간의 배치 관계, 위치 관계를 사용자가 수동으로 입력할 필요가 없으며, 자동으로 배치, 위치 관계를 식별하여 설정을 완료할 수 있다.
도 1은 본 개시의 일 실시 예에 따른 디스플레이 장치 및 전자 장치를 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른 설정 전 디스플레이 장치를 설명하기 위한 도면이다.
도 3은 본 개시의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도이다.
도 4는 본 개시의 일 실시 예에 따른 제1 이미지를 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따른 위치 정보를 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시 예에 따른 제2 이미지를 설명하기 위한 도면이다.
도 7은 본 개시의 일 실시 예에 따른 상이한 영상이 디스플레이되는 영역을 설명하기 위한 도면이다.
도 8은 본 개시의 일 실시 예에 따른 설정 후 디스플레이 장치를 설명하기 위한 도면이다.
도 9는 본 개시의 일 실시 예에 따른 좌표 정보를 설명하기 위한 도면이다.
도 10은 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다. 
본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 개시의 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시에서 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 1은 본 개시의 일 실시 예에 따른 디스플레이 장치 및 전자 장치를 설명하기 위한 도면이다.
도 1을 참조하면, 디스플레이 장치(1)는 복수의 디스플레이 모듈(10-1, …, 10-n)로 구성될 수 있다. 디스플레이 장치(1)는 비디오 데이터를 디스플레이할 수 있다. 디스플레이 장치(1)는 TV로 구현될 수 있으나, 이에 한정되는 것은 아니며 비디오 월(video wall), LFD(large format display), Digital Signage(디지털 간판), DID(Digital Information Display), 프로젝터 디스플레이 등과 같이 디스플레이 기능을 갖춘 장치라면 한정되지 않고 적용 가능하다. 또한, 디스플레이 장치(1)는 LCD(liquid crystal display), OLED(organic light-emitting diode), LCoS(Liquid Crystal on Silicon), DLP(Digital Light Processing), QD(quantum dot) 디스플레이 패널, QLED(quantum dot light-emitting diodes) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다.
일 실시 예에 따라 디스플레이 장치(1)는 복수의 디스플레이 모듈(10-1, …, 10-n)을 포함하는 형태로 구현될 수 있다. 예를 들어, 도 1에 도시된 바와 같이, 복수의 디스플레이 모듈(10-1, …, 10-n)가 결합되어 하나의 디스플레이 장치(즉, 디스플레이 장치(1))를 구현할 수 있다.
본 개시의 일 실시 예에 따른 복수의 디스플레이 모듈(10-1, …, 10-n) 각각은 복수의 자발광 소자를 포함할 수 있다. 여기서, 자발광 소자는 LED(Light Emitting Diode) 또는 마이크로 LED(micro LED) 중 적어도 하나가 될 수 있다.
또한, 복수의 디스플레이 모듈(10-1, …, 10-n) 각각은, 복수의 LED(Light Emitting Diode) 소자를 포함하는 LED 캐비넷(cabinet)으로 구현될 수 있다. 여기서, LED 소자는 RGB LED로 구현될 수 있으며, RGB LED는 RED LED, GREEN LED 및 BLUE LED를 포함할 수 있다. 또한, LED 소자는 RGB LED 이외에 White LED를 추가적으로 포함할 수도 있다.
일 예에 따라 LED 소자는 마이크로(micro) LED로 구현될 수 있다. 여기서, 마이크로 LED는 약 5 ~ 100 마이크로미터 크기의 LED로서, 컬러 필터 없이 스스로 빛을 내는 초소형 발광 소자이다.
일 실시 예에 따라 디스플레이 장치(1)에 구비된 복수의 디스플레이 모듈(10-1, …, 10-n) 각각은 서로 연결되어 있을 수 있다.
예를 들어, 전자 장치(100)로부터 제어 신호, 비디오 데이터 등을 수신한 적어도 하나의 디스플레이 모듈은 자신과 직렬 연결된 다른 디스플레이 모듈로 수신된 제어 신호, 비디오 데이터 등을 전송하며, 이에 따라 복수의 디스플레이 모듈(10-1, …, 10-n) 전부로 제어 신호, 비디오 데이터 등이 순차적으로 전송될 수 있다.
다른 예로, 디스플레이 장치(1)에 구비된 프로세서는 복수의 디스플레이 모듈(10-1, …, 10-n) 각각의 위치 정보에 기초하여, 복수의 디스플레이 모듈(10-1, …, 10-n) 각각으로 위치에 대응되는 제어 신호, 비디오 데이터 등을 전송할 수 있다. 이에 따라, 디스플레이 장치(1)는 전자 장치(100)(예를 들어, 소스 장치)로부터 수신된 비디오 데이터에 대응되는 이미지를 출력할 수 있다.
일 실시 예로 디스플레이 장치(1)의 해상도, 크기 등이 증가함에 따라 디스플레이 장치(1)에 구비된 복수의 디스플레이 모듈(10-1, …, 10-n)의 개수도 비례하여 증가하며, 복수의 디스플레이 모듈(10-1, …, 10-n) 간 통신 연결 관계가 종래의 정형화된 통신 연결 관계 또는 데이지 체인(Daisy chain) 통신 연결 관계 외에도 복잡하게 또한, 다양하게 변형될 수 있다.
또한, 디스플레이 장치(1)의 해상도, 크기가 증가함에 따라, 디스플레이 장치(1)를 구성하는 복수의 디스플레이 모듈(10-1, …, 10-n)의 개수가 증가하는 경우에 디스플레이 장치(1) 내에서 복수의 디스플레이 모듈(10-1, …, 10-n) 각각의 위치, 배치 관계, 통신 연결 관계 등을 사용자(또는, 디스플레이 장치(1)의 설치 작업자)가 수동으로 설정하기가 다소 난해해지는 문제가 있다.
이에 대한 구체적인 설명은 도 2를 참조하여 하도록한다.
도 2는 본 개시의 일 실시 예에 따른 설정 전 디스플레이 장치를 설명하기 위한 도면이다.
도 2는 설명의 편의를 위해 총 18개의 디스플레이 모듈(10-1, … 10-18)이 하나의 디스플레이 장치(1)를 구성하는 경우를 상정하여 도시하였다.
도 2를 참조하면, 복수의 디스플레이 모듈(10-1, …, 10-n) 각각이 디스플레이 장치(1) 내에 어디에 위치하는지 나타내는 위치 정보, 복수의 디스플레이 모듈(10-1, …, 10-n)의 레이아웃(layout) 정보(또는, 배치 관계 정보)(예를 들어, 총 18개의 디스플레이 모듈이 6 x 3의 레이아웃으로 배치되었음을 나타내는 정보)가 설정되기 전이므로, 디스플레이 장치(1)가 출력하는 이미지가 전자 장치(100)(예를 들어, 소스 장치)가 디스플레이 장치(1)로 전송한 이미지와 상이하다.
예를 들어, 디스플레이 장치(1)에 구비된 프로세서는, 복수의 디스플레이 모듈(10-1, …, 10-n) 각각의 위치 정보에 기초하여, 복수의 디스플레이 모듈(10-1, …, 10-n) 각각이 위치에 대응되는 일부 이미지를 출력하여 디스플레이 장치(1)가 전자 장치(100)로부터 수신된 이미지(즉, 전체 이미지)를 출력하도록 제어할 수 있다. 다만, 복수의 디스플레이 모듈(10-1, …, 10-n) 각각의 위치 정보 및 복수의 디스플레이 모듈(10-1, …, 10-n)의 레이아웃 정보가 설정되기 전에는, 복수의 디스플레이 모듈(10-1, …, 10-n) 각각이 디스플레이 장치(1) 내의 위치에 대응되는 일부 이미지를 출력하는 것이 아니므로, 도 2에 도시된 바와 같이, 디스플레이 장치(1)가 손상된 이미지를 출력하는 문제가 있다.
본 개시의 다양한 실시 예에 따라 복수의 디스플레이 모듈(10-1, …, 10-n) 각각이 디스플레이 장치(1) 내에 어디에 위치하는지 나타내는 위치 정보(또는, 식별 정보 등) 또는, 복수의 디스플레이 모듈(10-1, …, 10-n)의 레이아웃 정보(예를 들어, N x M의 배치 관계 정보)를 사용자가 디스플레이 장치(1)에 수동으로 입력하지 않아도, 전자 장치(100)가 자동으로 위치 정보, 레이아웃 정보 등을 획득하여 디스플레이 장치(1)로 전송할 수 있다.
도 1로 돌아와서, 본 개시의 일 실시 예에 따른 전자 장치(100)는 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 가상 현실(virtual reality(VR)) 구현 장치 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 여기서, 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시 예에서, 전자 장치(100)는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시 예에서, 전자 장치(100)는 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융 기관의 ATM, 상점의 POS(point of sales), 또는 사물 인터넷 장치 (예: 전구, 각종 센서, 스프링클러 장치, 화재 경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.
특히, 본 개시의 일 실시 예에 따른 전자 장치(100)는 카메라(200)로부터 수신된 제1 촬영 영상 및 제2 촬영 영상에 기초하여 디스플레이 장치(1)의 레이아웃 정보, 복수의 디스플레이 모듈(10-1, …, 10-n) 각각의 위치 정보를 획득할 수 있다. 이에 대한 구체적인 설명은 도 4를 참조하여 후술하도록 한다.
본 개시의 일 실시 예에 따른 카메라(200)는 디스플레이 장치(1)으로부터 일정 거리 떨어진 곳에 위치하며, 디스플레이 장치(1)를 구성하는 복수의 디스플레이 모듈(10-1, …, 10-n) 각각에 대한 촬영이 완료될 때까지 한 곳에 고정될 수 있다. 카메라(200)의 노출, 조리개, 초점 등은 자동으로 설정될 수 있으며, 사용자가 원하는 경우 수동으로 설정될 수도 있다. 또한, 카메라(200)의 노출, 조리개, 초점 등은 측정 장비의 종류에 따라 다르게 설정될 수 있다.
일 실시 예에 따라 카메라(200)는 전자 장치(100)와 구분되는 외부 전자 장치에 구현될 수 있다. 예를 들어, 카메라(200)는 사용자 단말 장치에 구비된 일 구성 요소를 지칭할 수도 있음은 물론이다.
다른 예로, 카메라(200)는 전자 장치(100)의 일 구성 요소로 구현될 수도 있음은 물론이다. 일 예로, 도 1에 도시된 전자 장치(100)와 카메라(200)는 하나의 장치로 구현되며, 후술하는 전자 장치(100) 및 카메라(200) 각각의 동작은 하나의 장치에서 수행 가능할 수도 있다.
일 실시 예에 따라 복수의 디스플레이 모듈(10-1, …, 10-n) 각각은, Full Color의 Red, Green, Blue 또는 White 중 어느 하나를 디스플레이할 수 있고, 다른 예로, 특정 문자, 기호, 모양, 패턴, 다양한 색상 등을 디스플레이할 수도 있으며, 카메라(200)는 복수의 디스플레이 모듈(10-1, …, 10-n) 각각이 영상을 출력하는 동안 디스플레이 장치(1)를 촬영하고, 촬영 영상을 전자 장치(100)로 전송할 수 있다.
도 3은 본 개시의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도이다.
도 3에 따르면, 전자 장치(100)는 통신 인터페이스(110) 및 프로세서(120)를 포함한다.
일 실시 예에 따른 통신 인터페이스(110)는 회로(circuitry)를 포함하며, 디스플레이 장치(1)과 통신할 수 있는 구성이다. 통신 인터페이스(110)는 유선 또는 무선 통신 방식에 기초하여 디스플레이 장치(1)과 통신을 수행할 수 있다.
일 예로, 통신 인터페이스(110)는 프로세서(120)의 제어에 따라 디스플레이 장치(1)로 다양한 데이터를 전송할 수 있으며, 디스플레이 장치(1)로부터 다양한 데이터를 수신할 수 있다.
여기서, 통신 인터페이스(110)는 프로세서(120)의 제어에 따라 이더넷(Ethernet) 통신 방식을 이용하여 디스플레이 장치(1)로 제어 신호, 이미지, 테스트 이미지 등을 전송할 수 있다. 여기서, 통신 인터페이스(110)와 디스플레이 장치(1) 간 연결 케이블은 V-by-One이 이용될 수 있으나, 이에 한정되는 것은 아니며, HDMI(High Definition Multimedia Interface) 케이블, LVDS(Low Voltage Differential Signals) 케이블, DVI(Digital Visual Interface) 케이블, D-SUB(D-subminiature) 케이블, VGA(Video Graphics Array) 케이블 또는 광 케이블 등이 이용될 수도 있다.
다른 실시 예에 따라, 통신 인터페이스(110)는 무선 통신을 통하여 디스플레이 장치(1)로 제어 신호, 이미지, 테스트 이미지 등을 전송할 수도 있다. 이 경우, 통신 인터페이스(110)는 와이파이 모듈(미도시), 블루투스 모듈(미도시), IR(infrared) 모듈, LAN(Local Area Network) 모듈, 이더넷(Ethernet) 모듈 등을 포함할 수 있다. 여기서, 각 통신 모듈은 적어도 하나의 하드웨어 칩 형태로 구현될 수 있다. 무선 통신 모듈은 상술한 통신 방식 이외에 지그비(zigbee), USB(Universal Serial Bus), MIPI CSI(Mobile Industry Processor Interface Camera Serial Interface), 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), LTE-A(LTE Advanced), 4G(4th Generation), 5G(5th Generation)등과 같은 다양한 무선 통신 규격에 따라 통신을 수행하는 적어도 하나의 통신 칩을 포함할 수 있다. 다만 이는 일 실시 예에 불과하며 통신 인터페이스(110)는 다양한 통신 모듈 중 적어도 하나의 통신 모듈을 이용할 수 있다.
프로세서(120)는 메모리(미도시)와 전기적으로 연결되며, 전자 장치(100)의 전반적인 동작을 제어한다.
본 개시의 일 실시 예에 따라, 프로세서(120)는 디지털 신호를 처리하는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), TCON(Timing controller)으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서, AI(Artificial Intelligence) 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(120)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다. 프로세서(120)는 메모리(130)에 저장된 컴퓨터 실행가능 명령어(computer executable instructions)를 실행함으로써 다양한 기능을 수행할 수 있다.
일 실시 예에 따른 프로세서(120)는 디스플레이 장치(1)로 테스트 이미지를 전송할 수 있다. 예를 들어, 테스트 이미지는, 복수의 디스플레이 모듈(10-1, …, 10-n) 각각이 동일한 이미지를 출력하는 이미지이며, 이하에서는 설명의 편의를 위해 제1 이미지로 통칭하도록 한다.
이어서, 프로세서(120)는 카메라(200)로부터 제1 이미지를 출력하는 디스플레이 장치(1)를 촬영한 제1 촬영 영상을 획득할 수 있다.
도 4를 이용하여 이에 대한 구체적인 설명을 하도록 한다.
도 4는 본 개시의 일 실시 예에 따른 제1 이미지를 설명하기 위한 도면이다.
도 4를 참조하면, 프로세서(120)는 카메라(200)를 통해 디스플레이 장치(1)을 촬영한 제1 촬영 영상(A)을 수신할 수 있다.
일 실시 예에 따라 디스플레이 장치(1)는 제1 이미지를 출력하는 중이며, 제1 이미지는 복수의 디스플레이 모듈(10-1, …, 10-n) 각각이 동일한 이미지를 출력하는 이미지일 수 있다. 예를 들어, 복수의 디스플레이 모듈(10-1, …, 10-n) 각각은 동일한 색상의 일부 이미지 또는 동일한 패턴의 일부 이미지를 출력하여 디스플레이 장치(1)가 단일 색상의 제1 이미지 또는 단일 패턴의 제1 이미지를 출력할 수 있다.
도 4에 도시된 디스플레이 장치(1)가 출력하는 제1 이미지는 일 예시에 불과하며, 디스플레이 장치(1)는 다양한 색상이 조합된(또는, 다양한 패턴이 조합된) 제1 이미지를 출력할 수도 있음은 물론이다. 예를 들어, 복수의 디스플레이 모듈(10-1, …, 10-n) 각각은 서로 다른 색상의 일부 이미지 또는 서로 다른 패턴의 일부 이미지를 출력할 수도 있다.
본 개시의 일 실시 예에 따른 프로세서(120)는 제1 촬영 영상(A)이 수신되면, 제1 촬영 영상(1)에서 제1 이미지에 대응되는 영역의 크기 정보에 기초하여 디스플레이 장치(1)의 비율 정보를 획득할 수 있다.
예를 들어, 카메라(200)로부터 수신된 제1 촬영 영상(A)은 제1 이미지를 출력 중인 디스플레이 장치(1)와 디스플레이 장치(1)가 배치된 주변 환경(예를 들어, 벽면, 테이블 등)을 포함할 수 있다. 일 실시 예에 따른 프로세서(120)는 제1 촬영 영상(A)에서 제1 이미지에 대응되는 영역을 식별하고, 제1 이미지에 대응되는 영역의 크기 정보를 이용하여 디스플레이 장치(1)의 비율 정보(예를 들어, 디스플레이 장치의 너비(W) 및 높이(H)의 비율)를 획득할 수 있다. 여기서, 비율 정보는 종횡비 정보로 불릴 수도 있음은 물론이다.
예를 들어, 프로세서(120)는 디스플레이 장치(1)의 너비(W) 및 높이(H) 각각의 길이를 식별할 수는 없으나, 제1 촬영 영상(A)에서 제1 이미지에 대응되는 영역의 크기 정보를 이용하여 너비(W)와 높이(H)의 비율 즉, 종횡비를 획득할 수 있다.
한편, 다른 예로, 프로세서(120)는 별도의 센서(예를 들어, 뎁스 카메라 등)를 이용하여 뎁스 정보를 획득하며, 뎁스 정보에 기초하여 카메라(200)로부터 디스플레이 장치(1)까지의 거리 정보를 획득하고, 거리 정보와 제1 촬영 영상(A)에서 제1 이미지에 대응되는 영역의 크기 정보에 기초하여 디스플레이 장치(1)의 크기 정보를 획득할 수도 있음은 물론이다(예를 들어, 디스플레이 장치(1)의 너비(W) 및 높이(H) 각각의 길이 정보).
이어서, 프로세서(120)는 디스플레이 장치(1)의 비율 정보 및 복수의 디스플레이 모듈(10-1, …, 10-n) 관련 정보에 기초하여 복수의 디스플레이 모듈(10-1, …, 10-n)의 레이아웃 정보를 획득할 수 있다.
이에 대한 구체적인 설명은 도 5를 참조하여 하도록 한다.
도 5는 본 개시의 일 실시 예에 따른 위치 정보를 설명하기 위한 도면이다.
도 5를 참조하면, 프로세서(120)는 디스플레이 장치(1)의 비율 정보 및 복수의 디스플레이 모듈(10-1, …, 10-n) 관련 정보에 기초하여 복수의 디스플레이 모듈(10-1, …, 10-n)의 레이아웃 정보를 획득할 수 있다. 여기서, 복수의 디스플레이 모듈(10-1, …, 10-n) 관련 정보는 복수의 디스플레이 모듈(10-1, …, 10-n)의 개수 정보 또는 복수의 디스플레이 모듈(10-1, …, 10-n) 각각의 크기 정보 중 적어도 하나를 포함할 수 있다.
프로세서(120)가 레이아웃 정보를 획득하는 방법은 일 실시 예에 따라 4개의 Step을 포함할 수 있다.
<Step 1>
일 실시 예에 따른 프로세서(120)는 도 5에 도시된 바와 같이, 개수 정보에 기초하여 디스플레이 장치(1)를 구성하는 복수의 디스플레이 모듈(10-1, …, 10-n)의 개수(예를 들어, 18개)를 식별하고, 크기 정보에 기초하여 복수의 디스플레이 모듈(10-1, …, 10-n) 각각의 크기(예를 들어, 320 x 360)를 식별할 수 있다.
이어서, 프로세서(120)는 복수의 디스플레이 모듈(10-1, …, 10-n)의 개수 정보에 기초하여 복수의 후보 레이아웃 정보를 획득할 수 있다. 예를 들어, 총 18개의 디스플레이 모듈(10-1, …, 10-18)이 디스플레이 장치(1)를 구성하는 것으로 식별되면, 프로세서(120)는 구성 가능한 N x M(여기서, N, M은 정수)을 식별하여 복수의 후보 레이아웃 정보를 획득할 수 있다. 일 예로, 프로세서(120)는 총 6개의 후보 레이아웃 정보(예를 들어, 1 x 18, 2 x 9, 3 x 6, 6 x 3, 9 x 2, 18 x 1)를 획득할 수 있다.
<Step 2>
이어서, 프로세서(120)는 제1 촬영 영상(A)에 기초하여 획득된 디스플레이 장치(1)의 비율 정보(예를 들어, 디스플레이 장치의 너비(W) 및 높이(H)의 비율)에 기초하여 디스플레이 장치(1)의 비율(Width / Height)을 획득할 수 있다. 예를 들어, 디스플레이 장치(1)의 비율이 16:9 즉, 1.778인 경우를 상정할 수 있다.
<Step 3>
이어서, 프로세서(120)는 Step 1에서 획득된 복수의 후보 레이아웃 정보 각각에 디스플레이 모듈(10)의 크기를 곱하여 후보 비율을 획득할 수 있다.
예를 들어, 총 18개의 디스플레이 모듈(10-1, …, 10-18)이 디스플레이 장치(1)를 구성하며, 디스플레이 모듈(10)의 크기가 320 x 360이면, 프로세서는 하기와 같이 복수의 후보 비율(N x Width : M x Height)을 획득할 수 있다.
1st) (1 x 320px) : (18 x 360px) = 320 : 6480 = 0.049
2nd) (2 x 320px) : (9 x 360px) = 640 : 3240 = 0.198
3rd) (3 x 320px) : (6 x 360px) = 960 : 2160 = 0.444
4th) (6 x 320px) : (3 x 360px) = 1920 : 1080 = 1.778
5th) (9 x 320px) : (2 x 360px) = 2880 : 720 = 4
6th) (18 x 320px) x (1 x 360px) = 5760 : 360 = 16
<Step 4>
일 실시 예에 따른 프로세서(120)는 i) 내지 vi)의 총 6개의 후보 비율 중 4th) 후보 비율(1.778)이 Step 2에서 획득된 디스플레이 장치(1)의 비율과 동일 또는 유사하므로, 4th) 후보 비율에 기초하여 레이아웃 정보 즉, 6 x 3을 획득할 수 있다.
이어서, 프로세서(120)는 레이아웃 정보에 기초하여 제1 촬영 영상(A)에서 복수의 디스플레이 모듈을 구분하기 위한 즉, 복수의 디스플레이 모듈 각각에 대응되는 영역을 구분하는 가이드 라인을 제공할 수 있다.
도 5에 도시된 바와 같이, 총 18개의 디스플레이 모듈(10-1, … 10-18)이 디스플레이 장치(1)를 구성하므로, 프로세서(120)는 제1 촬영 영상(A)에 총 18개의 셀(cell)을 포함하는 가이드 라인을 추가할 수 있다. 여기서, 하나의 셀은 하나의 디스플레이 모듈에 대응된다.
본 개시의 일 실시 예에 따른 프로세서(120)는 레이아웃 정보에 기초하여 제1 촬영 영상(A)에서 복수의 디스플레이 모듈(10-1, …, 10-n) 각각에 대응되는 영역에 위치 정보를 할당할 수 있다. 도 5를 참조하면, 제1 촬영 영상(A)에서 제1 디스플레이 모듈(10-1)에 대응되는 영역에 (0, 0)을 할당하고, 제18 디스플레이 모듈(10-18)에 대응되는 영역에 (2, 5)를 할당할 수 있다. 구체적인 숫자는 설명의 편의를 위한 예시에 불과하며, 이에 한정되지 않음은 물론이다.
이어서, 프로세서(120)는 복수의 디스플레이 모듈(10-1, …, 10-n) 중 어느 하나의 디스플레이 모듈이 나머지 디스플레이 모듈과 상이한 영상을 출력하는 제2 이미지를 디스플레이 장치(1)로 전송하도록 통신 인터페이스(110)를 제어할 수 있다. 이에 대한 구체적인 설명은 도 6을 참조하여 하도록 한다.
도 6은 본 개시의 일 실시 예에 따른 제2 이미지를 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따른 프로세서(120)는 복수의 디스플레이 모듈(10-1, …, 10-n) 중 어느 하나의 디스플레이 모듈이 나머지 디스플레이 모듈과 상이한 영상을 출력하는 제2 이미지를 디스플레이 장치(1)로 전송할 수 있다.
제2 이미지를 수신한 디스플레이 장치(1)는, 디스플레이 장치(1)를 구성하는 복수의 디스플레이 모듈(10-1, …, 10-n) 중 어느 하나의 디스플레이 모듈이 나머지 디스플레이 모듈과 상이한 영상을 출력하여 제2 이미지를 출력할 수 있다.
여기서, 디스플레이 장치(1)가 제2 이미지를 출력하는 동안, 카메라(200)는 디스플레이 장치(1)를 촬영한 제2 촬영 영상(B)을 전자 장치(100)로 전송할 수 있다.
한편, 카메라(200)는 전자 장치(100)의 일 구성 요소일 수 있고, 프로세서(120)는 카메라(200)의 촬영 영상(예를 들어, 제1 촬영 영상 및 제2 촬영 영상)을 전자 장치(100)에 구비된 디스플레이(미도시)를 통해 디스플레이할 수 있다.
예를 들어, 도 3 내지 도 7에 도시된 제1 촬영 영상(A) 및 제2 촬영 영상(B)은 전자 장치(100)의 디스플레이를 통해 디스플레이될 수 있다. 또한, 전자 장치(100)는 카메라(200)로부터 수신된 실시간 영상을 디스플레이할 수도 있음은 물론이다.
본 개시의 일 실시 예에 따른 프로세서(120)는 카메라(200)를 통해 획득된 제2 촬영 영상(B)이 디스플레이를 통해 디스플레이되는 동안 제2 촬영 영상(B)에서 디스플레이 장치(1)에 대응되는 영역을 식별할 수 있다.
이어서, 프로세서(120)는 제2 촬영 영상(B)에서 디스플레이 장치(1)에 대응되는 영역에 가이드 라인을 디스플레이할 수 있다. 이에 대한 구체적인 설명은 도 7을 참조하여 하도록 한다.
도 7은 본 개시의 일 실시 예에 따른 상이한 영상이 디스플레이되는 영역을 설명하기 위한 도면이다.
도 6 및 도 7을 참조하면, 제2 이미지를 디스플레이하는 디스플레이 장치(1)에 있어서, 복수의 디스플레이 모듈(10-1, …, 10-n) 중 어느 하나의 디스플레이 모듈은 나머지 디스플레이 모듈과 상이한 영상을 출력하고 있다.
프로세서(120)는 제2 촬영 영상에서 상이한 영상이 디스플레이되는 영역을 식별할 수 있다. 이어서, 제1 촬영 영상(A)(도 4 및 도 5 참조)과 제2 촬영 영상(B)(도 6 및 도 7 참조)을 비교하여 상이한 영상이 디스플레이되는 영역의 위치 정보를 획득할 수 있다.
예를 들어, 총 18개의 디스플레이 모듈(10-1, …, 10-n) 중 제15 디스플레이 모듈(10-15)이 나머지 디스플레이 모듈과는 상이한 영상을 출력하는 경우를 상정할 수 있다.
이 경우, 프로세서(120)는 제2 촬영 영상(B)에 기초하여 상이한 영상이 디스플레이되는 영역을 식별할 수 있으나, 식별된 영역이 제15 디스플레이 모듈(10-15)에 대응되는지 여부는 알 수 없다.
따라서, 프로세서(120)는 제1 촬영 영상(A)과 제2 촬영 영상(B)을 비교하여, 제1 촬영 영상(A) 내에서, 제2 촬영 영상(B)에서 식별된 영역(즉, 상이한 영상이 디스플레이되는 영역)에 대응되는 영역을 식별할 수 있다.
예를 들어, 프로세서(120)는 제2 촬영 영상(B)에서 식별된 영역(즉, 상이한 영상이 디스플레이되는 영역)이 제1 촬영 영상(A)에서 제15 디스플레이 모듈(10-15)에 대응되는 영역과 유사(또는, 일치)한 것으로 식별되면, 제15 디스플레이 모듈(10-15)에 할당된 위치 정보(예를 들어, (2, 2))를 제15 디스플레이 모듈(10-15)의 위치 정보로 획득할 수 있고, 획득된 위치 정보를 디스플레이 장치(1)로 전송할 수 있다.
한편, 디스플레이 장치(1)는 전자 장치(100)로부터 위치 정보를 수신하여 현재 상이한 영상을 디스플레이하고 있는 어느 하나의 디스플레이 모듈이 디스플레이 장치(1) 내에서 어디에 위치하는지 식별할 수 있다. 즉, 디스플레이 장치(1)는 제15 디스플레이 모듈(10-15)이 복수의 디스플레이 모듈(10-1, …, 10-n) 내에서 3번째 행, 3번째 열에 위치함을 식별할 수 있다.
프로세서(120)는 도 6 및 도 7에 대한 설명에 따른 단계를 반복적으로 수행할 수 있다.
<Iteration 1>
예를 들어, 프로세서(120)는 복수의 디스플레이 모듈(10-1, …, 10-n) 중 어느 하나의 디스플레이 모듈이 나머지 디스플레이 모듈과 상이한 영상을 출력하는 제2 이미지를 디스플레이 장치(1)로 전송할 수 있다.
이어서, 프로세서(120)는 디스플레이 장치(1)가 제2 이미지를 출력하는 동안 상이한 영상을 출력하는 어느 하나의 디스플레이 모듈의 위치 정보를 획득하여 디스플레이 장치(1)로 전송할 수 있다.
<Iteration 2>
이어서, 프로세서(120)는 iteration 1에서 위치가 식별된 디스플레이 모듈을 제외한 나머지 디스플레이 모듈 중 어느 하나의 디스플레이 모듈이 상이한 영상을 출력하는 제3 이미지를 디스플레이 장치(1)로 전송할 수 있다.
프로세서(120)는 디스플레이 장치(1)가 제3 이미지를 출력하는 동안 상이한 영상을 출력하는 어느 하나의 디스플레이 모듈의 위치 정보를 획득하여 디스플레이 장치(1)로 전송할 수 있다.
본 개시의 일 실시 예에 따른 프로세서(120) 복수의 디스플레이 모듈(10-1, …, 10-n)의 개수 정보에 기초하여 Iteration 횟수를 조정할 수 있다.
프로세서(120)는 디스플레이 장치(1)를 구성하는 복수의 디스플레이 모듈(10-1, …, 10-n) 각각의 위치 정보를 획득하여 디스플레이 장치(1)로 전송할 수 있으며, 디스플레이 장치(1)는 복수의 디스플레이 모듈(10-1, …, 10-n) 각각의 디스플레이 장치(1) 내 위치를 식별할 수 있다.
따라서, 프로세서(120)는 디스플레이 모듈(10-1, …, 10-n) 각각이 디스플레이 장치(1) 내에 어디에 위치하는지 나타내는 위치 정보(또는, 식별 정보 등) 또는, 복수의 디스플레이 모듈(10-1, …, 10-n)의 레이아웃 정보(예를 들어, N x M의 배치 관계 정보)를 사용자가 디스플레이 장치(1)에 수동으로 입력하지 않아도, 전자 장치(100)가 자동으로 위치 정보, 레이아웃 정보 등을 획득하여 디스플레이 장치(1)로 전송할 수 있다.
도 8은 본 개시의 일 실시 예에 따른 설정 후 디스플레이 장치를 설명하기 위한 도면이다.
도 8을 참조하면, 도 2와 달리, 디스플레이 장치(1)에 구비된 프로세서는, 복수의 디스플레이 모듈(10-1, …, 10-n) 각각의 위치 정보에 기초하여, 복수의 디스플레이 모듈(10-1, …, 10-n) 각각이 위치에 대응되는 일부 이미지를 출력하여 디스플레이 장치(1)가 전자 장치(100)로부터 수신된 이미지(즉, 전체 이미지)를 출력하도록 제어할 수 있다.
설정 전 단계에서는 도 2에 도시된 바와 같이, 디스플레이 장치(1)가 손상된 이미지를 출력하나, 설정 후 단계에서는 도 8에 도시된 바와 같이, 디스플레이 장치(1)가 손상되지 않은 전체 이미지 즉, 소스 장치로부터 수신된 이미지를 출력할 수 있다.
도 9는 본 개시의 일 실시 예에 따른 좌표 정보를 설명하기 위한 도면이다.
도 9를 참조하면, 우선 프로세서(120)는 제1 촬영 영상(A)에 기초하여 복수의 디스플레이 모듈(10-1, …, 10-n) 각각에 대응되는 영역에 좌표 정보를 할당할 수 있다.
예를 들어, 제1 촬영 영상(A)의 좌측 상단을 (0, 0)일 때, 프로세서(120)는 제1 촬영 영상(A)에서 시작 좌표(Start xy) (60, 50)에서 끝 좌표(End xy) (160, 150)의 영역을 제1 디스플레이 모듈(10-1)에 대응되는 영역으로 식별할 수 있다. 이어서, 프로세서(120)는 제1 디스플레이 모듈(10-1)에 대응되는 영역에 위치 정보 (0, 0)을 할당할 수 있다.
다른 예로, 프로세서(120)는 제1 촬영 영상(A)에서 시작 좌표 (560, 250)에서 끝 좌표 (660, 150)의 영역을 제18 디스플레이 모듈(10-18)에 대응되는 영역으로 식별할 수 있다. 이어서, 프로세서(120)는 제18 디스플레이 모듈(10-18)에 대응되는 영역에 위치 정보(2, 5)를 할당할 수 있다.
한편, 프로세서(120)는 복수의 디스플레이 모듈(10-1, …, 10-n) 각각에 대응되는 영역의 크기를 스케일링(예를 들어, 확대)하여 복수의 디스플레이 모듈 각각에 제1 좌표 정보를 할당할 수 있다.
일 예로, 프로세서(120)는 제1 디스플레이 모듈(10-1)에 대응되는 영역을 제1 촬영 영상(A)에서 식별된 시작 좌표(Start xy) (60, 50)에서 (50, 40)으로 조정하고, 끝 좌표(End xy) (160, 150)에서 (170, 160)으로 조정할 수 있다.
즉, 제1 디스플레이 모듈(10-1)에 대응되는 영역은 조정된 시작 좌표 (50, 40)에서 조정된 끝 좌표 (170, 160)의 영역이며, 프로세서(120)는 조정된 시작 좌표 및 끝 좌표를 제1 디스플레이 모듈(10-1)에 대응되는 제1 좌표 정보로 할당할 수 있다.
다른 예로, 프로세서(120)는 제18 디스플레이 모듈(10-18)에 대응되는 영역을 제1 촬영 영상(A)에서 식별된 시작 좌표 (560, 250)에서 (550, 240)으로 조정하고, 끝 좌표 (660, 150)에서 (670, 360)으로 조정할 수 있다.
즉, 제18 디스플레이 모듈(10-1)에 대응되는 영역은 조정된 시작 좌표 (550, 240)에서 조정된 끝 좌표 (670, 360)의 영역이며, 프로세서(120)는 조정된 시작 좌표 및 끝 좌표를 제18 디스플레이 모듈(10-18)에 대응되는 제1 좌표 정보로 할당할 수 있다.
이어서, 프로세서(120)는 제2 촬영 영상(B)에서 상이한 영상이 디스플레이되는 영역의 시작 좌표와 끝 좌표를 식별하고, 식별된 시작 좌표와 끝 좌표를 제2 좌표 정보로 할당할 수 있다.
이어서, 프로세서(120)는 복수의 디스플레이 모듈(10-1, …, 10-n) 각각에 할당된 제1 좌표 정보 중 제2 좌표 정보를 포함하는 하나의 제1 좌표 정보를 식별할 수 있다.
예를 들어, 프로세서(120)가 제2 촬영 영상(B)에서 상이한 영상이 디스플레이되는 영역을 식별하고, 식별된 영역의 시작 좌표 (260, 250)에서 끝 좌표 (360, 350)를 제2 좌표 정보로 할당할 수 있다.
이어서, 프로세서(120)는 복수의 제1 좌표 정보 중에서 제2 좌표 정보(즉, 시작 좌표 (260, 250)에서 끝 좌표 (360, 350))를 포함하는 적어도 하나의 제1 좌표 정보를 식별할 수 있다.
도 9를 참조하면, 프로세서(120)는 복수의 제1 좌표 정보 중 제15 디스플레이 모듈(10-15)에 할당된 제1 좌표 정보(시작 좌표 (250, 240)에서 끝 좌표 (370, 360))가 제2 좌표 정보(시작 좌표 (260, 250)에서 끝 좌표 (360, 350))를 포함하는 것으로 식별할 수 있다. 이어서, 프로세서(120)는 도 9에 도시된 표에 기초하여 제15 디스플레이 모듈(10-15)에 할당된 위치 정보 (2, 2)를 제2 촬영 영상(B)에서 상이한 영상을 디스플레이하는 어느 하나의 디스플레이 모듈의 위치 정보로 식별할 수 있다.
도 9의 상단에 도시된 바와 같이, 프로세서(120)는 실제 사이즈 즉, 프로세서(120)가 제1 촬영 영상(A)을 이용하여 식별한 복수의 디스플레이 모듈(10-1, …, 10-n) 각각에 대응되는 사이즈를 확대시킬 수 있다. 여기서, 실제 사이즈는 도 9의 실제 좌표(즉, 제1 좌표 정보)에 대응되며, 확대된 사이즈는 도 9의 지정 좌표(즉, 조정된 제1 좌표)에 대응된다.
제1 촬영 영상(A)에 이어서, 카메라(200)가 제2 촬영 영상(B)을 획득하는 동안에 카메라(200)의 이동에 따라 초점이 변경될 수도 있고, 카메라(200)를 제어하는 사용자의 흔들림 등으로 인하여 제1 촬영 영상(A)과 제2 촬영 영상(B)의 비교 결과가 신뢰도가 떨어지는 문제가 발생할 수 있다.
따라서, 프로세서(120)는 제1 촬영 영상(A)에 기초하여 식별된 복수의 디스플레이 모듈(10-1, …, 10-n) 각각에 대응되는 영역의 사이즈를 확대시키고, 제2 촬영 영상(B)에서 상이한 영상이 디스플레이되는 영역을 포함하는 어느 하나의 영역을 식별하고, 식별된 영역에 대응되는 디스플레이 모듈(10)의 위치 정보를 획득할 수 있다.
도 10은 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
본 개시의 상술한 목적을 달성하기 위한 일 실시 예에 따르면 전자 장치의 제어 방법은, 우선, 제1 이미지를 출력하는 디스플레이 장치를 촬영한 제1 촬영 영상을 획득한다(S1010).
이어서, 제1 촬영 영상에서 제1 이미지에 대응되는 영역의 크기 정보에 기초하여 디스플레이 장치의 비율 정보를 획득한다(S1020).
이어서, 디스플레이 장치의 비율 정보 및 복수의 디스플레이 모듈 관련 정보에 기초하여 복수의 디스플레이 모듈의 레이아웃 정보를 획득한다(S1030).
이어서, 레이아웃 정보에 기초하여 제1 촬영 영상에서 복수의 디스플레이 모듈 각각에 대응되는 영역에 위치 정보를 할당한다(S1040).
이어서, 복수의 디스플레이 모듈 중 제1 디스플레이 모듈이 나머지 모듈과 상이한 영상을 출력하는 제2 이미지를 디스플레이 장치로 전송한다(S1050).
이어서, 제2 이미지를 출력하는 디스플레이 장치를 촬영한 제2 촬영 영상에서 상이한 영상이 디스플레이되는 영역을 식별한다(S1060).
이어서, 제1 촬영 영상 및 제2 촬영 영상을 비교하여 식별된 영역에 대응되는 위치 정보를 획득한다(S1070).
이어서, 획득된 위치 정보를 제1 디스플레이 모듈의 위치 정보로 획득한다(S1080).
여기서, 일 실시 예에 따른 제어 방법은, 복수의 디스플레이 모듈 중 제2 디스플레이 모듈이 나머지 모듈과 상이한 영상을 출력하는 제3 이미지를 디스플레이 장치로 전송하는 단계, 제3 이미지를 출력하는 디스플레이 장치를 촬영한 제3 촬영 영상에서 상이한 영상이 디스플레이되는 영역을 식별하는 단계, 제1 촬영 영상 및 제2 촬영 영상을 비교하여 복수의 디스플레이 모듈 각각에 대응되는 영역에 할당된 위치 정보 중 상이한 영상이 디스플레이되는 영역에 할당된 위치 정보를 획득하는 단계 및 위치 정보를 디스플레이 장치 내에서 제2 디스플레이 모듈의 위치 정보로 식별하는 단계를 더 포함할 수 있다.
일 실시 예에 따른 제어 방법은, 제1 디스플레이 모듈의 위치 정보 및 제2 디스플레이 모듈의 위치 정보를 디스플레이 장치로 전송하는 단계를 더 포함할 수 있다.
일 실시 예에 따른 복수의 디스플레이 모듈 관련 정보는, 복수의 디스플레이 모듈의 개수 정보 또는 복수의 디스플레이 모듈 각각의 크기 정보 중 적어도 하나를 포함하며, 레이아웃 정보를 획득하는 S1030 단계는, 복수의 디스플레이 모듈의 개수 정보에 기초하여 복수의 후보 레이아웃 정보를 획득하는 단계 및 복수의 디스플레이 모듈 각각의 크기 정보 및 디스플레이 장치의 비율 정보에 기초하여 복수의 후보 레이아웃 정보 중 어느 하나를 레이아웃 정보로 식별하는 단계를 더 포함할 수 있다.
본 개시의 일 실시 예에 따른 제1 이미지는, 복수의 디스플레이 모듈 각각이 동일한 이미지를 출력하는 이미지일 수 있다.
일 실시 예에 따른 제어 방법은, 전자 장치의 카메라를 통해 획득된 제1 촬영 영상을 디스플레이를 통해 제공하는 단계, 복수의 디스플레이 모듈의 레이아웃 정보에 기초하여 제1 촬영 영상에서 복수의 디스플레이 모듈 각각에 대응되는 영역을 구분하는 가이드 라인을 디스플레이하는 단계 및 카메라를 통해 획득된 제2 촬영 영상이 디스플레이되는 동안 제2 촬영 영상에서 디스플레이 장치에 대응되는 영역에 가이드 라인을 디스플레이하는 단계를 더 포함할 수 있다.
일 실시 예에 따른 위치 정보를 할당하는 S1040 단계는, 제1 촬영 영상에서 복수의 디스플레이 모듈 각각에 대응되는 영역에 제1 좌표 정보를 할당하는 단계를 포함하고, 위치 정보를 획득하는 S1070 단계는, 제2 촬영 영상에서 상이한 영상이 디스플레이되는 영역에 제2 좌표 정보를 할당하는 단계, 복수의 제1 좌표 정보 중 제2 좌표 정보에 대응되는 영역을 식별하는 단계 및 식별된 영역에 대응되는 위치 정보를 제1 디스플레이 모듈의 위치 정보로 획득하는 단계를 포함할 수 있다.
여기서, 제1 좌표 정보를 할당하는 단계는, 복수의 디스플레이 모듈 각각에 대응되는 영역의 크기를 스케일링하여 제1 좌표 정보를 할당하는 단계를 포함하고, 위치 정보를 획득하는 S1070 단계는, 복수의 제1 좌표 정보 중 제2 좌표 정보를 포함하는 하나의 제1 좌표 정보를 식별하는 단계 및 식별된 제1 좌표 정보에 대응되는 영역에 대응되는 위치 정보를 제1 디스플레이 모듈의 위치 정보로 획득하는 단계를 포함할 수 있다.
다만, 본 개시의 다양한 실시 예들은 전자 장치 뿐 아니라, 디스플레이를 구비하는 모든 유형의 전자 장치에 적용될 수 있음은 물론이다.
한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 일부 경우에 있어 본 명세서에서 설명되는 실시 예들이 프로세서 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 동작을 수행할 수 있다.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 전자 장치의 프로세싱 동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium) 에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 전자 장치(100)에서의 처리 동작을 특정 기기가 수행하도록 한다.
비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.

Claims (15)

  1. 복수의 디스플레이 모듈을 포함하는 디스플레이 장치와 통신하는 통신 인터페이스; 및
    제1 이미지를 출력하는 상기 디스플레이 장치를 촬영한 제1 촬영 영상을 획득하고,
    상기 제1 촬영 영상에서 상기 제1 이미지에 대응되는 영역의 크기 정보에 기초하여 상기 디스플레이 장치의 비율 정보를 획득하고,
    상기 디스플레이 장치의 비율 정보 및 상기 복수의 디스플레이 모듈 관련 정보에 기초하여 상기 복수의 디스플레이 모듈의 레이아웃 정보를 획득하고,
    상기 레이아웃 정보에 기초하여 상기 제1 촬영 영상에서 상기 복수의 디스플레이 모듈 각각에 대응되는 영역에 위치 정보를 할당하고,
    상기 복수의 디스플레이 모듈 중 제1 디스플레이 모듈이 나머지 모듈과 상이한 영상을 출력하는 제2 이미지를 상기 통신 인터페이스를 통해 상기 디스플레이 장치로 전송하고,
    상기 제2 이미지를 출력하는 상기 디스플레이 장치를 촬영한 제2 촬영 영상에서 상기 상이한 영상이 디스플레이되는 영역을 식별하고,
    상기 제1 촬영 영상 및 상기 제2 촬영 영상을 비교하여 상기 식별된 영역에 대응되는 위치 정보를 획득하고,
    상기 획득된 위치 정보를 상기 제1 디스플레이 모듈의 위치 정보로 획득하는 프로세서;를 포함하는 전자 장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 복수의 디스플레이 모듈 중 제2 디스플레이 모듈이 나머지 모듈과 상이한 영상을 출력하는 제3 이미지를 상기 통신 인터페이스를 통해 상기 디스플레이 장치로 전송하고,
    상기 제3 이미지를 출력하는 상기 디스플레이 장치를 촬영한 제3 촬영 영상에서 상기 상이한 영상이 디스플레이되는 영역을 식별하고,
    상기 제1 촬영 영상 및 상기 제2 촬영 영상을 비교하여 상기 복수의 디스플레이 모듈 각각에 대응되는 영역에 할당된 위치 정보 중 상기 상이한 영상이 디스플레이되는 영역에 할당된 위치 정보를 획득하고,
    상기 위치 정보를 상기 디스플레이 장치 내에서 상기 제2 디스플레이 모듈의 위치 정보로 식별하는, 전자 장치.
  3. 제2항에 있어서,
    상기 프로세서는,
    상기 제1 디스플레이 모듈의 위치 정보 및 상기 제2 디스플레이 모듈의 위치 정보를 상기 통신 인터페이스를 통해 상기 디스플레이 장치로 전송하는, 전자 장치.
  4. 제1항에 있어서,
    상기 복수의 디스플레이 모듈 관련 정보는,
    상기 복수의 디스플레이 모듈의 개수 정보 또는 상기 복수의 디스플레이 모듈 각각의 크기 정보 중 적어도 하나를 포함하며,
    상기 프로세서는,
    상기 복수의 디스플레이 모듈의 개수 정보에 기초하여 복수의 후보 레이아웃 정보를 획득하고,
    상기 복수의 디스플레이 모듈 각각의 크기 정보 및 상기 디스플레이 장치의 비율 정보에 기초하여 상기 복수의 후보 레이아웃 정보 중 어느 하나를 상기 레이아웃 정보로 식별하는, 전자 장치.
  5. 제1항에 있어서,
    상기 제1 이미지는,
    상기 복수의 디스플레이 모듈 각각이 동일한 이미지를 출력하는 이미지인, 전자 장치.
  6. 제1항에 있어서,
    카메라; 및
    디스플레이;를 더 포함하고,
    상기 프로세서는,
    상기 카메라를 통해 획득된 상기 제1 촬영 영상을 상기 디스플레이를 통해 제공하고,
    상기 복수의 디스플레이 모듈의 레이아웃 정보에 기초하여 상기 제1 촬영 영상에서 상기 복수의 디스플레이 모듈 각각에 대응되는 영역을 구분하는 가이드 라인을 디스플레이하도록 상기 디스플레이를 제어하고,
    상기 카메라를 통해 획득된 상기 제2 촬영 영상이 디스플레이되는 동안 상기 제2 촬영 영상에서 상기 디스플레이 장치에 대응되는 영역에 상기 가이드 라인을 디스플레이하도록 상기 디스플레이를 제어하는, 전자 장치.
  7. 제1항에 있어서,
    상기 프로세서는,
    상기 제1 촬영 영상에서 상기 복수의 디스플레이 모듈 각각에 대응되는 영역에 제1 좌표 정보를 할당하고,
    상기 제2 촬영 영상에서 상기 상이한 영상이 디스플레이되는 영역에 제2 좌표 정보를 할당하고,
    복수의 제1 좌표 정보 중 상기 제2 좌표 정보에 대응되는 영역을 식별하고,
    상기 식별된 영역에 대응되는 위치 정보를 상기 제1 디스플레이 모듈의 위치 정보로 획득하는, 전자 장치.
  8. 제7항에 있어서,
    상기 프로세서는,
    상기 복수의 디스플레이 모듈 각각에 대응되는 영역의 크기를 스케일링하여 상기 제1 좌표 정보를 할당하고,
    상기 복수의 제1 좌표 정보 중 상기 제2 좌표 정보를 포함하는 하나의 제1 좌표 정보를 식별하고,
    상기 식별된 제1 좌표 정보에 대응되는 영역에 대응되는 위치 정보를 상기 제1 디스플레이 모듈의 위치 정보로 획득하는, 전자 장치.
  9. 전자 장치의 제어 방법에 있어서,
    제1 이미지를 출력하는 디스플레이 장치를 촬영한 제1 촬영 영상을 획득하는 단계;
    상기 제1 촬영 영상에서 상기 제1 이미지에 대응되는 영역의 크기 정보에 기초하여 상기 디스플레이 장치의 비율 정보를 획득하는 단계;
    상기 디스플레이 장치의 비율 정보 및 상기 복수의 디스플레이 모듈 관련 정보에 기초하여 상기 복수의 디스플레이 모듈의 레이아웃 정보를 획득하는 단계;
    상기 레이아웃 정보에 기초하여 상기 제1 촬영 영상에서 상기 복수의 디스플레이 모듈 각각에 대응되는 영역에 위치 정보를 할당하는 단계;
    상기 복수의 디스플레이 모듈 중 제1 디스플레이 모듈이 나머지 모듈과 상이한 영상을 출력하는 제2 이미지를 상기 디스플레이 장치로 전송하는 단계;
    상기 제2 이미지를 출력하는 상기 디스플레이 장치를 촬영한 제2 촬영 영상에서 상기 상이한 영상이 디스플레이되는 영역을 식별하는 단계;
    상기 제1 촬영 영상 및 상기 제2 촬영 영상을 비교하여 상기 식별된 영역에 대응되는 위치 정보를 획득하는 단계; 및
    상기 획득된 위치 정보를 상기 제1 디스플레이 모듈의 위치 정보로 획득하는 단계;를 포함하는, 제어 방법.
  10. 제9항에 있어서,
    상기 복수의 디스플레이 모듈 중 제2 디스플레이 모듈이 나머지 모듈과 상이한 영상을 출력하는 제3 이미지를 상기 디스플레이 장치로 전송하는 단계;
    상기 제3 이미지를 출력하는 상기 디스플레이 장치를 촬영한 제3 촬영 영상에서 상기 상이한 영상이 디스플레이되는 영역을 식별하는 단계;
    상기 제1 촬영 영상 및 상기 제2 촬영 영상을 비교하여 상기 복수의 디스플레이 모듈 각각에 대응되는 영역에 할당된 위치 정보 중 상기 상이한 영상이 디스플레이되는 영역에 할당된 위치 정보를 획득하는 단계; 및
    상기 위치 정보를 상기 디스플레이 장치 내에서 상기 제2 디스플레이 모듈의 위치 정보로 식별하는 단계;를 더 포함하는, 제어 방법.
  11. 제10항에 있어서,
    상기 제1 디스플레이 모듈의 위치 정보 및 상기 제2 디스플레이 모듈의 위치 정보를 상기 디스플레이 장치로 전송하는 단계;를 더 포함하는, 제어 방법.
  12. 제9항에 있어서,
    상기 복수의 디스플레이 모듈 관련 정보는,
    상기 복수의 디스플레이 모듈의 개수 정보 또는 상기 복수의 디스플레이 모듈 각각의 크기 정보 중 적어도 하나를 포함하며,
    상기 레이아웃 정보를 획득하는 단계는,
    상기 복수의 디스플레이 모듈의 개수 정보에 기초하여 복수의 후보 레이아웃 정보를 획득하는 단계; 및
    상기 복수의 디스플레이 모듈 각각의 크기 정보 및 상기 디스플레이 장치의 비율 정보에 기초하여 상기 복수의 후보 레이아웃 정보 중 어느 하나를 상기 레이아웃 정보로 식별하는 단계;를 더 포함하는, 제어 방법.
  13. 제9항에 있어서,
    상기 제1 이미지는,
    상기 복수의 디스플레이 모듈 각각이 동일한 이미지를 출력하는 이미지인, 제어 방법.
  14. 제9항에 있어서,
    상기 전자 장치의 카메라를 통해 획득된 상기 제1 촬영 영상을 상기 디스플레이를 통해 제공하는 단계;
    상기 복수의 디스플레이 모듈의 레이아웃 정보에 기초하여 상기 제1 촬영 영상에서 상기 복수의 디스플레이 모듈 각각에 대응되는 영역을 구분하는 가이드 라인을 디스플레이하는 단계; 및
    상기 카메라를 통해 획득된 상기 제2 촬영 영상이 디스플레이되는 동안 상기 제2 촬영 영상에서 상기 디스플레이 장치에 대응되는 영역에 상기 가이드 라인을 디스플레이하는 단계;를 더 포함하는, 제어 방법.
  15. 제9항에 있어서,
    상기 위치 정보를 할당하는 단계는,
    상기 제1 촬영 영상에서 상기 복수의 디스플레이 모듈 각각에 대응되는 영역에 제1 좌표 정보를 할당하는 단계;를 포함하고,
    상기 위치 정보를 획득하는 단계는,
    상기 제2 촬영 영상에서 상기 상이한 영상이 디스플레이되는 영역에 제2 좌표 정보를 할당하는 단계;
    복수의 제1 좌표 정보 중 상기 제2 좌표 정보에 대응되는 영역을 식별하는 단계; 및
    상기 식별된 영역에 대응되는 위치 정보를 상기 제1 디스플레이 모듈의 위치 정보로 획득하는 단계;를 포함하는, 제어 방법.
PCT/KR2022/015439 2021-10-15 2022-10-12 전자 장치 및 그 제어 방법 WO2023063729A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210137861A KR20230054176A (ko) 2021-10-15 2021-10-15 전자 장치 및 그 제어 방법
KR10-2021-0137861 2021-10-15

Publications (1)

Publication Number Publication Date
WO2023063729A1 true WO2023063729A1 (ko) 2023-04-20

Family

ID=85987534

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/015439 WO2023063729A1 (ko) 2021-10-15 2022-10-12 전자 장치 및 그 제어 방법

Country Status (2)

Country Link
KR (1) KR20230054176A (ko)
WO (1) WO2023063729A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120013523A1 (en) * 2010-07-15 2012-01-19 Jaynes Christopher O Sensor Driven Automatic Display Configuration System And Method
KR20140126606A (ko) * 2013-04-23 2014-10-31 엘지전자 주식회사 비디오 월의 색좌표 또는 휘도의 보정장치 및 보정방법
KR20150075821A (ko) * 2013-12-26 2015-07-06 삼성테크윈 주식회사 비디오 월의 제어 시스템 및 방법
KR20160058498A (ko) * 2014-11-17 2016-05-25 삼성전자주식회사 멀티 디스플레이 장치의 레이아웃을 검출하는 장치 및 방법
KR20190053032A (ko) * 2017-11-09 2019-05-17 삼성전자주식회사 전자 장치, 디스플레이 장치 및 멀티비전 설정 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120013523A1 (en) * 2010-07-15 2012-01-19 Jaynes Christopher O Sensor Driven Automatic Display Configuration System And Method
KR20140126606A (ko) * 2013-04-23 2014-10-31 엘지전자 주식회사 비디오 월의 색좌표 또는 휘도의 보정장치 및 보정방법
KR20150075821A (ko) * 2013-12-26 2015-07-06 삼성테크윈 주식회사 비디오 월의 제어 시스템 및 방법
KR20160058498A (ko) * 2014-11-17 2016-05-25 삼성전자주식회사 멀티 디스플레이 장치의 레이아웃을 검출하는 장치 및 방법
KR20190053032A (ko) * 2017-11-09 2019-05-17 삼성전자주식회사 전자 장치, 디스플레이 장치 및 멀티비전 설정 방법

Also Published As

Publication number Publication date
KR20230054176A (ko) 2023-04-24

Similar Documents

Publication Publication Date Title
WO2018128355A1 (en) Robot and electronic device for performing hand-eye calibration
WO2018084516A1 (ko) 전지 장치, 디스플레이 장치 및 그의 제어 방법
WO2021112406A1 (en) Electronic apparatus and method for controlling thereof
WO2020080746A1 (en) Display apparatus and control method thereof
WO2015122566A1 (en) Head mounted display device for displaying augmented reality image capture guide and control method for the same
WO2015030305A1 (en) Portable device displaying augmented reality image and method of controlling therefor
WO2019059562A1 (ko) 롤링 셔터 방식을 이용한 복수의 카메라를 포함하는 전자 장치
WO2021020670A1 (en) Electronic device and control method thereof
WO2015084034A1 (ko) 이미지들을 표시하기 위한 방법 및 장치
EP3304273A1 (en) User terminal device, electronic device, and method of controlling user terminal device and electronic device
EP3659329A1 (en) Electronic device and control method thereof
EP2918072A1 (en) Method and apparatus for capturing and displaying an image
WO2022034953A1 (ko) 전자 장치, 디스플레이 장치 및 그 제어 방법
WO2022045421A1 (ko) 디스플레이 장치 및 그 제어 방법
WO2023063729A1 (ko) 전자 장치 및 그 제어 방법
WO2020204483A1 (en) Display apparatus and controlling method thereof
WO2023128656A1 (ko) 디스플레이 장치 및 그 제어 방법
WO2021054511A1 (ko) 전자 장치 및 그 제어 방법
WO2021251585A1 (ko) 복수의 디스플레이 모듈을 각각 인식하기 위한 전자 장치 및 멀티 디스플레이 인식 방법
WO2023008939A1 (ko) 디스플레이 장치 및 그 제어 방법
WO2018056640A1 (en) Display apparatus and input method thereof
WO2022163965A1 (ko) 전자 장치 및 그 제어 방법
WO2019231119A1 (ko) 혼잡도 시각화 장치 및 방법
WO2024112002A1 (ko) 디스플레이 모듈, 복수의 디스플레이 모듈을 포함하는 모듈러 디스플레이 장치 및 그 제어 방법
WO2023121265A1 (ko) 디스플레이 장치, 모듈러 디스플레이 장치 및 그 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22881356

Country of ref document: EP

Kind code of ref document: A1