WO2019156408A1 - 전자 장치 및 그 동작 방법 - Google Patents

전자 장치 및 그 동작 방법 Download PDF

Info

Publication number
WO2019156408A1
WO2019156408A1 PCT/KR2019/001172 KR2019001172W WO2019156408A1 WO 2019156408 A1 WO2019156408 A1 WO 2019156408A1 KR 2019001172 W KR2019001172 W KR 2019001172W WO 2019156408 A1 WO2019156408 A1 WO 2019156408A1
Authority
WO
WIPO (PCT)
Prior art keywords
display device
image
display
screen
displayed
Prior art date
Application number
PCT/KR2019/001172
Other languages
English (en)
French (fr)
Inventor
이윤호
박용훈
장혜영
양관식
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US16/959,024 priority Critical patent/US11431909B2/en
Priority to CN201980012792.5A priority patent/CN111699673B/zh
Priority to EP19750779.1A priority patent/EP3720111B1/en
Publication of WO2019156408A1 publication Critical patent/WO2019156408A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4112Peripherals receiving signals from specially adapted client devices having fewer capabilities than the client, e.g. thin client having less processing power or no tuning capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/4222Remote control device emulator integrated into a non-television apparatus, e.g. a PDA, media center or smart toy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4854End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • H04N21/8153Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Definitions

  • Various embodiments relate to an electronic device and a method of operating the same, and more particularly, to an electronic device and a method of operating the same, which display an image of a wall surface on a display device.
  • the image display device is a device having a function of displaying an image that a user can watch.
  • the user can watch the broadcast through the image display device.
  • the video display device displays a broadcast selected by a user on a display among broadcast signals transmitted from a broadcasting station.
  • broadcasting is shifting from analog broadcasting to digital broadcasting worldwide.
  • Digital broadcasting refers to broadcasting for transmitting digital video and audio signals. Digital broadcasting is more resistant to external noise than analog broadcasting, so it has less data loss, is advantageous for error correction, has a higher resolution, and provides a clearer picture. In addition, unlike analog broadcasting, digital broadcasting is capable of bidirectional services.
  • Smart TVs providing various contents are provided. Smart TVs do not operate manually according to the user's choice, but aim to analyze and provide what the user wants without the user's manipulation.
  • Various embodiments are directed to providing a method and apparatus for displaying wall images on a television screen to enhance the aesthetics of the environment in which the television is installed.
  • the electronic device and the method of operation are controlled to display one or more markers on the screen of the display device to make it natural when displaying an image of a wall around the display device on the screen of the display device and the displayed markers. Captures an image of a wall around the display device using the, and generates a background image to be displayed on the screen of the display device using the captured image.
  • the image of the wall surface can be more effectively captured and processed to generate a background image to be displayed on the display device, thereby increasing the aesthetics of the environment in which the display device is installed.
  • FIG. 1 is a reference diagram for describing a concept of displaying a wall image on a display device according to embodiments.
  • FIG. 2 is a reference diagram for describing a method of displaying a wall image on a display device according to an exemplary embodiment.
  • FIG. 3 is a schematic diagram illustrating an example of a system for displaying an image of a wall surface on a display device according to embodiments.
  • FIG. 4 is a schematic diagram illustrating another example of a system for displaying an image of a wall surface on a display device according to embodiments.
  • FIG. 5 is a block diagram of a mobile device 100, a display device 200, and a server 300, according to an exemplary embodiment.
  • FIG. 6 illustrates a method of operating a mobile device according to an exemplary embodiment.
  • FIG. 7 is a flowchart illustrating an operation of a mobile device, a server, and a display device for displaying a background image on a display device using an image of a wall on which a display device is installed, according to an exemplary embodiment.
  • FIG. 8 illustrates a user interface provided by the mobile device 100 by executing a device control application according to an embodiment.
  • FIG 9 illustrates an example of a preview image displayed on a display of the mobile device 100 according to an embodiment.
  • FIG. 10 is a diagram illustrating an area to be captured among peripheral walls of a display apparatus according to an exemplary embodiment.
  • FIG. 11 is a reference diagram for explaining a size of a peripheral wall area of a display apparatus to be captured, according to an exemplary embodiment.
  • FIG. 12 is a reference diagram for describing a method of transmitting a marker display event by a mobile device to a display device according to an exemplary embodiment.
  • FIG. 13 is a diagram for describing a method of determining a marker display position according to a selected capture area, according to an exemplary embodiment.
  • FIG. 14 is a reference diagram for explaining an example of displaying one or more guides on a mobile device according to one embodiment.
  • 15 is a reference diagram for explaining an example of displaying one or more guides on a mobile device according to one embodiment.
  • FIG. 16 is a diagram for describing an example of capturing an area away from a display device by the thickness of a bezel, according to an exemplary embodiment.
  • 17 is an example of a user interface for selecting one of a plurality of region images according to an embodiment.
  • FIG. 18 is a reference diagram for describing a method of generating a background image by using a 1/2 captured image of a screen, according to an exemplary embodiment.
  • 19 is a reference diagram for describing a method of generating a background image using a 1/4 captured image of a screen, according to an exemplary embodiment.
  • FIG. 20 illustrates an example of a user interface for erasing portions of a background image generated according to an embodiment.
  • FIG. 21 illustrates an example of checking a background image displayed on the display device 200 and changing a color of the background image through the mobile device 100 according to an embodiment.
  • FIG. 22 is a diagram for describing an example of generating a background image using a representative color of a wall, according to an exemplary embodiment.
  • FIG. 23 illustrates an example of generating a background image using a representative pattern of a wall, according to an exemplary embodiment.
  • an electronic device may include a camera; display; Communication interface; Memory for storing one or more instructions; And a processor that executes the one or more instructions stored in a memory, wherein the processor generates one or more events to instruct one or more markers to be displayed on a screen of the display apparatus by executing the one or more instructions, and generates the events.
  • Control the camera to capture an image of at least a partial area of the wall around the display device using one or more markers displayed on the screen of the display device according to the event, and the background image to be displayed on the screen of the display device based on the acquired image.
  • the processor acquires size information of a screen of the display apparatus by executing one or more instructions, determines a position at which one or more markers are to be displayed on the screen of the display apparatus based on the obtained size information, An event including information on the marker display position may be generated.
  • the processor executes one or more instructions to capture an image of at least a portion of the wall around the display device using one or more markers displayed on the screen of the display device and a preview image displayed on the display. Can be controlled.
  • the processor controls the display to display one or more guides in the preview image in consideration of the location of at least some area of the wall to be captured, by executing one or more instructions, wherein the one or more guides displayed on the preview image
  • the camera may be controlled to capture an image of at least a partial area of the wall according to the location of one or more markers displayed on the screen of the display device.
  • At least a portion of the wall surface on which the display apparatus is installed may include at least one of a left region, a right region, an upper region, and a lower region of a wall adjacent to the display apparatus.
  • the processor may generate a background image by executing one or more instructions to combine one or more copies of the acquired image and one or more copies of the symmetric image of the acquired image.
  • the processor is further configured to combine the acquired image and the symmetrical image of the acquired image to generate the background image when the size of the acquired image corresponds to half the size of the background image by executing one or more instructions. Can be.
  • the processor is configured to execute the one or more instructions so that when the acquired image is an image obtained from a left region or a right region of a wall adjacent to the display device, the processor is configured to mirror the acquired image in a left or right direction.
  • the symmetric image may be obtained by symmetry in an upper direction or a lower direction of the acquired image.
  • the processor may transmit the marker display event and the background image to the display apparatus through the server by executing one or more instructions.
  • the processor controls the camera to acquire the screen of the display device and the peripheral area of the display device on which the generated background image is displayed by executing one or more instructions, and uses the properties of the peripheral area to display the screen.
  • the attribute of the displayed background image may be adjusted and the background image having the adjusted attribute may be transmitted to the display device.
  • a method of operating an electronic device may include generating an event indicating to display one or more markers on a screen of a display device and transmitting the event to the display device, and displaying the event on the screen of the display device according to the generated event. Capturing an image of at least a partial area of a wall around the display apparatus using the one or more markers, generating a background image to be displayed on a screen of the display apparatus based on the acquired image, and generating the generated image And transmitting the generated background image to the display device so that a background image can be displayed on a screen of the display device.
  • a computer-readable recording medium having recorded thereon a program for executing a method of operating a display device in a computer is disclosed.
  • any part of the specification is to “include” any component, this means that it may further include other components, except to exclude other components unless otherwise stated.
  • the terms “... unit”, “module”, etc. described in the specification mean a unit for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software. .
  • the term “user” refers to a person who controls a function or operation of the video display device by using a control device, and may include a viewer, an administrator, or an installation engineer.
  • FIG. 1 is a reference diagram for describing a concept of displaying a wall image on a display device according to embodiments.
  • a display device 200 is installed on a wall surface 10.
  • the display apparatus 200 may display an image 11 of a part of the wall surface 10 in a state other than a general operation mode of the display apparatus 200 displaying content according to a user's input.
  • the display apparatus 200 displays an image 11 of a part of the wall surface 10 to increase the aesthetics of the environment in which the display apparatus 200 is installed.
  • by making the bezel 201 of the display device 200 more slim or by implementing the bezel 201 in a color that is not recognized by the human eye it is as if the display device 200 does not exist on the wall 11 while the display device 200 is not in operation.
  • the experience can be provided to the user.
  • a TV providing such an effect may be referred to as a glass TV.
  • the display device 200 displays the image 11 of the wall
  • the more the expression of the actual wall 10 and the image 11 of the wall displayed on the display device 200 is naturally connected the more the user may experience the display device 200 as if it is the wall. have. Since the display device 200 is installed on the wall 10, it is difficult to check the part of the wall 10 covered by the display device 200, so that the image 11 of the wall displayed by the display device 200 with the display device 200 installed on the wall 10 can be obtained. As long as it is present, it is important to express the display device 200 so as to be naturally connected to the surrounding area of the display device 200.
  • FIG. 2 is a reference diagram for describing a method of displaying a wall image on a display device according to an exemplary embodiment.
  • the display device 200 installed on the wall 10 may display one or more markers 21.
  • the display device 200 may display a marker according to a request from the mobile device 100.
  • the display apparatus 200 may receive information on one of the display position of the marker, that is, one of the right, left, top, and bottom of the screen, from the mobile device 100 to display the marker. 2 corresponds to a case where a request for displaying a marker on the right side of the screen is received from the mobile device 100.
  • the mobile device 100 may provide the display device 200 with information on the display position of the marker.
  • the mobile device 100 has provided the display device 200 with a request to display the marker 21 in the right area.
  • the mobile device transmits the guide 23 to the mobile device 100 to capture the right wall image of the display device 200.
  • the mobile device 100 may receive a selection from a user about which area of the peripheral wall of the display device 200 to capture. For example, if the user selects the right wall area as the area of the surrounding wall of the display device 200 that the user wants to capture, the mobile device 100 displays the marker 21 on the display device screen in order to be able to capture the right wall area of the display device. Information to be displayed on the right side of the screen may be transmitted to the display apparatus 200. In addition, the guide 23 for matching with the marker displayed on the display device 200 may be displayed on the left side of the screen of the mobile device 100.
  • the mobile device 100 may display one or more guides on the display of the mobile device 100.
  • the mobile device 100 may capture an image of a portion of the wall surface 10 using the one or more guides 23 and the one or more markers 21 displayed on the display device 200. For example, when the user moves the mobile device 100 so that the guide 23 of the mobile device 100 is positioned at the marker 21 displayed on the display device 200, the mobile device 100 may capture an image 22 of the wall surface.
  • the mobile device 100 receives an image of the right peripheral area 22 of the display device 200 into the right part 24 of the area captured by the mobile device 100, so that the mobile device 100 is part of the wall 10 area. 22 can be captured.
  • the mobile device 100 may generate a wall image, that is, a background image, to be displayed on the display device 200 by performing an appropriate process using the captured area 22 image.
  • the region 22 is directly adjacent to the display apparatus 200, when the background image to be displayed on the display apparatus 200 is generated using the image of the region 22, the region 22 may generate an image that looks more naturally connected to the peripheral region of the display apparatus 200.
  • the right region 22 of the display apparatus 200 capturing is an example, and the capturing region may be any position of the left region, the upper region, and the lower region of the display apparatus 200.
  • FIG. 3 is a schematic diagram illustrating an example of a system for displaying an image of a wall surface on a display device according to embodiments.
  • the system may include a mobile device 100, a display device 200, and a server 300.
  • the mobile device 100, the display device 200, and the server 300 may communicate with each other through a communication network 30.
  • the communication network 30 may include a broadband network network according to various communication standards such as Zigbee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), and the like.
  • the mobile device 100 may receive information on the display device 200, specifically, screen size information, from the display device 200 or the server 300 through the server 300 and generate a marker display event based on the information.
  • the marker display event may be transmitted to the display apparatus 200 through the server 300, and upon receiving the marker display event, the display apparatus 200 may display one or more markers on the screen based on this.
  • the marker may be displayed at various locations on the screen of the display device 200.
  • the mobile device 100 may capture an image of a wall around the display device 200 by using a marker displayed on the display device 200.
  • the mobile device 100 may capture an image of an area around the display device 200 according to the position of the marker displayed on the screen of the display device 200. For example, when the marker is displayed on the left half screen of the display device 200, the mobile device 100 may capture an image of a left adjacent area of the display device 200.
  • the mobile device 100 may generate a background image to be displayed on the display device 200 by using the captured original image and a symmetrical image of the original image, and transmit the generated background image to the display device 200 through the server 300.
  • the display apparatus 200 may display the background image on the screen.
  • FIG. 4 is a schematic diagram illustrating another example of a system for displaying an image of a wall surface on a display device according to embodiments.
  • the system may include a mobile device 100 and a display device 200.
  • the mobile device 100 and the display device 200 may communicate with each other through a short range communication method.
  • the short range communication method may use a short range communication protocol such as Bluetooth, Bluetooth low energy (BLE), Wi-Fi, Wi-Fi Direct, NFC (Near Field Communication), infrared communication, and laser beam communication.
  • the mobile device 100 may receive the screen information of the display device 200 directly from the display device 200 and directly transmit the marker display event generated accordingly to the display device 200.
  • the display device 200 displays one or more markers on the screen according to a marker display event, and the mobile device 100 captures an image of the surrounding wall of the display device 200 using the markers displayed on the screen of the display device 200, and uses the captured images.
  • the background image may be generated and the generated background image may be transmitted to the display apparatus 200.
  • the display apparatus 200 may receive the background image and display it on the screen.
  • FIG. 5 is a block diagram of a mobile device 100, a display device 200, and a server 300, according to an exemplary embodiment.
  • the display apparatus 200 may display an image by processing content data received through various sources.
  • the display apparatus 200 may receive an RF signal from a broadcast station using an RF antenna.
  • the display apparatus 200 may receive content provided by a content providing server through a communication network based on an Internet protocol.
  • the display device 200 may receive content from an external device connected to the display device 200 through various ports or HDMI.
  • the external device may include, for example, a set top box, a game device, a BD player, a PC, a USB, and the like.
  • the display apparatus 200 may receive content from a mobile device that is communicatively connected, and may acquire content data from a built-in or locally connected memory.
  • the display apparatus 200 may include a display 210, a communication interface 220, a detector 230, and a controller 240.
  • the display 210 displays content received through various sources under control of the controller 240 on the screen.
  • Various sources may include, for example, communication interface 220, memory 250, input / output.
  • the display 210 may be implemented as a PDP, an LCD, an OLED, a flexible display, or a 3D display.
  • the display 210 may be configured as a touch screen and used as an input device in addition to the output device.
  • the communication interface 220 may connect the display device 200 to an external device, for example, the mobile device 100 or the server 300 under the control of the controller 240.
  • the communication interface 220 may include one or a combination of wireless LAN, Bluetooth, and wired Ethernet according to the performance and structure of the display device.
  • the communication interface 220 may further include other near field communication, for example, near field communication (NFC) and Bluetooth low energy (BLE) in addition to Bluetooth.
  • NFC near field communication
  • BLE Bluetooth low energy
  • the detector 230 detects a user's voice, a user's image, or a user's interaction, receives a microphone corresponding to a user's uttered voice, and receives an image corresponding to a user's motion including a gesture in a camera recognition range. It may include a camera unit and a light receiving unit for receiving an optical signal (including a control signal) received from an external remote control device according to the user input.
  • the detector 230 detects a command or control signal from the remote control apparatus through the light receiver and transmits the detected command or control signal to the controller 240.
  • the remote control device may be implemented as various types of devices for controlling the display device 200 such as a remote controller or a mobile phone.
  • the memory 250 may store various data, programs, or applications for driving and controlling the display apparatus 200 under the control of the controller 240.
  • the memory 250 may include an operating system for controlling the display device 200 and the controller, an application initially provided or downloaded from an external device, a graphical user interface (GUI) associated with the application, an object (eg, image text, Icons, buttons, etc.), user information, documents, databases, or related data.
  • GUI graphical user interface
  • the memory 250 includes a memory card (eg, micro SD card, USB memory, not shown) mounted in the ROM, RAM, or display device 200.
  • the memory 200 may include a nonvolatile memory, a volatile memory, a hard disk drive (HDD), or a solid state drive (SSD).
  • HDD hard disk drive
  • SSD solid state drive
  • the memory 250 may include one or more instructions for transmitting information about the display device 200 according to a request of the mobile device 100 or the server 300.
  • the information about the display apparatus 200 may include size information of the display apparatus 200, specifically, screen size information.
  • the memory 250 may include one or more instructions for receiving a marker display event from the mobile device 100 or the server 300 and displaying one or more markers on the display according to the marker display event.
  • the memory 250 may include one or more instructions for receiving a background image from the mobile device 100 or the server 300 and displaying the background image on a display.
  • the background image may include an image generated by using a peripheral area of the wall where the display apparatus 200 is installed.
  • the controller 240 controls the overall operation of the display apparatus 200 and the flow of signals between internal components of the display apparatus 200 and performs data processing.
  • the controller 240 may execute an operating system (OS) and various applications stored in the memory 250 when a user input or a preset stored condition is satisfied.
  • OS operating system
  • the processor used in the controller 240 may include a graphic processing unit (not shown) for graphic processing corresponding to video.
  • the processor may be implemented as a system on chip (SoC) integrating a core (not shown) and a GPU (not shown).
  • SoC system on chip
  • the processor may include single core, dual core, triple core, quad core, and multiple cores thereof.
  • the processor may include a plurality of processors.
  • the processor may be implemented as a main processor (not shown) and a sub processor (not shown) that operates in a sleep mode.
  • the controller 240 may execute one or more instructions stored in the memory 250 to transmit information about the display apparatus 200 according to a request of the mobile device 100 or the server 300.
  • the controller 240 may execute one or more instructions stored in the memory 250 to receive a marker display event from the mobile device 100 or the server 300, and display one or more markers on the display according to the marker display event.
  • the controller 240 may receive a background image from the mobile device 100 or the server 300 by executing one or more instructions stored in the memory 250 and display the background image on the display.
  • the display apparatus 200 controls video (for example, video), audio (for example, voice, music, etc.) and additional information (for example, EPG, etc.) from the outside of the display apparatus 200 under the control of the controller 240. It may further include an input / output unit for receiving.
  • the input / output unit may include one or a combination of an HDMI port (High-Definition Multimedia Interface port), a component jack, a PC port, and a USB port.
  • the display device 200 may be a TV, but this is only an example and may be implemented as an electronic device including a display.
  • the display device 200 may be implemented as various electronic devices such as a desktop and a digital broadcasting terminal.
  • the display device 200 may be implemented not only as a flat display device but also as a curved display device that is a screen having a curvature or a flexible display device that can adjust the curvature.
  • the display device 200 may be electrically connected to a separate external device (eg, a set top box, not shown) having a tuner unit.
  • a separate external device eg, a set top box, not shown
  • the display device 200 may be implemented as an analog TV, a digital TV, a 3D-TV, a smart TV, an LED TV, an OLED TV, a plasma TV, a monitor, or the like, but is not limited thereto. It will be easily understood by those who have.
  • the block diagram of the illustrated display apparatus 200 is a block diagram for an embodiment.
  • Each component of the block diagram may be integrated, added, or omitted according to the specifications of the display apparatus 200 that is actually implemented. That is, two or more components may be combined into one component as needed, or one component may be divided into two or more components.
  • the function performed in each block is for explaining the embodiments, the specific operation or apparatus does not limit the scope of the present invention.
  • the server 300 is a computing device on which a server program providing a service is executed at the request of a user (client).
  • the server 300 may include a communication interface 310 and a controller 320.
  • the communication interface 310 may connect the server 300 to an external device, for example, the mobile device 100 or the display device 200 under the control of the controller 320.
  • the communication interface 220 may include one or a combination of wireless LAN, Bluetooth, and wired Ethernet according to the performance and structure of the display device.
  • the memory 330 may store various data, programs, or applications for driving and controlling the server 300 under the control of the controller 320.
  • the memory 330 may include an operating system for controlling the server 300 and the controller, an application initially provided or downloaded from an external manufacturer, a graphical user interface (GUI) associated with the application, and an object (eg, image text, an icon for providing a GUI). , Buttons, etc.), user information, documents, databases, or related data.
  • GUI graphical user interface
  • the memory 330 includes a memory card (eg, a micro SD card, a USB memory, not shown) mounted in the ROM, the RAM, or the server 300.
  • the memory 330 may include a nonvolatile memory, a volatile memory, a hard disk drive (HDD), or a solid state drive (SSD).
  • HDD hard disk drive
  • SSD solid state drive
  • the memory 330 may include one or more instructions for transmitting an application for controlling one or more devices in the home to the mobile device 100 according to a request of the mobile device 100.
  • the device control application may be used to control the display apparatus 200, and in particular, may include one or more instructions for setting a background image of the display apparatus 200.
  • the memory 330 may include one or more instructions for transmitting information about the display device 200 according to a request of the mobile device 100.
  • the information about the display apparatus 200 may include size information of the display apparatus 200, specifically, screen size information.
  • the memory 330 may include one or more instructions for receiving a marker display event from the mobile device 100 and delivering the marker display event to the display device 200.
  • the memory 330 may include one or more instructions for receiving a background image from the mobile device 100 and transferring the background image to the display device 200.
  • the background image may include an image generated by using a peripheral area of the wall where the display apparatus 200 is installed.
  • the controller 320 controls the overall operation of the server 300 and the signal flow between the internal components of the server 300 and performs a function of processing data.
  • the controller 320 may execute an operating system (OS) and various applications stored in the memory 250 when a user input or a preset stored condition is satisfied.
  • OS operating system
  • the processor used in the controller 320 may include a graphic processing unit (not shown) for graphic processing corresponding to video.
  • the processor may be implemented as a system on chip (SoC) integrating a core (not shown) and a GPU (not shown).
  • SoC system on chip
  • the processor may include single core, dual core, triple core, quad core, and multiple cores thereof.
  • the processor may include a plurality of processors.
  • the processor may be implemented as a main processor (not shown) and a sub processor (not shown) that operates in a sleep mode.
  • the controller 320 executes one or more instructions stored in the memory 330 to transmit an application for controlling one or more devices in the home to the mobile device 100 according to a request of the mobile device 100.
  • the device control application may be used to control the display apparatus 200, and in particular, may include one or more instructions for setting a background image of the display apparatus 200.
  • the controller 320 may transmit information about the display apparatus 200 according to a request of the mobile device 100 by executing one or more instructions stored in the memory 330.
  • the information about the display apparatus 200 may include size information of the display apparatus 200, specifically, screen size information.
  • the controller 320 may execute one or more instructions stored in the memory 330 to receive a marker display event from the mobile device 100 and transmit the marker display event to the display device 200.
  • the controller 320 may receive a background image from the mobile device 100 by executing one or more instructions stored in the memory 330, and transmit the background image to the display device 200.
  • the background image may include an image generated by using a peripheral area of the wall where the display apparatus 200 is installed.
  • the mobile device 100 may capture an image of a wall on which the display device 200 is installed, generate a background image to be displayed on the screen of the display device 200 based on the captured image, and then transmit the image to the display device 200 through the server 300.
  • the mobile device 100 may include an imaging sensor circuit 110, a communication interface 120, a display 130, a memory 140, and a controller 150.
  • the imaging sensor circuit 110 may receive an image (eg, a continuous frame) corresponding to a motion of a user including a gesture in a recognition range of the imaging sensor.
  • the imaging sensor circuit 110 may be implemented as a camera.
  • the imaging sensor circuit 110 may capture an image representing a wall surface to be displayed by the display apparatus 200.
  • the communication interface 120 may connect the mobile device 100 to an external device, for example, the display device 200 or the server 300 under the control of the controller 150.
  • the communication interface 120 may include one or a combination of wireless LAN, Bluetooth, and wired Ethernet in response to the performance and structure of the mobile device.
  • the communication interface 120 may specifically include a mobile communication unit and a sub communication unit.
  • the mobile communication unit performs broadband network communication according to various communication standards such as Zigbee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), Long Term Evoloution (LTE), and the like.
  • the mobile communication unit can be used for communication with the server 300.
  • the sub communication unit communicates with peripheral devices using short-range communication protocols such as Bluetooth, Bluetooth low energy (BLE), Wi-Fi, Near Field Communication (NFC), infrared communication, and laser beam communication.
  • the sub communication unit may be used for communication with the display apparatus 200.
  • the display 130 displays content received through various sources under control of the controller 150 on the screen.
  • Various sources may include, for example, communication interface 120, memory 140, input / output.
  • the display 130 may be configured as a touch screen and used as an input device in addition to the output device.
  • the memory 140 may store various data, programs, or applications for driving and controlling the mobile device 100 under the control of the controller 150.
  • the memory 140 may include an operating system for controlling the mobile device 100 and the controller, an application initially provided or downloaded from an external device, a graphical user interface (GUI) associated with the application, an object (eg, image text, Icons, buttons, etc.), user information, documents, databases, or related data.
  • GUI graphical user interface
  • the memory 140 includes a memory card (eg, micro SD card, USB memory, not shown) mounted in the ROM, the RAM, or the mobile device 100.
  • a memory card eg, micro SD card, USB memory, not shown mounted in the ROM, the RAM, or the mobile device 100.
  • the memory 140 may include one or more instructions for transmitting a download request of an application for controlling a device in the home to the server 300, and thus receiving and storing the device control application.
  • the device control application may include one or more instructions for controlling the display device 200, in particular one or more instructions used to set a background image of the display device 200.
  • the memory 140 may include one or more instructions for transmitting information about the display apparatus 200 to the mobile device 100 or the server 300.
  • the information about the display apparatus 200 may include size information of the display apparatus 200, specifically, screen size information.
  • the memory 140 may include one or more instructions for generating a marker display event using information about the display apparatus 200 and transmitting the marker display event to the mobile device 100 or the server 300.
  • the marker display event may include location information of one or more markers to be displayed on the screen of the display device according to the screen size of the display device 200.
  • the memory 140 captures a part of an image of a wall on which the display apparatus 200 is installed by using one or more markers displayed on the screen of the display apparatus 200 according to a marker display event, and processes the captured image to display the screen of the display apparatus 200. It may include one or more instructions for generating a background image to be displayed on, and transmits the background image to the display device 200 or the server 300.
  • the controller 150 controls the overall operation of the mobile device 100 and the flow of signals between internal components of the mobile device 100 and performs data processing.
  • the controller 150 may execute an operating system (OS) and various applications stored in the memory 140 when a user input or a preset stored condition is satisfied.
  • OS operating system
  • the processor used in the controller 150 may include a graphic processing unit (not shown) for graphic processing corresponding to video.
  • the processor may be implemented as a system on chip (SoC) integrating a core (not shown) and a GPU (not shown).
  • SoC system on chip
  • the processor may include single core, dual core, triple core, quad core, and multiple cores thereof.
  • the processor may include a plurality of processors.
  • the processor may be implemented as a main processor (not shown) and a sub processor (not shown) that operates in a sleep mode.
  • the controller 150 may execute one or more instructions stored in the memory 140 to transmit a download request of an application for controlling a device in the home to the server 300, and thus receive and store a device control application.
  • the device control application may include one or more instructions for controlling the display device 200, in particular one or more instructions used to set a background image of the display device 200.
  • the controller 150 may transmit information about the display apparatus 200 to the mobile device 100 or the server 300 by executing one or more instructions stored in the memory 140.
  • the information about the display apparatus 200 may include size information of the display apparatus 200, specifically, screen size information.
  • the controller 150 may execute one or more instructions stored in the memory 140 to generate a marker display event using information about the display apparatus 200 and transmit the marker display event to the mobile device 100 or the server 300.
  • the marker display event may include location information of one or more markers to be displayed on the screen of the display device according to the screen size of the display device 200.
  • the controller 150 executes one or more instructions stored in the memory 140 to capture a partial image of a wall on which the display apparatus 200 is installed by using one or more markers displayed on the screen of the display apparatus 200 according to a marker display event.
  • the captured image may be processed to generate a background image to be displayed on the screen of the display apparatus 200, and the background image may be transmitted to the display apparatus 200 or the server 300.
  • the block diagram of the illustrated mobile device 100 is a block diagram for one embodiment.
  • Each component of the block diagram may be integrated, added, or omitted according to the specifications of the mobile device 100 that is actually implemented. That is, two or more components may be combined into one component as needed, or one component may be divided into two or more components.
  • the function performed in each block is for explaining the embodiments, the specific operation or apparatus does not limit the scope of the present invention.
  • the mobile device 100 may be a mobile phone, a tablet PC, a digital camera, a camcorder, a laptop computer, a tablet PC, an e-book device, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP). It may be implemented in various electronic devices such as navigation, MP3 players, wearable devices, and the like.
  • PDA personal digital assistant
  • PMP portable multimedia player
  • FIG. 6 illustrates a method of operating a mobile device according to an exemplary embodiment.
  • the mobile device 100 in operation S610, the mobile device 100 generates an event indicating that one or more markers are displayed on the screen of the display device 200 and transmits the event to the display device 200.
  • the mobile device 100 may determine the location of one or more markers to be displayed on the screen of the display device 200 by referring to the screen size information of the display device 200.
  • the mobile device 100 may receive screen size information of the display device 200 from a user, receive from the display device 200, or receive from the server 300.
  • the mobile device 100 may generate a marker display event including the determined position of the marker and transmit it to the display device 200.
  • the mobile device 100 may directly transmit a marker display event to the display device 200 or may transmit the marker display event to the display device 200 through the server 300.
  • the mobile device 100 captures an image of at least a partial area of the wall around the display device 200 by using one or more markers displayed on the screen of the display device according to the generated marker display event.
  • the mobile device 100 may capture an image of at least a partial area of the wall around the display device 200 by using one or more markers displayed on the screen of the display device and one or more guides displayed on the display of the mobile device.
  • the mobile device 100 In operation S630, the mobile device 100 generates a background image to be displayed on the screen of the display device 200 based on the captured image.
  • the mobile device 100 may generate a background image using the captured original image and a symmetric image of the captured original image.
  • the mobile device 100 transmits the generated background image to the display device so that the generated background image may be displayed on the screen of the display device.
  • the mobile device 100 may directly transmit the generated background image to the display device 200 or may transmit the generated background image to the display device 200 through the server 300.
  • FIG. 7 is a flowchart illustrating an operation of a mobile device, a server, and a display device for displaying a background image on a display device using an image of a wall on which a display device is installed, according to an exemplary embodiment.
  • the mobile device 100 downloads and installs a device control application, and in S710, the server 300 transmits the device control application to the mobile device 100.
  • the server transmits the device control application to the mobile device 100, and the mobile device 100 may receive and install the device control application.
  • the device control application may include an application for controlling various devices in the home, for example, a refrigerator, a display device, a washing machine, an audio device, and the like.
  • the mobile device 100 may execute an installed device control application.
  • the mobile device 100 may receive a user input for selecting a background screen setting menu.
  • FIG. 8 illustrates a user interface provided by the mobile device 100 by executing a device control application according to an embodiment.
  • the first user interface 810 of the device control application executed by the mobile device 100 may receive a user input for selecting a device to be controlled.
  • the first user interface 810 may display a display device 811, an audio device 812, a washing machine 813, and a refrigerator 814 as a device to be controlled, and the user may select one of the displayed devices.
  • the mobile device 100 may output the second user interface 820.
  • the second user interface 820 may display menu items related to control of the display device, and one of the items may include a background screen setting item 821.
  • the background screen setting item 821 is a menu item that enables setting so that the display device can display the same image as the image on the wall where the display device is installed while the display device is not operated by a user operation.
  • the mobile device 100 may output the third user interface 830.
  • the third user interface 830 may include an input window 831 for inputting a display device model name.
  • the mobile device 100 may receive a display device model name through the input window 831.
  • the mobile device 100 may request and acquire screen information of the display device.
  • the screen information of the display device includes the size of the display screen of the display device 200.
  • the screen information of the display device may be used to determine the location of one or more markers to be displayed on the screen of the display device.
  • the screen information of the display device may be included in product information of the display device and may be obtained using a model name of the display device.
  • the mobile device 100 may obtain screen information of the display device by using the display device model name received through the third user interface 830.
  • the mobile device 100 may receive screen information of the display device corresponding to the display device model name from the server 300 by transmitting the display device model name to the server 300.
  • the server 300 transmits the display device model name received from the mobile device 100 to the display device 200 and the screen information of the display device corresponding to the display device model name is mobile via the server 300. May be delivered to device 100.
  • the mobile device 100 may store screen information of the display device corresponding to the display device model name, so that the mobile device 100 may acquire the screen information of the display device without requesting the server 300.
  • the mobile device 100 may select an area to be captured from the wall image on which the display device 200 is installed.
  • the mobile device 100 may change to the photo capture mode after acquiring the display screen information.
  • the camera of the mobile device 100 senses an image of the wall on which the display device 200 is installed, including the display device 200, and displays the display of the mobile device 100. May display an image of the wall including the display device 200 as a preview image.
  • the mobile device 100 may display an outline of an area to be captured on the preview image.
  • the mobile device 100 may receive an input for selecting one region from the user by displaying outlines of a plurality of regions to be captured. A method of selecting an area to be captured by the mobile device 100 will be described with reference to FIGS. 9 through 11.
  • FIG 9 illustrates an example of a preview image displayed on a display of the mobile device 100 according to an embodiment.
  • the mobile device 100 displays an image of a wall surface on which the display device 200 is installed as a preview image 900 on a display.
  • the display device 100 may display a guideline for selecting a region to be captured on the displayed preview image 900.
  • a guideline 910 representing a right region A of the display apparatus 200, a guideline 920 representing an upper region B, and a guideline 930 representing a left region C are displayed in the preview image 900.
  • the user can select an image area of the wall to be captured by selecting one of the outlines 910, 920, and 930.
  • the mobile device 100 may variously determine the area of the wall to be captured.
  • the mobile device 100 may internally determine an area of a wall surface to be captured by default.
  • the mobile device 100 may display the area of the wall to be captured as shown in FIG. 9 and allow the user to select it.
  • the mobile device 100 may further include a ⁇ completed> item 950 in addition to the guidelines for selecting a region to be captured in the preview image 900 for selecting a region to be captured.
  • the mobile device 100 can capture the right wall area C of the display device.
  • the information may be transmitted to the display device 200, and a guide for matching the marker displayed on the display device 200 may be displayed on the left side of the screen of the mobile device 100.
  • FIG. 10 is a diagram illustrating an area to be captured among peripheral walls of a display apparatus according to an exemplary embodiment.
  • FIG. 10 illustrates an example of capturing a wall image of a right side, an upper side, and a left side of a peripheral wall of the display apparatus 200 in the case of the stand type display apparatus 200 according to an embodiment.
  • the screen size of the display device 200 is (horizontal X, vertical Y)
  • the size of the left or right region to be captured is determined as (horizontal X / 2, vertical Y)
  • the size of the upper region to be captured is (horizontal X).
  • Areas A, B, and C correspond to half of the screen size of the display apparatus 200, respectively. Therefore, by doubling the size of the captured region, it is possible to generate a background image to be displayed on the screen of the display apparatus 200.
  • 1000B of FIG. 10 illustrates an example of capturing a wall image of a left, right, top, and bottom regions among peripheral walls of the display apparatus 200 in the case of the wall-mounted display apparatus 200 according to an embodiment.
  • FIG. 11 is a reference diagram for explaining a size of a peripheral wall area of a display apparatus to be captured, according to an exemplary embodiment.
  • FIG. 11 illustrates an example of capturing wall images of left, right, top, and bottom regions of the peripheral wall of the display apparatus 200 according to an exemplary embodiment.
  • the screen size of the display device 200 is (horizontal X, vertical Y)
  • the size of the left or right region to be captured is determined as (horizontal X / 3, vertical Y)
  • the size of the upper or lower region to be captured is This can be determined by (horizontal X, vertical Y / 3).
  • Areas A, B, C, and D correspond to 1/3 of the screen size of the display apparatus 200, respectively. Accordingly, the background image to be displayed on the screen of the display apparatus 200 may be generated by doubling the size of the captured region.
  • 1100B of FIG. 11 illustrates an example of capturing wall images of left, right, top, and bottom regions of the peripheral wall of the display apparatus 200 according to an exemplary embodiment.
  • the screen size of the display device 200 is (horizontal X, vertical Y)
  • the size of the left or right region to be captured is determined as (horizontal X / 4, vertical Y)
  • the size of the upper or lower region to be captured is Can be determined by (horizontal X, vertical Y / 4).
  • Areas A, B, C, and D correspond to 1/4 of the screen size of the display apparatus 200, respectively. Therefore, by quadrupling the size of the captured region, it is possible to generate a background image to be displayed on the screen of the display apparatus 200.
  • the mobile device 100 In operation S745, the mobile device 100 generates a marker display event and transmits it to the server 300.
  • the server 300 may transmit a marker display event received by the mobile device 100 to the display device 200.
  • the display apparatus 200 may display one or more markers on the display screen according to the marker display event received from the server 300.
  • FIG. 12 is a reference diagram for describing a method of transmitting a marker display event by a mobile device to a display device according to an exemplary embodiment.
  • the mobile device 100 may generate a marker display event 1200 using the display screen information acquired in S725 and the capture area selected in S740.
  • the marker display event is an event that causes the display device 200 to display one or more markers on the display screen.
  • the marker display event may include location information of one or more markers to be displayed on the display screen together with a command to cause the display device 200 to display one or more markers on the display screen.
  • the mobile device 100 may transmit the generated marker display event 1200 to the display device 200 directly or through the server 300.
  • the display apparatus 200 receiving the marker display event 1200 may display one or more markers 1201, 1202, 1203, and 1204 on the display screen according to the marker display position information included in the marker display event.
  • the marker display position information changes according to the capture area selected in S740. As shown in FIG. 12A, if one or more markers are to be captured on the right wall image of the display device 200, one or more markers may be displayed on the right half of the display screen of the display device 200.
  • the markers are displayed in a rectangular shape, but the markers may be displayed in various shapes such as a circle or a triangle.
  • FIG. 13 is a diagram for describing a method of determining a marker display position according to a selected capture area, according to an exemplary embodiment.
  • region A when region A is selected as an area to be captured by the mobile device 100, the corresponding wall area is region A ′.
  • the mobile device 100 may determine a position to display one or more markers on the right half of the screen of the display device 200 to capture an image of the area A '. Therefore, when the area A is selected, the mobile device 100 may determine the marker display position as (m1, m2, m3, m4). In addition, when the area B is selected, the mobile device 100 may determine the marker display position as (m1, m6, m9, m10) to display one or more markers on the upper half of the screen of the display device. In addition, when the area C is selected, the mobile device 100 may determine the marker display position (m5, m6, m7, m8) to display one or more markers on the left half of the screen of the display device.
  • the area to be captured is determined to be half of the entire display device screen, one or more markers are displayed at a position corresponding to half of the display device screen, but the area to be captured is 1/3 of the entire display device screen. Or 1/4, the positions of the markers also vary accordingly.
  • markers are displayed on the screen of the display apparatus 100, but this is merely an example, and one or more markers may be provided.
  • the mobile device 100 may capture a wall image by using one or more markers displayed on the display device 200.
  • the user when a marker is displayed on the display device 200, the user views the marker and moves the mobile device 100 such that the markers are positioned on the left half of the screen of the mobile device 100, thereby displaying the display device 200.
  • the mobile device 100 may capture an image according to an image capture command of the user.
  • the imaging sensor of the mobile device 100 may display one or more markers displayed on the display device 200.
  • the mobile device 100 may automatically capture a wall image.
  • the mobile device 100 may recognize the marker by comparing a feature point of a previously stored marker image with a feature point extracted from the marker displayed on the display apparatus 200 using a marker recognition image processing technique through feature point matching.
  • the mobile device 100 may display one or more guides on the preview image displayed on the display screen of the mobile device 100 to more accurately capture the image.
  • the imaging sensor of the mobile device 100 may capture a wall image when one or more markers are recognized. This will be described with reference to FIGS. 14 to 16.
  • FIG. 14 is a reference diagram for explaining an example of displaying one or more guides on a mobile device according to one embodiment.
  • the mobile device 100 may display one or more guides 1401, 1402, 1403, and 1404 on the preview image to assist recognition of the markers 1201, 1202, 1203, and 1204 displayed on the screen of the display device 200.
  • the display device 200 may display a marker on the screen of the right half of the display device 200 and display a guide on the left half of the preview image of the mobile device 100.
  • the user places the guides 1401, 1402, 1403, and 1404 on the preview image on the markers 1201, 1202, 1203, and 1204 displayed on the screen of the display device 200, respectively, in the right half area 1220 of the preview image displayed on the screen of the mobile device 100
  • the right wall image 1210 of the display device 200 may enter. Therefore, in this state, the imaging sensor of the mobile device 100 may acquire the right wall image 1210 by capturing the image as the markers 1201, 1202, 1203, and 1204 are recognized.
  • the mobile device may also display a message 1400 on the preview image, ⁇ Place the guide displayed on the screen on the marker displayed on the display device '' to give the user a help.
  • the number of markers displayed on the screen of the mobile device 100 is four in the example illustrated in FIG. 14, this is only an example, and the number of markers may be one or more.
  • 15 is a reference diagram for explaining an example of displaying one or more guides on a mobile device according to one embodiment.
  • the mobile device 100 may display one or more guides 1511, 1512, 1513, and 1514 on the preview image to assist recognition of the markers 1501, 1502, 1503, and 1504 displayed on the screen of the display device 200.
  • the mobile device 100 may display a marker on the upper half screen of the display device 200 to capture the upper wall image 1510 of the display device 200, and the guide 1511-1514 on the lower half of the preview image of the mobile device 100.
  • the upper half area 1510 of the preview image displayed on the screen of the mobile device 100 is displayed.
  • An upper wall image 1500 of the display device 200 may enter. Accordingly, in this state, the imaging sensor of the mobile device 100 may acquire the upper wall image 1500 by capturing the image.
  • the mobile device 100 generates a background image using the captured wall image.
  • the mobile device 100 may generate a background image by processing the captured wall image.
  • the mobile device 100 may use the wall image used to generate the background image to create a natural background image that may be more harmonized with the wall as shown in FIG. 16, rather than the immediately adjacent wall image of the display device 200.
  • a wall image may be acquired from an area separated by d from the bezel end of the display apparatus 200.
  • the mobile device 100 may provide a user interface for acquiring an image of a plurality of surrounding areas and then selecting a desired area for the user.
  • 17 is an example of a user interface for selecting one of a plurality of region images according to an embodiment.
  • the mobile device 100 acquires all the images of the peripheral areas A, B, C, and D of the display device 200, and obtains the acquired A area image 1630, B area image 1610, and C area image 1640, D area.
  • the user interface 1600 may be provided to display the image 1620 on the display screen and select one of these area images. Providing such a user interface 1600 allows a user to select a desired image from all possible wall images. In particular, as shown in FIG. 17, when the left wall area C and the right wall area A of the display device 200 have patterns, it is important to select an image of the area C or the area A as a background image to be displayed on the display device 200. can do.
  • the mobile device 100 may generate a background image using the capture area image.
  • FIG. 18 is a reference diagram for describing a method of generating a background image by using a 1/2 captured image of a screen, according to an exemplary embodiment.
  • the mobile device 100 doubles the size of the original image 1810. You can create a background image.
  • the mobile device 100 captures an image 1810 of the left wall area 1800 of the display device 200
  • the mobile device 100 generates a background image to be displayed on the display device 200 using the captured original image 1810
  • the mobile device 100 can position the first image 1820 on the left half of the background image 1800 by mirroring the right edge of the captured original image 1810 so that the area 1801 is located in the area 1841 of the background image 1840. have.
  • the second image 1830 which is symmetrical about the right edge of the first image 1820, is disposed on the right half of the background image 1840 so that the image of the region 1821 may be positioned in the region 1831.
  • the background image 1840 naturally connecting the region 1801 and the region 1841 and the region 1821 naturally connecting the region 1831 may be generated.
  • 19 is a reference diagram for describing a method of generating a background image using a 1/4 captured image of a screen, according to an exemplary embodiment.
  • the mobile device 100 may quadruple the size of the original image 1910.
  • the mobile device 100 places the first image generated by symmetrically about the right edge of the original image 1910 captured in the first region 1920 of the background image, and the image generated by symmetrically about the right edge of the first image.
  • the second image is disposed in the second region 1930 of the background image, and the third image generated by symmetry about the right edge of the second image is disposed in the third region 1940 of the background image, and the right edge of the third image is centered.
  • the background image 1960 may be generated by arranging the fourth image generated by symmetry to the fourth region 1950 of the background image.
  • the user may confirm before transmitting and applying the background image generated by the mobile device 100 to the display device.
  • FIG. 20 illustrates an example of a user interface for erasing portions of a background image generated according to an embodiment.
  • the mobile device 100 may display the generated background image on the display. For example, as shown in FIG. 2, when the mobile device 100 captures the area 22 to generate a background image, a part of the flowers in the vase may be displayed at the lower part of the captured area 22 image. Some shapes of flowers 2011 and 2012 may also be displayed in 2010. The user may remove the shapes 2011 and 2012 from the background image 2010 by touching or rubbing some shapes 2011 and 2012 of the flower using a finger or other tool. Using a finger or a tool to remove some of the shapes displayed on the image can use known picture editing techniques.
  • the mobile device 100 may transmit the generated background image to the display device 200.
  • the mobile device 100 may directly transmit the generated background image to the display device 200.
  • the mobile device 100 may transfer the generated background image to the display device 200 through the server 300.
  • the server 300 may transmit the background image to the display device 200
  • the display device 200 may receive the background image and display it on the display screen.
  • the user may want to change the tone or brightness of the color of the background image displayed on the display apparatus 200.
  • the color tone of the background image displayed on the display device 200 may be different from the color tone of the actual wall surface. Therefore, in this case, the mobile device 100 may further provide a user interface that allows the user to change the color tone or brightness of the background image.
  • FIG. 21 illustrates an example of checking a background image displayed on the display device 200 and changing a color of the background image through the mobile device 100 according to an embodiment.
  • the display device 200 displays a background image 2110 received from the mobile device 100.
  • the mobile device 100 may provide a user interface 2120 for changing the color of the background image.
  • the mobile device 100 may transmit the color adjusted background image back to the display device 200.
  • the mobile device 100 may generate a background image using the representative color of the wall on which the display device 200 is installed.
  • FIG. 22 is a diagram for describing an example of generating a background image using a representative color of a wall, according to an exemplary embodiment.
  • the mobile device 100 extracts the representative color from the image capturing the peripheral wall area 2200 and displays the representative color and the display device.
  • the background image can be generated using the screen size. That is, the mobile device 100 may generate a background image by setting an area corresponding to the background image size of the display device as the representative color.
  • the mobile device 100 may generate a background image using a representative pattern of the wall surface on which the display apparatus 200 is installed.
  • FIG. 23 illustrates an example of generating a background image using a representative pattern of a wall, according to an exemplary embodiment.
  • the mobile device 100 extracts a representative pattern from an image capturing a peripheral wall area 2300 and displays the representative pattern and the display.
  • the background image may be generated using the screen size of the device. That is, the mobile device 100 may generate the background image by repeatedly arranging the representative pattern in an area corresponding to the background image size of the display device.
  • the operating method of the mobile device, the display device, and the server may be implemented in the form of program instructions that may be executed by various computer means and may be recorded in a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Magneto-optical media and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

실시예들에 따라 전자 장치 및 그 동작 방법이 개시된다. 일 실시예에 따른 전자 장치는, 카메라; 디스플레이; 통신 인터페이스; 하나 이상의 인스트럭션을 저장하는 메모리; 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 디스플레이 장치의 화면에 하나 이상의 마커가 표시되도록 지시하는 이벤트를 발생하여 상기 디스플레이 장치로 전송하고, 상기 발생된 이벤트에 따라 상기 디스플레이 장치의 화면에 표시된 상기 하나 이상의 마커를 이용하여 상기 디스플레이 장치 주변의 벽면의 적어도 일부 영역의 이미지를 캡쳐하도록 상기 카메라를 제어하고, 상기 획득된 이미지를 기초로 상기 디스플레이 장치의 화면에 표시될 배경 이미지를 생성하고, 상기 생성된 배경 이미지가 상기 디스플레이 장치의 화면에 표시될 수 있도록 상기 생성된 배경 이미지를 상기 디스플레이 장치로 전송한다.

Description

전자 장치 및 그 동작 방법
다양한 실시예들은 전자 장치 및 그 동작 방법에 관한 것으로, 좀더 구체적으로는, 디스플레이 장치에 벽면의 이미지를 표시할 수 있도록 하는 전자 장치 및 그 동작 방법에 관한 것이다.
영상표시장치는 사용자가 시청할 수 있는 영상을 표시하는 기능을 갖춘 장치이다. 사용자는 영상표시장치를 통하여 방송을 시청할 수 있다. 영상표시장치는 방송국에서 송출되는 방송신호 중 사용자가 선택한 방송을 디스플레이에 표시한다. 현재 방송은 전세계적으로 아날로그 방송에서 디지털 방송으로 전환하고 있는 추세이다.
디지털 방송은 디지털 영상 및 음성 신호를 송출하는 방송을 의미한다. 디지털 방송은 아날로그 방송에 비해, 외부 잡음에 강해 데이터 손실이 작으며, 에러 정정에 유리하며, 해상도가 높고, 선명한 화면을 제공한다. 또한, 디지털 방송은 아날로그 방송과 달리 양방향 서비스가 가능하다.
디지털 방송 기능에 더하여 다양한 컨텐츠를 제공하는 스마트 티브이가 제공되고 있다. 스마트 티브이는 사용자의 선택에 따라 수동적으로 동작하는 것이 아니라, 사용자의 조작 없이도 사용자가 원하는 것을 분석하여 제공하는 것을 목표로 한다.
또한, 최근에는 텔레비전이 설치되는 환경의 인테리어 측면을 강화시키기 위해 벽면에 설치하는 벽걸이 티브이나 또는 액자와 같은 심미감을 주기 위한 액자 티브이와 같은 제품이 제공되고 있다.
다양한 실시예들은, 텔레비전이 설치되는 환경의 심미감을 강화시키기 위해 텔레비전 화면에 벽면 이미지를 표시할 수 있도록 하는 방법 및 장치를 제공하고자 한다.
이러한 기술적 과제를 해결하기 위해, 전자 장치 및 동작 방법은, 디스플레이 장치의 화면에 디스플레이 장치 주변의 벽면의 이미지를 표시할 때 자연스럽게 하기 위해 디스플레이 장치의 화면에 하나 이상의 마커를 표시하도록 제어하고 이 표시된 마커를 이용하여 디스플레이 장치의 주변의 벽면의 이미지를 캡쳐하고, 캡쳐된 이미지를 이용하여 디스플레이 장치의 화면에 표시될 배경 이미지를 생성한다.
실시예들에 따라 디스플레이 장치가 설치되면 벽면의 이미지를 좀더 효과적으로 캡쳐하고 처리하여 디스플레이 장치에 표시될 배경 이미지를 생성함으로써 디스플레이 장치가 설치되는 환경의 심미감을 증대시킬 수 있다.
도 1은 실시예들에 따라 디스플레이 장치에 벽면 이미지를 표시하는 개념을 설명하기 위한 참고도이다.
도 2는 일 실시예에 따라 디스플레이 장치에 벽면 이미지를 표시하는 방법을 설명하기 위한 참고도이다.
도 3은 실시예들에 따라 디스플레이 장치에 벽면의 이미지를 표시하기 위한 시스템의 일 예를 설명하기 위한 개략도이다.
도 4는 실시예들에 따라 디스플레이 장치에 벽면의 이미지를 표시하기 위한 시스템의 다른 예를 설명하기 위한 개략도이다.
도 5는 일 실시예에 따라 모바일 장치 100, 디스플레이 장치 200, 서버 300의 블록도이다.
도 6은 일 실시예에 따른 모바일 장치의 동작 방법을 나타낸다.
도 7은 일 실시예에 따라 디스플레이 장치가 설치된 벽면의 이미지를 이용하여 디스플레이 장치에 배경 이미지를 표시하기 위한 모바일 장치, 서버, 디스플레이 장치의 동작을 나타내는 흐름도이다.
도 8은 일 실시예에 따라 모바일 장치 100가 디바이스 제어 어플리케이션을 실행하여 제공하는 사용자 인터페이스를 설명한다.
도 9는 일 실시예에 따라 모바일 장치 100의 디스플레이에 표시되는 프리뷰 이미지의 일 예를 도시한다.
도 10은 일 실시예에 따라 디스플레이 장치의 주변 벽면 중 캡쳐할 영역을 나타내는 도면이다.
도 11은 일 실시예에 따라 캡쳐할 디스플레이 장치의 주변 벽면 영역의 사이즈를 설명하기 위한 참고도이다.
도 12는 일 실시예에 따라 모바일 장치가 디스플레이 장치로 마커 표시 이벤트를 전송하는 방법을 설명하기 위한 참고도이다.
도 13을 일 실시예에 따라 선택된 캡쳐 영역에 따라 마커 표시 위치를 결정하는 방법을 설명하기 위한 도면이다.
도 14는 일 실시예에 따라 모바일 장치에 하나 이상의 가이드를 표시하는 예를 설명하기 위한 참고도이다.
도 15는 일 실시예에 따라 모바일 장치에 하나 이상의 가이드를 표시하는 예를 설명하기 위한 참고도이다.
도 16은 일 실시예에 따라 베젤 두께만큼 디스플레이 장치로부터 떨어진 영역을 캡쳐하는 예를 설명하기 위한 참고도이다.
도 17은 일 실시예에 따라 복수개의 영역 이미지 중 하나를 선택할 수 있도록 하는 사용자 인터페이스의 일 예이다.
도 18은 일 실시예에 따라 화면의 1/2 캡쳐 이미지를 이용하여 배경 이미지를 생성하는 방법을 설명하기 위한 참고도이다.
도 19는 일 실시예에 따라 화면의 1/4 캡쳐 이미지를 이용하여 배경 이미지를 생성하는 방법을 설명하기 위한 참고도이다.
도 20은 일 실시예에 따라 생성된 배경 이미지에서 제거하고 싶은 부분을 지울 수 있도록 하는 사용자 인터페이스의 일 예를 나타낸다.
도 21은 일 실시예에 따라 디스플레이 장치 200에 표시된 배경 이미지를 확인하고 사용자가 모바일 장치 100를 통하여 배경 이미지의 색상을 변경하는 예를 나타낸다.
도 22는 일 실시예에 따라 벽면의 대표 컬러를 이용하여 배경 이미지를 생성하는 예를 설명하기 위한 도면이다.
도 23은 일 실시예에 따라 벽면의 대표 패턴을 이용하여 배경 이미지를 생성하는 예를 설명하기 위한 도면이다.
일 실시예에 따른 전자 장치는, 카메라; 디스플레이; 통신 인터페이스; 하나 이상의 인스트럭션을 저장하는 메모리; 및 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 프로세서는, 하나 이상의 인스트럭션을 실행함으로써, 디스플레이 장치의 화면에 하나 이상의 마커가 표시되도록 지시하는 이벤트를 발생하여 디스플레이 장치로 전송하고, 발생된 이벤트에 따라 디스플레이 장치의 화면에 표시된 하나 이상의 마커를 이용하여 디스플레이 장치 주변의 벽면의 적어도 일부 영역의 이미지를 캡쳐하도록 카메라를 제어하고, 획득된 이미지를 기초로 디스플레이 장치의 화면에 표시될 배경 이미지를 생성하고, 생성된 배경 이미지가 디스플레이 장치의 화면에 표시될 수 있도록 생성된 배경 이미지를 상기 디스플레이 장치로 전송한다.
일 실시예에 따라 프로세서는, 하나 이상의 인스트럭션을 실행함으로써, 디스플레이 장치의 화면의 사이즈 정보를 획득하고, 획득된 사이즈 정보에 기초하여 디스플레이 장치의 화면에 하나 이상의 마커가 표시될 위치를 결정하고, 결정된 마커 표시 위치에 관한 정보를 포함하는 이벤트를 발생할 수 있다.
일 실시예에 따라 프로세서는, 하나 이상의 인스트럭션을 실행함으로써, 디스플레이 장치의 화면에 표시된 하나 이상의 마커 및 디스플레이에 표시되는 프리뷰 이미지를 이용하여 디스플레이 장치 주변의 벽면의 적어도 일부 영역의 이미지를 캡쳐하도록 상기 카메라를 제어할 수 있다.
일 실시예에 따라 프로세서는, 하나 이상의 인스트럭션을 실행함으로써, 캡쳐할 벽면의 적어도 일부 영역의 위치를 고려하여 하나 이상의 가이드를 프리뷰 이미지에 표시하도록 디스플레이를 제어하고, 프리뷰 이미지상에 표시된 하나 이상의 가이드가 디스플레이 장치의 화면에 표시된 하나 이상의 마커에 위치됨에 따라 벽면의 적어도 일부 영역의 이미지를 캡쳐하도록 상기 카메라를 제어할 수 있다.
일 실시예에 따라, 디스플레이 장치가 설치된 벽면의 적어도 일부 영역은, 디스플레이 장치에 인접한 벽면의 좌측 영역, 우측 영역, 상측 영역, 하측 영역 중 적어도 하나를 포함할 수 있다.
일 실시예에 따라 프로세서는, 하나 이상의 인스트럭션을 실행함으로써, 획득된 이미지의 하나 이상의 카피 및 상기 획득된 이미지의 대칭 이미지의 하나 이상의 카피를 결합하여 배경 이미지를 생성할 수 있다.
일 실시예에 따라 프로세서는, 하나 이상의 인스트럭션을 실행함으로써, 획득된 이미지의 크기가 배경 이미지의 크기의 반에 해당할 때, 획득된 이미지 및 획득된 이미지의 대칭 이미지를 결합하여 배경 이미지를 생성할 수 있다.
일 실시예에 따라 프로세서는, 하나 이상의 인스트럭션을 실행함으로써, 획득된 이미지가 디스플레이 장치에 인접한 벽면의 좌측 영역 또는 우측 영역으로부터 획득된 이미지 일 때, 획득된 이미지의 좌측 방향 또는 우측 방향으로 대칭시킴으로써 상기 대칭 이미지를 획득하고, 획득된 이미지가 상기 디스플레이 장치에 인접한 벽면의 상측 영역 또는 하측 영역으로부터 획득된 이미지 일 때, 획득된 이미지의 상측 방향 또는 하측 방향으로 대칭시킴으로써 상기 대칭 이미지를 획득할 수 있다.
일 실시예에 따라 프로세서는, 하나 이상의 인스트럭션을 실행함으로써, 마커 표시 이벤트 및 배경 이미지를 서버를 통해서 디스플레이 장치로 전송할 수 있다.
일 실시예에 따라 프로세서는, 하나 이상의 인스트럭션을 실행함으로써, 생성된 배경 이미지가 표시된 디스플레이 장치의 화면 및 디스플레이 장치의 주변 영역을 획득하도록 상기 카메라를 제어하고, 주변 영역의 속성을 이용하여 상기 화면에 표시된 배경 이미지의 속성을 조정하고, 속성이 조정된 배경 이미지를 디스플레이 장치로 전송할 수 있다.
일 실시예에 따라 전자 장치의 동작 방법은, 디스플레이 장치의 화면에 하나 이상의 마커가 표시되도록 지시하는 이벤트를 발생하여 상기 디스플레이 장치로 전송하는 동작, 상기 발생된 이벤트에 따라 상기 디스플레이 장치의 화면에 표시된 상기 하나 이상의 마커를 이용하여 상기 디스플레이 장치 주변의 벽면의 적어도 일부 영역의 이미지를 캡쳐하는 동작, 상기 획득된 이미지를 기초로 상기 디스플레이 장치의 화면에 표시될 배경 이미지를 생성하는 동작, 및 상기 생성된 배경 이미지가 상기 디스플레이 장치의 화면에 표시될 수 있도록 상기 생성된 배경 이미지를 상기 디스플레이 장치로 전송하는 동작을 포함한다.
일 실시예에 따라 디스플레이 장치의 동작 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 개시된다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 명세서의 실시예에서 "사용자"라는 용어는 제어 장치를 이용하여 영상 표시 장치의 기능 또는 동작을 제어하는 사람을 의미하며, 시청자, 관리자 또는 설치 기사를 포함할 수 있다.
도 1은 실시예들에 따라 디스플레이 장치에 벽면 이미지를 표시하는 개념을 설명하기 위한 참고도이다.
도 1을 참조하면, 벽면 10에 디스플레이 장치 200가 설치되어 있다. 실시예에 따른 디스플레이 장치 200는, 사용자의 입력에 따라 컨텐츠를 표시하는 디스플레이 장치 200의 일반적인 동작 모드 이외의 상태에서, 벽면 10의 일부의 이미지 11를 표시할 수 있다. 사용자가 디스플레이 장치 200를 조작하여 사용하지 않는 상태에서, 디스플레이 장치 200가 벽면 10의 일부의 이미지 11를 표시함으로써 디스플레이 장치 200가 설치된 환경의 심미감을 증대시킬 수 있다. 또한, 디스플레이 장치 200의 베젤 201을 더욱 슬림하게 하거나 또는 베젤 201을 사람의 눈에 인식되지 않는 색상으로 구현함으로써, 디스플레이 장치 200가 동작하지 않는 동안 마치 벽면 11에 디스플레이 장치 200가 존재하지 않는 것과 같은 경험을 사용자에게 제공할 수 있다. 이와 같은 효과를 제공하는 티브이를 글래스 티브이 (Glass TV)로 언급될 수 있다.
이와 같이 디스플레이 장치 200가 벽면의 이미지 11를 표시할 때 실제 벽면 10과 디스플레이 장치 200에 표시된 벽면의 이미지 11가 자연스럽게 이어지도록 표현이 될수록 사용자에게 디스플레이 장치 200가 벽면인 것처럼 실감이 나도록 경험하게 할 수 있다. 디스플레이 장치 200가 벽면 10에 설치된 이후에는 디스플레이 장치 200에 의해 가려진 벽면 10의 부분을 확인하기 어려우므로, 디스플레이 장치 200가 벽면 10에 설치된 상태에서 디스플레이 장치 200에 의해 표시되는 벽면의 이미지 11를 될 수 있는 한 디스플레이 장치 200의 주변 영역과 자연스럽게 이어질 수 있도록 표현하는 것이 중요하다.
도 2는 일 실시예에 따라 디스플레이 장치에 벽면 이미지를 표시하는 방법을 설명하기 위한 참고도이다.
도 2를 참조하면, 벽면 10에 설치된 디스플레이 장치 200는 하나 이상의 마커 21를 표시할 수 있다. 디스플레이 장치 200는 모바일 장치 100로부터의 요청에 따라 마커를 표시할 수 있다. 디스플레이 장치 200는 마커의 표시 위치 즉, 화면의 오른쪽, 왼쪽, 상단, 하단 중 하나에 대한 정보를 모바일 장치 100로부터 수신하여 마커를 표시할 수 있다. 도 2는 모바일 장치 100로부터 화면의 오른쪽에 마커를 표시하라는 요청을 받은 경우에 해당한다.
모바일 장치 100는 디스플레이 장치 200에 마커의 표시 위치에 대한 정보를 디스플레이 장치 200으로 제공할 수 있다. 도 2의 경우는 모바일 장치 100가 디스플레이 장치 200에 마커 21를 오른쪽 영역에 표시하라는 요청을 제공한 상태이고, 이 때 디스플레이 장치 200의 오른쪽 벽 이미지를 캡처하기 위해 모바일 장치는 가이드 23를 모바일 장치 100의 화면의 왼쪽 영역에 표시할 수 있다
모바일 장치 100는 디스플레이 장치 200의 주변 벽면중 어느 영역을 캡쳐할 것인지에 대한 선택을 사용자로부터 수신할 수 있다. 예를 들어, 사용자가 디스플레이 장치 200의 주변 벽면중 캡쳐하기를 희망하는 영역으로 오른쪽 벽면 영역을 선택하면, 모바일 장치 100는 디스플레이 장치의 오른쪽 벽면 영역을 캡쳐할 수 있도록 하기 위해 마커 21를 디스플레이 장치 화면의 오른쪽에 표시하라는 정보를 디스플레이 장치 200로 전송할 수 있다. 또한 디스플레이 장치 200에 표시된 마커와의 매칭을 위한 가이드 23를 모바일 장치 100 화면의 왼쪽에 표시할 수 있다.
모바일 장치 100는 모바일 장치 100의 디스플레이에 하나 이상의 가이드를 표시할 수 있다. 모바일 장치 100는 하나 이상의 가이드 23 및 디스플레이 장치 200에 표시된 하나 이상의 마커 21를 이용하여 벽면 10의 일부 영역의 이미지를 캡쳐할 수 있다. 예를 들어, 사용자가 모바일 장치 100를 움직여서 모바일 장치 100의 가이드 23가 디스플레이 장치 200에 표시된 마커 21에 위치되는 경우 모바일 장치 100는 벽면의 이미지 22를 캡쳐할 수 있다. 가이드 23가 마커 21에 위치되는 경우, 모바일 장치 100는 모바일 장치 100가 캡쳐하는 영역의 오른쪽 부분 24에 디스플레이 장치 200의 오른쪽 주변 영역 22의 이미지가 들어오게 되므로, 모바일 장치 100는 벽면 10의 일부 영역 22를 캡쳐할 수 있다. 영역 22는 디스플레이 장치 200의 오른쪽 주변 영역이므로, 모바일 장치 100는 캡쳐한 영역 22의 이미지를 이용하여 적절한 처리를 함으로써 디스플레이 장치 200에 표시될 벽면 이미지 즉, 배경 이미지를 생성할 수 있다. 또한 영역 22는 디스플레이 장치 200에 바로 인접한 영역이므로, 이 영역 22의 이미지를 이용하여 디스플레이 장치 200에 표시될 배경 이미지를 생성하면 디스플레이 장치 200의 주변 영역과 보다 자연스럽게 이어지는 듯한 이미지를 생성할 수 있다.
도 2에서 캡쳐하는 디스플레이 장치 200의 우측 영역 22는 일 예를 나타내는 것이고, 캡쳐하는 영역은 디스플레이 장치 200의 좌측 영역, 상측 영역, 하측 영역 어느 위치라도 될 수 있다.
도 3은 실시예들에 따라 디스플레이 장치에 벽면의 이미지를 표시하기 위한 시스템의 일 예를 설명하기 위한 개략도이다.
도 3을 참조하면, 일 실시예에 따라 시스템은 모바일 장치 100, 디스플레이 장치 200, 서버 300을 포함할 수 있다. 모바일 장치 100, 디스플레이 장치 200, 서버 300은 서로 통신 네트워크 30를 통해 통신할 수 있다. 통신 네트워크 30은 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 통신 규격에 따른 광대역 네트워크 망을 포함할 수 있다.
모바일 장치 100는 서버 300 를 통해 디스플레이 장치 200로부터 또는 서버 300로부터 디스플레이 장치 200에 대한 정보, 구체적으로는 화면 사이즈 정보를 수신하여 이를 기초로 마커 표시 이벤트를 생성할 수 있다.
마커 표시 이벤트는 서버 300를 통해 디스플레이 장치 200로 전달되고, 디스플레이 장치 200는 마커 표시 이벤트를 수신하면 이에 기초하여 화면에 하나 이상의 마커를 표시할 수 있다. 마커는 디스플레이 장치 200의 화면상의 다양한 위치에 표시될 수 있다.
모바일 장치 100는 디스플레이 장치 200에 표시된 마커를 이용하여 디스플레이 장치 200 주변의 벽면의 이미지를 캡쳐할 수 있다. 모바일 장치 100는 디스플레이 장치 200의 화면에 표시된 마커의 위치에 따라 디스플레이 장치 200의 주변의 영역의 이미지를 캡쳐할 수 있다. 예를 들어 마커가 디스플레이 장치 200의 왼쪽 반 화면에 표시되는 경우 모바일 장치 100는 디스플레이 장치 200의 좌측 인접 영역의 이미지를 캡쳐할 수 있다.
모바일 장치 100는 캡쳐된 원래 이미지와 원래 이미지를 대칭시킨 대칭 이미지를 이용하여 디스플레이 장치 200에 표시될 배경 이미지를 생성하고, 생성된 배경 이미지를 서버 300를 통해 디스플레이 장치 200로 전송할 수 있다.
디스플레이 장치 200는 서버 300를 통해 배경 이미지를 수신하면, 배경 이미지를 화면에 표시할 수 있다.
도 4는 실시예들에 따라 디스플레이 장치에 벽면의 이미지를 표시하기 위한 시스템의 다른 예를 설명하기 위한 개략도이다.
도 4를 참조하면, 일 실시예에 따라 시스템은 모바일 장치 100와 디스플레이 장치 200 를 포함할 수 있다. 모바일 장치 100와 디스플레이 장치 200은 서로 근거리 통신 방법 등을 통해 통신할 수 있다. 근거리 통신 방법은 블루투스, BLE (bluetooth low energy), 와이파이, 와이파이 다이렉트, NFC(Near Field Communication), 적외선 통신, 레이저 빔 통신 등 근거리 통신 프로토콜 등을 이용할 수 있다.
서버를 통하지 않기 때문에 모바일 장치 100는 디스플레이 장치 200로부터 직접 디스플레이 장치 200의 화면 정보를 수신하고 이에 따라 생성된 마커 표시 이벤트를 디스플레이 장치 200로 직접 전달할 수 있다.
디스플레이 장치 200는 마커 표시 이벤트에 따라 화면에 하나 이상의 마커를 표시하고, 모바일 장치 100는 디스플레이 장치 200의 화면에 표시된 마커를 이용하여 디스플레이 장치 200의 주변 벽면 이미지를 캡쳐하고, 캡쳐된 이미지를 이용하여 배경 이미지를 생성하고, 생성된 배경 이미지를 디스플레이 장치 200으로 전송할 수 있다.
디스플레이 장치 200는 배경 이미지를 수신하고 이를 화면에 표시할 수 있다.
도 5는 일 실시예에 따라 모바일 장치 100, 디스플레이 장치 200, 서버 300의 블록도이다.
디스플레이 장치 200는 다양한 소오스를 통해 수신되는 컨텐츠 데이터를 처리하여 영상을 표시할 수 있다. 디스플레이 장치 200는 RF 안테나를 이용하여 방송국으로부터 RF 신호를 수신할 수 있다. 디스플레이 장치 200는 인터넷 프로토콜 기반으로 통신 네트워크를 통하여 컨텐츠 제공 서버가 제공하는 컨텐츠를 수신할 수 있다. 디스플레이 장치 200는 다양한 포트나 HDMI를 통해 디스플레이 장치 200에 연결되는 외부 장치로부터 컨텐츠를 수신할 수 있다. 외부 장치는 예를 들어, 셋탑박스, 게임 장치, BD 플레이어, PC, USB 등을 포함할 수 있다. 그 외에도 디스플레이장치 200는 통신 가능하게 접속된 모바일 장치로부터 컨텐츠를 수신할 수 있으며, 자체적으로 내장되거나 또는 로컬 접속된 메모리로부터 컨텐츠 데이터를 취득할 수도 있다.
디스플레이 장치 200는 디스플레이 210, 통신 인터페이스 220, 감지부 230, 제어부 240를 포함할 수 있다.
디스플레이210는 제어부240의 제어에 의해 다양한 소오스를 통해 수신되는 컨텐츠를 화면에 표시한다. 다양한 소오스는 예를 들어, 통신 인터페이스 220, 메모리 250, 입/출력부를 포함할 수 있다. 디스플레이 210는 PDP, LCD, OLED, 플렉시블 디스플레이(flexible display)등으로 구현될 수 있으며, 또한, 3차원 디스플레이(3D display)로 구현될 수 있다. 또한, 디스플레이 210는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.
통신 인터페이스 220는 제어부 240의 제어에 의해 디스플레이 장치 200를 외부 장치, 예를 들어, 모바일 장치 100 이나 서버 300과 연결할 수 있다. 통신 인터페이스 220는 디스플레이 장치의 성능 및 구조에 대응하여 무선 랜, 블루투스, 및 유선 이더넷 중 하나 또는 그 조합을 포함할 수 있다. 통신 인터페이스 220는 블루투스 외에 다른 근거리 통신, 예를 들어, NFC(near field communication,), BLE (bluetooth low energy)를 더 포함할 수 있다.
감지부230는 사용자의 음성, 사용자의 영상 또는 사용자의 인터랙션을 감지하며, 사용자의 발화(utterance)된 음성을 수신하는 마이크, 카메라 인식 범위에서 제스처를 포함하는 사용자의 모션에 대응되는 영상을 수신할 수 있는 카메라부 및 사용자 입력에 따라 외부의 원격 제어 장치로부터 수신되는 광 신호(제어 신호를 포함)를 수신하는 광 수신부를 포함할 수 있다. 감지부 230은 광 수신부를 통해 원격 제어 장치로부터의 명령 또는 제어 신호를 감지하고, 감지된 명령 또는 제어 신호를 제어부 240로 전송한다. 원격 제어 장치는 리모트 콘트롤러 또는 휴대폰과 같이 디스플레이 장치200를 제어하기 위한 다양한 형태의 장치로 구현될 수 있다.
메모리 250는 제어부 240의 제어에 의해 디스플레이 장치 200를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 메모리 250는 디스플레이 장치 200 및 제어부의 제어를 위한 오퍼레이팅 시스템, 제조사에서 최초 제공되거나 외부에서부터 다운로드 받은 어플리케이션, 어플리케이션과 관련된 GUI(graphical user interface), GUI를 제공하기 위한 오브젝트(예를 들어, 이미지 텍스트, 아이콘, 버튼 등), 사용자 정보, 문서, 데이터베이스들 또는 관련 데이터들을 저장할 수 있다.
메모리 250는, 롬, 램 또는 디스플레이 장치 200에 장착되는 메모리 카드(예를 들어, micro SD 카드, USB 메모리, 도시되지 아니함)를 포함한다. 또한, 메모리 200는 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
특히 일 실시예에 따라 메모리 250는 모바일 장치 100 또는 서버 300의 요청에 따라 디스플레이 장치 200에 관한 정보를 전송하는 하나 이상의 인스트럭션을 포함할 수 있다. 디스플레이 장치 200에 관한 정보는 디스플레이 장치 200의 사이즈 정보, 구체적으로 화면 사이즈 정보를 포함할 수 있다.
일 실시예에 따라 메모리 250는 모바일 장치 100 또는 서버 300로부터 마커 표시 이벤트를 수신하고, 이 마커 표시 이벤트에 따라 하나 이상의 마커를 디스플레이에 표시하는 하나 이상의 인스트럭션을 포함할 수 있다.
일 실시예에 따라 메모리 250는 모바일 장치 100 또는 서버 300로부터 배경 이미지를 수신하고, 이 배경 이미지를 디스플레이에 표시하는 하나 이상의 인스트럭션을 포함할 수 있다. 배경 이미지는 디스플레이 장치 200가 설치된 벽면의 주변 영역을 이용하여 생성된 이미지를 포함할 수 있다.
제어부 240는 디스플레이 장치 200의 전반적인 동작 및 디스플레이 장치 200의 내부 구성 요소들 사이의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. 제어부 240는 사용자의 입력이 있거나 기 설정되어 저장된 조건을 만족하는 경우, 메모리 250에 저장된 OS(Operation System) 및 다양한 애플리케이션을 실행할 수 있다.
제어부 240에 이용되는 프로세서는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit, 도시되지 아니함)를 포함할 수 있다. 프로세서는 코어(core, 도시되지 아니함)와 GPU(도시되지 아니함)를 통합한 SoC(System On Chip)로 구현될 수 있다. 프로세서는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다.
또한, 프로세서는 복수의 프로세서를 포함할 수 있다. 예를 들어, 프로세서는 메인 프로세서(main processor, 도시되지 아니함) 및 슬립 모드(sleep mode)에서 동작하는 서브 프로세서(sub processor, 도시되지 아니함)로 구현될 수 있다.
일 실시예에 따른 제어부 240은 메모리 250에 저장된 하나 이상의 인스트럭션을 실행함으로써, 모바일 장치 100 또는 서버 300의 요청에 따라 디스플레이 장치 200에 관한 정보를 전송할 수 있다.
일 실시예에 따른 제어부 240은 메모리 250에 저장된 하나 이상의 인스트럭션을 실행함으로써, 모바일 장치 100 또는 서버 300로부터 마커 표시 이벤트를 수신하고, 이 마커 표시 이벤트에 따라 하나 이상의 마커를 디스플레이에 표시할 수 있다.
일 실시예에 따른 제어부 240은 메모리 250에 저장된 하나 이상의 인스트럭션을 실행함으로써, 모바일 장치 100 또는 서버 300로부터 배경 이미지를 수신하고, 이 배경 이미지를 디스플레이에 표시할 수 있다.
디스플레이 장치 200는 제어부 240의 제어에 의해 디스플레이 장치 200의 외부에서부터 비디오(예를 들어, 동영상 등), 오디오(예를 들어, 음성, 음악 등) 및 부가 정보(예를 들어, EPG 등) 등을 수신하는 입/출력부를 더 포함할 수 있다. 입/출력부는 HDMI 포트 (High-Definition Multimedia Interface port), 컴포넌트 잭 (component jack), PC 포트, 및 USB 포트 중 하나 또는 그 조합을 포함할 수 있다. 일 실시예에 따른 디스플레이 장치200는 TV일 수 있으나, 이는 일 실시예에 불과하며, 디스플레이를 포함하는 전자 장치로 구현될 수 있다. 예를 들어, 디스플레이 장치200는 데스크탑, 디지털 방송용 단말기 등과 같은 다양한 전자 장치로 구현될 수 있다. 디스플레이 장치200는 평면(flat) 디스플레이 장치 뿐만 아니라, 곡률을 가지는 화면인 곡면(curved) 디스플레이 장치 또는 곡률을 조정 가능한 가변형(flexible) 디스플레이 장치로 구현될 수 있다.
또한, 디스플레이 장치 200는 튜너부를 가지는 별도의 외부 장치(예를 들어, 셋탑 박스, 도시되지 아니함)와 전기적으로 연결될 수 있다. 예를 들어, 디스플레이 장치 200는 아날로그 TV, 디지털 TV, 3D-TV, 스마트 TV, LED TV, OLED TV, 플라즈마 TV, 모니터 등으로 구현될 수 있으나, 이에 한정되지 않는다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
한편, 도시된 디스플레이 장치 200의 블록도는 일 실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 디스플레이 장치 200의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 실시예들을 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
서버 300는 사용자(클라이언트)의 요청에 의하여 서비스를 제공하는 서버 프로그램이 실행되고 있는 컴퓨팅 장치이다.
서버 300는 통신 인터페이스 310과 제어부 320를 포함할 수 있다.
통신 인터페이스 310는 제어부 320의 제어에 의해 서버 300를 외부 장치, 예를 들어, 모바일 장치 100 이나 디스플레이 장치 200과 연결할 수 있다. 통신 인터페이스 220는 디스플레이 장치의 성능 및 구조에 대응하여 무선 랜, 블루투스, 및 유선 이더넷 중 하나 또는 그 조합을 포함할 수 있다.
메모리 330는 제어부 320의 제어에 의해 서버 300를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 메모리 330는 서버 300 및 제어부의 제어를 위한 오퍼레이팅 시스템, 제조사에서 최초 제공되거나 외부에서부터 다운로드 받은 어플리케이션, 어플리케이션과 관련된 GUI(graphical user interface), GUI를 제공하기 위한 오브젝트(예를 들어, 이미지 텍스트, 아이콘, 버튼 등), 사용자 정보, 문서, 데이터베이스들 또는 관련 데이터들을 저장할 수 있다.
메모리 330는, 롬, 램 또는 서버 300에 장착되는 메모리 카드(예를 들어, micro SD 카드, USB 메모리, 도시되지 아니함)를 포함한다. 또한, 메모리 330는 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
특히 일 실시예에 따라 메모리 330는 모바일 장치 100 의 요청에 따라 가정내의 하나 이상의 디바이스를 제어하기 위한 어플리케이션을 모바일 장치 100로 전송하는 하나 이상의 인스트럭션을 포함할 수 있다. 디바이스 제어 어플리케이션은 디스플레이 장치 200를 제어하는데 이용될 수 있으며, 특히, 디스플레이 장치 200의 배경 이미지를 설정하는 하나 이상의 인스트럭션을 포함할 수 있다.
일 실시예에 따라 메모리 330는 모바일 장치 100 의 요청에 따라 디스플레이 장치 200에 관한 정보를 전송하는 하나 이상의 인스트럭션을 포함할 수 있다. 디스플레이 장치 200에 관한 정보는 디스플레이 장치 200의 사이즈 정보, 구체적으로 화면 사이즈 정보를 포함할 수 있다.
일 실시예에 따라 메모리 330는 모바일 장치 100 로부터 마커 표시 이벤트를 수신하고, 이 마커 표시 이벤트를 디스플레이 장치 200로 전달하는 하나 이상의 인스트럭션을 포함할 수 있다.
일 실시예에 따라 메모리 330는 모바일 장치 100 로부터 배경 이미지를 수신하고, 이 배경 이미지를 디스플레이 장치 200로 전달하는 하나 이상의 인스트럭션을 포함할 수 있다. 배경 이미지는 디스플레이 장치 200가 설치된 벽면의 주변 영역을 이용하여 생성된 이미지를 포함할 수 있다.
제어부 320는 서버 300의 전반적인 동작 및 서버 300의 내부 구성 요소들 사이의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. 제어부 320는 사용자의 입력이 있거나 기 설정되어 저장된 조건을 만족하는 경우, 메모리 250에 저장된 OS(Operation System) 및 다양한 애플리케이션을 실행할 수 있다.
제어부 320에 이용되는 프로세서는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit, 도시되지 아니함)를 포함할 수 있다. 프로세서는 코어(core, 도시되지 아니함)와 GPU(도시되지 아니함)를 통합한 SoC(System On Chip)로 구현될 수 있다. 프로세서는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다.
또한, 프로세서는 복수의 프로세서를 포함할 수 있다. 예를 들어, 프로세서는 메인 프로세서(main processor, 도시되지 아니함) 및 슬립 모드(sleep mode)에서 동작하는 서브 프로세서(sub processor, 도시되지 아니함)로 구현될 수 있다.
일 실시예에 따른 제어부 320은 메모리 330에 저장된 하나 이상의 인스트럭션을 실행함으로써, 모바일 장치 100 의 요청에 따라 가정내의 하나 이상의 디바이스를 제어하기 위한 어플리케이션을 모바일 장치 100로 전송할 수 있다. 디바이스 제어 어플리케이션은 디스플레이 장치 200를 제어하는데 이용될 수 있으며, 특히, 디스플레이 장치 200의 배경 이미지를 설정하는 하나 이상의 인스트럭션을 포함할 수 있다.
일 실시예에 따른 제어부 320은 메모리 330에 저장된 하나 이상의 인스트럭션을 실행함으로써, 모바일 장치 100 의 요청에 따라 디스플레이 장치 200에 관한 정보를 전송할 수 있다. 디스플레이 장치 200에 관한 정보는 디스플레이 장치 200의 사이즈 정보, 구체적으로 화면 사이즈 정보를 포함할 수 있다.
일 실시예에 따른 제어부 320은 메모리 330에 저장된 하나 이상의 인스트럭션을 실행함으로써, 모바일 장치 100 로부터 마커 표시 이벤트를 수신하고, 이 마커 표시 이벤트를 디스플레이 장치 200로 전달할 수 있다.
일 실시예에 따른 제어부 320은 메모리 330에 저장된 하나 이상의 인스트럭션을 실행함으로써, 모바일 장치 100 로부터 배경 이미지를 수신하고, 이 배경 이미지를 디스플레이 장치 200로 전달할 수 있다. 배경 이미지는 디스플레이 장치 200가 설치된 벽면의 주변 영역을 이용하여 생성된 이미지를 포함할 수 있다.
모바일 장치 100는 디스플레이 장치 200가 설치된 벽면의 이미지를 캡쳐하고 캡쳐된 이미지를 기초로 디스플레이 장치 200의 화면에 표시될 배경 이미지를 생성한 다음 이를 서버 300를 통해 디스플레이 장치 200으로 전송할 수 있다
모바일 장치 100는 이미징 센서 회로 110, 통신 인터페이스 120, 디스플레이 130, 메모리 140, 제어부 150를 포함할 수 있다.
이미징 센서 회로 110는 이미징 센서의 인식 범위에서 제스처를 포함하는 사용자의 모션에 대응되는 영상(예를 들어, 연속되는 프레임)을 수신할 수 있다. 이미징 센서 회로 110는 카메라로 구현될 수 있다. 일 실시예에 따른 이미징 센서 회로 110는, 디스플레이 장치 200에 의 해 표시될 벽면을 나타내는 이미지를 캡쳐할 수 있다.
통신 인터페이스 120는 제어부150의 제어에 의해 모바일 장치 100를 외부 장치, 예를 들어, 디스플레이 장치 200이나 서버 300과 연결할 수 있다. 통신 인터페이스 120는 모바일 장치의 성능 및 구조에 대응하여 무선 랜, 블루투스, 및 유선 이더넷 중 하나 또는 그 조합을 포함할 수 있다. 통신 인터페이스 120는 구체적으로 이동통신부와 서브통신부를 포함할 수 있다.
이동 통신부는 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 통신 규격에 따라 광대역 네트워크 통신을 수행한다. 이동 통신부는 서버 300와의 통신에 이용될 수 있다.
서브 통신부는 블루투스, BLE (bluetooth low energy), 와이파이, NFC(Near Field Communication), 적외선 통신, 레이저 빔 통신 등 근거리 통신 프로토콜을 이용하여 주변 기기와 통신을 수행한다. 서브 통신부는 디스플레이 장치 200과의 통신에 이용될 수 있다.
디스플레이130는 제어부150의 제어에 의해 다양한 소오스를 통해 수신되는 컨텐츠를 화면에 표시한다. 다양한 소오스는 예를 들어, 통신 인터페이스 120, 메모리 140, 입/출력부를 포함할 수 있다. 또한, 디스플레이130는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.
메모리 140는 제어부 150의 제어에 의해 모바일 장치 100를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 메모리 140는 모바일 장치 100 및 제어부의 제어를 위한 오퍼레이팅 시스템, 제조사에서 최초 제공되거나 외부에서부터 다운로드 받은 어플리케이션, 어플리케이션과 관련된 GUI(graphical user interface), GUI를 제공하기 위한 오브젝트(예를 들어, 이미지 텍스트, 아이콘, 버튼 등), 사용자 정보, 문서, 데이터베이스들 또는 관련 데이터들을 저장할 수 있다.
메모리 140는, 롬, 램 또는 모바일 장치 100에 장착되는 메모리 카드(예를 들어, micro SD 카드, USB 메모리, 도시되지 아니함)를 포함한다.
특히 일 실시예에 따라 메모리 140는 서버 300로 가정내 디바이스를 제어하기 위한 어플리케이션의 다운로드 요청을 전송하고, 이에 따라 디바이스 제어 어플리케이션을 수신하여 저장하는 하나 이상의 인스트럭션을 포함할 수 있다. 디바이스 제어 어플리케이션은 디스플레이 장치 200의 제어를 위한 하나 이상의 인스트럭션, 특히 디스플레이 장치 200의 배경 이미지를 설정하는데 이용되는 하나 이상의 인스트럭션을 포함할 수 있다.
일 실시예에 따라 메모리 140는 모바일 장치 100 또는 서버 300로 디스플레이 장치 200에 관한 정보를 전송하는 하나 이상의 인스트럭션을 포함할 수 있다. 디스플레이 장치 200에 관한 정보는 디스플레이 장치 200의 사이즈 정보, 구체적으로 화면 사이즈 정보를 포함할 수 있다.
일 실시예에 따라 메모리 140는 디스플레이 장치 200에 관한 정보를 이용하여 마커 표시 이벤트를 생성하고, 이 마커 표시 이벤트를 모바일 장치 100 또는 서버 300로 전송하는 하나 이상의 인스트럭션을 포함할 수 있다. 마커 표시 이벤트는 디스플레이 장치 200의 화면 사이즈에 따라 디스플레이 장치의 화면에 표시될 하나 이상의 마커의 위치 정보를 포함할 수 있다.
일 실시예에 따라 메모리 140는 마커 표시 이벤트에 따라 디스플레이 장치 200의 화면에 표시된 하나 이상의 마커를 이용하여 디스플레이 장치 200가 설치된 벽면의 일부 이미지를 캡쳐하고, 캡쳐된 이미지를 프로세싱하여 디스플레이 장치 200의 화면에 표시될 배경 이미지를 생성하고, 이 배경 이미지를 디스플레이 장치 200나 서버 300로 전송하는 하나 이상의 인스트럭션을 포함할 수 있다.
제어부 150는 모바일 장치 100의 전반적인 동작 및 모바일 장치 100의 내부 구성 요소들 사이의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. 제어부 150는 사용자의 입력이 있거나 기 설정되어 저장된 조건을 만족하는 경우, 메모리 140에 저장된 OS(Operation System) 및 다양한 애플리케이션을 실행할 수 있다.
제어부 150에 이용되는 프로세서는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit, 도시되지 아니함)를 포함할 수 있다. 프로세서는 코어(core, 도시되지 아니함)와 GPU(도시되지 아니함)를 통합한 SoC(System On Chip)로 구현될 수 있다. 프로세서는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다.
또한, 프로세서는 복수의 프로세서를 포함할 수 있다. 예를 들어, 프로세서는 메인 프로세서(main processor, 도시되지 아니함) 및 슬립 모드(sleep mode)에서 동작하는 서브 프로세서(sub processor, 도시되지 아니함)로 구현될 수 있다.
일 실시예에 따른 제어부 150은 메모리 140에 저장된 하나 이상의 인스트럭션을 실행함으로써, 서버 300로 가정내 디바이스를 제어하기 위한 어플리케이션의 다운로드 요청을 전송하고, 이에 따라 디바이스 제어 어플리케이션을 수신하여 저장할 수 있다. 디바이스 제어 어플리케이션은 디스플레이 장치 200의 제어를 위한 하나 이상의 인스트럭션, 특히 디스플레이 장치 200의 배경 이미지를 설정하는데 이용되는 하나 이상의 인스트럭션을 포함할 수 있다.
일 실시예에 따른 제어부 150은 메모리 140에 저장된 하나 이상의 인스트럭션을 실행함으로써, 모바일 장치 100 또는 서버 300로 디스플레이 장치 200에 관한 정보를 전송할 수 있다. 디스플레이 장치 200에 관한 정보는 디스플레이 장치 200의 사이즈 정보, 구체적으로 화면 사이즈 정보를 포함할 수 있다.
일 실시예에 따른 제어부 150은 메모리 140에 저장된 하나 이상의 인스트럭션을 실행함으로써, 디스플레이 장치 200에 관한 정보를 이용하여 마커 표시 이벤트를 생성하고, 이 마커 표시 이벤트를 모바일 장치 100 또는 서버 300로 전송할 수 있다. 마커 표시 이벤트는 디스플레이 장치 200의 화면 사이즈에 따라 디스플레이 장치의 화면에 표시될 하나 이상의 마커의 위치 정보를 포함할 수 있다.
일 실시예에 따른 제어부 150은 메모리 140에 저장된 하나 이상의 인스트럭션을 실행함으로써, 마커 표시 이벤트에 따라 디스플레이 장치 200의 화면에 표시된 하나 이상의 마커를 이용하여 디스플레이 장치 200가 설치된 벽면의 일부 이미지를 캡쳐하고, 캡쳐된 이미지를 프로세싱하여 디스플레이 장치 200의 화면에 표시될 배경 이미지를 생성하고, 이 배경 이미지를 디스플레이 장치 200나 서버 300로 전송할 수 있다.
한편, 도시된 모바일 장치 100의 블록도는 일 실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 모바일 장치 100의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 실시예들을 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
일 실시예에 따른 모바일 장치 100는 휴대폰, 태블릿 PC, 디지털 카메라, 캠코더, 노트북 컴퓨터(laptop computer), 태블릿 PC, 전자책 단말기, 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, MP3 플레이어, 착용형 기기(wearable device) 등과 같은 다양한 전자 장치로 구현될 수 있다.
도 6은 일 실시예에 따른 모바일 장치의 동작 방법을 나타낸다.
도 6을 참조하면, S610에서, 모바일 장치 100는 디스플레이 장치 200의 화면에 하나 이상의 마커가 표시되도록 지시하는 이벤트를 발생하여 디스플레이 장치 200로 전송한다.
일 실시예에 따라 모바일 장치 100는 디스플레이 장치 200의 화면 사이즈 정보를 참조하여 디스플레이 장치 200의 화면에 표시될 하나 이상의 마커의 위치를 결정할 수 있다.
일 실시예에 따라 모바일 장치 100는 디스플레이 장치 200의 화면 사이즈 정보를 사용자로부터 입력받거나, 디스플레이 장치 200로부터 수신하거나 또는 서버 300로부터 수신할 수 있다.
일 실시예에 따라 모바일 장치 100는 결정된 마커의 위치를 포함하는 마커 표시 이벤트를 발생하고 이를 디스플레이 장치 200로 전송할 수 있다.
일 실시예에 따라 모바일 장치 100는 마커 표시 이벤트를 디스플레이 장치 200로 직접 전송하거나 또는 서버 300를 통해서 디스플레이 장치 200로 전송할 수 있다.
S620에서, 모바일 장치 100는, 발생된 마커 표시 이벤트에 따라 디스플레이 장치의 화면에 표시된 하나 이상의 마커를 이용하여 디스플레이 장치 200 주변의 벽면의 적어도 일부 영역의 이미지를 캡쳐한다.
일 실시예에 따라 모바일 장치 100는 디스플레이 장치의 화면에 표시된 하나 이상의 마커 및 모바일 장치의 디스플레이에 표시된 하나 이상의 가이드를 이용하여 디스플레이 장치 200 주변의 벽면의 적어도 일부 영역의 이미지를 캡쳐할 수 있다.
S630에서, 모바일 장치 100는, 캡쳐된 이미지를 기초로 디스플레이 장치 200의 화면에 표시될 배경 이미지를 생성한다.
일 실시예에 따라 모바일 장치 100는 캡쳐된 원래 이미지 및 캡쳐된 원래 이미지의 대칭 이미지를 이용하여 배경 이미지를 생성할 수 있다.
S640에서, 모바일 장치 100는, 생성된 배경 이미지가 디스플레이 장치의 화면에 표시될 수 있도록 생성된 배경 이미지를 디스플레이 장치로 전송한다.
일 실시예에 따라 모바일 장치 100는, 생성된 배경 이미지를 디스플레이 장치 200로 직접 전송하거나 또는 서버 300를 통해서 디스플레이 장치 200로 전송할 수 있다.
도 7은 일 실시예에 따라 디스플레이 장치가 설치된 벽면의 이미지를 이용하여 디스플레이 장치에 배경 이미지를 표시하기 위한 모바일 장치, 서버, 디스플레이 장치의 동작을 나타내는 흐름도이다.
도 7을 참조하면, S705에서, 모바일 장치 100는 디바이스 제어 어플리케이션을 다운로드하여 설치하고 S710에서 서버 300는 디바이스 제어 어플리케이션을 모바일 장치 100으로 전송한다.
모바일 장치 100는 디바이스 제어 어플리케이션을 서버 300에 다운로드 요청하면 서버는 디바이스 제어 어플리케이션을 모바일 장치 100로 전송하고, 모바일 장치 100는 디바이스 제어 어플리케이션을 수신하여 설치할 수 있다. 디바이스 제어 어플리케이션은 가정 내 다양한 디바이스들, 예를 들어, 냉장고, 디스플레이 장치, 세탁기, 오디오 장치 등을 제어하기 위한 어플리케이션을 포함할 수 있다.
S715에서, 모바일 장치 100는 설치된 디바이스 제어 어플리케이션을 실행할 수 있다.
S720에서, 모바일 장치 100는 배경 화면 설정 메뉴를 선택하는 사용자 입력을 수신할 수 있다.
도 8은 일 실시예에 따라 모바일 장치 100가 디바이스 제어 어플리케이션을 실행하여 제공하는 사용자 인터페이스를 설명한다.
도 8을 참조하면, 모바일 장치 100에 의해 실행된 디바이스 제어 어플리케이션의 제1 사용자 인터페이스 810는 제어할 기기를 선택하는 사용자 입력을 수신할 수 있다. 제1사용자 인터페이스 810는 제어할 기기로서 디스플레이 장치 811, 오디오 장치 812, 세탁기 813, 냉장고 814 를 표시할 수 있고, 사용자는 표시된 기기 중 하나를 선택할 수 있다.
사용자에 의해 디스플레이 장치 811이 선택된 경우 모바일 장치 100는 제2사용자 인터페이스 820를 출력할 수 있다. 제2사용자 인터페이스 820는 디스플레이 장치의 제어와 관련된 메뉴 아이템들을 표시할 수 있고, 아이템들 중 하나는 배경 화면 설정 아이템 821을 포함할 수 있다. 배경 화면 설정 아이템 821은 디스플레이 장치가 사용자 조작에 의해 동작하지 않는 동안 디스플레이 장치가 설치된 벽면의 이미지와 동일한 이미지를 표시할 수 있도록 설정을 가능하게 하는 메뉴 아이템이다.
사용자에 의해 배경화면 설정 아이템 821이 선택된 경우 모바일 장치 100는 제3 사용자 인터페이스 830을 출력할 수 있다. 제3사용자 인터페이스 830는 디스플레이 장치 모델명을 입력할 수 있는 입력창 831을 포함할 수 있다. 모바일 장치 100는 입력창 831을 통해서 디스플레이 장치 모델명을 입력받을 수 있다.
다시 S725에서, 모바일 장치 100는 디스플레이 장치의 화면 정보를 요청하고 획득할 수 있다. 디스플레이 장치의 화면 정보는 디스플레이 장치 200의 디스플레이 화면의 사이즈를 포함한다. 디스플레이 장치의 화면 정보는 디스플레이 장치의 화면에 표시할 하나 이상의 마커의 위치를 결정하는데 이용될 수 있다. 디스플레이 장치의 화면 정보는 디스플레이 장치의 제품 정보에 포함될 수 있으며, 디스플레이 장치의 모델 명을 이용하여 획득될 수 있다.
모바일 장치 100는 제3 사용자 인터페이스 830를 통해서 입력받은 디스플레이 장치 모델 명을 이용하여 디스플레이 장치의 화면 정보를 획득할 수 있다.
S730에서, 일 실시예에 따라 모바일 장치 100는 서버 300으로 디스플레이 장치 모델 명을 전송함으로써 서버 300로부터 디스플레이 장치 모델 명에 대응하는 디스플레이 장치의 화면 정보를 수신할 수 있다.
S735에서, 다른 실시예에 따라 서버 300는 모바일 장치 100로부터 수신한 디스플레이 장치 모델 명을 디스플레이 장치 200로 전송하고 디스플레이 장치 200가 디스플레이 장치 모델 명에 대응하는 디스플레이 장치의 화면 정보를 서버 300를 통해 모바일 장치 100로 전달될 수 있다.
또 다른 예에 따라서 모바일 장치 100는 디스플레이 장치 모델 명에 대응하는 디스플레이 장치의 화면 정보를 저장하고 있어서, 서버 300로의 요청 없이 디스플레이 장치의 화면 정보를 획득할 수도 있다.
S740에서, 모바일 장치 100는 디스플레이 장치 200가 설치된 벽면 이미지 중 캡쳐할 영역을 선택할 수 있다. 모바일 장치 100는 디스플레이 화면 정보를 획득하고 나서 사진 촬영 모드로 변경될 수 있다.
사용자가 디스플레이 장치 200가 설치된 벽면의 이미지를 획득할 수 있도록 모바일 장치 100를 위치시키면, 모바일 장치 100의 카메라는 디스플레이 장치 200를 포함하여 디스플레이 장치 200가 설치된 벽면의 이미지를 센싱하고 모바일 장치 100의 디스플레이는 디스플레이 장치 200를 포함하는 벽면의 이미지를 프리뷰 이미지로서 표시할 수 있다. 또한 모바일 장치 100는 프리뷰 이미지상에 캡쳐할 영역의 아웃라인을 표시할 수 있다. 또한 모바일 장치 100는 복수개의 캡쳐할 영역의 아웃라인을 표시함으로써 사용자로부터 하나의 영역을 선택하는 입력을 수신할 수 있다. 모바일 장치 100가 캡쳐할 영역을 선택하는 방법을 도 9 내지 도 11을 참조하여 설명한다.
도 9는 일 실시예에 따라 모바일 장치 100의 디스플레이에 표시되는 프리뷰 이미지의 일 예를 도시한다.
도 9를 참조하면, 모바일 장치 100는 디스플레이 장치 200가 설치된 벽면의 이미지를 프리뷰 이미지 900로서 디스플레이에 표시한다. 또한 디스플레이 장치 100는 표시된 프리뷰 이미지 900 상에 캡쳐할 영역의 선택을 위한 가이드라인을 표시할 수 있다. 도 9에서는 디스플레이 장치 200의 우측 영역 A를 나타내는 가이드라인 910, 상측 영역 B를 나타내는 가이드라인 920, 좌측 영역 C를 나타내는 가이드라인 930이 프리뷰 이미지 900에 표시되어 있다. 사용자는 아웃라인 910, 920, 930 중 하나를 선택함으로써 캡쳐할 벽면의 이미지 영역을 선택할 수 있다.
모바일 장치 100는 캡쳐할 벽면의 영역을 다양하게 결정할 수 있다.
일 실시예에 따라 모바일 장치 100는 캡쳐할 벽면의 영역을 내부적으로 디폴트로 결정할 수 있다.
일 실시예에 따라 모바일 장치 100는 캡쳐할 벽면의 영역을 도 9에 도시된 바와 같이 디스플레이하고 사용자로 하여금 선택하게 할 수 있다.
일 실시예에 따라 모바일 장치 100는 캡쳐할 영역의 선택을 위한 프리뷰 이미지 900에 캡쳐할 영역의 선택을 위한 가이드라인 외에 <완료> 아이템 950을 더 포함할 수 있다.
예를 들어, 사용자가 프리뷰 이미지 900상에서 캡쳐할 영역을 A, B, C 중에 하나인 A를 선택하고, <완료> 아이템 950을 누르면, 모바일 장치 100는 디스플레이 장치의 오른쪽 벽면 영역 C 를 캡쳐할 수 있도록 하기 위해 마커를 디스플레이 장치 화면의 오른쪽에 표시하라는 정보를 디스플레이 장치 200로 전송하며, 또한 디스플레이 장치 200에 표시된 마커와의 매칭을 위한 가이드를 모바일 장치 100 화면의 왼쪽에 표시할 수 있다.
도 10은 일 실시예에 따라 디스플레이 장치의 주변 벽면 중 캡쳐할 영역을 나타내는 도면이다.
도 10의 1000A는 일 실시예에 따라 스탠드형 디스플레이 장치 200인 경우에 디스플레이 장치 200의 주변 벽면중 우측, 상측, 좌측 영역의 벽면 이미지를 캡쳐하는 예를 나타낸다. 디스플레이 장치 200의 화면 사이즈가 (가로 X, 세로 Y) 일 때, 캡쳐할 좌측 영역이나 우측 영역의 사이즈는 (가로 X/2, 세로 Y )로 결정하고, 캡쳐할 상측 영역의 사이즈는 (가로 X, 세로 Y/2)로 결정할 수 있다. A 영역, B 영역, C 영역 모두 각각 디스플레이 장치 200의 화면 사이즈의 절반에 해당한다. 따라서 캡쳐된 영역의 사이즈를 2배로 만듦으로써 디스플레이 장치 200의 화면에 표시될 배경 이미지를 생성할 수 있다.
도 10의 1000B는 일 실시예에 따라 벽걸이 형 디스플레이 장치 200인 경우에 디스플레이 장치 200의 주변 벽면중 좌측, 우측, 상측, 하측 영역의 벽면 이미지를 캡쳐하는 예를 나타낸다.
도 11은 일 실시예에 따라 캡쳐할 디스플레이 장치의 주변 벽면 영역의 사이즈를 설명하기 위한 참고도이다.
도 11의 1100A는 일 실시예에 따라 디스플레이 장치 200의 주변 벽면중 좌측, 우측, 상측, 하측 영역의 벽면 이미지를 캡쳐하는 예를 나타낸다. 디스플레이 장치 200의 화면 사이즈가 (가로 X, 세로 Y) 일 때, 캡쳐할 좌측 영역이나 우측 영역의 사이즈는 (가로 X/3, 세로 Y )로 결정하고, 캡쳐할 상측 영역이나 하측 영역의 사이즈는 (가로 X, 세로 Y/3)로 결정할 수 있다. A 영역, B 영역, C 영역, D 영역 모두 각각 디스플레이 장치 200의 화면 사이즈의 1/3에 해당한다. 따라서 캡쳐된 영역의 사이즈를 3배로 만듦으로써 디스플레이 장치 200의 화면에 표시될 배경 이미지를 생성할 수 있다.
도 11의 1100B는 일 실시예에 따라 디스플레이 장치 200의 주변 벽면중 좌측, 우측, 상측, 하측 영역의 벽면 이미지를 캡쳐하는 예를 나타낸다. 디스플레이 장치 200의 화면 사이즈가 (가로 X, 세로 Y) 일 때, 캡쳐할 좌측 영역이나 우측 영역의 사이즈는 (가로 X/4, 세로 Y )로 결정하고, 캡쳐할 상측 영역이나 하측 영역의 사이즈는 (가로 X, 세로 Y/4)로 결정할 수 있다. A 영역, B 영역, C 영역, D 영역 모두 각각 디스플레이 장치 200의 화면 사이즈의 1/4에 해당한다. 따라서 캡쳐된 영역의 사이즈를 4배로 만듦으로써 디스플레이 장치 200의 화면에 표시될 배경 이미지를 생성할 수 있다.
S745에서, 모바일 장치 100는 마커 표시 이벤트를 생성하여 서버 300으로 전송한다. S750에서, 서버 300는 모바일 장치 100로 수신한 마커 표시 이벤트를 디스플레이 장치 200로 전송할 수 있다. S755에서, 디스플레이 장치 200는 서버 300로부터 수신한 마커 표시 이벤트에 따라 디스플레이 화면에 하나 이상의 마커를 표시할 수 있다.
S745, S750, S755의 구체적인 동작을 도 12 내지 13을 참조하여 설명한다.
도 12는 일 실시예에 따라 모바일 장치가 디스플레이 장치로 마커 표시 이벤트를 전송하는 방법을 설명하기 위한 참고도이다.
도 12를 참조하면 모바일 장치 100는 S725에서 획득한 디스플레이 화면 정보 및 S740에서 선택된 캡쳐 영역을 이용하여 마커 표시 이벤트 1200를 생성할 수 있다. 마커 표시 이벤트는 디스플레이 장치 200로 하여금 디스플레이 화면에 하나 이상의 마커를 표시하게 하는 이벤트이다. 마커 표시 이벤트는 디스플레이 장치 200로 하여금 디스플레이 화면에 하나 이상의 마커를 표시하게 하도록 하는 커맨드와 함께 디스플레이 화면에 표시될 하나 이상의 마커의 위치 정보를 포함할 수 있다. 모바일 장치 100는 생성한 마커 표시 이벤트 1200를 직접 또는 서버 300를 통해서 디스플레이 장치 200로 전달할 수 있다. 마커 표시 이벤트 1200를 수신한 디스플레이 장치 200는 마커 표시 이벤트에 포함된 마커 표시 위치 정보에 따라 디스플레이 화면에 하나 이상의 마커 1201, 1202, 1203, 1204를 표시할 수 있다. S740에서 선택된 캡쳐 영역에 따라 마커 표시 위치 정보가 달라진다. 도 12A에 도시된 바와 같이, 디스플레이 장치 200의 우측 벽면 이미지를 캡쳐하고자 하면 하나 이상의 마커는 디스플레이 장치 200의 디스플레이 화면의 오른쪽 절반에 표시될 수 있다.
도 12에 도시된 예에서 마커들은 사각형 모양으로 표시되었지만, 마커는 원형이나 삼각형 등 다양한 모양으로 표시될 수 있다.
도 13을 일 실시예에 따라 선택된 캡쳐 영역에 따라 마커 표시 위치를 결정하는 방법을 설명하기 위한 도면이다.
도 13을 참조하면, 모바일 장치 100에서 캡쳐할 영역으로 영역 A가 선택된 경우, 대응되는 벽면의 영역은 영역 A'이다. 모바일 장치 100는 영역 A'의 이미지를 캡쳐하기 위해 하나 이상의 마커를 디스플레이 장치 200의 화면의 오른쪽 절반에 표시하도록 위치를 결정할 수 있다. 따라서, 영역 A가 선택된 경우, 모바일 장치 100는 마커 표시 위치를 (m1, m2, m3, m4)로 결정할 수 있다. 또한 영역 B가 선택된 경우, 모바일 장치 100는 하나 이상의 마커를 디스플레이 장치의 화면의 상측 절반에 표시하도록 마커 표시 위치를 (m1, m6, m9, m10)로 결정할 수 있다. 또한 영역 C가 선택된 경우, 모바일 장치 100는 하나 이상의 마커를 디스플레이 장치의 화면의 좌측 절반에 표시하도록 마커 표시 위치를 (m5, m6, m7, m8)로 결정할 수 있다.
도 13에 도시된 예에서는 캡쳐할 영역을 전체 디스플레이 장치 화면의 절반으로 결정했기 때문에 하나 이상의 마커들이 디스플레이 장치 화면의 절반에 대응하는 위치에 표시되지만, 캡쳐할 영역이 전체 디스플레이 장치 화면의 1/3 또는 1/4 인 경우, 마커들의 위치도 그에 따라 달라진다.
또한 도 13에 도시된 예에서는 디스플레이 장치 100의 화면에 4개의 마커를 표시하는 것으로 예를 들었지만, 이는 일 예에 불과하고, 마커는 하나 이상일 수 있다.
다시 S760으로 돌아와서, 모바일 장치 100는 디스플레이 장치 200에 표시된 하나 이상의 마커를 이용하여 벽면 이미지를 캡쳐할 수 있다.
일 실시예에 따라 도 12에 도시된 바와 같이 디스플레이 장치 200에 마커가 표시되면 사용자는 이 마커를 보고 이 마커들이 모바일 장치 100의 화면의 왼쪽 절반에 위치하도록 모바일 장치 100를 이동시켜, 디스플레이 장치 200의 우측 영역 1210이 모바일 장치 100의 프리뷰 이미지상에서 오른쪽 절반에 위치되면 사용자의 이미지 캡쳐 명령에 따라 모바일 장치 100는 이미지를 캡쳐할 수 있다.
다른 실시예에 따라 사용자가 디스플레이 장치 200의 마커를 보고 이 마커들이 모바일 장치 100의 화면의 왼쪽 절반에 위치하도록 모바일 장치 100를 이동시키면, 모바일 장치 100의 이미징 센서가 디스플레이 장치 200에 표시된 하나 이상의 마커를 인식하고, 인식이 완료되면 모바일 장치 100는 벽면 이미지를 자동으로 캡쳐할 수 있다. 모바일 장치 100는 특징점 매칭을 통한 마커 인식 영상 처리 기술을 이용하여 기 저장된 마커 이미지의 특징점과 디스플레이 장치 200에 표시된 마커에서 추출한 특징점을 비교함으로써 마커를 인식할 수 있다.
또 다른 실시예에 따라 모바일 장치 100는 이미지 캡쳐를 좀더 정확하게 할 수 있도록 모바일 장치 100의 디스플레이 화면에 표시되는 프리뷰 이미지 상에 하나 이상의 가이드를 표시할 수 있다. 사용자가 이러한 프리뷰 이미지 상의 가이드가 디스플레이 장치 200의 디스플레이 화면에 표시된 하나 이상의 마커에 위치되도록 모바일 장치 100를 움직이면 모바일 장치 100의 이미징 센서는 하나 이상의 마커를 인식한 경우 벽면 이미지를 캡쳐할 수 있다. 이에 대해서 도 14 내지 도 16을 참조하여 설명한다.
도 14는 일 실시예에 따라 모바일 장치에 하나 이상의 가이드를 표시하는 예를 설명하기 위한 참고도이다.
도 14를 참조하면, 모바일 장치 100는 디스플레이 장치 200의 화면에 표시된 마커 1201, 1202,1203,1204의 인식을 돕기 위해 프리뷰 이미지 상에 하나 이상의 가이드 1401, 1402, 1403, 1404를 표시할 수 있다. 모바일 장치 100가 디스플레이 장치 200의 우측 벽면 이미지 1210를 캡쳐하기 위해 디스플레이 장치 200는 디스플레이 장치 200의 우측 절반 화면에 마커를 표시하고, 모바일 장치 100의 프리뷰 이미지상의 좌측 절반에 가이드를 표시할 수 있다. 사용자가 프리뷰 이미지 상의 가이드 1401,1402,1403,1404 각각을 디스플레이 장치 200의 화면에 표시된 마커 1201,1202,1203,1204 각각에 위치시키면 모바일 장치 100의 화면에 표시되는 프리뷰 이미지의 우측 절반 영역 1220에는 디스플레이 장치 200의 우측 벽면 이미지 1210가 들어올 수 있다. 따라서 이 상태에서 모바일 장치 100의 이미징 센서가 마커 1201,1202,1203,1204를 인식함에 따라 이미지를 캡쳐함으로써 우측 벽면 이미지 1210를 획득할 수 있다.
또한 사용자에게 도움말을 주기 위해 모바일 장치는 <화면에 나타난 가이드를 디스플레이 장치에 표시된 마커에 위치시키세요> 라는 메시지 1400를 프리뷰 이미지 상에 표시할 수 있다.
또한, 도 14에 도시된 예에서는 모바일 장치 100의 화면에 표시되는 마커의 수가 4개 이지만, 이는 일 예에 불과하고, 마커의 수는 한 개 이상 일 수 있다.
도 15는 일 실시예에 따라 모바일 장치에 하나 이상의 가이드를 표시하는 예를 설명하기 위한 참고도이다.
도 15를 참조하면, 모바일 장치 100는 디스플레이 장치 200의 화면에 표시된 마커 1501, 1502,1503,1504의 인식을 돕기 위해 프리뷰 이미지 상에 하나 이상의 가이드 1511, 1512, 1513, 1514를 표시할 수 있다. 모바일 장 치 100가 디스플레이 장치 200의 상측 벽면 이미지 1510를 캡쳐하기 위해 디스플레이 장치 200의 상측 절반 화면에 마커를 표시하고, 모바일 장치 100의 프리뷰 이미지상의 하측 절반에 가이드 1511-1514를 표시할 수 있다. 사용자가 프리뷰 이미지 상의 가이드 1511, 1512, 1513, 1514 각각을 디스플레이 장치 200의 화면에 표시된 마커 1501, 1502,1503,1504 각각에 위치시키면 모바일 장치 100의 화면에 표시되는 프리뷰 이미지의 상측 절반 영역 1510에는 디스플레이 장치 200의 상측 벽면 이미지 1500가 들어올 수 있다. 따라서 이 상태에서 모바일 장치 100의 이미징 센서가 이미지를 캡쳐함으로써 상측 벽면 이미지 1500를 획득할 수 있다.
다시 S765에서, 모바일 장치 100는 캡쳐한 벽면 이미지를 이용하여 배경 이미지를 생성한다.
모바일 장치 100는 캡쳐한 벽면 이미지를 처리함으로써 배경 이미지를 생성할 수 있다.
일 실시예에 따라 모바일 장치 100는 좀더 벽면과 조화될 수 있는 자연스러운 배경 이미지를 생성하기 위해 배경 이미지의 생성에 이용되는 벽면 이미지는 디스플레이 장치 200의 바로 인접한 벽면 이미지가 아니라 도 16에 도시된 바와 같이 디스플레이 장치 200의 베젤 두께 d를 고려하여 디스플레이 장치 200의 베젤 끝으로부터 d 만큼 떨어진 영역으로부터 벽면 이미지를 획득할 수 있다.
한편, 모바일 장치 100는 복수개의 주변 영역에 대한 이미지를 획득한 다음 사용자에게 원하는 영역을 선택할 수 있도록 하는 사용자 인터페이스를 제공할 수 있다.
도 17은 일 실시예에 따라 복수개의 영역 이미지 중 하나를 선택할 수 있도록 하는 사용자 인터페이스의 일 예이다.
도 17을 참조하면, 모바일 장치 100는 디스플레이 장치 200의 주변 영역 A, B, C, D에 대한 이미지를 모두 획득하고, 획득된 A 영역 이미지 1630, B 영역 이미지 1610, C 영역 이미지 1640, D 영역 이미지 1620를 디스플레이 화면에 표시하고 이들 영역 이미지중 하나를 선택하게 하는 사용자 인터페이스 1600를 제공할 수 있다. 이와 같은 사용자 인터페이스 1600를 제공함으로써 사용자는 모든 가능한 벽면 이미지 중에서 원하는 이미지를 선택할 수 있게 된다. 특히, 도 17에 도시된 바와 같이, 디스플레이 장치 200의 좌측 벽면 영역 C 와 우측 벽면 영역 A에 무늬가 있는 경우, 디스플레이 장치 200에 표시할 배경 이미지로서 영역 C 또는 영역 A의 이미지를 선택하는 것은 중요할 수 있다.
모바일 장치 100는 배경 이미지에 사용할 캡쳐 영역 이미지가 결정되면 캡쳐 영역 이미지를 이용하여 배경 이미지를 생성할 수 있다.
도 18은 일 실시예에 따라 화면의 1/2 캡쳐 이미지를 이용하여 배경 이미지를 생성하는 방법을 설명하기 위한 참고도이다.
도 18을 참조하면, 모바일 장치 100가 디스플레이 장치 200의 좌측 벽면 영역으로부터 캡쳐한 원래 이미지 1810가 디스플레이 장치의 디스플레이 화면의 1/2 인 경우에 모바일 장치 100는 원래 이미지 1810의 사이즈를 2배로 만듦으로써 배경 이미지를 생성할 수 있다. 이때 18을 참조하면, 모바일 장치 100가 디스플레이 장치 200의 좌측 벽면 영역 1800의 이미지 1810을 캡쳐한 경우에, 이 캡쳐한 원래 이미지 1810을 이용하여 디스플레이 장치 200에 표시될 배경 이미지를 생성할 때, 좌측 벽면 영역 1800과 배경 이미지 1840이 자연스럽게 이어지는 듯한 느낌을 주도록 배경 이미지 1840를 생성하는 것이 중요할 수 있다. 예를 들어, 좌측 벽면 영역 1800에서 디스플레이 장치 200에 인접한 영역 1801과 배경 이미지 1840에서 좌측 벽면 영역 1800에 인접한 영역 1841이 자연스럽게 이어질 수 있도록 보여지는 것이 중요하다. 따라서 이를 위해 모바일 장치 100는 캡쳐한 원래 이미지 1810의 우측 엣지를 중심으로 대칭시켜서 생성된 제1이미지 1820를 배경 이미지 1800의 좌측 절반에 배치시킴으로써 영역 1801이 배경 이미지 1840의 영역 1841에 위치되게 할 수 있다. 다시 제1이미지 1820의 우측 엣지를 중심으로 대칭시킨 제2이미지 1830을 배경 이미지 1840의 우측 절반에 배치시킴으로써, 영역 1821의 이미지가 영역 1831에 위치되게 할 수 있다.
이와 같이 캡쳐된 원래 이미지 1810을 대칭시킨 이미지를 이용하여 배경 이미지에 생성함으로써, 영역 1801과 영역 1841이 자연스럽게 이어지고 또한 영역 1821이 영역 1831과 자연스럽게 이어지는 배경 이미지 1840을 생성할 수 있다.
도 19는 일 실시예에 따라 화면의 1/4 캡쳐 이미지를 이용하여 배경 이미지를 생성하는 방법을 설명하기 위한 참고도이다.
도 19를 참조하면, 모바일 장치 100가 디스플레이 장치 200의 좌측 벽면 영역으로부터 캡쳐한 원래 이미지 1910가 디스플레이 장치의 디스플레이 화면의 1/4 인 경우에 모바일 장치 100는 원래 이미지 1910의 사이즈를 4배로 만듦으로써 배경 이미지를 생성할 수 있다. 이때 모바일 장치 100는, 캡쳐한 원래 이미지 1910의 우측 엣지를 중심으로 대칭시켜서 생성된 제1이미지를 배경 이미지의 제1영역 1920 에 배치시키고, 제1이미지의 우측 엣지를 중심으로 대칭시켜서 생성된 제2이미지를 배경 이미지의 제2영역 1930에 배치시키고, 제2 이미지의 우측 엣지를 중심으로 대칭시켜서 생성된 제3이미지를 배경 이미지의 제3영역 1940에 배치시키고, 제3이미지의 우측 엣지를 중심으로 대칭시켜서 생성된 제4이미지를 배경 이미지의 제4영역 1950에 배치시킴으로써 배경 이미지 1960을 생성할 수 있다.
한편, 이와 같이 모바일 장치 100에 의해 생성된 배경 이미지를 디스플레이 장치에 전송하여 적용하기 전에 사용자는 확인할 수 있다.
도 20은 일 실시예에 따라 생성된 배경 이미지에서 제거하고 싶은 부분을 지울 수 있도록 하는 사용자 인터페이스의 일 예를 나타낸다.
도 20을 참조하면, 모바일 장치 100는 생성된 배경 이미지를 디스플레이에 표시할 수 있다. 예를 들어 도 2에 도시된 바와 같이 모바일 장치 100가 영역 22를 캡쳐하여 배경 이미지를 생성하는 경우 캡쳐된 영역 22의 이미지의 하부에는 꽃병에 담긴 꽃의 일부가 표시될 수 있으므로, 생성된 배경 이미지 2010에도 꽃의 일부 모양 2011, 2012이 표시될 수 있다. 사용자는 손가락이나 다른 도구를 이용하여 꽃의 일부 모양 2011, 2012를 터치하거나 문지름으로써 배경 이미지 2010으로부터 모양 2011, 2012를 제거할 수 있다. 손가락이나 도구를 이용하여 이미지에 표시된 일부 모양을 제거하는 것은 알려진 그림 편집 기술 등을 이용할 수 있다.
다시 S770으로 돌아가서, 모바일 장치 100는 생성된 배경 이미지를 디스플레이 장치 200로 전송할 수 있다.
일 실시예에 따라 모바일 장치 100는 생성된 배경 이미지를 디스플레이 장치 200으로 직접 전송할 수 있다.
일 실시예에 따라 모바일 장치 100는 생성된 배경 이미지를 서버 300를 통해 디스플레이 장치 200로 전달할 수 있다. S775에서 서버 300는 배경 이미지를 디스플레이 장치 200으로 전달하고, S780에서 디스플레이 장치 200는 배경 이미지를 수신하여 이를 디스플레이 화면에 표시할 수 있다.
일 실시예에 따라 디스플레이 장치 200가 배경 이미지를 수신하여 표시한 다음 사용자는 디스플레이 장치 200에 표시된 배경 이미지의 색상의 톤이나 밝기를 변경하고 싶을 수 있다. 예를 들어 디스플레이 장치 200에 표시된 배경 이미지의 색상 톤은 실제 벽면의 색상 톤과 다를 수 있다. 따라서 이경우 모바일 장치 100는 사용자로 하여금 배경 이미지의 색상 톤이나 밝기를 변경할 수 있도록 하는 사용자 인터페이스를 더 제공할 수 있다.
도 21은 일 실시예에 따라 디스플레이 장치 200에 표시된 배경 이미지를 확인하고 사용자가 모바일 장치 100를 통하여 배경 이미지의 색상을 변경하는 예를 나타낸다.
도 21을 참조하면, 디스플레이 장치 200는 모바일 장치 100로부터 수신된 배경 이미지 2110을 표시한다. 그리고 모바일 장치 100는 배경 이미지의 색상을 변경할 수 있도록 하는 사용자 인터페이스 2120를 제공할 수 있다. 사용자가 사용자 인터페이스 2120를 통해서 배경 이미지의 색상을 조정하면, 모바일 장치 100는 색상 조정된 배경 이미지를 다시 디스플레이 장치 200에 전송할 수 있다.
일 실시예에 따라 디스플레이 장치 200가 설치되는 벽면이 아무 패턴 없이 벽면인 경우에 모바일 장치 100는 디스플레이 장치 200가 설치되는 벽면의 대표 컬러를 이용하여 배경 이미지를 생성할 수 있다.
도 22는 일 실시예에 따라 벽면의 대표 컬러를 이용하여 배경 이미지를 생성하는 예를 설명하기 위한 도면이다.
도 22를 참조하면, 모바일 장치 100는 디스플레이 장치 200가 설치되는 벽면이 아무런 패턴이 없는 민무늬 벽면으로 인식된 경우, 주변 벽면 영역 2200을 캡쳐한 이미지로부터 대표 컬러를 추출하고 이 대표 컬러 및 디스플레이 장치의 화면 사이즈를 이용하여 배경 이미지를 생성할 수 있다. 즉, 모바일 장치 100는 디스플레이 장치의 배경 이미지 사이즈에 대응하는 영역을 대표 컬러로 설정함으로써 배경 이미지를 생성할 수 있다.
일 실시예에 따라 디스플레이 장치 200가 설치되는 벽면이 일정한 패턴이 반복되는 벽면인 경우에 모바일 장치 100는 디스플레이 장치 200가 설치되는 벽면의 대표 패턴을 이용하여 배경 이미지를 생성할 수 있다.
도 23은 일 실시예에 따라 벽면의 대표 패턴을 이용하여 배경 이미지를 생성하는 예를 설명하기 위한 도면이다.
도 23을 참조하면, 모바일 장치 100는 디스플레이 장치 200가 설치되는 벽면이 일정한 패턴이 균일하게 반복되는 벽면으로 인식된 경우, 주변 벽면 영역 2300을 캡쳐한 이미지로부터 대표 패턴을 추출하고 이 대표 패턴 및 디스플레이 장치의 화면 사이즈를 이용하여 배경 이미지를 생성할 수 있다. 즉, 모바일 장치 100는 디스플레이 장치의 배경 이미지 사이즈에 대응하는 영역에 대표 패턴을 반복하여 배치함으로써 배경 이미지를 생성할 수 있다.
일 실시예에 따른 모바일 장치, 디스플레이 장치, 서버의 동작방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.

Claims (15)

  1. 전자장치에 있어서,
    카메라;
    디스플레이;
    통신 인터페이스;
    하나 이상의 인스트럭션을 저장하는 메모리; 및
    상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
    디스플레이 장치의 화면에 하나 이상의 마커가 표시되도록 지시하는 이벤트를 발생하여 상기 디스플레이 장치로 전송하고,
    상기 발생된 이벤트에 따라 상기 디스플레이 장치의 화면에 표시된 상기 하나 이상의 마커를 이용하여 상기 디스플레이 장치 주변의 벽면의 적어도 일부 영역의 이미지를 캡쳐하도록 상기 카메라를 제어하고,
    상기 획득된 이미지를 기초로 상기 디스플레이 장치의 화면에 표시될 배경 이미지를 생성하고,
    상기 생성된 배경 이미지가 상기 디스플레이 장치의 화면에 표시될 수 있도록 상기 생성된 배경 이미지를 상기 디스플레이 장치로 전송하는, 전자장치.
  2. 제1항에 있어서,
    상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 디스플레이 장치의 화면의 사이즈 정보를 획득하고,
    상기 획득된 사이즈 정보에 기초하여 상기 디스플레이 장치의 화면에 상기 하나 이상의 마커가 표시될 위치를 결정하고, 상기 결정된 위치에 관한 정보를 포함하는 상기 이벤트를 발생하는, 전자장치.
  3. 제1항에 있어서,
    상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 디스플레이 장치의 화면에 표시된 상기 하나 이상의 마커 및 상기 디스플레이에 표시되는 프리뷰 이미지를 이용하여 상기 디스플레이 장치 주변의 벽면의 적어도 일부 영역의 이미지를 캡쳐하도록 상기 카메라를 제어하는, 전자장치.
  4. 제3항에 있어서,
    상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 캡쳐할 상기 벽면의 적어도 일부 영역의 위치를 고려하여 하나 이상의 가이드를 프리뷰 이미지에 표시하도록 상기 디스플레이를 제어하고,
    상기 프리뷰 이미지상에 표시된 상기 하나 이상의 가이드가 상기 디스플레이 장치의 화면에 표시된 하나 이상의 마커에 위치됨에 따라 상기 벽면의 적어도 일부 영역의 이미지를 캡쳐하도록 상기 카메라를 제어하는, 전자장치.
  5. 제1항에 있어서,
    상기 디스플레이 장치가 설치된 벽면의 적어도 일부 영역은, 상기 디스플레이 장치에 인접한 벽면의 좌측 영역, 우측 영역, 상측 영역, 하측 영역 중 적어도 하나를 포함하는, 전자장치.
  6. 제1항에 있어서,
    상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 획득된 이미지의 하나 이상의 카피 및 상기 획득된 이미지의 대칭 이미지의 하나 이상의 카피를 결합하여 상기 배경 이미지를 생성하는, 전자장치.
  7. 제6항에 있어서,
    상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 획득된 이미지의 크기가 상기 배경 이미지의 크기의 반에 해당할 때, 상기 획득된 이미지 및 상기 획득된 이미지의 대칭 이미지를 결합하여 상기 배경 이미지를 생성하는, 전자장치.
  8. 제1항에 있어서,
    상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 획득된 이미지가 상기 디스플레이 장치에 인접한 벽면의 좌측 영역 또는 우측 영역으로부터 획득된 이미지 일 때, 상기 획득된 이미지의 좌측 방향 또는 우측 방향으로 대칭시킴으로써 상기 대칭 이미지를 획득하고,
    상기 획득된 이미지가 상기 디스플레이 장치에 인접한 벽면의 상측 영역 또는 하측 영역으로부터 획득된 이미지 일 때, 상기 획득된 이미지의 상측 방향 또는 하측 방향으로 대칭시킴으로써 상기 대칭 이미지를 획득하는, 전자장치.
  9. 제1항에 있어서,
    상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 이벤트 및 상기 배경 이미지를 서버를 통해서 상기 디스플레이 장치로 전송하는, 전자장치.
  10. 제1항에 있어서,
    상기 프로세서는, 상기 하나 이상 인스트럭션을 실행함으로써,
    상기 생성된 배경 이미지가 표시된 상기 디스플레이 장치의 화면 및 상기 디스플레이 장치의 주변 영역을 획득하도록 상기 카메라를 제어하고,
    상기 주변 영역의 속성을 이용하여 상기 화면에 표시된 배경 이미지의 속성을 조정하고,
    상기 속성이 조정된 배경 이미지를 상기 디스플레이 장치로 전송하는, 전자장치.
  11. 전자장치의 동작 방법에 있어서,
    디스플레이 장치의 화면에 하나 이상의 마커가 표시되도록 지시하는 이벤트를 발생하여 상기 디스플레이 장치로 전송하는 동작,
    상기 발생된 이벤트에 따라 상기 디스플레이 장치의 화면에 표시된 상기 하나 이상의 마커를 이용하여 상기 디스플레이 장치 주변의 벽면의 적어도 일부 영역의 이미지를 캡쳐하는 동작,
    상기 획득된 이미지를 기초로 상기 디스플레이 장치의 화면에 표시될 배경 이미지를 생성하는 동작, 및
    상기 생성된 배경 이미지가 상기 디스플레이 장치의 화면에 표시될 수 있도록 상기 생성된 배경 이미지를 상기 디스플레이 장치로 전송하는 동작을 포함하는, 전자장치의 동작 방법.
  12. 제11항에 있어서,
    상기 디스플레이 장치의 화면의 사이즈 정보를 획득하는 동작,
    상기 획득된 사이즈 정보에 기초하여 상기 디스플레이 장치의 화면에 상기 하나 이상의 마커가 표시될 위치를 결정하고, 상기 결정된 위치에 관한 정보를 포함하는 상기 이벤트를 발생하는 동작을 더 포함하는, 전자장치의 동작 방법.
  13. 제11항에 있어서,
    상기 디스플레이 장치의 화면에 표시된 상기 하나 이상의 마커 및 상기 디스플레이에 표시되는 프리뷰 이미지를 이용하여 상기 디스플레이 장치 주변의 벽면의 적어도 일부 영역의 이미지를 캡쳐하는 동작을 더 포함하는, 전자장치의 동작 방법.
  14. 제13항에 있어서,
    상기 캡쳐할 상기 벽면의 적어도 일부 영역의 위치를 고려하여 하나 이상의 가이드를 프리뷰 이미지에 표시하는 동작,
    상기 프리뷰 이미지상에 표시된 상기 하나 이상의 가이드가 상기 디스플레이 장치의 화면에 표시된 하나 이상의 마커에 위치됨에 따라 상기 벽면의 적어도 일부 영역의 이미지를 캡쳐하는 동작을 더 포함하는, 전자장치의 동작 방법.
  15. 제11항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
PCT/KR2019/001172 2018-02-12 2019-01-28 전자 장치 및 그 동작 방법 WO2019156408A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/959,024 US11431909B2 (en) 2018-02-12 2019-01-28 Electronic device and operation method thereof
CN201980012792.5A CN111699673B (zh) 2018-02-12 2019-01-28 电子设备及其操作方法
EP19750779.1A EP3720111B1 (en) 2018-02-12 2019-01-28 Electronic device and operation method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180017062A KR102328121B1 (ko) 2018-02-12 2018-02-12 전자 장치 및 그 동작 방법
KR10-2018-0017062 2018-02-12

Publications (1)

Publication Number Publication Date
WO2019156408A1 true WO2019156408A1 (ko) 2019-08-15

Family

ID=67548360

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/001172 WO2019156408A1 (ko) 2018-02-12 2019-01-28 전자 장치 및 그 동작 방법

Country Status (5)

Country Link
US (1) US11431909B2 (ko)
EP (1) EP3720111B1 (ko)
KR (1) KR102328121B1 (ko)
CN (1) CN111699673B (ko)
WO (1) WO2019156408A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102338900B1 (ko) * 2018-02-13 2021-12-13 삼성전자주식회사 전자 장치 및 그 동작 방법
DE102021106488A1 (de) * 2020-12-23 2022-06-23 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Hintergrund-Wiedergabeeinrichtung, Hintergrundwiedergabesystem, Aufnahmesystem, Kamerasystem, digitale Kamera und Verfahren zum Steuern einer Hintergrund-Wiedergabeeinrichtung
CN115473958A (zh) * 2022-09-19 2022-12-13 深圳创维-Rgb电子有限公司 电视壁纸显示方法、系统、智能终端及可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101429812B1 (ko) * 2012-09-18 2014-08-12 한국과학기술원 외부 프로젝터를 활용한 텔레비전 화면의 확장 장치 및 방법
KR20150010432A (ko) * 2013-07-19 2015-01-28 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
KR20150088085A (ko) * 2014-01-23 2015-07-31 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR20160078083A (ko) * 2014-12-24 2016-07-04 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR101810479B1 (ko) * 2017-06-19 2017-12-19 국방과학연구소 위장 패턴 변화를 이용한 능동형 시각 위장 시스템

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110187731A1 (en) * 2009-07-10 2011-08-04 Yasuhiro Tsuchida Marker display control device, integrated circuit, and marker display control method
EP2570986A1 (en) 2011-09-13 2013-03-20 Alcatel Lucent Method for creating a cover for an electronic device and electronic device
KR101315608B1 (ko) * 2011-09-27 2013-10-18 엘지전자 주식회사 컨텐츠 관리 방법 및 그를 이용한 영상 표시 장치
KR102013443B1 (ko) 2012-09-25 2019-08-22 삼성전자주식회사 이미지를 전송하기 위한 방법 및 그 전자 장치
US20140313117A1 (en) 2013-04-17 2014-10-23 Honeywell International Inc. Camouflaged connected home controller
US10191709B2 (en) 2015-09-04 2019-01-29 Samsung Electronics Co., Ltd. Display apparatus configured to determine a processing mode to transfer image contents to another display apparatus
KR102397438B1 (ko) 2015-09-04 2022-05-13 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
KR102489402B1 (ko) * 2015-11-02 2023-01-18 삼성전자주식회사 디스플레이 장치 및 그의 영상 표시 방법
KR102267397B1 (ko) 2016-10-25 2021-06-21 삼성전자주식회사 전자 장치 및 이의 제어 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101429812B1 (ko) * 2012-09-18 2014-08-12 한국과학기술원 외부 프로젝터를 활용한 텔레비전 화면의 확장 장치 및 방법
KR20150010432A (ko) * 2013-07-19 2015-01-28 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
KR20150088085A (ko) * 2014-01-23 2015-07-31 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR20160078083A (ko) * 2014-12-24 2016-07-04 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR101810479B1 (ko) * 2017-06-19 2017-12-19 국방과학연구소 위장 패턴 변화를 이용한 능동형 시각 위장 시스템

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3720111A4 *

Also Published As

Publication number Publication date
KR20190097529A (ko) 2019-08-21
CN111699673A (zh) 2020-09-22
KR102328121B1 (ko) 2021-11-17
EP3720111A1 (en) 2020-10-07
US20200336676A1 (en) 2020-10-22
CN111699673B (zh) 2023-04-18
EP3720111B1 (en) 2021-11-03
US11431909B2 (en) 2022-08-30
EP3720111A4 (en) 2020-10-07

Similar Documents

Publication Publication Date Title
WO2017048076A1 (en) Display apparatus and method for controlling display of display apparatus
WO2018034462A1 (en) Image display apparatus and method of operating the same
WO2017052143A1 (en) Image display device and method of operating the same
WO2017105021A1 (en) Display apparatus and method for controlling display apparatus
WO2017105015A1 (en) Electronic device and method of operating the same
WO2015041405A1 (en) Display apparatus and method for motion recognition thereof
WO2016076570A1 (en) Display apparatus and display method
WO2015194693A1 (ko) 영상 표시 기기 및 그의 동작 방법
WO2016080700A1 (en) Display apparatus and display method
WO2017119708A1 (en) Image display apparatus and method of operating the same
WO2019045337A1 (en) IMAGE DISPLAY APPARATUS AND METHOD FOR OPERATING SAME
WO2017159941A1 (en) Display device and method of operating the same
WO2016111464A1 (en) Image display apparatus and method
WO2018155859A1 (en) Image display device and operating method of the same
WO2019156408A1 (ko) 전자 장치 및 그 동작 방법
WO2016111455A1 (en) Image display apparatus and method
EP2982105A1 (en) Image display device and control method thereof
WO2016104932A1 (en) Image display apparatus and image display method
WO2017069434A1 (en) Display apparatus and method for controlling display apparatus
WO2021118225A1 (en) Display device and operating method thereof
WO2019013448A1 (en) OPTICAL CONNECTOR AND METHOD FOR CONTROLLING DISPLAY APPARATUS
WO2019194423A1 (en) Electronic apparatus and operating method thereof
WO2018080176A1 (en) Image display apparatus and method of displaying image
WO2016129843A1 (en) Display apparatus and display method
WO2020171657A1 (en) Display device and image display method of the same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19750779

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019750779

Country of ref document: EP

Effective date: 20200701

NENP Non-entry into the national phase

Ref country code: DE