WO2018066755A1 - 무선 디바이스 및 무선 시스템 - Google Patents

무선 디바이스 및 무선 시스템 Download PDF

Info

Publication number
WO2018066755A1
WO2018066755A1 PCT/KR2016/013867 KR2016013867W WO2018066755A1 WO 2018066755 A1 WO2018066755 A1 WO 2018066755A1 KR 2016013867 W KR2016013867 W KR 2016013867W WO 2018066755 A1 WO2018066755 A1 WO 2018066755A1
Authority
WO
WIPO (PCT)
Prior art keywords
wireless device
image
screen
entire image
wireless
Prior art date
Application number
PCT/KR2016/013867
Other languages
English (en)
French (fr)
Inventor
조은영
안상진
백상현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to EP16918376.1A priority Critical patent/EP3525083A4/en
Priority to CN201680089868.0A priority patent/CN109804346B/zh
Publication of WO2018066755A1 publication Critical patent/WO2018066755A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1438Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using more than one graphics controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1095Replication or mirroring of data, e.g. scheduling or transport for data synchronisation between network nodes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43637Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wireless protocol, e.g. Bluetooth, RF or wireless LAN [IEEE 802.11]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/20Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel
    • H04W4/203Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel for converged personal network application service interworking, e.g. OMA converged personal network services [CPNS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0442Handling or displaying different aspect ratios, or changing the aspect ratio
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/16Use of wireless transmission of display information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device

Definitions

  • the present invention relates to a wireless device and a wireless system, and more particularly, to provide an image in which a portion of an original image and an enlarged portion of the original image are enlarged on one screen during screen mirroring.
  • WLAN is based on radio frequency technology, and can be used in homes, businesses, or businesses by using portable terminals such as personal digital assistants (PDAs), laptop computers, and portable multimedia players (PMPs). It is a technology that allows wireless access to the Internet in a specific service area.
  • PDAs personal digital assistants
  • PMPs portable multimedia players
  • Wi-Fi Direct or Wi-Fi P2P (peer)
  • Wi-Fi P2P peer
  • Wi-Fi Direct standard technology
  • devices can be connected without a complicated configuration process, and in order to provide various services to a user, they can support an operation of exchanging data with each other at a communication speed of a general WLAN system.
  • Wi-Fi Wi-Fi without AP
  • Wi-Fi Direct Service The Wi-Fi Alliance (WFA) introduces a platform that supports a variety of services (e.g., Send, Play, Display, Print, etc.) using the Wi-Fi Direct link. Technology is under discussion. This may be referred to as a Wi-Fi Direct Service (WFDS).
  • WFA Wi-Fi Direct Service
  • a display service is a service that enables screen sharing among P2P devices.
  • the screen sharing service is also called screen mirroring technology in that the wireless device displays the same image through the transmission of the image.
  • the existing screen sharing service has no choice but to transmit unnecessary images such as black images (or letterboxes) at the top and bottom or left and right sides because the screen ratios or resolutions do not match when transmitting images between P2P devices. Accordingly, when the user views other images, the user is disturbed due to unnecessary images other than the images displayed by the source apparatus.
  • the screen of the source device is small, which makes it difficult to operate the user.
  • the enlarged image may be displayed on the sink device, but there is a problem in that image quality deterioration occurs.
  • An object of the present invention is to expand and provide a part of information displayed on a small screen of a source device in a sink device when a screen sharing service is provided among Wi-Fi direct services.
  • an object of the present invention is to provide, when the screen sharing service of the Wi-Fi Direct service, the sink device receives the entire image and a part of the enlarged image constituting the entire image from the source device in two streams, and provides the stream. .
  • an object of the present invention is to enlarge and provide a part of the entire image without deterioration of image quality when the screen sharing service is provided among the Wi-Fi direct service.
  • an object of the present invention is to not display a black image inserted due to a mismatch in resolution or aspect ratio when a screen sharing service is provided among Wi-Fi Direct services.
  • a first wireless device supporting a Wi-Fi Direct service may include a display unit displaying an entire image of content being displayed by a second wireless device, a communication unit performing connection setup with a second wireless device, and the display. And a processor for controlling the communication unit, wherein the processor receives an enlargement request signal for enlarging a partial image included in the entire image, and based on the enlargement request signal, the entire image from the second wireless device. Data of an image and data of an enlarged partial image corresponding to the partial image may be received.
  • a wireless system supporting a Wi-Fi Direct service may display an entire image of content being displayed by the second wireless device from a second wireless device, and enlarge the partial image included in the entire image.
  • An entirety of the first wireless device and the content receiving the request signal and receiving data of the entire image and the enlarged partial image corresponding to the partial image from the second wireless device based on the enlargement request signal A second radio that displays an image and transmits data of the entire image and data of the enlarged partial image to the first wireless device according to an enlarged mode request message received from the first wireless device It may include a device.
  • a user when a screen sharing service is provided among Wi-Fi Direct services, a user may more clearly view information, which is difficult to check on a source device, on a large screen.
  • some images may be viewed at the same resolution as that of the original image received from the source device.
  • a black image inserted due to a mismatch in resolution or aspect ratio is removed, and a user may not watch an unnecessary image.
  • FIG. 1 is a block diagram illustrating a configuration of a display apparatus according to an exemplary embodiment.
  • FIG. 2 is a block diagram of a remote control apparatus according to an embodiment of the present invention.
  • Figure 3 shows an example of the actual configuration of the remote control device according to an embodiment of the present invention.
  • FIG. 4 shows an example of using a remote control device according to an embodiment of the present invention.
  • FIG. 5 is a block diagram illustrating a mobile terminal according to the present invention.
  • FIG. 6 is a ladder diagram illustrating a process of providing a screen sharing service by establishing a WFD session between a WFD source and a WFD sink according to an embodiment of the present invention.
  • FIGS. 7A to 7D are diagrams for describing a table indicating resolution information transmitted by a WFD sink to a WFD source according to an embodiment of the present invention.
  • FIG. 8 to 11 illustrate a process of performing a magic zoom function when sharing a screen between a WFD source and a WFD sink according to an embodiment of the present invention.
  • FIG. 12 to 14 illustrate a process of performing a magic zoom function when sharing a screen between a WFD source and a WFD sink according to another embodiment of the present invention.
  • 15 to 17 are diagrams illustrating a process of performing a magic zoom function when sharing a screen between a WFD source and a WFD sink according to another embodiment of the present invention.
  • FIG. 18 is a diagram for describing a configuration of a wireless device according to one embodiment of the present invention.
  • the display device is, for example, an intelligent display device in which a computer support function is added to a broadcast reception function.
  • the display device is faithful to the broadcast reception function and has an Internet function added thereto. Or it can be equipped with a more convenient interface, such as a space remote control.
  • a computer with the support of a wired or wireless Internet function, it is possible to perform functions such as e-mail, web browsing, banking or gaming. Standardized general-purpose operating systems can be used for these various functions.
  • the display device described in the present invention various applications can be freely added or deleted, for example, on a general-purpose OS kernel, so that various user-friendly functions can be performed.
  • the display device may be, for example, a network TV, an HBBTV, a smart TV, an LED TV, an OLED TV, or the like, and may be applicable to a smartphone in some cases.
  • FIG. 1 is a block diagram illustrating a configuration of a display apparatus according to an exemplary embodiment of the present invention.
  • the display apparatus 100 includes a broadcast receiver 130, an external device interface 135, a storage 140, a user input interface 150, a controller 170, and a wireless communication unit 173.
  • the display unit 180 may include an audio output unit 185 and a power supply unit 590.
  • the broadcast receiver 130 may include a tuner 131, a demodulator 132, and a network interface unit 133.
  • the tuner 131 may tune a specific broadcast channel according to a channel tuning command.
  • the tuner 131 may receive a broadcast signal for a tuned specific broadcast channel.
  • the demodulator 132 may separate the received broadcast signal into a video signal, an audio signal, and a data signal associated with a broadcast program, and may restore the separated video signal, the audio signal, and the data signal into a form capable of outputting the broadcast signal.
  • the external device interface unit 135 may receive an application or a list of applications in a neighboring external device and transmit the received application to the controller 170 or the storage 140.
  • the external device interface unit 135 may provide a connection path between the display device 100 and the external device.
  • the external device interface unit 135 may receive one or more of an image and audio output from an external device connected to the display apparatus 100 by wireless or wired, and transmit the received one or more to the control unit 170.
  • the external device interface unit 135 may include a plurality of external input terminals.
  • the plurality of external input terminals may include an RGB terminal, one or more High Definition Multimedia Interface (HDMI) terminals, and a component terminal.
  • HDMI High Definition Multimedia Interface
  • the image signal of the external device input through the external device interface unit 135 may be output through the display unit 180.
  • the audio signal of the external device input through the external device interface unit 135 may be output through the audio output unit 185.
  • the external device connectable to the external device interface unit 135 may be any one of a set top box, a Blu-ray player, a DVD player, a game machine, a sound bar, a smartphone, a PC, a USB memory, a home theater, but this is merely an example. .
  • the network interface unit 133 may provide an interface for connecting the display apparatus 100 to a wired / wireless network including an internet network.
  • the network interface unit 133 may transmit or receive data with another user or another electronic device through the connected network or another network linked to the connected network.
  • some content data stored in the display apparatus 100 may be transmitted to a user selected from another user or another electronic device registered in the display apparatus 100 or a selected electronic apparatus.
  • the network interface unit 133 may access a predetermined web page through a connected network or another network linked to the connected network. That is, by accessing a predetermined web page through the network, it is possible to send or receive data with the server.
  • the network interface unit 133 may receive content or data provided by a content provider or a network operator. That is, the network interface unit 133 may receive content such as a movie, an advertisement, a game, a VOD, a broadcast signal, and related information provided from a content provider or a network provider through a network.
  • content such as a movie, an advertisement, a game, a VOD, a broadcast signal, and related information provided from a content provider or a network provider through a network.
  • the network interface unit 133 may receive the update information and the update file of the firmware provided by the network operator, and may transmit data to the Internet or the content provider or the network operator.
  • the network interface unit 133 may select and receive a desired application from among applications that are open to the public through the network.
  • the storage 140 may store a program for processing and controlling each signal in the controller 170, and may store a signal, an image, an audio, or a data signal.
  • the storage unit 140 may perform a function for temporarily storing an image, audio, or data signal input from the external device interface unit 135 or the network interface unit 133. You can also store information about the image.
  • the storage unit 140 may store an application or a list of applications input from the external device interface unit 135 or the network interface unit 133.
  • the display apparatus 100 may reproduce and provide a content file (video file, still image file, music file, document file, application file, etc.) stored in the storage 140 to the user.
  • a content file video file, still image file, music file, document file, application file, etc.
  • the user input interface unit 150 may transmit a signal input by the user to the controller 170, or may transmit a signal from the controller 170 to the user.
  • the user input interface unit 150 may be configured according to various communication methods such as Bluetooth, Ultra Wideband (WB), ZigBee, RF (Radio Frequency) communication, or Infrared (IR) communication.
  • the remote controller 200 may receive and process a control signal such as power on / off, channel selection, screen setting, or the like, or transmit a control signal from the controller 170 to the remote controller 200.
  • the user input interface unit 150 may transmit a control signal input from a local key (not shown) such as a power key, a channel key, a volume key, and a set value to the controller 170.
  • a local key such as a power key, a channel key, a volume key, and a set value
  • the image signal processed by the controller 170 may be input to the display unit 180 and displayed as an image corresponding to the image signal.
  • the image signal processed by the controller 170 may be input to the external output device through the external device interface unit 135.
  • the audio signal processed by the controller 170 may be audio output to the audio output unit 185.
  • the voice signal processed by the controller 170 may be input to the external output device through the external device interface unit 135.
  • controller 170 may control overall operations of the display apparatus 100.
  • controller 170 may control the display apparatus 100 by a user command or an internal program input through the user input interface unit 150, and access the network to display an application or a list of applications desired by the user. Can be downloaded to (100).
  • the controller 170 may output the channel information selected by the user together with the processed video or audio signal through the display unit 180 or the audio output unit 185.
  • the controller 170 may output an external device input through the external device interface unit 135, for example, from a camera or a camcorder, according to an external device image playback command received through the user input interface unit 150.
  • the video signal or the audio signal may be output through the display unit 180 or the audio output unit 185.
  • the controller 170 may control the display unit 180 to display an image, for example, a broadcast image input through the tuner 131 or an external input input through the external device interface 135.
  • An image, an image input through a network interface unit, or an image stored in the storage 140 may be controlled to be displayed on the display unit 180.
  • the image displayed on the display unit 180 may be a still image or a video, and may be a 2D image or a 3D image.
  • the controller 170 may control the content stored in the display apparatus 100, the received broadcast content, or the external input content input from the outside to be reproduced.
  • the content may include a broadcast image, an external input image, and an audio file. , Still images, connected web screens, and document files.
  • the wireless communication unit 173 may communicate with an external device through wired or wireless communication.
  • the wireless communication unit 173 may perform short range communication with an external device.
  • the wireless communication unit 173 may include Bluetooth TM, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Near Field Communication (NFC), Wi-Fi.
  • Local area communication may be supported using at least one of wireless-fidelity, Wi-Fi Direct, and wireless universal serial bus (USB) technologies.
  • the wireless communicator 173 may communicate between the display apparatus 100 and the wireless communication system, between the display apparatus 100 and another display apparatus 100, or with the display apparatus 100 through a local area network. Wireless communication between the network where the display apparatus 100 or the external server is located may be supported.
  • the local area network may be local area network (Wireless Personal Area Networks).
  • the other display device 100 is a wearable device capable of exchanging (or interworking) data with the display device 100 according to the present invention (eg, smartwatch, smart glasses). (smart glass), head mounted display (HMD), and a mobile terminal such as a smart phone.
  • the wireless communication unit 173 may detect (or recognize) a wearable device that can communicate with the display apparatus 100 in the vicinity of the display apparatus 100.
  • the controller 170 may select at least a portion of data processed by the display apparatus 100, and may use the wireless communication unit 173. Can be transmitted to the wearable device. Therefore, a user of the wearable device may use data processed by the display apparatus 100 through the wearable device.
  • the display unit 180 converts the image signal, the data signal, the OSD signal processed by the controller 170, or the image signal, data signal, etc. received from the external device interface unit 135 into R, G, B signals, respectively. You can generate a signal.
  • the display device 100 shown in FIG. 1 is only an embodiment of the present invention. Some of the illustrated components may be integrated, added, or omitted according to the specifications of the display apparatus 100 that is actually implemented.
  • two or more components may be combined into one component as needed, or one component may be divided into two or more components.
  • the function performed in each block is for explaining an embodiment of the present invention, the specific operation or device does not limit the scope of the present invention.
  • the display apparatus 100 does not include the tuner 131 and the demodulator 132, as shown in FIG. 1, but the network interface unit 133 or the external device interface unit ( 135 may be received and played back.
  • the display apparatus 100 may be divided into an image processing apparatus such as a set-top box, such as for receiving broadcast signals or contents according to various network services, and a content reproducing apparatus for playing contents input from the image processing apparatus. Can be implemented.
  • an image processing apparatus such as a set-top box, such as for receiving broadcast signals or contents according to various network services
  • a content reproducing apparatus for playing contents input from the image processing apparatus. Can be implemented.
  • the operation method of the display apparatus according to the embodiment of the present invention described below is not only the display apparatus 100 as described with reference to FIG. 1, but also an image processing apparatus or a display unit such as the separated set-top box or the like. 180 may be performed by any one of the content reproduction device including the audio output unit 185.
  • FIG. 2 is a block diagram of a remote control apparatus according to an embodiment of the present invention
  • Figure 3 shows an actual configuration of the remote control apparatus 200 according to an embodiment of the present invention.
  • the remote control apparatus 200 includes a fingerprint recognition unit 210, a wireless communication unit 220, a user input unit 230, a sensor unit 240, an output unit 250, and a power supply unit 260. ), A storage unit 270, a control unit 280, and a voice acquisition unit 290.
  • the wireless communication unit 225 transmits and receives a signal with any one of the display apparatuses according to the embodiments of the present invention described above.
  • the remote control apparatus 200 includes an RF module 221 capable of transmitting and receiving a signal with the display apparatus 100 according to the RF communication standard, and capable of transmitting and receiving a signal with the display apparatus 100 according to the IR communication standard.
  • IR module 223 may be provided.
  • the remote control apparatus 200 may include a Bluetooth module 225 capable of transmitting and receiving signals with the display apparatus 100 according to the Bluetooth communication standard.
  • the remote control apparatus 200 includes an NFC module 227 capable of transmitting and receiving a signal to and from the display apparatus 100 according to a Near Field Communication (NFC) communication standard, and displaying according to a WLAN (Wireless LAN) communication standard.
  • WLAN module 229 capable of transmitting and receiving signals to and from device 100 may be provided.
  • the remote control apparatus 200 transmits a signal containing information regarding the movement of the remote control apparatus 200 to the display apparatus 100 through the wireless communication unit 220.
  • the remote control device 200 may receive a signal transmitted from the display device 100 through the RF module 221, and if necessary, the power supply to the display device 100 via the IR module 223 / Commands regarding off, channel change, volume change, etc. can be sent.
  • the user input unit 230 may include a keypad, a button, a touch pad, or a touch screen.
  • the user may input a command related to the display apparatus 100 to the remote control apparatus 200 by manipulating the user input unit 230.
  • the user input unit 230 includes a hard key button, the user may input a command related to the display apparatus 100 to the remote control apparatus 200 through a push operation of the hard key button. This will be described with reference to FIG. 3.
  • the remote control apparatus 200 may include a plurality of buttons.
  • the plurality of buttons may include a fingerprint recognition button 212, a power button 231, a home button 232, a live button 233, an external input button 234, a volume control button 235, a voice recognition button 236, It may include a channel change button 237, a confirmation button 238, and a back button 239.
  • the fingerprint recognition button 212 may be a button for recognizing a fingerprint of a user. In one embodiment, the fingerprint recognition button 212 may be pushed to receive a push operation and a fingerprint recognition operation.
  • the power button 231 may be a button for turning on / off the power of the display apparatus 100.
  • the home button 232 may be a button for moving to the home screen of the display apparatus 100.
  • the live button 233 may be a button for displaying a live broadcast program.
  • the external input button 234 may be a button for receiving an external input connected to the display apparatus 100.
  • the volume control button 235 may be a button for adjusting the volume of the volume output from the display apparatus 100.
  • the voice recognition button 236 may be a button for receiving a user's voice and recognizing the received voice.
  • the channel change button 237 may be a button for receiving a broadcast signal of a specific broadcast channel.
  • the confirmation button 238 may be a button for selecting a specific function, and the back button 239 may be
  • the user input unit 230 When the user input unit 230 includes a touch screen, the user may input a command related to the display apparatus 100 to the remote control apparatus 200 by touching a soft key of the touch screen.
  • the user input unit 230 may include various kinds of input means that the user can operate, such as a scroll key or a jog key, and the embodiment does not limit the scope of the present invention.
  • the sensor unit 240 may include a gyro sensor 241 or an acceleration sensor 243, and the gyro sensor 241 may sense information about the movement of the remote controller 200.
  • the gyro sensor 241 may sense information about the operation of the remote control device 200 based on the x, y, and z axes, and the acceleration sensor 243 may move the speed of the remote control device 200. Information about the data can be sensed.
  • the remote control device 200 may further include a distance measuring sensor, it can sense the distance to the display unit 180 of the display device 100.
  • the output unit 250 may output a video or audio signal corresponding to an operation of the user input unit 235 or a signal transmitted from the display apparatus 100.
  • the user may recognize whether the user input unit 235 is manipulated or whether the display apparatus 100 is controlled through the output unit 250.
  • the output unit 250 is an LED module 251 that is turned on when the user input unit 235 is manipulated or a signal is transmitted to or received from the display apparatus 100 through the wireless communication unit 225, and a vibration module generating vibration. 253, a sound output module 255 for outputting sound, or a display module 257 for outputting an image.
  • the power supply unit 260 supplies power to the remote control device 200, and can reduce power waste by stopping the power supply when the remote control device 200 does not move for a predetermined time.
  • the power supply unit 260 may resume power supply when a predetermined key provided in the remote control apparatus 200 is operated.
  • the storage unit 270 may store various types of programs, application data, and the like necessary for controlling or operating the remote control apparatus 200. If the remote control apparatus 200 transmits and receives a signal wirelessly through the display apparatus 100 and the RF module 221, the remote control apparatus 200 and the display apparatus 100 transmit and receive signals through a predetermined frequency band. .
  • the controller 280 of the remote controller 200 stores and stores information on a frequency band for transmitting and receiving a signal wirelessly with the display apparatus 100 paired with the remote controller 200 in the storage unit 270. can do.
  • the controller 280 controls various matters related to the control of the remote controller 200.
  • the controller 280 may display a signal corresponding to a predetermined key manipulation of the user input unit 235 or a signal corresponding to a movement of the remote controller 200 sensed by the sensor unit 240 through the wireless communication unit 225. 100).
  • the voice acquisition unit 290 of the remote control device 200 may obtain a voice.
  • the voice acquirer 290 may include at least one or more microphones 291, and may acquire voices through the microphone 291.
  • FIG. 4 is demonstrated.
  • FIG. 4 shows an example of using a remote control device according to an embodiment of the present invention.
  • FIG. 4A illustrates that a pointer 205 corresponding to the remote control apparatus 200 is displayed on the display unit 180.
  • the user may move or rotate the remote control apparatus 200 vertically, left and right.
  • the pointer 205 displayed on the display unit 180 of the display apparatus 100 corresponds to the movement of the remote control apparatus 200.
  • the remote control apparatus 200 may be referred to as a spatial remote controller because the pointer 205 is moved and displayed according to the movement in the 3D space as shown in the figure.
  • FIG. 4B illustrates that when the user moves the remote control apparatus 200 to the left side, the pointer 205 displayed on the display unit 180 of the display apparatus 100 also moves to the left side correspondingly.
  • the display apparatus 100 may calculate the coordinates of the pointer 205 from the information about the movement of the remote control apparatus 200.
  • the display apparatus 100 may display the pointer 205 to correspond to the calculated coordinates.
  • ** (c) of FIG. 4 illustrates a case in which the user moves the remote control apparatus 200 away from the display unit 180 while pressing a specific button in the remote control apparatus 200.
  • the selection area in the display unit 180 corresponding to the pointer 205 may be zoomed in to be enlarged and displayed.
  • the selection area in the display unit 180 corresponding to the pointer 205 may be zoomed out and reduced.
  • the selection area may be zoomed out, and when the remote control apparatus 200 approaches the display unit 180, the selection area may be zoomed in.
  • recognition of up, down, left and right movements may be excluded when a specific button in the remote control apparatus 200 is pressed. That is, when the remote control apparatus 200 moves away from or approaches the display unit 180, the up, down, left, and right movements are not recognized, and only the front and back movements may be recognized. In a state in which a specific button in the remote control apparatus 200 is not pressed, only the pointer 205 moves according to the up, down, left, and right movements of the remote control apparatus 200.
  • the moving speed or the moving direction of the pointer 205 may correspond to the moving speed or the moving direction of the remote control apparatus 200.
  • the pointer in the present specification refers to an object displayed on the display unit 180 in response to the operation of the remote control apparatus 200.
  • the pointer 205 may be an object of various shapes in addition to the arrow shape shown in the drawing.
  • the concept may include a point, a cursor, a prompt, a thick outline, and the like.
  • the pointer 205 may be displayed corresponding to any one of the horizontal axis and the vertical axis of the display unit 180, or may be displayed corresponding to a plurality of points such as a line and a surface. Do.
  • FIG. 5 is a block diagram illustrating a mobile terminal according to the present invention.
  • the mobile terminal 500 includes a wireless communication unit 510, an input unit 520, a sensing unit 540, an output unit 550, an interface unit 560, a memory 570, a controller 580, and a power supply unit 590. And the like.
  • the components shown in FIG. 5 are not essential to implementing a mobile terminal, so a mobile terminal described herein may have more or fewer components than those listed above.
  • the wireless communication unit 510 of the components, between the mobile terminal 500 and the wireless communication system, between the mobile terminal 500 and another mobile terminal 500, or the mobile terminal 500 and the external server It may include one or more modules that enable wireless communication therebetween.
  • the wireless communication unit 510 may include one or more modules for connecting the mobile terminal 500 to one or more networks.
  • the wireless communication unit 510 may include at least one of a broadcast receiving module 511, a mobile communication module 512, a wireless internet module 513, a short range communication module 514, and a location information module 515.
  • the input unit 520 may include a camera 521 or an image input unit for inputting an image signal, a microphone 522 for inputting an audio signal, or an audio input unit and a user input unit 523 for receiving information from a user.
  • a touch key, a mechanical key, and the like may be included.
  • the voice data or the image data collected by the input unit 520 may be analyzed and processed as a user's control command.
  • the sensing unit 540 may include one or more sensors for sensing at least one of information in the mobile terminal, surrounding environment information surrounding the mobile terminal, and user information.
  • the sensing unit 540 may include a proximity sensor 541, an illumination sensor 542, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity.
  • Optical sensors e.g. cameras 121), microphones (see 122), battery gauges, environmental sensors (e.g.
  • the mobile terminal disclosed herein may use a combination of information sensed by at least two or more of these sensors.
  • the output unit 550 is used to generate an output related to sight, hearing, or tactile sense, and includes at least one of a display unit 551, an audio output unit 552, a haptic module 553, and an optical output unit 554. can do.
  • the display unit 551 may form a layer structure or an integrated structure with the touch sensor, thereby implementing a touch screen.
  • the touch screen may function as a user input unit 523 that provides an input interface between the mobile terminal 500 and the user, and may also provide an output interface between the mobile terminal 500 and the user.
  • the interface unit 560 serves as a path to various types of external devices connected to the mobile terminal 500.
  • the interface unit 560 connects a device equipped with a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, and an identification module. It may include at least one of a port, an audio input / output (I / O) port, a video input / output (I / O) port, and an earphone port.
  • I / O audio input / output
  • I / O video input / output
  • earphone port an earphone port
  • the memory 570 stores data supporting various functions of the mobile terminal 500.
  • the memory 570 may store a plurality of application programs or applications that are driven in the mobile terminal 500, data for operating the mobile terminal 500, and instructions. At least some of these applications may be downloaded from an external server via wireless communication.
  • at least some of these application programs may exist on the mobile terminal 500 from the time of shipment for basic functions (for example, a call forwarding, a calling function, a message receiving, and a calling function) of the mobile terminal 500.
  • the application program may be stored in the memory 570, installed on the mobile terminal 500, and driven by the controller 580 to perform an operation (or function) of the mobile terminal.
  • the controller 580 In addition to the operation related to the application program, the controller 580 typically controls the overall operation of the mobile terminal 500.
  • the controller 580 may provide or process information or a function appropriate to a user by processing signals, data, information, or the like input or output through the above-described components, or by running an application program stored in the memory 570.
  • controller 580 may control at least some of the components described with reference to FIG. 5 to drive an application program stored in the memory 570. In addition, the controller 580 may operate by combining at least two or more of the components included in the mobile terminal 500 to drive the application program.
  • the power supply unit 590 receives power from an external power source and an internal power source under the control of the controller 580 to supply power to each component included in the mobile terminal 500.
  • the power supply unit 590 includes a battery, which may be an internal battery or a replaceable battery.
  • At least some of the components may operate in cooperation with each other to implement an operation, control, or control method of the mobile terminal according to various embodiments described below.
  • the operation, control, or control method of the mobile terminal may be implemented on the mobile terminal by driving at least one application program stored in the memory 570.
  • the broadcast receiving module 511 of the wireless communication unit 510 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel.
  • the broadcast channel may include a satellite channel and a terrestrial channel.
  • Two or more broadcast receiving modules may be provided to the mobile terminal 100 for simultaneous broadcast reception or switching of broadcast channels for at least two broadcast channels.
  • the mobile communication module 512 may include technical standards or communication schemes (eg, Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Code Division Multi Access 2000 (CDMA2000), and EV).
  • GSM Global System for Mobile communication
  • CDMA Code Division Multi Access
  • CDMA2000 Code Division Multi Access 2000
  • EV Enhanced Voice-Data Optimized or Enhanced Voice-Data Only (DO), Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), LTE-A (Long Term Evolution-Advanced) and the like to transmit and receive a radio signal with at least one of a base station, an external terminal, a server on a mobile communication network.
  • GSM Global System for Mobile communication
  • CDMA Code Division Multi Access
  • CDMA2000 Code Division Multi Access 2000
  • EV Enhanced Voice-Data Optimized or Enhanced Voice-Data Only (DO)
  • WCDMA Wideband CDMA
  • HSDPA High
  • the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.
  • the wireless internet module 513 refers to a module for wireless internet access and may be embedded or external to the mobile terminal 500.
  • the wireless internet module 513 is configured to transmit and receive wireless signals in a communication network according to wireless internet technologies.
  • wireless Internet technologies include Wireless LAN (WLAN), Wireless-Fidelity (Wi-Fi), Wireless Fidelity (Wi-Fi) Direct, Digital Living Network Alliance (DLNA), Wireless Broadband (WiBro), and WiMAX (World).
  • 513 transmits and receives data according to at least one wireless Internet technology in a range including the Internet technologies not listed above.
  • the wireless Internet module for performing wireless Internet access through the mobile communication network 513 May be understood as a kind of mobile communication module 512.
  • the short range communication module 514 is for short range communication, and includes Bluetooth TM, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and NFC. (Near Field Communication), at least one of Wi-Fi (Wireless-Fidelity), Wi-Fi Direct, Wireless USB (Wireless Universal Serial Bus) technology can be used to support short-range communication.
  • the short-range communication module 514 may be provided between a mobile terminal 500 and a wireless communication system, between the mobile terminal 500 and another mobile terminal 500, or through a wireless area network. ) And a network in which the other mobile terminal 100 (or an external server) is located.
  • the short range wireless communication network may be short range wireless personal area networks.
  • the other mobile terminal 500 is a wearable device capable of exchanging (or interworking) data with the mobile terminal 500 according to the present invention (eg, smartwatch, smart glasses). (smart glass), head mounted display (HMD).
  • the short range communication module 514 may sense (or recognize) a wearable device that can communicate with the mobile terminal 500 in the vicinity of the mobile terminal 500. Further, when the detected wearable device is a device that is authenticated to communicate with the mobile terminal 500 according to the present invention, the controller 580 may include at least a portion of data processed by the mobile terminal 500 in the short range communication module ( 514 may be transmitted to the wearable device. Therefore, the user of the wearable device may use data processed by the mobile terminal 500 through the wearable device.
  • the user when a user receives a phone call, the user makes a phone call through the wearable device, or when a message is received in the mobile terminal 500, the user receives the received call through the wearable device. It is possible to check the message.
  • the location information module 515 is a module for obtaining the location (or current location) of the mobile terminal, and a representative example thereof is a Global Positioning System (GPS) module or a Wireless Fidelity (WiFi) module.
  • GPS Global Positioning System
  • Wi-Fi Wireless Fidelity
  • the mobile terminal may acquire the location of the mobile terminal using a signal transmitted from a GPS satellite.
  • the mobile terminal may acquire the location of the mobile terminal based on information of the wireless access point (AP) transmitting or receiving the Wi-Fi module and the wireless signal.
  • the location information module 115 may perform any function of other modules of the wireless communication unit 510 in order to substitute or additionally obtain data regarding the location of the mobile terminal.
  • the location information module 115 is a module used to obtain the location (or current location) of the mobile terminal, and is not limited to a module that directly calculates or obtains the location of the mobile terminal.
  • the input unit 520 is for inputting image information (or signal), audio information (or signal), data, or information input from a user, and for inputting image information, the mobile terminal 500 is one.
  • a plurality of cameras 521 may be provided.
  • the camera 521 processes image frames such as still images or moving images obtained by the image sensor in the video call mode or the photographing mode.
  • the processed image frame may be displayed on the display unit 551 or stored in the memory 570.
  • the plurality of cameras 521 provided in the mobile terminal 500 may be arranged to form a matrix structure, and through the camera 521 forming a matrix structure as described above, various angles or focuses are provided to the mobile terminal 500.
  • the plurality of pieces of image information may be input.
  • the plurality of cameras 521 may be arranged in a stereo structure to acquire a left image and a right image for implementing a stereoscopic image.
  • the microphone 522 processes an external sound signal into electrical voice data.
  • the processed voice data may be utilized in various ways depending on the function (or running application program) being performed in the mobile terminal 500. Meanwhile, various noise reduction algorithms may be implemented in the microphone 522 to remove noise generated in the process of receiving an external sound signal.
  • the user input unit 523 is for receiving information from a user. When information is input through the user input unit 523, the controller 580 may control an operation of the mobile terminal 500 to correspond to the input information. .
  • the user input unit 523 may include a mechanical input means (or a mechanical key, for example, a button, a dome switch, a jog wheel, or the like located on the front or rear side of the mobile terminal 500). Jog switch, etc.) and touch input means.
  • the touch input means may include a virtual key, a soft key, or a visual key displayed on the touch screen through a software process, or a portion other than the touch screen. It may be made of a touch key disposed in the.
  • the virtual key or the visual key may be displayed on the touch screen while having various forms, for example, graphic, text, icon, video, or the like. It can be made of a combination of.
  • the sensing unit 540 senses at least one of information in the mobile terminal, surrounding environment information surrounding the mobile terminal, and user information, and generates a sensing signal corresponding thereto.
  • the controller 580 may control driving or operation of the mobile terminal 500 or perform data processing, function, or operation related to an application program installed in the mobile terminal 500 based on the sensing signal. Representative sensors among various sensors that may be included in the sensing unit 540 will be described in more detail.
  • the proximity sensor 541 refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using a mechanical contact by using electromagnetic force or infrared rays.
  • the proximity sensor 541 may be disposed in an inner region of the mobile terminal covered by the touch screen described above or near the touch screen.
  • the proximity sensor 541 examples include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.
  • the proximity sensor 541 may be configured to detect the proximity of the object with the change of the electric field according to the proximity of the conductive object.
  • the touch screen (or touch sensor) itself may be classified as a proximity sensor.
  • the proximity sensor 541 may detect a proximity touch and a proximity touch pattern (for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state). have.
  • the controller 580 processes the data (or information) corresponding to the proximity touch operation and the proximity touch pattern detected through the proximity sensor 541 as described above, and further, provides visual information corresponding to the processed data. It can be output on the touch screen. Furthermore, the controller 580 may control the mobile terminal 500 to process different operations or data (or information) according to whether the touch on the same point on the touch screen is a proximity touch or a touch touch. .
  • the touch sensor applies a touch (or touch input) applied to the touch screen (or display unit 551) using at least one of various touch methods such as a resistive film method, a capacitive method, an infrared method, an ultrasonic method, and a magnetic field method. Detect.
  • the touch sensor may be configured to convert a change in pressure applied to a specific portion of the touch screen or capacitance generated at the specific portion into an electrical input signal.
  • the touch sensor may be configured to detect a position, an area, a pressure at the touch, a capacitance at the touch, and the like, when the touch object applying the touch on the touch screen is touched on the touch sensor.
  • the touch object is an object applying a touch to the touch sensor and may be, for example, a finger, a touch pen or a stylus pen, a pointer, or the like.
  • the touch controller processes the signal (s) and then transmits the corresponding data to the controller 580.
  • the controller 580 may determine which area of the display unit 551 is touched.
  • the touch controller may be a separate component from the controller 580 or may be the controller 580 itself.
  • the controller 580 may perform different control or perform the same control according to the type of the touch object that touches the touch screen (or a touch key provided in addition to the touch screen). Whether to perform different control or the same control according to the type of touch object may be determined according to the operation state of the mobile terminal 500 or an application program being executed.
  • the touch sensor and the proximity sensor described above may be independently or combined, and may be a short (or tap) touch, a long touch, a multi touch, a drag touch on a touch screen. ), Flick touch, pinch-in touch, pinch-out touch, swipe touch, hovering touch, etc. A touch can be sensed.
  • the ultrasonic sensor may recognize location information of a sensing object using ultrasonic waves.
  • the controller 580 may calculate the position of the wave generation source through the information detected by the optical sensor and the plurality of ultrasonic sensors.
  • the position of the wave source can be calculated using the property that the light is much faster than the ultrasonic wave, that is, the time that the light reaches the optical sensor is much faster than the time when the ultrasonic wave reaches the ultrasonic sensor. More specifically, the position of the wave generation source may be calculated using a time difference from the time when the ultrasonic wave reaches the light as the reference signal.
  • the camera 521 which is described as the configuration of the input unit 520, includes at least one of a camera sensor (eg, CCD, CMOS, etc.), a photo sensor (or an image sensor), and a laser sensor.
  • a camera sensor eg, CCD, CMOS, etc.
  • a photo sensor or an image sensor
  • a laser sensor e.g., a laser sensor
  • the camera 521 and the laser sensor may be combined with each other to detect a touch of a sensing object with respect to a 3D stereoscopic image.
  • the photo sensor may be stacked on the display element, and the photo sensor may be configured to scan a movement of the sensing object in proximity to the touch screen. More specifically, the photo sensor mounts a photo diode and a transistor (TR) in a row / column and scans contents loaded on the photo sensor by using an electrical signal that changes according to the amount of light applied to the photo diode. That is, the photo sensor calculates coordinates of the sensing object according to the amount of light change, and thus, the position information of the sensing object can be obtained.
  • TR transistor
  • the display unit 551 displays (outputs) information processed by the mobile terminal 500.
  • the display unit 551 may display execution screen information of an application program driven in the mobile terminal 500 or user interface (UI) and graphical user interface (GUI) information according to the execution screen information. .
  • UI user interface
  • GUI graphical user interface
  • the display unit 551 may be configured as a stereoscopic display unit for displaying a stereoscopic image.
  • the stereoscopic display unit may be a three-dimensional display method such as a stereoscopic method (glasses method), an auto stereoscopic method (glasses-free method), a projection method (holographic method).
  • the sound output unit 552 may output audio data received from the wireless communication unit 510 or stored in the memory 570 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like.
  • the sound output unit 552 may also output a sound signal related to a function (for example, a call signal reception sound or a message reception sound) performed in the mobile terminal 500.
  • the sound output unit 552 may include a receiver, a speaker, a buzzer, and the like.
  • the haptic module 553 generates various tactile effects that a user can feel.
  • a representative example of the tactile effect generated by the haptic module 553 may be vibration.
  • the intensity and pattern of vibration generated by the haptic module 553 may be controlled by the user's selection or setting of the controller. For example, the haptic module 553 may synthesize different vibrations and output them or output them sequentially.
  • the haptic module 553 may be used to stimulate pins that vertically move with respect to the contact skin surface, the jetting force or suction force of air through the jetting or suction port, the grazing to the skin surface, the contact of the electrode, the electrostatic force, and the like.
  • Various tactile effects can be generated, such as effects by the endothermic and the reproduction of a sense of cold using the elements capable of endotherm or heat generation.
  • the haptic module 553 may not only transmit a tactile effect through direct contact, but also may allow a user to feel the tactile effect through a muscle sense such as a finger or an arm. Two or more haptic modules 553 may be provided according to a configuration aspect of the mobile terminal 500.
  • the light output unit 554 outputs a signal for notifying occurrence of an event by using light of a light source of the mobile terminal 500.
  • Examples of events generated in the mobile terminal 500 may be message reception, call signal reception, missed call, alarm, schedule notification, email reception, information reception through an application, and the like.
  • the signal output from the light output unit 554 is implemented as the mobile terminal emits light of a single color or a plurality of colors to the front or the rear.
  • the signal output may be terminated by the mobile terminal detecting the user's event confirmation.
  • the interface unit 560 serves as a path to all external devices connected to the mobile terminal 500.
  • the interface unit 560 receives data from an external device, receives power, transfers the power to each component inside the mobile terminal 500, or transmits data within the mobile terminal 500 to an external device.
  • the port, an audio input / output (I / O) port, a video input / output (I / O) port, an earphone port, and the like may be included in the interface unit 560.
  • the identification module is a chip that stores a variety of information for authenticating the usage rights of the mobile terminal 500, a user identification module (UIM), subscriber identity module (SIM), universal user authentication And a universal subscriber identity module (USIM).
  • a device equipped with an identification module (hereinafter referred to as an 'identification device') may be manufactured in the form of a smart card. Therefore, the identification device may be connected to the terminal 100 through the interface unit 560.
  • the interface unit 560 becomes a passage for supplying power from the cradle to the mobile terminal 500 or is input by the user in the cradle.
  • Various command signals may be a passage for transmitting to the mobile terminal 500.
  • Various command signals or power input from the cradle may operate as signals for recognizing that the mobile terminal 500 is correctly mounted on the cradle.
  • the memory 570 may store a program for the operation of the controller 580, and may temporarily store input / output data (eg, a phone book, a message, a still image, a video, etc.).
  • the memory 570 may store data relating to various patterns of vibration and sound output when a touch input on the touch screen is performed.
  • the memory 570 may include a flash memory type, a hard disk type, a solid state disk type, an SSD type, a silicon disk drive type, and a multimedia card micro type. ), Card-type memory (e.g., SD or XD memory), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read It may include at least one type of storage medium of -only memory (PROM), programmable read-only memory (PROM), magnetic memory, magnetic disk and optical disk.
  • the mobile terminal 500 may be operated in connection with a web storage that performs a storage function of the memory 570 on the Internet.
  • the controller 580 controls the operation related to the application program, and generally the overall operation of the mobile terminal 500. For example, if the state of the mobile terminal satisfies a set condition, the controller 580 may execute or release a lock state that restricts an input of a user's control command to applications.
  • controller 580 may perform control and processing related to a voice call, data communication, video call, or the like, or may perform pattern recognition processing for recognizing handwriting or drawing input performed on a touch screen as text and images, respectively. Can be. Furthermore, in order to implement various embodiments described below on the mobile terminal 500 according to the present invention, the controller 580 may control any one or a plurality of components described above in combination.
  • the power supply unit 590 receives an external power source and an internal power source under the control of the controller 580 to supply power for operation of each component.
  • the power supply unit 590 may include a battery, and the battery may be a built-in battery configured to be rechargeable, and may be detachably coupled to the terminal body for charging.
  • the power supply unit 590 may be provided with a connection port, the connection port may be configured as an example of the interface 160 is electrically connected to the external charger for supplying power for charging the battery.
  • the power supply unit 590 may be configured to charge the battery in a wireless manner without using the connection port.
  • the power supply unit 590 may use at least one of an inductive coupling based on a magnetic induction phenomenon or a magnetic resonance coupling based on an electromagnetic resonance phenomenon from an external wireless power transmitter. Power can be delivered.
  • various embodiments of the present disclosure may be implemented in a recording medium readable by a computer or a similar device using, for example, software, hardware, or a combination thereof.
  • the communication system may use different air interfaces and / or physical layers.
  • a radio interface that can be used by a communication system includes frequency division multiple access (FDMA), time division multiple access (TDMA), and code division multiple access (CDMA). ), Universal Mobile Telecommunications Systems (UMTS) (especially Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A)), Global System for Mobile Communications (GSM), etc. This may be included.
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • CDMA code division multiple access
  • UMTS Universal Mobile Telecommunications Systems
  • LTE Long Term Evolution
  • LTE-A Long Term Evolution-Advanced
  • GSM Global System for Mobile Communications
  • the CDMA wireless communication system includes at least one terminal 100, at least one base station (Base Station, BS (also referred to as Node B or Evolved Node B)), and at least one Base Station Controllers (BSCs). ), And may include a mobile switching center (MSC).
  • the MSC is configured to connect with the Public Switched Telephone Network (PSTN) and BSCs.
  • PSTN Public Switched Telephone Network
  • the BSCs may be connected to the BS through a backhaul line.
  • the backhaul line may be provided according to at least one of E1 / T1, ATM, IP, PPP, Frame Relay, HDSL, ADSL, or xDSL.
  • Each of the plurality of BSs may include at least one sector, and each sector may include an omnidirectional antenna or an antenna pointing in a radial direction from the BS.
  • each sector may include two or more antennas of various types.
  • Each BS may be configured to support a plurality of frequency assignments, and the plurality of frequency assignments may each have a specific spectrum (eg, 1.25 MHz, 5 MHz, etc.).
  • BSs may be called Base Station Transceiver Subsystems (BTSs).
  • BTSs Base Station Transceiver Subsystems
  • one BSC and at least one BS may be collectively referred to as a "base station”.
  • the base station may also indicate “cell site”.
  • each of the plurality of sectors for a particular BS may be called a plurality of cell sites.
  • the broadcast transmitter transmits a broadcast signal to the terminals 100 operating in the system.
  • the broadcast receiving module 511 illustrated in FIG. 5 is provided in the terminal 100 to receive a broadcast signal transmitted by BT.
  • a CDMA wireless communication system may be associated with a global positioning system (GPS) for identifying the location of the mobile terminal 500.
  • GPS global positioning system
  • the satellite 300 helps to locate the mobile terminal 500.
  • Useful location information may be obtained by up to two or more satellites.
  • the location of the mobile terminal 500 may be tracked using all the technologies capable of tracking the location as well as the GPS tracking technology.
  • at least one of the GPS satellites may optionally or additionally be responsible for satellite DMB transmission.
  • the location information module 515 provided in the mobile terminal is used to detect, calculate, or identify the location of the mobile terminal.
  • Examples of the location information module 515 may include a Global Position System (GPS) module and a Wireless Fidelity (WiFi) module. If necessary, the location information module 115 may perform any function of other modules of the wireless communication unit 510 in order to substitute or additionally obtain data regarding the location of the mobile terminal.
  • GPS Global Position System
  • WiFi Wireless Fidelity
  • the GPS module 115 calculates distance information and accurate time information away from three or more satellites, and then triangulates the calculated information to accurately calculate three-dimensional current position information according to latitude, longitude, and altitude. can do.
  • a method of calculating position and time information using three satellites and correcting the error of the calculated position and time information using another satellite is widely used.
  • the GPS module 115 may calculate speed information by continuously calculating the current position in real time.
  • a WPS WiFi Positioning System
  • the Wi-Fi Positioning System is a mobile terminal 500 using a WiFi module provided in the mobile terminal 500 and a wireless access point (AP) for transmitting or receiving a wireless signal with the WiFi module.
  • a technology for tracking the location of a it refers to a WLAN (Wireless Local Area Network) based location positioning technology using WiFi.
  • the Wi-Fi location tracking system may include a Wi-Fi location server, a mobile terminal 500, a wireless AP connected to the mobile terminal 500, and a database in which any wireless AP information is stored.
  • the mobile terminal 500 connected to the wireless AP may transmit a location information request message to the Wi-Fi location server.
  • the Wi-Fi positioning server extracts the information of the wireless AP connected to the mobile terminal 500 based on the location information request message (or signal) of the mobile terminal 500.
  • Information of the wireless AP connected to the mobile terminal 500 may be transmitted to the Wi-Fi positioning server through the mobile terminal 500, or may be transmitted from the wireless AP to the Wi-Fi positioning server.
  • the extracted information of the wireless AP is MAC Address, Service Set IDentification (SSID), Received Signal Strength Indicator (RSSI), Reference Signal Received Power (RSRP), RSRQ ( It may be at least one of Reference Signal Received Quality, Channel Information, Privacy, Network Type, Signal Strength, and Noise Strength.
  • SSID Service Set IDentification
  • RSSI Received Signal Strength Indicator
  • RSRP Reference Signal Received Power
  • RSRQ It may be at least one of Reference Signal Received Quality, Channel Information, Privacy, Network Type, Signal Strength, and Noise Strength.
  • the Wi-Fi positioning server receives the information of the wireless AP connected to the mobile terminal 500, and extracts the wireless AP information corresponding to the wireless AP to which the mobile terminal is connected from a previously built database.
  • the information of any wireless AP stored in the database is MAC address, SSID, channel information, Privacy, Network Type, latitude and longitude coordinates of the wireless AP, building name, floor number, indoor detailed location information (GPS coordinates) Available), the AP owner's address, telephone number, and the like.
  • the Wi-Fi positioning server may extract only a predetermined number of wireless AP information in the order of high RSSI.
  • the Wi-Fi positioning server may extract (or analyze) location information of the mobile terminal 500 using at least one piece of wireless AP information extracted from a database.
  • the location information of the mobile terminal 500 is extracted (or analyzed) by comparing the included information with the received wireless AP information.
  • a cell-ID method As a method for extracting (or analyzing) the location information of the mobile terminal 500, a cell-ID method, a finger print method, a triangulation method, a landmark method, or the like may be utilized.
  • the Cell-ID method is a method of determining the location of a mobile AP having the strongest signal strength among neighboring wireless AP information collected by the mobile terminal.
  • the simple implementation no additional cost, and quick location information can be obtained.
  • the low installation density of the wireless AP reduces the positioning accuracy.
  • the fingerprint method is a method of selecting a reference location in a service area to collect signal strength information and estimating a location based on signal strength information transmitted from a mobile terminal based on the collected information. In order to use the fingerprint method, it is necessary to database propagation characteristics in advance.
  • the triangulation method calculates the position of the mobile terminal based on the coordinates of at least three wireless APs and the distance between the mobile terminals.
  • the signal strength is converted into distance information, a time of arrival of a radio signal (ToA), a time difference of transmission of a signal (Time Difference of Arrival, TDoA) , Angle of signal transmission (Angle of Arrival, AoA) may be used.
  • ToA time of arrival of a radio signal
  • TDoA Time Difference of Arrival
  • AoA Angle of signal transmission
  • the landmark method is a method of measuring the location of a mobile terminal using a landmark transmitter that knows the location.
  • various algorithms may be utilized as a method for extracting (or analyzing) location information of a mobile terminal.
  • the extracted location information of the mobile terminal 500 is transmitted to the mobile terminal 500 through the Wi-Fi positioning server, so that the mobile terminal 500 can obtain the location information.
  • the mobile terminal 500 may obtain location information by being connected to at least one wireless AP.
  • the number of wireless APs required to obtain location information of the mobile terminal 500 may be variously changed according to a wireless communication environment in which the mobile terminal 500 is located.
  • FIG. 6 is a ladder diagram illustrating a process of providing a screen sharing service by establishing a WFD session between a WFD source and a WFD sink according to an embodiment of the present invention.
  • One or more of the steps in FIG. 6 may be supported by a Wi-Fi Direct standard document.
  • the display service of the WFDS may refer to a service and an application that enable screen sharing among P2P devices.
  • a P2P service using a display service may be called a WFD device, and a device that supports streaming of multimedia content through a device P2P link among the WFD devices may be a WFD source device or a WFD source device through a P2P link.
  • the device that receives the multimedia content from the rendering device may be referred to as a WFD sink.
  • the WFD source 10 may be the mobile terminal 500 shown in FIG. 5. Accordingly, the WFD source 10 may include all the components of the mobile terminal 500 shown in FIG. 5.
  • the WFD sink 20 may be the display device 100 shown in FIG. 1. Accordingly, the WFD sink 20 may include all the components of the mobile terminal 500 illustrated in FIG. 1.
  • the WFD source 10 may display an image on a screen (S600).
  • the image displayed on the screen may be an image of media content.
  • the image displayed on the screen is a home screen of the mobile terminal 500 or an execution screen of an application installed in the mobile terminal 500.
  • the mobile terminal 500 may be an image being displayed.
  • the WFD source 10 and the WFD sink 20 may initially search for each other's existence prior to the WFD connection setup through the WFD device discovery (S601).
  • the WFD devices may recognize each other through a probe request frame and a probe response frame including a WFD Information Element (WFD IE).
  • the WFD information element may include basic information for establishing an optimal connection between WFD devices such as device type and device state.
  • the WFD device may transmit a probe response frame including its WFD IE in response thereto. If a WFD device is associated with an AP and operates as a Wi-Fi P2P device, two or more Wi-Fi transceivers logically operate on one physical device.
  • the Wi-Fi Direct transceiver is used for the WFD device discovery.
  • the probe request frame for the discovery of the WFD device may include a P2P information element (IE) as well as a WFD IE, which may be decoded by a Wi-Fi direct transceiver.
  • IE P2P information element
  • the WFD source 10 and the WFD sink 20 may search for each other's service capability before setting up the WFD connection (S603).
  • the other WFD device responds to the service in which its WFD capability is included as an information subelement.
  • the search response frame may be transmitted.
  • the service discovery procedure is an optional procedure, and the WFD device supporting the service discovery procedure may perform a service discovery procedure with the discovered WFD device supporting the service discovery procedure.
  • the probe request frame and the response frame used in the device discovery procedure may include information indicating whether the WFD device has the capability of supporting the service discovery procedure.
  • the WFD source 10 or WFD sink 20 may then select a peer WFD device for WFD connection setup.
  • the peer WFD device to proceed with the WFD connection setup may be selected by a user input, or the peer WFD device may be selected to automatically proceed with the WFD connection setup according to the policy.
  • the WFD device may select a WFD connection setup method with the selected peer WFD device (S605). Specifically, a WFD device may establish a WFD connection with a connectivity scheme of any of Wi-Fi P2P and Tunneled Direct Link Setup (TDLS). WFD devices may be preferred. The connectivity scheme may be determined based on the associated BSSID sub-elements carried with the Connectivity) information and the WFD information elements.
  • TDLS Tunneled Direct Link Setup
  • the WFD device may proceed with WFD capability negotiation (S607). Specifically, the WFD source 10 and the WFD sink 20 exchange messages using the Real-Time Streaming Protocol (RTSP) protocol to establish a parameter set that defines the audio / video payload during the WFD session. You can decide.
  • the WFD source 10 and the WFD sink 20 may exchange their specification information with each other.
  • the WFD source 10 may query the capabilities of the WFD sink 20 using the RTSP protocol, and the WFD sink 20 may transmit its capability information to the WFD source 10 in response. For example, the WFD sink 20 may transmit resolution information including resolutions that are supported by the WFD sink 20 to the WFD source 10.
  • RTSP Real-Time Streaming Protocol
  • the WFD sink 20 may transmit, to the WFD source 10, resolution information including a resolution that the resolution that the support can support corresponds to an aspect ratio of 16: 9 or 4: 3.
  • the resolution corresponding to 16: 9 or 4: 3 is merely an example and may be a resolution corresponding to an aspect ratio in which the horizontal length is longer than the vertical length.
  • the WFD source 10 may also transmit resolution information including resolutions that the WFD source 10 supports to the WFD sink 20.
  • FIGS. 7A to 7D are diagrams for describing resolution information transmitted by a WFD sink to a WFD source according to one embodiment of the present invention.
  • the WFD sink 20 may send one or more of the resolution tables shown in FIGS. 7A-7C to the WFD source 10. That is, the WFD sink 20 may transmit to the WFD source 10 a resolution corresponding to an aspect ratio of 16: 9 or 4: 3 and a resolution corresponding to an aspect ratio whose horizontal length is longer than the vertical length.
  • the resolution table illustrated in FIG. 7A may be a table indicating a set of resolutions supported by a handheld device supported by a WFD device and a refresh rate corresponding to the resolution.
  • the resolution table illustrated in FIG. 7B may be a table indicating a set of Consumer Electronics Association (CEA) resolutions supported by the WFD device and a refresh rate corresponding to the resolution.
  • CEA Consumer Electronics Association
  • the resolution table shown in FIG. 7C may be a table indicating a set of supported Video Electronics Standards Association (VESA) resolutions supported by the WFD device and a refresh rate corresponding to the resolution.
  • VESA Video Electronics Standards Association
  • FIG. 7D is a diagram for explaining a message in which a WFD source inquires about the capabilities of a WFD sink, and the WFD sink correspondingly includes its capability information according to an embodiment of the present invention.
  • the WFD source 10 may send a request message M3 that queries the capabilities of the WFD sink 20 using the RTSP protocol.
  • the WFD source 10 may transmit a request message including a video format (wfd-video-formats) parameter 730 to the WFD sink 20.
  • the video format parameter may be a parameter for querying a video resolution that the WFD sink 20 can support.
  • the WFD sink 20 may transmit a response message M3 including the resolution information illustrated in FIGS. 7A to 7C to the WFD source 10 in response to the request message received from the WFD source 10.
  • the resolution information may include the resolution tables shown in FIGS. 7A to 7C. This may be confirmed through the value of the video format parameter 730 included in the response message.
  • the WFD source 10 may transmit a necessary request message to the WFD sink 20 using the RTSP protocol in the process of negotiating the WFD capability with the WFD sink 20 (S609).
  • the WFD source 10 uses the RTSP protocol to send a message including a content to deliver an image of video content corresponding to a specific resolution based on the resolution information received from the WFD sink 20.
  • the WFD source 10 may select any one of a plurality of resolutions supported by the WFD sink 20 and transmit a message to the WFD sink 20 to transmit an image of video content having the selected resolution.
  • the WFD sink 20 may transmit a response message through the RTSP protocol based on the request message received from the WFD source 10 (S611).
  • the resolution selected by the WFD source 10 may not be included in the resolutions supported by the WFD source 10. That is, the resolution of the image being displayed by the WFD source 10 may not be included in the resolutions supported by the WFD sink 20.
  • Steps S609 and S611 may be included in the WFD capability negotiation step S607.
  • a WFD session (or Miracast session) is established between the WFD source 10 and the WFD sink 20, and audio and video from the WFD source 10 to the WFD sink 20.
  • the content may be streamed (S613).
  • the WFD sink 20 may display the entire image of the streamed video content.
  • the WFD source 10 may be the mobile terminal 500 described with reference to FIG. 5, and the WFD sink 20 will be described on the assumption that the display device 100 is described with reference to FIG. 1.
  • the WFD source 10 may include all the components of the mobile terminal 500 shown in FIG. 5.
  • the WFD sink 20 may also include all components of the display 100 shown in FIG. 1.
  • the WFD sink 20 receives a magnification request signal for enlarging some images included in the entire image of the video content (S615).
  • the magnification request signal may be a signal for enlarging some images included in the entire image of the video content being displayed on the display unit 180 of the WFD sink 20.
  • the magnification request signal may be a signal for enlarging only a specific area around a point of the entire image of the video content.
  • one point may be a point at which the pointer moved by the remote control apparatus 200 is located.
  • the WFD sink 20 may receive a magnification request signal from the remote control device 200.
  • the remote control apparatus 200 may transmit a magnification request signal to the WFD sink 20 when a button provided in the remote control apparatus 200 is selected.
  • the function of the WFD sync 20 for enlarging some images of the entire image may be referred to as a magic zoom function, but this is merely an exemplary name.
  • the display apparatus 100 may receive a magnification request signal from the remote control apparatus 200.
  • the WFD sink 20 transmits an enlargement mode request message to the WFD source 10 in response to the received enlargement request signal (S617).
  • the magnification mode request message may be a message indicating that the WFD sink 20 performs a magic zoom function.
  • the magnification mode request message may be a message for additionally transmitting an enlarged image of a part of the image corresponding to the position of the pointer.
  • the magnification mode request message may be a message for transmitting an enlarged version of the partial image corresponding to the point where the pointer is located at the time when the display apparatus 100 receives the magnification request signal from the remote control apparatus 200. .
  • the magnification mode request message may be a message for additionally transmitting an enlarged image of a part of the image corresponding to the position of the pointer as the WFD sink 20 performs the magic zoom function.
  • the magnification mode request message may be a message for requesting transmission of an entire image of the video content and an enlarged image of a partial image corresponding to the position of the pointer in the entire image.
  • the magnification mode request message may include location information for identifying the magnification area of the entire image.
  • the location information of the enlarged area may include coordinates of the pointer and coordinates of the enlarged area centered on the pointer. Can be. The positional information of the enlarged area will be described later.
  • the WFD sink 20 may transmit an enlarged mode request message to the WFD source 10 through a user input back channel (UIBC).
  • UIBC user input back channel
  • the magnification mode request message may include a flag indicating that the WFD sink 20 performs the magic zoom function.
  • the WFD source 10 obtains an enlarged area within the entire image of the video content being displayed, based on the location information corresponding to the enlarged area included in the enlarged mode request message received from the WFD sink 20 (S619).
  • the WFD source 10 may obtain an enlarged area that is an enlarged object in the entire image, based on one or more of the coordinates of the pointer and the coordinates of the enlarged area included in the position information corresponding to the enlarged area.
  • the WFD source 10 transmits data of the entire image of the video content and the data of the enlarged partial image corresponding to the obtained enlarged area to the WFD sink 20 (S621 and S622).
  • the WFD source 10 may simultaneously transmit the data of the entire image of the video content and the data of the enlarged partial image corresponding to the enlarged region to the WFD sink 20.
  • the WFD source 10 may transmit the data of the enlarged partial image of the entire image of the video content to the WFD sink 20 through different channels.
  • the WFD source 10 may transmit the data of the entire video and the enlarged partial video of the video content to the WFD sink 20 using a Real-Time Streaming Protocol (RTSP) protocol.
  • RTSP Real-Time Streaming Protocol
  • the WFD sink 20 displays the entire image based on the received entire image data on the sub-screen of the display unit, and displays the enlarged partial image based on the data of the enlarged partial image on the sub-screen of the display unit (S623).
  • the main screen and the sub screen of the display unit may vary according to size.
  • the size of the main screen of the display unit of the WFD sink 20 may be larger than the size of the sub screen.
  • the WFD sink 20 may move the entire image of the video content to the position where the letter box is displayed. At the same time, the WFD sink 20 may display the enlarged partial image on the remaining screen of the display unit while moving the entire image of the video content to the position where the letter box is displayed.
  • FIG. 8 to 11 illustrate a process of performing a magic zoom function when sharing a screen between a WFD source and a WFD sink according to an embodiment of the present invention.
  • the WFD source 10 is a mobile terminal 500 and the WFD sink 20 is a display device 100.
  • the mobile terminal 500 is in a portrait mode.
  • the portrait mode may be a mode indicating that the vertical length of the mobile terminal 500 is longer than the horizontal length.
  • the opposite of portrait mode is landscape mode.
  • Portrait mode may be named portrait mode
  • landscape mode may be named landscape mode
  • the mobile terminal 500 may transmit the entire image 810 of the content displayed on the display unit 551 to the display apparatus 100 through a screen mirroring function.
  • the display apparatus 100 may display the entire image 810 of the content received from the mobile terminal 500 on the display unit 180.
  • the display apparatus 100 may further display letter boxes 820 and 830 on both sides of the entire image 810 while displaying the entire image 810.
  • first letter box 820 may be displayed on the left side of the entire image 810
  • second letter box 830 may be displayed on the right side of the entire image 810.
  • Each letter box may be an inserted image because the aspect ratio of the display apparatus 100 and the aspect ratio of the mobile terminal 500 do not match with each other.
  • a pointer 900 that is moved according to the movement of the remote control apparatus 200 may be displayed on the display unit 180 of the display apparatus 100.
  • the display apparatus 100 may receive a magnification request signal from the remote control apparatus 200.
  • the magnification request signal may be a request to magnify some images in the entire image 810 based on the pointer 900.
  • the display apparatus 100 may change the shape of the pointer 900 according to the magnification request signal.
  • the changed shape of the pointer 900 may have a magnifying glass shape.
  • the display apparatus 100 may magnify some images 811 included in the entire image 810 around the pointer 900.
  • the enlarged part of the image 811 may be blurred at the boundary surface.
  • Scaling may be performed through a weighted sum of squares technique.
  • the display apparatus 100 may generate peripheral pixel data after interpolating original pixel data of a partial image before enlargement.
  • the interface of some magnified images may be blurred.
  • FIG. 11 there is shown a partial image 1130 in which an original partial image 1110 before magnification is enlarged according to a magnification request signal.
  • the boundary of each circle constituting the enlarged partial image 1130 is blurred compared to the original partial image 1110 before enlargement, so that an image of clear image quality cannot be provided.
  • the resolution of the enlarged partial image 1130 may be lower than that of the original partial image 1100 before enlargement, which may cause deterioration of image quality.
  • the WFD sink 20 receives the entire image from the WFD source 10 and simultaneously receives the enlarged partial image. Can be.
  • FIG. 12 to 14 illustrate a process of performing a magic zoom function when sharing a screen between a WFD source and a WFD sink according to another embodiment of the present invention.
  • FIGS. 12 and 14 are exemplary embodiments when the mobile terminal 500 is in a portrait mode (portrait mode).
  • the display apparatus 100 may transmit a magnification mode request message to the mobile terminal 500.
  • the mobile terminal 500 may obtain a partial image corresponding to a region to be enlarged among the entire images 810 based on the enlarged mode request message received from the display apparatus 100.
  • the mobile terminal 500 may acquire a partial image of the area to be enlarged using the coordinate values of the enlarged area included in the enlarged mode request message.
  • the mobile terminal 500 may obtain data of the enlarged partial image in a state where the obtained partial image is enlarged and transmit it to the display apparatus 100.
  • the data of the enlarged partial image may be data in which the resolution of the original image is maintained.
  • the mobile terminal 500 may transmit the data of the enlarged partial image 1210 of the image corresponding to the enlarged region together with the data of the entire image 810 to the display apparatus 100.
  • the display apparatus 100 may display the entire image 810 based on the received data of the enlarged partial image 1210 and the enlarged partial image 1210 based on the data of the enlarged partial image 1210. Can be displayed.
  • the display apparatus 100 may move the entire image 810 to an area 1201 in which the first letter box 820 is displayed. At the same time, the display apparatus 100 may display the enlarged partial image 1210 on the remaining area 1203 of the display unit 180.
  • the entire image 810 is moved from the center to the left as an example, but this is only an example and may be moved from the center to the right.
  • the magnification mode request message transmitted by the display apparatus 100 may include location information corresponding to the magnification area 811 to be magnified of the entire image 810.
  • the location information of the magnified area 811 may be used later to allow the mobile terminal 500 to transmit an image of a state in which a part of the image corresponding to the magnified area is magnified to the display apparatus 100.
  • Position information corresponding to the enlarged area 811 will be described with reference to FIG. 13.
  • an enlarged area 811 is illustrated centering on the magnifying glass pointer 900.
  • the enlarged area 811 may have a rectangular shape, but this is merely an example, and may have various shapes such as a circle and an ellipse.
  • the display apparatus 100 may acquire the coordinates O of the pointer 900 displayed on the entire image 810. In addition, the coordinates of the vertices of the enlarged area 811 having a quadrangular shape with respect to the coordinate O of the pointer 900 may be obtained.
  • the display apparatus 100 includes A (x + w, y + h), which is the coordinate of the first vertex of the magnified area 811, B (xw, y + h), which is the coordinate of the second vertex, and the third vertex. Position information including coordinates C (xw, yh) and coordinates D (x + w, yh) of the fourth vertex may be obtained.
  • the display apparatus 100 may transmit the acquired position information of the enlarged area 811 to the mobile terminal 500.
  • the mobile terminal 500 may convert coordinates of each vertex included in the position information of the enlarged area 811 according to its screen ratio.
  • the mobile terminal 500 may acquire some images corresponding to the magnified area 811 using the converted coordinates of each vertex.
  • the mobile terminal 500 may acquire the data of the enlarged partial image that is the same as the resolution of the original image, based on the obtained data of the partial image.
  • the mobile terminal 500 may transmit the entire image 810 and the enlarged partial image 1210 to the display apparatus 100 according to the received enlargement mode request message.
  • the display apparatus 100 may not display the original image and the original image without requiring a scaling process. A portion of the image enlarged may be displayed.
  • the user can clearly view an image of a portion of the original image to be enlarged and viewed.
  • the user may watch the enlarged partial image instead of the unnecessary black region such as the letter box.
  • the user can view the desired information large and clear through the large screen of the WFD sink 20, compared to the screen of the relatively small WFD source 10.
  • 15 to 17 are diagrams illustrating a process of performing a magic zoom function when sharing a screen between a WFD source and a WFD sink according to another embodiment of the present invention.
  • FIG. 15 and FIG. 17 are exemplary embodiments when the mobile terminal 500 is in a landscape mode (landscape mode).
  • the mobile terminal 500 displays the entire image 1510 of the media content under the landscape mode.
  • the display apparatus 100 displays the entire image 1510 and the pointer 900 of the media content being received from the mobile terminal 500.
  • the display apparatus 100 may not display the letter box.
  • the display apparatus 100 may receive a magnification request signal from the remote control apparatus 200.
  • the display apparatus 100 may obtain location information of the magnified area 1500 corresponding to the point where the pointer 900 is located.
  • the display apparatus 100 may transmit a magnification mode request message including the acquired location information of the magnification area 1500 to the mobile terminal 500.
  • the mobile terminal 500 may acquire some of the images that are to be enlarged from the entire image 1510 based on the location information of the enlarged region 1500 included in the received enlarged mode request message.
  • the mobile terminal 500 may acquire data of the enlarged partial image corresponding to the partial image and transmit the acquired data together with the data of the entire image 1510 to the display apparatus 100.
  • the display apparatus 100 displays an enlarged partial image 1600 corresponding to the enlarged area 1500 on the main screen of the display unit 180, and displays the entire image 1510 previously displayed. Can be displayed on the sub-screen.
  • the main screen may be a full screen of the display unit 180
  • the sub screen may be a partial screen of the display unit 180. That is, the entire image 1510 may be reduced and displayed.
  • the display apparatus 100 may enlarge the partial image corresponding to the area 1601 corresponding to the point where the pointer 900 is located. 1700 may be displayed on the main screen.
  • the display apparatus 100 is positioned as shown in FIG. 17.
  • the enlarged partial image 1700 corresponding to the area 1601 corresponding to the point may be displayed on the main screen.
  • the display apparatus 100 transmits the location information of the area 1601 corresponding to the point where the pointer 900 is located to the mobile terminal 500, and enlarges the corresponding location 1601 from the mobile terminal 500. Data of the partial image 1700 may be received.
  • the user may enlarge and view a desired portion through the entire image 1510 displayed on the sub-screen.
  • FIG. 18 is a diagram for describing a configuration of a wireless device according to one embodiment of the present invention.
  • the wireless device shown in FIG. 18 may be any of the WFD source 10 and the WFD sink 20 described above.
  • the wireless device 1 may include a communication unit 2, a memory 3, a display unit 4, and a processor 9.
  • the communication unit 2 may transmit / receive a radio signal and may implement, for example, a physical layer according to the IEEE 802 system.
  • the communication unit 2 may be named as a transceiver.
  • the processor 9 may control operations of the communication unit 2, the memory 3, and the display unit 4.
  • the processor 9 may be electrically connected to the communication unit 2 to implement a physical layer and / or a MAC layer according to the IEEE 802 system.
  • the processor 9 may be configured to perform operations of encoding and decoding audio / video for the WFD service.
  • a module that implements the operation of the wireless device according to various embodiments of the present invention described above may be stored in the memory 3 and executed by the processor 9.
  • the memory 3 may be included in the processor 9 or installed outside the processor 9 and connected to the processor 9 by known means.
  • the wireless device 1 may further include a sound output for outputting sound.
  • the WFD source 10 may include all of the configurations of the mobile terminal 500 shown in FIG. 5.
  • the communication unit 2 of the wireless device 1 may perform all the functions of the wireless communication unit 510.
  • the communication unit 2 may include all the functions of the short range communication module 514 included in the wireless communication unit 510.
  • the memory 3 of the wireless device 1 may correspond to the memory 570 of FIG. 5, and the display unit 4 may correspond to the display unit 551 of FIG. 5.
  • the processor 1 may perform all the functions of the controller 580 of FIG. 5.
  • the WFD sink 20 may include all the configurations of the display apparatus 100 illustrated in FIG. 1.
  • the communication unit 2 of the wireless device 1 may correspond to the wireless communication unit 173 of FIG. 1
  • the memory of the wireless device 1 may correspond to the storage unit 140 of FIG. 1
  • the display unit 4 of the wireless device 1 may correspond to the display unit 180 of FIG. 1
  • the processor 9 of the wireless device 1 may correspond to the controller 170 of FIG. 1.
  • the WFD sink 20 may or may not remove the black image from the entire image received from the WFD source 10 by setting the black image removal mode.
  • the WFD sink 20 may display a menu setting screen for setting the black image removal mode, and set whether or not to remove the black image through the menu setting screen.
  • Embodiments of the present invention are directed to standard documents disclosed in at least one of wireless access systems: IEEE 802 system, 3GPP system, 3GPP LTE and LTE-Advanced (LTE-A) system, 3GPP2 system, and Wi-Fi Alliance (WFA) system.
  • IEEE 802 system IEEE 802 system
  • 3GPP system 3GPP LTE and LTE-Advanced (LTE-A) system
  • 3GPP2 system 3GPP2 system
  • WFA Wi-Fi Alliance
  • the above-described method may be implemented as code that can be read by a processor in a medium in which a program is recorded.
  • processor-readable media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like.
  • the display device described above may not be limitedly applied to the configuration and method of the above-described embodiments, but the embodiments may be configured by selectively combining all or some of the embodiments so that various modifications may be made. It may be.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Marketing (AREA)
  • Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Telephone Function (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Selective Calling Equipment (AREA)

Abstract

본 발명의 실시 예에 따른 와이파이 다이렉트 서비스를 지원하는 제1 무선 디바이스는 제2 무선 디바이스가 표시 중인 컨텐트의 전체 영상을 표시하는 디스플레이부와 제2 무선 디바이스와의 연결 셋업을 수행하는 통신부 및 상기 디스플레이부 및 상기 통신부를 제어하는 프로세서를 포함하고, 상기 프로세서는 상기 전체 영상에 포함된 일부 영상을 확대하기 위한 확대 요청 신호를 수신하고, 상기 확대 요청 신호에 기초하여, 상기 제2 무선 디바이스로부터 상기 전체 영상의 데이터 및 상기 일부 영상에 대응하는 확대된 일부 영상의 데이터를 수신할 수 있다.

Description

무선 디바이스 및 무선 시스템
본 발명은 무선 디바이스 및 무선 시스템에 관한 것으로, 보다 상세하게는, 스크린 미러링 시, 원본 영상과 원본 영상의 일부가 확대된 영상을 하나의 화면에 제공하기 위한 것에 관한 것이다.
최근 정보통신 기술의 발전과 더불어 다양한 무선 통신 기술이 개발되고, 있다. 이 중에서 무선랜(WLAN)은 무선 주파수 기술을 바탕으로 개인 휴대용 정보 단말기(Personal Digital Assistant; PDA), 랩탑 컴퓨터, 휴대용 멀티미디어 플레이어(Portable Multimedia Player; PMP)등과 같은 휴대용 단말기를 이용하여 가정이나 기업 또는 특정 서비스 제공지역에서 무선으로 인터넷에 액세스할 수 있도록 하는 기술이다.
기존의 무선랜 시스템에서 기본적으로 요구되는 무선 액세스 포인트(AP) 없이, 디바이스(device)들이 서로 용이하게 연결할 수 있도록 하는 직접 통신 기술로서, 와이파이 다이렉트(Wi-Fi Direct) 또는 Wi-Fi P2P(peer-to-peer)의 도입이 논의되고 있다. 와이파이 다이렉트 표준 기술에 의하면 복잡한 설정과정을 거치지 않고도 디바이스들이 연결될 수 있고, 사용자에게 다양한 서비스를 제공하기 위해서, 일반적인 무선랜 시스템의 통신 속도로 서로 데이터를 주고 받는 동작을 지원할 수 있다.
최근 다양한 Wi-Fi 지원 디바이스들이 이용되며, 그 중에서도 AP 없이 Wi-Fi
디바이스간 통신이 가능한 Wi-Fi Direct 지원 디바이스의 개수가 증가하고 있다. WFA(Wi-Fi Alliance)에서는 Wi-Fi Direct 링크를 이용한 다양한 서비스(예를 들어, 전송(Send), 플레이(Play), 디스플레이(Display), 프린트(Print) 등)을 지원하는 플랫폼을 도입하는 기술이 논의되고 있다. 이를 와이파이 다이렉트 서비스(Wi-Fi Direct Service, WFDS)라고 칭할 수 있다.
WFDS 중 디스플레이 서비스는 P2P 디바이스들 사이에 화면 공유를 가능하게 하는 서비스가 있다. 화면 공유 서비스는 영상의 전송을 통해 무선 디바이스가 동일한 영상을 표시한다는 점에서 스크린 미러링(screen mirroring) 기술이라 불리기도 한다.
그러나, 기존의 화면 공유 서비스는 P2P 디바이스들 간의 영상의 전송 시, 화면 비율 또는 해상도가 맞지 않아 상하 또는 좌우에 블랙 영상(또는 레터 박스)과 같은 불필요한 영상을 포함시켜 전달할 수 밖에 없었다. 이에 따라, 사용자는 다른 영상의 시청 중, 소스 장치가 표시하는 영상 이외의 불필요한 영상으로 인해, 시청에 방해가 되었다.
또한, 소스 장치에서 표시하는 원본 영상이 작은 그림, 아이콘, 지도, 글씨를 포함하는 경우, 소스 장치의 화면이 작아, 사용자의 조작이 어려운 문제가 있었다.
또한, 소스 장치 상에 표시된 영상을 확대한 경우, 싱크 장치 상에서도 확대된 영상을 표시할 수 있었으나, 영상의 화질 열화가 발생되는 문제가 있다.
본 발명은 와이파이 다이렉트 서비스 중 화면 공유 서비스가 제공될 시, 소스 장치의 작은 화면에서 표시하는 정보 중 일부를 싱크 장치에서 확대하여 제공하고자 하는 것에 그 목적이 있다.
또한, 본 발명은 와이파이 다이렉트 서비스 중 화면 공유 서비스가 제공될 시, 싱크 장치가 소스 장치로부터 전체 영상 및 전체 영상을 구성하는 일부의 확대 영상을 2개의 스트림으로 전달받아, 제공하는 것에 그 목적이 있다.
또한, 본 발명은 와이파이 다이렉트 서비스 중 화면 공유 서비스가 제공될 시, 화질의 열화 없이, 전체 영상 중 일부 영상을 확대하여 제공하는 것에 그 목적이 있다.
또한, 본 발명은 와이파이 다이렉트 서비스 중 화면 공유 서비스가 제공될 시, 해상도 또는 화면 비율의 불일치로 인해 삽입되는 블랙 영상을 표시하지 않는 것에 그 목적이 있다.
본 발명의 실시 예에 따른 와이파이 다이렉트 서비스를 지원하는 제1 무선 디바이스는 제2 무선 디바이스가 표시 중인 컨텐트의 전체 영상을 표시하는 디스플레이부와 제2 무선 디바이스와의 연결 셋업을 수행하는 통신부 및 상기 디스플레이부 및 상기 통신부를 제어하는 프로세서를 포함하고, 상기 프로세서는 상기 전체 영상에 포함된 일부 영상을 확대하기 위한 확대 요청 신호를 수신하고, 상기 확대 요청 신호에 기초하여, 상기 제2 무선 디바이스로부터 상기 전체 영상의 데이터 및 상기 일부 영상에 대응하는 확대된 일부 영상의 데이터를 수신할 수 있다.
본 발명의 실시 예에 따른 와이파이 다이렉트 서비스를 지원하는 무선 시스템은 제2 무선 디바이스로부터 상기 제2 무선 디바이스가 표시 중인 컨텐트의 전체 영상을 표시하고, 상기 전체 영상에 포함된 일부 영상을 확대하기 위한 확대 요청 신호를 수신하고, 상기 확대 요청 신호에 기초하여, 상기 제2 무선 디바이스로부터 상기 전체 영상의 데이터 및 상기 일부 영상에 대응하는 확대된 일부 영상의 데이터를 수신하는 제1 무선 디바이스 및 상기 컨텐트의 전체 영상을 표시하고, 상기 제1 무선 디바이스로부터 수신된 확대 모드 요청 메시지에 따라 상기 제1 무선 디바이스에 상기 전체 영상의 데이터 및 상기 확대된 일부 영상의 데이터를 상기 제1 무선 디바이스에 전송하는 제2 무선 디바이스를 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 와이파이 다이렉트 서비스 중 화면 공유 서비스가 제공될 시, 사용자는 소스 장치에서 확인하기 어려운 정보를 큰 화면으로, 보다 선명하게 시청할 수 있다.
본 발명의 다양한 실시 예에 따르면, 와이파이 다이렉트 서비스 중 화면 공유 서비스가 제공될 시, 소스 장치로부터 수신된 원본 영상의 해상도와 동일한 해상도로 일부 영상을 시청할 수 있다.
본 발명의 다양한 실시 예에 따르면, 와이파이 다이렉트 서비스 중 화면 공유 서비스가 제공될 시, 해상도 또는 화면 비율의 불일치로 인해 삽입되는 블랙 영상이 제거되어, 사용자는 불필요한 영상을 시청하지 않을 수 있다.
도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 블록도로 도시한 것이다.
도 2은 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 원격제어장치의 실제 구성 예를 보여준다.
도 4는 본 발명의 실시 예에 따라 원격 제어 장치를 활용하는 예를 보여준다.
도 5는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이다.
도 6은 본 발명의 일 실시 예에 따라 WFD 소스 및 WFD 싱크 사이 WFD 세션이 구축되어 화면 공유 서비스가 제공되는 과정을 설명하기 위한 래더 다이어 그램이다.
도 7a 내지 도 7d는 본 발명의 일 실시 예에 따라 WFD 싱크가 WFD 소스에 전송하는 해상도 정보를 나타내는 테이블을 설명하기 위한 도면이다.
도 8 내지 도 11은 본 발명의 일 실시 예에 따른 WFD 소스와 WFD 싱크 간 화면 공유 시, 매직 줌 기능을 수행하는 과정을 설명하는 도면이다.
도 12 내지 도 14는 본 발명의 또 다른 실시 예에 따른 WFD 소스와 WFD 싱크 간 화면 공유 시, 매직 줌 기능을 수행하는 과정을 설명하는 도면이다.
도 15 내지 도 17은 본 발명의 또 다른 실시 예에 따른 WFD 소스와 WFD 싱크 간 화면 공유 시, 매직 줌 기능을 수행하는 과정을 설명하는 도면이다.
도 18은 본 발명의 일 실시 예에 따른 무선 디바이스의 구성을 설명하기 위한 도면이다.
이하, 본 발명과 관련된 실시 예에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
본 발명의 실시예에 따른 디스플레이 장치는, 예를 들어 방송 수신 기능에 컴퓨터 지원 기능을 추가한 지능형 디스플레이 장치로서, 방송 수신 기능에 충실하면서도 인터넷 기능 등이 추가되어, 수기 방식의 입력 장치, 터치 스크린 또는 공간 리모콘 등 보다 사용에 편리한 인터페이스를 갖출 수 있다. 그리고, 유선 또는 무선 인터넷 기능의 지원으로 인터넷 및 컴퓨터에 접속되어, 이메일, 웹브라우징, 뱅킹 또는 게임 등의 기능도 수행가능하다. 이러한 다양한 기능을 위해 표준화된 범용 OS가 사용될 수 있다.
따라서, 본 발명에서 기술되는 디스플레이 장치는, 예를 들어 범용의 OS 커널 상에, 다양한 애플리케이션이 자유롭게 추가되거나 삭제 가능하므로, 사용자 친화적인 다양한 기능이 수행될 수 있다. 상기 디스플레이 장치는, 보다 구체적으로 예를 들면, 네트워크 TV, HBBTV, 스마트 TV, LED TV, OLED TV 등이 될 수 있으며, 경우에 따라 스마트폰에도 적용 가능하다.
도 1은 본 발명의 일 실시예에 따른 디스플레이 장치의 구성을 블록도로 도시한 것이다.
도 1을 참조하면, 디스플레이 장치(100)는 방송 수신부(130), 외부장치 인터페이스부(135), 저장부(140), 사용자입력 인터페이스부(150), 제어부(170), 무선 통신부(173), 디스플레이부(180), 오디오 출력부(185), 전원공급부(590)를 포함할 수 있다.
방송 수신부(130)는 튜너(131), 복조부(132) 및 네트워크 인터페이스부(133)를 포함할 수 있다.
튜너(131)는 채널 선국 명령에 따라 특정 방송 채널을 선국할 수 있다. 튜너(131)는 선국된 특정 방송 채널에 대한 방송 신호를 수신할 수 있다.
복조부(132)는 수신한 방송 신호를 비디오 신호, 오디오 신호, 방송 프로그램과 관련된 데이터 신호로 분리할 수 있고, 분리된 비디오 신호, 오디오 신호 및 데이터 신호를 출력이 가능한 형태로 복원할 수 있다.
외부장치 인터페이스부(135)는 인접하는 외부 장치 내의 애플리케이션 또는 애플리케이션 목록을 수신하여, 제어부(170) 또는 저장부(140)로 전달할 수 있다.
외부장치 인터페이스부(135)는 디스플레이 장치(100)와 외부 장치 간의 연결 경로를 제공할 수 있다. 외부장치 인터페이스부(135)는 디스플레이 장치(100)에 무선 또는 유선으로 연결된 외부장치로부터 출력된 영상, 오디오 중 하나 이상을 수신하여, 제어부(170)로 전달할 수 있다. 외부장치 인터페이스부(135)는 복수의 외부 입력 단자들을 포함할 수 있다. 복수의 외부 입력 단자들은 RGB 단자, 하나 이상의 HDMI(High Definition Multimedia Interface) 단자, 컴포넌트(Component) 단자를 포함할 수 있다.
외부장치 인터페이스부(135)를 통해 입력된 외부장치의 영상 신호는 디스플레이부(180)를 통해 출력될 수 있다. 외부장치 인터페이스부(135)를 통해 입력된 외부장치의 음성 신호는 오디오 출력부(185)를 통해 출력될 수 있다.
외부장치 인터페이스부(135)에 연결 가능한 외부 장치는 셋톱박스, 블루레이 플레이어, DVD 플레이어, 게임기, 사운드 바, 스마트폰, PC, USB 메모리, 홈 씨어터 중 어느 하나일 수 있으나, 이는 예시에 불과하다.
네트워크 인터페이스부(133)는 디스플레이 장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공할 수 있다. 네트워크 인터페이스부(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다.
또한, 디스플레이 장치(100)에 미리 등록된 다른 사용자 또는 다른 전자 기기 중 선택된 사용자 또는 선택된 전자기기에, 디스플레이 장치(100)에 저장된 일부의 컨텐츠 데이터를 송신할 수 있다.
네트워크 인터페이스부(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 소정 웹 페이지에 접속할 수 있다. 즉, 네트워크를 통해 소정 웹 페이지에 접속하여, 해당 서버와 데이터를 송신 또는 수신할 수 있다.
그리고, 네트워크 인터페이스부(133)는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크 인터페이스부(133)는 네트워크를 통하여 컨텐츠 제공자 또는 네트워크 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다.
또한, 네트워크 인터페이스부(133)는 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있으며, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.
네트워크 인터페이스부(133)는 네트워크를 통해, 공중에 공개(open)된 애플리케이션들 중 원하는 애플리케이션을 선택하여 수신할 수 있다.
저장부(140)는 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장하고, 신호 처리된 영상, 음성 또는 데이터신호를 저장할 수 있다.
또한, 저장부(140)는 외부장치 인터페이스부(135) 또는 네트워크 인터페이스부(133)로부터 입력되는 영상, 음성, 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있으며, 채널 기억 기능을 통하여 소정 이미지에 관한 정보를 저장할 수도 있다.
저장부(140)는 외부장치 인터페이스부(135) 또는 네트워크 인터페이스부(133)로부터 입력되는 애플리케이션 또는 애플리케이션 목록을 저장할 수 있다.
디스플레이 장치(100)는 저장부(140) 내에 저장되어 있는 컨텐츠 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일, 애플리케이션 파일 등)을 재생하여 사용자에게 제공할 수 있다.
사용자입력 인터페이스부(150)는 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달할 수 있다. 예를 들어, 사용자입력 인터페이스부(150)는 블루투스(Bluetooth), WB(Ultra Wideband), 지그비(ZigBee) 방식, RF(Radio Frequency) 통신 방식 또는 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 제어 신호를 수신하여 처리하거나, 제어부(170)로부터의 제어 신호를 원격제어장치(200)로 송신하도록 처리할 수 있다.
또한, 사용자입력 인터페이스부(150)는, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 제어 신호를 제어부(170)에 전달할 수 있다.
제어부(170)에서 영상 처리된 영상 신호는 디스플레이부(180)로 입력되어 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부장치 인터페이스부(135)를 통하여 외부 출력장치로 입력될 수 있다.
제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 오디오 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부장치 인터페이스부(135)를 통하여 외부 출력장치로 입력될 수 있다.
그 외, 제어부(170)는, 디스플레이 장치(100) 내의 전반적인 동작을 제어할 수 있다.
또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 디스플레이 장치(100)를 제어할 수 있으며, 네트워크에 접속하여 사용자가 원하는 애플리케이션 또는 애플리케이션 목록을 디스플레이 장치(100) 내로 다운받을 수 있도록 할 수 있다.
제어부(170)는 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 디스플레이부(180) 또는 오디오 출력부(185)를 통하여 출력될 수 있도록 한다.
또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 수신한 외부장치 영상 재생 명령에 따라, 외부장치 인터페이스부(135)를 통하여 입력되는 외부 장치, 예를 들어, 카메라 또는 캠코더로부터의, 영상 신호 또는 음성 신호가 디스플레이부(180) 또는 오디오 출력부(185)를 통해 출력될 수 있도록 한다.
한편, 제어부(170)는 영상을 표시하도록 디스플레이부(180)를 제어할 수 있으며, 예를 들어 튜너(131)를 통해 입력되는 방송 영상, 또는 외부장치 인터페이스부(135)를 통해 입력되는 외부 입력 영상, 또는 네트워크 인터페이스부를 통해 입력되는 영상, 또는 저장부(140)에 저장된 영상이 디스플레이부(180)에서 표시되도록 제어할 수 있다. 이 경우, 디스플레이부(180)에 표시되는 영상은 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.
또한, 제어부(170)는 디스플레이 장치(100) 내에 저장된 컨텐츠, 또는 수신된 방송 컨텐츠, 외부로 부터 입력되는 외부 입력 컨텐츠가 재생되도록 제어할 수 있으며, 상기 컨텐츠는 방송 영상, 외부 입력 영상, 오디오 파일, 정지 영상, 접속된 웹 화면, 및 문서 파일 등 다양한 형태일 수 있다.
무선 통신부(173)는 유선 또는 무선 통신을 통해 외부 기기와 통신을 수행할 수 있다. 무선 통신부(173)는 외부 기기와 근거리 통신(Short range communication)을 수행할 수 있다. 이를 위해, 무선 통신부(173)는 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 무선 통신부(173)는 근거리 무선 통신망(Wireless Area Networks)을 통해 디스플레이 장치(100)와 무선 통신 시스템 사이, 디스플레이 장치(100)와 다른 디스플레이 장치(100) 사이, 또는 디스플레이 장치(100)와 디스플레이 장치(100, 또는 외부서버)가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다. 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.
여기에서, 다른 디스플레이 장치(100)는 본 발명에 따른 디스플레이 장치(100)와 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 웨어러블 디바이스(wearable device, 예를 들어, 스마트워치(smartwatch), 스마트 글래스(smart glass), HMD(head mounted display)), 스마트 폰과 같은 이동 단말기가 될 수 있다. 무선 통신부(173)는 디스플레이 장치(100) 주변에, 통신 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다. 나아가, 제어부(170)는 감지된 웨어러블 디바이스가 본 발명에 따른 디스플레이 장치(100)와 통신하도록 인증된 디바이스인 경우, 디스플레이 장치(100)에서 처리되는 데이터의 적어도 일부를, 무선 통신부(173)를 통해 웨어러블 디바이스로 송신할 수 있다. 따라서, 웨어러블 디바이스의 사용자는, 디스플레이 장치(100)에서 처리되는 데이터를, 웨어러블 디바이스를 통해 이용할 수 있다.
디스플레이부(180)는 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호 또는 외부장치 인터페이스부(135)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R,G,B 신호로 변환하여 구동 신호를 생성할 수 있다.
한편, 도 1에 도시된 디스플레이 장치(100)는 본 발명의 일실시예에 불과하므로. 도시된 구성요소들 중 일부는 실제 구현되는 디스플레이 장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다.
즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
본 발명의 또 다른 실시예에 따르면, 디스플레이 장치(100)는 도 1에 도시된 바와 달리, 튜너(131)와 복조부(132)를 구비하지 않고 네트워크 인터페이스부(133) 또는 외부장치 인터페이스부(135)를 통해서 영상을 수신하여 재생할 수도 있다.
예를 들어, 디스플레이 장치(100)는 방송 신호 또는 다양한 네트워크 서비스에 따른 컨텐츠들을 수신하기 위한 등과 같은 셋탑 박스 등과 같은 영상 처리 장치와 상기 영상 처리 장치로부터 입력되는 컨텐츠를 재생하는 컨텐츠 재생 장치로 분리되어 구현될 수 있다.
이 경우, 이하에서 설명할 본 발명의 실시예에 따른 디스플레이 장치의 동작 방법은 도 1을 참조하여 설명한 바와 같은 디스플레이 장치(100)뿐 아니라, 상기 분리된 셋탑 박스 등과 같은 영상 처리 장치 또는 디스플레이부(180) 및 오디오출력부(185)를 구비하는 컨텐츠 재생 장치 중 어느 하나에 의해 수행될 수도 있다.
다음으로, 도 2 내지 도 3을 참조하여, 본 발명의 일 실시 예에 따른 원격제어장치에 대해 설명한다.
도 2은 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이고, 도 3은 본발명의 일 실시 예에 따른 원격제어장치(200)의 실제 구성 예를 보여준다.
먼저, 도 2를 참조하면, 원격제어장치(200)는 지문인식부(210), 무선통신부(220), 사용자 입력부(230), 센서부(240), 출력부(250), 전원공급부(260), 저장부(270), 제어부(280), 음성 획득부(290)를 포함할 수 있다.
**73도 2을 참조하면, 무선통신부(225)는 전술하여 설명한 본 발명의 실시 예들에 따른 디스플레이 장치 중 임의의 어느 하나와 신호를 송수신한다.
원격제어장치(200)는 RF 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 RF 모듈(221)을 구비하며, IR 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 IR 모듈(223)을 구비할 수 있다. 또한, 원격제어장치(200)는 블루투스 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 블루투스 모듈(225)를 구비할 수 있다. 또한, 원격제어장치(200)는 NFC(Near Field Communication) 통신 규격에 따라 디스플레이 장치(100)와 신호를 송수할 수 있는 NFC 모듈(227)을 구비하며, WLAN(Wireless LAN) 통신 규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 WLAN 모듈(229)을 구비할 수 있다.
또한, 원격제어장치(200)는 디스플레이 장치(100)로 원격제어장치(200)의 움직임 등에 관한 정보가 담긴 신호를 무선 통신부(220)를 통해 전송한다.
한편, 원격제어장치(200)는 디스플레이 장치(100)가 전송한 신호를 RF 모듈(221)을 통하여 수신할 수 있으며, 필요에 따라 IR 모듈(223)을 통하여 디스플레이 장치(100)로 전원 온/오프, 채널 변경, 볼륨 변경 등에 관한 명령을 전송할 수 있다.
사용자 입력부(230)는 키패드, 버튼, 터치 패드, 또는 터치 스크린 등으로 구성될 수 있다. 사용자는 사용자 입력부(230)를 조작하여 원격제어장치(200)으로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 사용자 입력부(230)가 하드키 버튼을 구비할 경우 사용자는 하드키 버튼의 푸쉬 동작을 통하여 원격제어장치(200)으로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 이에 대해서는 도 3을 참조하여 설명한다.
도 3을 참조하면, 원격제어장치(200)는 복수의 버튼을 포함할 수 있다. 복수의 버튼은 지문 인식 버튼(212), 전원 버튼(231), 홈 버튼(232), 라이브 버튼(233), 외부 입력 버튼(234), 음량 조절 버튼(235), 음성 인식 버튼(236), 채널 변경 버튼(237), 확인 버튼(238) 및 뒤로 가기 버튼(239)을 포함할 수 있다.
지문 인식 버튼(212)은 사용자의 지문을 인식하기 위한 버튼일 수 있다. 일 실시예로, 지문 인식 버튼(212)은 푸쉬 동작이 가능하여, 푸쉬 동작 및 지문 인식 동작을 수신할 수도 있다. 전원 버튼(231)은 디스플레이 장치(100)의 전원을 온/오프 하기 위한 버튼일 수 있다. 홈 버튼(232)은 디스플레이 장치(100)의 홈 화면으로 이동하기 위한 버튼일 수 있다. 라이브 버튼(233)은 실시간 방송 프로그램을 디스플레이 하기 위한 버튼일 수 있다. 외부 입력 버튼(234)은 디스플레이 장치(100)에 연결된 외부 입력을 수신하기 위한 버튼일 수 있다. 음량 조절 버튼(235)은 디스플레이 장치(100)가 출력하는 음량의 크기를 조절하기 위한 버튼일 수 있다. 음성 인식 버튼(236)은 사용자의 음성을 수신하고, 수신된 음성을 인식하기 위한 버튼일 수 있다. 채널 변경 버튼(237)은 특정 방송 채널의 방송 신호를 수신하기 위한 버튼일 수 있다. 확인 버튼(238)은 특정 기능을 선택하기 위한 버튼일 수 있고, 뒤로 가기 버튼(239)은 이전 화면으로 되돌아가기 위한 버튼일 수 있다.
다시 도 2를 설명한다.
사용자 입력부(230)가 터치스크린을 구비할 경우 사용자는 터치스크린의 소프트키를 터치하여 원격제어장치(200)로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 또한, 사용자 입력부(230)는 스크롤 키나, 조그 키 등 사용자가 조작할 수 있는 다양한 종류의 입력수단을 구비할 수 있으며 본 실시 예는 본 발명의 권리범위를 제한하지 아니한다.
센서부(240)는 자이로 센서(241) 또는 가속도 센서(243)를 구비할 수 있으며, 자이로 센서(241)는 원격제어장치(200)의 움직임에 관한 정보를 센싱할 수 있다.
예를 들어, 자이로 센서(241)는 원격제어장치(200)의 동작에 관한 정보를 x,y,z 축을 기준으로 센싱할 수 있으며, 가속도 센서(243)는 원격제어장치(200)의 이동속도 등에 관한 정보를 센싱할 수 있다. 한편, 원격제어장치(200)는 거리측정센서를 더 구비할 수 있어, 디스플레이 장치(100)의 디스플레이부(180)와의 거리를 센싱할 수 있다.
출력부(250)는 사용자 입력부(235)의 조작에 대응하거나 디스플레이 장치(100)에서 전송한 신호에 대응하는 영상 또는 음성 신호를 출력할 수 있다. 출력부(250)를 통하여 사용자는 사용자 입력부(235)의 조작 여부 또는 디스플레이 장치(100)의 제어 여부를 인지할 수 있다.
예를 들어, 출력부(250)는 사용자 입력부(235)가 조작되거나 무선 통신부(225)를 통하여 디스플레이 장치(100)와 신호가 송수신되면 점등되는 LED 모듈(251), 진동을 발생하는 진동 모듈(253), 음향을 출력하는 음향 출력 모듈(255), 또는 영상을 출력하는 디스플레이 모듈(257)을 구비할 수 있다.
또한, 전원공급부(260)는 원격제어장치(200)으로 전원을 공급하며, 원격제어장치(200)이 소정 시간 동안 움직이지 않은 경우 전원 공급을 중단함으로서 전원 낭비를 줄일 수 있다. 전원공급부(260)는 원격제어장치(200)에 구비된 소정 키가 조작된 경우에 전원 공급을 재개할 수 있다.
저장부(270)는 원격제어장치(200)의 제어 또는 동작에 필요한 여러 종류의 프로그램, 애플리케이션 데이터 등이 저장될 수 있다. 만일 원격제어장치(200)가 디스플레이 장치(100)와 RF 모듈(221)을 통하여 무선으로 신호를 송수신할 경우 원격제어장치(200)과 디스플레이 장치(100)는 소정 주파수 대역을 통하여 신호를 송수신한다.
원격제어장치(200)의 제어부(280)는 원격제어장치(200)과 페어링된 디스플레이 장치(100)와 신호를 무선으로 송수신할 수 있는 주파수 대역 등에 관한 정보를 저장부(270)에 저장하고 참조할 수 있다.
제어부(280)는 원격제어장치(200)의 제어에 관련된 제반사항을 제어한다. 제어부(280)는 사용자 입력부(235)의 소정 키 조작에 대응하는 신호 또는 센서부(240)에서 센싱한 원격제어장치(200)의 움직임에 대응하는 신호를 무선 통신부(225)를 통하여 디스플레이 장치(100)로 전송할 수 있다.
또한, 원격제어장치(200)의 음성 획득부(290)는 음성을 획득할 수 있다.
음성 획득부(290)는 적어도 하나 이상의 마이크(291)을 포함할 수 있고, 마이크(291)를 통해 음성을 획득할 수 있다.
다음으로 도 4를 설명한다.
도 4는 본 발명의 실시 예에 따라 원격 제어 장치를 활용하는 예를 보여준다.
도 4의 (a)는 원격 제어 장치(200)에 대응하는 포인터(205)가 디스플레이부(180)에 표시되는 것을 예시한다.
사용자는 원격 제어 장치(200)를 상하, 좌우로 움직이거나 회전할 수 있다. 디스플레이 장치(100)의 디스플레이부(180)에 표시된 포인터(205)는 원격 제어 장치(200)의 움직임에 대응한다. 이러한 원격 제어 장치(200)는, 도면과 같이, 3D 공간 상의 움직임에 따라 해당 포인터(205)가 이동되어 표시되므로, 공간 리모콘이라 명명할 수 있다.
도 4의 (b)는 사용자가 원격 제어 장치(200)를 왼쪽으로 이동하면, 디스플레이 장치(100)의 디스플레이부(180)에 표시된 포인터(205)도 이에 대응하여 왼쪽으로 이동하는 것을 예시한다.
원격 제어 장치(200)의 센서를 통하여 감지된 원격 제어 장치(200)의 움직임에 관한 정보는 디스플레이 장치(100)로 전송된다. 디스플레이 장치(100)는 원격 제어 장치(200)의 움직임에 관한 정보로부터 포인터(205)의 좌표를 산출할 수 있다. 디스플레이 장치(100)는 산출한 좌표에 대응하도록 포인터(205)를 표시할 수 있다.
**98도 4의 (c)는, 원격 제어 장치(200) 내의 특정 버튼을 누른 상태에서, 사용자가 원격 제어 장치(200)를 디스플레이부(180)에서 멀어지도록 이동하는 경우를 예시한다. 이에 의해, 포인터(205)에 대응하는 디스플레이부(180) 내의 선택 영역이 줌인되어 확대 표시될 수 있다.
이와 반대로, 사용자가 원격 제어 장치(200)를 디스플레이부(180)에 가까워지도록 이동하는 경우, 포인터(205)에 대응하는 디스플레이부(180) 내의 선택 영역이 줌아웃되어 축소 표시될 수 있다.
한편, 원격 제어 장치(200)가 디스플레이부(180)에서 멀어지는 경우, 선택 영역이 줌아웃되고, 원격 제어 장치(200)가 디스플레이부(180)에 가까워지는 경우, 선택 영역이 줌인될 수도 있다.
또한, 원격 제어 장치(200) 내의 특정 버튼을 누른 상태에서는 상하, 좌우 이동의 인식이 배제될 수 있다. 즉, 원격 제어 장치(200)가 디스플레이부(180)에서 멀어지거나 접근하도록 이동하는 경우, 상, 하, 좌, 우 이동은 인식되지 않고, 앞뒤 이동만 인식되도록 할 수 있다. 원격 제어 장치(200) 내의 특정 버튼을 누르지 않은 상태에서는, 원격 제어 장치(200)의 상, 하, 좌, 우 이동에 따라 포인터(205)만 이동하게 된다.
한편, 포인터(205)의 이동속도나 이동방향은 원격 제어 장치(200)의 이동속도나 이동방향에 대응할 수 있다.
한편, 본 명세서에서의 포인터는, 원격 제어 장치(200)의 동작에 대응하여, 디스플레이부(180)에 표시되는 오브젝트를 의미한다. 따라서, 포인터(205)로 도면에 도시된 화살표 형상 외에 다양한 형상의 오브젝트가 가능하다. 예를 들어, 점, 커서, 프롬프트, 두꺼운 외곽선 등을 포함하는 개념일 수 있다. 그리고, 포인터(205)가 디스플레이부(180) 상의 가로축과 세로축 중 어느 한 지점(point)에 대응하여 표시되는 것은 물론, 선(line), 면(surface) 등 복수 지점에 대응하여 표시되는 것도 가능하다.
다음으로, 도 5를 참조하여, 본 발명과 관련된 이동 단말기의 구성을 설명한다.
도 5는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이다.
이동 단말기(500)는 무선 통신부(510), 입력부(520), 센싱부(540), 출력부(550), 인터페이스부(560), 메모리(570), 제어부(580) 및 전원 공급부(590) 등을 포함할 수 있다. 도 5에 도시된 구성요소들은 이동 단말기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 이동 단말기는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
보다 구체적으로, 상기 구성요소들 중 무선 통신부(510)는, 이동 단말기(500)와 무선 통신 시스템 사이, 이동 단말기(500)와 다른 이동 단말기(500) 사이, 또는 이동 단말기(500)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(510)는, 이동 단말기(500)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.
무선 통신부(510)는 방송 수신 모듈(511), 이동통신 모듈(512), 무선 인터넷 모듈(513), 근거리 통신 모듈(514), 위치정보 모듈(515) 중 적어도 하나를 포함할 수 있다.
*입력부(520)는, 영상 신호 입력을 위한 카메라(521) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 522), 또는 오디오 입력부, 사용자로부터 정보를 입력 받기 위한 사용자 입력부(523, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(520)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.
센싱부(540)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱 하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(540)는 근접센서(541, proximity sensor), 조도 센서(542, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 이동 단말기는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱 되는 정보들을 조합하여 활용할 수 있다.
출력부(550)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(551), 음향 출력부(552), 햅틱 모듈(553), 광 출력부(554) 중 적어도 하나를 포함할 수 있다. 디스플레이부(551)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 이동 단말기(500)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(523)로써 기능함과 동시에, 이동 단말기(500)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.
인터페이스부(560)는 이동 단말기(500)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(560)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 이동 단말기(500)에서는, 상기 인터페이스부(560)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.
또한, 메모리(570)는 이동 단말기(500)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(570)는 이동 단말기(500)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 이동 단말기(500)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 이동 단말기(500)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 이동 단말기(500)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(570)에 저장되고, 이동 단말기(500) 상에 설치되어, 제어부(580)에 의하여 상기 이동 단말기의 동작(또는 기능)을 수행하도록 구동될 수 있다.
제어부(580)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 이동 단말기(500)의 전반적인 동작을 제어한다. 제어부(580)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(570)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
또한, 제어부(580)는 메모리(570)에 저장된 응용 프로그램을 구동하기 위하여, 도 5와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(580)는 상기 응용 프로그램의 구동을 위하여, 이동 단말기(500)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.
전원공급부(590)는 제어부(580)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 이동 단말기(500)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(590)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체 가능한 형태의 배터리가 될 수 있다.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 이동 단말기의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 이동 단말기의 동작, 제어, 또는 제어방법은 상기 메모리(570)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 이동 단말기 상에서 구현될 수 있다.
이하에서는, 위에서 살펴본 이동 단말기(500)를 통하여 구현되는 다양한 실시 예들을 살펴보기에 앞서, 위에서 열거된 구성요소들에 대하여 도 5를 참조하여 보다 구체적으로 살펴본다.
먼저, 무선 통신부(510)에 대하여 살펴보면, 무선 통신부(510)의 방송 수신 모듈(511)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 적어도 두 개의 방송 채널들에 대한 동시 방송 수신 또는 방송 채널 스위칭을 위해 둘 이상의 상기 방송 수신 모듈이 상기 이동단말기(100)에 제공될 수 있다.
이동통신 모듈(512)은, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다.
상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈(513)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(500)에 내장되거나 외장될 수 있다. 무선 인터넷 모듈(513)은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.
무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 상기 무선 인터넷 모듈(513)은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다.
WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A 등에 의한 무선인터넷 접속은 이동통신망을 통해 이루어진다는 관점에서 본다면, 상기 이동통신망을 통해 무선인터넷 접속을 수행하는 상기 무선 인터넷 모듈(513)은 상기 이동통신 모듈(512)의 일종으로 이해될 수도 있다.
근거리 통신 모듈(514)은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 근거리 통신 모듈(514)은, 근거리 무선 통신망(Wireless Area Networks)을 통해 이동 단말기(500)와 무선 통신 시스템 사이, 이동 단말기(500)와 다른 이동 단말기(500) 사이, 또는 이동 단말기(500)와 다른 이동 단말기(100, 또는 외부서버)가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다. 상기 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.
여기에서, 다른 이동 단말기(500)는 본 발명에 따른 이동 단말기(500)와 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 웨어러블 디바이스(wearable device, 예를 들어, 스마트워치(smartwatch), 스마트 글래스(smart glass), HMD(head mounted display))가 될 수 있다. 근거리 통신 모듈(514)은, 이동 단말기(500) 주변에, 상기 이동 단말기(500)와 통신 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다. 나아가, 제어부(580)는 상기 감지된 웨어러블 디바이스가 본 발명에 따른 이동 단말기(500)와 통신하도록 인증된 디바이스인 경우, 이동 단말기(500)에서 처리되는 데이터의 적어도 일부를, 상기 근거리 통신 모듈(514)을 통해 웨어러블 디바이스로 송신할 수 있다. 따라서, 웨어러블 디바이스의 사용자는, 이동 단말기(500)에서 처리되는 데이터를, 웨어러블 디바이스를 통해 이용할 수 있다. 예를 들어, 이에 따르면 사용자는, 이동 단말기(500)에 전화가 수신된 경우, 웨어러블 디바이스를 통해 전화 통화를 수행하거나, 이동 단말기(500)에 메시지가 수신된 경우, 웨어러블 디바이스를 통해 상기 수신된 메시지를 확인하는 것이 가능하다.
위치정보 모듈(515)은 이동 단말기의 위치(또는 현재 위치)를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다. 예를 들어, 이동 단말기는 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 이동 단말기의 위치를 획득할 수 있다. 다른 예로서, 이동 단말기는 Wi-Fi모듈을 활용하면, Wi-Fi모듈과 무선신호를 송신 또는 수신하는 무선 AP(Wireless Access Point)의 정보에 기반하여, 이동 단말기의 위치를 획득할 수 있다. 필요에 따라서, 위치정보모듈(115)은 치환 또는 부가적으로 이동 단말기의 위치에 관한 데이터를 얻기 위해 무선 통신부(510)의 다른 모듈 중 어느 기능을 수행할 수 있다. 위치정보모듈(115)은 이동 단말기의 위치(또는 현재 위치)를 획득하기 위해 이용되는 모듈로, 이동 단말기의 위치를 직접적으로 계산하거나 획득하는 모듈로 한정되지는 않는다.
다음으로, 입력부(520)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 영상 정보의 입력을 위하여, 이동 단말기(500) 는 하나 또는 복수의 카메라(521)를 구비할 수 있다. 카메라(521)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(551)에 표시되거나 메모리(570)에 저장될 수 있다. 한편, 이동 단말기(500)에 구비되는 복수의 카메라(521)는 매트릭스 구조를 이루도록 배치될 수 있으며, 이와 같이 매트릭스 구조를 이루는 카메라(521)를 통하여, 이동 단말기(500)에는 다양한 각도 또는 초점을 갖는 복수의 영상정보가 입력될 수 있다. 또한, 복수의 카메라(521)는 입체영상을 구현하기 위한 좌 영상 및 우 영상을 획득하도록, 스트레오 구조로 배치될 수 있다.
마이크로폰(522)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 이동 단말기(500)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다. 한편, 마이크로폰(522)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
사용자 입력부(523)는 사용자로부터 정보를 입력 받기 위한 것으로서, 사용자 입력부(523)를 통해 정보가 입력되면, 제어부(580)는 입력된 정보에 대응되도록 이동 단말기(500)의 동작을 제어할 수 있다. 이러한, 사용자 입력부(523)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 이동 단말기(500)의 전ㅇ후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다.
한편, 센싱부(540)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱 하고, 이에 대응하는 센싱 신호를 발생시킨다. 제어부(580)는 이러한 센싱 신호에 기초하여, 이동 단말기(500)의 구동 또는 동작을 제어하거나, 이동 단말기(500)에 설치된 응용 프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행 할 수 있다. 센싱부(540)에 포함될 수 있는 다양한 센서 중 대표적인 센서들의 대하여, 보다 구체적으로 살펴본다.
먼저, 근접 센서(541)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선 등을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 이러한 근접 센서(541)는 위에서 살펴본 터치 스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(541)가 배치될 수 있다.
근접 센서(541)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전 용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 터치 스크린이 정전식인 경우에, 근접 센서(541)는 전도성을 갖는 물체의 근접에 따른 전계의 변화로 상기 물체의 근접을 검출하도록 구성될 수 있다. 이 경우 터치 스크린(또는 터치 센서) 자체가 근접 센서로 분류될 수 있다.
한편, 설명의 편의를 위해, 터치 스크린 상에 물체가 접촉되지 않으면서 근접되어 상기 물체가 상기 터치 스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 명명하고, 상기 터치 스크린 상에 물체가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 명명한다. 상기 터치 스크린 상에서 물체가 근접 터치 되는 위치라 함은, 상기 물체가 근접 터치될 때 상기 물체가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다. 상기 근접 센서(541)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지할 수 있다. 한편, 제어부(580)는 위와 같이, 근접 센서(541)를 통해 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 데이터(또는 정보)를 처리하며, 나아가, 처리된 데이터에 대응하는 시각적인 정보를 터치 스크린상에 출력시킬 수 있다. 나아가, 제어부(580)는, 터치 스크린 상의 동일한 지점에 대한 터치가, 근접 터치인지 또는 접촉 터치인지에 따라, 서로 다른 동작 또는 데이터(또는 정보)가 처리되도록 이동 단말기(500)를 제어할 수 있다.
터치 센서는 저항막 방식, 정전용량 방식, 적외선 방식, 초음파 방식, 자기장 방식 등 여러 가지 터치방식 중 적어도 하나를 이용하여 터치 스크린(또는 디스플레이부(551))에 가해지는 터치(또는 터치입력)을 감지한다.
일 예로서, 터치 센서는, 터치 스크린의 특정 부위에 가해진 압력 또는 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는, 터치 스크린 상에 터치를 가하는 터치 대상체가 터치 센서 상에 터치 되는 위치, 면적, 터치 시의 압력, 터치 시의 정전 용량 등을 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치 센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다.
이와 같이, 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(580)로 송신한다. 이로써, 제어부(580)는 디스플레이부(551)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다. 여기에서, 터치 제어기는, 제어부(580)와 별도의 구성요소일 수 있고, 제어부(580) 자체일 수 있다.
한편, 제어부(580)는, 터치 스크린(또는 터치 스크린 이외에 구비된 터치키)을 터치하는, 터치 대상체의 종류에 따라 서로 다른 제어를 수행하거나, 동일한 제어를 수행할 수 있다. 터치 대상체의 종류에 따라 서로 다른 제어를 수행할지 또는 동일한 제어를 수행할 지는, 현재 이동 단말기(500)의 동작상태 또는 실행 중인 응용 프로그램에 따라 결정될 수 있다.
한편, 위에서 살펴본 터치 센서 및 근접 센서는 독립적으로 또는 조합되어, 터치 스크린에 대한 숏(또는 탭) 터치(short touch), 롱 터치(long touch), 멀티 터치(multi touch), 드래그 터치(drag touch), 플리크 터치(flick touch), 핀치-인 터치(pinch-in touch), 핀치-아웃 터치(pinch-out 터치), 스와이프(swype) 터치, 호버링(hovering) 터치 등과 같은, 다양한 방식의 터치를 센싱할 수 있다.
초음파 센서는 초음파를 이용하여, 감지대상의 위치정보를 인식할 수 있다. 한편 제어부(580)는 광 센서와 복수의 초음파 센서로부터 감지되는 정보를 통해, 파동 발생원의 위치를 산출하는 것이 가능하다. 파동 발생원의 위치는, 광이 초음파보다 매우 빠른 성질, 즉, 광이 광 센서에 도달하는 시간이 초음파가 초음파 센서에 도달하는 시간보다 매우 빠름을 이용하여, 산출될 수 있다. 보다 구체적으로 광을 기준 신호로 초음파가 도달하는 시간과의 시간차를 이용하여 파동 발생원의 위치가 산출될 수 있다.
한편, 입력부(520)의 구성으로 살펴본, 카메라(521)는 카메라 센서(예를 들어, CCD, CMOS 등), 포토 센서(또는 이미지 센서) 및 레이저 센서 중 적어도 하나를 포함한다.
카메라(521)와 레이저 센서는 서로 조합되어, 3차원 입체영상에 대한 감지대상의 터치를 감지할 수 있다. 포토 센서는 디스플레이 소자에 적층될 수 있는데, 이러한 포토 센서는 터치 스크린에 근접한 감지대상의 움직임을 스캐닝 하도록 이루어진다. 보다 구체적으로, 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호를 이용하여 포토 센서 위에 올려지는 내용물을 스캔 한다. 즉, 포토 센서는 빛의 변화량에 따른 감지대상의 좌표 계산을 수행하며, 이를 통하여 감지대상의 위치정보가 획득될 수 있다.
디스플레이부(551)는 이동 단말기(500)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(551)는 이동 단말기(500)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.
또한, 디스플레이부(551)는 입체영상을 표시하는 입체 디스플레이부로서 구성될 수 있다.
상기 입체 디스플레이부에는 스테레오스코픽 방식(안경 방식), 오토 스테레오스코픽 방식(무안경 방식), 프로젝션 방식(홀로그래픽 방식) 등의 3차원 디스플레이 방식이 적용될 수 있다.
음향 출력부(552)는 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(510)로부터 수신되거나 메모리(570)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력부(552)는 이동 단말기(500)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력부(552)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.
햅틱 모듈(haptic module)(553)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(553)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 햅틱 모듈(553)에서 발생하는 진동의 세기와 패턴 등은 사용자의 선택 또는 제어부의 설정에 의해 제어될 수 있다. 예를 들어, 상기 햅틱 모듈(553)은 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
햅틱 모듈(553)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(electrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.
햅틱 모듈(553)은 직접적인 접촉을 통해 촉각 효과를 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(553)은 이동 단말기(500)의 구성 태양에 따라 2개 이상이 구비될 수 있다.
광출력부(554)는 이동 단말기(500)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기(500)에서 발생 되는 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등이 될 수 있다.
광출력부(554)가 출력하는 신호는 이동 단말기가 전면이나 후면으로 단색이나 복수색의 빛을 발광함에 따라 구현된다. 상기 신호 출력은 이동 단말기가 사용자의 이벤트 확인을 감지함에 의하여 종료될 수 있다.
인터페이스부(560)는 이동 단말기(500)에 연결되는 모든 외부 기기와의 통로 역할을 한다. 인터페이스부(560)는 외부 기기로부터 데이터를 송신 받거나, 전원을 공급받아 이동 단말기(500) 내부의 각 구성요소에 전달하거나, 이동 단말기(500) 내부의 데이터가 외부 기기로 송신되도록 한다. 예를 들어, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트(port), 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 등이 인터페이스부(560)에 포함될 수 있다.
한편, 식별 모듈은 이동 단말기(500)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(user identify module; UIM), 가입자 인증 모듈(subscriber identity module; SIM), 범용 사용자 인증 모듈(universal subscriber identity module; USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 상기 인터페이스부(560)를 통하여 단말기(100)와 연결될 수 있다.
또한, 상기 인터페이스부(560)는 이동 단말기(500)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동 단말기(500)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동 단말기(500)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동 단말기(500)가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수 있다.
메모리(570)는 제어부(580)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(570)는 상기 터치 스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.
메모리(570)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(500)는 인터넷(internet)상에서 상기 메모리(570)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다.
한편, 앞서 살펴본 것과 같이, 제어부(580)는 응용 프로그램과 관련된 동작과, 통상적으로 이동 단말기(500)의 전반적인 동작을 제어한다. 예를 들어, 제어부(580)는 상기 이동 단말기의 상태가 설정된 조건을 만족하면, 애플리케이션들에 대한 사용자의 제어 명령의 입력을 제한하는 잠금 상태를 실행하거나, 해제할 수 있다.
또한, 제어부(580)는 음성 통화, 데이터 통신, 화상 통화 등과 관련된 제어 및 처리를 수행하거나, 터치 스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. 나아가 제어부(580)는 이하에서 설명되는 다양한 실시 예들을 본 발명에 따른 이동 단말기(500) 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다.
전원 공급부(590)는 제어부(580)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다. 전원공급부(590)는 배터리를 포함하며, 배터리는 충전 가능하도록 이루어지는 내장형 배터리가 될 수 있으며, 충전 등을 위하여 단말기 바디에 착탈 가능하게 결합될 수 있다.
또한, 전원공급부(590)는 연결포트를 구비할 수 있으며, 연결포트는 배터리의 충전을 위하여 전원을 공급하는 외부 충전기가 전기적으로 연결되는 인터페이스(160)의 일 예로서 구성될 수 있다.
다른 예로서, 전원공급부(590)는 상기 연결포트를 이용하지 않고 무선방식으로 배터리를 충전하도록 이루어질 수 있다. 이 경우에, 전원공급부(590)는 외부의 무선 전력 송신장치로부터 자기 유도 현상에 기초한 유도 결합(Inductive Coupling) 방식이나 전자기적 공진 현상에 기초한 공진 결합(Magnetic Resonance Coupling) 방식 중 하나 이상을 이용하여 전력을 전달받을 수 있다.
한편, 이하에서 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
다음으로, 본 발명에 따른 이동 단말기(500)를 통해 실시 가능한 통신 시스템에 대하여 살펴본다.
먼저, 통신 시스템은, 서로 다른 무선 인터페이스 및/또는 물리 계층을 이용할 수도 있다. 예를 들어, 통신 시스템에 의해 이용 가능한 무선 인터페이스에는, 주파수 분할 다중 접속(Frequency Division Multiple Access, FDMA), 시분할 다중 접속(Time Division Multiple Access, TDMA), 코드 분할 다중 접속(Code Division Multiple Access, CDMA), 범용 이동통신 시스템(Universal Mobile Telecommunications Systems, UMTS)(특히, LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced)), 이동통신 글로벌 시스템(Global System for Mobile Communications, GSM) 등이 포함될 수 있다.
이하에서는, 설명의 편의를 위하여, CDMA에 한정하여 설명하도록 한다. 그러나, 본 발명은, CDMA 무선 통신 시스템뿐만 아니라 OFDM(Orthogonal Frequency Division Multiplexing) 무선 통신 시스템을 포함한 모든 통신 시스템 적용될 수 있음은 자명하다.
CDMA 무선 통신 시스템은, 적어도 하나의 단말기(100), 적어도 하나의 기지국(Base Station, BS (Node B 혹은 Evolved Node B로 명칭 될 수도 있다.)), 적어도 하나의 기지국 제어부(Base Station Controllers, BSCs), 이동 스위칭 센터(Mobile Switching Center, MSC)를 포함할 수 있다. MSC는, 일반 전화 교환망(Public Switched Telephone Network, PSTN) 및 BSCs와 연결되도록 구성된다. BSCs는, 백홀 라인(backhaul line)을 통하여, BS와 짝을 이루어 연결될 수 있다. 백홀 라인은, E1/T1, ATM, IP, PPP, Frame Relay, HDSL, ADSL 또는 xDSL 중 적어도 하나에 따라서 구비될 수 있다. 따라서, 복수의 BSCs가 CDMA 무선 통신 시스템에 포함될 수 있다.
복수의 BS 각각은 적어도 하나의 섹터를 포함할 수 있고, 각각의 섹터는, 전방향성 안테나 또는 BS로부`터 방사상의 특정 방향을 가리키는 안테나를 포함할 수 있다. 또한, 각각의 섹터는, 다양한 형태의 안테나를 두 개 이상 포함할 수도 있다. 각각의 BS는, 복수의 주파수 할당을 지원하도록 구성될 수 있고, 복수의 주파수 할당은 각각 특정 스펙트럼(예를 들어, 1.25MHz, 5MHz 등)을 가질 수 있다.
섹터와 주파수 할당의 교차는, CDMA 채널이라고 불릴 수 있다. BS는, 기지국 송수신 하부 시스템(Base Station Transceiver Subsystem, BTSs)이라고 불릴 수 있다. 이러한 경우, 하나의 BSC 및 적어도 하나의 BS를 합하여 "기지국"이라고 칭할 수 있다. 기지국은, 또한 "셀 사이트"을 나타낼 수도 있다. 또는, 특정 BS에 대한 복수의 섹터들 각각은, 복수의 셀 사이트로 불릴 수도 있다.
방송 송신부(Broadcasting Transmitter, BT) 는, 시스템 내에서 동작하는 단말기들(100)에게 방송 신호를 송신한다. 도 5에 도시된 방송 수신 모듈(511)은, BT에 의해 송신되는 방송 신호를 수신하기 위해 단말기(100) 내에 구비된다.
뿐만 아니라, CDMA 무선 통신 시스템에는 이동 단말기(500)의 위치를 확인하기 위한, 위성 위치 확인 시스템(Global Positioning System, GPS)이 연계될 수 있다. 상기 위성(300)은, 이동 단말기(500)의 위치를 파악하는 것을 돕는다. 유용한 위치 정보는, 두 개 이하 또는 이상의 위성들에 의해 획득될 수도 있다. 여기에서는, GPS 추적 기술뿐만 아니라 위치를 추적할 수 있는 모든 기술들을 이용하여 이동 단말기(500)의 위치가 추적될 수 있다. 또한, GPS 위성 중 적어도 하나는, 선택적으로 또는 추가로 위성 DMB 송신을 담당할 수도 있다.
이동 단말기에 구비된 위치정보 모듈(515)은 이동 단말기의 위치를 탐지, 연산 또는 식별하기 위한 것으로, 대표적인 예로는 GPS(Global Position System) 모듈 및 WiFi(Wireless Fidelity) 모듈을 포함할 수 있다. 필요에 따라서, 위치정보모듈(115)은 치환 또는 부가적으로 이동 단말기의 위치에 관한 데이터를 얻기 위해 무선 통신부(510)의 다른 모듈 중 어느 기능을 수행할 수 있다.
상기 GPS모듈(115)은 3개 이상의 위성으로부터 떨어진 거리 정보와 정확한 시간 정보를 산출한 다음 상기 산출된 정보에 삼각법을 적용함으로써, 위도, 경도, 및 고도에 따른 3차원의 현 위치 정보를 정확히 산출할 수 있다. 현재, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법이 널리 사용되고 있다. 또한, GPS 모듈(115)은 현 위치를 실시간으로 계속 산출함으로써 속도 정보를 산출할 수 있다. 다만, 실내와 같이 위성 신호의 음영 지대에서는 GPS 모듈을 이용하여 정확히 이동 단말기의 위치를 측정하는 것이 어렵다. 이에 따라, GPS 방식의 측위를 보상하기 위해, WPS (WiFi Positioning System)이 활용될 수 있다.
와이파이 위치추적 시스템(WPS: WiFi Positioning System)은 이동 단말기(500)에 구비된 WiFi모듈 및 상기 WiFi모듈과 무선신호를 송신 또는 수신하는 무선 AP(Wireless Access Point)를 이용하여, 이동 단말기(500)의 위치를 추적하는 기술로서, WiFi를 이용한 WLAN(Wireless Local Area Network)기반의 위치 측위 기술을 의미한다.
와이파이 위치추적 시스템은 와이파이 위치측위 서버, 이동 단말기(500), 상기 이동 단말기(500)와 접속된 무선 AP, 임의의 무선 AP정보가 저장된 데이터 베이스를 포함할 수 있다.
무선 AP와 접속 중인 이동 단말기(500)는 와이파이 위치 측위 서버로 위치정보 요청 메시지를 송신할 수 있다.
와이파이 위치측위 서버는 이동 단말기(500)의 위치정보 요청 메시지(또는 신호)에 근거하여, 이동 단말기(500)와 접속된 무선 AP의 정보를 추출한다. 상기 이동 단말기(500)와 접속된 무선 AP의 정보는 이동 단말기(500)를 통해 상기 와이파이 위치측위 서버로 송신되거나, 무선 AP에서 와이파이 위치측위 서버로 송신될 수 있다.
상기 이동 단말기(500)의 위치정보 요청 메시지에 근거하여, 추출되는 무선 AP의 정보는 MAC Address, SSID(Service Set IDentification), RSSI(Received Signal Strength Indicator), RSRP(Reference Signal Received Power), RSRQ(Reference Signal Received Quality), 채널정보, Privacy, Network Type, 신호세기(Signal Strength) 및 노이즈 세기(Noise Strength)중 적어도 하나일 수 있다.
와이파이 위치측위 서버는 위와 같이, 이동 단말기(500)와 접속된 무선 AP의 정보를 수신하여, 미리 구축된 데이터베이스로부터 이동 단말기가 접속 중인 무선 AP와 대응되는 무선 AP 정보를 추출할 수 있다. 이때, 상기 데이터 베이스에 저장되는 임의의 무선 AP 들의 정보는 MAC Address, SSID, 채널정보, Privacy, Network Type, 무선 AP의 위경도 좌표, 무선 AP가 위치한 건물명, 층수, 실내 상세 위치정보(GPS 좌표 이용가능), AP소유자의 주소, 전화번호 등의 정보일 수 있다. 이때, 측위 과정에서 이동형 AP나 불법 MAC 주소를 이용하여 제공되는 무선 AP를 측위 과정에서 제거하기 위해, 와이파이 위치측위 서버는 RSSI 가 높은 순서대로 소정 개수의 무선 AP 정보만을 추출할 수도 있다.
이후, 와이파이 위치측위 서버는 데이터 베이스로부터 추출된 적어도 하나의 무선 AP 정보를 이용하여 이동 단말기(500)의 위치정보를 추출(또는 분석)할 수 있다. 포함된 정보와 상기 수신된 무선 AP 정보를 비교하여, 상기 이동 단말기(500)의 위치정보를 추출(또는 분석)한다.
이동 단말기(500)의 위치정보를 추출(또는 분석)하기 위한 방법으로, Cell-ID 방식, 핑거 프린트 방식, 삼각 측량 방식 및 랜드마크 방식 등이 활용될 수 있다.
Cell-ID 방식은 이동 단말기가 수집한 주변의 무선 AP 정보 중 신호 세기가 가장 강한 무선 AP의 위치를 이동 단말기의 위치로 결정하는 방법이다. 구현이 단순하고 별도의 비용이 들지 않으며 위치 정보를 신속히 얻을 수 있다는 장점이 있지만 무선 AP의 설치 밀도가 낮으면 측위 정밀도가 떨어진다는 단점이 있다.
핑거프린트 방식은 서비스 지역에서 참조위치를 선정하여 신호 세기 정보를 수집하고, 수집한 정보를 바탕으로 이동 단말기에서 송신하는 신호 세기 정보를 통해 위치를 추정하는 방법이다. 핑거프린트 방식을 이용하기 위해서는, 사전에 미리 전파 특성을 데이터베이스화할 필요가 있다.
삼각 측량 방식은 적어도 세 개의 무선 AP의 좌표와 이동 단말기 사이의 거리를 기초로 이동 단말기의 위치를 연산하는 방법이다. 이동 단말기와 무선 AP사이의 거리를 측정하기 위해, 신호 세기를 거리 정보로 변환하거나, 무선 신호가 전달되는 시간(Time of Arrival, ToA), 신호가 전달되는 시간 차이(Time Difference of Arrival, TDoA), 신호가 전달되는 각도(Angle of Arrival, AoA) 등을 이용할 수 있다.
랜드마크 방식은 위치를 알고 있는 랜드마크 발신기를 이용하여 이동 단말기의 위치를 측정하는 방법이다.
열거된 방법 이외에도 다양한 알고리즘이 이동 단말기의 위치정보를 추출(또는 분석)하기 위한 방법으로 활용될 수 있다.
이렇게 추출된 이동 단말기(500)의 위치정보는 상기 와이파이 위치측위 서버를 통해 이동 단말기(500)로 송신됨으로써, 이동 단말기(500)는 위치정보를 획득할 수 있다.
이동 단말기(500)는 적어도 하나의 무선 AP 에 접속됨으로써, 위치 정보를 획득할 수 있다. 이때, 이동 단말기(500)의 위치 정보를 획득하기 위해 요구되는 무선 AP의 개수는 이동 단말기(500)가 위치한 무선 통신환경에 따라 다양하게 변경될 수 있다.
다음으로, 도 6을 참조하여, WFD 소스 및 WFD 싱크 사이 WFD 세션이 구축되어 화면 공유 서비스가 제공되는 예를 설명한다.
도 6은 본 발명의 일 실시 예에 따라 WFD 소스 및 WFD 싱크 사이 WFD 세션이 구축되어 화면 공유 서비스가 제공되는 과정을 설명하기 위한 래더 다이어 그램이다.
도 6의 단계들 중 하나 이상은 와이파이 다이렉트 표준 문서에 의해 뒷받침될 수 있다.
WFDS 중 디스플레이 서비스는 P2P 디바이스들 사이에 화면 공유를 가능하게 하는 서비스 및 어플리케이션을 의미할 수 있다. 디스플레이 서비스를 이용하는 P2P 서비스를 WFD 디바이스라 호칭할 수 있고, WFD 디바이스들 중 기기 P2P 링크를 통해 멀티미디어 컨텐트의 스트리밍을 지원하는 기기를 와이파이 디스플레이(WFD) 소스(Source), P2P 링크를 통해 WFD 소스 기기로부터 멀티미디어 컨텐트를 수신하여, 렌더링하는 기기를 WFD 싱크(Sink)라 칭할 수 있다.
WFD 소스(10)는 도 5에 도시된 이동 단말기(500)일 수 있다. 이에 따라, WFD 소스(10)는 도 5에 도시된 이동 단말기(500)의 모든 구성 요소를 포함할 수 있다.
WFD 싱크(20)는 도 1에 도시된 디스플레이 장치(100)일 수 있다. 이에 따라, WFD 싱크(20)는 도 1에 도시된 이동 단말기(500)의 모든 구성 요소를 포함할 수 있다.
도 6을 참조하면, WFD 소스(10)는 화면 상에 영상을 표시할 수 있다(S600).
일 실시 예에서 화면 상에 표시된 영상은 미디어 컨텐트의 영상일 수 있다.
또 다른 실시 예에서 WFD 소스(10)가 도 5에 도시된 이동 단말기(500)인 경우, 화면 상에 표시된 영상은 이동 단말기(500)의 홈 화면, 이동 단말기(500)에 설치된 어플리케이션의 실행 화면 등, 이동 단말기(500)가 표시 중인 영상일 수 있다.
이후, WFD 소스(10) 및 WFD 싱크(20)는 최초, WFD 디바이스 탐색(WFD DeviceDiscovery)을 통해 WFD 연결 셋업에 앞서 서로의 존재를 탐색할 수 있다(S601). 구체적으로, WFD 디바이스들은 WFD 정보 요소(WFD Information Element, WFD IE)를 포함하는 프로브 요청 프레임 및 프로브 응답 프레임을 통해 서로의 존재를 인지할 수 있다. WFD 정보 요소는 디바이스 타입 및 디바이스 상태 등 WFD 디바이스들 사이 최적 연결을 구축하기 위한 기본 정보를 포함할 수 있다. WFD 디바이스가, WFD IE를 포함하는 프로브 요청 프레임을 수신하면, 이에 대한 응답으로 자신의 WFD IE를 포함하는 프로브 응답 프레임을 전송할 수 있다. 만약 WFD 디바이스가 AP와 연계되어 있고, Wi-Fi P2P 디바이스로 동작하는 경우, 물리적인 하나의 디바이스에 논리적으로 2개 이상의 와이파이 송수신기가 동작하게 된다. 이때 WFD 디바이스 탐색을 위해서는 이 중 와이파이 다이렉트 송수신기를 사용하게 된다. WFD 디바이스의 탐색을 위한 프로브 요청 프레임에는 WFD IE 뿐만 아니라, P2P 정보 요소(IE)도 포함될 수 있고, 이는 와이파이 다이렉트 송수신기에 의해 디코딩 될 수 있다.
이후, WFD 소스(10) 및 WFD 싱크(20)는 WFD 연결 셋업에 앞서 서로의 서비스 능력을 탐색할 수 있다(S603). 구체적으로, 어느 하나의 WFD 디바이스가 WFD 능력이 정보 부 요소(information subelement)로서 포함되는 서비스 탐색 요청 프레임을 전송하면, 다른 WFD 디바이스는 이에 대한 응답으로 자신의 WFD 능력이 정보 부 요소로서 포함되는 서비스 탐색 응답 프레임을 전송할 수 있다. 서비스 탐색 절차는 선택적인 절차로서, 서비스 탐색 절차를 지원하는 WFD 디바이스는 서비스 탐색 절차를 지원하는 탐색된 WFD 디바이스와 서비스 탐색 절차를 수행할 수 있다. 서비스 탐색 절차의 수행을 위해, 디바이스 탐색 절차에 이용되는 프로브 요청 프레임 및 응답 프레임에는 WFD 디바이스가 서비스 탐색 절차를 지원하는 능력을 갖추고 있는지 여부를 지시하는 정보가 포함될 수 있다.
이후, WFD 소스(10) 또는 WFD 싱크(20)는 WFD 연결 셋업을 위한 피어 WFD 디바이스를 선택할 수 있다. 사용자의 입력에 의해 WFD 연결 셋업을 진행할 피어 WFD 디바이스가 선택될 수도 있고, 정책(policy)에 따라 자동으로 WFD 연결 셋업을 진행할 피어 WFD 디바이스가 선택될 수도 있다.
이후, WFD 디바이스는 선택된 피어 WFD 디바이스와 WFD 연결 셋업 방법을 선택할 수 있다(S605). 구체적으로, WFD 디바이스는 Wi-Fi P2P 및 TDLS(터널 다이렉트 링크 설정(Tunneled Direct Link Setup) 중 어느 하나의 연결 스킴(Connectivity Scheme)으로 WFD 연결을 구축할 수 있다. WFD 디바이스들은 선호하는 연결(Preferred Connectivity) 정보 및 WFD 정보 요소와 함께 전달되는 연계된 BSSID 부 요소에 기초하여, 연결 스킴을 결정할 수 있다.
WFD 디바이스들 사이에 Wi-Fi P2P 또는 TDLS를 이용하여 성공적으로 WFD 셋업이 수행되면, WFD 디바이스는 WFD 능력 협상(WFD capability negotiation)을 진행할 수 있다(S607). 구체적으로, WFD 소스(10) 및 WFD 싱크(20)는 RTSP(Real-Time Streaming Protocol) 프로토콜을 이용하여 메시지를 교환함으로써, WFD 세션 동안의 오디오/비디오 페이로드(payload)를 정의 하는 파라미터 셋을 결정할 수 있다. WFD 소스(10) 및 WFD 싱크(20)는 자신의 스펙 정보를 서로 교환할 수 있다. WFD 소스(10)는 RTSP 프로토콜을 이용하여 WFD 싱크(20)의 능력을 문의할 수 있고, WFD 싱크(20)는 그에 응답하여, 자신의 능력 정보를 WFD 소스(10)에 전송할 수 있다. 예를 들어, WFD 싱크(20)는 자신이 지원 가능한 해상도들을 포함하는 해상도 정보를 WFD 소스(10)에 전송할 수 있다. 예를 들어, WFD 싱크(20)는 자신이 지원 가능한 해상도가 화면 비율 16:9 또는 4:3에 대응하는 해상도를 포함하는 해상도 정보를 WFD 소스(10)에 전송할 수 있다. 여기서, 16:9 또는 4:3에 대응하는 해상도는 예시에 불과하고, 가로 길이가 세로 길이보다 더 긴 화면 비율에 대응하는 해상도일 수 있다.
반대로, WFD 소스(10) 또한, 자신이 지원 가능한 해상도들을 포함하는 해상도 정보를 WFD 싱크(20)에 전송할 수 있다.
도 7a 내지 도 7d는 본 발명의 일 실시 예에 따라 WFD 싱크가 WFD 소스에 전송하는 해상도 정보를 설명하기 위한 도면이다.
WFD 싱크(20)는 도 7a 내지 도 7c에 도시된 해상도 테이블들 중 하나 이상을 WFD 소스(10)에 전송할 수 있다. 즉, WFD 싱크(20)는 16:9 또는 4:3의 화면 비율에 대응하는 해상도 및 가로 길이가 세로 길이보다 더 긴 화면 비율에 대응하는 해상도를 WFD 소스(10)에 전송할 수 있다.
도 7a에 도시된 해상도 테이블은 WFD 기기가 지원하는 핸드 헬드(handheld) 장치에서 지원된 해상도들의 셋 및 해상도에 대응하는 refresh rate를 나타내는 테이블일 수 있다.
도 7b에 도시된 해상도 테이블은 WFD 기기가 지원하는 CEA(Consumer Electronics Association) 해상도들의 셋 및 해상도에 대응하는 refresh rate를 나타내는 테이블일 수 있다.
도 7c에 도시된 해상도 테이블은 WFD 기기가 지원하는 지원된 VESA(Video Electronics Standards Association)해상도들의 셋 및 해상도에 대응하는 refresh rate를 나타내는 테이블일 수 있다.
도 7d는 본 발명의 일 실시 예에 따라 WFD 소스가 WFD 싱크의 능력을 문의하고, WFD 싱크가 그에 대응하여 자신의 능력 정보를 포함하는 메시지를 설명하기 위한 도면이다.
WFD 소스(10)는 WFD 싱크(20)와 연결 셋업의 수행 후, RTSP 프로토콜을 이용하여 WFD 싱크(20)의 능력을 문의하는 요청 메시지(M3)를 전송할 수 있다. 도 7d를 참조하면, WFD 소스(10)는 비디오 포맷(wfd-video-formats) 파라미터(730)를 포함하는 요청 메시지를 WFD 싱크(20)에 전송할 수 있다. 비디오 포맷 파라미터는 WFD 싱크(20)가 지원 가능한 비디오 해상도를 문의하는 파라미터일 수 있다. WFD 싱크(20)는 WFD 소스(10)로부터 수신된 요청 메시지에 응답하여, 도 7a 내지 도 7c에 도시된 해상도 정보를 포함하는 응답 메시지(M3)를 WFD 소스(10)에 전송할 수 있다. 해상도 정보는 도 7a 내지 도 7c에 도시된 해상도 테이블들을 포함할 수 있다. 이는 응답 메시지에 포함된 비디오 포맷 파라미터(730)의 값을 통해 확인될 수 있다.
다시 도 6을 설명한다.
WFD 소스(10)는 WFD 싱크(20)과의 WFD 능력 협상 과정에서, 필요한 요청 메시지를 RTSP 프로토콜을 이용하여 WFD 싱크(20)에 전송할 수 있다(S609). 예를 들어, WFD 소스(10)는 WFD 싱크(20)로부터 수신된 해상도 정보에 기초하여 특정 해상도에 대응하는 비디오 컨텐트의 영상을 전달하겠다는 내용을 포함하는 메시지를 RTSP 프로토콜을 이용하여 WFD 싱크(20)에 전송할 수 있다. 더 구체적으로, WFD 소스(10)는 WFD 싱크(20)가 지원 가능한 복수의 해상도들 중 어느 하나를 선택할 수 있고, 선택된 해상도를 갖는 비디오 컨텐트의 영상을 전송하겠다는 메시지를 WFD 싱크(20)에 전송할 수 있다. 즉, WFD 소스(10)는 도 7a 내지 도 7c에 도시된 해상도 정보에 포함된 복수의 해상도들 중 어느 하나를 선택할 수 있고, 선택된 해상도의 영상을 전송하겠음을 나타내는 메시지를 WFD 싱크(20)에 전송할 수 있다.
WFD 싱크(20)는 WFD 소스(10)로부터 수신된 요청 메시지에 기초하여, 응답 메시지를 RTSP 프로토콜을 통해 전송할 수 있다(S611).
일 실시 예에서 WFD 소스(10)가 선택한 해상도는 WFD 소스(10)가 지원 가능한 해상도들에 포함되지 않을 수 있다. 즉, WFD 소스(10)가 표시 중인 영상의 해상도는 WFD 싱크(20)가 지원 가능한 해상도들에 포함되지 않을 수 있다. 단계 S609 및 S611는 WFD 능력 협상 단계(S607)에 포함될 수 있다.
WFD 능력 협상 단계가 성공적으로 종료되면, WFD 소스(10) 및 WFD 싱크(20) 사이에 WFD 세션(또는 미라캐스트 세션)이 구축되고, WFD 소스(10)로부터 WFD 싱크(20)로 오디오 및 비디오 컨텐트가 스트리밍될 수 있다(S613).
일 실시 예에서 WFD 싱크(20)는 스트리밍된 비디오 컨텐트의 전체 영상을 표시할 수 있다.
이하의 도면에서, WFD 소스(10)는 도 5에서 설명한 이동 단말기(500)일 수 있고, WFD 싱크(20)는 도 1에서 설명한 디스플레이 장치(100)임을 가정하여 설명한다.
이에 따라, WFD 소스(10)는 도 5에 도시된 이동 단말기(500)의 모든 구성 요소들을 포함할 수 있다. 마찬가지로, WFD 싱크(20) 또한, 도 1에 도시된 디스플레이(100)의 모든 구성 요소들을 포함할 수 있다.
오디오 및 비디오 컨텐트가 스트리밍되는 중 WFD 싱크(20)는 비디오 컨텐트의 전체 영상에 포함된 일부 영상을 확대하기 위한 확대 요청 신호를 수신한다(S615).
일 실시 예에서, 확대 요청 신호는 WFD 싱크(20)의 디스플레이부(180)를 통해 표시 중인, 비디오 컨텐트의 전체 영상에 포함된 일부 영상을 확대하기 위한 신호일 수 있다.
즉, 확대 요청 신호는 비디오 컨텐트의 전체 영상의 어느 한 지점을 중심으로, 특정 영역만을 확대하기 위한 신호일 수 있다. 여기서, 한 지점은 원격 제어 장치(200)에 의해 이동되는 포인터가 위치한 지점일 수 있다.
일 실시 예에서, WFD 싱크(20)는 원격 제어 장치(200)로부터 확대 요청 신호를 수신할 수 있다. 원격 제어 장치(200)는 자체에 구비된 버튼이 선택된 경우, 확대 요청 신호를 WFD 싱크(20)에 전송할 수 있다.
전체 영상 중 일부 영상을 확대하기 위한 WFD 싱크(20)의 기능은 매직 줌(magic zoom) 기능으로 명명될 수 있으나, 이는 예시적인 명칭에 불과하다.
일 실시 예에서 원격 제어 장치(200)에 구비된 매직 줌 기능 버튼이 선택된 경우, 디스플레이 장치(100)는 확대 요청 신호를 원격 제어 장치(200)로부터 수신할 수 있다.
WFD 싱크(20)는 수신된 확대 요청 신호에 응답하여, 확대 모드 요청 메시지를 WFD 소스(10)에 전송한다(S617).
일 실시 예에서 확대 모드 요청 메시지는 WFD 싱크(20)가 매직 줌 기능을 수행하고 있음을 나타내는 메시지일 수 있다.
확대 모드 요청 메시지는 포인터의 위치에 대응하는 일부 영상의 확대된 영상을 추가로 전송해 달라는 메시지일 수 있다. 구체적으로, 확대 모드 요청 메시지는 디스플레이 장치(100)가 확대 요청 신호를 원격 제어 장치(200)로부터 수신한 시점에서 포인터가 위치하는 지점에 대응하는 일부 영상의 확대 버전을 전송해 달라는 메시지일 수 있다.
확대 모드 요청 메시지는 WFD 싱크(20)가 매직 줌 기능을 수행하고 있음에 따라 포인터의 위치에 대응하는 일부 영상의 확대된 영상을 추가로 전송해 달라는 메시지일 수 있다.
즉, 확대 모드 요청 메시지는 비디오 컨텐트의 전체 영상 및 전체 영상 내에서 포인터의 위치에 대응하는 일부 영상의 확대된 영상의 전송을 요청하는 메시지일 수 있다.
확대 모드 요청 메시지는 전체 영상 중 확대 영역을 식별하는 위치 정보를 포함할 수 있다. 확대 영역의 위치 정보는 포인터의 좌표 및 포인터를 중심으로 하는 확대 영역의 좌표를 포함할 수 있다. 수 있다. 확대 영역의 위치 정보에 대해서는 후술한다.
일 실시 예에서 WFD 싱크(20)는 확대 모드 요청 메시지를 사용자 입력 백 채널(User Input Back Channel, UIBC)을 통해 WFD 소스(10)에 전송할 수 있다.
확대 모드 요청 메시지는 WFD 싱크(20)가 매직 줌 기능을 수행하고 있음을 나타내는 플래그를 포함할 수 있다.
WFD 소스(10)는 WFD 싱크(20)로부터 수신된 확대 모드 요청 메시지에 포함된 확대 영역에 대응하는 위치 정보에 기초하여, 표시 중인 비디오 컨텐트의 전체 영상 내에서 확대 영역을 획득한다(S619).
일 실시 예에서 WFD 소스(10)는 확대 영역에 대응하는 위치 정보에 포함된 포인터의 좌표 및 확대 영역의 좌표 중 하나 이상에 기초하여, 전체 영상 내에서 확대 대상인 확대 영역을 획득할 수 있다.
WFD 소스(10)는 비디오 컨텐트의 전체 영상의 데이터 및 획득된 확대 영역에 대응하는 확대된 일부 영상의 데이터를 WFD 싱크(20)에 전송한다(S621, S622).
즉, WFD 소스(10)는 비디오 컨텐트의 전체 영상의 데이터 및 확대 영역에 대응하는 확대된 일부 영상의 데이터를 동시에 WFD 싱크(20)에 전송할 수 있다.
WFD 소스(10)는 비디오 컨텐트의 전체 영상의 데이터 확대된 일부 영상의 데이터를 서로 다른 채널을 통해 WFD 싱크(20)에 전송할 수 있다.
일 실시 예에서 WFD 소스(10)는 비디어 컨텐트의 전체 영상의 데이터 및 확대된 일부 영상의 데이터를 RTSP(Real-Time Streaming Protocol) 프로토콜을 이용하여, WFD 싱크(20)에 전송할 수 있다.
WFD 싱크(20)는 수신된 전체 영상 데이터에 기초한 전체 영상을 디스플레이부의 부 화면 상에 표시하고, 확대된 일부 영상의 데이터에 기초한 확대된 일부 영상을 디스플레이부의 부 화면 상에 표시한다(S623).
일 실시 예에서 디스플레이부의 주 화면과 부 화면은 크기에 따라 다를 수 있다.
예를 들어, WFD 싱크(20)의 디스플레이부의 주 화면의 크기는 부 화면의 크기보다 클 수 있다.
WFD 싱크(20)는 비디오 컨텐트의 전체 영상을 레터 박스가 표시된 위치로 이동시킬 수 있다. 동시에 WFD 싱크(20)는 비디오 컨텐트의 전체 영상을 레터 박스가 표시된 위치로 이동시키면서, 디스플레이부의 나머지 화면 상에는 확대된 일부 영상을 표시할 수 있다.
이하에서는, 단계 S600 내지 S623의 과정을 상세히 설명한다.
먼저, 단계 S600 내지 S623의 과정을 설명하기 전에, WFD 소스(10)와 WFD 싱크(20) 간 화면 공유 중, 매직 줌 기능을 실행하는 예를 설명한다.
도 8 내지 도 11은 본 발명의 일 실시 예에 따른 WFD 소스와 WFD 싱크 간 화면 공유 시, 매직 줌 기능을 수행하는 과정을 설명하는 도면이다.
이하에서, WFD 소스(10)는 이동 단말기(500)이고, WFD 싱크(20)는 디스플레이 장치(100)임을 예로 들어 설명한다.
또한, 이동 단말기(500)는 포트레이트 모드에 있음을 가정한다. 포트레이트 모드는 이동 단말기(500)의 세로 길이가 가로 길이보다 더 긴 상태로 배치되어 있음을 나타내는 모드일 수 있다. 포트레이트 모드의 반대는 랜드스케이프 모드이다.
포트레이트 모드는 세로 모드로 명명될 수 있고, 랜드스케이프 모드는 가로 모드로 명명될 수 있다.
도 8을 참조하면, 이동 단말기(500)는 스크린 미러링 기능을 통해 디스플레이부(551)에 표시 중인 컨텐트의 전체 영상(810)을 디스플레이 장치(100)에 전송할 수 있다.
디스플레이 장치(100)는 이동 단말기(500)로부터 수신된 컨텐트의 전체 영상(810)을 디스플레이부(180) 상에 표시할 수 있다. 디스플레이 장치(100)는 전체 영상(810)을 표시하면서, 전체 영상(810)의 양측에 레터 박스들(820,830)을 더 표시할 수 있다.
즉, 제1 레터 박스(820)는 전체 영상(810)의 좌측에 표시될 수 있고, 제2 레터 박스(830)는 전체 영상(810)의 우측에 표시될 수 있다.
각 레터 박스는 디스플레이 장치(100)의 화면 비율과 이동 단말기(500)의 화면 비율이 서로 불일치함에 따라 삽입된 영상일 수 있다.
도 9를 참조하면, 디스플레이 장치(100)의 디스플레이부(180) 상에는 원격 제어 장치(200)의 움직임에 따라 이동되는 포인터(900)가 표시될 수 있다.
디스플레이 장치(100)는 원격 제어 장치(200)로부터 확대 요청 신호를 수신할 수 있다. 확대 요청 신호는 포인터(900)를 중심으로 전체 영상(810) 내의 일부 영상을 확대하기 위한 요청일 수 있다.
디스플레이 장치(100)는 확대 요청 신호에 따라 포인터(900)의 형상을 변경할 수 있다. 변경된 포인터(900)의 형상은 돋보기 형상을 가질 수 있다.
디스플레이 장치(100)는 도 10에 도시된 바에 따라 포인터(900)를 중심으로 전체 영상(810)에 포함된 일부 영상(811)을 확대할 수 있다.
이 경우, 원본의 일부 영상에 대해 스케일링 작업을 거친 후, 확대된 일부 영상(811)은 경계면이 흐릿하게 표시될 수 있다. 스케일링 작업은 가중된 사각형의 합(weighted sum of squares) 기법을 통해 수행될 수 있다.
즉, 디스플레이 장치(100)는 확대 전 일부 영상의 원본 화소 데이터를 보간한 후, 주변 화소 데이터를 생성할 수 있다. 그러나, 이 과정에서, 확대된 일부 영상의 경계면이 흐릿하게 될 수 있다.
도 11을 참조하면, 확대 전 원본 일부 영상(1110)이 확대 요청 신호에 따라 확대된 일부 영상(1130)이 도시되어 있다. 이와 같이, 확대 전 원본 일부 영상(1110)에 비해, 확대된 일부 영상(1130)을 구성하는 각 원의 경계가 흐릿하게 되어 선명한 화질의 영상이 제공될 수 없다.
결과적으로, 확대된 일부 영상(1130)의 해상도는 확대 전 원본 일부 영상(1100)보다 더 낮게 되어, 화질의 열화가 발생될 수 있다.
이에, 본 발명의 또 다른 실시 예에서는 일부 영상이 확대되어도 원본 영상의 해상도를 유지하기 위해, WFD 싱크(20)는 WFD 소스(10)로부터 전체 영상을 수신함과 동시에, 확대된 일부 영상을 수신할 수 있다.
도 12 내지 도 14는 본 발명의 또 다른 실시 예에 따른 WFD 소스와 WFD 싱크 간 화면 공유 시, 매직 줌 기능을 수행하는 과정을 설명하는 도면이다.
특히, 도 12 및 도 14는 이동 단말기(500)가 포트레이트 모드(세로 모드)에 있는 경우의 실시 예이다.
도 12는 도 9의 실시 예 이후에 수행되는 실시 예일 수 있다.
즉, 도 9의 상태에서, 디스플레이 장치(100)가 원격 제어 장치(200)로부터 확대 요청 신호를 수신한 경우, 디스플레이 장치(100)는 이동 단말기(500)에 확대 모드 요청 메시지를 전송할 수 있다.
이동 단말기(500)는 디스플레이 장치(100)로부터 수신된 확대 모드 요청 메시지에 기초하여, 전체 영상(810) 중 확대하고자 하는 영역에 대응하는 일부 영상을 획득할 수 있다.
이동 단말기(500)는 확대 모드 요청 메시지에 포함된 확대 영역의 좌표 값을 이용하여 확대하고자 하는 영역의 일부 영상을 획득할 수 있다. 이동 단말기(500)는 획득된 일부 영상이 확대된 상태의 확대된 일부 영상의 데이터를 획득하고, 이를 디스플레이 장치(100)에 전송할 수 있다. 확대된 일부 영상의 데이터는 원본 영상의 해상도가 유지된 상태의 데이터일 수 있다.
그 후, 이동 단말기(500)는 확대 영역에 대응하는 영상의 확대된 일부 영상(1210)의 데이터를 전체 영상(810)의 데이터와 함께 디스플레이 장치(100)에 전송할 수 있다.
디스플레이 장치(100)는 수신된 확대된 일부 영상(1210)의 데이터에 기초한 전체 영상(810) 및 확대된 일부 영상(1210)의 데이터에 기초한 확대된 일부 영상(1210)을 디스플레이부(180)를 통해 표시할 수 있다.
도 12를 참조하면, 디스플레이 장치(100)는 전체 영상(810)을 기존의 제1 레터 박스(820)가 표시되었던 영역(1201)으로 이동시킬 수 있다. 동시에, 디스플레이 장치(100)는 확대된 일부 영상(1210)을 디스플레이부(180)의 나머지 영역(1203) 상에 표시할 수 있다.
도 12에서는 전체 영상(810)이 중심에서 좌측으로 이동된 것을 예로 들어 설명하나, 이는 예시에 불과하고, 중심에서 우측으로 이동될 수도 있다.
한편, 디스플레이 장치(100)가 전송하는 확대 모드 요청 메시지는 전체 영상(810) 중 확대하고자 하는 확대 영역(811)에 대응하는 위치 정보를 포함할 수 있다. 확대 영역(811)의 위치 정보는 추후, 이동 단말기(500)가 확대 영역에 대응하는 일부 영상이 확대된 상태의 영상을 디스플레이 장치(100)에 전송하기 위해 사용될 수 있다.
확대 영역(811)에 대응하는 위치 정보에 대해서는 도 13을 참조하여 설명한다.
도 13을 참조하면, 돋보기 모양의 포인터(900)를 중심으로한 확대 영역(811)이 도시되어 있다. 확대 영역(811)은 사각형의 형상을 가질 수 있으나, 이는 예시에 불과하고, 원형, 타원형 등 다양한 형상을 가질 수 있다.
도 13에서는 확대 영역(811)이 사각형의 형상을 가짐을 가정하여 설명한다.
디스플레이 장치(100)는 전체 영상(810)에 표시된 포인터(900)의 좌표(O)를 획득할 수 있다. 또한, 포인터(900)의 좌표(O)를 중심으로, 사각형의 형상을 갖는 확대 영역(811)의 각 꼭지점의 좌표를 획득할 수 있다.
즉, 디스플레이 장치(100)는 확대 영역(811)의 제1 꼭지점의 좌표인 A(x+w, y+h), 제2 꼭지점의 좌표인 B(x-w, y+h), 제3 꼭지점의 좌표인 C(x-w, y-h) 및 제4 꼭지점의 좌표인 D(x+w, y-h)를 포함하는 위치 정보를 획득할 수 있다.
디스플레이 장치(100)는 획득된 확대 영역(811)의 위치 정보를 이동 단말기(500)에 전송할 수 있다.
이동 단말기(500)는 확대 영역(811)의 위치 정보에 포함된 각 꼭지점의 좌표를 자신의 화면 비율에 맞게 변환할 수 있다. 이동 단말기(500)는 변환된 각 꼭지점의 좌표를 이용하여, 확대 영역(811)에 대응하는 일부 영상을 획득할 수 있다.
그 후, 이동 단말기(500)는 획득된 일부 영상의 데이터에 기초하여, 원본 영상의 해상도와 동일한 확대된 일부 영상의 데이터를 획득할 수 있다.
도 14를 참조하면, 이동 단말기(500)는 수신된 확대 모드 요청 메시지에 따라 전체 영상(810) 및 확대된 일부 영상(1210)을 디스플레이 장치(100)에 전송할 수 있다.
이동 단말기(500)가 전체 영상(810) 및 전체 영상(810) 내의 화질 열화 없는 확대된 일부 영상(1210)을 제공함에 따라 디스플레이 장치(100)는 스케일링 과정의 필요 없이, 원본 영상과 원본 영상의 일부가 확대된 영상을 표시할 수 있다.
사용자는 원본 영상 중 확대해서 보고자 하는 부분의 영상을 선명하게 시청할 수 있다.
또한, 사용자는 레터 박스와 같은 불필요한 블랙 영역 대신, 확대된 일부 영상을 시청할 수 있다.
또한, 사용자는 상대적으로 작은 WFD 소스(10)의 화면에 비해, WFD 싱크(20)의 큰 화면을 통해 원하는 정보를 크고 선명하게 시청할 수 있다.
도 15 내지 도 17은 본 발명의 또 다른 실시 예에 따른 WFD 소스와 WFD 싱크 간 화면 공유 시, 매직 줌 기능을 수행하는 과정을 설명하는 도면이다.
특히, 도 15 및 도 17은 이동 단말기(500)가 랜드스케이프 모드(가로 모드)에 있는 경우의 실시 예이다.
이동 단말기(500)는 랜드스케이프 모드 하에서 미디어 컨텐트의 전체 영상(1510)을 표시하고 있다. 디스플레이 장치(100)는 이동 단말기(500)로부터 수신 중인 미디어 컨텐트의 전체 영상(1510) 및 포인터(900)를 표시하고 있다.
이동 단말기(500)가 랜드스케이프 모드에 있는 경우, 포트레이트 모드에 있는 경우와는 달리, 디스플레이 장치(100)는 레터 박스를 표시하지 않을 수 있다.
이 상태에서, 디스플레이 장치(100)는 원격 제어 장치(200)로부터 확대 요청 신호를 수신할 수 있다.
디스플레이 장치(100)는 포인터(900)가 위치한 지점에 대응하는 확대 영역(1500)의 위치 정보를 획득할 수 있다. 디스플레이 장치(100)는 획득된 확대 영역(1500)의 위치 정보를 포함하는 확대 모드 요청 메시지를 이동 단말기(500)에 전송할 수 있다.
이동 단말기(500)는 수신된 확대 모드 요청 메시지에 포함된 확대 영역(1500)의 위치 정보에 기초하여, 전체 영상(1510) 중 확대 대상인 일부 영상을 획득할 수 있다.
이동 단말기(500)는 일부 영상에 대응하는 확대된 일부 영상의 데이터를 획득하고, 획득된 데이터를 전체 영상(1510)의 데이터와 함께 디스플레이 장치(100)에 전송할 수 있다.
도 16을 참조하면, 디스플레이 장치(100)는 확대 영역(1500)에 대응하는 확대된 일부 영상(1600)을 디스플레이부(180)의 주 화면 상에 표시하고, 기존에 표시되었던 전체 영상(1510)을 부 화면 상에 표시할 수 있다.
여기서, 주 화면은 디스플레이부(180)의 전체 화면일 수 있고, 부 화면은 디스플레이부(180)의 일부 화면일 수 있다. 즉, 전체 영상(1510)은 축소되어 표시될 수 있다.
한편, 부 화면 상에 표시된 전체 영상(1510) 상에 포인터(900)가 위치하는 경우, 디스플레이 장치(100)는 포인터(900)가 위치한 지점에 대응하는 영역(1601)에 대응하는 확대된 일부 영상(1700)을 주 화면 상에 표시할 수 있다.
도 16의 상태에서, 포인터(900)가 부 화면 상의 축소된 전체 영상(1510)의 일 지점에 위치하는 경우, 디스플레이 장치(100)는 도 17에 도시된 바와 같이, 포인터(900)가 위치된 지점에 대응하는 영역(1601)에 대응하는 확대된 일부 영상(1700)을 주 화면 상에 표시할 수 있다.
디스플레이 장치(100)는 포인터(900)가 위치된 지점에 대응하는 영역(1601)의 위치 정보를 이동 단말기(500)에 전송하고, 이동 단말기(500)로부터 해당 영역(1601)에 대응하는 확대된 일부 영상(1700)의 데이터를 수신할 수 있다.
사용자는 이동 단말기(500)가 랜드스케이프 모드에 있는 경우라도, 부 화면에 표시된 전체 영상(1510)을 통해 원하는 부분을 확대하여 볼 수 있다.
도 18은 본 발명의 일 실시 예에 따른 무선 디바이스의 구성을 설명하기 위한 도면이다.
도 18에 도시된 무선 디바이스는 위에서 설명한 WFD 소스(10) 및 WFD 싱크(20) 중 어느 하나일 수 있다.
도 18을 참조하면, 무선 디바이스(1)는 통신부(2), 메모리(3), 디스플레이부(4) 및 프로세서(9)를 포함할 수 있다.
통신부(2)는 무선 신호를 송신/수신할 수 있고, 예를 들어, IEEE 802 시스템에 따른 물리 레이어를 구현할 수 있다. 통신부(2)는 송수신기로 명명될 수 있다.
프로세서(9)는 통신부(2), 메모리(3), 디스플레이부(4)의 동작을 제어할 수 있다. 프로세서(9)는 통신부(2)와 전기적으로 연결되어 IEEE 802 시스템에 따른 물리 레이어 및/또는 MAC 레이어를 구현할 수 있다. 또한, 프로세서(9)는 WFD 서비스를 위한 오디오 / 비디오의 인코딩 및 디코딩의 동작을 수행하도록 구성될 수 있다. 또한, 전술한 본 발명의 다양한 실시예에 따른 무선 디바이스의 동작을 구현하는 모듈이 메모리(3)에 저장되고, 프로세서(9)에 의하여 실행될 수도 있다. 메모리(3)는 프로세서(9)의 내부에 포함되거나 또는 프로세서(9)의 외부에 설치되어 프로세서(9)와 공지의 수단에 의해 연결될 수 있다. 도시되지는 않았지만, 무선 디바이스(1)는 음향을 출력하기 위한 음향 출력부를 더 포함할 수 있다.
무선 디바이스(1)가 WFD 소스(10)인 경우, WFD 소스(10)는 도 5에 도시된 이동 단말기(500)의 구성을 모두 포함할 수 있다. 이 경우, 무선 디바이스(1)의 통신부(2)는 무선 통신부(510)의 기능을 모두 수행할 수 있다. 특히, 통신부(2)는 무선 통신부(510)에 포함된 근거리 통신 모듈(514)의 기능을 모두 포함할 수 있다. 또한, 무선 디바이스(1)의 메모리(3)는 도 5의 메모리(570)에 대응될 수 있고, 디스플레이부(4)는 도 5의 디스플레이부(551)에 대응될 수 있다. 또한, 프로세서(1)는 도 5의 제어부(580)의 모든 기능을 수행할 수 있다.
무선 디바이스(1)가 WFD 싱크(20)인 경우, WFD 싱크(20)는 도 1에 도시된 디스플레이 장치(100)의 구성을 모두 포함할 수 있다. 이 경우, 무선 디바이스(1)의 통신부(2)는 도 1의 무선 통신부(173)에 대응될 수 있고, 무선 디바이스(1)의 메모리는 도 1의 저장부(140)에 대응될 수 있고, 무선 디바이스(1)의 디스플레이부(4)는 도 1의 디스플레이부(180)에 대응될 수 있고, 무선 디바이스(1)의 프로세서(9)는 도 1의 제어부(170)에 대응될 수 있다.
본 발명의 또 다른 실시 예에 따르면, WFD 싱크(20)는 블랙 영상 제거 모드의 설정을 통해 WFD 소스(10)로부터 수신 중인 전체 영상 중 블랙 영상을 제거하거나, 제거하지 않을 수 있다. 예를 들어, WFD 싱크(20)는 블랙 영상 제거 모드의 설정을 위한 메뉴 설정 화면을 표시할 수 있고, 메뉴 설정 화면을 통해 블랙 영상의 제거 여부를 설정할 수 있다.
본 발명의 실시예들은 무선 액세스 시스템들인 IEEE 802 시스템, 3GPP 시스템, 3GPP LTE 및 LTE-A(LTE-Advanced)시스템, 3GPP2 시스템 및 Wi-Fi Alliance(WFA) 시스템 중 적어도 하나에 개시된 표준 문서들에 의해 뒷받침될 수 있다. 즉, 본 발명의 실시예들 중 본 발명의 기술적 사상을 명확히 드러내기 위해 설명하지 않은 단계들 또는 부분들은 상기 문서들에 의해 뒷받침될 수 있다. 또한, 본 문서에서 개시하고 있는 모든 용어들은 상기 표준 문서에 의해 설명될 수 있다.
본 발명의 일 실시 예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있다.
상기와 같이 설명된 디스플레이 장치는 상기 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.

Claims (15)

  1. 와이파이 다이렉트 서비스를 지원하는 제1 무선 디바이스에 있어서,
    제2 무선 디바이스가 표시 중인 컨텐트의 전체 영상을 표시하는 디스플레이부;
    제2 무선 디바이스와의 연결 셋업을 수행하는 통신부; 및
    상기 디스플레이부 및 상기 통신부를 제어하는 프로세서를 포함하고,
    상기 프로세서는
    상기 전체 영상에 포함된 일부 영상을 확대하기 위한 확대 요청 신호를 수신하고,
    상기 확대 요청 신호에 기초하여, 상기 제2 무선 디바이스로부터 상기 전체 영상의 데이터 및 상기 일부 영상에 대응하는 확대된 일부 영상의 데이터를 수신하는
    제1 무선 디바이스.
  2. 제1항에 있어서,
    상기 프로세서는
    상기 전체 영상의 데이터에 기초한 상기 전체 영상을 상기 디스플레이부의 부 화면 상에 표시하고,
    상기 확대된 일부 영상의 데이터에 기초한 확대된 일부 영상을 상기 디스플레이부의 주 화면 상에 표시하는
    제1 무선 디바이스.
  3. 제1항에 있어서,
    상기 프로세서는
    원격 제어 장치에 의해 제어되는 포인터를 더 표시하고,
    상기 확대 요청 신호는
    상기 전체 영상 중 상기 포인터가 위치한 지점에 대응하는 확대 영역에 대응하는 일부 영상을 확대하기 위한 신호인
    제1 무선 디바이스.
  4. 제3항에 있어서,
    상기 프로세서는
    상기 확대 요청 신호에 응답하여, 상기 전체 영상 내에 상기 확대 영역이 위치하는 위치 정보를 포함하는 확대 모드 요청 메시지를 상기 제2 무선 디바이스에 전송하는
    제1 무선 디바이스.
  5. 제4항에 있어서,
    상기 확대 영역의 위치 정보는
    상기 전체 영상 내에서의 포인터의 좌표 및 상기 확대 영역의 좌표 정보를 포함하는
    제1 무선 디바이스.
  6. 제2항에 있어서,
    상기 프로세서는
    상기 제2 무선 디바이스가 포트레이트 모드에 있는 경우, 상기 전체 영상의 좌측에 제1 레터 박스를, 우측에 제2 레터 박스를 각각 표시하고,
    상기 전체 영상을 상기 부 화면에 대응하는 상기 제1 레터 박스가 표시된 영역으로 이동시키고,
    상기 확대된 일부 영상을 상기 주 화면에 대응하는 상기 디스플레이부의 나머지 영역 상에 표시하는
    제1 무선 디바이스.
  7. 제2항에 있어서,
    상기 프로세서는
    상기 제2 무선 디바이스가 랜드스케이프 모드에 있는 경우, 상기 확대된 일부 영상을 상기 주 화면에 대응하는 상기 디스플레이부의 전체 화면 상에 표시하고,
    상기 전체 영상을 상기 부 화면에 대응하는 상기 디스플레이부의 일부 화면 상에 표시하는
    제1 무선 디바이스.
  8. 제7항에 있어서,
    상기 프로세서는
    원격 제어 장치에 의해 제어되는 포인터가 상기 일부 화면 상에 표시된 전체 영상의 일 지점에 위치한 경우, 상기 전체 화면 상에 표시된 영상을 상기 일 지점에 대응하는 확대된 일부 영상으로, 변경하는
    제1 무선 디바이스.
  9. 와이파이 다이렉트 서비스를 지원하는 무선 시스템에 있어서,
    제2 무선 디바이스로부터 상기 제2 무선 디바이스가 표시 중인 컨텐트의 전체 영상을 표시하고, 상기 전체 영상에 포함된 일부 영상을 확대하기 위한 확대 요청 신호를 수신하고, 상기 확대 요청 신호에 기초하여, 상기 제2 무선 디바이스로부터 상기 전체 영상의 데이터 및 상기 일부 영상에 대응하는 확대된 일부 영상의 데이터를 수신하는 제1 무선 디바이스; 및
    상기 컨텐트의 전체 영상을 표시하고, 상기 제1 무선 디바이스로부터 수신된 확대 모드 요청 메시지에 따라 상기 제1 무선 디바이스에 상기 전체 영상의 데이터 및 상기 확대된 일부 영상의 데이터를 상기 제1 무선 디바이스에 전송하는 제2 무선 디바이스를 포함하는
    무선 시스템
  10. 제1항에 있어서,
    상기 제1 무선 디바이스는
    상기 전체 영상의 데이터에 기초한 상기 전체 영상을 상기 디스플레이부의 부 화면 상에 표시하고,
    상기 확대된 일부 영상의 데이터에 기초한 확대된 일부 영상을 상기 디스플레이부의 주 화면 상에 표시하는
    무선 시스템.
  11. 제9항에 있어서,
    상기 제1 무선 디바이스는
    원격 제어 장치에 의해 제어되는 포인터를 더 표시하고,
    상기 확대 요청 신호는
    상기 전체 영상 중 상기 포인터가 위치한 지점에 대응하는 확대 영역에 대응하는 일부 영상을 확대하기 위한 신호인
    무선 시스템.
  12. 제11항에 있어서,
    상기 제1 무선 디바이스는
    상기 확대 요청 신호에 응답하여, 상기 전체 영상 내에 상기 확대 영역이 위치하는 위치 정보를 포함하는 확대 모드 요청 메시지를 상기 제2 무선 디바이스에 전송하고,
    상기 제2 무선 디바이스는 상기 위치 정보에 기초하여, 상기 확대된 일부 영상의 데이터를 획득하는
    무선 시스템.
  13. 제12항에 있어서,
    상기 확대 영역의 위치 정보는
    상기 전체 영상 내에서의 포인터의 좌표 및 상기 확대 영역의 좌표 정보를 포함하는
    무선 시스템.
  14. 제10항에 있어서,
    상기 제1 무선 디바이스는
    상기 제2 무선 디바이스가 포트레이트 모드에 있는 경우, 상기 전체 영상의 좌측에 제1 레터 박스를, 우측에 제2 레터 박스를 각각 표시하고,
    상기 전체 영상을 상기 부 화면에 대응하는 상기 제1 레터 박스가 표시된 영역으로 이동시키고,
    상기 확대된 일부 영상을 상기 주 화면에 대응하는 상기 디스플레이부의 나머지 영역 상에 표시하는
    무선 시스템.
  15. 제10항에 있어서,
    상기 제1 무선 디바이스는
    상기 제2 무선 디바이스가 랜드스케이프 모드에 있는 경우, 상기 확대된 일부 영상을 상기 주 화면에 대응하는 상기 디스플레이부의 전체 화면 상에 표시하고,
    상기 전체 영상을 상기 부 화면에 대응하는 상기 디스플레이부의 일부 화면 상에 표시하는
    무선 디바이스.
PCT/KR2016/013867 2016-10-05 2016-11-29 무선 디바이스 및 무선 시스템 WO2018066755A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP16918376.1A EP3525083A4 (en) 2016-10-05 2016-11-29 WIRELESS DEVICE AND WIRELESS SYSTEM
CN201680089868.0A CN109804346B (zh) 2016-10-05 2016-11-29 无线装置和无线系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0128236 2016-10-05
KR1020160128236A KR102623181B1 (ko) 2016-10-05 2016-10-05 무선 디바이스 및 무선 시스템

Publications (1)

Publication Number Publication Date
WO2018066755A1 true WO2018066755A1 (ko) 2018-04-12

Family

ID=61757370

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/013867 WO2018066755A1 (ko) 2016-10-05 2016-11-29 무선 디바이스 및 무선 시스템

Country Status (5)

Country Link
US (1) US10334200B2 (ko)
EP (1) EP3525083A4 (ko)
KR (1) KR102623181B1 (ko)
CN (1) CN109804346B (ko)
WO (1) WO2018066755A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017003022A1 (ko) * 2015-06-29 2017-01-05 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
JP6992769B2 (ja) * 2019-01-17 2022-01-13 セイコーエプソン株式会社 表示装置の制御方法、表示装置および表示システム
KR102607214B1 (ko) * 2019-03-25 2023-11-29 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
CA3087909A1 (en) * 2019-07-24 2021-01-24 Arris Enterprises Llc Magnification enhancement of video for visually impaired viewers
KR20210123927A (ko) * 2020-04-06 2021-10-14 엘지전자 주식회사 무선 디바이스
KR20220048245A (ko) * 2020-10-12 2022-04-19 엘지전자 주식회사 무선 디바이스 및 무선 시스템
KR102601757B1 (ko) * 2023-02-22 2023-11-14 주식회사 셀리코 휴식 가전의 구조 변경에 따라 변경되는 사용자의 시야에 대응하여 증강 현실 영상을 제공하는 ar 장치 시스템 및 이를 이용한 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120320198A1 (en) * 2011-06-17 2012-12-20 Primax Electronics Ltd. Imaging sensor based multi-dimensional remote controller with multiple input mode
US20140068520A1 (en) * 2012-08-29 2014-03-06 Apple Inc. Content presentation and interaction across multiple displays
US20140223490A1 (en) * 2013-02-07 2014-08-07 Shanghai Powermo Information Tech. Co. Ltd. Apparatus and method for intuitive user interaction between multiple devices
US20150061972A1 (en) * 2013-09-02 2015-03-05 Samsung Electronics Co., Ltd. Method and apparatus for providing service by using screen mirroring
WO2015130026A1 (ko) * 2014-02-27 2015-09-03 엘지전자 주식회사 디지털 디바이스 및 그의 서비스 처리 방법

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5187776A (en) * 1989-06-16 1993-02-16 International Business Machines Corp. Image editor zoom function
US5434625A (en) * 1990-06-01 1995-07-18 Thomson Consumer Electronics, Inc. Formatting television pictures for side by side display
JP3731589B2 (ja) * 2003-07-18 2006-01-05 ソニー株式会社 撮像装置と同期信号発生装置
US7451405B2 (en) 2004-09-15 2008-11-11 Research In Motion Limited Method for requesting and viewing a zoomed area of detail from an image attachment on a mobile communication device
KR101577451B1 (ko) * 2008-01-30 2015-12-14 엘지전자 주식회사 Rlc 무한 재전송 오류를 검출하고 처리하는 방법
JP4621759B2 (ja) * 2008-07-30 2011-01-26 シャープ株式会社 画像処理装置及びプレビュー表示方法
US20100188579A1 (en) 2009-01-29 2010-07-29 At&T Intellectual Property I, L.P. System and Method to Control and Present a Picture-In-Picture (PIP) Window Based on Movement Data
RU2520353C9 (ru) * 2009-03-25 2015-01-27 Сони Компьютер Энтертэйнмент Инк. Устройство обработки информации и способ обработки информации
CN103155425B (zh) 2010-08-13 2015-07-29 Lg电子株式会社 移动终端、显示装置及其控制方法
KR101556180B1 (ko) * 2011-08-25 2015-10-13 엘지전자 주식회사 이동 단말기, 차량에 부착된 영상표시장치 및 이들을 이용한 데이터 처리 방법
KR102091137B1 (ko) * 2012-07-17 2020-03-20 삼성전자주식회사 영상 제공 시스템 및 방법
WO2014014238A1 (en) * 2012-07-17 2014-01-23 Samsung Electronics Co., Ltd. System and method for providing image
KR20140011857A (ko) * 2012-07-20 2014-01-29 삼성전자주식회사 이동 단말에서 디스플레이 장치의 디스플레이를 제어하기 위한 방법 및 이를 위한 이동 단말
KR101579467B1 (ko) 2014-02-27 2016-01-04 엘지전자 주식회사 디지털 디바이스 및 그의 서비스 처리 방법
KR101595958B1 (ko) * 2014-08-27 2016-02-18 엘지전자 주식회사 영상표시장치 및 영상표시장치 동작방법
KR101586321B1 (ko) * 2015-03-11 2016-01-19 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120320198A1 (en) * 2011-06-17 2012-12-20 Primax Electronics Ltd. Imaging sensor based multi-dimensional remote controller with multiple input mode
US20140068520A1 (en) * 2012-08-29 2014-03-06 Apple Inc. Content presentation and interaction across multiple displays
US20140223490A1 (en) * 2013-02-07 2014-08-07 Shanghai Powermo Information Tech. Co. Ltd. Apparatus and method for intuitive user interaction between multiple devices
US20150061972A1 (en) * 2013-09-02 2015-03-05 Samsung Electronics Co., Ltd. Method and apparatus for providing service by using screen mirroring
WO2015130026A1 (ko) * 2014-02-27 2015-09-03 엘지전자 주식회사 디지털 디바이스 및 그의 서비스 처리 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3525083A4 *

Also Published As

Publication number Publication date
US10334200B2 (en) 2019-06-25
KR102623181B1 (ko) 2024-01-11
EP3525083A4 (en) 2020-06-17
EP3525083A1 (en) 2019-08-14
CN109804346B (zh) 2023-01-03
CN109804346A (zh) 2019-05-24
US20180098018A1 (en) 2018-04-05
KR20180037715A (ko) 2018-04-13

Similar Documents

Publication Publication Date Title
WO2017146301A1 (en) Wireless device
WO2018034396A1 (ko) 이동 단말기 및 그의 동작 방법
WO2018066755A1 (ko) 무선 디바이스 및 무선 시스템
WO2017116197A1 (en) Mobile terminal and operating method thereof
WO2017126802A1 (en) Mobile terminal and operating method thereof
WO2017022931A1 (ko) 이동단말기 및 그 제어방법
WO2018159864A1 (ko) 이동 단말기 및 그 이동 단말기의 제어 방법
WO2017073811A1 (ko) 이동 단말기 및 그의 동작 방법
WO2018147570A1 (en) Terminal and method of controlling therefor
WO2016047863A1 (ko) 모바일 디바이스, hmd 및 시스템
WO2016195160A1 (ko) 이동 단말기
WO2014017759A1 (en) Method and mobile terminal for displaying information, method and display device for providing information, and method and mobile terminal for generating control signal
WO2016093434A1 (en) Mobile terminal and controlling method thereof
WO2017146438A1 (en) Display apparatus and method of setting operating channel of the same
WO2017026604A1 (en) Mobile terminal and method for controlling the same
WO2016195178A1 (en) Mobile terminal and method of controlling therefor
WO2016017874A1 (en) Mobile terminal controlled by at least one touch and method of controlling therefor
WO2018093002A1 (ko) 이동 단말기 및 그 제어 방법
WO2018030623A1 (en) Mobile terminal and method of operating the same
WO2017090920A1 (en) Mobile terminal and method for controlling the same
WO2018056532A2 (en) Mobile terminal and controlling method thereof
WO2016114437A1 (ko) 이동 단말기 및 그것의 제어방법
WO2017164656A2 (en) Display device and operating method thereof
WO2018164301A1 (ko) 이동 단말기
WO2018092975A1 (ko) 디스플레이 장치 및 그의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16918376

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2016918376

Country of ref document: EP

Effective date: 20190506