WO2012046890A1 - 이동단말기, 디스플레이 장치 및 그 제어 방법 - Google Patents

이동단말기, 디스플레이 장치 및 그 제어 방법 Download PDF

Info

Publication number
WO2012046890A1
WO2012046890A1 PCT/KR2010/006819 KR2010006819W WO2012046890A1 WO 2012046890 A1 WO2012046890 A1 WO 2012046890A1 KR 2010006819 W KR2010006819 W KR 2010006819W WO 2012046890 A1 WO2012046890 A1 WO 2012046890A1
Authority
WO
WIPO (PCT)
Prior art keywords
home screen
screen image
image
display unit
displayed
Prior art date
Application number
PCT/KR2010/006819
Other languages
English (en)
French (fr)
Inventor
윤찬필
송응규
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2010/006819 priority Critical patent/WO2012046890A1/ko
Priority to US13/010,618 priority patent/US20120088548A1/en
Publication of WO2012046890A1 publication Critical patent/WO2012046890A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C23/00Non-electrical signal transmission systems, e.g. optical systems
    • G08C23/04Non-electrical signal transmission systems, e.g. optical systems using light waves, e.g. infrared
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/90Additional features
    • G08C2201/93Remote control using other portable devices, e.g. mobile phone, PDA, laptop
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0492Change of orientation of the displayed image, e.g. upside-down, mirrored
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/16Use of wireless transmission of display information

Definitions

  • the present invention relates to a mobile terminal, a display device, and a method of controlling the same, which allow data communication between the mobile terminal and the display device when the mobile terminal and the display device are connected to each other, thereby further considering user convenience.
  • Terminal can move It may be divided into a mobile terminal (mobile / portable terminal) and a stationary terminal depending on whether or not.
  • the mobile terminal may be further classified into a handheld terminal and a vehicle mount terminal according to whether a user can directly carry it.
  • such a terminal is a multimedia player having a complex function such as taking a picture or a video, playing a music or video file, playing a game, or receiving a broadcast. Is being implemented.
  • the mobile terminal can be connected to a display device such as a notebook computer, a tablet computer, a personal computer, a television, or the like by wire or wirelessly to perform mutual data communication.
  • a display device such as a notebook computer, a tablet computer, a personal computer, a television, or the like.
  • the present invention has been proposed to meet the above-mentioned necessity.
  • information on data communication between the mobile terminal and the display device may be used for convenience of a terminal user in the mobile terminal and the display device. It is an object of the present invention to provide a mobile terminal, a display device, and a method of controlling the same.
  • the present invention includes a first display unit and a second display unit for displaying one of two or more home screen images including the first home screen image and the second home screen image as an output home screen image.
  • An interface unit for connecting to an external display device, and a control unit for controlling two or more images of the home screen images are provided to the external display device, so that the monitor window for displaying the provided home screen images at the same time to be generated on the second display unit. It provides a mobile terminal comprising a.
  • the present invention provides a mobile terminal including a first display unit for displaying one of two or more home screen images including a first home screen image and a second home screen image as an output home screen image; Two or more images of the interface unit, the second display unit, and the home screen images for connection are received from the external mobile terminal, so that a monitor window for simultaneously displaying the received home screen images is generated on the second display unit. It provides a display device including a control unit.
  • the first display unit disposed on one surface of the housing of the mobile terminal outputs one of two or more home screen images including the first home screen image and the second home screen image Displaying as a screen image, connecting the mobile terminal to an external display device having a second display unit, and two or more images of the home screen images are provided to the external display device to display the provided home screen images. It provides a control method of a mobile terminal comprising the step of controlling to display at the same time the monitor window is displayed in the second display unit.
  • the present invention provides a mobile terminal including a first display unit for displaying one of two or more home screen images including a first home screen image and a second home screen image as an output home screen image. Connecting to a display device having a second display unit, and a monitor window for receiving two or more images of the home screen images from the external mobile terminal and simultaneously displaying the received home screen images on the second display unit. It provides a control method of a display device comprising the step of controlling to be generated.
  • information regarding the data communication between the mobile terminal and the display device further considers convenience of the user of the terminal. Can be displayed.
  • a mobile terminal that selects one of two or more home screen images and displays the output home screen image is connected to a display device, at least one of the two or more home screen images is simultaneously displayed on the connected display device.
  • FIG. 1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
  • FIG. 2 is a block diagram of a display device related to an embodiment of the present invention.
  • FIG. 3 illustrates a mobile terminal and a display device interconnected so that embodiments related to the present invention can be implemented.
  • FIG. 4 is a flowchart for implementing an embodiment related to the present invention.
  • FIG. 5 illustrates a home screen image that may be displayed on the first display unit of the mobile terminal in which an embodiment related to the present invention is implemented.
  • FIG. 6 illustrates a front surface of the mobile terminal including a first display unit displaying a home screen image of FIG. 5.
  • FIG. 7 to 12 illustrate screens of the front of the mobile terminal and the display unit of the display device in which an embodiment related to the present invention is implemented.
  • 13 to 15 illustrate screens of the front of the mobile terminal and the display unit of the display device in which an embodiment related to the present invention is implemented.
  • 16 and 17 illustrate screens of a front surface of the mobile terminal and a display unit of the display apparatus in which an embodiment related to the present invention is implemented.
  • FIG. 18 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device in which an embodiment related to the present invention is implemented.
  • 19 is a front view of the mobile terminal in which an embodiment related to the present invention is implemented.
  • FIG. 20 illustrates a screen of a display unit of the display device, according to an embodiment of the present invention.
  • FIG. 21 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device, according to an embodiment of the present invention.
  • 22 to 24 illustrate screens of a front surface of the mobile terminal and a display unit of the display device in which an embodiment related to the present invention is implemented.
  • 25 illustrates a screen of a display unit of the display device, according to an embodiment of the present invention.
  • 26 and 27 illustrate screens of a front surface of the mobile terminal and a display unit of the display apparatus in which an embodiment related to the present invention is implemented.
  • FIG. 28 illustrates a screen of a display unit of the display device, according to an embodiment of the present invention.
  • FIG. 29 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device, according to an embodiment of the present invention.
  • FIG. 30 illustrates a screen of a display unit of the display device in which an embodiment related to the present invention is implemented.
  • the mobile terminal described herein may include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), navigation, and the like.
  • PDA personal digital assistant
  • PMP portable multimedia player
  • FIG. 1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
  • the mobile terminal 100 includes a wireless communication unit 110, an A / V input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, a memory 160, and an interface.
  • the unit 170, the controller 180, and the power supply unit 190 may be included.
  • the components shown in FIG. 1 are not essential, so that a mobile terminal having more or fewer components may be implemented.
  • the wireless communication unit 110 may include one or more modules that enable wireless communication between the mobile terminal 100 and the wireless communication system or between the mobile terminal 100 and a network in which the mobile terminal 100 is located.
  • the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless internet module 113, a short range communication module 114, a location information module 115, and the like. .
  • the broadcast receiving module 111 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel.
  • the broadcast channel may include a satellite channel and a terrestrial channel.
  • the broadcast management server may mean a server that generates and transmits a broadcast signal and / or broadcast related information or a server that receives a previously generated broadcast signal and / or broadcast related information and transmits the same to a terminal.
  • the broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal.
  • the broadcast associated information refers to information related to a broadcast channel, a broadcast program, or a broadcast service provider.
  • the broadcast related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112.
  • the mobile communication module 112 may include at least one of a base station, an external terminal, and a server on a mobile communication network such as but not limited to Gobal System for Mobile communications (GSM), Code Division Multiple Access (CDMA), and Wideband CDMA (WCDMA). Send and receive wireless signals with one.
  • the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.
  • the wireless internet module 113 refers to a module for wireless internet access and may be embedded or external to the mobile terminal 100.
  • Wireless Internet technologies include Wireless LAN (Wi-Fi), Wireless Broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), GSM, CDMA, WCDMA, Long Term Evolution), but is not limited to such.
  • the wireless Internet module 113 for performing a wireless Internet access through the mobile communication network is the mobile communication module. It can be understood as a kind of (112).
  • the short range communication module 114 refers to a module for short range communication.
  • Bluetooth Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like may be used.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee ZigBee
  • the location information module 115 is a module for obtaining a location of a mobile terminal, and a representative example thereof is a GPS (Global Position System) module.
  • the GPS module 115 calculates distance information and accurate time information away from three or more satellites, and then applies trigonometric methods to the calculated information, thereby providing three-dimensional chords according to latitude, longitude, and altitude.
  • the location information can be calculated accurately.
  • a method of calculating position and time information using three satellites and correcting the error of the calculated position and time information using another satellite is widely used.
  • the GPS module 115 may calculate speed information by continuously calculating the current position in real time.
  • the A / V input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122.
  • the camera 121 processes image frames such as still images or moving images obtained by the image sensor in the video call mode or the photographing mode.
  • the processed image frame may be displayed on the display unit 151.
  • the image frame processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. Two or more cameras 121 may be provided according to the use environment.
  • the microphone 122 receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, etc., and processes the external sound signal into electrical voice data.
  • the processed voice data may be converted into a form transmittable to the mobile communication base station through the mobile communication module 112 and output in the call mode.
  • the microphone 122 may implement various noise removing algorithms for removing noise generated in the process of receiving an external sound signal.
  • the user input unit 130 generates input data for the user to control the operation of the terminal.
  • the user input unit 130 may include a key pad, a dome switch, a touch pad (constant voltage / capacitance), a jog wheel, a jog switch, and the like.
  • the sensing unit 140 detects a current state of the mobile terminal 100 such as an open / closed state of the mobile terminal 100, a location of the mobile terminal 100, presence or absence of a user contact, orientation of the mobile terminal, acceleration / deceleration of the mobile terminal, and the like. To generate a sensing signal for controlling the operation of the mobile terminal 100.
  • Examples of the sensing unit 140 may include a gyroscope sensor, an acceleration sensor, a geomagnetic sensor, and the like.
  • the sensing unit 140 may include a proximity sensor 141. This will be described later with reference to the touch screen.
  • the output unit 150 is used to generate an output related to visual, auditory or tactile senses, which includes a display unit 151, an audio output module 152, an alarm unit 153, a haptic module 154, and a projector module ( 155) may be included.
  • the display unit 151 displays (outputs) information processed by the mobile terminal 100. For example, when the mobile terminal is in a call mode, the mobile terminal displays a user interface (UI) or a graphic user interface (GUI) related to the call. When the mobile terminal 100 is in a video call mode or a photographing mode, the mobile terminal 100 displays a photographed and / or received image, UI, or GUI.
  • UI user interface
  • GUI graphic user interface
  • the display unit 151 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display (flexible). and at least one of a 3D display.
  • LCD liquid crystal display
  • TFT LCD thin film transistor-liquid crystal display
  • OLED organic light-emitting diode
  • flexible display flexible display
  • Some of these displays can be configured to be transparent or light transmissive so that they can be seen from the outside. This may be referred to as a transparent display.
  • a representative example of the transparent display is TOLED (Transparant OLED).
  • the rear structure of the display unit 151 may also be configured as a light transmissive structure. With this structure, the user can see the object located behind the terminal body through the area occupied by the display unit 151 of the terminal body.
  • a plurality of display units may be spaced apart or integrally disposed on one surface of the mobile terminal 100, or may be disposed on different surfaces, respectively.
  • the display unit 151 and a sensor for detecting a touch operation form a mutual layer structure (hereinafter, referred to as a touch screen)
  • the display unit 151 may be configured in addition to an output device. Can also be used as an input device.
  • the touch sensor may have, for example, a form of a touch film, a touch sheet, a touch pad, or the like.
  • the touch sensor may be configured to convert a change in pressure applied to a specific portion of the display unit 151 or capacitance generated in a specific portion of the display unit 151 into an electrical input signal.
  • the touch sensor may be configured to detect not only the position and area of the touch but also the pressure at the touch.
  • the corresponding signal (s) is sent to a touch controller (not shown).
  • the touch controller processes the signal (s) and then transmits the corresponding data to the controller 180.
  • the controller 180 can know which area of the display unit 151 is touched.
  • the proximity sensor 141 may be disposed in an inner region of the mobile terminal surrounded by the touch screen or near the touch screen.
  • the proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using a mechanical contact by using an electromagnetic force or infrared rays.
  • Proximity sensors have a longer life and higher utilization than touch sensors.
  • the proximity sensor examples include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.
  • the touch screen is capacitive, the touch screen is configured to detect the proximity of the pointer by the change of the electric field according to the proximity of the pointer.
  • the touch screen may be classified as a proximity sensor.
  • the proximity sensor detects a proximity touch and a proximity touch pattern (for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state).
  • a proximity touch and a proximity touch pattern for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state.
  • Information corresponding to the sensed proximity touch operation and proximity touch pattern may be output on the touch screen.
  • the sound output module 152 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like.
  • the sound output module 152 may also output a sound signal related to a function (eg, a call signal reception sound, a message reception sound, etc.) performed in the mobile terminal 100.
  • the sound output module 152 may include a receiver, a speaker, a buzzer, and the like.
  • the alarm unit 153 outputs a signal for notifying occurrence of an event of the mobile terminal 100. Examples of events occurring in the mobile terminal include call signal reception, message reception, key signal input, and touch input.
  • the alarm unit 153 may output a signal for notifying occurrence of an event in a form other than a video signal or an audio signal, for example, vibration. Since the video signal or the audio signal may be output through the display unit 151 or the audio output module 152, in this case, the display unit 151 and the audio output module 152 are a kind of alarm unit 153. It may be classified as.
  • the haptic module 154 generates various haptic effects that a user can feel. Vibration is a representative example of the haptic effect generated by the haptic module 154.
  • the intensity and pattern of vibration generated by the haptic module 154 can be controlled. For example, different vibrations may be synthesized and output or may be sequentially output.
  • the memory unit 160 may store a program for processing and controlling the controller 180, and temporarily stores input / output data (for example, a phone book, a message, an audio, a still image, a video, etc.). It can also perform a function for.
  • the memory unit 160 may store a frequency of use of each of the data (eg, a phone number, a message, and a frequency of use of each multimedia).
  • the memory unit 160 may store data regarding vibration and sound of various patterns output when a touch input on the touch screen is performed.
  • the memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), RAM (Random Access Memory, RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), Magnetic Memory, Magnetic It may include a storage medium of at least one type of disk, optical disk.
  • the mobile terminal 100 may operate in connection with a web storage that performs a storage function of the memory 160 on the Internet.
  • the interface unit 170 serves as a path with all external devices connected to the mobile terminal 100.
  • the interface unit 170 receives data from an external device, receives power, transfers the power to each component inside the mobile terminal 100, or transmits data inside the mobile terminal 100 to an external device.
  • wired / wireless headset ports, external charger ports, wired / wireless data ports, memory card ports, ports for connecting devices with identification modules, audio input / output (I / O) ports, The video input / output (I / O) port, the earphone port, and the like may be included in the interface unit 170.
  • the wireless internet module 113 and the short-range communication module 114 may be used as the wireless data port, they may be understood as a kind of the interface unit 170.
  • the identification module is a chip that stores various types of information for authenticating the usage rights of the mobile terminal 100, and includes a user identification module (UIM), a subscriber identify module (SIM), and a universal user authentication module ( Universal Subscriber Identity Module (USIM), and the like.
  • a device equipped with an identification module (hereinafter referred to as an 'identification device') may be manufactured in the form of a smart card. Therefore, the identification device may be connected to the terminal 100 through a port.
  • the interface unit may be a passage through which power from the cradle is supplied to the mobile terminal 100 when the mobile terminal 100 is connected to an external cradle, or various command signals input from the cradle by a user may be transferred. It may be a passage that is delivered to the terminal. Various command signals or power input from the cradle may be operated as signals for recognizing that the mobile terminal is correctly mounted on the cradle.
  • the controller 180 typically controls the overall operation of the mobile terminal. For example, perform related control and processing for voice calls, data communications, video calls, and the like.
  • the controller 180 may include a multimedia module 181 for playing multimedia.
  • the multimedia module 181 may be implemented in the controller 180 or may be implemented separately from the controller 180.
  • the controller 180 may perform a pattern recognition process for recognizing a writing input or a drawing input performed on the touch screen as text and an image, respectively.
  • the power supply unit 190 receives an external power source and an internal power source under the control of the controller 180 to supply power for operation of each component.
  • Various embodiments described herein may be implemented in a recording medium readable by a computer or similar device using, for example, software, hardware or a combination thereof.
  • the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and the like. It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions. The described embodiments may be implemented by the controller 180 itself.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • embodiments such as the procedures and functions described herein may be implemented as separate software modules.
  • Each of the software modules may perform one or more functions and operations described herein.
  • Software code may be implemented in software applications written in a suitable programming language. The software code may be stored in the memory 160 and executed by the controller 180.
  • the display device described herein is not limited as long as it is connected to the mobile terminal and can receive and display information related to the display of the mobile terminal.
  • Examples of the display device may include, but are not limited to, a laptop computer, a tablet computer, a desktop computer, a television (eg, a digital TV or a smart TV), and the like.
  • FIG. 2 is a block diagram of a display device related to an embodiment of the present invention.
  • the display apparatus 200 may include a wireless communication unit 210, an A / V input unit 220, a user input unit 230, an output unit 250, a memory 260, an interface unit 270, and a controller. 280, a power supply unit 290, and the like.
  • the wireless communication unit 210 may include a wireless internet module 213 and a short range communication module 214.
  • the output unit 250 may include a display unit 251 and a sound output module 253.
  • the components of the display apparatus 200 are the same as or substantially similar to each corresponding component of the mobile terminal 100 described above with reference to FIG. 1. Therefore, detailed description thereof will be omitted for the sake of brevity of the present specification.
  • FIG. 2 Not all of the components shown in FIG. 2 are essential, and thus a display apparatus having more or fewer components may be implemented.
  • a broadcast receiving module may be further provided.
  • the wireless internet module may not be provided as necessary (or may be provided). Since the broadcast receiving module is also the same as or substantially similar to the broadcast receiving module 111 of the mobile terminal 100 described above with reference to FIG. 1, a detailed description thereof will be omitted for simplicity of the present specification.
  • FIG. 3 illustrates a mobile terminal and a display device interconnected so that embodiments related to the present invention can be implemented.
  • the mobile terminal 100 and the display apparatus 200 may be connected to each other through the interface unit 170 of the mobile terminal 100 and the interface unit 270 of the display apparatus 200.
  • the connection between the mobile terminal 100 and the display apparatus 200 may be connected by wired communication, or may be connected by wireless communication (for example, short range communication or wireless internet communication).
  • FIG 3 illustrates a state in which the mobile terminal 100 and the display apparatus 200 are connected to each other.
  • a prefix “first” is used in front of the components corresponding to the mobile terminal 100.
  • the prefix “second” will be used.
  • the display unit 151 and the controller 180 of the mobile terminal 100 are referred to as a first display unit 151 and a first control unit 180, respectively, and the display unit of the display apparatus 200 is used.
  • 251 and the controller 280 will be referred to as a second display unit 251 and a second control unit 280, respectively.
  • the image displayed on the first display unit 151 will be referred to as a first screen image 300.
  • the mobile terminal 100 When a connection is made between the mobile terminal 100 and the display apparatus 200, the mobile terminal 100 displays information regarding a first screen image displayed on the first display unit 151, the display apparatus 200. Can be provided as
  • the display apparatus 200 may be pre-installed with an application (eg, plug-in software) for processing information about the first screen image received from the mobile terminal 100.
  • an application eg, plug-in software
  • the second control unit 280 of the display apparatus 200 displays the second monitor window 400 for the first screen image. It may be controlled to be displayed on the display unit 251.
  • the second control unit 280 of the display apparatus 200 controls to display an image corresponding to the first screen image on the monitor window 400.
  • an image displayed on the monitor window 400 will be referred to as a second screen image 500 to distinguish it from the first screen image 300 of the mobile terminal.
  • the monitor window 400 may have the same or similar shape as one surface of a housing on which the first display unit 151 of the mobile terminal 100 is mounted. . Therefore, when the predetermined key button 130 is disposed on one surface of the housing, the soft key button 430 having the same shape as the predetermined key button may be formed at the corresponding position in the monitor window 400.
  • the display The second control unit 280 of the device 200 may send a control signal to the mobile terminal 100 indicating that the soft key button 430 has been operated on the display device 200.
  • the first controller 180 of the mobile terminal 100 receives the control signal, so that a specific function corresponding to the operation of the predetermined key button 130 corresponding to the operated soft key button 430 is provided. It can be controlled to be executed in the mobile terminal 100.
  • the first controller 180 of the mobile terminal 100 may control the image according to the executed specific function to be displayed as the first screen image 300 on the first display unit 151.
  • the first controller 180 of the mobile terminal 100 may transmit information about the first screen image 300 including the image according to the specific function to the display apparatus 200.
  • the second controller 180 of the display apparatus 200 may control to display the second screen image 500 corresponding to the transmitted first screen image 300 on the monitor window 400. .
  • a user may indirectly manipulate the mobile terminal 100 by manipulating the monitor window 400 of the display apparatus even if the user does not directly operate the mobile terminal 100, and the indirectly operated mobile terminal 100.
  • the first screen image 300 of 100 may be viewed through the second screen image 500 of the display apparatus 200.
  • the monitor window 400 does not necessarily have the same or similar shape as one surface of a housing on which the first display unit 151 of the mobile terminal 100 is mounted.
  • the monitor window 400 may further include other icons (for example, a window closing icon, a window minimizing icon, a window maximizing icon, etc.) (not shown) in addition to the shape of one surface of the housing. .
  • only the second screen image 500 may be displayed on the monitor window 400 without the shape of one surface of the housing.
  • the display apparatus 200 receives information about the first screen image 300 from the mobile terminal 100 and displays the information about the first screen image 300 in the monitor window 400 as the second screen image 500. Accordingly, the first screen image 300 and the second screen image 500 may share a content image generated by the mobile terminal 100.
  • the content image generated by the mobile terminal 100 is a standby image, but the present invention is not limited thereto.
  • the content image generated by the mobile terminal 100 includes an image related to all functions, menus, or applications executed in the mobile terminal.
  • the mobile terminal 100 will be described in more detail for providing the display apparatus 200 with information about the first screen image.
  • the first controller 180 of the mobile terminal 100 captures the first screen image 300 displayed on the first display unit 180 and displays the first screen image 300 as information on the first screen image 300 described above. May transmit to the device 200.
  • the second control unit 280 of the display apparatus 200 receives the transmitted captured first screen image 300 and controls it to be displayed on the monitor window 400 as a second screen image 500. can do.
  • the first screen image 300 and the second screen image 500 may be dependent on each other, for example, in zooming in and out. That is, when the first screen image 300 is zoomed in or out, the second screen image may be zoomed in or out accordingly.
  • the first screen image 300 and the second screen image 500 may be dependent on each other even in the contents thereof.
  • the first controller 180 of the mobile terminal 100 may also transmit an image signal input to the first display unit 151 to the display apparatus 200 as information about the first screen image 300.
  • the first display unit 151 of the mobile terminal 100 may output the image signal as the first screen image 300.
  • the second controller 280 of the display apparatus 200 may receive the transmitted image signal and output the second image as the second screen image 500 from the monitor window 400 of the second display unit 251. have. That is, the first display unit 151 and the second display unit 251 may share the image signal output by the first control unit 180.
  • the video signal will be referred to as a "shared video signal.”
  • the first screen image 300 and the second screen image 500 may be dependent on each other, for example, in zooming in and out. That is, when the first screen image 300 is zoomed in or out, the second screen image may be zoomed in or out accordingly.
  • the first screen image 300 and the second screen image 500 may be dependent on each other even in the contents thereof.
  • the first controller 180 of the mobile terminal 100 generates a first image signal and a second image signal independent of the specific content image (or home screen image) generated by the mobile terminal 100,
  • the first image signal may be input to the first display unit 151, and the second image signal may be transmitted to the display apparatus 200 as information about the first screen image.
  • the first display unit 151 of the mobile terminal 100 may output the first image signal as the first screen image 300.
  • the second control unit 280 of the display apparatus 200 receives the transmitted second image signal and outputs the second screen image 500 from the monitor window 400 of the second display unit 251. can do. Since the first image signal and the second image signal are provided to the first display unit 151 and the second display unit 251 independently of each other, the first image signal and the second image signal are different from the shared image signal. Remember to be distinguished.
  • the first screen image 300 and the second screen image 500 may be independent of each other, for example, in enlargement and reduction. That is, the second screen image 500 may be zoomed regardless of whether the first screen image 300 is zoomed. In contrast, the first screen image 300 may be zoomed regardless of whether the second screen image 500 is zoomed.
  • the first screen image 300 and the second screen image 500 may be independent of each other even in their contents. That is, the first screen image 300 and the second screen image 500 may be at least partially different from each other.
  • the mobile terminal 100 and the display apparatus 200 are connected to each other, the first screen image 300 displayed on the first display unit 151 and the second display unit 251 are displayed.
  • the monitor window 400 and the second screen image 500 are briefly described.
  • a home screen image for the first display unit 151 of the mobile terminal 100 is displayed as a second image of the display apparatus 200.
  • the display on the display unit 251 will be described with reference to FIGS. 4 to 12.
  • both the first display unit 151 of the mobile terminal 100 and the second display unit 251 of the display apparatus 200 may be touch screens.
  • the embodiment of the present invention is not necessarily applied only when the first and second display units 151 and 251 are touch screens, but may be applied to general displays instead of touch screens.
  • FIG. 4 is a flowchart for implementing an embodiment related to the present invention.
  • 5 illustrates a home screen image that may be displayed on the first display unit of the mobile terminal in which an embodiment related to the present invention is implemented.
  • 6 illustrates a front surface of the mobile terminal including a first display unit displaying a home screen image of FIG. 5.
  • 7 to 12 illustrate screens of the front of the mobile terminal and the display unit of the display device in which an embodiment related to the present invention is implemented.
  • one home screen image of two or more home screen images may be selected and displayed as the first screen image 300.
  • the two or more home screen images that can be displayed as the first screen image 300 will be described with reference to FIG. 5.
  • two or more home screen images may be prepared in the mobile terminal 100.
  • the number of home screen images may be determined according to a user's selection. In the present embodiment, for example, it will be assumed that three home screen images are prepared in advance.
  • the three home screen images will be referred to as a first home screen image 310, a second home screen image 320, and a third home screen image 330, respectively.
  • Each home screen image may include at least one application icon, a menu icon, a file icon, a widget, and the like.
  • the object may be newly created on each home screen, moved to another home screen, or deleted.
  • some objects may be pre-generated from the factory shipment of the mobile terminal, and may later be moved between home screen images by the user, but may not be deleted.
  • the first home screen image 310 has three objects (ie, A object, B object, and C object), and the second home screen image 320 has two objects (ie, D object, E object).
  • the third home screen image 330 four objects (that is, an F object, a G object, an H object, and an I object) are illustrated.
  • the home screen images may be displayed on the first display unit 151 as the first screen image 300 sequentially in a predetermined order according to a user's selection in the mobile terminal 100. This will be explained later.
  • FIG. 5 (5-1) it is illustrated that there is no background image on the background of the corresponding objects in the first home screen image 310, the second home screen image 320, and the third home screen image 330.
  • this embodiment is not limited to this.
  • the corresponding objects in the first home screen image 310, the second home screen image 320, and the third home screen image 330 are the same. It may be configured to be displayed on the background image.
  • the home screen images 310, 320, and 330 of the mobile terminal 100 are sequentially displayed in a predetermined order on the first display unit 151 as the first screen image 300. I will explain what is displayed.
  • the first home screen image 310 may be displayed as the first screen image 300 on the first display unit 151 of the mobile terminal 100. . Not only the first home screen image 310 should be displayed as the first screen image 300.
  • the first home screen image 310 may be displayed on the first display unit 151 as, for example, the first screen image 300 along with the other indicators 340 and 350. Examples of the other indicators may include terminal status indicators 340 (eg, a reception strength indicator, a battery indicator, a current time indicator, etc.) and a page indicator 350 of a home screen image.
  • terminal status indicators 340 eg, a reception strength indicator, a battery indicator, a current time indicator, etc.
  • a page indicator 350 of a home screen image In the page indicator 350 shown as “1/3” in FIG. 6 (6-1), the first home screen image 310 displayed as the first screen image 300 includes three home screen images. This is the first video in the display.
  • the first screen image 300 displayed on the first display unit 151 through the first user input unit 130 of the mobile terminal 100 is the second home screen on the first home screen image 310.
  • a user command to switch to the image 320 may be input.
  • the user command may be input by performing a predetermined touch gesture (for example, touch drag in one direction) on the touch screen.
  • the first control unit 180 of the mobile terminal 100 in response to the user command, the first home screen image on the first display unit 151 A portion of the 310 may be slidably moved along the one direction and disappear so that a part of the second home screen image 320 may be slidably moved along the one direction. Even though the first home screen image 310 is slid and disappears, the indicators 340 and 350 of the first screen image 300 may still be displayed on the first display unit 151.
  • the first home screen image 310 is slid and completely disappeared from the first display unit 151, and the second home screen image 320 is slid and completely removed.
  • the conversion of the first screen image 300 displayed on the first display unit 151 from the first home screen image 310 to the second home screen image 320 may be completed.
  • the page indicator 350 displayed as "2/3" on the first screen image 300 is displayed,
  • the second home screen image 320 displayed as the first screen image 300 may be displayed as the second image among the three home screen images.
  • the first screen image 300 displayed on the first display unit 151 is the third home screen image from the second home screen image 320. Can be switched to.
  • the first screen image 300 displayed on the first display unit 151 is restored from the second home screen image 320 to the first home screen image 310. Can be.
  • a home screen image output from the first display unit 151 to the first screen image 300 among the home screen images may be referred to as an “output home screen image”.
  • the first home screen image 310 and the second home screen image 320 correspond to the output home screen image, respectively.
  • the indicators 340 and 350 are separate from the home screen images 310 so that the indicators 340 and 350 are displayed when the output home screen image is displayed as the first screen image 300.
  • the display is overlapped with the output home screen image and displayed as the first screen image 300.
  • the home screen images may be configured such that the indicators are included in the home screen images 310.
  • the first home screen image 310 may be displayed as the first screen image 300 on the first display unit 151 of the mobile terminal 100. . As described above, the first home screen image 310 may be displayed on the first display unit 151 as, for example, the first screen image 300 along with the other indicators 340 and 350.
  • At least one independent object 361, 363, 365 which does not belong to any of the home screen images may be displayed together with the first home screen image 310 on the first screen image 300.
  • the independent objects 361, 363, and 365 may be objects displayed together with the displayed home screen image in the first screen image 300 at any time, even if any home screen image is displayed as the first screen image 300. have. That is, the independent objects 361, 363, and 365 may be displayed together with the objects (A object, B object, and C object) of the first home screen image in the first screen image 300.
  • a telephone menu icon 361, a message menu icon 363, and an internet menu icon 365, which are frequently used in the mobile terminal 100, are illustrated as the independent objects.
  • the first screen image 300 displayed on the first display unit 151 through the first user input unit 130 of the mobile terminal 100 is the first home screen image 310.
  • a user command to switch to the second home screen image 320 may be input.
  • the first control unit 180 of the mobile terminal 100 in response to the user command, the first home screen image on the first display unit 151 A portion of the 310 may be slidably moved along the one direction and disappear so that a part of the second home screen image 320 may be slidably moved along the one direction. Even when the first home screen image 310 slides away, the independent objects 361, 363, 365 of the first screen image 300 may still be displayed on the first display unit 151.
  • the first home screen image 310 is slidably moved away from the first display unit 151 to completely disappear, and the second home screen image 320 is slidably moved completely.
  • the conversion of the first screen image 300 displayed on the first display unit 151 from the first home screen image 310 to the second home screen image 320 may be completed. That is, the independent objects 361, 363, and 365 may be displayed together with the objects (D object and E object) of the second home screen image 320 in the first screen image 300.
  • the mobile terminal 100 capable of displaying one home screen image as the first screen image among two or more home screen images may be connected to the display device.
  • the first screen image 300 displayed on the first display unit 151 and the second display unit 251 are displayed.
  • the monitor window 400 and the second screen image 500 will be described in more detail with reference to FIG. 8.
  • 310 may be displayed as the output home screen image for the first screen image 300 [S41].
  • the mobile terminal 100 may be connected to the display apparatus 200.
  • the steps S41 and S42 may be performed in a reversed order. Since steps S41 and S42 have been described above, a detailed description thereof will be omitted for simplicity of the present specification.
  • the second control unit 280 of the display apparatus 200 is a second display unit.
  • the monitor window 400 may be controlled to be generated [S42].
  • the first controller 180 of the mobile terminal 100 may control to transmit the information about the first screen image to the display apparatus 200. That is, the information about the first screen image may include information about all of the first to third home screen images 310, 320, and 330.
  • the second control unit 280 of the display apparatus 200 receives the information on the first screen image from the mobile terminal 100, as shown in (8-2) of FIG.
  • the display may be controlled to be displayed on the generated monitor window 400 as the 2 screen image 500.
  • images corresponding to all of the first to third home screen images 310, 320, and 330 may be displayed as the second screen image 500 [S43].
  • the second screen image 500 is composed of three first sub images 510, a second sub image 520, and a third sub image 530.
  • the first sub image 510 corresponds to the first home screen image 310
  • the second sub image 520 corresponds to the second home screen image 320
  • the third sub image 530 corresponds to the third It may correspond to the home screen image 330.
  • the indicators 340 and 350 of the first screen image 300 may be displayed together on the first to third sub-images 510, 520, and 530.
  • the independent objects 361, 363, 365 are displayed on the first screen image 300
  • the independent objects 361 are displayed on the first to third sub-images 510, 520, and 530.
  • 363, 365 may also be displayed.
  • the first home screen image 310 is displayed as the output home screen image on the first display unit 151 of the mobile terminal 100 in (8-1) of FIG. 8.
  • the second control unit 280 of the display apparatus 200 displays the monitor window of the second display unit 251 in order to inform the mobile terminal 100 that the first home screen image 310 is the output home screen image.
  • the first sub image 510 corresponding to the first home screen image 310 may be visually distinguished from other sub images 520 and 530. Can be. If the first sub-image 510 can only be visually distinguished from other sub-images 520 and 530, there is no limitation in the visual distinction.
  • FIG. 8 (8-2) the first screen image frame 401 is displayed on the first sub image 510 so that the first sub image 510 is different from the sub images 520 and 530. ) Is shown visually.
  • the first screen image 300 of the mobile terminal 100 is touched by dragging in one direction from the first display unit 151 of the mobile terminal 100.
  • a user command to switch from the first home screen image 310 to the second home screen image 320 may be input.
  • the first control unit 180 of the mobile terminal 100 in response to the user command, the first home screen image on the first display unit 151
  • the second home screen image 320 may be slid and displayed to be displayed as the first screen image 300. That is, the second home screen image 320 is displayed as the output home screen image on the first display unit 151 of the mobile terminal 100.
  • the first controller 180 of the mobile terminal 100 can transmit a control signal indicating that the second home screen image 320 is being displayed as the first screen image 300 to the display apparatus 200. have.
  • the second control unit 280 of the display device 200 receives the control signal, as shown in (9-2) of FIG.
  • the second screen image 500 displayed on the monitor window 400 of the second display unit 251 corresponds to the second home screen image 320.
  • the sub image 520 may be controlled to be visually distinguished from other sub images 510 and 520.
  • the first screen image frame 401 is moved from the first sub image 510 to the second sub image 520 and displayed so that the second sub image 520 is another sub image. What is visually distinguished from the fields 510 and 530 is shown.
  • a third sub image in the monitor window 400 of the second display unit 251 through the second user input unit 230 of the display apparatus 200 may be input.
  • the H object of the third sub image 530 is clicked with a mouse and dragged to the second sub image 520 so that the user command may be input.
  • the second display unit 251 is configured as a touch screen
  • the H command of the third sub image 530 is touch-draged to the second sub image 520 in the monitor window 400 so that the user command is performed. Can be input.
  • the second controller 280 of the display apparatus 200 receives a control signal indicating that a user command for selecting the H object of the third sub image 530 and moving to the second sub image 520 is input. It may be transmitted to the mobile terminal 100.
  • the first control unit 180 of the mobile terminal 100 responds to the control signal so that the second sub-image from the third home screen image 330 in which the H object corresponds to the third sub-image 530.
  • the control moves to the second home screen image 320 corresponding to 520.
  • the second home screen image 320 in the first display unit 151 of the mobile terminal 100 is the output home screen image (that is, the first screen image ( 300), the sliding of the H object from the right side of the first display unit 151 corresponding to the third home screen image 330 to the inside of the output home screen image can be displayed. have.
  • the first controller 180 of the mobile terminal 100 may control to transmit the information about the first screen image reflecting the moved H object to the display apparatus 200. That is, information about the first screen image that reflects the moved H object includes first to third items that reflect the information that the H object moves from the third home screen image 330 to the second home screen image 320. It may include home screen images 310, 320, and 330.
  • the second control unit 280 of the display device 200 the first screen image reflecting the moved H object from the mobile terminal 100 It may be controlled to receive information about and display it as the second screen image 500 on the monitor window 400 of the second display unit 251. That is, in the monitor window 400, the first to third sub images 510, 520, and 530 corresponding to the first to third home screen images 310, 320, and 330 reflecting the moved H object are respectively displayed. Can be displayed. That is, the H object displayed on the third sub image 530 may be moved and displayed on the second sub image 520.
  • a second sub-image in the monitor window 400 of the second display unit 251 through the second user input unit 230 of the display apparatus 200 may be input to cause the D object of 520 to be selected and deleted.
  • the D command of the second sub-image 520 is clicked with a mouse and dragged out of the monitor window 400 in the monitor window 400 of the second display unit 251 to input the user command.
  • the second display unit 251 is configured as a touch screen
  • the D command of the second sub image 520 is touched and dragged out of the monitor window 400 in the monitor window 400 so that the user command is executed. Can be entered.
  • the second controller 280 of the display apparatus 200 may transmit a control signal to the mobile terminal 100 indicating that a user command for selecting and deleting the D object of the second sub-image 520 is input. have.
  • the first controller 180 of the mobile terminal 100 responds to the control signal so that the second sub-image from the third home screen image 330 in which the D object corresponds to the third sub-image 530.
  • the second home screen image 320 is the output home screen image (ie, the first screen image). 300), it may be displayed that the D object is deleted and disappears from the output home screen image.
  • the first controller 180 of the mobile terminal 100 may control to transmit the information about the first screen image reflecting the deleted D object to the display apparatus 200. That is, the information about the first screen image reflecting the deleted D object may include first to third home screen images 310, 320, and 330 reflecting information deleted by the D object from the second home screen image 320. ) May be included.
  • the second control unit 280 of the display apparatus 200 as shown in (11-2) of FIG. 11, the first screen image reflecting the deleted D object from the mobile terminal 100 It may be controlled to receive information about and display it as the second screen image 500 on the monitor window 400 of the second display unit 251. That is, in the monitor window 400, the first to third sub images 510, 520, and 530 corresponding to the first to third home screen images 310, 320, and 330 reflecting the deleted D object are respectively displayed. Can be displayed. That is, the D object displayed on the second sub image 520 may be displayed to be deleted and disappeared from the second sub image 520.
  • a predetermined user command is input from the display apparatus 200 so that the output home screen image of the mobile terminal 100 is converted from the second home screen image to the third home screen image. I will explain by reference.
  • the output home screen image of the mobile terminal 100 is the third home screen image 330 through the second user input unit 230 of the display apparatus 200. May be entered.
  • the user command may be input by double-clicking the third sub image 520 corresponding to the third home screen image 330 on the monitor window 400 of the second display unit 251 with a mouse.
  • the second display unit 251 is configured as a touch screen, the user command may be input by double touching the third sub image 530 in the monitor window 400.
  • the second control unit 280 of the display apparatus 200 receives a control signal indicating that a user command for making the output home screen image of the mobile terminal 100 become the third home screen image 330 is input. It may be transmitted to the mobile terminal 100.
  • the first controller 180 of the mobile terminal 100 responds to the control signal, as shown in (12-1) of FIG. 12, on the second display screen 151 of the first display unit 151.
  • the 320 is slid to the left side and disappears and the third home screen image 330 is slid to the right side to appear so that the third home screen image 330 is the output home screen image (ie, the first screen image 300). )).
  • the first controller 180 of the mobile terminal 100 controls to transmit the information about the first screen image indicating that the third home screen image 330 is the output home screen image to the display apparatus 200. can do.
  • the second controller 280 of the display apparatus 200 the third home screen image 330 from the mobile terminal 100 is the output home Information regarding the first screen image indicating the screen image may be received and controlled to be displayed on the monitor window 400 of the second display unit 251 as the second screen image 500.
  • the second control unit 280 of the display device 200 informs that the third home screen image 330 is the output home screen image by the mobile terminal 100.
  • the third sub image 530 corresponding to the third home screen image 330 may be visually distinguished from other sub images 510 and 520. Can be controlled.
  • the third sub image 530 is visually distinguished from other sub images 510 and 520 by displaying the first screen image frame 401 on the third sub image 530. Is shown.
  • all home screen images ie, first to third home screen images 310 and 320, for the mobile terminal 100
  • the sub-images ie, the first to third sub-images 510, 520, and 530
  • this embodiment is not limited to this.
  • only some sub-images corresponding to some of all the home screen images may be displayed on the monitor window 400 of the second display unit 251. This will be described with reference to FIGS. 13 to 15.
  • 13 to 15 illustrate screens of the front of the mobile terminal and the display unit of the display device in which an embodiment related to the present invention is implemented.
  • the first home screen image among the first to third home screen images 310, 320, and 330 in the first display unit 151 of the mobile terminal 100. 310 may be displayed as the output home screen image for the first screen image 300.
  • the second controller 280 of the display apparatus 200 is a second display unit.
  • the monitor window 400 may be generated at 251.
  • the first controller 180 of the mobile terminal 100 may control to transmit the information about the first screen image to the display apparatus 200. That is, the information about the first screen image is related to some home screen images including the first home screen image 310, which is the output home screen image among the first to third home screen images 310, 320, and 330. May contain information. Hereinafter, it is assumed that some home screen images are first and second home screen images 310 and 320.
  • the second control unit 280 of the display apparatus 200 receives information about the first screen image from the mobile terminal 100 and reconstructs it.
  • the display may be controlled to be displayed on the generated monitor window 400 as the 2 screen image 500.
  • first and second sub images 510 and 520 corresponding to the first to second home screen images 310 and 320 may be displayed as the second screen image 500.
  • the second control unit 280 of the display apparatus 200 corresponds to the first home screen image 310 to inform the mobile terminal 100 that the first home screen image 310 is the output home screen image.
  • the first screen image frame 401 may be displayed on the first sub image 510.
  • a user command may be input to allow the fields 510 and 520 to slide.
  • the user command may be input by clicking on the second screen image 500 on the monitor window 400 of the second display unit 251 and dragging the mouse in one direction.
  • the second display unit 251 is configured as a touch screen, the user command may be input by touching and dragging the second screen image 500 in the one direction in the monitor window 400.
  • the second controller 280 of the display apparatus 200 transmits a control signal to the mobile terminal 100 indicating that a user command for sliding the first and second sub-images 510 and 520 is input. Can be.
  • the first controller 180 of the mobile terminal 100 receives information about the first screen image including information about the second and third home screen images 320 and 330. It may be controlled to transmit to the display apparatus 200.
  • the first control unit 180 of the mobile terminal 100 as shown in (14-1) of FIG. 14, the first home screen image 310 is still the first screen image 300
  • the display may be controlled to be displayed as the output home screen image.
  • the second controller 280 of the display apparatus 200 may display the second and third home screen images 320 and 330 from the mobile terminal 100.
  • Information regarding the first screen image including the information may be received and controlled to be displayed on the monitor window 400 of the second display unit 251 as the second screen image 500.
  • second and third sub-images 520 and 530 corresponding to the second to third home screen images 320 and 320 may be displayed as the second screen image 500.
  • the second controller 280 of the display apparatus 200 slides the first and second sub-images 510 and 520 to the left so that only the first sub-image 510 disappears from the left side in the monitor window 400.
  • the third sub image 530 may be slidably moved from the right side to the left side to be displayed and displayed together with the second sub image 520. Since all of the second and third sub-images 520 and 530 in the monitor window 400 do not correspond to the first home screen image 310 which is the output home screen image, the first screen image frame may not be displayed. have.
  • the output home screen image of the mobile terminal 100 is the third home screen image 330 through the second user input unit 230 of the display apparatus 200. May be entered.
  • the second control unit 280 of the display apparatus 200 receives a control signal indicating that a user command for making the output home screen image of the mobile terminal 100 become the third home screen image 330 is input. It may be transmitted to the mobile terminal 100.
  • the first control unit 180 of the mobile terminal 100 responds to the control signal and, as illustrated in (15-1) of FIG. 15, displays the first home screen image on the first display unit 151.
  • the 310 is slid to the left side and disappears
  • the second home screen image 320 is slid to the right side and disappears again, the slid to the left side again disappears
  • the third home screen image 330 is the right side
  • the third home screen image 330 may be controlled to be the output home screen image (ie, the first screen image 300).
  • the first controller 180 of the mobile terminal 100 controls to transmit the information about the first screen image indicating that the third home screen image 330 is the output home screen image to the display apparatus 200. can do.
  • the second controller 280 of the display apparatus 200 may receive information about the first screen image indicating that the third home screen image 330 is the output home screen image from the mobile terminal 100. have.
  • the third home screen image 330 in the mobile terminal 100 is the output home
  • the third sub image 530 corresponding to the third home screen image 330 is displayed in the second screen image 500 displayed on the monitor window 400 of the second display unit 251.
  • the control may be visually distinguished from the second sub-image 520.
  • FIG. 15 (15-2), as described above, the first screen image frame 401 is displayed on the third sub image 530 so that the third sub image 530 is different from the other second sub image 520. Visually distinct is shown.
  • the first screen image frame 401 is displayed on the monitor window 400 of the second display unit 251, any one of several sub-images of the monitor window 400 corresponds to the output home screen image. It has been described to allow the user to know if it is. However, the first screen image frame 401 does not necessarily need to be displayed in order for a user to know which of the various sub-images of the monitor window 400 corresponds to the output home screen image. This will be described with reference to FIGS. 16 and 17 further.
  • 16 and 17 illustrate screens of a front surface of the mobile terminal and a display unit of the display apparatus in which an embodiment related to the present invention is implemented.
  • the first home screen image among the first to third home screen images 310, 320, and 330 in the first display unit 151 of the mobile terminal 100. 310 may be displayed as the output home screen image for the first screen image 300.
  • first to third sub images 510, 520, and 530 corresponding to the first to third home screen images 310, 320, and 330 may be displayed. Since this has been described above, the detailed description will be omitted for simplicity of the present specification.
  • the second control unit 280 of the display apparatus 200 displays the monitor window of the second display unit 251 in order to inform the mobile terminal 100 that the first home screen image 310 is the output home screen image.
  • the second indicators 540 and 550 corresponding to the “first indicators” may be controlled to be displayed.
  • the output home screen image of the mobile terminal 100 is the second home screen image 330 through the second user input unit 230 of the display apparatus 200.
  • a user command eg, double-clicking on the second sub-image may be input.
  • the second home screen image 320 may be displayed as the output home screen image on the first display unit 151 of the mobile terminal 100. Is as described above.
  • the mobile terminal 100 may transmit information about the first screen image indicating that the second home screen image 320 is the output home screen image to the display apparatus 200.
  • the second control unit 280 of the display apparatus 200 may receive information about the first screen image indicating that the second home screen image 320 is the output home screen image.
  • the second control unit 280 of the display apparatus 200 may display a second home screen image 320 on the output terminal of the mobile terminal 100.
  • the second indicators 540 and 550 are added to the second sub image 520 corresponding to the second home screen image 320 in the monitor window 400 of the second display unit 251. Control to be displayed.
  • the user may determine which sub-image is displayed on the second indicators, thereby identifying which home screen image is the output home screen image in the mobile terminal 100.
  • one monitor window 400 is generated on the second display unit 251, and the monitor window 400 is located within the one monitor window 400.
  • the sub images corresponding to the home screen images are described as being displayed as the second screen image.
  • this embodiment is not limited to this.
  • two or more of the monitor windows may be generated on the second display unit 251. This will be described with reference to FIG. 18 further.
  • FIG. 18 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device in which an embodiment related to the present invention is implemented.
  • the first home screen image among the first to third home screen images 310, 320, and 330 in the first display unit 151 of the mobile terminal 100. 310 may be displayed as the output home screen image for the first screen image 300.
  • the first controller 180 of the mobile terminal 100 controls to transmit information about a first screen image to the display apparatus 200.
  • the information about the first screen image may include information about all of the first to third home screen images 310, 320, and 330.
  • the second controller 280 of the display apparatus 200 receives the information about the first screen image, and as shown in (8-2) of FIG. 8, the home screen included in the received information. Control to display the same number of monitor windows as the images (that is, three), that is, the first monitor window 410, the second monitor window 420, and the third monitor window 430 on the second display unit 251. can do.
  • the second control unit 280 of the display apparatus 200 may include first to third sub-images 510, 520, and 530 corresponding to first to third home screen images 310, 320, and 330, respectively. 3 to 3 monitor windows 410, 420, and 430 may be controlled to be displayed.
  • the first home screen image 310 in the mobile terminal 100 is the output home screen image
  • the first screen image frame 401 may be controlled to be displayed on the first sub image 510 of the first monitor window 410.
  • the first monitor window 410 may be visually distinguished from the second and third monitor windows 420 and 430.
  • FIG. 19 is a front view of the mobile terminal in which an embodiment related to the present invention is implemented.
  • 20 illustrates a screen of a display unit of the display device, according to an embodiment of the present invention.
  • FIG. 21 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device, according to an embodiment of the present invention.
  • the mobile terminal 100 and the display apparatus 200 are connected to each other. That is, the first home screen image 310 is output to the first screen image 300 on the first display unit 151 of the mobile terminal 100 as shown in (19-1) of FIG. It is assumed that the home screen image is displayed and the monitor window 400 is displayed on the second display unit 251 of the display apparatus 200 as shown in FIG. 20 (20-1). Since this has been described in detail above, the detailed description will be omitted for the sake of simplicity of the present specification.
  • the A object of the first home screen image 310 may be selected and executed in the first display unit 151 of the mobile terminal 100.
  • the first display unit 151 is a touch screen
  • the first display unit 151 may be executed by touching the A object.
  • the A object is a multimedia play menu icon.
  • the first controller 180 of the mobile terminal 100 plays predetermined multimedia content, and as shown in (19-2) of FIG. 19, the multimedia content image 360 is displayed on the first display unit 151. ) May be displayed as the first screen image 300.
  • the multimedia content image displayed on the first display unit 151 will be referred to as a "first multimedia content image”.
  • the first controller 180 of the mobile terminal 100 may transmit information regarding the first screen image to the display apparatus 200.
  • the information about the first screen image may include only image information of the multimedia content.
  • the second control unit 280 of the display apparatus 200 receives the information about the first screen image, and as shown in (20-2) of FIG. 20, the second display unit 251 of the display unit 200 of FIG.
  • the multimedia content image may be controlled to be displayed as the second screen image 500.
  • the multimedia content image displayed on the second display unit 251 will be referred to as a "second multimedia content image 560.”
  • the information about the first screen image may include not only image information of the multimedia content but also second and third home screen images 320 and 330.
  • the first home screen image 310 in which the A object is located may be excluded from the information about the first screen image.
  • the second control unit 280 of the display apparatus 200 receives the information about the first screen image, and as shown in (20-3) of FIG. 20, the second display unit 251 of the second display unit 251 of FIG.
  • the second multimedia content image 560 and the second and third sub-images 520 and 530 corresponding to the second and third home screen images 320 and 330 are together in the monitor window 400. It may be controlled to be displayed as the image 500. That is, the second multimedia content image 560 may be displayed instead of the first sub image 510.
  • the second multimedia content image 560 is the second and third sub images 520 and 530 in the second display unit 251 of the display apparatus 200.
  • another object of the third sub-image 530 may be selected, for example. This will be described further with reference to FIGS. 20-20 and 21.
  • the second multimedia content image 560 is displayed on the second and third sub-images 520 in the second display unit 251 of the display apparatus 200.
  • an I object of the third sub-image 530 may be selected.
  • the I object is a message menu icon.
  • a user command for selecting the I object of the third sub-image 530 may be input through the second user input unit 230 of the display apparatus 200.
  • the user command may be input by clicking the I object of the third sub-image 530 of the second display unit 251 with a mouse.
  • the second display unit 251 is configured as a touch screen, the user command may be input by touching the I object of the third sub-image 530 of the second display unit 251.
  • the second controller 280 of the display apparatus 200 may transmit a control signal indicating that a user command for selecting the I object is input to the mobile terminal 100.
  • the first controller 180 of the mobile terminal 100 continuously executes the multimedia playback menu and multi-tasks the message menu. You can control it to run. That is, the first controller 180 of the mobile terminal 100 executes the message menu, and as shown in (21-1) of FIG. 21, the message menu image 370 on the first display unit 151. ) May be displayed as the first screen image 300.
  • the message menu image displayed on the first display unit 151 will be referred to as a "first message menu image".
  • the first controller 180 of the mobile terminal 100 may transmit information regarding the first screen image to the display apparatus 200.
  • the information about the first screen image may include the first multimedia content image, the newly executed message image, and the second home screen image 320 that are being executed by the multitasking.
  • the first and third home screen images 310 and 330 in which the A object and the I object are located may be excluded from the information about the first screen image.
  • the second control unit 280 of the display device 200 receives the information about the first screen image, and as shown in (21-2) of FIG. 21, the monitor window of the second display unit 251.
  • the second multimedia content image 560, the second sub image 520 corresponding to the second home screen images 320, and the second message image 570 corresponding to the first message image are included in the 400. It can be controlled to be displayed as a two-screen image 500. That is, the second multimedia content image 560 and the second message image 570 may be displayed instead of the first sub image 510 and the third sub image 530, respectively.
  • the first controller 180 of the mobile terminal 100 responds to a control signal indicating that a user command for selecting the I object has been input, so as to stop execution of the multimedia playback menu and execute the message menu. Can be controlled.
  • the first control unit 180 of the mobile terminal 100 has a first message menu image 370 on the first display unit 151 and a first screen image. Control to be displayed as 300.
  • the first controller 180 of the mobile terminal 100 may transmit information regarding the first screen image to the display apparatus 200.
  • the first screen image may include the newly executed message image and the first and second home screen images 310 and 320 together.
  • Third home screen images 330 in which the I object is located may be excluded from information on the first screen image.
  • the second control unit 280 of the display device 200 receives the information about the first screen image, and as shown in (21-3) of FIG. 21, the monitor window of the second display unit 251.
  • the first and second sub-images 510 and 520 corresponding to the first and second home screen images 310 and 320, and the second message image 570 corresponding to the first message image are respectively displayed at 400.
  • the display may be controlled to be displayed as the second screen image 500. That is, the second message image 570 may be displayed instead of the third sub image 530.
  • the switching order of the home screen images for the mobile terminal 100 is changed using the sub images displayed on the second display unit 251 of the display apparatus 200 with reference to FIGS. 22 to 25. I'll explain what you do.
  • 22 to 24 illustrate screens of a front surface of the mobile terminal and a display unit of the display device in which an embodiment related to the present invention is implemented.
  • 25 illustrates a screen of a display unit of the display device, according to an embodiment of the present invention.
  • a predetermined touch gesture for example, touch drag in one direction
  • the output home screen image becomes an output home screen image in the order of the first home screen image 310-> second home screen image 320-> third home screen image 330. I will assume.
  • the first home screen image 310 becomes the output home screen image so that the first screen image ( 300 may be displayed.
  • the second display unit 251 of the display apparatus 200 corresponds to the first to third home screen images 310, 320, and 330, respectively.
  • the first to third sub images 510, 520, and 530 may be displayed as the second screen image 500.
  • the mobile terminal 100 displays a first screen image frame 401 on the first sub image 510 of the second display unit 251. Can be displayed.
  • a user command for changing the order of the first home screen image and the second home screen image for the mobile terminal may be input through the second user input unit 230 of the display apparatus 200.
  • the user command can be input.
  • the second controller 280 of the display apparatus 200 may transmit a control signal to the mobile terminal 100 indicating that a user command for changing the order of the first home screen image and the second home screen image is input. have.
  • the first control unit 180 of the mobile terminal 100 responds to the control signal, as shown in (23-1) of FIG. 23, the first home screen image 310 and the second home screen.
  • the order of the images 320 may be controlled to be interchanged. That is, the order of the home screen images may be changed in the order of the second home screen image 320-> first home screen image 310-> third home screen image 330.
  • the first controller 180 of the mobile terminal 100 continues to display the first home screen image 310 as the first screen image 300, but as the order of the home screen images is changed, the first screen image.
  • the page indicator 350 of 300 may be controlled to change from “1/3” to “2/3”.
  • the first controller 180 of the mobile terminal 100 transmits the information about the first screen image including the information about the first to third home screen images according to the changed order to the display apparatus 200. Can be controlled to provide.
  • the second control unit 280 of the display apparatus 200 receives the information about the first screen image, and as shown in (23-2) of FIG. 23, the first to third grooves different in the changed order.
  • the first to third sub images 510, 520, and 530 may be displayed on the second display unit 251 to correspond to the screen images. That is, in the monitor window 400 of the second display unit 251, the sub images are displayed in the order of the second sub image 520-> first sub image 510-> third sub image 530. Can be.
  • the predetermined touch gesture (for example, touch drag in one direction) may be performed in the first display unit 151 of the mobile terminal 100.
  • the third home screen image 330 may be the output home screen image and may be controlled to be displayed on the first display unit 151 as the first screen image 300.
  • the second control unit 280 of the display apparatus 200 corresponds to the third home screen image 330 that newly becomes the output home screen image as illustrated in (24-2) of FIG.
  • the first screen image frame 401 may be displayed on the third sub image 530.
  • the sub-images 510, 520, and 530 of the second display unit 251 are displayed in respective corresponding monitor windows, that is, the first to third monitor windows 410, 420, and 430.
  • the order of the first to third home screen images may be changed using the sub images.
  • the first monitor window 410 (or the first sub-image 510) and the second monitor window 420 (or the second monitor window 420) may be illustrated in FIG. 25 (25-1).
  • the second sub image 520 may be simultaneously touched and dragged to rotate about 180 degrees in a clockwise or counterclockwise direction.
  • the order of the home screens for the mobile terminal 100 may be changed as described above.
  • the order of the first monitor windows 410, 420, and 430 displayed on the second display unit 251 may also be changed according to the changed order of the home screens. have.
  • 26 and 27 illustrate screens of a front surface of the mobile terminal and a display unit of the display apparatus in which an embodiment related to the present invention is implemented.
  • 28 illustrates a screen of a display unit of the display device, according to an embodiment of the present invention.
  • the first home screen image 310 becomes the output home screen image in the first display unit 151 of the mobile terminal 100, and thus the first screen image ( 300 may be displayed.
  • the second display unit 251 of the display apparatus 200 corresponds to the first to third home screen images 310, 320, and 330, respectively.
  • the first to third sub images 510, 520, and 530 may be displayed as the second screen image 500.
  • a user command may be input through the first user input unit 130 of the mobile terminal 100 to zoom in on the first screen image 300 displayed on the first display unit 151.
  • the first display unit 151 is configured as a touch screen
  • two touch points of the first screen image 300 are simultaneously touched on the touch screen and dragged in a direction away from each other. Can be entered.
  • the first controller 180 of the mobile terminal 100 controls the first screen image 300 to be zoomed in on the first display unit 151 as illustrated in (27-1) of FIG. 27. can do.
  • the first controller 180 of the mobile terminal 100 may transmit information about the zoomed-in first screen image 300 to the display apparatus 200.
  • the second control unit 280 of the display apparatus 200 may receive information about the zoomed in first screen image 300.
  • the second control unit 280 of the display apparatus 200 determines the degree to which the first to third sub-images 510, 520, and 530 zoom in. It can be controlled to enlarge in proportion to. As the first to third sub-images 510, 520, and 530 are enlarged, the monitor window 400 may also be enlarged in proportion thereto.
  • the second control unit 280 of the display apparatus 200 may zoom in on the first sub-image 510 corresponding to the first home screen image 310 that is the first screen image 300.
  • the first screen image frame 401 may be displayed to correspond to 300.
  • the second controller 280 of the display apparatus 200 may include a first screen image among the first to third sub images 510, 520, and 530. Only the first sub image 510 corresponding to the first home screen image 310, which is 300, may be controlled to be enlarged. As the size of the second and third sub-images 520 and 530 is maintained and only the first sub-image 510 is enlarged, the shape of the monitor window 400 is illustrated in (27-2) of FIG. 27. Can be enlarged together.
  • the first screen image frame 401 is displayed on the first sub-image 510 corresponding to the first home screen image 310, which is the first screen image 300, to correspond to the zoomed-in first screen image 300. It may be as described above.
  • FIG. 28 (28-1) may correspond to FIG. 27 (27-2), and FIG. 28 (28-2) may correspond to FIG. 27 (27-3).
  • FIG. 28 (28-2) may correspond to FIG. 27 (27-3).
  • FIG. 29 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device, according to an embodiment of the present invention.
  • 30 illustrates a screen of a display unit of the display device in which an embodiment related to the present invention is implemented.
  • FIG. 29-1) of FIG. 29 the user rotates the housing of the mobile terminal 100 in the counterclockwise direction and arranges the housing in the horizontal direction so as to change the orientation direction of the housing of the mobile terminal 100.
  • the first control unit 180 of the mobile terminal 100 may detect the converted orientation direction through the first sensing unit 140.
  • the first controller 180 of the mobile terminal 100 may provide the detected converted orientation direction to the display apparatus 200.
  • the second control unit 280 of the display apparatus 200 rotates the monitor window 400 counterclockwise according to the converted orientation direction. Can be controlled to be placed. That is, the first to third sub images 510, 520, and 530 may be vertically arranged side by side in the monitor window 400.
  • the second control unit 280 of the display apparatus 200 does not rotate the monitor window 400
  • the first in the monitor window 400 3 to 3 sub images 510, 520, and 530 may be controlled to be rotated in a counterclockwise direction according to the converted alignment direction. That is, the first to third sub-images 510, 520, and 530 may be arranged side by side in the monitor window 400.
  • (30-1) of FIG. 30 may correspond to (29-2) of FIG. 29, and (30-2) of FIG. 30 may correspond to (29-3) of FIG.
  • (30-1) of FIG. 30 may correspond to (29-2) of FIG. 29, and (30-2) of FIG. 30 may correspond to (29-3) of FIG.
  • the present invention described above can be embodied as computer readable codes on a medium in which a program is recorded.
  • the computer-readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like, which are also implemented in the form of carrier waves (eg, transmission over the Internet). It also includes.
  • the computer may include the controller 180 of the terminal.
  • the present invention is not limited to a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), navigation, and the like. ), And a display device such as (but not limited to) a laptop computer, a tablet computer, a desktop computer, and a television (for example, a digital TV or a smart TV).
  • a display device such as (but not limited to) a laptop computer, a tablet computer, a desktop computer, and a television (for example, a digital TV or a smart TV).

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명은 이동단말기 및 디스플레이 장치가 서로 연결되었을 때 사용자의 편의가 더욱 고려되어 이들 간에 데이터 통신이 될 수 있도록 하는 이동 단말기, 디스플레이 장치 및 그 제어 방법에 관한 것이다. 둘 이상의 홈스크린 영상들 중 하나를 선택하여 출력 홈스크린 영상으로 디스플레이하는 이동단말기가 디스플레이 장치와 연결될 때, 상기 둘 이상의 홈스크린 영상들 중 적어도 하나 이상이 상기 연결된 디스플레이 장치에서 동시에 디스플레이될 수 있다. 따라서, 사용자는 상기 홈스크린 영상들의 객체들의 구성 및 배치를 상기 디스플레이 장치에서 한눈에 보면서 용이하게 조정할 수 있다.

Description

이동단말기, 디스플레이 장치 및 그 제어 방법
본 발명은 이동단말기 및 디스플레이 장치가 서로 연결되었을 때 사용자의 편의가 더욱 고려되어 이들 간에 데이터 통신이 될 수 있도록 하는 이동 단말기, 디스플레이 장치 및 그 제어 방법에 관한 것이다.
단말기는 이동 가능 여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)으로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다.
이와 같은 단말기(terminal)는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다.
이러한 단말기의 기능 지지 및 증대를 위해, 단말기의 구조적인 부분 및/또는 소프트웨어적인 부분을 개량하는 것이 고려될 수 있다.
상기 이동단말기는 노트북 컴퓨터, 태블릿 컴퓨터, 퍼스널 컴퓨터, 텔레비전 등과 같은 디스플레이 장치와 유선 또는 무선으로 연결되어, 상호 데이터 통신을 행할 수 있다. 상기 이동단말기와 상기 디스플레이 장치 간에 서로 데이터 통신이 행해질 때, 양자 간의 데이터 통신에 관한 정보가 상기 이동단말기 및/또는 상기 디스플레이 장치에서 단말기 사용자의 편의가 더욱 고려되어 디스플레이되기 위한 방안이 계속 연구될 필요가 있다.
본 발명은 전술한 필요성을 충족하기 위해 제안되는 것으로서, 상기 이동단말기와 상기 디스플레이 장치 간에 서로 데이터 통신이 행해질 때, 양자 간의 데이터 통신에 관한 정보가 상기 이동단말기 및 상기 디스플레이 장치에서 단말기 사용자의 편의가 더욱 고려되어 디스플레이되도록 하는 이동단말기, 디스플레이 장치 및 그 제어 방법을 제공하는 것을 그 목적으로 한다.
상기 목적을 달성하기 위해 본 발명은, 제 1 홈스크린 영상 및 제 2 홈스크린 영상을 포함한 둘 이상의 홈스크린 영상들 중 하나를 출력 홈스크린 영상으로서 디스플레이하는 제 1 디스플레이부, 제 2 디스플레이부를 구비하는 외부 디스플레이 장치와 연결하기 위한 인터페이스부, 및 상기 홈스크린 영상들 중 둘 이상의 영상들이 상기 외부 디스플레이 장치에 제공되어, 상기 제공된 홈스크린 영상들을 동시에 디스플레이하는 모니터 창이 제 2 디스플레이부에서 생성되도록 제어하는 제어부를 포함하는 이동단말기를 제공한다.
또한, 상기 목적을 달성하기 위해 본 발명은, 제 1 홈스크린 영상 및 제 2 홈스크린 영상을 포함한 둘 이상의 홈스크린 영상들 중 하나를 출력 홈스크린 영상으로서 디스플레이하는 제 1 디스플레이부를 구비하는 이동단말기와 연결하기 위한 인터페이스부, 제 2 디스플레이부, 및 상기 홈스크린 영상들 중 둘 이상의 영상들이 상기 외부 이동단말기로부터 수신하여, 상기 수신된 홈스크린 영상들을 동시에 디스플레이하는 모니터 창이 제 2 디스플레이부에서 생성되도록 제어하는 제어부를 포함하는 디스플레이 장치를 제공한다.
또한, 상기 목적을 달성하기 위해 본 발명은, 이동단말기의 하우징의 일면에 배치되는 제 1 디스플레이부에서 제 1 홈스크린 영상 및 제 2 홈스크린 영상을 포함한 둘 이상의 홈스크린 영상들 중 하나를 출력 홈스크린 영상으로서 디스플레이하는 단계, 상기 이동단말기가 제 2 디스플레이부를 구비하는 외부 디스플레이 장치와 연결되는 단계, 및 상기 홈스크린 영상들 중 둘 이상의 영상들이 상기 외부 디스플레이 장치에 제공되어, 상기 제공된 홈스크린 영상들을 동시에 디스플레이하는 모니터 창이 제 2 디스플레이부에서 생성되도록 제어하는 단계를 포함하는 이동단말기의 제어 방법을 제공한다.
또한, 상기 목적을 달성하기 위해 본 발명은, 제 1 홈스크린 영상 및 제 2 홈스크린 영상을 포함한 둘 이상의 홈스크린 영상들 중 하나를 출력 홈스크린 영상으로서 디스플레이하는 제 1 디스플레이부를 구비하는 이동단말기를, 제 2 디스플레이부를 구비하는 디스플레이 장치와 연결하는 단계, 및 상기 홈스크린 영상들 중 둘 이상의 영상들이 상기 외부 이동단말기로부터 수신하여, 상기 수신된 홈스크린 영상들을 동시에 디스플레이하는 모니터 창이 제 2 디스플레이부에서 생성되도록 제어하는 단계를 포함하는 디스플레이 장치의 제어 방법을 제공한다.
본 발명에 따른 이동 단말기, 디스플레이 장치, 및 그 제어 방법의 효과에 대해 설명하면 다음과 같다.
본 발명의 실시예들 중 적어도 하나에 의하면, 상기 이동단말기와 상기 디스플레이 장치 간에 서로 데이터 통신이 행해질 때, 양자 간의 데이터 통신에 관한 정보가 상기 이동단말기 및 상기 디스플레이 장치에서 단말기 사용자의 편의가 더욱 고려되어 디스플레이될 수 있다.
좀더 구체적으로, 둘 이상의 홈스크린 영상들 중 하나를 선택하여 출력 홈스크린 영상으로 디스플레이하는 이동단말기가 디스플레이 장치와 연결될 때, 상기 둘 이상의 홈스크린 영상들 중 적어도 하나 이상이 상기 연결된 디스플레이 장치에서 동시에 디스플레이될 수 있다. 따라서, 사용자는 상기 홈스크린 영상들의 객체들의 구성 및 배치를 상기 디스플레이 장치에서 한눈에 보면서 용이하게 조정할 수 있다.
도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.
도 2는 본 발명의 일 실시예와 관련된 디스플레이 장치의 블록 구성도(block diagram)이다.
도 3은 본 발명과 관련된 실시예가 구현될 수 있도록 상호 접속된 이동단말기 및 디스플레이 장치를 도시한다.
도 4는 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다.
도 5는 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 제 1 디스플레이부에서 디스플레이될 수 있는 홈스크린 영상을 도시한다.
도 6은 도 5의 홈스크린 영상이 디스플레이되는 제 1 디스플레이부를 포함하는 상기 이동단말기의 전면을 도시한다.
도 7 내지 도 12는 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 13 내지 도 15는 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 16 및 도 17은 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 18은 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 19는 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면을 도시한다.
도 20은 본 발명과 관련된 실시예가 구현되는 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 21은 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 22 내지 도 24는 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 25는 본 발명과 관련된 실시예가 구현되는 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 26 및 도 27은 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 28는 본 발명과 관련된 실시예가 구현되는 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 29는 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 30은 본 발명과 관련된 실시예가 구현되는 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
이하, 본 발명과 관련된 이동 단말기 및 디스플레이 장치에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
먼저, 본 발명과 관련된 이동단말기에 대해 살펴본다.
본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 포함될 수 있다.
도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.
상기 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기가 구현될 수도 있다.
이하, 상기 구성요소들에 대해 차례로 살펴본다.
무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.
방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다.
상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.
상기 방송 관련 정보는 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미한다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.
이동통신 모듈(112)은, GSM(Gobal System for Mobile communications), CDMA(Code Division Multiple Access), WCDMA(Wideband CDMA)(이에 한정되지 않음)와 같은 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), GSM, CDMA, WCDMA, LTE(Long Term Evolution)(이에 한정되지 않음) 등이 이용될 수 있다.
Wibro, HSDPA, GSM, CDMA, WCDMA, LTE 등에 의한 무선인터넷 접속은 이동통신망을 통해 이루어진다는 관점에서 본다면, 상기 이동통신망을 통해 무선인터넷 접속을 수행하는 상기 무선 인터넷 모듈(113)은 상기 이동통신 모듈(112)의 일종으로 이해될 수도 있다.
근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
위치정보 모듈(115)은 이동 단말기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다. 현재 기술에 의하면, 상기 GPS모듈(115)은 3개 이상의 위성으로부터 떨어진 거리 정보와 정확한 시간 정보를 산출한 다음 상기 산출된 정보에 삼각법을 적용함으로써, 위도, 경도, 및 고도에 따른 3차원의 현 위치 정보를 정확히 산출할 수 있다. 현재, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법이 널리 사용되고 있다. 또한, GPS 모듈(115)은 현 위치를 실시간으로 계속 산출함으로써 속도 정보를 산출할 수 있다.
도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.
카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.
마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.
센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 상기 센싱부(140)의 예로는, 자이로스코프 센서, 가속도 센서, 지자기 센서 등이 있을 수 있다. 예를 들어 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서(141)를 포함할 수 있다. 이에 대해서는 나중에 터치스크린과 관련되어 후술된다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153), 햅틱 모듈(154) 및 프로젝터 모듈(155) 등이 포함될 수 있다.
디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.
디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다.
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.
이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 이동 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.
디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.
터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기(미도시)로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.
상기 근접 센서(141)는 상기 터치스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.
상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.
상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다.
음향 출력 모듈(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있으므로, 이 경우 상기 디스플레이부(151) 및 음음성출력모듈(152)은 알람부(153)의 일종으로 분류될 수도 있다.
햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
메모리부(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 전화번호부, 메시지, 오디오, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리부(160)에는 상기 데이터들 각각에 대한 사용 빈도(예를 들면, 각 전화번호, 각 메시지, 각 멀티미디어에 대한 사용빈도)가 저장될 수 있다.
또한, 상기 메모리부(160)에는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.
메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달하거나, 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다.
상기 무선 인터넷 모듈(113) 및 상기 근거리 통신 모듈(114)이 상기 무선 데이터 포트로 이용될 수 있음을 고려할 때, 이들은 상기 인터페이스부(170)의 일종으로 이해될 수도 있다.
식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다.
상기 인터페이스부는 이동단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.
제어부(controller)(180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.
상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다.
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.
소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.
이상에서는 본 발명과 관련된 이동단말기에 대해 설명하였다. 이하에서는 본 발명과 관련된 디스플레이 장치에 대해 설명하겠다.
본 명세서에서 설명되는 디스플레이 장치에는 상기 이동단말기와 통신 연결되어 상기 이동단말기의 디스플레이와 관련된 정보를 수신하여 디스플레이할 수 있다면 제한이 없다. 상기 디스플레이 장치의 예로는 노트북 컴퓨터(laptop computer), 태블릿 컴퓨터, 데스크탑 컴퓨터, 및 텔레비젼(예를 들면, 디지털 TV 또는 스마트 TV) 등(이에 한정되지 않음)이 포함될 수 있다.
도 2는 본 발명의 일 실시예와 관련된 디스플레이 장치의 블록 구성도(block diagram)이다.
상기 디스플레이 장치(200)는 무선 통신부(210), A/V(Audio/Video) 입력부(220), 사용자 입력부(230), 출력부(250), 메모리(260), 인터페이스부(270), 제어부(280) 및 전원 공급부(290) 등을 포함할 수 있다.
상기 무선 통신부(210)는 무선 인터넷 모듈(213) 및 근거리 통신 모듈(214)를 포함할 수 있다. 그리고, 상기 출력부(250)는 디스플레이부(251)와 음향출력모듈(253)을 포함할 수 있다.
상기 디스플레이 장치(200)의 구성요소들에 대해서는 도 1와 관련하여 전술된 상기 이동단말기(100)의 각 해당 구성요소와 동일하거나 상당히 유사하다. 따라서, 이들에 대한 자세한 설명은 본 명세서의 간명함을 위해 생략하도록 하겠다.
도 2에 도시된 구성요소들 모두가 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 디스플레이 장치가 구현될 수도 있다. 예를 들면, 상기 디스플레이 장치(200)가 텔레비전인 경우에는 방송 수신 모듈을 더 구비할 수 있다. 그리고, 상기 디스플레이 장치(200)가 텔레비전인 경우 필요에 따라 상기 무선 인터넷 모듈을 구비하지 않을 수 있다 (물론 구비하여도 무방하다). 상기 방송 수신 모듈 역시 도 1과 관련하여 전술된 상기 이동단말기(100)의 방송 수신 모듈(111)과 동일하거나 상당히 유사하므로, 이에 대한 자세한 설명은 본 명세서의 간명함을 위해 생략하도록 하겠다.
이하, 도 3을 참조하여, 상기 이동단말기(100)와 상기 디스플레이 장치(200)가 서로 접속되는 것에 대해 설명하도록 하겠다.
도 3은 본 발명과 관련된 실시예가 구현될 수 있도록 상호 접속된 이동단말기 및 디스플레이 장치를 도시한다.
상기 이동단말기(100)와 상기 디스플레이 장치(200)는 상기 이동단말기(100)의 인터페이스부(170)와 상기 디스플레이 장치(200)의 인터페이스부(270)를 통해 서로 접속될 수 있다. 상기 이동단말기(100)와 상기 디스플레이 장치(200) 간의 접속은 유선 통신으로 접속될 수도 있고, 또는 무선 통신(예를 들면, 근거리 통신 또는 무선 인터넷 통신)으로 접속될 수도 있다.
도 3에서는 상기 이동단말기(100)와 상기 디스플레이 장치(200)가 서로 접속된 상태를 도시하고 있다.
이하에서는 설명의 편의상 상기 이동단말기(100)와 상기 디스플레이 장치(200) 간의 구성요소들을 서로 구분하기 위해, 상기 이동단말기(100)에 해당하는 구성요소들 앞에는 "제 1"이라는 접두어를 사용하고, 상기 디스플레이 장치(200)에 해당하는 구성요소들 앞에는 "제 2"라는 접두어를 사용하도록 하겠다.
예를 들면, 상기 이동단말기(100)의 디스플레이부(151) 및 제어부(180)을 각각 제 1 디스플레이부(151) 및 제 1 제어부(180)로 호칭하고, 상기 디스플레이 장치(200)의 디스플레이부(251) 및 제어부(280)을 각각 제 2 디스플레이부(251) 및 제 2 제어부(280)로 호칭하도록 하겠다.
그리고, 제 1 디스플레이부(151)에서 디스플레이되는 영상을 제 1 스크린 영상(300)이라고 호칭하겠다.
상기 이동단말기(100)와 상기 디스플레이 장치(200) 간에 접속이 이루어지면, 상기 이동단말기(100)는 제 1 디스플레이부(151)에 디스플레이되는 제 1 스크린 영상에 관한 정보를 상기 디스플레이 장치(200)로 제공할 수 있다.
상기 디스플레이 장치(200)에는 상기 이동단말기(100)로부터 수신하는 제 1 스크린 영상에 관한 정보를 처리하기 위한 애플리케이션(예를 들면, 플러그-인 소프트 웨어)이 사전에 설치되어 있을 수 있다.
그래서, 상기 디스플레이 장치(200)의 제 2 제어부(280)는, 상기 이동단말기(100)와 상기 디스플레이 장치(200)가 서로 접속되었을 때, 제 1 스크린 영상을 위한 모니터 창(400)을 제 2 디스플레이부(251) 상에 디스플레이되도록 제어할 수 있다. 그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)에 제 1 스크린 영상에 해당하는 영상을 디스플레이될 수 있도록 제어한다. 이하에서는 설명의 편의상 상기 이동단말기의 제 1 스크린 영상(300)과 구별하기 위해, 상기 모니터 창(400)에 디스플레이되는 영상을 제 2 스크린 영상(500)이라고 호칭하겠다.
상기 모니터 창(400)에 좀더 구체적으로 설명을 하면, 상기 모니터 창(400)은 상기 이동단말기(100)의 제 1 디스플레이부(151)가 장착된 하우징의 일면과 동일하거나 유사한 형상을 가질 수 있다. 따라서, 상기 하우징의 일면에 소정 키버튼(130)이 배치된 경우에는 상기 모니터 창(400)에는 상기 소정 키버튼과 동일한 형상의 소프트 키버튼(430)이 해당 위치에 형성될 수 있다.
상기 디스플레이 장치(200)에서 상기 소프트 키버튼(430)이 마우스로 클릭될 때 (또는, 제 2 디스플레이부(251)가 터치스크린인 경우 상기 소프트 키버튼(430)이 터치될 때), 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 소프트 키버튼(430)이 상기 디스플레이 장치(200)에서 조작되었음을 알리는 제어 신호를 상기 이동단말기(100)로 보낼 수 있다.
그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 제어 신호를 수신하여, 상기 조작된 소프트 키버튼(430)에 해당하는 상기 소정 키버튼(130)의 조작에 해당하는 특정 기능이 상기 이동단말기(100)에서 실행되도록 제어할 수 있다.
그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 실행된 특정 기능에 따른 영상이 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)으로서 디스플레이될 수 있도록 제어할 수 있다. 그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 실행된 특정 기능에 따른 영상을 포함하는 제 1 스크린 영상(300)에 관한 정보를 상기 디스플레이 장치(200)로 전송할 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(180)는 상기 전송된 제 1 스크린 영상(300)에 대응되는 제 2 스크린 영상(500)을 상기 모니터 창(400)에 디스플레이하도록 제어할 수 있다.
즉, 사용자는 상기 이동단말기(100)를 직접 조작하지 않더라도 상기 디스플레이 장치의 상기 모니터 창(400)을 조작함으로써 상기 이동단말기(100)를 간접적으로 조작할 수 있고, 상기 간접적으로 조작된 상기 이동단말기(100)의 제 1 스크린 영상(300)을 상기 디스플레이 장치(200)의 제 2 스크린 영상(500)을 통해 볼 수 있다.
상기 모니터 창(400)이 반드시 상기 이동단말기(100)의 제 1 디스플레이부(151)가 장착된 하우징의 일면과 동일하거나 유사한 형상을 가져야 하는 것은 아니다. 예를 들면, 상기 모니터 창(400)에는 상기 하우징의 일면의 형상에 부가하여 다른 아이콘(예를 들면, 창 닫기 아이콘, 창 최소화 아이콘, 창 최대화 아이콘 등)(미도시)이 더욱 도시될 수도 있다. 또는 상기 모니터 창(400)에는 상기 하우징 일면의 형상 없이 제 2 스크린 영상(500)만이 디스플레이될 수도 있다.
상기 디스플레이 장치(200)는 상기 이동단말기(100)로부터 제 1 스크린 영상(300)에 관한 정보를 수신하여 이를 제 2 스크린 영상(500)으로서 상기 모니터 창(400)에서 디스플레이한다. 따라서, 제 1 스크린 영상(300) 및 제 2 스크린 영상(500)은 상기 이동단말기(100)에서 생성되는 컨텐트 영상을 공유할 수 있다.
도 3에서는 상기 이동단말기(100)에서 생성되는 컨텐트 영상은 대기 영상인 것이 예시적으로 도시되어 있으나, 본 실시예에서 이에 한정되지 않음은 물론이다. 상기 이동단말기(100)에서 생성되는 컨텐트 영상은 상기 이동단말기에서 실행되는 모든 기능, 메뉴 또는 애플리케이션과 관련된 영상을 포함한다.
이하, 상기 이동단말기(100)가 제 1 스크린 영상에 관한 정보를 상기 디스플레이 장치(200)로 제공하는 것에 대해 좀더 자세히 살펴보겠다.
상기 이동단말기(100)의 제 1 제어부(180)는 제 1 디스플레이부(180)에서 디스플레이되는 제 1 스크린 영상(300)을 캡처하여 이를 전술한 제 1 스크린 영상(300)에 관한 정보로서 상기 디스플레이 장치(200)로 전송할 수 있다. 그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 전송된 캡처된 제 1 스크린 영상(300)을 수신하여 이를 제 2 스크린 영상(500)으로서 상기 모니터 창(400)에서 디스플레이되도록 제어할 수 있다.
이 경우, 제 1 스크린 영상(300)과 제 2 스크린 영상(500)은 예컨대 줌인 및 줌아웃에 있어서 서로 종속될 수 있다. 즉, 제 1 스크린 영상(300)이 줌인되거나 줌아웃되면 제 2 스크린 영상도 이에 따라 줌인되거나 줌아웃될 수 있다. 그리고, 제 1 스크린 영상(300)과 제 2 스크린 영상(500)은 그 내용에 있어도 서로 종속될 수 있다.
상기 이동단말기(100)의 제 1 제어부(180)는 제 1 디스플레이부(151)에 입력하는 영상 신호를 제 1 스크린 영상(300)에 관한 정보로서 상기 디스플레이 장치(200)로도 전송할 수 있다. 상기 이동단말기(100)의 제 1 디스플레이부(151)는 상기 영상 신호를 제 1 스크린 영상(300)으로서 출력할 수 있다. 그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 전송된 영상 신호를 수신하여 제 2 디스플레이부(251)의 상기 모니터 창(400)에서 제 2 스크린 영상(500)으로서 출력할 수 있다. 즉, 제 1 디스플레이부(151) 및 제 2 디스플레이부(251)는 제 1 제어부(180)가 출력하는 상기 영상 신호를 공유할 수 있다. 이하에서는 상기 영상 신호를 "공유 영상 신호"라고 칭하겠다.
이 경우에도, 제 1 스크린 영상(300)과 제 2 스크린 영상(500)은 예컨대 줌인 및 줌아웃에 있어서 서로 종속될 수 있다. 즉, 제 1 스크린 영상(300)이 줌인되거나 줌아웃되면 제 2 스크린 영상도 이에 따라 줌인되거나 줌아웃될 수 있다. 그리고, 제 1 스크린 영상(300)과 제 2 스크린 영상(500)은 그 내용에 있어도 서로 종속될 수 있다.
상기 이동단말기(100)의 제 1 제어부(180)는 상기 이동단말기(100)에서 생성되는 특정 컨텐트 영상(또는 홈스크린 영상)에 관한 제 1 영상 신호 및 이와 독립적인 제 2 영상 신호를 생성하고, 제 1 영상 신호는 제 1 디스플레이부(151)로 입력하고, 제 2 영상 신호는 제 1 스크린 영상에 관한 정보로서 상기 디스플레이 장치(200)로 전송할 수 있다. 상기 이동단말기(100)의 제 1 디스플레이부(151)는 제 1 영상 신호를 제 1 스크린 영상(300)으로서 출력할 수 있다. 그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 전송된 제 2 영상 신호를 수신하여 제 2 디스플레이부(251)의 상기 모니터 창(400)에서 제 2 스크린 영상(500)으로서 출력할 수 있다. 제 1 디스플레이부(151) 및 제 2 디스플레이부(251)에 제 1 영상 신호 및 제 2 영상 신호가 서로 독립적으로 제공된다는 점에서, 제 1 영상 신호 및 제 2 영상 신호는 상기 공유 영상 신호와는 구별되어야 함을 유념해야 한다.
이 경우에는, 제 1 스크린 영상(300)과 제 2 스크린 영상(500)은 예컨대 확대 및 축소에 있어서 서로 독립적일 수 있다. 즉, 제 1 스크린 영상(300)이 줌조절됨에 상관없이 제 2 스크린 영상(500)이 줌조절될 수 있다. 반대로, 제 2 스크린 영상(500)이 줌조절됨에 상관없이 제 1 스크린 영상(300)이 줌조절될 수 있다. 그리고, 제 1 스크린 영상(300)과 제 2 스크린 영상(500)은 그 내용에 있어도 서로 독립될 수 있다. 즉, 제 1 스크린 영상(300)과 제 2 스크린 영상(500)은 적어도 일부 서로 다를 수도 있다.
이상에서는 상기 이동단말기(100)와 상기 디스플레이 장치(200)가 서로 접속됨에 따라 제 1 디스플레이부(151)에서 디스플레이되는 제 1 스크린 영상(300)과, 제 2 디스플레이부(251)에서 디스플레이되는 상기 모니터 창(400) 및 제 2 스크린 영상(500)에 대해 개략적으로 설명하였다.
이하에서는 상기 이동단말기(100)과 상기 디스플레이 장치(200)가 서로 연결되었을 때, 상기 이동단말기(100)의 제 1 디스플레이부(151)를 위한 홈스크린 영상이 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)에서 디스플레이되는 것에 대해 도 4 내지 도 12를 더욱 참조하여 설명하겠다.
이하에서는 상기 이동단말기(100)의 제 1 디스플레이부(151) 및 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)가 모두 터치스크린일 수 있다. 그러나, 본 발명의 실시예가 제 1 및 제 2 디스플레이부(151, 251)가 터치스크린인 경우에만 적용되는 것은 절대로 아니고, 이들이 터치스크린이 아닌 일반 디스플레이더라도 적용될 수 있음은 물론이다.
도 4는 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다. 도 5는 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 제 1 디스플레이부에서 디스플레이될 수 있는 홈스크린 영상을 도시한다. 도 6은 도 5의 홈스크린 영상이 디스플레이되는 제 1 디스플레이부를 포함하는 상기 이동단말기의 전면을 도시한다. 도 7 내지 도 12는 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
상기 이동단말기(100)의 제 1 디스플레이부(151)에서 둘 이상의 홈스크린 영상들 중 한 홈스크린 영상이 선택되어 제 1 스크린 영상(300)으로서 디스플레이될 수 있다. 제 1 스크린 영상(300)으로 디스플레이될 수 있는 상기 둘 이상의 홈스크린 영상들에 대해 도 5를 참조하여 설명하겠다.
도 5의 (5-1)에 도시된 바와 같이, 상기 이동단말기(100)에서 둘 이상의 홈스크린 영상들이 사전 준비되어 있을 수 있다. 상기 홈스크린 영상의 갯수는 사용자의 선택에 따라 정해질 수 있다. 본 실시예에서는 예시적으로 3개의 홈스크린 영상들이 사전 준비되어 있는 것으로 가정하고 설명하겠다. 이하, 상기 3개의 홈스크린 영상들을 각각 제 1 홈스크린 영상(310), 제 2 홈스크린 영상(320), 및 제 3 홈스크린 영상(330)으로 호칭하도록 하겠다.
각 홈스크린 영상에는 적어도 하나의 애플리케이션 아이콘, 메뉴 아이콘, 파일 아이콘, 위젯 등과 같은 객체가 구비될 수 있다. 일반적으로 상기 객체는 각 홈스크린 상에서 새로이 생성될 수 있고, 다른 홈스크린으로 이동될 수 있고, 삭제될 수도 있다. 그러나, 어떤 객체는 상기 이동단말기의 공장 출하시부터 사전 생성되어, 추후 사용자에 의해 홈스크린 영상 간에 이동은 될 수 있으나 삭제는 될 수 없을 수도 있다.
제 1 홈스크린 영상(310)에는 3개의 객체들(즉, A 객체, B 객체, C 객체)이 있고, 제 2 홈스크린 영상(320)에는 2개의 객체들(즉, D 객체, E 객체)이 있고, 제 3 홈스크린 영상(330)에는 4개의 객체들(즉, F 객체, G 객체, H 객체, I 객체)이 있는 것이 예시되어 있다.
상기 홈스크린 영상들은 상기 이동단말기(100)에서 사용자의 선택에 따라 소정 순서에 따라 순차적으로 제 1 스크린 영상(300)으로 제 1 디스플레이부(151)에서 디스플레이될 수 있다. 이에 대해서는 나중에 다시 설명된다.
도 5의 (5-1)에서는 제 1 홈스크린 영상(310), 제 2 홈스크린 영상(320) 및 제 3 홈스크린 영상(330)에서 해당 객체들의 배경에 백그라운드 영상이 없는 것으로 예시되어 있다. 그러나, 본 실시예는 이에 한정되지 않는다.
예를 들면, 도 5의 (5-2)에 도시된 바와 같이, 제 1 홈스크린 영상(310), 제 2 홈스크린 영상(320) 및 제 3 홈스크린 영상(330)에서 해당 객체들이 서로 동일한 백그라운드 영상 상에서 디스플레이되도록 구성될 수 있다.
또는, 도 5의 (5-3)에 도시된 바와 같이, 제 1 홈스크린 영상(310), 제 2 홈스크린 영상(320) 및 제 3 홈스크린 영상(330)에서 해당 객체들이 서로 다른 백그라운드 영상 상에서 디스플레이되도록 구성될 수 있다.
이하, 도 6을 더욱 참조하여, 상기 이동단말기(100)에서 상기 홈스크린 영상들(310, 320, 330)이 제 1 스크린 영상(300)으로서 제 1 디스플레이부(151)에서 소정 순서에 따라 순차적으로 디스플레이되는 것에 대해 설명하겠다.
도 6의 (6-1)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 디스플레이부(151)에 제 1 스크린 영상(300)으로서 제 1 홈스크린 영상(310)이 디스플레이될 수 있다. 제 1 홈스크린 영상(310)만이 제 1 스크린 영상(300)으로서 디스플레이되어야 하는 것은 아니다. 제 1 홈스크린 영상(310)은 예컨대 다른 인디케이터들(340, 350)과 함께 제 1 스크린 영상(300)으로서 제 1 디스플레이부(151)에 디스플레이될 수 있다. 상기 다른 인디케이터들의 예로는 단말기 상태 인디케이터들(340)(예를 들면, 수신 강도 인디케이터, 배터리 인디케이터, 현재시간 인디케이터 등)와 홈스크린 영상의 페이지 인디케이터(350)가 있을 수 있다. 도 6의 (6-1)에서 "1/3"와 같이 표시된 상기 페이지 인디케이터(350)는 제 1 스크린 영상(300)으로서 디스플레이되는 제 1 홈스크린 영상(310)이 전체 3개의 홈스크린 영상들 중에서 첫번째 영상임을 표시하고 있다.
이 때, 상기 이동단말기(100)의 제 1 사용자 입력부(130)을 통해 제 1 디스플레이부(151)에서 디스플레이되는 제 1 스크린 영상(300)이 제 1 홈스크린 영상(310)에서 제 2 홈스크린 영상(320)으로 전환되도록 하는 사용자 명령이 입력될 수 있다. 제 1 디스플레이부(151)가 터치스크린으로 구성되는 경우, 상기 터치스크린에서 소정 터치 제스처(예를 들면, 일방향으로의 터치 드래그)가 행해짐으로써 상기 사용자 명령이 입력될 수 있다.
그러면, 도 6의 (6-2)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 사용자 명령에 반응하여, 제 1 디스플레이부(151)에서 제 1 홈스크린 영상(310)의 일부가 상기 일방향을 따라 슬라이딩 이동되어 사라지면서 제 2 홈스크린 영상(320)의 일부가 상기 일방향을 따라 슬라이딩 이동되어 나타나도록 제어할 수 있다. 제 1 홈스크린 영상(310)이 슬라이딩되어 사라지더라도 제 1 스크린 영상(300)의 상기 인디케이터들(340, 350)은 제 1 디스플레이부(151)에서 여전히 계속 디스플레이될 수 있다.
도 6의 (6-3)에 도시된 바와 같이, 제 1 디스플레이부(151)에서 제 1 홈스크린 영상(310)이 슬라이딩 이동되어 완전히 사라지면서 제 2 홈스크린 영상(320)이 슬라이딩 이동되어 완전히 나타남에 따라, 제 1 디스플레이부(151)에서 디스플레이되는 제 1 스크린 영상(300)이 제 1 홈스크린 영상(310)에서 제 2 홈스크린 영상(320)으로 전환되는 것이 완료될 수 있다. 제 1 홈스크린 영상(310)에서 제 2 홈스크린 영상(320)의 전환이 완료됨에 따라 제 1 스크린 영상(300)에서 "2/3"와 같이 표시된 상기 페이지 인디케이터(350)이 디스플레이되어, 제 1 스크린 영상(300)으로서 디스플레이되는 제 2 홈스크린 영상(320)이 전체 3개의 홈스크린 영상들 중에서 두 번째 영상임이 표시될 수 있다.
비록 도시되지는 않았지만, 상기 일방향으로의 터치 드래그가 한번 더 입력되면, 제 1 디스플레이부(151)에서 디스플레이되는 제 1 스크린 영상(300)이 제 2 홈스크린 영상(320)에서 제 3 홈스크린 영상으로 전환될 수 있다. 또는 상기 일방향의 반대 방향으로 터치 드래그가 입력되면, 제 1 디스플레이부(151)에서 디스플레이되는 제 1 스크린 영상(300)이 제 2 홈스크린 영상(320)에서 제 1 홈스크린 영상(310)으로 복원될 수 있다. 이에 대해서는 본 기술분야의 당업자라면 전술한 설명으로부터 쉽게 이해할 수 있을 것이므로, 자세한 설명은 본 명세서의 간명함을 위해 생략하도록 하겠다.
본 명세서에서 상기 홈스크린 영상들 중에서 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)으로 출력되는 홈스크린 영상이 "출력 홈스크린 영상"으로 호칭될 수도 있다. 도 6의 (6-1) 및 (6-3)에서는 각각 제 1 홈스크린 영상(310) 및 제 2 홈스크린 영상(320)이 상기 출력 홈스크린 영상에 해당된다.
이상에서는 상기 인디케이터들(340, 350)이 상기 홈스크린 영상들(310)과는 별개여서, 상기 출력 홈스크린 영상이 제 1 스크린 영상(300)으로 디스플레이될 때 상기 인디케이터들(340, 350)이 상기 출력 홈스크린 영상과 중첩되어 제 1 스크린 영상(300)으로서 디스플레이되는 것으로 예시되어 있다. 그러나, 본 실시예는 이에 한정되지 않는다. 상기 인디케이터들이 상기 홈스크린 영상들(310)에 포함되도록 상기 홈스크린 영상들이 구성될 수도 있다.
한편, 도 6에서는 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)으로 디스플레이되는 홈스크린 영상이 다른 홈스크린 영상으로 전환될 때, 제 1 스크린 영상(300)의 모든 객체들이 다른 객체들로 대체되는 것에 대해 설명되었다. 그러나, 본 실시예는 이에 한정되지 않는다. 이에 대해 도 7을 더욱 참조하여 설명하겠다.
도 7의 (7-1)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 디스플레이부(151)에 제 1 스크린 영상(300)으로서 제 1 홈스크린 영상(310)이 디스플레이될 수 있다. 전술한 바와 같이, 제 1 홈스크린 영상(310)은 예컨대 다른 인디케이터들(340, 350)과 함께 제 1 스크린 영상(300)으로서 제 1 디스플레이부(151)에 디스플레이될 수 있다.
그리고, 제 1 스크린 영상(300)에는 상기 홈스크린 영상들 어디에도 속하지 않는 적어도 하나의 독립 객체들(361, 363, 365)이 제 1 홈스크린 영상(310)과 함께 디스플레이될 수 있다. 상기 독립 객체들(361, 363, 365)은, 제 1 스크린 영상(300)으로서 어떤 홈스크린 영상이 디스플레이되더라도 언제든지 제 1 스크린 영상(300)에서 상기 디스플레이되는 홈스크린 영상과 함께 디스플레이되는 객체일 수 있다. 즉, 제 1 스크린 영상(300)에서 상기 독립 객체들(361, 363, 365)이 제 1 홈스크린 영상의 객체들(A 객체, B 객체 및 C 객체)과 함께 디스플레이될 수 있다.
도 7에서는, 상기 이동단말기(100)에서 대체로 사용 빈도가 높은 전화 메뉴 아이콘(361), 메시지 메뉴 아이콘(363), 및 인터넷 메뉴 아이콘(365)이 상기 독립 객체로 예시되어 있다.
이 때, 전술한 바와 같이, 상기 이동단말기(100)의 제 1 사용자 입력부(130)을 통해 제 1 디스플레이부(151)에서 디스플레이되는 제 1 스크린 영상(300)이 제 1 홈스크린 영상(310)에서 제 2 홈스크린 영상(320)으로 전환되도록 하는 사용자 명령이 입력될 수 있다.
그러면, 도 7의 (7-2)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 사용자 명령에 반응하여, 제 1 디스플레이부(151)에서 제 1 홈스크린 영상(310)의 일부가 상기 일방향을 따라 슬라이딩 이동되어 사라지면서 제 2 홈스크린 영상(320)의 일부가 상기 일방향을 따라 슬라이딩 이동되어 나타나도록 제어할 수 있다. 제 1 홈스크린 영상(310)이 슬라이딩되어 사라지더라도 제 1 스크린 영상(300)의 상기 독립 객체들(361, 363, 365)은 제 1 디스플레이부(151)에서 여전히 계속 디스플레이될 수 있다.
도 7의 (7-3)에 도시된 바와 같이, 제 1 디스플레이부(151)에서 제 1 홈스크린 영상(310)이 슬라이딩 이동되어 완전히 사라지면서 제 2 홈스크린 영상(320)이 슬라이딩 이동되어 완전히 나타남에 따라, 제 1 디스플레이부(151)에서 디스플레이되는 제 1 스크린 영상(300)이 제 1 홈스크린 영상(310)에서 제 2 홈스크린 영상(320)으로 전환되는 것이 완료될 수 있다. 즉, 제 1 스크린 영상(300)에서 상기 독립 객체들(361, 363, 365)이 제 2 홈스크린 영상(320)의 객체들(D 객체 및 E 객체)과 함께 디스플레이될 수 있다.
전술한 바와 같이 둘 이상의 홈스크린 영상들 중에서 한 홈스크린 영상을 제 1 스크린 영상으로 디스플레이할 수 있는 상기 이동단말기(100)가 상기 디스플레이 장치에 접속될 수 있다. 이와 같이 상기 이동단말기(100)와 상기 디스플레이 장치(200)가 서로 연결되었을 때, 제 1 디스플레이부(151)에서 디스플레이되는 제 1 스크린 영상(300)과, 제 2 디스플레이부(251)에서 디스플레이되는 상기 모니터 창(400) 및 제 2 스크린 영상(500)에 대해 도 8을 더욱 참조하여 좀더 자세히 살펴보도록 하겠다.
도 8의 (8-1)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 디스플레이부(151)에서 제 1 내지 3 홈스크린 영상들(310, 320, 330) 중에서 제 1 홈스크린 영상(310)이 제 1 스크린 영상(300)을 위한 상기 출력 홈스크린 영상으로서 디스플레이될 수 있다[S41]. 그리고, 상기 이동단말기(100)가 상기 디스플레이 장치(200)와 접속될 수 있다. 상기 S41 단계 및 S42 단계는 서로 순서가 바뀌어 행해져도 무방하다. 상기 S41 단계 및 S42 단계에 대해서는 앞서 설명되었으므로, 자세한 설명은 본 명세서의 간명함을 위해 생략하도록 하겠다.
상기 이동단말기(100)와 상기 디스플레이 장치(200)가 접속됨에 따라, 도 8의 (8-2)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 디스플레이부(251)에 상기 모니터 창(400)이 생성되도록 제어할 수 있다[S42].
상기 이동단말기(100)의 제 1 제어부(180)는 제 1 스크린 영상에 관한 정보를 상기 디스플레이 장치(200)로 전송하도록 제어할 수 있다. 즉, 제 1 스크린 영상에 관한 정보는 제 1 내지 3 홈스크린 영상(310, 320, 330) 모두에 관한 정보를 포함할 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는, 도 8의 (8-2)에 도시된 바와 같이, 상기 이동단말기(100)로부터 제 1 스크린 영상에 관한 정보를 수신하고 이를 제 2 스크린 영상(500)으로서 상기 생성된 모니터 창(400)에 디스플레이하도록 제어할 수 있다. 상기 모니터 창(400)에서는 제 2 스크린 영상(500)으로서 제 1 내지 3 홈스크린 영상(310, 320, 330) 모두에 대응되는 영상들이 디스플레이될 수 있다[S43].
도 8의 (8-2)에서, 제 2 스크린 영상(500)이 3개의 제 1 서브 영상(510), 제 2 서브 영상(520) 및 제 3 서브 영상(530)으로 구성되는 것이 예시되어 있다. 제 1 서브 영상(510)은 제 1 홈스크린 영상(310)에 대응되고, 제 2 서브 영상(520)은 제 2 홈스크린 영상(320)과 대응되고, 제 3 서브 영상(530)은 제 3 홈스크린 영상(330)과 대응될 수 있다. 제 1 내지 3 서브 영상(510, 520, 530)에는 제 1 스크린 영상(300)의 상기 해당 인디케이터들(340, 350)이 함께 디스플레이될 수 있다. 비록 도시되지는 않았지만, 제 1 스크린 영상(300)에 상기 독립 객체들(361, 363, 365)이 디스플레이되는 경우, 제 1 내지 3 서브 영상(510, 520, 530)에 상기 독립 객체들(361, 363, 365)도 함께 디스플레이될 수 있다.
전술한 바와 같이, 도 8의 (8-1)에서 상기 이동단말기(100)의 제 1 디스플레이부(151)에서 제 1 홈스크린 영상(310)이 상기 출력 홈스크린 영상으로 디스플레이되고 있다.
상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 이동단말기(100)에서 제 1 홈스크린 영상(310)이 상기 출력 홈스크린 영상임을 알리기 위해, 제 2 디스플레이부(251)의 상기 모니터 창(400)에서 디스플레이되는 제 2 스크린 영상(500)에서 제 1 홈스크린 영상(310)에 대응되는 제 1 서브 영상(510)이 다른 서브 영상들(520, 530)과는 시각적으로 구별되도록 제어할 수 있다. 제 1 서브 영상(510)이 다른 서브 영상들(520, 530)과 시각적인 구별만 될 수 있다면, 상기 시각적인 구별에 있어서 어떠한 제한도 없다. 다만 예시적으로, 도 8의 (8-2)에서는, 제 1 서브 영상(510)에 제 1 스크린 영상 프레임(401)이 디스플레이됨으로써 제 1 서브 영상(510)이 다른 서브 영상들(520, 530)과 시각적으로 구별되는 것이 도시되어 있다.
이하, 상기 이동단말기(100)의 제 1 디스플레이부(151)에서 상기 출력 홈스크린 영상이 제 1 홈스크린 영상에서 제 2 홈스크린 영상으로 전환되는 것에 대해 도 8 및 도 9를 참조하여 설명하겠다.
예컨대 도 8의 (8-1)에 도시된 바와 같이 상기 이동단말기(100)의 제 1 디스플레이부(151)에서 일방향으로 터치 드래그됨으로써, 상기 이동단말기(100)의 제 1 스크린 영상(300)이 제 1 홈스크린 영상(310)에서 제 2 홈스크린 영상(320)으로 전환되도록 하는 사용자 명령이 입력될 수 있다.
그러면, 도 9의 (9-1)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 사용자 명령에 반응하여, 제 1 디스플레이부(151)에서 제 1 홈스크린 영상(310)이 슬라이딩 이동되어 사라지면서 제 2 홈스크린 영상(320)이 슬라이딩 이동되어 나타나서 제 1 스크린 영상(300)으로 디스플레이되도록 제어할 수 있다. 즉, 상기 이동단말기(100)의 제 1 디스플레이부(151)에서 제 2 홈스크린 영상(320)이 상기 출력 홈스크린 영상으로서 디스플레이하게 된다.
그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 제 1 스크린 영상(300)으로서 제 2 홈스크린 영상(320)이 디스플레이되고 있음을 알리는 제어 신호를 상기 디스플레이 장치(200)로 전송할 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 제어 신호를 수신하여, 도 9의 (9-2)에 도시된 바와 같이, 상기 이동단말기(100)에서 제 2 홈스크린 영상(320)이 상기 출력 홈스크린 영상임을 알리기 위해, 제 2 디스플레이부(251)의 상기 모니터 창(400)에서 디스플레이되는 제 2 스크린 영상(500)에서 제 2 홈스크린 영상(320)에 대응되는 제 2 서브 영상(520)이 다른 서브 영상들(510, 520)과는 시각적으로 구별되도록 제어할 수 있다. 도 9의 (9-2)에서는, 제 1 스크린 영상 프레임(401)이 제 1 서브 영상(510)에서 제 2 서브 영상(520)으로 이동되어 디스플레이됨으로써 제 2 서브 영상(520)이 다른 서브 영상들(510, 530)과 시각적으로 구별되는 것이 도시되어 있다.
이하, 상기 홈스크린 영상들 간에 한 객체가 선택되어 이동되는 것에 대해 도 9 및 도 10을 참조하여 설명하겠다.
도 9의 (9-2)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 사용자 입력부(230)를 통해 제 2 디스플레이부(251)의 상기 모니터 창(400)에서 예컨대 제 3 서브 영상(530)의 H 객체가 선택되어 제 2 서브 영상(520)으로 이동하도록 하는 사용자 명령이 입력될 수 있다. 예컨대, 제 2 디스플레이부(251)의 상기 모니터 창(400)에서 제 3 서브 영상(530)의 상기 H 객체가 마우스로 클릭되어 제 2 서브 영상(520)으로 드래그됨으로써 상기 사용자 명령이 입력될 수 있다. 또는, 제 2 디스플레이부(251)가 터치스크린으로 구성되는 경우, 상기 모니터 창(400)에서 제 3 서브 영상(530)의 상기 H 객체가 제 2 서브 영상(520)으로 터치 드래그됨으로써 상기 사용자 명령이 입력될 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 3 서브 영상(530)의 H 객체가 선택되어 제 2 서브 영상(520)으로 이동하도록 하는 사용자 명령이 입력되었음을 알리는 제어 신호를 상기 이동단말기(100)로 전송할 수 있다.
그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 제어 신호에 반응하여, 상기 H 객체가 제 3 서브 영상(530)에 대응되는 제 3 홈스크린 영상(330)에서 제 2 서브 영상(520)에 대응되는 제 2 홈스크린 영상(320)으로 이동하도록 제어한다. 도 10의 (10-1)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 디스플레이부(151)에서 제 2 홈스크린 영상(320)이 상기 출력 홈스크린 영상(즉 제 1 스크린 영상(300))으로 디스플레이되고 있는 경우, 제 3 홈스크린 영상(330)에 해당하는 제 1 디스플레이부(151)의 우측변으로부터 상기 H 객체가 상기 출력 홈스크린 영상의 내부로 슬라이딩 이동하는 것이 디스플레이될 수 있다.
그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 이동된 H 객체를 반영하는 제 1 스크린 영상에 관한 정보를 상기 디스플레이 장치(200)로 전송하도록 제어할 수 있다. 즉, 상기 이동된 H 객체를 반영하는 제 1 스크린 영상에 관한 정보는 상기 H 객체가 제 3 홈스크린 영상(330)에서 제 2 홈스크린 영상(320)으로 이동한 정보를 반영하는 제 1 내지 3 홈스크린 영상(310, 320, 330)을 포함할 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는, 도 10의 (10-2)에 도시된 바와 같이, 상기 이동단말기(100)로부터 상기 이동된 H 객체를 반영하는 제 1 스크린 영상에 관한 정보를 수신하고 이를 제 2 스크린 영상(500)으로서 제 2 디스플레이부(251)의 상기 모니터 창(400)에 디스플레이하도록 제어할 수 있다. 즉, 상기 모니터 창(400)에서는 상기 이동된 H 객체를 반영하는 제 1 내지 3 홈스크린 영상(310, 320, 330)에 각각 대응되는 제 1 내지 3 서브 영상들(510, 520, 530)이 디스플레이될 수 있다. 즉, 제 3 서브 영상(530)에서 디스플레이되던 상기 H 객체가 제 2 서브 영상(520)으로 이동되어 디스플레이될 수 있다.
이하, 상기 홈스크린 영상들에서 한 객체가 선택되어 삭제되는 것에 대해 도 10 및 도 11을 참조하여 설명하겠다.
도 10의 (10-2)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 사용자 입력부(230)를 통해 제 2 디스플레이부(251)의 상기 모니터 창(400)에서 예컨대 제 2 서브 영상(520)의 D 객체가 선택되어 삭제되도록 하는 사용자 명령이 입력될 수 있다. 예컨대, 제 2 디스플레이부(251)의 상기 모니터 창(400)에서 제 2 서브 영상(520)의 상기 D 객체가 마우스로 클릭되어 상기 모니터 창(400) 밖으로 드래그됨으로써 상기 사용자 명령이 입력될 수 있다. 또는, 제 2 디스플레이부(251)가 터치스크린으로 구성되는 경우, 상기 모니터 창(400)에서 제 2 서브 영상(520)의 상기 D 객체가 상기 모니터 창(400) 밖으로 터치 드래그됨으로써 상기 사용자 명령이 입력될 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 서브 영상(520)의 D 객체가 선택되어 삭제되도록 하는 사용자 명령이 입력되었음을 알리는 제어 신호를 상기 이동단말기(100)로 전송할 수 있다.
그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 제어 신호에 반응하여, 상기 D 객체가 제 3 서브 영상(530)에 대응되는 제 3 홈스크린 영상(330)에서 제 2 서브 영상(520)에 대응되는 제 2 홈스크린 영상(320)에서 삭제되도록 제어한다. 도 11의 (11-1)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 디스플레이부(151)에서 제 2 홈스크린 영상(320)이 상기 출력 홈스크린 영상(즉 제 1 스크린 영상(300))으로 디스플레이되고 있는 경우, 상기 D 객체가 상기 출력 홈스크린 영상에서 삭제되어 사라지는 것이 디스플레이될 수 있다.
그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 삭제된 D 객체를 반영하는 제 1 스크린 영상에 관한 정보를 상기 디스플레이 장치(200)로 전송하도록 제어할 수 있다. 즉, 상기 삭제된 D 객체를 반영하는 제 1 스크린 영상에 관한 정보는 상기 D 객체가 제 2 홈스크린 영상(320)에서 삭제된 정보를 반영하는 제 1 내지 3 홈스크린 영상(310, 320, 330)을 포함할 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는, 도 11의 (11-2)에 도시된 바와 같이, 상기 이동단말기(100)로부터 상기 삭제된 D 객체를 반영하는 제 1 스크린 영상에 관한 정보를 수신하고 이를 제 2 스크린 영상(500)으로서 제 2 디스플레이부(251)의 상기 모니터 창(400)에 디스플레이하도록 제어할 수 있다. 즉, 상기 모니터 창(400)에서는 상기 삭제된 D 객체를 반영하는 제 1 내지 3 홈스크린 영상(310, 320, 330)에 각각 대응되는 제 1 내지 3 서브 영상들(510, 520, 530)이 디스플레이될 수 있다. 즉, 제 2 서브 영상(520)에서 디스플레이되던 상기 D 객체가 제 2 서브 영상(520)에서 삭제되어 사라지도록 디스플레이될 수 있다.
이하, 상기 디스플레이 장치(200)에서 소정 사용자 명령이 입력되어 상기 이동단말기(100)의 상기 출력 홈스크린 영상이 제 2 홈스크린 영상에서 제 3 홈스크린 영상으로 전환되는 것에 대해 도 11 및 도 12를 참조하여 설명하겠다.
도 11의 (11-2)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 사용자 입력부(230)를 통해 상기 이동단말기(100)의 상기 출력 홈스크린 영상이 제 3 홈스크린 영상(330)이 되도록 하는 사용자 명령이 입력될 수 있다. 예컨대, 제 2 디스플레이부(251)의 상기 모니터 창(400)에서 제 3 홈스크린 영상(330)에 대응되는 제 3 서브 영상(520)이 마우스로 더블 클릭됨으로써 상기 사용자 명령이 입력될 수 있다. 또는, 제 2 디스플레이부(251)가 터치스크린으로 구성되는 경우, 상기 모니터 창(400)에서 제 3 서브 영상(530)이 더블 터치됨으로써 상기 사용자 명령이 입력될 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 이동단말기(100)의 상기 출력 홈스크린 영상이 제 3 홈스크린 영상(330)이 되도록 하는 사용자 명령이 입력되었음을 알리는 제어 신호를 상기 이동단말기(100)로 전송할 수 있다.
그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 제어 신호에 반응하여, 도 12의 (12-1)에 도시된 바와 같이, 제 1 디스플레이부(151)에서 제 2 홈스크린 영상(320)이 좌측변으로 슬라이딩 이동되어 사라지고 제 3 홈스크린 영상(330)이 우측변에서 슬라이딩 이동되어 나타나서 제 3 홈스크린 영상(330)이 상기 출력 홈스크린 영상(즉, 제 1 스크린 영상(300))이 되도록 제어할 수 있다.
그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 제 3 홈스크린 영상(330)이 상기 출력 홈스크린 영상임을 나타내는 제 1 스크린 영상에 관한 정보를 상기 디스플레이 장치(200)로 전송하도록 제어할 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는, 도 12의 (12-2)에 도시된 바와 같이, 상기 이동단말기(100)로부터 제 3 홈스크린 영상(330)이 상기 출력 홈스크린 영상임을 나타내는 제 1 스크린 영상에 관한 정보를 수신하고 이를 제 2 스크린 영상(500)으로서 제 2 디스플레이부(251)의 상기 모니터 창(400)에 디스플레이하도록 제어할 수 있다.
즉, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 이동단말기(100)에서 제 3 홈스크린 영상(330)이 상기 출력 홈스크린 영상임을 알리기 위해, 제 2 디스플레이부(251)의 상기 모니터 창(400)에서 디스플레이되는 제 2 스크린 영상(500)에서 제 3 홈스크린 영상(330)에 대응되는 제 3 서브 영상(530)이 다른 서브 영상들(510, 520)과는 시각적으로 구별되도록 제어할 수 있다. 도 12의 (12-2)에서는, 제 3 서브 영상(530)에 제 1 스크린 영상 프레임(401)이 디스플레이됨으로써 제 3 서브 영상(530)이 다른 서브 영상들(510, 520)과 시각적으로 구별되는 것이 도시되어 있다.
이상에서는 상기 이동단말기(100)와 상기 디스플레이 장치(200)가 서로 연결되었을 때, 상기 이동단말기(100)를 위한 모든 홈스크린 영상들(즉, 제 1 내지 3 홈스크린 영상들(310, 320, 330))에 대응되는 상기 서브 영상들(즉, 제 1 내지 3 서브 영상들(510, 520, 530))이 제 2 디스플레이부(251)의 상기 모니터 창(400)에서 디스플레이되는 것으로 설명되었다. 그러나, 본 실시예는 이에 한정되지 않는다. 예를 들면, 상기 모든 홈스크린 영상들 중의 일부에 대응되는 일부 서브 영상들만이 제 2 디스플레이부(251)의 상기 모니터 창(400)에서 디스플레이될 수도 있다. 이에 대해 도 13 내지 도 15를 더욱 참조하여 설명하겠다.
도 13 내지 도 15는 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 13의 (13-1)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 디스플레이부(151)에서 제 1 내지 3 홈스크린 영상들(310, 320, 330) 중에서 제 1 홈스크린 영상(310)이 제 1 스크린 영상(300)을 위한 상기 출력 홈스크린 영상으로서 디스플레이될 수 있다.
상기 이동단말기(100)와 상기 디스플레이 장치(200)가 접속됨에 따라, 도 13의 (13-2)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 디스플레이부(251)에 상기 모니터 창(400)이 생성되도록 제어할 수 있다.
상기 이동단말기(100)의 제 1 제어부(180)는 제 1 스크린 영상에 관한 정보를 상기 디스플레이 장치(200)로 전송하도록 제어할 수 있다. 즉, 제 1 스크린 영상에 관한 정보는 제 1 내지 3 홈스크린 영상들(310, 320, 330) 중에서 상기 출력 홈스크린 영상인 제 1 홈스크린 영상(310)을 포함하는 일부 홈스크린 영상들에 관한 정보를 포함할 수 있다. 이하에서는 상기 일부 홈스크린 영상들이 제 1 및 2 홈스크린 영상들(310, 320)인 것으로 가정한다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는, 도 13의 (13-2)에 도시된 바와 같이, 상기 이동단말기(100)로부터 제 1 스크린 영상에 관한 정보를 수신하고 이를 제 2 스크린 영상(500)으로서 상기 생성된 모니터 창(400)에 디스플레이하도록 제어할 수 있다. 상기 모니터 창(400)에서는 제 2 스크린 영상(500)으로서 제 1 내지 2 홈스크린 영상(310, 320)에 대응되는 제 1 및 2 서브 영상들(510, 520)이 디스플레이될 수 있다.
상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 이동단말기(100)에서 제 1 홈스크린 영상(310)이 상기 출력 홈스크린 영상임을 알리기 위해, 제 1 홈스크린 영상(310)에 대응되는 제 1 서브 영상(510)에 제 1 스크린 영상 프레임(401)이 디스플레이되도록 제어할 수 있다.
도 13의 (13-2)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 사용자 입력부(230)를 통해 제 2 디스플레이부(251)의 상기 모니터 창(400) 내의 제 1 및 서브 영상들(510, 520)이 슬라이딩 이동하도록 하는 사용자 명령이 입력될 수 있다. 예컨대, 제 2 디스플레이부(251)의 상기 모니터 창(400)에서 제 2 스크린 영상(500)이 마우스로 클릭되어 일방향으로 드래그됨으로써 상기 사용자 명령이 입력될 수 있다. 또는, 제 2 디스플레이부(251)가 터치스크린으로 구성되는 경우, 상기 모니터 창(400)에서 제 2 스크린 영상(500)이 상기 일방향으로 터치 드래그됨으로써 상기 사용자 명령이 입력될 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 1 및 2 서브 영상들(510, 520)이 슬라이딩 이동하도록 하는 사용자 명령이 입력되었음을 알리는 제어 신호를 상기 이동단말기(100)로 전송할 수 있다.
그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 제어 신호에 반응하여, 제 2 및 3 홈스크린 영상들(320, 330)에 관한 정보를 포함하는 제 1 스크린 영상에 관한 정보를 상기 디스플레이 장치(200)로 전송하도록 제어할 수 있다. 이 때, 상기 이동단말기(100)의 제 1 제어부(180)는, 도 14의 (14-1)에 도시된 바와 같이, 여전히 제 1 홈스크린 영상(310)이 제 1 스크린 영상(300)을 위한 상기 출력 홈스크린 영상으로서 디스플레이되도록 제어할 수 있다.
상기 디스플레이 장치(200)의 제 2 제어부(280)는, 도 14의 (14-2)에 도시된 바와 같이, 상기 이동단말기(100)로부터 제 2 및 3 홈스크린 영상들(320, 330)에 관한 정보를 포함하는 제 1 스크린 영상에 관한 정보를 수신하고 이를 제 2 스크린 영상(500)으로서 제 2 디스플레이부(251)의 상기 모니터 창(400)에 디스플레이하도록 제어할 수 있다. 상기 모니터 창(400)에서는 제 2 스크린 영상(500)으로서 제 2 내지 3 홈스크린 영상(320, 320)에 대응되는 제 2 및 3 서브 영상들(520, 530)이 디스플레이될 수 있다.
상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)에서 제 1 서브 영상(510)만이 좌측변너머로 사라지도록 제 1 및 2 서브 영상들(510, 520)이 좌측으로 슬라이딩 이동되고, 제 3 서브 영상(530)이 우변측 너머로부터 좌측으로 슬라이딩 이동되어 나타나서 제 2 서브 영상(520)과 함께 디스플레이되도록 제어할 수 있다. 상기 모니터 창(400)에서 제 2 및 3 서브 영상들(520, 530) 모두가 상기 출력 홈스크린 영상인 제 1 홈스크린 영상(310)과 대응되지 않으므로, 제 1 스크린 영상 프레임이 디스플레이되지 않을 수 있다.
도 14의 (14-2)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 사용자 입력부(230)를 통해 상기 이동단말기(100)의 상기 출력 홈스크린 영상이 제 3 홈스크린 영상(330)이 되도록 하는 사용자 명령이 입력될 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 이동단말기(100)의 상기 출력 홈스크린 영상이 제 3 홈스크린 영상(330)이 되도록 하는 사용자 명령이 입력되었음을 알리는 제어 신호를 상기 이동단말기(100)로 전송할 수 있다.
그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 제어 신호에 반응하여, 도 15의 (15-1)에 도시된 바와 같이, 제 1 디스플레이부(151)에서 제 1 홈스크린 영상(310)이 좌측변으로 슬라이딩 이동되어 사라지고, 제 2 홈스크린 영상(320)이 우측변에서 슬라이딩 이동되어 나타났다가 또다시 좌측변으로 슬라이딩 이동되어 사라지고, 제 3 홈스크린 영상(330)이 우측변에서 슬라이딩 이동되어 나타나서 제 3 홈스크린 영상(330)이 상기 출력 홈스크린 영상(즉, 제 1 스크린 영상(300))이 되도록 제어할 수 있다.
그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 제 3 홈스크린 영상(330)이 상기 출력 홈스크린 영상임을 나타내는 제 1 스크린 영상에 관한 정보를 상기 디스플레이 장치(200)로 전송하도록 제어할 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 이동단말기(100)로부터 제 3 홈스크린 영상(330)이 상기 출력 홈스크린 영상임을 나타내는 제 1 스크린 영상에 관한 정보를 수신할 수 있다. 그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는, 도 15의 (15-2)에 도시된 바와 같이, 상기 이동단말기(100)에서 제 3 홈스크린 영상(330)이 상기 출력 홈스크린 영상임을 알리기 위해, 제 2 디스플레이부(251)의 상기 모니터 창(400)에서 디스플레이되는 제 2 스크린 영상(500)에서 제 3 홈스크린 영상(330)에 대응되는 제 3 서브 영상(530)이 제 2 서브 영상(520)과는 시각적으로 구별되도록 제어할 수 있다. 도 15의 (15-2)에서는, 전술한 바와 같이 제 3 서브 영상(530)에 제 1 스크린 영상 프레임(401)이 디스플레이됨으로써 제 3 서브 영상(530)이 다른 제 2 서브 영상( 520)과 시각적으로 구별되는 것이 도시되어 있다.
이상에서는 제 2 디스플레이부(251)의 상기 모니터 창(400)에서 제 1 스크린 영상 프레임(401)이 디스플레이됨으로써, 상기 모니터 창(400)의 여러 서브 영상들 중 어느 것이 상기 출력 홈스크린 영상에 대응되는 것인지 사용자가 알 수 있도록 하는 것에 대해 설명되었다. 그러나, 상기 모니터 창(400)의 여러 서브 영상들 중 어느 것이 상기 출력 홈스크린 영상에 대응되는 것인지 사용자가 알 수 있도록 하기 위해 제 1 스크린 영상 프레임(401)이 반드시 디스플레이되어야 하는 것은 아니다. 이에 대해 도 16 및 도 17을 더욱 참조하여 설명하겠다.
도 16 및 도 17은 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 16의 (16-1)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 디스플레이부(151)에서 제 1 내지 3 홈스크린 영상들(310, 320, 330) 중에서 제 1 홈스크린 영상(310)이 제 1 스크린 영상(300)을 위한 상기 출력 홈스크린 영상으로서 디스플레이될 수 있다.
그리고, 도 16의 (16-2)에 도시된 바와 같이, 상기 디스플레이 장치(200)가 상기 이동단말기(100)와 연결될 때, 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)의 상기 모니터 창(400)에서 제 1 내지 3 홈스크린 영상들(310, 320, 330)에 각각 대응되는 제 1 내지 3 서브 영상(510, 520, 530)이 디스플레이될 수 있다. 이에 대해서는 앞서 설명되었으므로, 자세한 설명은 본 명세서의 간명함을 위해 생략하도록 하겠다.
상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 이동단말기(100)에서 제 1 홈스크린 영상(310)이 상기 출력 홈스크린 영상임을 알리기 위해, 제 2 디스플레이부(251)의 상기 모니터 창(400)에서 디스플레이되는 제 2 스크린 영상(500)에서 제 1 홈스크린 영상(310)에 대응되는 제 1 서브 영상(510)에 제 1 스크린 영상(300)의 상기 인디케이터들(340, 350)(이하, "제 1 인디케이터들" 이라 함)에 대응되는 제 2 인디케이터들(540, 550)이 디스플레이되도록 제어할 수 있다.
도 16의 (16-2)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 사용자 입력부(230)를 통해 상기 이동단말기(100)의 상기 출력 홈스크린 영상이 제 2 홈스크린 영상(330)이 되도록 하는 사용자 명령(예를 들면, 제 2 서브 영상을 더블 클릭함)이 입력될 수 있다.
그러면, 도 17의 (17-1)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 디스플레이부(151)에서 제 2 홈스크린 영상(320)이 상기 출력 홈스크린 영상으로서 디스플레이될 수 있음은 전술한 바와 같다. 그리고, 상기 이동단말기(100)가 제 2 홈스크린 영상(320)이 상기 출력 홈스크린 영상임을 나타내는 제 1 스크린 영상에 관한 정보를 상기 디스플레이 장치(200)로 전송할 수 있음은 전술한 바와 같다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 홈스크린 영상(320)이 상기 출력 홈스크린 영상임을 나타내는 제 1 스크린 영상에 관한 정보를 수신할 수 있다. 그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는, 도 17의 (17-2)에 도시된 바와 같이, 상기 이동단말기(100)에서 제 2 홈스크린 영상(320)이 상기 출력 홈스크린 영상임을 알리기 위해, 제 2 디스플레이부(251)의 상기 모니터 창(400)에서 제 2 홈스크린 영상(320)에 대응되는 제 2 서브 영상(520)에 제 2 인디케이터들(540, 550)이 디스플레이되도록 제어할 수 있다.
따라서, 사용자는 제 2 인디케이터들이 어느 서브 영상에 표시되는지를 파악함으로써, 상기 이동단말기(100)에서 어느 홈스크린 영상이 상기 출력 홈스크린 영상인지를 확인할 수 있다.
이상에서는 상기 이동단말기(100)와 상기 디스플레이 장치(200)가 서로 연결될 때, 제 2 디스플레이부(251)에 하나의 상기 모니터 창(400)이 생성되고, 상기 하나의 모니터 창(400) 내에 상기 홈스크린 영상들에 대응되는 상기 서브 영상들이 제 2 스크린 영상으로서 디스플레이되는 것에 대해 설명되었다. 그러나, 본 실시예는 이에 한정되지 않는다. 예를 들면, 상기 이동단말기(100)와 상기 디스플레이 장치(200)가 서로 연결될 때, 제 2 디스플레이부(251)에 둘 이상의 상기 모니터 창들이 생성될 수도 있다. 이에 대해 도 18을 더욱 참조하여 설명하겠다.
도 18은 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 18의 (18-1)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 디스플레이부(151)에서 제 1 내지 3 홈스크린 영상들(310, 320, 330) 중에서 제 1 홈스크린 영상(310)이 제 1 스크린 영상(300)을 위한 상기 출력 홈스크린 영상으로서 디스플레이될 수 있다.
상기 이동단말기(100)와 상기 디스플레이 장치(200)가 접속됨에 따라, 상기 이동단말기(100)의 제 1 제어부(180)는 제 1 스크린 영상에 관한 정보를 상기 디스플레이 장치(200)로 전송하도록 제어할 수 있다. 즉, 제 1 스크린 영상에 관한 정보는 제 1 내지 3 홈스크린 영상(310, 320, 330) 모두에 관한 정보를 포함할 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 1 스크린 영상에 관한 정보를 수신하고, 도 8의 (8-2)에 도시된 바와 같이, 상기 수신된 정보에 포함된 홈스크린 영상들와 동일한 갯수(즉 3개)의 모니터 창들, 즉 제 1 모니터창(410), 제 2 모니터창(420), 및 제 3 모니터창(430)이 제 2 디스플레이부(251)에 디스플레이되도록 제어할 수 있다. 그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 1 내지 3 홈스크린 영상(310, 320, 330)에 각각 대응되는 제 1 내지 3 서브 영상(510, 520, 530)이 제 1 내지 3 모니터창들(410, 420, 430)에 각각 디스플레이되도록 제어할 수 있다.
상기 디스플레이 장치(200)의 제 2 제어부(280)는, 도 18의 (18-2)에 도시된 바와 같이, 상기 이동단말기(100)에서 제 1 홈스크린 영상(310)이 상기 출력 홈스크린 영상임을 알리기 위해, 제 1 모니터 창(410)의 제 1 서브 영상(510)에 제 1 스크린 영상 프레임(401)이 디스플레이되도록 제어할 수 있음은 전술한 바와 같다. 이로써, 제 1 모니터 창(410)이 제 2 및 3 모니터 창들(420, 430)과 시각적으로 구별될 수 있다.
도 18의 (18-2)에 도시된 바와 같이 상기 서브 영상들이 각각 해당 모니터 창에 디스플레이될 수 있다는 개념은 전술된 본 발명의 실시예 및 후술되는 본 발명의 실시예에서 채택될 수 있음은 본 기술분야의 당업자라면 쉽게 이해할 수 있을 것이다.
이하, 도 19 내지 도 21을 더욱 참조하여, 상기 이동단말기(100)와 상기 디스플레이 장치(200)가 서로 연결된 후에 상기 이동단말기(100)의 상기 출력 홈스크린 영상에서 한 객체가 선택되어 실행될 때, 상기 모니터 창(400)의 변화에 대해 설명하도록 하겠다.
도 19는 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면을 도시한다. 도 20은 본 발명과 관련된 실시예가 구현되는 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다. 도 21은 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
먼저, 상기 이동단말기(100)와 상기 디스플레이 장치(200)가 서로 연결되어 있다고 가정한다. 즉, 상기 이동단말기(100)의 제 1 디스플레이부(151)에는 도 19의 (19-1)에 도시된 바와 같이 제 1 홈스크린 영상(310)이 제 1 스크린 영상(300)을 위한 상기 출력 홈스크린 영상으로 디스플레이되고 있고, 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)에는 도 20의 (20-1)에 도시된 바와 같이 상기 모니터 창(400)이 디스플레이되고 있다고 가정한다. 이에 대해서는 앞서 자세히 설명되었으므로 자세한 설명은 본 명세서의 간명함을 위해 생략하도록 하겠다.
상기 이동단말기(100)의 제 1 디스플레이부(151)에서 예컨대 제 1 홈스크린 영상(310)의 A 객체가 선택되어 실행될 수 있다. 제 1 디스플레이부(151)가 터치스크린인 경우, 상기 A 객체를 터치함으로써 실행시킬 수 있다. 이하 상기 A 객체가 멀티미디어 재생 메뉴 아이콘인 것으로 가정하겠다.
그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 소정 멀티미디어 컨텐트를 재생하고, 도 19의 (19-2)에 도시된 바와 같이 제 1 디스플레이부(151)에 해당 멀티미디어 컨텐트 영상(360)이 제 1 스크린 영상(300)으로서 디스플레이되도록 제어할 수 있다. 이하 설명의 간편함을 위해, 제 1 디스플레이부(151)에서 디스플레이되는 멀티미디어 컨텐트 영상을 "제 1 멀티미디어 컨텐트 영상"이라고 호칭하겠다.
그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 제 1 스크린 영상에 관한 정보를 상기 디스플레이 장치(200)로 전송할 수 있다.
제 1 스크린 영상에 관한 정보는 상기 멀티미디어 컨텐트의 영상 정보만을 포함할 수 있다.
이 경우, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 1 스크린 영상에 관한 정보를 수신하여, 도 20의 (20-2)에 도시된 바와 같이, 제 2 디스플레이부(251)의 상기 모니터 창(400)에 제 1 내지 3 서브 영상들(510, 520, 530) 대신에 상기 멀티미디어 컨텐트 영상이 제 2 스크린 영상(500)으로서 디스플레이되도록 제어할 수 있다. 이하 설명의 간편함을 위해 제 2 디스플레이부(251)에서 디스플레이된 상기 멀티미디어 컨텐트 영상을 "제 2 멀티미디어 컨텐트 영상(560)"이라고 호칭하겠다.
한편, 제 1 스크린 영상에 관한 정보는 상기 멀티미디어 컨텐트의 영상 정보뿐만 아니라 제 2 및 3 홈스크린 영상들(320, 330)을 함께 포함할 수 있다. 상기 A 객체가 위치한 제 1 홈스크린 영상(310)은 제 1 스크린 영상에 관한 정보에서 제외될 수 있다.
이 경우, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 1 스크린 영상에 관한 정보를 수신하여, 도 20의 (20-3)에 도시된 바와 같이, 제 2 디스플레이부(251)의 상기 모니터 창(400)에 제 2 멀티미디어 컨텐트 영상(560) 및, 제 2 및 3 홈스크린 영상(320, 330)들과 대응되는 제 2 및 3 서브 영상들(520, 530)이 함께 제 2 스크린 영상(500)으로서 디스플레이되도록 제어할 수 있다. 즉, 제 1 서브 영상(510) 대신에 제 2 멀티미디어 컨텐트 영상(560)이 디스플레이될 수 있다.
도 20의 (20-3)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)에서 제 2 멀티미디어 컨텐트 영상(560)이 제 2 및 3 서브 영상들(520, 530)과 함께 디스플레이되고 있을 때, 예컨대 제 3 서브 영상(530)의 다른 객체가 선택될 수도 있다. 이에 대해 도 20의 (20-3) 및 도 21을 더욱 참조하여 설명하겠다.
상기 이동단말기(100)에서 상기 멀티미디어 재생 메뉴가 계속 실행되고 있어서 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)에서 제 2 멀티미디어 컨텐트 영상(560)이 제 2 및 3 서브 영상들(520, 530)과 함께 디스플레이되고 있을 때, 예컨대 제 3 서브 영상(530)의 I 객체가 선택될 수도 있다. 이하, 상기 I 객체가 메시지 메뉴 아이콘인 것으로 가정하겠다.
상기 디스플레이 장치(200)의 제 2 사용자 입력부(230)를 통해 제 3 서브 영상(530)의 상기 I 객체를 선택하기 위한 사용자 명령이 입력될 수 있다. 예컨대, 제 2 디스플레이부(251)의 제 3 서브 영상(530)의 상기 I 객체가 마우스로 클릭됨으로써 상기 사용자 명령이 입력될 수 있다. 또는, 제 2 디스플레이부(251)가 터치스크린으로 구성되는 경우, 제 2 디스플레이부(251)의 제 3 서브 영상(530)의 상기 I 객체가 터치됨으로써 상기 사용자 명령이 입력될 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 I 객체를 선택하기 위한 사용자 명령이 입력되었음을 알리는 제어신호를 상기 이동단말기(100)로 전송할 수 있다.
그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 I 객체를 선택하기 위한 사용자 명령이 입력되었음을 알리는 제어신호에 반응하여, 상기 멀티미디어 재생 메뉴를 계속 실행하면서 메시지 메뉴를 멀티태스킹 방식으로 실행하도록 제어할 수 있다. 즉, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 메시지 메뉴를 실행하고, 도 21의 (21-1)에 도시된 바와 같이 제 1 디스플레이부(151)에 해당 메시지 메뉴 영상(370)이 제 1 스크린 영상(300)으로서 디스플레이되도록 제어할 수 있다. 이하 설명의 간편함을 위해, 제 1 디스플레이부(151)에서 디스플레이되는 메시지 메뉴 영상을 "제 1 메시지 메뉴 영상"이라고 호칭하겠다.
그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 제 1 스크린 영상에 관한 정보를 상기 디스플레이 장치(200)로 전송할 수 있다.
제 1 스크린 영상에 관한 정보는 상기 멀티태스킹으로 실행 중인 제 1 멀티미디어 컨텐트 영상, 상기 새롭게 실행된 메시지 영상, 및 제 2 홈스크린 영상(320)을 함께 포함할 수 있다. 상기 A 객체 및 상기 I 객체가 각각 위치한 제 1 및 3 홈스크린 영상들(310, 330)은 제 1 스크린 영상에 관한 정보에서 제외될 수 있다.
상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 1 스크린 영상에 관한 정보를 수신하여, 도 21의 (21-2)에 도시된 바와 같이, 제 2 디스플레이부(251)의 상기 모니터 창(400)에 제 2 멀티미디어 컨텐트 영상(560), 제 2 홈스크린 영상(320)들과 대응되는 제 2 서브 영상(520), 및 제 1 메시지 영상에 대응되는 제 2 메시지 영상(570)이 제 2 스크린 영상(500)으로서 디스플레이되도록 제어할 수 있다. 즉, 제 1 서브 영상(510) 및 제 3 서브 영상(530) 대신에 각각 제 2 멀티미디어 컨텐트 영상(560) 및 제 2 메시지 영상(570)이 디스플레이될 수 있다.
한편, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 I 객체를 선택하기 위한 사용자 명령이 입력되었음을 알리는 제어신호에 반응하여, 상기 멀티미디어 재생 메뉴의 실행을 중단하고 상기 메시지 메뉴를 실행하도록 제어할 수 있다. 그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 도 21의 (21-1)에 도시된 바와 같이 제 1 디스플레이부(151)에 제 1 메시지 메뉴 영상(370)이 제 1 스크린 영상(300)으로서 디스플레이되도록 제어할 수 있다.
그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 제 1 스크린 영상에 관한 정보를 상기 디스플레이 장치(200)로 전송할 수 있다.
제 1 스크린 영상에 상기 새롭게 실행된 메시지 영상 및 제 1 및 2 홈스크린 영상들(310, 320)을 함께 포함할 수 있다. 상기 I 객체가 위치한 제 3 홈스크린 영상들(330)은 제 1 스크린 영상에 관한 정보에서 제외될 수 있다.
상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 1 스크린 영상에 관한 정보를 수신하여, 도 21의 (21-3)에 도시된 바와 같이, 제 2 디스플레이부(251)의 상기 모니터 창(400)에 제 1 및 2 홈스크린 영상(310, 320)들과 각각 대응되는 제 1 및 2 서브 영상들(510, 520), 및 제 1 메시지 영상에 대응되는 제 2 메시지 영상(570)이 제 2 스크린 영상(500)으로서 디스플레이되도록 제어할 수 있다. 즉, 제 3 서브 영상(530) 대신에 제 2 메시지 영상(570)이 디스플레이될 수 있다.
이하, 도 22 내지 도 25를 참조하여, 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)에서 디스플레이된 서브 영상들을 이용하여, 상기 이동단말기(100)을 위한 홈스크린 영상들의 전환 순서를 변경하는 것에 대해 설명하도록 하겠다.
도 22 내지 도 24는 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다. 도 25는 본 발명과 관련된 실시예가 구현되는 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
전술한 바와 같이, 상기 이동단말기(100)에서 소정 터치 제스처(예를 들면 일방향으로의 터치 드래그)가 행해질 때 제 1 내지 3 홈스크린 영상들(310, 320, 330) 간의 상호 순서에 따라서 이들 중 하나가 상기 출력 홈스크린 영상으로 정해질 수 있다. 이하 상기 일방향으로의 소정 터치 제스처가 행해질 때마다 제 1 홈스크린 영상(310) -> 제 2 홈스크린 영상(320) -> 제 3 홈스크린 영상(330)의 순서대로 상기 출력 홈스크린 영상이 되는 것으로 가정하겠다.
도 22의 (22-1)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 디스플레이부(151)에서 제 1 홈스크린 영상(310)이 상기 출력 홈스크린 영상이 되어 제 1 스크린 영상(300)이 디스플레이될 수 있다.
그리고, 도 22의 (22-2)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)에서 제 1 내지 3 홈스크린 영상들(310, 320, 330)에 각각 대응되는 제 1 내지 3 서브 영상들(510, 520, 530)이 제 2 스크린 영상(500)으로서 디스플레이될 수 있다. 그리고 상기 이동단말기(100)에서 제 1 홈스크린 영상(310)이 상기 출력 홈스크린 영상임을 알리기 위해, 제 2 디스플레이부(251)의 제 1 서브 영상(510)에 제 1 스크린 영상 프레임(401)이 디스플레이될 수 있다.
이에 대해서는 앞서 자세히 설명되었으므로, 자세한 설명은 본 명세서의 간명함을 위해 생략하도록 하겠다.
상기 디스플레이 장치(200)의 제 2 사용자 입력부(230)를 통해 상기 이동단말기를 위한 제 1 홈스크린 영상 및 제 2 홈스크린 영상의 순서를 바꾸기 위한 사용자 명령이 입력될 수 있다. 예컨대, 도 22의 (22-2)에 도시된 바와 같이, 제 2 디스플레이부(251)의 제 1 서브 영상(510) 및 제 2 서브 영상(520)이 동시에 터치된 후 시계 방향 또는 반시계 방향으로 약 180도 회전하는 드래그가 행해짐으로써 상기 사용자 명령이 입력될 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 1 홈스크린 영상 및 제 2 홈스크린 영상의 순서를 바꾸기 위한 사용자 명령이 입력되었음을 알리는 제어신호를 상기 이동단말기(100)로 전송할 수 있다.
그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 제어 신호에 반응하여, 도 23의 (23-1)에 도시된 바와 같이, 제 1 홈스크린 영상(310) 및 제 2 홈스크린 영상(320)의 순서를 서로 바꾸도록 제어할 수 있다. 즉, 상기 홈스크린 영상들의 순서가 제 2 홈스크린 영상(320) -> 제 1 홈스크린 영상(310) -> 제 3 홈스크린 영상(330)의 순서로 변경될 수 있다.
그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 제 1 홈스크린 영상(310)을 제 1 스크린 영상(300)으로 계속 디스플레이하지만 상기 홈스크린 영상들의 순서가 변경됨에 따라 제 1 스크린 영상(300)의 상기 페이지 인디케이터(350)가 "1/3"에서 "2/3"으로 변경되도록 제어할 수 있다.
그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 바뀐 순서에 따른 제 1 내지 3 홈스크린 영상들에 관한 정보를 포함하는 제 1 스크린 영상에 관한 정보를 상기 디스플레이 장치(200)로 제공하도록 제어할 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 1 스크린 영상에 관한 정보를 수신하여, 도 23의 (23-2)에 도시된 바와 같이 상기 바뀐 순서에 다른 제 1 내지 3 홈스크린 영상들에 대응되도록 제 1 내지 3 서브 영상들(510, 520, 530)을 제 2 디스플레이부(251)에 디스플레이하도록 제어할 수 있다. 즉, 제 2 디스플레이부(251)의 상기 모니터 창(400)에는 상기 서브 영상들이 제 2 서브 영상(520) -> 제 1 서브 영상(510) -> 제 3 서브 영상(530)의 순서대로 디스플레이될 수 있다.
상기 이동단말기(100)의 제 1 디스플레이부(151)에서 상기 소정 터치 제스처(예를 들면 일방향으로의 터치 드래그)가 행해질 수 있다.
그러면, 상기 이동단말기(100)의 제 1 제어부(180)는, 도 24의 (24-1)에 도시된 바와 같이, 상기 바뀐 홈스크린 영상들의 순서에 따라 제 1 홈스크린 영상(310) 대신에 제 3 홈스크린 영상(330)이 상기 출력 홈스크린 영상이 되어 제 1 스크린 영상(300)으로서 제 1 디스플레이부(151)에 디스플레이되도록 제어할 수 있다.
그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는, 도 24의 (24-2)에 도시된 바와 같이, 새롭게 상기 출력 홈스크린 영상이 된 제 3 홈스크린 영상(330)에 대응되는 제 3 서브 영상(530)에 제 1 스크린 영상 프레임(401)이 디스플레이되도록 제어할 수 있다.
도 25에 도시된 바와 같이, 제 2 디스플레이부(251)의 상기 서브 영상들(510, 520, 530)이 각각의 해당 모니터 창들, 즉 제 1 내지 3 모니터 창들(410, 420, 430)에서 디스플레이되더라도 상기 서브 영상들을 이용하여 제 1 내지 3 홈스크린 영상들의 순서를 변경할 수도 있다.
예를 들어 간략히 부연하여 설명하자면, 도 25의 (25-1)에 도시된 바와 같이, 제 1 모니터 창(410)(또는 제 1 서브 영상(510)) 및 제 2 모니터 창(420)(또는 제 2 서브 영상(520))이 동시에 터치되어 시계 방향 또는 반시계 방향으로 약 180도 회전하는 드래그가 행해질 수 있다.
그러면, 상기 이동단말기(100)를 위한 상기 홈스크린들의 순서가 전술한 바와 같이 변경될 수 있다.
그리고, 도 25의 (25-2)에 도시된 바와 같이, 제 2 디스플레이부(251)에 디스플레이된 제 1 모니터 창들(410, 420, 430)의 순서도 상기 변경된 홈스크린들의 순서에 따라 변경될 수 있다.
이하, 도 26 내지 도 28를 참조하여, 상기 이동단말기(100)의 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)이 줌인되었을 때, 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)의 제 2 스크린 영상(500)의 변화에 대해 설명하도록 하겠다.
도 26 및 도 27은 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다. 도 28는 본 발명과 관련된 실시예가 구현되는 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 26의 (26-1)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 디스플레이부(151)에서 제 1 홈스크린 영상(310)이 상기 출력 홈스크린 영상이 되어 제 1 스크린 영상(300)이 디스플레이될 수 있다.
그리고, 도 26의 (26-2)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)에서 제 1 내지 3 홈스크린 영상들(310, 320, 330)에 각각 대응되는 제 1 내지 3 서브 영상들(510, 520, 530)이 제 2 스크린 영상(500)으로서 디스플레이될 수 있다.
이에 대해서는 앞서 자세히 설명되었으므로, 자세한 설명은 본 명세서의 간명함을 위해 생략하도록 하겠다.
상기 이동단말기(100)의 제 1 사용자 입력부(130)을 통해 제 1 디스플레이부(151)에서 디스플레이되는 제 1 스크린 영상(300)이 줌인되도록 하는 사용자 명령이 입력될 수 있다. 예를 들면, 제 1 디스플레이부(151)가 터치스크린으로 구성되는 경우, 상기 터치스크린에서 제 1 스크린 영상(300)의 두 지점에 동시에 터치된 후 서로 멀어지는 방향으로 드래그가 행해짐으로써 상기 사용자 명령이 입력될 수 있다.
그러면, 상기 이동단말기(100)의 제 1 제어부(180)는, 도 27의 (27-1)에 도시된 바와 같이, 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)이 줌인되도록 제어할 수 있다.
그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 줌인된 제 1 스크린 영상(300)에 관한 정보를 상기 디스플레이 장치(200)로 전송할 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 줌인된 제 1 스크린 영상(300)에 관한 정보를 수신할 수 있다.
그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는, 도 27의 (27-1)에 도시된 바와 같이, 제 1 내지 3 서브 영상들(510, 520, 530)이 상기 줌인의 정도에 비례하여 확대하도록 제어할 수 있다. 제 1 내지 3 서브 영상들(510, 520, 530)이 확대됨에 따라 상기 모니터 창(400)도 이에 비례하여 확대될 수 있다.
그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 1 스크린 영상(300)인 제 1 홈스크린 영상(310)에 대응되는 제 1 서브 영상(510)에 상기 줌인된 제 1 스크린 영상(300)에 대응되도록 제 1 스크린 영상 프레임(401)이 디스플레이되도록 제어할 수 있다.
또는, 상기 디스플레이 장치(200)의 제 2 제어부(280)는, 도 27의 (27-2)에 도시된 바와 같이, 제 1 내지 3 서브 영상들(510, 520, 530) 중에서 제 1 스크린 영상(300)인 제 1 홈스크린 영상(310)에 대응되는 제 1 서브 영상(510)만이 확대되도록 제어할 수 있다. 제 2 및 3 서브 영상들(520, 530)의 크기는 유지되고 제 1 서브 영상(510)만이 확대되는 것에 따라 상기 모니터 창(400)의 형태도 도 27의 (27-2)에 도시된 바와 같이 확대될 수 있다.
제 1 스크린 영상(300)인 제 1 홈스크린 영상(310)에 대응되는 제 1 서브 영상(510)에 상기 줌인된 제 1 스크린 영상(300)에 대응되도록 제 1 스크린 영상 프레임(401)이 디스플레이될 수 있음은 전술한 바와 같다.
도 28에 도시된 바와 같이, 제 2 디스플레이부(251)의 제 1 내지 3 서브 영상들(510, 520, 530)이 각각 제 1 내지 3 모니터 창들(410, 420, 430)에서 디스플레이되더라도 마찬가지이다. 즉, 제 1 스크린 영상이 줌인될 때, 도 28의 (28-1)에 도시된 바와 같이 제 1 내지 3 서브 영상들(510, 520, 530) 모두 확대될 수 있다. 또는, 제 1 스크린 영상이 줌인될 때, 도 28의 (28-2)에 도시된 바와 같이 제 1 서브 영상(510)만이 확대될 수 있다.
도 28의 (28-1)은 도 27의 (27-2)에 대응되고, 도 28의 (28-2)는 도 27의 (27-3)에 대응될 수 있다. 본 기술분야의 당업자라면 전술한 내용으로부터 쉽게 이해할 수 있을 것이므로, 자세한 설명은 본 명세서의 간명함을 위해 생략하도록 하겠다.
이하, 도 29 및 도 30을 참조하여, 상기 이동단말기(100)의 하우징의 배향 방향이 변경될 때, 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)의 제 2 스크린 영상(500)의 변화에 대해 설명하도록 하겠다.
도 29는 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다. 도 30은 본 발명과 관련된 실시예가 구현되는 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 29의 (29-1)에 도시된 바와 같이, 사용자가 상기 이동단말기(100)의 하우징을 시계 반대 방향으로 회전하여 수평 방향으로 배치함으로써 상기 이동단말기(100)의 하우징의 배향 방향을 변환할 수 있다.
그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 제 1 센싱부(140)를 통해 상기 변환된 배향 방향을 감지할 수 있다.
그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 감지된 변환된 배향 방향을 상기 디스플레이 장치(200)로 제공할 수 있다.
그러면, 도 29의 (29-2)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 변환된 배향 방향에 따라 상기 모니터 창(400)이 시계 반대 방향으로 회전하여 배치되도록 제어할 수 있다. 즉, 상기 모니터 창(400)에서 제 1 내지 3 서브 영상들(510, 520, 530)이 세로로 나란히 배치될 수 있다.
또는, 도 29의 (29-3)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)은 회전하지 않되, 상기 모니터 창(400) 내의 제 1 내지 3 서브 영상들(510, 520, 530)이 제자리에서 상기 변환된 배향 방향에 따라 시계 반대 방향으로 회전하여 배치되도록 제어할 수 있다. 즉, 상기 모니터 창(400)에서 제 1 내지 3 서브 영상들(510, 520, 530)이 가로로 나란히 배치될 수 있다.
도 30에 도시된 바와 같이, 제 2 디스플레이부(251)의 제 1 내지 3 서브 영상들(510, 520, 530)이 각각 제 1 내지 3 모니터 창들(410, 420, 430)에서 디스플레이되더라도 마찬가지이다. 즉, 상기 이동단말기(100)의 상기 하우징의 배향 방향이 변경될 때, 도 30의 (30-1)에 도시된 바와 같이 제 1 내지 3 모니터 창들 전체가 상기 변경된 배향 방향에 따라 회전하여 배치될 수 있다. 또는, 상기 이동단말기(100)의 상기 하우징의 배향 방향이 변경될 때, 도 30의 (30-2)에 도시된 바와 같이 제 1 내지 3 모니터 창들이 각각 제자리에서 상기 변경된 배향 방향으로 따라 회전하여 배치될 수 있다.
도 30의 (30-1)은 도 29의 (29-2)에 대응되고, 도 30의 (30-2)는 도 29의 (29-3)에 대응될 수 있다. 본 기술분야의 당업자라면 전술한 내용으로부터 쉽게 이해할 수 있을 것이므로, 자세한 설명은 본 명세서의 간명함을 위해 생략하도록 하겠다.
본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말기의 제어부(180)를 포함할 수도 있다.
따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
본 발명은, 전술한 바와 같이, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등(이에 한정되지 않음)의 이동단말기와, 노트북 컴퓨터(laptop computer), 태블릿 컴퓨터, 데스크탑 컴퓨터, 및 텔레비젼(예를 들면, 디지털 TV 또는 스마트 TV) 등(이에 한정되지 않음)의 디스플레이 장치에 사용될 수 있다.

Claims (36)

  1. 제 1 홈스크린 영상 및 제 2 홈스크린 영상을 포함한 둘 이상의 홈스크린 영상들 중 하나를 출력 홈스크린 영상으로서 디스플레이하는 제 1 디스플레이부;
    제 2 디스플레이부를 구비하는 외부 디스플레이 장치와 연결하기 위한 인터페이스부; 및
    상기 홈스크린 영상들 중 둘 이상의 영상들이 상기 외부 디스플레이 장치에 제공되어, 상기 제공된 홈스크린 영상들을 동시에 디스플레이하는 모니터 창이 제 2 디스플레이부에서 생성되도록 제어하는 제어부;를 포함하는 이동단말기.
  2. 제 1 항에 있어서, 상기 제어부는,
    상기 외부 디스플레이 장치에 제공되어 디스플레이되는 상기 홈스크린 영상들은 상기 출력 홈스크린 영상을 포함하도록 제어하는 것을 특징으로 하는 이동단말기.
  3. 제 1 항에 있어서, 상기 제어부는,
    상기 홈스크린 영상들 모두가 상기 외부 디스플레이 장치에 제공되어, 상기 모든 홈스크린 영상들이 상기 모니터 창에서 동시에 디스플레이되도록 제어하는 것을 특징으로 하는 이동단말기.
  4. 제 2 항에 있어서, 상기 제어부는,
    제 2 디스플레이부에 하나의 모니터 창이 생성되도록 제어하고, 상기 생성된 하나의 모니터 창 내에 상기 제공된 홈스크린 영상들이 디스플레이되도록 제어하는 것을 특징으로 하는 이동단말기.
  5. 제 4 항에 있어서, 상기 제어부는,
    상기 제공된 홈스크린 영상들 중에서 상기 출력 홈스크린 영상이 상기 모니터 창 내에서 시각적으로 구별되어 디스플레이되도록 제어하는 것을 특징으로 하는 이동단말기.
  6. 제 2 항에 있어서, 상기 제어부는,
    상기 제공되는 홈스크린 영상들과 동일한 갯수의 모니터 창들이 제 2 디스플레이부에 생성되도록 제어하고, 상기 제공된 홈스크린 영상들이 각 하나씩 상기 생성된 모니터 창들에서 디스플레이되도록 제어하는 것을 특징으로 하는 이동단말기.
  7. 제 6 항에 있어서, 상기 제어부는,
    상기 모니터 창들 중에서 상기 출력 홈스크린 영상이 디스플레이되는 모니터 창이 시각적으로 구별되어 디스플레이되도록 제어하는 것을 특징으로 하는 이동단말기.
  8. 제 1 항에 있어서,
    상기 홈스크린 영상들은 적어도 하나의 객체를 포함하고, 상기 제어부는,
    제 2 디스플레이부에서 제 1 홈스크린 영상에서 한 객체가 선택되어 삭제되거나 제 2 홈스크린 영상으로 이동될 때, 제 1 디스플레이부에서 제 1 홈스크린 영상에서 상기 선택된 객체가 삭제되거나 제 2 홈스크린 영상으로 이동되도록 제어하는 것을 특징으로 하는 이동단말기.
  9. 제 1 항에 있어서, 상기 제어부는,
    제 2 디스플레이부에서 한 홈스크린 영상이 선택될 때, 제 1 디스플레이부에서 상기 선택된 홈스크린 영상이 상기 출력 홈스크린 영상이 되어 디스플레이되도록 제어하는 것을 특징으로 하는 이동단말기.
  10. 제 1 항에 있어서, 상기 제어부는,
    소정 사용자 명령이 입력될 때 제 1 디스플레이부에서 상기 홈스크린들이 소정 디스플레이 순서대로 순차적으로 상기 출력 홈스크린 영상으로 디스플레이되도록 제어하고,
    제 2 디스플레이부에서 디스플레이되는 상기 홈스크린들의 배치가 조정될 때 상기 디스플레이 순서가 상기 조정된 배치에 따라 변하도록 제어하는 것을 특징으로 하는 이동단말기.
  11. 제 1 항에 있어서, 상기 제어부는,
    제 1 디스플레이부에서 상기 출력 홈스크린 영상이 줌인될 때, 제 2 디스플레이부에서 상기 출력 홈스크린 영상이 확대되도록 제어하는 것을 특징으로 하는 이동단말기.
  12. 제 4 항에 있어서,
    상기 출력 홈스크린 영상이 적어도 하나의 객체를 포함하고, 상기 제어부는,
    상기 객체가 선택되고 해당 어플리케이션이 실행되어 상기 실행된 애플리케이션 영상이 제 1 디스플레이부에 디스플레이될 때, 제 2 디스플레이부에서 상기 모니터 창에서 상기 출력 홈스크린 영상 대신에 상기 애플리케이션 영상이 디스플레이되도록 제어하는 것을 특징으로 하는 이동단말기.
  13. 제 12 항에 있어서, 상기 제어부는,
    상기 애플리케이션 영상이, 상기 출력 홈스크린 영상을 제외한 나머지 홈스크린 영상들과 함께 디스플레이되도록 제어하는 것을 특징으로 하는 이동단말기.
  14. 제 12 항에 있어서, 상기 제어부는,
    상기 모니터 창에서 상기 애플리케이션 영상이 디스플레이될 때, 상기 모니터 창에서 모든 홈스크린 영상들이 사라지도록 제어하는 것을 특징으로 하는 이동단말기.
  15. 제 6 항에 있어서,
    상기 출력 홈스크린 영상이 적어도 하나의 객체를 포함하고, 상기 제어부는,
    상기 객체가 선택되고 해당 어플리케이션이 실행되어 상기 실행된 애플리케이션 영상이 제 1 디스플레이부에 디스플레이될 때, 제 2 디스플레이부에서 상기 출력 홈스크린 영상을 디스플레이하고 있던 모니터 창에서 상기 출력 홈스크린 영상 대신에 상기 애플리케이션 영상이 디스플레이되도록 제어하는 것을 특징으로 하는 이동단말기.
  16. 제 15 항에 있어서, 상기 제어부는,
    상기 애플리케이션 영상이 디스플레이되는 모니터 창이, 상기 출력 홈스크린 영상을 제외한 나머지 홈스크린 영상들을 디스플레이하는 모니터 창들과 함께 디스플레이되도록 제어하는 것을 특징으로 하는 이동단말기.
  17. 제 15 항에 있어서, 상기 제어부는,
    상기 애플리케이션 영상이 디스플레이되는 모니터 창 이외의 나머지 모니터 창이 사라지도록 제어하는 것을 특징으로 하는 이동단말기.
  18. 제 1 홈스크린 영상 및 제 2 홈스크린 영상을 포함한 둘 이상의 홈스크린 영상들 중 하나를 출력 홈스크린 영상으로서 디스플레이하는 제 1 디스플레이부를 구비하는 외부 이동단말기와 연결하기 위한 인터페이스부;
    제 2 디스플레이부; 및
    상기 홈스크린 영상들 중 둘 이상의 영상들이 상기 외부 이동단말기로부터 수신하여, 상기 수신된 홈스크린 영상들을 동시에 디스플레이하는 모니터 창이 제 2 디스플레이부에서 생성되도록 제어하는 제어부;를 포함하는 디스플레이 장치.
  19. 제 18 항에 있어서, 상기 제어부는,
    상기 외부 이동단말기로부터 수신하여 디스플레이되는 상기 홈스크린 영상들은 상기 출력 홈스크린 영상을 포함하도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  20. 제 18 항에 있어서, 상기 제어부는,
    상기 홈스크린 영상들 모두를 상기 외부 이동단말기로부터 수신하여, 상기 모든 홈스크린 영상들이 상기 모니터 창에서 디스플레이되도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  21. 제 19 항에 있어서, 상기 제어부는,
    제 2 디스플레이부에 하나의 모니터 창이 생성되도록 제어하고, 상기 생성된 하나의 모니터 창 내에 상기 수신한 홈스크린 영상들이 디스플레이되도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  22. 제 21 항에 있어서, 상기 제어부는,
    상기 수신한 홈스크린 영상들 중에서 상기 출력 홈스크린 영상이 상기 모니터 창 내에서 시각적으로 구별되어 디스플레이되도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  23. 제 19 항에 있어서, 상기 제어부는,
    상기 수신한 홈스크린 영상들과 동일한 갯수의 모니터 창들이 제 2 디스플레이부에 생성되도록 제어하고, 상기 수신한 홈스크린 영상들이 각 하나씩 상기 생성된 모니터 창들에서 디스플레이되도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  24. 제 23 항에 있어서, 상기 제어부는,
    상기 모니터 창들 중에서 상기 출력 홈스크린 영상이 디스플레이되는 모니터 창이 시각적으로 구별되어 디스플레이되도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  25. 제 18 항에 있어서,
    상기 홈스크린 영상들은 적어도 하나의 객체를 포함하고, 상기 제어부는,
    제 2 디스플레이부에서 제 1 홈스크린 영상에서 한 객체가 선택되어 삭제되거나 제 2 홈스크린 영상으로 이동될 때, 제 1 디스플레이부에서 제 1 홈스크린 영상에서 상기 선택된 객체가 삭제되거나 제 2 홈스크린 영상으로 이동되도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  26. 제 18 항에 있어서, 상기 제어부는,
    제 2 디스플레이부에서 한 홈스크린 영상이 선택될 때, 제 1 디스플레이부에서 상기 선택된 홈스크린 영상이 상기 출력 홈스크린 영상이 되어 디스플레이되도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  27. 제 18 항에 있어서, 상기 제어부는,
    제 2 디스플레이부에서 디스플레이되는 상기 홈스크린들의 배치가 조정될 때, 제 1 디스플레이부에서 상기 출력 홈스크린 영상으로서 상기 홈스크린들의 디스플레이 순서가 상기 조정된 배치에 따라 변하도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  28. 제 18 항에 있어서, 상기 제어부는,
    제 1 디스플레이부에서 상기 출력 홈스크린 영상이 줌인될 때, 제 2 디스플레이부에서 상기 출력 홈스크린 영상이 확대되도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  29. 제 21 항에 있어서,
    상기 출력 홈스크린 영상이 적어도 하나의 객체를 포함하고, 상기 제어부는,
    상기 객체가 선택되고 해당 어플리케이션이 실행되어 상기 실행된 애플리케이션 영상이 제 1 디스플레이부에 디스플레이될 때, 제 2 디스플레이부에서 상기 모니터 창에서 상기 출력 홈스크린 영상 대신에 상기 애플리케이션 영상이 디스플레이되도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  30. 제 29 항에 있어서, 상기 제어부는,
    상기 애플리케이션 영상이, 상기 출력 홈스크린 영상을 제외한 나머지 홈스크린 영상들과 함께 디스플레이되도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  31. 제 29 항에 있어서, 상기 제어부는,
    상기 모니터 창에서 상기 애플리케이션 영상이 디스플레이될 때, 상기 모니터 창에서 모든 홈스크린 영상들이 사라지도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  32. 제 23 항에 있어서,
    상기 출력 홈스크린 영상이 적어도 하나의 객체를 포함하고, 상기 제어부는,
    상기 객체가 선택되고 해당 어플리케이션이 실행되어 상기 실행된 애플리케이션 영상이 제 1 디스플레이부에 디스플레이될 때, 제 2 디스플레이부에서 상기 출력 홈스크린 영상을 디스플레이하고 있던 모니터 창에서 상기 출력 홈스크린 영상 대신에 상기 애플리케이션 영상이 디스플레이되도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  33. 제 32 항에 있어서, 상기 제어부는,
    상기 애플리케이션 영상이 디스플레이되는 모니터 창이, 상기 출력 홈스크린 영상을 제외한 나머지 홈스크린 영상들을 디스플레이하는 모니터 창들과 함께 디스플레이되도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  34. 제 32 항에 있어서, 상기 제어부는,
    상기 애플리케이션 영상이 디스플레이되는 모니터 창 이외의 나머지 모니터 창이 사라지도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  35. 이동단말기의 하우징의 일면에 배치되는 제 1 디스플레이부에서 제 1 홈스크린 영상 및 제 2 홈스크린 영상을 포함한 둘 이상의 홈스크린 영상들 중 하나를 출력 홈스크린 영상으로서 디스플레이하는 단계;
    상기 이동단말기가 제 2 디스플레이부를 구비하는 외부 디스플레이 장치와 연결되는 단계; 및
    상기 홈스크린 영상들 중 둘 이상의 영상들이 상기 외부 디스플레이 장치에 제공되어, 상기 제공된 홈스크린 영상들을 동시에 디스플레이하는 모니터 창이 제 2 디스플레이부에서 생성되도록 제어하는 단계;를 포함하는 이동단말기의 제어 방법.
  36. 제 1 홈스크린 영상 및 제 2 홈스크린 영상을 포함한 둘 이상의 홈스크린 영상들 중 하나를 출력 홈스크린 영상으로서 디스플레이하는 제 1 디스플레이부를 구비하는 이동단말기를, 제 2 디스플레이부를 구비하는 디스플레이 장치와 연결하는 단계; 및
    상기 홈스크린 영상들 중 둘 이상의 영상들이 상기 외부 이동단말기로부터 수신하여, 상기 수신된 홈스크린 영상들을 동시에 디스플레이하는 모니터 창이 제 2 디스플레이부에서 생성되도록 제어하는 단계;를 포함하는 디스플레이 장치의 제어 방법.
PCT/KR2010/006819 2010-10-06 2010-10-06 이동단말기, 디스플레이 장치 및 그 제어 방법 WO2012046890A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2010/006819 WO2012046890A1 (ko) 2010-10-06 2010-10-06 이동단말기, 디스플레이 장치 및 그 제어 방법
US13/010,618 US20120088548A1 (en) 2010-10-06 2011-01-20 Mobile terminal, display device and controlling method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2010/006819 WO2012046890A1 (ko) 2010-10-06 2010-10-06 이동단말기, 디스플레이 장치 및 그 제어 방법

Publications (1)

Publication Number Publication Date
WO2012046890A1 true WO2012046890A1 (ko) 2012-04-12

Family

ID=45925537

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2010/006819 WO2012046890A1 (ko) 2010-10-06 2010-10-06 이동단말기, 디스플레이 장치 및 그 제어 방법

Country Status (2)

Country Link
US (1) US20120088548A1 (ko)
WO (1) WO2012046890A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140119475A (ko) * 2013-04-01 2014-10-10 삼성전자주식회사 앱 운용 방법 및 앱 운용 장치와, 이를 지원하는 앱 출력 장치
WO2015190781A1 (ko) * 2014-06-11 2015-12-17 삼성전자 주식회사 사용자 단말 및 이의 제어 방법, 그리고 멀티미디어 시스템
RU2699236C2 (ru) * 2014-08-25 2019-09-04 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Телефонная панель

Families Citing this family (107)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9003426B2 (en) 2011-12-09 2015-04-07 Z124 Physical key secure peripheral interconnection
US8984440B2 (en) * 2010-10-01 2015-03-17 Z124 Managing expose views in dual display communication devices
US9507930B2 (en) 2003-04-25 2016-11-29 Z124 Physical key secure peripheral interconnection
US20130198867A1 (en) 2011-12-09 2013-08-01 Z124 A Docking Station for Portable Devices Providing Authorized Power Transfer and Facility Access
US8832585B2 (en) * 2009-09-25 2014-09-09 Apple Inc. Device, method, and graphical user interface for manipulating workspace views
US8634871B2 (en) * 2010-02-12 2014-01-21 Kyocera Corporation Mobile electronic device
KR101740436B1 (ko) * 2010-12-08 2017-05-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
WO2012102416A1 (en) * 2011-01-24 2012-08-02 Lg Electronics Inc. Data sharing between smart devices
US8781452B2 (en) 2011-02-21 2014-07-15 Motorola Mobility Llc Wireless devices and methods of operating wireless devices based on the presence of another person
JP5782810B2 (ja) 2011-04-22 2015-09-24 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20120272145A1 (en) * 2011-04-22 2012-10-25 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America Method for using radio presets as application shortcuts
US10198097B2 (en) 2011-04-26 2019-02-05 Sentons Inc. Detecting touch input force
US11327599B2 (en) 2011-04-26 2022-05-10 Sentons Inc. Identifying a contact type
US9189109B2 (en) 2012-07-18 2015-11-17 Sentons Inc. Detection of type of object used to provide a touch contact input
US9477350B2 (en) 2011-04-26 2016-10-25 Sentons Inc. Method and apparatus for active ultrasonic touch devices
US9639213B2 (en) 2011-04-26 2017-05-02 Sentons Inc. Using multiple signals to detect touch input
KR101554599B1 (ko) 2011-06-30 2015-09-21 주식회사 케이티 외부 디바이스와 도킹 연결되는 휴대 단말 및 어플리케이션 실행 방법
WO2013002547A2 (ko) 2011-06-30 2013-01-03 주식회사 케이티 외부 디바이스와 도킹되는 휴대 단말 및 그 제어 방법
US9417754B2 (en) * 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US9244491B2 (en) * 2011-08-31 2016-01-26 Z124 Smart dock for auxiliary devices
US9246353B2 (en) 2011-08-31 2016-01-26 Z124 Smart dock charging
US9383770B2 (en) 2011-08-31 2016-07-05 Z124 Mobile device that docks with multiple types of docks
US20130076653A1 (en) 2011-09-27 2013-03-28 Mohammed Selim Displaying of charging status on dual screen device
KR20130046482A (ko) * 2011-10-28 2013-05-08 삼성전자주식회사 기본 화면 제어 방법 및 이를 지원하는 단말기
US9099971B2 (en) 2011-11-18 2015-08-04 Sentons Inc. Virtual keyboard interaction using touch input force
US11262253B2 (en) 2017-08-14 2022-03-01 Sentons Inc. Touch input detection using a piezoresistive sensor
US10235004B1 (en) 2011-11-18 2019-03-19 Sentons Inc. Touch input detector with an integrated antenna
CN104169847B (zh) 2011-11-18 2019-03-12 森顿斯公司 局部触觉反馈
US9086840B2 (en) 2011-12-09 2015-07-21 Z124 RSID proximity peripheral interconnection
JP5978615B2 (ja) * 2011-12-16 2016-08-24 日本電気株式会社 設定システム及び方法
CN103999064A (zh) * 2011-12-22 2014-08-20 索尼公司 信息共享装置、信息共享方法、信息共享程序和终端装置
KR101474927B1 (ko) 2011-12-22 2014-12-31 주식회사 케이티 외부 디스플레이 기기로의 영상 송출 방법 및 그 단말
KR101522399B1 (ko) * 2011-12-23 2015-05-22 주식회사 케이티 휴대 단말에서 외부 디스플레이 기기로의 화면 표출 방법 및 그 휴대 단말
KR101546407B1 (ko) * 2011-12-23 2015-08-24 주식회사 케이티 어플리케이션 실행 제어 방법 및 장치
KR101522397B1 (ko) 2011-12-26 2015-05-22 주식회사 케이티 복수의 외부 장치와 연결될 수 있는 휴대 단말 및 그 제어 방법
KR101504655B1 (ko) 2011-12-26 2015-03-23 주식회사 케이티 어플리케이션 실행 제어 방법 및 장치
JP5928048B2 (ja) 2012-03-22 2016-06-01 ソニー株式会社 情報処理装置、情報処理方法、情報処理プログラムおよび端末装置
WO2013150637A1 (ja) * 2012-04-05 2013-10-10 パイオニア株式会社 端末装置、表示装置、キャリブレーション方法及びキャリブレーションプログラム
EP2648096A1 (en) * 2012-04-07 2013-10-09 Samsung Electronics Co., Ltd Method and system for controlling display device and computer-readable recording medium
KR101952682B1 (ko) * 2012-04-23 2019-02-27 엘지전자 주식회사 이동 단말기 및 그 제어방법
US20130335340A1 (en) * 2012-06-19 2013-12-19 International Business Machines Corporation Controlling display of images received from secondary display devices
TWI533197B (zh) * 2012-06-19 2016-05-11 緯創資通股份有限公司 影像輸出方法與電子裝置
US9743017B2 (en) * 2012-07-13 2017-08-22 Lattice Semiconductor Corporation Integrated mobile desktop
US9348468B2 (en) 2013-06-07 2016-05-24 Sentons Inc. Detecting multi-touch inputs
KR20140011857A (ko) * 2012-07-20 2014-01-29 삼성전자주식회사 이동 단말에서 디스플레이 장치의 디스플레이를 제어하기 위한 방법 및 이를 위한 이동 단말
KR101911803B1 (ko) * 2012-08-10 2018-10-26 삼성전자주식회사 휴대용 단말 장치 및 그 동작 방법
WO2014038918A1 (en) * 2012-09-10 2014-03-13 Samsung Electronics Co., Ltd. Method for connecting mobile terminal and external display and apparatus implementing the same
US20140075377A1 (en) 2012-09-10 2014-03-13 Samsung Electronics Co. Ltd. Method for connecting mobile terminal and external display and apparatus implementing the same
KR101936075B1 (ko) * 2012-09-21 2019-01-08 삼성전자주식회사 이동통신 단말기를 이용한 디스플레이 장치의 데이터 표시 방법 및 상기 장치들
US20140087714A1 (en) * 2012-09-26 2014-03-27 Tencent Technology (Shenzhen) Company Limited Device control method and apparatus
CN102929527A (zh) * 2012-09-27 2013-02-13 鸿富锦精密工业(深圳)有限公司 具有图片切换功能的装置及图片切换方法
US20150205396A1 (en) * 2012-10-19 2015-07-23 Mitsubishi Electric Corporation Information processing device, information terminal, information processing system and calibration method
KR20140057087A (ko) * 2012-11-02 2014-05-12 삼성전자주식회사 디바이스에 표시된 영상과 관련된 영상을 제공하는 시스템 및 방법
US9535720B2 (en) * 2012-11-13 2017-01-03 International Business Machines Corporation System for capturing and replaying screen gestures
EP4213001A1 (en) 2012-12-06 2023-07-19 Samsung Electronics Co., Ltd. Display device and method of controlling the same
US10282088B2 (en) 2012-12-06 2019-05-07 Samsung Electronics Co., Ltd. Configuration of application execution spaces and sub-spaces for sharing data on a mobile tough screen device
KR101822463B1 (ko) 2013-01-21 2018-01-26 삼성전자주식회사 복수 개의 아이콘들을 화면상에 배치하는 장치 및 이의 운용 방법
JP6092702B2 (ja) * 2013-04-25 2017-03-08 京セラ株式会社 通信端末、および情報送信方法
US9363570B2 (en) * 2013-05-15 2016-06-07 Lg Electronics Inc. Broadcast receiving apparatus for receiving a shared home screen
TW201447737A (zh) * 2013-06-13 2014-12-16 Compal Electronics Inc 顯示裝置操作方法及系統
KR102163684B1 (ko) * 2013-07-19 2020-10-12 삼성전자주식회사 디바이스의 홈 스크린 구성 방법 및 장치
US9229612B2 (en) * 2013-08-27 2016-01-05 Industrial Technology Research Institute Electronic device, controlling method for screen, and program storage medium thereof
KR20150025584A (ko) * 2013-08-29 2015-03-11 삼성전자주식회사 화면 공유 방법 및 그 전자 장치
KR102144553B1 (ko) * 2013-08-30 2020-08-13 삼성전자주식회사 다중 디스플레이 방법, 저장 매체 및 전자 장치
US9459715B1 (en) 2013-09-20 2016-10-04 Sentons Inc. Using spectral control in detecting touch input
KR102107404B1 (ko) * 2013-10-30 2020-05-07 삼성전자주식회사 어플리케이션을 공유하는 전자 장치 및 그 제어 방법
KR20150071252A (ko) * 2013-12-18 2015-06-26 삼성전자주식회사 전자장치에서 화면 구성 제어를 위한 방법 및 장치
US8856948B1 (en) * 2013-12-23 2014-10-07 Google Inc. Displaying private information on personal devices
US8811951B1 (en) 2014-01-07 2014-08-19 Google Inc. Managing display of private information
US10656784B2 (en) * 2014-06-16 2020-05-19 Samsung Electronics Co., Ltd. Method of arranging icon and electronic device supporting the same
US9880799B1 (en) * 2014-08-26 2018-01-30 Sprint Communications Company L.P. Extendable display screens of electronic devices
US10503459B2 (en) * 2014-10-10 2019-12-10 Samsung Electronics Co., Ltd. Method for sharing screen and electronic device thereof
KR102354769B1 (ko) 2014-10-29 2022-01-25 삼성전자주식회사 단말장치 및 그 제어 방법
US20160140629A1 (en) * 2014-11-18 2016-05-19 Solu Machines Oy Methods for computing devices
US10116748B2 (en) 2014-11-20 2018-10-30 Microsoft Technology Licensing, Llc Vehicle-based multi-modal interface
US10153996B2 (en) * 2014-12-23 2018-12-11 Facebook, Inc. Threaded conversation user interface
CN104679138A (zh) * 2014-12-26 2015-06-03 苏州佳世达电通有限公司 显示装置
US10073599B2 (en) 2015-01-07 2018-09-11 Microsoft Technology Licensing, Llc Automatic home screen determination based on display device
KR102364620B1 (ko) * 2015-01-26 2022-02-17 엘지전자 주식회사 영상표시장치, 및 그 동작방법
US20160216861A1 (en) * 2015-01-27 2016-07-28 I/O Interconnect Inc. Method for Changing Touch Control Function for Smartphone and Touchscreen Computer
JP6076428B1 (ja) * 2015-09-04 2017-02-08 Kddi株式会社 端末装置、画面構成方法、及びコンピュータプログラム
KR102410212B1 (ko) * 2015-09-18 2022-06-17 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US10048811B2 (en) 2015-09-18 2018-08-14 Sentons Inc. Detecting touch input provided by signal transmitting stylus
CN105327507B (zh) * 2015-10-26 2019-06-07 网易(杭州)网络有限公司 一种切换游戏对象的方法及装置
CN105516781A (zh) * 2015-12-09 2016-04-20 小米科技有限责任公司 应用程序排布方法及装置
KR102482549B1 (ko) * 2016-01-11 2022-12-28 엘지전자 주식회사 영상표시장치
JP6699279B2 (ja) * 2016-03-23 2020-05-27 セイコーエプソン株式会社 デバイスの支援方法、表示機器の支援システム及び電子機器
KR102542122B1 (ko) * 2016-04-01 2023-06-09 엘지전자 주식회사 영상표시장치
CN107329927A (zh) * 2016-04-28 2017-11-07 富泰华工业(深圳)有限公司 一种数据共享系统及方法
US10908741B2 (en) 2016-11-10 2021-02-02 Sentons Inc. Touch input detection along device sidewall
US10296144B2 (en) 2016-12-12 2019-05-21 Sentons Inc. Touch input detection with shared receivers
US10126877B1 (en) 2017-02-01 2018-11-13 Sentons Inc. Update of reference data for touch input detection
US10585522B2 (en) 2017-02-27 2020-03-10 Sentons Inc. Detection of non-touch inputs using a signature
US10311249B2 (en) 2017-03-31 2019-06-04 Google Llc Selectively obscuring private information based on contextual information
US11093197B2 (en) * 2017-07-31 2021-08-17 Stmicroelectronics, Inc. System and method to increase display area utilizing a plurality of discrete displays
US11580829B2 (en) 2017-08-14 2023-02-14 Sentons Inc. Dynamic feedback for haptics
CN115629730A (zh) * 2019-07-23 2023-01-20 华为技术有限公司 显示方法及相关装置
CN110673782B (zh) * 2019-08-29 2022-11-29 荣耀终端有限公司 一种应用于投屏场景的控制方法以及相关设备
WO2021049685A1 (ko) * 2019-09-11 2021-03-18 엘지전자 주식회사 홈스크린을 설정하는 이동 단말기 및 그 제어 방법
CN112584206B (zh) * 2019-09-30 2023-05-16 广州视源电子科技股份有限公司 一种课件的显示方法、系统、设备与存储介质
CN112584207B (zh) * 2019-09-30 2023-05-30 广州视源电子科技股份有限公司 一种视频信号的处理方法、系统、设备和存储介质
ES2850280A1 (es) * 2020-02-26 2021-08-26 Univ Vigo Procedimiento y sistema para mejorar la experiencia de usuario utilizando capacidades de un dispositivo electrónico diferente
KR20220017075A (ko) 2020-08-04 2022-02-11 삼성전자주식회사 홈 화면을 복원하는 방법 및 이를 적용한 전자 장치
KR20220017193A (ko) * 2020-08-04 2022-02-11 삼성전자주식회사 전자 장치 및 전자 장치가 외부 장치 디스플레이 상에 어플리케이션 화면을 제공하는 방법
CN114077411A (zh) * 2020-08-11 2022-02-22 华为技术有限公司 数据传输方法和设备
CN114237779A (zh) * 2020-09-09 2022-03-25 华为技术有限公司 一种显示窗口的方法、切换窗口的方法、电子设备和系统
CN113064543B (zh) * 2021-04-06 2022-09-13 广州视源电子科技股份有限公司 拼接屏的信号处理方法、系统、装置和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050064554A (ko) * 2003-12-24 2005-06-29 조두희 휴대폰 시연 키오스크장치
KR20060048379A (ko) * 2004-10-12 2006-05-18 삼성전자주식회사 무선 표시 장치 및 그 장치의 데이터 교환 방법
KR20080018396A (ko) * 2006-08-24 2008-02-28 한국문화콘텐츠진흥원 이동통신 단말기의 디스플레이 정보를 외부 디스플레이장치에서 디스플레이하기 위한 모바일 애플리케이션 및pc 애플리케이션을 기록한 컴퓨터 판독 가능 기록매체

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060077165A1 (en) * 2004-10-12 2006-04-13 Samsung Electronics Co., Ltd. Wireless LCD device for displaying images received from a mobile communication terminal and an operation method thereof
US8106856B2 (en) * 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
CA2621744C (en) * 2007-09-13 2016-10-04 Research In Motion Limited System and method for interfacing between a mobile device and a personal computer
WO2010048539A1 (en) * 2008-10-26 2010-04-29 Citrix Systems, Inc. Panning a native display on a mobile computing device to a window, interpreting a gesture-based instruction to scroll contents of the window, and wrapping text on the window
US8914462B2 (en) * 2009-04-14 2014-12-16 Lg Electronics Inc. Terminal and controlling method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050064554A (ko) * 2003-12-24 2005-06-29 조두희 휴대폰 시연 키오스크장치
KR20060048379A (ko) * 2004-10-12 2006-05-18 삼성전자주식회사 무선 표시 장치 및 그 장치의 데이터 교환 방법
KR20080018396A (ko) * 2006-08-24 2008-02-28 한국문화콘텐츠진흥원 이동통신 단말기의 디스플레이 정보를 외부 디스플레이장치에서 디스플레이하기 위한 모바일 애플리케이션 및pc 애플리케이션을 기록한 컴퓨터 판독 가능 기록매체

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140119475A (ko) * 2013-04-01 2014-10-10 삼성전자주식회사 앱 운용 방법 및 앱 운용 장치와, 이를 지원하는 앱 출력 장치
KR102043049B1 (ko) * 2013-04-01 2019-11-11 삼성전자 주식회사 앱 운용 방법 및 앱 운용 장치와, 이를 지원하는 앱 출력 장치
WO2015190781A1 (ko) * 2014-06-11 2015-12-17 삼성전자 주식회사 사용자 단말 및 이의 제어 방법, 그리고 멀티미디어 시스템
RU2699236C2 (ru) * 2014-08-25 2019-09-04 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Телефонная панель

Also Published As

Publication number Publication date
US20120088548A1 (en) 2012-04-12

Similar Documents

Publication Publication Date Title
WO2012046890A1 (ko) 이동단말기, 디스플레이 장치 및 그 제어 방법
WO2012020866A1 (ko) 이동단말기, 디스플레이 장치 및 그 제어 방법
WO2012020868A1 (ko) 이동단말기, 디스플레이 장치 및 그 제어 방법
WO2015053445A1 (en) Foldable mobile device and method of controlling the same
WO2012020863A1 (ko) 이동단말기, 디스플레이 장치 및 그 제어 방법
WO2012020864A1 (ko) 이동단말기, 디스플레이 장치 및 그 제어 방법
WO2012020865A1 (ko) 이동단말기, 디스플레이 장치 및 그 제어 방법
WO2018151522A1 (ko) 화면을 공유하기 위한 전자 장치 및 방법
WO2016104922A1 (ko) 웨어러블 전자기기
WO2018034402A1 (en) Mobile terminal and method for controlling the same
WO2015122590A1 (en) Electronic device and method for controlling the same
WO2016111555A2 (en) Bendable user terminal device and method for displaying thereof
WO2017095040A1 (en) User terminal device and displaying method thereof
WO2015167165A1 (en) Method and electronic device for managing display objects
WO2014157885A1 (en) Method and device for providing menu interface
WO2017082508A1 (ko) 와치형 단말기 및 그 제어방법
WO2012008628A1 (ko) 이동단말기 및 그 대기화면 구성방법
WO2012043932A1 (ko) 키보드 제어 장치 및 그 방법
WO2015088166A1 (ko) 이동 단말기 및 그의 후면 입력부 운용방법
WO2017003018A1 (ko) 이동 단말기 및 그 제어 방법
WO2015020284A1 (ko) 이동 단말기 및 그것의 제어방법
WO2015199270A1 (ko) 이동 단말기 및 그 제어방법
WO2016032045A1 (ko) 이동 단말기 및 이의 제어 방법
WO2015199280A1 (en) Mobile terminal and method of controlling the same
WO2017086576A1 (en) Mobile terminal and method for controlling the same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10858166

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10858166

Country of ref document: EP

Kind code of ref document: A1