WO2012020866A1 - 이동단말기, 디스플레이 장치 및 그 제어 방법 - Google Patents

이동단말기, 디스플레이 장치 및 그 제어 방법 Download PDF

Info

Publication number
WO2012020866A1
WO2012020866A1 PCT/KR2010/005341 KR2010005341W WO2012020866A1 WO 2012020866 A1 WO2012020866 A1 WO 2012020866A1 KR 2010005341 W KR2010005341 W KR 2010005341W WO 2012020866 A1 WO2012020866 A1 WO 2012020866A1
Authority
WO
WIPO (PCT)
Prior art keywords
screen image
display
mobile terminal
display unit
unit
Prior art date
Application number
PCT/KR2010/005341
Other languages
English (en)
French (fr)
Inventor
이병욱
김응창
황정섭
장강원
이종성
윤찬필
송응규
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020137006349A priority Critical patent/KR101701859B1/ko
Priority to EP15193752.1A priority patent/EP3021191B1/en
Priority to PCT/KR2010/005341 priority patent/WO2012020866A1/ko
Priority to EP10855933.7A priority patent/EP2605413B1/en
Priority to CN201080069604.1A priority patent/CN103155425B/zh
Priority to US13/149,096 priority patent/US9122392B2/en
Publication of WO2012020866A1 publication Critical patent/WO2012020866A1/ko
Priority to US14/802,774 priority patent/US9542726B2/en
Priority to US14/878,775 priority patent/US9576339B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/60Rotation of a whole image or part thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2092Details of a display terminals using a flat panel, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0492Change of orientation of the displayed image, e.g. upside-down, mirrored
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • G09G2370/042Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller for monitor identification
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/16Use of wireless transmission of display information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Definitions

  • the present invention relates to a mobile terminal, a display device, and a method of controlling the same, which allow data communication between the mobile terminal and the display device when the mobile terminal and the display device are connected to each other, thereby further considering user convenience.
  • Terminal can move It may be divided into a mobile terminal (mobile / portable terminal) and a stationary terminal depending on whether or not.
  • the mobile terminal may be further classified into a handheld terminal and a vehicle mount terminal according to whether a user can directly carry it.
  • such a terminal is a multimedia player having a complex function such as taking a picture or a video, playing a music or video file, playing a game, or receiving a broadcast. Is being implemented.
  • the mobile terminal can be connected to a display device such as a notebook computer, a tablet computer, a personal computer, a television, or the like by wire or wirelessly to perform mutual data communication.
  • a display device such as a notebook computer, a tablet computer, a personal computer, a television, or the like.
  • the present invention has been proposed to meet the above-mentioned necessity.
  • information on data communication between the mobile terminal and the display device may be used for convenience of a terminal user in the mobile terminal and the display device. It is an object of the present invention to provide a mobile terminal, a display device, and a method of controlling the same.
  • the present invention provides a housing, a sensor unit for sensing an orientation direction of the housing, a first display unit disposed on one surface of the housing and displaying a first screen image, and a second display unit.
  • An interface unit for connecting to an external display device, and information of a first screen image is provided to the external display device, so that a monitor window displaying a second screen image corresponding to the first screen image is generated on the second display unit.
  • the sensing direction of the housing is provided to the external display device, and provides a mobile terminal including a control unit for controlling to display the monitor window in accordance with the alignment direction in the second display unit.
  • the interface unit for connecting to an external mobile terminal having a first display unit for displaying a first screen image, the second display unit, and the information of the first screen image to the external A monitor window for receiving from the mobile terminal and displaying a second screen image corresponding to the first screen image is controlled to be generated in the second display unit, and receives an orientation direction of the housing from the mobile terminal to receive the orientation direction of the housing. And a control unit for controlling the monitor window to be displayed according to the alignment direction.
  • the first screen image is displayed on the first display unit disposed on one surface of the housing of the mobile terminal
  • the mobile terminal is connected to an external display device having a second display unit Controlling the display unit to display the information of the first screen image to the external display device, to generate a monitor window displaying the second screen image corresponding to the first screen image in the second display unit, and And controlling the monitor window to be displayed according to the alignment direction in the second display unit by sensing an orientation direction and providing the sensed orientation direction of the housing to the external display device.
  • the first display unit for displaying a first screen image, an interface unit for connecting to an external display device having a second display unit, and the information of the first screen image is the external
  • a second display unit provided to the display device to control a monitor window for displaying a second screen image corresponding to the first screen image to be generated in the second display unit, and when the first screen image is zoomed in on the first display unit; Provides a mobile terminal including a control unit for controlling to enlarge the monitor window.
  • a monitor window for receiving a second screen image corresponding to the first screen image received from the mobile terminal is controlled to be generated on the second display unit, and when the first screen image is zoomed in on the first display unit, the second display unit Provides a display device including a control unit for controlling to enlarge the monitor window.
  • the first screen image is displayed on the first display unit disposed on one surface of the housing of the mobile terminal, the mobile terminal is connected to an external display device having a second display unit And controlling the display window to display the second screen image corresponding to the first screen image to be generated in the second display unit.
  • the control unit provides a control method of the mobile terminal comprising the step of controlling the monitor window to be enlarged in the second display unit.
  • the first display unit for displaying a first screen image, an interface unit for connecting to an external display device having a second display unit, and the information of the first screen image is the external
  • a monitor window provided on the display device to display a second screen image corresponding to the first screen image to be generated on the second display unit, and when the monitor window is enlarged on the second display unit, the second screen image is zoomed out It provides a mobile terminal comprising a control unit for controlling to.
  • the first display unit for displaying a first screen image, an interface unit for connecting to an external display device having a second display unit, and the information of the first screen image is the external
  • a monitor window provided on the display device to display a second screen image corresponding to the first screen image to be generated on the second display unit, and when the monitor window is enlarged on the second display unit, the second screen image is zoomed out It provides a display device including a control unit for controlling to.
  • the first screen image is displayed on the first display unit disposed on one surface of the housing of the mobile terminal, the mobile terminal is connected to an external display device having a second display unit And providing information on a first screen image to the external display device, controlling a monitor window displaying a second screen image corresponding to the first screen image to be generated in the second display unit, and a second display.
  • the control unit provides a control method of a mobile terminal, including controlling the second screen image to be zoomed out when the monitor window is enlarged.
  • a control window received from the external mobile terminal to display a second screen image corresponding to the first screen image to be generated on the second display unit, and when the monitor window is enlarged on the second display unit It provides a control method of a display device comprising the step of controlling the screen image to be zoomed out.
  • the terminal user when the mobile terminal and the display device are connected to each other so that a monitor window associated with the display of the mobile terminal is displayed on the display device, the terminal user may be further configured as needed.
  • the orientation direction of the monitor window can be easily switched by switching the orientation direction of the housing.
  • the monitor window associated with the display of the mobile terminal when the monitor window associated with the display of the mobile terminal is displayed on the display device, the monitor window is displayed so as not to obscure an object previously displayed on the display device. It is advantageous in that the monitor window obscures the existing object so as to prevent inconvenience caused to the terminal user.
  • zooming in or out of the display of the mobile terminal zooming in (or enlarging) or zooming out (or reducing) of the display in the monitor window, and enlarging and reducing the monitor window itself are performed.
  • zooming in (or enlarging) or zooming out (or reducing) of the display in the monitor window are performed.
  • FIG. 1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
  • FIG. 2 is a block diagram of a display device related to an embodiment of the present invention.
  • FIG. 3 illustrates a mobile terminal and a display device interconnected so that embodiments related to the present invention can be implemented.
  • FIG. 4 is a flowchart for implementing an embodiment related to the present invention.
  • FIG 5 illustrates a screen of a display unit of the display device, according to an embodiment of the present invention.
  • FIG. 6 and 7 illustrate screens of a front surface of the mobile terminal and a display unit of the display device in which an embodiment related to the present invention is implemented.
  • FIG. 8 illustrates a screen of a display unit of the display device in which an embodiment related to the present invention is implemented.
  • FIGS. 9 and 10 illustrate screens of a front surface of the mobile terminal and a display unit of the display device in which an embodiment related to the present invention is implemented.
  • FIG. 11 is a flowchart for implementing an embodiment related to the present invention.
  • FIG. 12 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device in which an embodiment related to the present invention is implemented.
  • FIG. 13 is a flowchart for implementing an embodiment related to the present invention.
  • FIG. 14 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device in which an embodiment related to the present invention is implemented.
  • 15 is a flowchart for implementing an embodiment related to the present invention.
  • FIG. 16 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device, according to an embodiment of the present invention.
  • 17 is a flowchart for implementing an embodiment related to the present invention.
  • FIG. 18 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device in which an embodiment related to the present invention is implemented.
  • 19 is a flowchart for implementing an embodiment related to the present invention.
  • FIG. 20 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device in which an embodiment related to the present invention is implemented.
  • 21 is a flowchart for implementing an embodiment related to the present invention.
  • FIG. 22 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device in which an embodiment related to the present invention is implemented.
  • FIG. 24 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device, according to an embodiment of the present invention.
  • 25 is a flowchart for implementing an embodiment related to the present invention.
  • FIG. 26 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device, according to an embodiment of the present invention.
  • 27 is a flowchart for implementing an embodiment related to the present invention.
  • FIG. 28 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device, according to an embodiment of the present invention.
  • 29 is a flowchart for implementing an embodiment related to the present invention.
  • FIG. 30 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device, according to an embodiment of the present invention.
  • 31 is a flowchart for implementing an embodiment related to the present invention.
  • FIG. 32 illustrates a screen of a front surface of the mobile terminal and a display unit of the display device in which an embodiment related to the present invention is implemented.
  • the mobile terminal described herein may include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), navigation, and the like.
  • PDA personal digital assistant
  • PMP portable multimedia player
  • FIG. 1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
  • the mobile terminal 100 includes a wireless communication unit 110, an A / V input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, a memory 160, and an interface.
  • the unit 170, the controller 180, and the power supply unit 190 may be included.
  • the components shown in FIG. 1 are not essential, so that a mobile terminal having more or fewer components may be implemented.
  • the wireless communication unit 110 may include one or more modules that enable wireless communication between the mobile terminal 100 and the wireless communication system or between the mobile terminal 100 and a network in which the mobile terminal 100 is located.
  • the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless internet module 113, a short range communication module 114, a location information module 115, and the like. .
  • the broadcast receiving module 111 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel.
  • the broadcast channel may include a satellite channel and a terrestrial channel.
  • the broadcast management server may mean a server that generates and transmits a broadcast signal and / or broadcast related information or a server that receives a previously generated broadcast signal and / or broadcast related information and transmits the same to a terminal.
  • the broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal.
  • the broadcast associated information refers to information related to a broadcast channel, a broadcast program, or a broadcast service provider.
  • the broadcast related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112.
  • the mobile communication module 112 may include at least one of a base station, an external terminal, and a server on a mobile communication network such as but not limited to Gobal System for Mobile communications (GSM), Code Division Multiple Access (CDMA), and Wideband CDMA (WCDMA). Send and receive wireless signals with one.
  • the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.
  • the wireless internet module 113 refers to a module for wireless internet access and may be embedded or external to the mobile terminal 100.
  • Wireless Internet technologies include Wireless LAN (Wi-Fi), Wireless Broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), GSM, CDMA, WCDMA, Long Term Evolution), but is not limited to such.
  • the wireless Internet module 113 for performing a wireless Internet access through the mobile communication network is the mobile communication module. It can be understood as a kind of (112).
  • the short range communication module 114 refers to a module for short range communication.
  • Bluetooth Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like may be used.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee ZigBee
  • the location information module 115 is a module for obtaining a location of a mobile terminal, and a representative example thereof is a GPS (Global Position System) module.
  • the GPS module 115 calculates distance information and accurate time information away from three or more satellites, and then applies trigonometric methods to the calculated information, thereby providing three-dimensional chords according to latitude, longitude, and altitude.
  • the location information can be calculated accurately.
  • a method of calculating position and time information using three satellites and correcting the error of the calculated position and time information using another satellite is widely used.
  • the GPS module 115 may calculate speed information by continuously calculating the current position in real time.
  • the A / V input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122.
  • the camera 121 processes image frames such as still images or moving images obtained by the image sensor in the video call mode or the photographing mode.
  • the processed image frame may be displayed on the display unit 151.
  • the image frame processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. Two or more cameras 121 may be provided according to the use environment.
  • the microphone 122 receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, etc., and processes the external sound signal into electrical voice data.
  • the processed voice data may be converted into a form transmittable to the mobile communication base station through the mobile communication module 112 and output in the call mode.
  • the microphone 122 may implement various noise removing algorithms for removing noise generated in the process of receiving an external sound signal.
  • the user input unit 130 generates input data for the user to control the operation of the terminal.
  • the user input unit 130 may include a key pad, a dome switch, a touch pad (constant voltage / capacitance), a jog wheel, a jog switch, and the like.
  • the sensing unit 140 detects a current state of the mobile terminal 100 such as an open / closed state of the mobile terminal 100, a location of the mobile terminal 100, presence or absence of a user contact, orientation of the mobile terminal, acceleration / deceleration of the mobile terminal, and the like. To generate a sensing signal for controlling the operation of the mobile terminal 100.
  • Examples of the sensing unit 140 may include a gyroscope sensor, an acceleration sensor, a geomagnetic sensor, and the like.
  • the sensing unit 140 may include a proximity sensor 141. This will be described later with reference to the touch screen.
  • the output unit 150 is used to generate an output related to visual, auditory or tactile senses, which includes a display unit 151, an audio output module 152, an alarm unit 153, a haptic module 154, and a projector module ( 155) may be included.
  • the display unit 151 displays (outputs) information processed by the mobile terminal 100. For example, when the mobile terminal is in a call mode, the mobile terminal displays a user interface (UI) or a graphic user interface (GUI) related to the call. When the mobile terminal 100 is in a video call mode or a photographing mode, the mobile terminal 100 displays a photographed and / or received image, UI, or GUI.
  • UI user interface
  • GUI graphic user interface
  • the display unit 151 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display (flexible). and at least one of a 3D display.
  • LCD liquid crystal display
  • TFT LCD thin film transistor-liquid crystal display
  • OLED organic light-emitting diode
  • flexible display flexible display
  • Some of these displays can be configured to be transparent or light transmissive so that they can be seen from the outside. This may be referred to as a transparent display.
  • a representative example of the transparent display is TOLED (Transparant OLED).
  • the rear structure of the display unit 151 may also be configured as a light transmissive structure. With this structure, the user can see the object located behind the terminal body through the area occupied by the display unit 151 of the terminal body.
  • a plurality of display units may be spaced apart or integrally disposed on one surface of the mobile terminal 100, or may be disposed on different surfaces, respectively.
  • the display unit 151 and a sensor for detecting a touch operation form a mutual layer structure (hereinafter, referred to as a touch screen)
  • the display unit 151 may be configured in addition to an output device. Can also be used as an input device.
  • the touch sensor may have, for example, a form of a touch film, a touch sheet, a touch pad, or the like.
  • the touch sensor may be configured to convert a change in pressure applied to a specific portion of the display unit 151 or capacitance generated in a specific portion of the display unit 151 into an electrical input signal.
  • the touch sensor may be configured to detect not only the position and area of the touch but also the pressure at the touch.
  • the corresponding signal (s) is sent to a touch controller (not shown).
  • the touch controller processes the signal (s) and then transmits the corresponding data to the controller 180.
  • the controller 180 can know which area of the display unit 151 is touched.
  • the proximity sensor 141 may be disposed in an inner region of the mobile terminal surrounded by the touch screen or near the touch screen.
  • the proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using a mechanical contact by using an electromagnetic force or infrared rays.
  • Proximity sensors have a longer life and higher utilization than touch sensors.
  • the proximity sensor examples include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.
  • the touch screen is capacitive, the touch screen is configured to detect the proximity of the pointer by the change of the electric field according to the proximity of the pointer.
  • the touch screen may be classified as a proximity sensor.
  • the proximity sensor detects a proximity touch and a proximity touch pattern (for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state).
  • a proximity touch and a proximity touch pattern for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state.
  • Information corresponding to the sensed proximity touch operation and proximity touch pattern may be output on the touch screen.
  • the sound output module 152 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like.
  • the sound output module 152 may also output a sound signal related to a function (eg, a call signal reception sound, a message reception sound, etc.) performed in the mobile terminal 100.
  • the sound output module 152 may include a receiver, a speaker, a buzzer, and the like.
  • the alarm unit 153 outputs a signal for notifying occurrence of an event of the mobile terminal 100. Examples of events occurring in the mobile terminal include call signal reception, message reception, key signal input, and touch input.
  • the alarm unit 153 may output a signal for notifying occurrence of an event in a form other than a video signal or an audio signal, for example, vibration. Since the video signal or the audio signal may be output through the display unit 151 or the audio output module 152, in this case, the display unit 151 and the audio output module 152 are a kind of alarm unit 153. It may be classified as.
  • the haptic module 154 generates various haptic effects that a user can feel. Vibration is a representative example of the haptic effect generated by the haptic module 154.
  • the intensity and pattern of vibration generated by the haptic module 154 can be controlled. For example, different vibrations may be synthesized and output or may be sequentially output.
  • the memory unit 160 may store a program for processing and controlling the controller 180, and temporarily stores input / output data (for example, a phone book, a message, an audio, a still image, a video, etc.). It can also perform a function for.
  • the memory unit 160 may store a frequency of use of each of the data (eg, a phone number, a message, and a frequency of use of each multimedia).
  • the memory unit 160 may store data regarding vibration and sound of various patterns output when a touch input on the touch screen is performed.
  • the memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), RAM (Random Access Memory, RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), Magnetic Memory, Magnetic It may include a storage medium of at least one type of disk, optical disk.
  • the mobile terminal 100 may operate in connection with a web storage that performs a storage function of the memory 160 on the Internet.
  • the interface unit 170 serves as a path with all external devices connected to the mobile terminal 100.
  • the interface unit 170 receives data from an external device, receives power, transfers the power to each component inside the mobile terminal 100, or transmits data inside the mobile terminal 100 to an external device.
  • wired / wireless headset ports, external charger ports, wired / wireless data ports, memory card ports, ports for connecting devices with identification modules, audio input / output (I / O) ports, The video input / output (I / O) port, the earphone port, and the like may be included in the interface unit 170.
  • the wireless internet module 113 and the short-range communication module 114 may be used as the wireless data port, they may be understood as a kind of the interface unit 170.
  • the identification module is a chip that stores various types of information for authenticating the usage rights of the mobile terminal 100, and includes a user identification module (UIM), a subscriber identify module (SIM), and a universal user authentication module ( Universal Subscriber Identity Module (USIM), and the like.
  • a device equipped with an identification module (hereinafter referred to as an 'identification device') may be manufactured in the form of a smart card. Therefore, the identification device may be connected to the terminal 100 through a port.
  • the interface unit may be a passage through which power from the cradle is supplied to the mobile terminal 100 when the mobile terminal 100 is connected to an external cradle, or various command signals input from the cradle by a user may be transferred. It may be a passage that is delivered to the terminal. Various command signals or power input from the cradle may be operated as signals for recognizing that the mobile terminal is correctly mounted on the cradle.
  • the controller 180 typically controls the overall operation of the mobile terminal. For example, perform related control and processing for voice calls, data communications, video calls, and the like.
  • the controller 180 may include a multimedia module 181 for playing multimedia.
  • the multimedia module 181 may be implemented in the controller 180 or may be implemented separately from the controller 180.
  • the controller 180 may perform a pattern recognition process for recognizing a writing input or a drawing input performed on the touch screen as text and an image, respectively.
  • the power supply unit 190 receives an external power source and an internal power source under the control of the controller 180 to supply power for operation of each component.
  • Various embodiments described herein may be implemented in a recording medium readable by a computer or similar device using, for example, software, hardware or a combination thereof.
  • the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and the like. It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions. The described embodiments may be implemented by the controller 180 itself.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • embodiments such as the procedures and functions described herein may be implemented as separate software modules.
  • Each of the software modules may perform one or more functions and operations described herein.
  • Software code may be implemented in software applications written in a suitable programming language. The software code may be stored in the memory 160 and executed by the controller 180.
  • the display device described herein is not limited as long as it is connected to the mobile terminal and can receive and display information related to the display of the mobile terminal.
  • Examples of the display device may include, but are not limited to, a laptop computer, a tablet computer, a desktop computer, a television (eg, a digital TV or a smart TV), and the like.
  • FIG. 2 is a block diagram of a display device related to an embodiment of the present invention.
  • the display apparatus 200 may include a wireless communication unit 210, an A / V input unit 220, a user input unit 230, an output unit 250, a memory 260, an interface unit 270, and a controller. 280, a power supply unit 290, and the like.
  • the wireless communication unit 210 may include a wireless internet module 213 and a short range communication module 214.
  • the output unit 250 may include a display unit 251 and a sound output module 253.
  • the components of the display apparatus 200 are the same as or substantially similar to each corresponding component of the mobile terminal 100 described above with reference to FIG. 1. Therefore, detailed description thereof will be omitted for the sake of brevity of the present specification.
  • FIG. 2 Not all of the components shown in FIG. 2 are essential, and thus a display apparatus having more or fewer components may be implemented.
  • a broadcast receiving module may be further provided.
  • the wireless internet module may not be provided as necessary (or may be provided). Since the broadcast receiving module is also the same as or substantially similar to the broadcast receiving module 111 of the mobile terminal 100 described above with reference to FIG. 1, a detailed description thereof will be omitted for simplicity of the present specification.
  • FIG. 3 illustrates a mobile terminal and a display device interconnected so that embodiments related to the present invention can be implemented.
  • the mobile terminal 100 and the display apparatus 200 may be connected to each other through the interface unit 170 of the mobile terminal 100 and the interface unit 270 of the display apparatus 200.
  • the connection between the mobile terminal 100 and the display apparatus 200 may be connected by wired communication, or may be connected by wireless communication (for example, short range communication or wireless internet communication).
  • FIG 3 illustrates a state in which the mobile terminal 100 and the display apparatus 200 are connected to each other.
  • a prefix “first” is used in front of the components corresponding to the mobile terminal 100.
  • the prefix “second” will be used.
  • the display unit 151 and the controller 180 of the mobile terminal 100 are referred to as a first display unit 151 and a first control unit 180, respectively, and the display unit of the display apparatus 200 is used.
  • 251 and the controller 280 will be referred to as a second display unit 251 and a second control unit 280, respectively.
  • the image displayed on the first display unit 151 will be referred to as a first screen image 300.
  • the mobile terminal 100 When a connection is made between the mobile terminal 100 and the display apparatus 200, the mobile terminal 100 displays information regarding a first screen image displayed on the first display unit 151, the display apparatus 200. Can be provided as
  • the display apparatus 200 may be pre-installed with an application for processing information about the first screen image received from the mobile terminal 100.
  • the second control unit 280 of the display apparatus 200 displays the second monitor window 400 for the first screen image. It may be controlled to be displayed on the display unit 251.
  • the second control unit 280 of the display apparatus 200 controls to display an image corresponding to the first screen image on the monitor window 400.
  • an image displayed on the monitor window 400 will be referred to as a second screen image 500 to distinguish it from the first screen image 300 of the mobile terminal.
  • the monitor window 400 may have the same or similar shape as one surface of a housing on which the first display unit 151 of the mobile terminal 100 is mounted. . Therefore, when the predetermined key button 130 is disposed on one surface of the housing, the soft key button 430 having the same shape as the predetermined key button may be formed at the corresponding position in the monitor window 400.
  • the display The second control unit 280 of the device 200 may send a control signal to the mobile terminal 100 indicating that the soft key button 430 has been operated on the display device 200.
  • the first controller 180 of the mobile terminal 100 receives the control signal, so that a specific function corresponding to the operation of the predetermined key button 130 corresponding to the operated soft key button 430 is provided. It can be controlled to be executed in the mobile terminal 100.
  • the first controller 180 of the mobile terminal 100 may control the image according to the executed specific function to be displayed as the first screen image 300 on the first display unit 151. In addition, the first controller 180 of the mobile terminal 100 may transmit information about the first screen image 300 to the display apparatus 200.
  • the second controller 180 of the display apparatus 200 may control to display the second screen image 500 corresponding to the transmitted first screen image 300 on the monitor window 400. .
  • a user may indirectly manipulate the mobile terminal 100 by manipulating the monitor window 400 of the display apparatus even if the user does not directly operate the mobile terminal 100, and the indirectly operated mobile terminal 100.
  • the first screen image 300 of 100 may be viewed through the second screen image 500 of the display apparatus 200.
  • the monitor window 400 does not necessarily have the same or similar shape as one surface of a housing on which the first display unit 151 of the mobile terminal 100 is mounted.
  • the monitor window 400 may further include other icons (for example, a window closing icon, a window minimizing icon, a window maximizing icon, etc.) (not shown) in addition to the shape of one surface of the housing. .
  • only the second screen image 500 may be displayed on the monitor window 400 without the shape of one surface of the housing.
  • the display apparatus 200 receives information about the first screen image 300 from the mobile terminal 100 and displays the information about the first screen image 300 in the monitor window 400 as the second screen image 500. Accordingly, the first screen image 300 and the second screen image 500 may share a content image generated by the mobile terminal 100.
  • the content image generated by the mobile terminal 100 is a standby image, but the present invention is not limited thereto.
  • the content image generated by the mobile terminal 100 includes an image related to all functions, menus, or applications executed in the mobile terminal.
  • the mobile terminal 100 will be described in more detail for providing the display apparatus 200 with information about the first screen image.
  • the first controller 180 of the mobile terminal 100 captures the first screen image 300 displayed on the first display unit 180 and displays the first screen image 300 as information on the first screen image 300 described above. May transmit to the device 200.
  • the second control unit 280 of the display apparatus 200 receives the transmitted captured first screen image 300 and controls it to be displayed on the monitor window 400 as a second screen image 500. can do.
  • the first screen image 300 and the second screen image 500 may be dependent on each other, for example, in zooming in and out. That is, when the first screen image 300 is zoomed in or out, the second screen image may be zoomed in or out accordingly.
  • the first screen image 300 and the second screen image 500 may be dependent on each other even in the contents thereof.
  • the first controller 180 of the mobile terminal 100 may also transmit an image signal input to the first display unit 151 to the display apparatus 200 as information about the first screen image 300.
  • the first display unit 151 of the mobile terminal 100 may output the image signal as the first screen image 300.
  • the second controller 280 of the display apparatus 200 may receive the transmitted image signal and output the second image as the second screen image 500 from the monitor window 400 of the second display unit 251. have. That is, the first display unit 151 and the second display unit 251 may share the image signal output by the first control unit 180.
  • the video signal will be referred to as a "shared video signal.”
  • the first screen image 300 and the second screen image 500 may be dependent on each other, for example, in zooming in and out. That is, when the first screen image 300 is zoomed in or out, the second screen image may be zoomed in or out accordingly.
  • the first screen image 300 and the second screen image 500 may be dependent on each other even in the contents thereof.
  • the first controller 180 of the mobile terminal 100 generates a first video signal related to a specific content video generated by the mobile terminal 100 and a second video signal independent of the first video signal.
  • the first image may be input to the display unit 151 and the second image signal may be transmitted to the display apparatus 200 as information about the first screen image.
  • the first display unit 151 of the mobile terminal 100 may output the first image signal as the first screen image 300.
  • the second control unit 280 of the display apparatus 200 receives the transmitted second image signal and outputs the second screen image 500 from the monitor window 400 of the second display unit 251. can do. Since the first image signal and the second image signal are provided to the first display unit 151 and the second display unit 251 independently of each other, the first image signal and the second image signal are different from the shared image signal. Remember to be distinguished.
  • the first screen image 300 and the second screen image 500 may be independent of each other, for example, in enlargement and reduction. That is, the second screen image 500 may be zoomed regardless of whether the first screen image 300 is zoomed. In contrast, the first screen image 300 may be zoomed regardless of whether the second screen image 500 is zoomed. The first screen image 300 and the second screen image 500 may be independent of each other even in their contents.
  • the window 400 and the second screen image 500 have been schematically described.
  • both the first display unit 151 of the mobile terminal 100 and the second display unit 251 of the display apparatus 200 may be touch screens.
  • the embodiment of the present invention is not necessarily applied only when the first and second display units 151 and 251 are touch screens, but may be applied to general displays instead of touch screens.
  • FIG. 4 is a flowchart for implementing an embodiment related to the present invention.
  • 5 illustrates a screen of a display unit of the display device, according to an embodiment of the present invention.
  • 6 and 7 illustrate screens of a front surface of the mobile terminal and a display unit of the display device in which an embodiment related to the present invention is implemented.
  • 8 illustrates a screen of a display unit of the display device in which an embodiment related to the present invention is implemented.
  • 9 and 10 illustrate screens of a front surface of the mobile terminal and a display unit of the display device in which an embodiment related to the present invention is implemented.
  • the first screen image 300 may be displayed on the first display unit 151 of the mobile terminal 100 [S41].
  • the mobile terminal 100 may be connected to the display apparatus 200 [S42].
  • the steps S41 and S42 may be performed in a reversed order. Since steps S41 and S42 have already been described with reference to FIG. 3, a detailed description thereof will be omitted for simplicity of the present specification.
  • the monitor window 400 is generated on the second display unit 251 of the display apparatus 200, and the monitor window 400 is connected to the mobile terminal 100.
  • the second screen image 400 corresponding to the first screen image 300 may be displayed [S43].
  • the generation of the monitor window 400 on the second display unit 251 will be described with reference to FIG. 5.
  • object means a graphical interface prepared for interaction with the user, such as, but not limited to, menu icons, file icons, action icons, thumbnails, links, text entry boxes, etc. This can be.
  • the object is an icon (but not limited thereto).
  • the second control unit 280 of the display apparatus 200 is a second display
  • the generation position of the monitor window 400 may be determined without considering the objects that are being displayed. That is, the monitor window 400 may be created to cover the objects to be displayed at a specific position.
  • the second control unit 280 of the display apparatus 200 may control the generation position of the monitor window 400 to be determined in consideration of the objects previously displayed. That is, the monitor window 400 may be created at an appropriate location that does not cover the objects.
  • the second control unit 280 of the display apparatus 200 takes the monitor into consideration of the objects previously displayed on the second display unit 251.
  • the generation position and the generation size of the window 400 may be controlled to be determined. That is, the monitor window 400 may be created at an appropriate location and at an appropriate size without covering the objects.
  • the position and size of the generated monitor window 400 may be adjusted by a user's manipulation.
  • the first screen image 300 and the second screen image 500 will be described in more detail.
  • At least one object 301, 303, 305, 307 for the content image may be displayed on the first screen image 300.
  • an object of the first screen image will be referred to as a "first object”.
  • objects 501, 503, 505, and 507 corresponding to the first objects 301, 303, 305, and 307 may be displayed on the second screen image 300, respectively.
  • an object of the second screen image will be referred to as a "second object”.
  • a first specific object 303 for executing a message menu may be selected.
  • the first display unit 151 of the mobile terminal 100 is a touch screen, it may be selected by touching the first specific object 303.
  • the first controller 180 of the mobile terminal 100 may control the message menu to be executed based on the selection of the first specific object 303.
  • the second controller 280 of the device 200 may transmit a control signal indicating that the second specific object 503 is selected to the mobile terminal 100.
  • the selection of the second specific object may be performed by clicking the second specific object with a mouse or by touching when the second display unit 251 is a touch screen.
  • the second controller may transmit a click position or a touch position of the mouse on the monitor to the mobile terminal 100 as the control signal.
  • the first controller 180 of the mobile terminal 100 may control the message menu to be executed based on the control signal.
  • the first controller 180 of the mobile terminal 100 is configured to display a content image according to the message menu. While being displayed on the first display unit 151 as the first screen image 300, it may be controlled to be displayed on the monitor window 400 of the second display unit 251 as the second screen image 500, respectively.
  • the orientation direction of the monitor window 400 in the second display unit 251 according to the orientation direction of the housing of the mobile terminal, and the first screen image according to the orientation direction. And a display direction of the second screen image.
  • the housing of the mobile terminal 100 is disposed in the vertical direction, and the monitor window 400 is disposed in the vertical direction on the second display unit 251. It is assumed that the display directions of the first screen image of the display unit 151 and the second screen image of the second display unit 251 are both portrait directions.
  • the user rotates the housing of the mobile terminal 100 in the counterclockwise direction by placing in the horizontal direction the orientation direction of the housing of the mobile terminal 100 Can be converted.
  • the first control unit 180 of the mobile terminal 100 may detect the converted orientation direction through the first sensing unit 140.
  • the first controller 180 of the mobile terminal 100 may provide the detected converted orientation direction to the display apparatus 200 [S44].
  • the second control unit 280 of the display device 200 is rotated in the counterclockwise direction the monitor window 400 in accordance with the converted orientation direction It can be controlled to be arranged in the horizontal direction [S45].
  • the first control unit 180 of the mobile terminal 100 is the first screen image on the first display unit 151 based on the converted orientation direction
  • the display may be controlled to be displayed in the landscape direction.
  • the first controller 180 of the mobile terminal 100 may provide the display apparatus 200 with information about the first screen image in the landscape direction.
  • the second control unit 280 of the display device 200 is the second screen image 500 in the monitor window 400 arranged in the horizontal direction It can be controlled to be displayed in the landscape direction.
  • the objects existing in the vicinity of the monitor window 400 may be considered and the size of the monitor window 400 may be adjusted. This will be described with reference to FIG. 8.
  • the monitor window 400 is oriented in the vertical direction to the second display unit 251 of the display apparatus 200.
  • the monitor window 400 is displayed in the first size in consideration of the objects A, B, C ... arranged around the monitor window 400.
  • the first size may be the maximum size that does not cover the surrounding objects when the monitor window 400 is disposed in the vertical direction.
  • the orientation direction of the monitor window 400 may be switched to the horizontal direction.
  • the second control unit 280 of the display device 200 in the horizontal direction as long as the monitor window 400 does not cover the surrounding objects.
  • the size of the converted monitor window 400 may be controlled to remain at the first size.
  • the second controller 280 of the display apparatus 200 considers the arrangement of the surrounding objects when the monitor window 400 is disposed in the horizontal direction.
  • the display may be controlled to be enlarged and displayed to a second size which is a maximum size that does not cover the surrounding objects.
  • the orientation direction of the monitor window 400 is changed according to the orientation direction of the housing of the mobile terminal 100.
  • the orientation direction of the monitor window 400 in the second display unit 251 is not necessarily determined only by the orientation direction of the housing of the mobile terminal 100. This will be described with reference to FIG. 9.
  • the housing of the mobile terminal 100 is disposed in the horizontal direction, and the monitor window 400 in the horizontal direction in the second display unit 251. It is assumed that the situation is arranged, and the display direction of the first screen image of the first display unit 151 and the second screen image of the second display unit 251 are both landscape directions.
  • the second control unit 280 of the display apparatus 200 is the monitor window ( 400 may be rotated clockwise to be oriented in the vertical direction.
  • the second display unit 261 of the display apparatus 200 is a touch screen, and after the touch is simultaneously performed at two positions on the monitor window 200, the touch is rotated clockwise. It is shown by way of example that the monitor window 400 is rotated in a clockwise direction.
  • the predetermined user command input from the display apparatus 200 to rotate the monitor window 400.
  • the second controller 280 of the display apparatus 200 sends a control signal to the mobile terminal 100 indicating that the monitor window 400 is oriented in the vertical direction. Can be controlled to transmit.
  • the first control unit 180 of the mobile terminal 100 is the first screen image even though the orientation of the housing of the mobile terminal 100 is still oriented in the horizontal direction
  • the display direction of 300 may be controlled to switch to the portrait direction.
  • the first controller 180 of the mobile terminal 100 may control to transmit the information about the first screen image 300 converted to the portrait direction to the display apparatus 200.
  • the second controller 280 of the display apparatus 200 may control the second screen image 500 to be displayed in a portrait direction by receiving information about the first screen image 300.
  • the user can rotate the housing of the mobile terminal 100 in the clockwise direction to orient again in the vertical direction.
  • the display direction of the first screen image 300 may not be changed.
  • the first control unit 180 of the mobile terminal 100 knows that the monitor window 400 is already oriented in the vertical direction through the control signal, the housing of the mobile terminal 100 is again vertical.
  • the control signal indicating that the device is oriented in the direction may not be transmitted to the display apparatus 200.
  • the second control unit 280 of the display apparatus 200 may maintain the monitor window 400. Since it is already oriented in the vertical direction, the transmitted control signal can be ignored.
  • the first control unit 180 of the mobile terminal 100 captures a first screen image as information about a first screen image and transmits the first screen image to the display apparatus 200 or inputs the first screen image to the first display unit 151.
  • the shared video signal is transmitted to the display apparatus 200, as shown in FIG. 9, the display direction of the first screen image and the display direction of the second screen image are the same.
  • the first controller 180 of the mobile terminal 100 generates a first image signal and a second image signal independent of the first image signal, and the first image signal is transmitted to the first display unit 151 and the second image signal.
  • the display direction of the first screen image and the display direction of the second screen image may be independent of each other. This will be described with reference to FIG. 10.
  • the second control unit 280 of the display apparatus 200 is the monitor window 400. ) May be rotated clockwise to be oriented in the vertical direction.
  • the second controller 280 of the display apparatus 200 sends a control signal to the mobile terminal 100 indicating that the monitor window 400 is oriented in the vertical direction. Can be controlled to transmit.
  • the first controller 180 of the mobile terminal 100 transmits the second image signal in the portrait direction corresponding to the monitor window 400 in the vertical direction to the display apparatus 200.
  • the second control unit 280 of the display apparatus 200 controls the second screen image 500 to be displayed in the portrait direction according to the second image signal. can do.
  • the first control unit 180 of the mobile terminal 100 generates a first image signal in a landscape direction independent of a second image signal corresponding to a housing of the mobile terminal 100 oriented in the horizontal direction. 1 may continue to provide to the display unit 151. Accordingly, as illustrated in (10-1) of FIG. 10, the first screen image 300 may still be displayed in the landscape direction on the first display unit 151.
  • the user can rotate the housing of the mobile terminal 100 in the clockwise direction to orient again in the vertical direction.
  • the first controller 180 of the mobile terminal 100 is configured to display a first image signal such that the first screen image is displayed in a portrait direction so that the mobile terminal 100 oriented in the vertical direction corresponds to a housing. 1 may be controlled to be provided to the display unit 151.
  • the first control unit 180 of the mobile terminal 100 still transmits the second image signal corresponding to the monitor window 400 in the vertical direction to the display apparatus 200, so that the second display unit 251. ), The second screen image 500 may still be displayed in the portrait direction.
  • 11 is a flowchart for implementing an embodiment related to the present invention.
  • 12 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device in which an embodiment related to the present invention is implemented.
  • a first screen image 300 is displayed on the first display unit 151 of the mobile terminal 100, and a second display of the display apparatus 200 is displayed.
  • the monitor window 400 is displayed in the unit 251, and the second screen image 500 is displayed in the monitor window 400.
  • a user command for zooming in the first screen image 300 may be input from the mobile terminal 100 [S111].
  • the user command for zooming in may be input by simultaneously performing a touch at two positions on the first display unit (touch screen) 151 and then dragging the touch in a direction away from each other.
  • a user command for zooming in may be input through a user manipulation of the first user input unit 130 of the mobile terminal 100.
  • the first controller 180 of the mobile terminal 100 may control the first screen image 300 to be zoomed in [S112].
  • the first controller 180 of the mobile terminal 100 may transmit a second image signal independent of the first image signal for the zoomed-in first screen image 300 to the display apparatus 200. have.
  • the second image signal may be information about the original first screen image before being zoomed in.
  • the second control unit 280 of the display apparatus 200 may control to maintain the size of the monitor window 400 (S113).
  • the second control unit 280 of the display apparatus 200 may control the zoom level of the second screen image 500 to remain unchanged while maintaining the size of the second screen image 500. [S114].
  • the first screen controller 180 of the mobile terminal 100 controls the first screen image 300 to be zoomed in [S112].
  • Information about the first screen image 300 may be provided to the display apparatus 200.
  • the information about the zoomed-in first screen image 300 may be a captured image of the first screen image or the shared image signal input to the first display unit 151.
  • the second control unit 280 of the display apparatus 200 may control to maintain the size of the monitor window 400 (S113).
  • the second controller 280 of the display apparatus 200 may control the second screen image 500 to be zoomed in while maintaining the size of the second screen image 500 [S115].
  • the first controller 180 of the mobile terminal 100 may control the first screen image 300 to be zoomed in [S112].
  • the first controller 180 of the mobile terminal 100 may provide a control signal to the display apparatus 200 indicating that the first screen image 300 is zoomed in.
  • the second control unit 280 of the display apparatus 200 may enlarge the size of the monitor window 400 in proportion to the degree of the zoom-in according to the control signal [S116].
  • the first controller 180 of the mobile terminal 100 may transmit a second image signal independent of the first image signal for the zoomed-in first screen image 300 to the display apparatus 200.
  • the second image signal may be information about the original first screen image before being zoomed in.
  • the second control unit 280 of the display apparatus 200 may control the zoom level of the second screen image to be maintained while the second screen image is enlarged and displayed in the enlarged monitor window [S117]. .
  • a rectangular portion 510 indicated by a dotted line in the second screen image 500 of FIG. 12 (4-4) may correspond to the entire second screen image 500 of FIG. 12 (12-3).
  • the rectangular portion indicated by the dotted line is not necessarily displayed in (12-4) of FIG.
  • the second screen image 500 of FIG. 12-1 is changed to the second screen image 500 of FIG. 12-3, the second screen image is "zoom in”. It is not to "zoom in”.
  • the second screen image 500 of FIG. 12 (12-1) is changed to the second screen image 500 of FIG. 12 (12-4), the second screen image is enlarged. It is, but not "zoom in.”
  • FIG. 13 is a flowchart for implementing an embodiment related to the present invention.
  • FIG. 14 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device in which an embodiment related to the present invention is implemented.
  • a first screen image 300 is displayed on the first display unit 151 of the mobile terminal 100, and a second display of the display apparatus 200 is displayed.
  • the monitor window 400 is displayed in the unit 251, and the second screen image 500 is displayed in the monitor window 400.
  • a user command for zooming out the first screen image 300 may be input from the mobile terminal 100 [S131].
  • the user command for zooming out may be input by simultaneously performing touches at two positions on the first display unit (touch screen) 151 and then dragging the touches closer to each other.
  • a user command for zooming out may also be input through a user manipulation of the first user input unit 130 of the mobile terminal 100.
  • the first controller 180 of the mobile terminal 100 may control the first screen image 300 to be zoomed out (S132).
  • the first controller 180 of the mobile terminal 100 may transmit a second image signal independent of the first image signal for the zoomed-out first screen image 300 to the display apparatus 200. have.
  • the second image signal may be information about the original first screen image before zooming out.
  • the second control unit 280 of the display apparatus 200 may control to maintain the size of the monitor window 400 (S133).
  • the second control unit 280 of the display apparatus 200 may control the zoom level of the second screen image 500 to remain unchanged while maintaining the size of the second screen image 500. [S134].
  • the first screen controller 180 of the mobile terminal 100 controls the first screen image 300 to be zoomed out (S112).
  • Information about the first screen image 300 may be provided to the display apparatus 200.
  • the information about the zoomed out first screen image 300 may be a captured image of the first screen image or the shared image signal input to the first display unit 151.
  • the second control unit 280 of the display apparatus 200 may control to maintain the size of the monitor window 400 (S133).
  • the second controller 280 of the display apparatus 200 may control the second screen image 500 to be zoomed out while maintaining the size of the second screen image 500 [S135].
  • the first controller 180 of the mobile terminal 100 may control the first screen image 300 to be zoomed out (S132).
  • the first controller 180 of the mobile terminal 100 may provide a control signal to the display apparatus 200 indicating that the first screen image 300 is out.
  • the second control unit 280 of the display apparatus 200 may enlarge the size of the monitor window 400 in proportion to the degree of zooming out according to the control signal [S136].
  • the first controller 180 of the mobile terminal 100 may provide the display apparatus 200 with information about the zoomed out first screen image 300.
  • the information about the zoomed out first screen image 300 may be a captured image of the first screen image or the shared image signal input to the first display unit 151.
  • the second control unit 280 of the display apparatus 200 may control the second screen image to be zoomed out while the second screen image is enlarged and displayed on the enlarged monitor window [S137].
  • a rectangular portion 510 indicated by a dotted line in the second screen image 500 of FIG. 14 (14-4) may correspond to the entire second screen image 500 of FIG. 14 (14-1).
  • the rectangular portion indicated by the dotted line is not necessarily displayed in (14-4) of FIG.
  • the second screen image 500 of FIG. 14 (14-1) is changed to the second screen image 500 of FIG. 14 (14-3)
  • the second screen image is “zoom out”. It is not "collapsed”.
  • the second screen image 500 of FIG. 14 (14-4) is changed to the second screen image 500 of FIG. 14 (14-3)
  • the second screen image is “zoom out”. It is not "zoom out”.
  • the second screen image 500 of FIG. 14 (14-1) is changed to the second screen image 500 of FIG. 14 (14-4)
  • the second screen image is “zoom out” while “ Is enlarged ".
  • the display apparatus 200 will be described to zoom in (or enlarge) or zoom out (or reduce) the second screen image 500.
  • FIG. 15 and FIG. 16 will be described.
  • FIG. 15 is a flowchart for implementing an embodiment related to the present invention.
  • FIG. 16 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device, according to an embodiment of the present invention.
  • a first screen image 300 is displayed on the first display unit 151 of the mobile terminal 100, and a second display of the display apparatus 200 is displayed.
  • the monitor window 400 is displayed in the unit 251, and the second screen image 500 is displayed in the monitor window 400.
  • a user command for zooming in or enlarging the second screen image 500 may be input in the display apparatus 200 [S151].
  • the user command for zooming in or zooming in may be performed after a touch is simultaneously performed at two positions on the second screen image 500 of the monitor window 400 of the second display unit (touch screen) 251. May be input by dragging in a direction away from each other.
  • a user command for zooming in or enlarging may also be input through a user manipulation of the second user input unit 230 of the display apparatus 200.
  • the first screen image may be changed differently according to whether the user command is a zoom-in command or an enlargement command of the second screen image. See below for more details.
  • the second control unit 280 of the display apparatus 200 may transmit a control signal indicating that the zoom-in command of the second screen image 500 is input to the mobile terminal 100.
  • the first controller 180 of the mobile terminal 100 may transmit an image signal corresponding to the control signal to the display apparatus 200.
  • the second control unit 280 of the display apparatus 200 may control the second screen image 500 to be zoomed in using the image signal. [S152]. In addition, the second control unit 280 of the display apparatus 200 may control to maintain the size of the monitor window 400 as it is [S153].
  • the first control unit 180 of the mobile terminal 100 is the first screen image 300 on the first display unit 151 irrespective of the control signal. ) Can be controlled so as not to change the zoom level [S154].
  • the second control unit 280 of the display apparatus 200 may transmit a control signal indicating that the zoom-in command of the second screen image 500 is input to the mobile terminal 100.
  • the first controller 180 of the mobile terminal 100 may transmit an image signal corresponding to the control signal to the display apparatus 200.
  • the second control unit 280 of the display apparatus 200 may control the second screen image 500 to be zoomed in using the image signal. [S152]. In addition, the second control unit 280 of the display apparatus 200 may control to maintain the size of the monitor window 400 as it is [S153].
  • the first controller 180 of the mobile terminal 100 responds to the control signal to display the first screen image 300 on the first display unit 151. ) Can be controlled to zoom in [S155].
  • the second control unit 280 of the display apparatus 200 may not need to transmit a control signal informing that the magnification command of the second screen image 500 is input to the mobile terminal 100.
  • the second controller 280 of the display apparatus 200 may control the second screen image 500 to be enlarged without changing the zoom level. [S152]. As the second screen image 500 is enlarged, the second control unit 280 of the display apparatus 200 may control the size of the monitor window 400 to be enlarged [S156].
  • the first display unit 151 In the first screen image 300 can be maintained as it is. That is, the zoom level of the first screen image 300 does not change [S157].
  • a rectangular portion 510 indicated by a dotted line in the second screen image 500 of FIG. 16 (16-4) may correspond to the entire second screen image 500 of FIG. 16 (16-3).
  • the rectangular portion indicated by the dotted line is not necessarily displayed in (16-4) of FIG.
  • FIGS. 17 and 18 will be described.
  • FIG. 17 is a flowchart for implementing an embodiment related to the present invention.
  • FIG. 18 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device in which an embodiment related to the present invention is implemented.
  • the first screen image 300 is displayed on the first display unit 151 of the mobile terminal 100, and the second display of the display apparatus 200 is displayed.
  • the monitor window 400 is displayed in the unit 251, and the second screen image 500 is displayed in the monitor window 400.
  • a user command to zoom out or reduce the second screen image 500 may be input from the display apparatus 200 [S171].
  • the user command for zooming out or reducing may be performed after a touch is simultaneously performed at two positions on the second screen image 500 of the monitor window 400 of the second display unit (touch screen) 251. Can be input by dragging in a direction closer to each other.
  • a user command for zooming out or reducing may be input.
  • the first screen image may be changed differently according to whether the user command is a zoom out command or a reduction command of the second screen image. See below for more details.
  • the second control unit 280 of the display apparatus 200 may transmit a control signal indicating that the zoom out command of the second screen image 500 is input to the mobile terminal 100.
  • the first controller 180 of the mobile terminal 100 may transmit an image signal corresponding to the control signal to the display apparatus 200.
  • the second controller 280 of the display apparatus 200 may control the second screen image 500 to be zoomed out using the image signal. [S172].
  • the second control unit 280 of the display apparatus 200 may control to maintain the size of the monitor window 400 as it is [S173].
  • the first control unit 180 of the mobile terminal 100 is the first screen image 300 on the first display unit 151 irrespective of the control signal. ) Can be controlled so that the zoom level does not change (S174).
  • the second control unit 280 of the display apparatus 200 may transmit a control signal indicating that the zoom out command of the second screen image 500 is input to the mobile terminal 100.
  • the first controller 180 of the mobile terminal 100 may transmit an image signal corresponding to the control signal to the display apparatus 200.
  • the second control unit 280 of the display apparatus 200 may control the second screen image 500 to be zoomed out using the image signal. [S172].
  • the second control unit 280 of the display apparatus 200 may control to maintain the size of the monitor window 400 as it is [S173].
  • the first controller 180 of the mobile terminal 100 responds to the control signal to display the first screen image 300 on the first display unit 151. ) Can be controlled to zoom out [S175].
  • the second controller 280 of the display apparatus 200 may not need to transmit a control signal indicating that a reduction command of the second screen image 500 is input to the mobile terminal 100.
  • the second control unit 280 of the display apparatus 200 may control the second screen image 500 to be reduced (S172). As the second screen image 500 is reduced, the second control unit 280 of the display apparatus 200 may control to reduce the size of the monitor window 400 [S176].
  • the first control unit 180 of the mobile terminal 100 does not receive any control signal from the display device 200, the first display unit 151 In the first screen image 300 can be maintained as it is. That is, the zoom level of the first screen image 300 does not change [S177].
  • a rectangular portion 510 indicated by a dotted line in the second screen image 500 of FIG. 18-3 may correspond to the entire second screen image 500 of FIG. 18-18.
  • the rectangular portion indicated by the dotted line is not necessarily displayed in (18-3) of FIG.
  • the display apparatus 200 has been described to zoom in (or enlarge) or zoom out (or reduce) the second screen image 500.
  • the monitor window 400 is enlarged or reduced in the display apparatus 200.
  • FIG. 19 and FIG. 20 are demonstrated.
  • FIG. 20 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device in which an embodiment related to the present invention is implemented.
  • a first screen image 300 is displayed on the first display unit 151 of the mobile terminal 100, and a second display of the display apparatus 200 is displayed.
  • the monitor window 400 is displayed in the unit 251, and the second screen image 500 is displayed in the monitor window 400.
  • a user command for enlarging the monitor window 400 may be input from the display apparatus 200 [S191].
  • the user command for enlarging is input by touching a corner portion of the monitor window 400 of the second display unit (touch screen) 251 so that the touch is dragged in a radial direction away from the center of the monitor window. Can be.
  • the user command for the enlargement may be input through a user manipulation of the second user input unit 230 of the display apparatus 200.
  • the monitor window 400 may be enlarged to become a full screen on the second screen image 500.
  • the second control unit 280 of the display apparatus 200 may control to enlarge the monitor window 400 (S192).
  • the second controller 280 of the display apparatus 200 may control the second screen image 500 to be enlarged in the enlarged monitor window 400 [S193].
  • the second controller 280 of the display apparatus 200 may control the zoom level of the second screen image 500 not to change (S194).
  • the second controller 280 of the display apparatus 200 may not need to transmit a control signal indicating that a user command for enlarging the monitor window 400 is input to the mobile terminal 100.
  • the first control unit 180 of the mobile terminal 100 since the first control unit 180 of the mobile terminal 100 does not receive any control signal from the display apparatus 200, the first display unit 151 In the first screen image 300 can be maintained as it is. That is, the zoom level of the first screen image 300 does not change [S195].
  • the description of (20-2) of FIG. 20 may be the same principle as the description of (16-4) of FIG. 16 described above.
  • the second control unit 280 of the display apparatus 200 may receive a user command for enlarging the monitor window 400.
  • the control signal informing that the input signal can be transmitted to the mobile terminal 100.
  • the first controller 180 of the mobile terminal 100 may transmit an image signal corresponding to the control signal to the display apparatus 200.
  • the second control unit 280 of the display apparatus 200 may control the second screen image 500 to be zoomed out using the image signal. [S196].
  • the first control unit 180 of the mobile terminal 100 may display the first screen image 300 on the first display unit 151 regardless of the control signal. ) Can be controlled so that the zoom level does not change (S197).
  • the first control unit 180 of the mobile terminal 100 responds to the control signal in response to the first control signal.
  • the display unit 151 may control the first screen image 300 to be zoomed out (S198).
  • a rectangular portion 510 indicated by a dotted line in the second screen image 500 of FIG. 20 (20-4) may correspond to the entire second screen image 500 of FIG. 20 (20-1).
  • the rectangular portion indicated by the dotted line is not necessarily displayed in (20-4) of FIG.
  • FIG. 21 and FIG. 22 are demonstrated.
  • FIG. 21 is a flowchart for implementing an embodiment related to the present invention.
  • FIG. 22 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device in which an embodiment related to the present invention is implemented.
  • a first screen image 300 is displayed on the first display unit 151 of the mobile terminal 100, and a second display of the display apparatus 200 is displayed.
  • the monitor window 400 is displayed in the unit 251, and the second screen image 500 is displayed in the monitor window 400.
  • a user command for reducing the monitor window 400 may be input from the display apparatus 200 [S211].
  • the user command for the reduction may be touched by a corner portion of the monitor window 400 of the second display unit (touch screen) 251 so that the touch is dragged in a radial direction toward the center of the monitor window. Can be entered.
  • the user command for the reduction may also be input through a user manipulation of the second user input unit 230 of the display apparatus 200.
  • the second control unit 280 of the display apparatus 200 may control to reduce the monitor window 400 (S212).
  • the second control unit 280 of the display apparatus 200 may control the second screen image 500 to be reduced in the enlarged monitor window 400 [S213].
  • the second controller 280 of the display apparatus 200 may control the zoom level of the second screen image 500 not to change (S214).
  • the second controller 280 of the display apparatus 200 may not need to transmit a control signal indicating that a user command for reducing the monitor window 400 is input to the mobile terminal 100.
  • the first control unit 180 of the mobile terminal 100 since the first control unit 180 of the mobile terminal 100 does not receive any control signal from the display apparatus 200, the first display unit 151 In the first screen image 300 can be maintained as it is. That is, the zoom level of the first screen image 300 does not change [S215].
  • the second control unit 280 of the display apparatus 200 may receive a user command for reducing the monitor window 400.
  • the control signal informing that the input signal can be transmitted to the mobile terminal 100.
  • the first controller 180 of the mobile terminal 100 may transmit an image signal corresponding to the control signal to the display apparatus 200.
  • the second control unit 280 of the display apparatus 200 may control the second screen image 500 to be zoomed in using the image signal. [S216].
  • the first control unit 180 of the mobile terminal 100 is the first screen image 300 on the first display unit 151 irrespective of the control signal. ) Can be controlled so as not to change the zoom level [S217].
  • the first control unit 180 of the mobile terminal 100 responds to the control signal in response to the first control signal.
  • the display unit 151 may control the first screen image 300 to be zoomed in [S218].
  • a rectangular portion 510 indicated by a dotted line in the second screen image 500 of (22-1) of FIG. 22 may correspond to the entire second screen image 500 of FIG. 22 (20-4).
  • the rectangular portion indicated by the dotted line is not necessarily displayed in (22-1) of FIG.
  • FIG. 23 is a flowchart for implementing an embodiment related to the present invention.
  • FIG. 24 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device, according to an embodiment of the present invention.
  • the first screen image 300 is displayed on the first display unit 151 of the mobile terminal 100, and the second display of the display apparatus 200 is displayed.
  • the monitor window 400 is displayed in the unit 251, and the second screen image 500 is displayed in the monitor window 400.
  • One specific object (“C” object) among the first objects displayed on the first screen image 300 may be touched and selected by the mobile terminal [S231].
  • the first controller 180 of the mobile terminal 100 may control the first display unit 151 to zoom in and display the image corresponding to the specific object as the first screen image at a specific zoom level [ S232].
  • the first controller 180 of the mobile terminal 100 may provide an image of the image to the display apparatus 200 as information about a first screen image.
  • the second control unit 180 of the display apparatus 200 determines that the image of the image is specified as the second screen image on the second display unit 251. It may be controlled to be zoomed out and displayed than the zoom level [S233]. The image of the image can be displayed fully zoomed out. The image of the image may be displayed on the full screen on the second display unit.
  • the second controller 180 of the display apparatus 200 may control an area 510 corresponding to the first screen image 300 to be visually divided and displayed on the second display unit 251.
  • the first display unit 151 of the mobile terminal 100 may be touched and dragged in one direction.
  • the first controller 180 of the mobile terminal 100 may control the first screen image 300 to scroll along the one direction.
  • the second control unit 280 of the display apparatus 200 may control the area 510 corresponding to the scrolled first scroll image 300 to be visually distinguished and displayed on the second display unit 251. Can be.
  • the monitor window is generated on the second display unit 251 of the display apparatus 200. I will explain more about it.
  • FIG. 25 is a flowchart for implementing an embodiment related to the present invention.
  • FIG. 26 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device, according to an embodiment of the present invention.
  • the mobile terminal 100 and the display apparatus 200 may be connected to each other [S251].
  • At least one of the first control unit 180 of the mobile terminal 100 and the second control unit 280 of the display apparatus 200 is as shown in (26-1) of FIG.
  • the monitor window may not be directly formed on the second display unit 251.
  • the first controller 180 of the mobile terminal 100 may control not to provide information about the first screen image.
  • the second control unit 280 of the display apparatus 200 does not generate the monitor window on the second display unit 251 regardless of whether the second terminal 280 receives information about the first screen image from the mobile terminal 100. Can be controlled.
  • a predetermined user command for generating the monitor window in the second display unit may be input [S252].
  • the user command for generating the monitor window may be input by touch dragging along a linear locus in one direction or along a locus of a specific shape on the first display unit (touch screen) 151.
  • a user command for generating the monitor window may also be input through a user manipulation of the first user input unit 130 of the mobile terminal 100.
  • the monitor window 400 may be generated on the second display unit 251 [S253].
  • the first controller 180 of the mobile terminal 100 may provide a control signal to the display apparatus 200 informing that the predetermined user command has been input.
  • the first controller 180 of the mobile terminal 100 may provide information about a first screen image to the display apparatus 200.
  • the second control unit 180 of the display apparatus 200 may monitor the monitor window 400 on the second display unit 180 in response to the control signal. ) Can be created.
  • the second control unit 280 of the display apparatus 200 uses the information about the first screen image provided by the mobile terminal 100 to display the second screen image 500 on the monitor window 400. Control to be displayed.
  • the first controller 180 of the mobile terminal 100 when the monitor window 400 is generated on the display apparatus 200, the first controller 180 of the mobile terminal 100 generates the first control panel.
  • the display unit 151 may be controlled to reduce power consumption of the mobile terminal 100 by automatically turning off the power so that the first screen image is not displayed.
  • the first control unit 180 of the mobile terminal 100 is automatically controlled by the first display unit 151. Power on to control the first screen image to be displayed again.
  • FIGS. 27 and 28 after the mobile terminal 100 and the display apparatus 200 are connected to each other, according to a distance or a communication signal strength between the mobile terminal 100 and the display apparatus 200. A change in the monitor window displayed on the second display unit 251 will be described.
  • FIG. 28 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device, according to an embodiment of the present invention.
  • the mobile terminal 100 and the display apparatus 200 may be connected to each other [S271].
  • the monitor window 400 may be displayed on the second display unit 251 of the display apparatus 200 as shown in (28-1) of FIG. 28 [ S272].
  • the terminal user may change the separation distance therebetween by moving at least one of the mobile terminal 100 and the display apparatus 200.
  • the change in the separation interval therebetween may bring a change in the strength of the communication signal therebetween.
  • At least one of the first control unit 180 of the mobile terminal 100 and the second control unit 280 of the display apparatus 200 may change the size of the monitor window 400 according to the communication signal strength. Can be controlled [S273].
  • the second control unit 280 of the display device 200 controls the size of the monitor window 400 to change according to the communication signal strength, and the second control unit 280 to match the size of the monitor window 400.
  • the screen image may be controlled to be displayed by enlarging or reducing the screen image.
  • the first controller 180 of the mobile terminal 100 transmits information about the first screen image corresponding to the monitor window 400 of the size varying according to the communication signal strength to the display apparatus 200. Can provide.
  • the first of the mobile terminal 100 At least one of the controller 180 and the second controller 280 of the display apparatus 200 may control the size of the monitor window 400 to increase according to the stronger communication signal strength.
  • the mobile terminal 100 At least one of the first control unit 180 and the second control unit 280 of the display apparatus 200 may control the size of the monitor window 400 to be smaller according to the weakened communication signal strength.
  • the monitor window 400 may disappear from the second display unit 251 when the separation interval is far enough so that the communication connection between the mobile terminal 100 and the display apparatus 200 is released. Of course it can.
  • 29 is a flowchart for implementing an embodiment related to the present invention.
  • 30 illustrates a front surface of the mobile terminal and a screen of a display unit of the display device, according to an embodiment of the present invention.
  • the mobile terminal 100 and the display apparatus 200 are connected to each other, there may be no user input for the mobile terminal 100 for a predetermined time or more [S291].
  • the absence of a user input in the mobile terminal 100 may mean that the touch screen of the mobile terminal 100 and the user input unit 130 are not manipulated.
  • the first controller 180 of the mobile terminal 100 may control the first display unit 151 to be automatically powered off so that the first screen image is no longer displayed [S292].
  • the display unit 151 may be automatically turned on again.
  • the first control unit 180 of the mobile terminal 100 may provide a control signal indicating that there is no user input from the first mobile terminal 100 to the display apparatus 200 as necessary. Can be.
  • the second control unit 280 of the display apparatus 200 although the first display unit 151 of the mobile terminal 100 is powered off. Irrespective of this, the monitor window 400 may still be displayed on the second display unit 251 and the second screen image 500 may be continuously maintained in the monitor window 400 [S293].
  • the second control unit 280 of the display apparatus 200 informs that the first display unit 151 of the mobile terminal 100 is powered off, as shown in (30-2) of FIG.
  • the monitor window 400 is still displayed on the second display unit 251, but the second screen image 500 may not be displayed on the monitor window 400 [S294]. ]. That is, the second screen image 400 may be blanked in the monitor window 400.
  • the second control unit 280 of the display apparatus 200 may monitor the monitor window 400. ) May be controlled to display the second screen image 500 again.
  • the second control unit 280 of the display apparatus 200 indicates that the first display unit 151 of the mobile terminal 100 is powered off.
  • the monitor window 400 may be controlled to not be displayed on the second display unit 251. Since the monitor window 400 is not displayed, the second screen image 500 in the monitor window may not be displayed.
  • the second control unit 280 of the display apparatus 200 may monitor the monitor window 400.
  • the second screen image 500 in the monitor window 400 may be displayed again.
  • 31 is a flowchart for implementing an embodiment related to the present invention.
  • 32 illustrates a screen of a front surface of the mobile terminal and a display unit of the display device in which an embodiment related to the present invention is implemented.
  • the "event” may mean that a specific function is executed in the mobile terminal 100 without a user input.
  • Examples of the event may include telephone call reception, message reception, and the like. In the following description, it is assumed that the event is a telephone call reception for simplicity. However, of course, this embodiment is not limited to the telephone call reception.
  • the mobile terminal 100 and the display apparatus 200 may be connected to each other [S311]. Then, as described above, the monitor window 400 may be generated on the second display unit 251 of the display apparatus 200, and the second screen image 500 may be displayed in the monitor window 400. have.
  • a call reception event may occur in the mobile terminal 100.
  • the first screen image of the first display unit 151 of the mobile terminal 100 may be changed into an image according to the call reception event.
  • the second screen image of the second display unit 251 of the display apparatus 200 may also be changed to an image according to the call reception event.
  • the second screen image of the second display unit 251 may not be changed to an image according to the call reception event.
  • the first controller 180 of the mobile terminal 100 determines whether the mobile terminal is currently in the silent mode.
  • the "silent mode” may refer to a mode in which an alarm sound notifying when an event occurs in the mobile terminal becomes silent.
  • the silent mode may include a vibration mode in which vibration is generated to notify when an event occurs in the mobile terminal.
  • a first control signal for notifying the first control unit 180 of the mobile terminal 100 that the event has occurred in the mobile terminal and that the mobile terminal is in the silent mode. May be provided to the display device.
  • the second control unit 280 of the display device 200 may control the monitor window 400 to be visually changed in the second display unit 251 in response to a first control signal.
  • the monitor window 400 is vibrated on the second display unit 251 according to the first control signal.
  • the present exemplary embodiment is not limited thereto, and at least one of the color, shape, and size of the monitor window 400 may vary according to the first control signal.
  • the first control unit 180 of the mobile terminal 100 indicates that the event is generated in the mobile terminal and the mobile terminal is not in the silent mode.
  • the second control signal may be provided to the display device.
  • the second control unit 280 of the display apparatus 200 may control the monitor window 400 to remain unchanged visually in the second display unit 251 in response to a second control signal.
  • the first control unit of the mobile terminal 100 does not send any control signal to the display apparatus 200, and thus the second control unit 280 of the display apparatus 200. ) May control the monitor window 400 to remain intact.
  • the present invention described above can be embodied as computer readable codes on a medium in which a program is recorded.
  • the computer-readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like, which are also implemented in the form of carrier waves (eg, transmission over the Internet). It also includes.
  • the computer may include the controller 180 of the terminal.
  • the present invention is not limited to a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), navigation, and the like. ), And a display device such as (but not limited to) a laptop computer, a tablet computer, a desktop computer, and a television (for example, a digital TV or a smart TV).
  • a display device such as (but not limited to) a laptop computer, a tablet computer, a desktop computer, and a television (for example, a digital TV or a smart TV).

Abstract

본 발명은 이동단말기 및 디스플레이 장치가 서로 연결되었을 때 사용자의 편의가 더욱 고려되어 이들 간에 데이터 통신이 될 수 있도록 하는 이동 단말기, 디스플레이 장치 및 그 제어 방법에 관한 것이다. 본 발명의 실시예들 중 적어도 하나에 의하면, 상기 이동단말기와 상기 디스플레이 장치가 서로 연결되어 상기 이동단말기의 디스플레이와 관련된 모니터 창이 상기 디스플레이 장치에서 디스플레이될 때, 단말기 사용자는 필요에 따라 상기 이동단말기의 하우징의 배향 방향을 전환함으로써 용이하게 상기 모니터 창의 배향 방향을 전환할 수 있다는 장점이 있다.

Description

이동단말기, 디스플레이 장치 및 그 제어 방법
본 발명은 이동단말기 및 디스플레이 장치가 서로 연결되었을 때 사용자의 편의가 더욱 고려되어 이들 간에 데이터 통신이 될 수 있도록 하는 이동 단말기, 디스플레이 장치 및 그 제어 방법에 관한 것이다.
단말기는 이동 가능 여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)으로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다.
이와 같은 단말기(terminal)는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다.
이러한 단말기의 기능 지지 및 증대를 위해, 단말기의 구조적인 부분 및/또는 소프트웨어적인 부분을 개량하는 것이 고려될 수 있다.
상기 이동단말기는 노트북 컴퓨터, 태블릿 컴퓨터, 퍼스널 컴퓨터, 텔레비전 등과 같은 디스플레이 장치와 유선 또는 무선으로 연결되어, 상호 데이터 통신을 행할 수 있다. 상기 이동단말기와 상기 디스플레이 장치 간에 서로 데이터 통신이 행해질 때, 양자 간의 데이터 통신에 관한 정보가 상기 이동단말기 및 상기 디스플레이 장치에서 단말기 사용자의 편의가 더욱 고려되어 디스플레이되기 위한 방안이 계속 연구될 필요가 있다.
본 발명은 전술한 필요성을 충족하기 위해 제안되는 것으로서, 상기 이동단말기와 상기 디스플레이 장치 간에 서로 데이터 통신이 행해질 때, 양자 간의 데이터 통신에 관한 정보가 상기 이동단말기 및 상기 디스플레이 장치에서 단말기 사용자의 편의가 더욱 고려되어 디스플레이되도록 하는 이동단말기, 디스플레이 장치 및 그 제어 방법을 제공하는 것을 그 목적으로 한다.
상기 목적을 달성하기 위해 본 발명은, 하우징, 상기 하우징의 배향 방향을 센싱하기 위한 센서부, 상기 하우징의 일면에 배치되고, 제 1 스크린 영상을 디스플레이하는 제 1 디스플레이부, 제 2 디스플레이부를 구비하는 외부 디스플레이 장치와 연결하기 위한 인터페이스부, 및 제 1 스크린 영상의 정보가 상기 외부 디스플레이 장치에 제공되어, 제 1 스크린 영상에 상응하는 제 2 스크린 영상을 디스플레이하는 모니터 창이 제 2 디스플레이부에서 생성되도록 제어하고, 상기 감지된 하우징의 배향 방향이 상기 외부 디스플레이 장치에 제공되어, 제 2 디스플레이부 내에서 상기 모니터 창이 상기 배향 방향에 따라 디스플레이되도록 제어하는 제어부를 포함하는 이동단말기를 제공한다.
또한, 상기 목적을 달성하기 위해 본 발명은, 제 1 스크린 영상을 디스플레이하는 제 1 디스플레이부를 구비하는 외부 이동단말기와 연결하기 위한 인터페이스부, 제 2 디스플레이부, 및 제 1 스크린 영상의 정보를 상기 외부 이동단말기로부터 수신하여, 제 1 스크린 영상에 상응하는 제 2 스크린 영상을 디스플레이하는 모니터 창이 제 2 디스플레이부에서 생성되도록 제어하고, 상기 이동단말기로부터 그 하우징의 배향 방향을 수신하여, 제 2 디스플레이부 내에서 상기 모니터 창이 상기 배향 방향에 따라 디스플레이되도록 제어하는 제어부를 포함하는 디스플레이 장치를 제공한다.
또한, 상기 목적을 달성하기 위해 본 발명은, 이동단말기의 하우징의 일면에 배치되는 제 1 디스플레이부에서 제 1 스크린 영상이 디스플레이되는 단계, 상기 이동단말기가 제 2 디스플레이부를 구비하는 외부 디스플레이 장치와 연결되는 단계, 제 1 스크린 영상의 정보가 상기 외부 디스플레이 장치로 제공되는 단계, 제 1 스크린 영상에 상응하는 제 2 스크린 영상을 디스플레이하는 모니터 창이 제 2 디스플레이부에서 생성되도록 제어하는 단계, 및 상기 하우징의 배향 방향을 센싱하고 상기 감지된 하우징의 배향 방향을 상기 외부 디스플레이 장치에 제공함으로써, 제 2 디스플레이부 내에서 상기 모니터 창이 상기 배향 방향에 따라 디스플레이될 수 있도록 제어하는 단계를 포함하는 이동단말기의 제어 방법을 제공한다.
또한, 상기 목적을 달성하기 위해 본 발명은, 제 1 스크린 영상을 디스플레이하는 제 1 디스플레이부를 구비하는 외부 이동단말기를, 제 2 디스플레이부를 구비하는 디스플레이 장치와 연결하는 단계, 제 1 스크린 영상의 정보를 상기 외부 이동단말기로부터 수신하여, 제 1 스크린 영상에 상응하는 제 2 스크린 영상을 디스플레이하는 모니터 창이 제 2 디스플레이부에서 생성되도록 제어하는 단계, 및 상기 외부 이동단말기로부터 그 하우징의 배향 방향을 수신하여, 제 2 디스플레이부 내에서 상기 모니터 창이 상기 배향 방향에 따라 디스플레이되도록 제어하는 단계를 포함하는 디스플레이 장치의 제어 방법을 제공한다.
또한, 상기 목적을 달성하기 위해 본 발명은, 제 1 스크린 영상을 디스플레이하는 제 1 디스플레이부, 제 2 디스플레이부를 구비하는 외부 디스플레이 장치와 연결하기 위한 인터페이스부, 및 제 1 스크린 영상의 정보가 상기 외부 디스플레이 장치에 제공되어, 제 1 스크린 영상에 상응하는 제 2 스크린 영상을 디스플레이하는 모니터 창이 제 2 디스플레이부에서 생성되도록 제어하고, 제 1 디스플레이부에서 제 1 스크린 영상이 줌인될 때, 제 2 디스플레이부에서 상기 모니터 창이 확대되도록 제어하는 제어부를 포함하는 이동단말기를 제공한다.
또한, 상기 목적을 달성하기 위해 본 발명은, 제 1 스크린 영상을 디스플레이하는 제 1 디스플레이부를 구비하는 외부 이동단말기와 연결하기 위한 인터페이스부, 제 2 디스플레이부, 및 제 1 스크린 영상의 정보를 상기 외부 이동단말기로부터 수신하여, 제 1 스크린 영상에 상응하는 제 2 스크린 영상을 디스플레이하는 모니터 창이 제 2 디스플레이부에서 생성되도록 제어하고, 제 1 디스플레이부에서 제 1 스크린 영상이 줌인될 때, 제 2 디스플레이부에서 상기 모니터 창이 확대되도록 제어하는 제어부를 포함하는 디스플레이 장치를 제공한다.
또한, 상기 목적을 달성하기 위해 본 발명은, 이동단말기의 하우징의 일면에 배치되는 제 1 디스플레이부에서 제 1 스크린 영상이 디스플레이되는 단계, 상기 이동단말기가 제 2 디스플레이부를 구비하는 외부 디스플레이 장치와 연결되는 단계, 제 1 스크린 영상의 정보가 상기 외부 디스플레이 장치로 제공되는 단계, 제 1 스크린 영상에 상응하는 제 2 스크린 영상을 디스플레이하는 모니터 창이 제 2 디스플레이부에서 생성되도록 제어하는 단계, 및 제 1 디스플레이부에서 제 1 스크린 영상이 줌인될 때, 제 2 디스플레이부에서 상기 모니터 창이 확대되도록 제어하는 단계를 포함하는 이동단말기의 제어 방법을 제공한다.
또한, 상기 목적을 달성하기 위해 본 발명은, 제 1 스크린 영상을 디스플레이하는 제 1 디스플레이부를 구비하는 외부 이동단말기를, 제 2 디스플레이부를 구비하는 디스플레이 장치와 연결하는 단계, 제 1 스크린 영상의 정보를 상기 외부 이동단말기로부터 수신하여, 제 1 스크린 영상에 상응하는 제 2 스크린 영상을 디스플레이하는 모니터 창이 제 2 디스플레이부에서 생성되도록 제어하는 단계, 및 제 1 디스플레이부에서 제 1 스크린 영상이 줌인될 때, 제 2 디스플레이부에서 상기 모니터 창이 확대되도록 제어하는 단계를 포함하는 디스플레이 장치의 제어 방법을 제공한다.
또한, 상기 목적을 달성하기 위해 본 발명은, 제 1 스크린 영상을 디스플레이하는 제 1 디스플레이부, 제 2 디스플레이부를 구비하는 외부 디스플레이 장치와 연결하기 위한 인터페이스부, 및 제 1 스크린 영상의 정보가 상기 외부 디스플레이 장치에 제공되어, 제 1 스크린 영상에 상응하는 제 2 스크린 영상을 디스플레이하는 모니터 창이 제 2 디스플레이부에서 생성되도록 제어하고, 제 2 디스플레이부에서 상기 모니터 창이 확대될 때, 제 2 스크린 영상이 줌아웃되도록 제어하는 제어부를 포함하는 이동단말기를 제공한다.
또한, 상기 목적을 달성하기 위해 본 발명은, 제 1 스크린 영상을 디스플레이하는 제 1 디스플레이부, 제 2 디스플레이부를 구비하는 외부 디스플레이 장치와 연결하기 위한 인터페이스부, 및 제 1 스크린 영상의 정보가 상기 외부 디스플레이 장치에 제공되어, 제 1 스크린 영상에 상응하는 제 2 스크린 영상을 디스플레이하는 모니터 창이 제 2 디스플레이부에서 생성되도록 제어하고, 제 2 디스플레이부에서 상기 모니터 창이 확대될 때, 제 2 스크린 영상이 줌아웃되도록 제어하는 제어부를 포함하는 디스플레이 장치를 제공한다.
또한, 상기 목적을 달성하기 위해 본 발명은, 이동단말기의 하우징의 일면에 배치되는 제 1 디스플레이부에서 제 1 스크린 영상이 디스플레이되는 단계, 상기 이동단말기가 제 2 디스플레이부를 구비하는 외부 디스플레이 장치와 연결되는 단계, 제 1 스크린 영상의 정보가 상기 외부 디스플레이 장치로 제공되는 단계, 제 1 스크린 영상에 상응하는 제 2 스크린 영상을 디스플레이하는 모니터 창이 제 2 디스플레이부에서 생성되도록 제어하는 단계, 및 제 2 디스플레이부에서 상기 모니터 창이 확대될 때, 제 2 스크린 영상이 줌아웃되도록 제어하는 단계를 포함하는 이동단말기의 제어 방법을 제공한다.
또한, 상기 목적을 달성하기 위해 본 발명은, 제 1 스크린 영상을 디스플레이하는 제 1 디스플레이부를 구비하는 외부 이동단말기를, 제 2 디스플레이부를 구비하는 디스플레이 장치와 연결하는 단계, 제 1 스크린 영상의 정보를 상기 외부 이동단말기로부터 수신하여, 제 1 스크린 영상에 상응하는 제 2 스크린 영상을 디스플레이하는 모니터 창이 제 2 디스플레이부에서 생성되도록 제어하는 단계, 및 제 2 디스플레이부에서 상기 모니터 창이 확대될 때, 제 2 스크린 영상이 줌아웃되도록 제어하는 단계를 포함하는 디스플레이 장치의 제어 방법을 제공한다.
본 발명에 따른 이동 단말기, 디스플레이 장치, 및 그 제어 방법의 효과에 대해 설명하면 다음과 같다.
본 발명의 실시예들 중 적어도 하나에 의하면, 상기 이동단말기와 상기 디스플레이 장치가 서로 연결되어 상기 이동단말기의 디스플레이와 관련된 모니터 창이 상기 디스플레이 장치에서 디스플레이될 때, 단말기 사용자는 필요에 따라 상기 이동단말기의 하우징의 배향 방향을 전환함으로써 용이하게 상기 모니터 창의 배향 방향을 전환할 수 있다는 장점이 있다.
본 발명의 실시예들 중 적어도 하나에 의하면, 상기 이동단말기의 디스플레이와 관련된 상기 모니터 창이 상기 디스플레이 장치에서 디스플레이될 때, 상기 디스플레이 장치에서 기존에 디스플레이되고 있는 객체를 가리지 않도록 상기 모니터 창이 디스플레이됨으로써, 상기 모니터 창이 상기 기존의 객체를 가림으로써 단말기 사용자에게 초래할 수 있는 불편함을 미연에 방지할 수 있다는 장점이 있다.
본 발명의 실시예들 중 적어도 하나에 의하면, 상기 이동단말기의 디스플레이의 줌인 또는 줌아웃, 상기 모니터 창 내의 디스플레이의 줌인(또는 확대) 또는 줌아웃(또는 축소), 및 상기 모니터 창 자체의 확대 및 축소가 서로 유기적으로 연관되어 행해짐으로써 단말기 사용자가 상기 이동단말기의 디스플레이 및 상기 디스플레이 장치의 디스플레이를 더욱 편리하게 볼 수 있다는 장점이 있다.
도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.
도 2는 본 발명의 일 실시예와 관련된 디스플레이 장치의 블록 구성도(block diagram)이다.
도 3은 본 발명과 관련된 실시예가 구현될 수 있도록 상호 접속된 이동단말기 및 디스플레이 장치를 도시한다.
도 4는 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다.
도 5는 본 발명과 관련된 실시예가 구현되는 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 6 및 도 7은 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 8은 본 발명과 관련된 실시예가 구현되는 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 9 및 도 10은 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 11은 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다.
도 12는 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 13은 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다.
도 14는 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 15은 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다.
도 16은 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 17은 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다.
도 18은 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 19은 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다.
도 20은 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 21은 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다.
도 22는 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 23은 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다.
도 24는 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 25는 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다.
도 26은 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 27은 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다.
도 28은 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 29는 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다.
도 30은 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 31은 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다.
도 32는 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
이하, 본 발명과 관련된 이동 단말기 및 디스플레이 장치에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
먼저, 본 발명과 관련된 이동단말기에 대해 살펴본다.
본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 포함될 수 있다.
도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.
상기 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기가 구현될 수도 있다.
이하, 상기 구성요소들에 대해 차례로 살펴본다.
무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.
방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다.
상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.
상기 방송 관련 정보는 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미한다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.
이동통신 모듈(112)은, GSM(Gobal System for Mobile communications), CDMA(Code Division Multiple Access), WCDMA(Wideband CDMA)(이에 한정되지 않음)와 같은 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), GSM, CDMA, WCDMA, LTE(Long Term Evolution)(이에 한정되지 않음) 등이 이용될 수 있다.
Wibro, HSDPA, GSM, CDMA, WCDMA, LTE 등에 의한 무선인터넷 접속은 이동통신망을 통해 이루어진다는 관점에서 본다면, 상기 이동통신망을 통해 무선인터넷 접속을 수행하는 상기 무선 인터넷 모듈(113)은 상기 이동통신 모듈(112)의 일종으로 이해될 수도 있다.
근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
위치정보 모듈(115)은 이동 단말기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다. 현재 기술에 의하면, 상기 GPS모듈(115)은 3개 이상의 위성으로부터 떨어진 거리 정보와 정확한 시간 정보를 산출한 다음 상기 산출된 정보에 삼각법을 적용함으로써, 위도, 경도, 및 고도에 따른 3차원의 현 위치 정보를 정확히 산출할 수 있다. 현재, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법이 널리 사용되고 있다. 또한, GPS 모듈(115)은 현 위치를 실시간으로 계속 산출함으로써 속도 정보를 산출할 수 있다.
도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.
카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.
마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.
센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 상기 센싱부(140)의 예로는, 자이로스코프 센서, 가속도 센서, 지자기 센서 등이 있을 수 있다. 예를 들어 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서(141)를 포함할 수 있다. 이에 대해서는 나중에 터치스크린과 관련되어 후술된다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153), 햅틱 모듈(154) 및 프로젝터 모듈(155) 등이 포함될 수 있다.
디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.
디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다.
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.
이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 이동 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.
디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.
터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기(미도시)로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.
상기 근접 센서(141)는 상기 터치스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.
상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.
상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다.
음향 출력 모듈(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있으므로, 이 경우 상기 디스플레이부(151) 및 음음성출력모듈(152)은 알람부(153)의 일종으로 분류될 수도 있다.
햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
메모리부(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 전화번호부, 메시지, 오디오, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리부(160)에는 상기 데이터들 각각에 대한 사용 빈도(예를 들면, 각 전화번호, 각 메시지, 각 멀티미디어에 대한 사용빈도)가 저장될 수 있다.
또한, 상기 메모리부(160)에는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.
메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달하거나, 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다.
상기 무선 인터넷 모듈(113) 및 상기 근거리 통신 모듈(114)이 상기 무선 데이터 포트로 이용될 수 있음을 고려할 때, 이들은 상기 인터페이스부(170)의 일종으로 이해될 수도 있다.
식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다.
상기 인터페이스부는 이동단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.
제어부(controller)(180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.
상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다.
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.
소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.
이상에서는 본 발명과 관련된 이동단말기에 대해 설명하였다. 이하에서는 본 발명과 관련된 디스플레이 장치에 대해 설명하겠다.
본 명세서에서 설명되는 디스플레이 장치에는 상기 이동단말기와 통신 연결되어 상기 이동단말기의 디스플레이와 관련된 정보를 수신하여 디스플레이할 수 있다면 제한이 없다. 상기 디스플레이 장치의 예로는 노트북 컴퓨터(laptop computer), 태블릿 컴퓨터, 데스크탑 컴퓨터, 및 텔레비젼(예를 들면, 디지털 TV 또는 스마트 TV) 등(이에 한정되지 않음)이 포함될 수 있다.
도 2는 본 발명의 일 실시예와 관련된 디스플레이 장치의 블록 구성도(block diagram)이다.
상기 디스플레이 장치(200)는 무선 통신부(210), A/V(Audio/Video) 입력부(220), 사용자 입력부(230), 출력부(250), 메모리(260), 인터페이스부(270), 제어부(280) 및 전원 공급부(290) 등을 포함할 수 있다.
상기 무선 통신부(210)는 무선 인터넷 모듈(213) 및 근거리 통신 모듈(214)를 포함할 수 있다. 그리고, 상기 출력부(250)는 디스플레이부(251)와 음향출력모듈(253)을 포함할 수 있다.
상기 디스플레이 장치(200)의 구성요소들에 대해서는 도 1와 관련하여 전술된 상기 이동단말기(100)의 각 해당 구성요소와 동일하거나 상당히 유사하다. 따라서, 이들에 대한 자세한 설명은 본 명세서의 간명함을 위해 생략하도록 하겠다.
도 2에 도시된 구성요소들 모두가 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 디스플레이 장치가 구현될 수도 있다. 예를 들면, 상기 디스플레이 장치(200)가 텔레비전인 경우에는 방송 수신 모듈을 더 구비할 수 있다. 그리고, 상기 디스플레이 장치(200)가 텔레비전인 경우 필요에 따라 상기 무선 인터넷 모듈을 구비하지 않을 수 있다 (물론 구비하여도 무방하다). 상기 방송 수신 모듈 역시 도 1과 관련하여 전술된 상기 이동단말기(100)의 방송 수신 모듈(111)과 동일하거나 상당히 유사하므로, 이에 대한 자세한 설명은 본 명세서의 간명함을 위해 생략하도록 하겠다.
이하, 도 3을 참조하여, 상기 이동단말기(100)와 상기 디스플레이 장치(200)가 서로 접속되는 것에 대해 설명하도록 하겠다.
도 3은 본 발명과 관련된 실시예가 구현될 수 있도록 상호 접속된 이동단말기 및 디스플레이 장치를 도시한다.
상기 이동단말기(100)와 상기 디스플레이 장치(200)는 상기 이동단말기(100)의 인터페이스부(170)와 상기 디스플레이 장치(200)의 인터페이스부(270)를 통해 서로 접속될 수 있다. 상기 이동단말기(100)와 상기 디스플레이 장치(200) 간의 접속은 유선 통신으로 접속될 수도 있고, 또는 무선 통신(예를 들면, 근거리 통신 또는 무선 인터넷 통신)으로 접속될 수도 있다.
도 3에서는 상기 이동단말기(100)와 상기 디스플레이 장치(200)가 서로 접속된 상태를 도시하고 있다.
이하에서는 설명의 편의상 상기 이동단말기(100)와 상기 디스플레이 장치(200) 간의 구성요소들을 서로 구분하기 위해, 상기 이동단말기(100)에 해당하는 구성요소들 앞에는 "제 1"이라는 접두어를 사용하고, 상기 디스플레이 장치(200)에 해당하는 구성요소들 앞에는 "제 2"라는 접두어를 사용하도록 하겠다.
예를 들면, 상기 이동단말기(100)의 디스플레이부(151) 및 제어부(180)을 각각 제 1 디스플레이부(151) 및 제 1 제어부(180)로 호칭하고, 상기 디스플레이 장치(200)의 디스플레이부(251) 및 제어부(280)을 각각 제 2 디스플레이부(251) 및 제 2 제어부(280)로 호칭하도록 하겠다.
그리고, 제 1 디스플레이부(151)에서 디스플레이되는 영상을 제 1 스크린 영상(300)이라고 호칭하겠다.
상기 이동단말기(100)와 상기 디스플레이 장치(200) 간에 접속이 이루어지면, 상기 이동단말기(100)는 제 1 디스플레이부(151)에 디스플레이되는 제 1 스크린 영상에 관한 정보를 상기 디스플레이 장치(200)로 제공할 수 있다.
상기 디스플레이 장치(200)에는 상기 이동단말기(100)로부터 수신하는 제 1 스크린 영상에 관한 정보를 처리하기 위한 애플리케이션이 사전에 설치되어 있을 수 있다.
그래서, 상기 디스플레이 장치(200)의 제 2 제어부(280)는, 상기 이동단말기(100)와 상기 디스플레이 장치(200)가 서로 접속되었을 때, 제 1 스크린 영상을 위한 모니터 창(400)을 제 2 디스플레이부(251) 상에 디스플레이되도록 제어할 수 있다. 그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)에 제 1 스크린 영상에 해당하는 영상을 디스플레이될 수 있도록 제어한다. 이하에서는 설명의 편의상 상기 이동단말기의 제 1 스크린 영상(300)과 구별하기 위해, 상기 모니터 창(400)에 디스플레이되는 영상을 제 2 스크린 영상(500)이라고 호칭하겠다.
상기 모니터 창(400)에 좀더 구체적으로 설명을 하면, 상기 모니터 창(400)은 상기 이동단말기(100)의 제 1 디스플레이부(151)가 장착된 하우징의 일면과 동일하거나 유사한 형상을 가질 수 있다. 따라서, 상기 하우징의 일면에 소정 키버튼(130)이 배치된 경우에는 상기 모니터 창(400)에는 상기 소정 키버튼과 동일한 형상의 소프트 키버튼(430)이 해당 위치에 형성될 수 있다.
상기 디스플레이 장치(200)에서 상기 소프트 키버튼(430)이 마우스로 클릭될 때 (또는, 제 2 디스플레이부(251)가 터치스크린인 경우 상기 소프트 키버튼(430)이 터치될 때), 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 소프트 키버튼(430)이 상기 디스플레이 장치(200)에서 조작되었음을 알리는 제어 신호를 상기 이동단말기(100)로 보낼 수 있다.
그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 제어 신호를 수신하여, 상기 조작된 소프트 키버튼(430)에 해당하는 상기 소정 키버튼(130)의 조작에 해당하는 특정 기능이 상기 이동단말기(100)에서 실행되도록 제어할 수 있다.
그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 실행된 특정 기능에 따른 영상이 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)으로서 디스플레이될 수 있도록 제어할 수 있다. 그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 제 1 스크린 영상(300)에 관한 정보를 상기 디스플레이 장치(200)로 전송할 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(180)는 상기 전송된 제 1 스크린 영상(300)에 대응되는 제 2 스크린 영상(500)을 상기 모니터 창(400)에 디스플레이하도록 제어할 수 있다.
즉, 사용자는 상기 이동단말기(100)를 직접 조작하지 않더라도 상기 디스플레이 장치의 상기 모니터 창(400)을 조작함으로써 상기 이동단말기(100)를 간접적으로 조작할 수 있고, 상기 간접적으로 조작된 상기 이동단말기(100)의 제 1 스크린 영상(300)을 상기 디스플레이 장치(200)의 제 2 스크린 영상(500)을 통해 볼 수 있다.
상기 모니터 창(400)이 반드시 상기 이동단말기(100)의 제 1 디스플레이부(151)가 장착된 하우징의 일면과 동일하거나 유사한 형상을 가져야 하는 것은 아니다. 예를 들면, 상기 모니터 창(400)에는 상기 하우징의 일면의 형상에 부가하여 다른 아이콘(예를 들면, 창 닫기 아이콘, 창 최소화 아이콘, 창 최대화 아이콘 등)(미도시)이 더욱 도시될 수도 있다. 또는 상기 모니터 창(400)에는 상기 하우징 일면의 형상 없이 제 2 스크린 영상(500)만이 디스플레이될 수도 있다.
상기 디스플레이 장치(200)는 상기 이동단말기(100)로부터 제 1 스크린 영상(300)에 관한 정보를 수신하여 이를 제 2 스크린 영상(500)으로서 상기 모니터 창(400)에서 디스플레이한다. 따라서, 제 1 스크린 영상(300) 및 제 2 스크린 영상(500)은 상기 이동단말기(100)에서 생성되는 컨텐트 영상을 공유할 수 있다.
도 3에서는 상기 이동단말기(100)에서 생성되는 컨텐트 영상은 대기 영상인 것이 예시적으로 도시되어 있으나, 본 실시예에서 이에 한정되지 않음은 물론이다. 상기 이동단말기(100)에서 생성되는 컨텐트 영상은 상기 이동단말기에서 실행되는 모든 기능, 메뉴 또는 애플리케이션과 관련된 영상을 포함한다.
이하, 상기 이동단말기(100)가 제 1 스크린 영상에 관한 정보를 상기 디스플레이 장치(200)로 제공하는 것에 대해 좀더 자세히 살펴보겠다.
상기 이동단말기(100)의 제 1 제어부(180)는 제 1 디스플레이부(180)에서 디스플레이되는 제 1 스크린 영상(300)을 캡처하여 이를 전술한 제 1 스크린 영상(300)에 관한 정보로서 상기 디스플레이 장치(200)로 전송할 수 있다. 그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 전송된 캡처된 제 1 스크린 영상(300)을 수신하여 이를 제 2 스크린 영상(500)으로서 상기 모니터 창(400)에서 디스플레이되도록 제어할 수 있다.
이 경우, 제 1 스크린 영상(300)과 제 2 스크린 영상(500)은 예컨대 줌인 및 줌아웃에 있어서 서로 종속될 수 있다. 즉, 제 1 스크린 영상(300)이 줌인되거나 줌아웃되면 제 2 스크린 영상도 이에 따라 줌인되거나 줌아웃될 수 있다. 그리고, 제 1 스크린 영상(300)과 제 2 스크린 영상(500)은 그 내용에 있어도 서로 종속될 수 있다.
상기 이동단말기(100)의 제 1 제어부(180)는 제 1 디스플레이부(151)에 입력하는 영상 신호를 제 1 스크린 영상(300)에 관한 정보로서 상기 디스플레이 장치(200)로도 전송할 수 있다. 상기 이동단말기(100)의 제 1 디스플레이부(151)는 상기 영상 신호를 제 1 스크린 영상(300)으로서 출력할 수 있다. 그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 전송된 영상 신호를 수신하여 제 2 디스플레이부(251)의 상기 모니터 창(400)에서 제 2 스크린 영상(500)으로서 출력할 수 있다. 즉, 제 1 디스플레이부(151) 및 제 2 디스플레이부(251)는 제 1 제어부(180)가 출력하는 상기 영상 신호를 공유할 수 있다. 이하에서는 상기 영상 신호를 "공유 영상 신호"라고 칭하겠다.
이 경우에도, 제 1 스크린 영상(300)과 제 2 스크린 영상(500)은 예컨대 줌인 및 줌아웃에 있어서 서로 종속될 수 있다. 즉, 제 1 스크린 영상(300)이 줌인되거나 줌아웃되면 제 2 스크린 영상도 이에 따라 줌인되거나 줌아웃될 수 있다. 그리고, 제 1 스크린 영상(300)과 제 2 스크린 영상(500)은 그 내용에 있어도 서로 종속될 수 있다.
상기 이동단말기(100)의 제 1 제어부(180)는 상기 이동단말기(100)에서 생성되는 특정 컨텐트 영상에 관한 제 1 영상 신호 및 이와 독립적인 제 2 영상 신호를 생성하고, 제 1 영상 신호는 제 1 디스플레이부(151)로 입력하고, 제 2 영상 신호는 제 1 스크린 영상에 관한 정보로서 상기 디스플레이 장치(200)로 전송할 수 있다. 상기 이동단말기(100)의 제 1 디스플레이부(151)는 제 1 영상 신호를 제 1 스크린 영상(300)으로서 출력할 수 있다. 그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 전송된 제 2 영상 신호를 수신하여 제 2 디스플레이부(251)의 상기 모니터 창(400)에서 제 2 스크린 영상(500)으로서 출력할 수 있다. 제 1 디스플레이부(151) 및 제 2 디스플레이부(251)에 제 1 영상 신호 및 제 2 영상 신호가 서로 독립적으로 제공된다는 점에서, 제 1 영상 신호 및 제 2 영상 신호는 상기 공유 영상 신호와는 구별되어야 함을 유념해야 한다.
이 경우에는, 제 1 스크린 영상(300)과 제 2 스크린 영상(500)은 예컨대 확대 및 축소에 있어서 서로 독립적일 수 있다. 즉, 제 1 스크린 영상(300)이 줌조절됨에 상관없이 제 2 스크린 영상(500)이 줌조절될 수 있다. 반대로, 제 2 스크린 영상(500)이 줌조절됨에 상관없이 제 1 스크린 영상(300)이 줌조절될 수 있다. 그리고, 제 1 스크린 영상(300)과 제 2 스크린 영상(500)은 그 내용에 있어도 서로 독립될 수 있다.
제 1 스크린 영상(300) 및 제 2 스크린 영상(500)의 줌인 및 줌아웃에 대해서는 이후 다시 설명된다.
이상에서는 상기 이동단말기(100)와 상기 디스플레이 장치(200)가 서로 접속됨에 따라 제 1 디스플레이부(151)에서 디스플레이되는 제 1 스크린 영상(300) 및 제 2 디스플레이부(251)에서 디스플레이되는 상기 모니터 창(400) 및 제 2 스크린 영상(500)에 대해 개략적으로 설명하였다.
이하에서는 제 1 스크린 영상(300), 상기 모니터 창(400) 및 제 2 스크린 영상(500)에 대해 도 4 내지 도 10을 더욱 참조하여 좀더 자세히 살펴보도록 하겠다. 이하에서는 상기 이동단말기(100)의 제 1 디스플레이부(151) 및 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)가 모두 터치스크린일 수 있다. 그러나, 본 발명의 실시예가 제 1 및 제 2 디스플레이부(151, 251)가 터치스크린인 경우에만 적용되는 것은 절대로 아니고, 이들이 터치스크린이 아닌 일반 디스플레이더라도 적용될 수 있음은 물론이다.
도 4는 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다. 도 5는 본 발명과 관련된 실시예가 구현되는 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다. 도 6 및 도 7은 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다. 도 8은 본 발명과 관련된 실시예가 구현되는 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다. 도 9 및 도 10은 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
상기 이동단말기(100)의 제 1 디스플레이부(151)에 제 1 스크린 영상(300)이 디스플레이될 수 있다[S41]. 그리고, 상기 이동단말기(100)가 상기 디스플레이 장치(200)와 접속될 수 있다[S42]. 상기 S41 단계 및 S42 단계는 서로 순서가 바뀌어 행해져도 무방하다. 상기 S41 단계 및 S42 단계에 대해서는 이미 도 3과 관련되어 설명되었으므로, 자세한 설명은 본 명세서의 간명함을 위해 생략하도록 하겠다.
상기 이동단말기(100)와 상기 디스플레이 장치(200)가 접속됨에 따라, 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)에 상기 모니터 창(400)이 생성되고, 상기 모니터 창(400)에는 제 1 스크린 영상(300)에 대응되는 제 2 스크린 영상(400)이 디스플레이될 수 있다[S43].
제 2 디스플레이부(251)에서 상기 모니터 창(400)이 생성되는 것에 대해 도 5를 더욱 참조하여 살펴본다.
도 5에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)에 적어도 하나의 객체들(A, B, C, ...)이 디스플레이될 수 있다. 여기서 "객체(object)"라 함은 사용자와의 인터랙션을 위해 준비된 그래픽 인터페이스를 의미하는 것으로, 그 예로는 메뉴 아이콘, 파일 아이콘, 실행 아이콘, 썸네일, 링크, 텍스트 입력 박스 등(이에 제한되지 않음)이 있을 수 있다. 도 5에서는 상기 객체가 아이콘(이에 한정되지 않음)인 것으로 가정한다.
도 5의 (5-1)에 도시된 바와 같이, 상기 이동단말기(100)와 상기 디스플레이 장치(200)가 서로 접속되었을 때, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 디스플레이부(251)에서 기존에 디스플레이되고 있는 상기 객체들을 고려하지 않고 상기 모니터 창(400)의 생성 위치가 결정되도록 제어할 수 있다. 즉, 상기 모니터 창(400)은 특정 위치에 디스플레이되기 위해 상기 객체들을 가리도록 생성될 수 있다.
또는, 도 5의 (5-2)에 도시된 바와 같이, 상기 이동단말기(100)와 상기 디스플레이 장치(200)가 서로 접속되었을 때, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 디스플레이부(251)에서 기존에 디스플레이되고 있는 상기 객체들을 고려하여 상기 모니터 창(400)의 생성 위치가 결정되도록 제어할 수 있다. 즉, 상기 모니터 창(400)은 상기 객체들을 가리지 않는 적절한 위치에서 생성될 수 있다.
더욱이, 도 5의 (5-3)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 디스플레이부(251)에서 기존에 디스플레이되고 있는 상기 객체들을 고려하여 상기 모니터 창(400)의 생성 위치 및 생성 크기가 결정되도록 제어할 수 있다. 즉, 상기 모니터 창(400)은 상기 객체들을 가리지 않는 적절한 위치에서 그리고 적절한 크기로 생성될 수 있다.
상기 생성된 모니터 창(400)의 위치 및 크기는 이후 사용자의 조작에 의해 조절될 수 있음은 물론이다.
도 6을 참조하여, 제 1 스크린 영상(300) 및 제 2 스크린 영상(500)에 대해 좀더 자세히 살펴보겠다.
도 6의 (6-1)에 도시된 바와 같이, 제 1 스크린 영상(300)에는 상기 컨텐트 영상을 위한 적어도 하나의 객체들(301, 303, 305, 307)이 디스플레이될 수 있다. 설명의 편의상 제 1 스크린 영상의 객체를 "제 1 객체"이라고 호칭하겠다.
그리고, 제 2 스크린 영상(300)에도 제 1 객체들(301, 303, 305, 307)에 각각 대응되는 객체들(501, 503, 505, 507)이 디스플레이될 수 있다. 설명의 편의상 제 2 스크린 영상의 객체를 "제 2 객체"라고 호칭하겠다.
상기 이동단말기(100)의 제 1 스크린 영상(300)에서 예컨대 메시지 메뉴의 실행을 위한 제 1 특정 객체(303)가 선택될 수 있다. 상기 이동단말기(100)의 제 1 디스플레이부(151)가 터치스크린인 경우에는 제 1 특정 객체(303)을 터치함으로써 선택할 수 있다. 그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 제 1 특정 객체(303)의 선택에 기반하여 상기 메시지 메뉴가 실행되도록 제어할 수 있다.
또는, 도 6의 (6-1)에서 상기 디스플레이 장치(200)의 제 2 스크린 영상(300)에서 제 1 특정 객체(303)에 해당하는 제 2 특정 객체(503)이 선택될 때, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 특정 객체(503)이 선택되었음을 알리는 제어 신호를 상기 이동단말기(100)로 전송할 수 있다. 제 2 특정 객체의 선택은 제 2 특정 객체가 마우스로 클릭되거나, 제 2 디스플레이부(251)가 터치스크린인 경우 터치됨으로써 행해질 수 있다. 제 2 제어부는 상기 모니터 상에서의 상기 마우스의 클릭 위치 또는 터치 위치를 상기 제어 신호로서 상기 이동단말기(100)로 전송할 수 있다. 그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 제어 신호에 기반하여 상기 메시지 메뉴가 실행되도록 제어할 수 있다.
상기 이동단말기(100)에서 상기 메시지 메뉴가 실행되면, 도 6의 (6-2)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 메시지 메뉴에 따른 컨텐트 영상이 제 1 스크린 영상(300)으로서 제 1 디스플레이부(151)에 디스플레이되면서, 제 2 스크린 영상(500)으로서 제 2 디스플레이부(251)의 상기 모니터 창(400)에서 각각 디스플레이되도록 제어할 수 있다.
이하, 도 7 및 도 8을 더욱 참조하여, 상기 이동단말기의 하우징의 배향 방향에 따른 제 2 디스플레이부(251) 내의 상기 모니터 창(400)의 배향 방향과, 상기 배향 방향에 따른 제 1 스크린 영상 및 제 2 스크린 영상의 디스플레이 방향에 대해 설명하겠다.
앞서 설명한 도 6에 도시된 바와 같이, 상기 이동단말기(100)의 하우징이 수직 방향으로 배치되고 있고, 제 2 디스플레이부(251)에서 상기 모니터 창(400)이 수직 방향으로 배치되고 있고, 제 1 디스플레이부(151)의 제 1 스크린 영상 및 제 2 디스플레이부(251)의 제 2 스크린 영상의 디스플레이 방향은 모두 포트레이트(portrait) 방향인 상황을 가정한다.
이 때, 도 7의 (7-1)에 도시된 바와 같이, 사용자가 상기 이동단말기(100)의 하우징을 시계 반대 방향으로 회전하여 수평 방향으로 배치함으로써 상기 이동단말기(100)의 하우징의 배향 방향을 변환할 수 있다.
그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 제 1 센싱부(140)를 통해 상기 변환된 배향 방향을 감지할 수 있다.
그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 감지된 변환된 배향 방향을 상기 디스플레이 장치(200)로 제공할 수 있다[S44].
그러면, 도 7의 (7-2)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 변환된 배향 방향에 따라 상기 모니터 창(400)이 시계 반대 방향으로 회전하여 수평 방향으로 배치되도록 제어할 수 있다[S45].
한편, 도 7의 (7-3)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 변환된 배향 방향에 근거하여 제 1 디스플레이부(151)에서 제 1 스크린 영상이 랜드스케이프(landscape) 방향으로 디스플레이되도록 제어할 수 있다.
그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 랜드스케이프 방향에 따른 제 1 스크린 영상에 관한 정보를 상기 디스플레이 장치(200)로 제공할 수 있다.
그러면, 도 7의 (7-4)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 수평 방향으로 배치된 상기 모니터 창(400)에서 제 2 스크린 영상(500)이 랜드스케이프 방향으로 디스플레이되도록 제어할 수 있다.
제 2 디스플레이부(251)에서 상기 모니터 창(400)의 배향 방향이 전환될 때, 그 주변에 존재하는 객체들이 고려되어 상기 모니터 창(400)의 크기도 조절될 수 있다. 이에 대해 도 8을 더욱 참조하여 설명한다.
도 8의 (8-1)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)에 상기 모니터 창(400)이 수직 방향으로 배향되어 있다. 상기 모니터 창(400)은 그 주변에 배치된 객체들(A, B, C...)이 고려되어 제 1 크기로 디스플레이되고 있다. 제 1 크기는 상기 모니터 창(400)이 수직 방향으로 배치될 때 상기 주변 객체들을 가리지 않을 만큼의 최대 크기일 수 있다.
전술한 바와 같이, 상기 이동단말기(100)의 하우징의 배향 방향이 전환됨에 따라, 상기 모니터 창(400)의 배향 방향이 수평 방향으로 전환될 수 있다.
이 때, 도 8의 (8-2)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)이 상기 주변 객체들을 가리지 않는 한, 상기 수평 방향으로 전환된 상기 모니터 창(400)의 크기가 제 1 크기로 그대로 유지되도록 제어할 수 있다.
또는, 도 8의 (8-3)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)이 수평 방향으로 배치되었을 때 상기 주변 객체들의 배치를 고려하여 상기 주변 객체들을 가리지 않을 만큼의 최대 크기인 제 2 크기로 확대되어 디스플레이되도록 제어할 수도 있다.
도 7에서는 상기 이동단말기(100)의 하우징의 배향 방향에 따라 상기 모니터 창(400)의 배향 방향이 전환되는 것에 대해 설명하였다. 그러나, 제 2 디스플레이부(251)에서 상기 모니터 창(400)의 배향 방향이 반드시 상기 이동단말기(100)의 하우징의 배향 방향에 의해서만 결정되어야 하는 것은 아니다. 이에 대해 도 9를 더욱 참조하여 설명한다.
앞서 설명한 도 7의 (7-4)에 도시된 바와 같이, 상기 이동단말기(100)의 하우징이 수평 방향으로 배치되고 있고, 제 2 디스플레이부(251)에서 상기 모니터 창(400)이 수평 방향으로 배치되고 있고, 제 1 디스플레이부(151)의 제 1 스크린 영상 및 제 2 디스플레이부(251)의 제 2 스크린 영상의 디스플레이 방향이 모두 랜드스케이프 방향인 상황을 가정한다.
이 때, 도 9의 (9-1)에 도시된 바와 같이, 상기 디스플레이 장치(200)에서 소정 사용자 명령이 입력될 때, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)이 시계 방향으로 회전하여 수직 방향으로 배향되도록 제어할 수 있다. 도 9의 (9-1)에서는 상기 디스플레이 장치(200)의 제 2 디스플레이부(261)가 터치스크린이고, 상기 모니터 창(200) 상의 두 위치에서 터치가 동시에 행해진 후 상기 터치가 시계 방향으로 회전될 때 상기 모니터 창(400)이 시계 방향으로 회전되는 것에 대해 예시적으로 도시되어 있다. 상기 모니터 창(400)의 회전을 위해 상기 디스플레이 장치(200)에서 입력되는 상기 소정 사용자 명령에 제한이 있는 것은 아니다.
상기 모니터 창(400)이 수직 방향으로 배향되면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)이 수직 방향으로 배향되었음을 알리는 제어 신호를 상기 이동단말기(100)로 전송하도록 제어할 수 있다.
그러면, 도 9의 (9-2)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 이동단말기(100)의 하우징의 여전히 수평 방향으로 배향되어 있음에도 제 1 스크린 영상(300)의 디스플레이 방향을 포트레이트 방향으로 전환하도록 제어할 수 있다.
그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 포트레이트 방향으로 전환된 제 1 스크린 영상(300)에 관한 정보를 상기 디스플레이 장치(200)로 전송하도록 제어할 수 있다.
상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 1 스크린 영상(300)에 관한 정보를 수신하여 제 2 스크린 영상(500)이 포트레이트 방향으로 디스플레이되도록 제어할 수 있다.
도 9의 (9-3)에 도시된 바와 같이, 사용자가 상기 이동단말기(100)의 하우징을 시계 방향으로 회전하여 다시 수직 방향으로 배향할 수 있다. 그러나, 상기 이동단말기(100)의 제 1 스크린 영상(300)은 이미 포트레이트 방향으로 디스플레이되어 있으므로 제 1 스크린 영상(300)의 디스플레이 방향을 전환하지 않을 수 있다. 그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 제어 신호를 통해 상기 모니터 창(400)이 이미 수직 방향으로 배향되어 있음을 알고 있으므로, 상기 이동단말기(100)의 하우징이 다시 수직 방향으로 배향되었음을 알리는 제어신호를 상기 디스플레이 장치(200)로 전송하지 않을 수 있다. 설사 상기 이동단말기(100)의 하우징이 다시 수직 방향으로 배향되었음을 알리는 제어신호가 상기 디스플레이 장치(200)로 전송되더라도, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)이 이미 수직 방향으로 배향되어 있으므로 상기 전송된 제어신호를 무시할 수 있다.
상기 이동단말기(100)의 제 1 제어부(180)가 제 1 스크린 영상에 관한 정보로서 제 1 스크린 영상을 캡처하여 상기 디스플레이 장치(200)로 전송하거나, 제 1 디스플레이부(151)에 입력하는 상기 공유 영상 신호를 상기 디스플레이 장치(200)로 전송하는 경우에는 도 9에 도시된 바와 같이 제 1 스크린 영상의 디스플레이 방향과 제 2 스크린 영상의 디스플레이 방향이 동일하다.
그러나, 상기 이동단말기(100)의 제 1 제어부(180)가 제 1 영상 신호 및 이와 독립적인 제 2 영상 신호를 생성하고, 제 1 영상 신호는 제 1 디스플레이부(151)로 그리고 제 2 영상 신호는 상기 디스플레이 장치(200)로 전송하는 경우에는, 제 1 스크린 영상의 디스플레이 방향과 제 2 스크린 영상의 디스플레이 방향이 서로 독립적일 수 있다. 이에 대해 도 10을 더욱 참조하여 설명한다.
앞서 설명한 도 9의 (9-1)에 도시된 바와 같이, 상기 디스플레이 장치(200)에서 소정 사용자 명령이 입력될 때, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)이 시계 방향으로 회전하여 수직 방향으로 배향되도록 제어할 수 있다.
상기 모니터 창(400)이 수직 방향으로 배향되면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)이 수직 방향으로 배향되었음을 알리는 제어 신호를 상기 이동단말기(100)로 전송하도록 제어할 수 있다.
그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 수직 방향의 모니터 창(400)에 해당하는 포트레이트 방향의 제 2 영상 신호를 상기 디스플레이 장치(200)로 전송한다.
그러면, 도 10의 (10-1)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 영상 신호에 따라 제 2 스크린 영상(500)이 포트레이트 방향으로 디스플레이되도록 제어할 수 있다.
그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 수평 방향으로 배향된 상기 이동단말기(100)의 하우징에 해당하는 제 2 영상 신호와 독립적인 랜드스케이프 방향의 제 1 영상 신호를 제 1 디스플레이부(151)로 계속 제공할 수 있다. 따라서, 도 10의 (10-1)에 도시된 바와 같이, 제 1 디스플레이부(151)에는 제 1 스크린 영상(300)이 랜드스케이프 방향으로 여전히 디스플레이될 수 있다.
도 10의 (10-2)에 도시된 바와 같이, 사용자가 상기 이동단말기(100)의 하우징을 시계 방향으로 회전하여 다시 수직 방향으로 배향할 수 있다.
그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 수직 방향으로 배향된 상기 이동단말기(100)이 하우징에 대응되도록 제 1 스크린 영상이 포트레이트 방향으로 디스플레이되도록 하는 제 1 영상 신호가 제 1 디스플레이부(151)로 제공되도록 제어할 수 있다. 그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 수직 방향의 모니터 창(400)에 해당하는 제 2 영상 신호를 여전히 상기 디스플레이 장치(200)로 전송하여, 제 2 디스플레이부(251)에서 제 2 스크린 영상(500)이 여전히 포트레이트 방향으로 디스플레이되도록 제어할 수 있다.
이상에서는 상기 이동단말기의 하우징의 배향 방향에 따른 제 1 스크린 영상 및 제 2 스크린 영상의 디스플레이 방향 및 상기 모니터 창의 배향 방향에 대해 설명하였다. 이하에서는 제 1 스크린 영상 및 제 2 스크린 영상의 줌인 및 줌아웃과 상기 모니터 창의 확대 및 축소에 대해 설명하도록 하겠다.
먼저, 도 11 내지 도 12를 참조하여 설명한다.
도 11은 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다. 도 12는 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 12의 (12-1)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)이 디스플레이되고, 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)에 상기 모니터 창(400)이 디스플레이되고, 상기 모니터 창(400)에 제 2 스크린 영상(500)이 디스플레이되고 있다.
이 때, 상기 이동단말기(100)에서 제 1 스크린 영상(300)을 줌인하기 위한 사용자 명령이 입력될 수 있다[S111]. 예를 들어, 상기 줌인을 위한 사용자 명령은 제 1 디스플레이부(터치스크린)(151) 상의 두 위치에서 터치가 동시에 행해진 후 상기 터치가 서로 멀어지는 방향으로 드래그됨으로써 입력될 수 있다. 그 외에도 상기 이동단말기(100)의 제 1 사용자 입력부(130)의 사용자 조작을 통해서도 상기 줌인을 위한 사용자 명령이 입력될 수 있음은 물론이다.
그 다음, 도 12의 (12-2)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 제어부(180)는 제 1 스크린 영상(300)이 줌인되도록 제어할 수 있다[S112]. 그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 줌인된 제 1 스크린 영상(300)을 위한 제 1 영상 신호와는 독립적인 제 2 영상 신호를 상기 디스플레이 장치(200)로 전송할 수 있다. 제 2 영상 신호는 줌인되기 전의 원래 제 1 스크린 영상에 관한 정보일 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)의 크기를 그대로 유지하도록 제어할 수 있다[S113]. 그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 스크린 영상(500)의 크기를 그대로 유지하면서, 제 2 스크린 영상(500)의 줌레벨이 변하지 않고 그대로 유지되도록 제어할 수 있다[S114].
또는, 도 12의 (12-3)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 스크린 제어부(180)는 제 1 스크린 영상(300)이 줌인되도록 제어하면서[S112], 상기 줌인된 제 1 스크린 영상(300)에 관한 정보를 상기 디스플레이 장치(200)로 제공할 수 있다. 상기 줌인된 제 1 스크린 영상(300)에 관한 정보는 제 1 스크린 영상의 캡처 영상 또는 제 1 디스플레이부(151)에 입력되는 상기 공유 영상 신호일 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)의 크기를 그대로 유지하도록 제어할 수 있다[S113]. 그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 스크린 영상(500)의 크기를 그대로 유지하면서, 제 2 스크린 영상(500)이 줌인되도록 제어할 수 있다[S115].
또는, 도 12의 (12-4)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 제어부(180)는 제 1 스크린 영상(300)이 줌인되도록 제어할 수 있다[S112]. 그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 제 1 스크린 영상(300)이 줌인되었음을 알리는 제어 신호를 상기 디스플레이 장치(200)로 제공할 수 있다.
이에, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 제어 신호에 따라 상기 줌인의 정도에 비례하여 상기 모니터 창(400)의 크기를 확대할 수 있다[S116].
그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 줌인된 제 1 스크린 영상(300)을 위한 제 1 영상 신호와는 독립적인 제 2 영상 신호를 상기 디스플레이 장치(200)로 전송할 수 있다. 제 2 영상 신호는 줌인되기 전의 원래 제 1 스크린 영상에 관한 정보일 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 스크린 영상이 상기 확대된 모니터 창에서 확대되어 디스플레이되면서, 제 2 스크린 영상의 줌레벨이 그대로 유지되도록 제어할 수 있다[S117].
도 12의 (12-4)의 제 2 스크린 영상(500) 내에서 점선으로 표시된 사각형 부분(510)이 도 12의 (12-3)의 제 2 스크린 영상(500) 전체에 대응될 수 있다. 상기 점선으로 표시된 사각형 부분이 도 12의 (12-4)에서 반드시 디스플레이되어야 하는 것은 아니다.
본 명세서에서 영상의 "줌인" 개념과 "확대" 개념은 서로 구별될 필요가 있다. 영상의 테두리가 확대되거나 축소되는 것에 상관없이 상기 테두리 내에서 디스플레이되는 상기 영상의 컨텐트의 범위가 줄어드는 것을 상기 영상이 "줌인"되는 것으로 정의하겠다. 그리고, 영상의 줌 레벨이 변하는 것과는 상관없이, 상기 영상의 테두리가 확대되는 것을 상기 영상이 "확대"되는 것으로 정의하겠다.
예를 들면, 도 12의 (12-1)의 제 2 스크린 영상(500)이 도 12의 (12-3)의 제 2 스크린 영상(500)으로 변하면, 제 2 스크린 영상이 "줌인"되는 것이지만 "확대"되는 것은 아니다. 그리고, 예를 들면, 도 12의 (12-1)의 제 2 스크린 영상(500)이 도 12의 (12-4)의 제 2 스크린 영상(500)으로 변하면, 제 2 스크린 영상이 "확대"되는 것이지만 "줌인"되는 것은 아니다.
이하, 도 13 내지 도 14를 참조하여 설명한다.
도 13은 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다. 도 14는 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 14의 (14-1)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)이 디스플레이되고, 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)에 상기 모니터 창(400)이 디스플레이되고, 상기 모니터 창(400)에 제 2 스크린 영상(500)이 디스플레이되고 있다.
이 때, 상기 이동단말기(100)에서 제 1 스크린 영상(300)을 줌아웃하기 위한 사용자 명령이 입력될 수 있다[S131]. 예를 들어, 상기 줌아웃을 위한 사용자 명령은 제 1 디스플레이부(터치스크린)(151) 상의 두 위치에서 터치가 동시에 행해진 후 상기 터치가 서로 가까워지는 방향으로 드래그됨으로써 입력될 수 있다. 그 외에도 상기 이동단말기(100)의 제 1 사용자 입력부(130)의 사용자 조작을 통해서도 상기 줌아웃을 위한 사용자 명령이 입력될 수 있음은 물론이다.
그 다음, 도 14의 (14-2)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 제어부(180)는 제 1 스크린 영상(300)이 줌아웃되도록 제어할 수 있다[S132]. 그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 줌아웃된 제 1 스크린 영상(300)을 위한 제 1 영상 신호와는 독립적인 제 2 영상 신호를 상기 디스플레이 장치(200)로 전송할 수 있다. 제 2 영상 신호는 줌아웃되기 전의 원래 제 1 스크린 영상에 관한 정보일 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)의 크기를 그대로 유지하도록 제어할 수 있다[S133]. 그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 스크린 영상(500)의 크기를 그대로 유지하면서, 제 2 스크린 영상(500)의 줌레벨이 변하지 않고 그대로 유지되도록 제어할 수 있다[S134].
또는, 도 14의 (14-3)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 스크린 제어부(180)는 제 1 스크린 영상(300)이 줌아웃되도록 제어하면서[S112], 상기 줌아웃된 제 1 스크린 영상(300)에 관한 정보를 상기 디스플레이 장치(200)로 제공할 수 있다. 상기 줌아웃된 제 1 스크린 영상(300)에 관한 정보는 제 1 스크린 영상의 캡처 영상 또는 제 1 디스플레이부(151)에 입력되는 상기 공유 영상 신호일 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)의 크기를 그대로 유지하도록 제어할 수 있다[S133]. 그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 스크린 영상(500)의 크기를 그대로 유지하면서, 제 2 스크린 영상(500)이 줌아웃되도록 제어할 수 있다[S135].
또는, 도 14의 (14-4)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 제어부(180)는 제 1 스크린 영상(300)이 줌아웃되도록 제어할 수 있다[S132]. 그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 제 1 스크린 영상(300)이 아웃되었음을 알리는 제어 신호를 상기 디스플레이 장치(200)로 제공할 수 있다.
이에, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 제어 신호에 따라 상기 줌아웃의 정도에 비례하여 상기 모니터 창(400)의 크기를 확대할 수 있다[S136].
그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 줌아웃된 제 1 스크린 영상(300)에 관한 정보를 상기 디스플레이 장치(200)로 제공할 수 있다. 상기 줌아웃된 제 1 스크린 영상(300)에 관한 정보는 제 1 스크린 영상의 캡처 영상 또는 제 1 디스플레이부(151)에 입력되는 상기 공유 영상 신호일 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 스크린 영상이 상기 확대된 모니터 창에서 확대되어 디스플레이되면서, 제 2 스크린 영상이 줌아웃되도록 제어할 수 있다[S137].
도 14의 (14-4)의 제 2 스크린 영상(500) 내에서 점선으로 표시된 사각형 부분(510)이 도 14의 (14-1)의 제 2 스크린 영상(500) 전체에 대응될 수 있다. 상기 점선으로 표시된 사각형 부분이 도 14의 (14-4)에서 반드시 디스플레이되어야 하는 것은 아니다.
본 명세서에서 영상의 "줌아웃" 개념과 "축소" 개념은 서로 구별될 필요가 있다. 영상의 테두리가 확대되거나 축소되는 것에 상관없이 상기 테두리 내에서 디스플레이되는 상기 영상의 컨텐트의 범위가 많아지는 것을 상기 영상이 "줌아웃"되는 것으로 정의하겠다. 그리고, 영상의 줌 레벨이 변하는 것과는 상관없이, 상기 영상의 테두리가 축소되는 것을 상기 영상이 "축소"되는 것으로 정의하겠다.
예를 들면, 도 14의 (14-1)의 제 2 스크린 영상(500)이 도 14의 (14-3)의 제 2 스크린 영상(500)으로 변하면, 제 2 스크린 영상이 "줌아웃"되는 것이지만 "축소"되는 것은 아니다. 예를 들면, 도 14의 (14-4)의 제 2 스크린 영상(500)이 도 14의 (14-3)의 제 2 스크린 영상(500)으로 변하면, 제 2 스크린 영상이 "축소"되는 것이지만 "줌아웃"되는 것은 아니다. 예를 들면, 도 14의 (14-1)의 제 2 스크린 영상(500)이 도 14의 (14-4)의 제 2 스크린 영상(500)으로 변하면, 제 2 스크린 영상이 "줌아웃"되면서 "확대"되는 것이다.
이상에서는 상기 이동단말기(100)에서 제 1 스크린 영상(300)을 줌인 또는 줌아웃하기 위한 사용자 명령이 입력되는 경우에 대해 설명하였다. 이하에서는 상기 디스플레이 장치(200)에서 제 2 스크린 영상(500)을 줌인(또는 확대)하거나, 줌아웃(또는 축소)하는 것에 설명하겠다.
먼저, 도 15 및 도 16에 대해 설명한다.
도 15은 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다. 도 16은 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 16의 (16-1)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)이 디스플레이되고, 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)에 상기 모니터 창(400)이 디스플레이되고, 상기 모니터 창(400)에 제 2 스크린 영상(500)이 디스플레이되고 있다.
이 때, 상기 디스플레이 장치(200)에서 제 2 스크린 영상(500)을 줌인하거나 확대하기 위한 사용자 명령이 입력될 수 있다[S151]. 예를 들어, 상기 줌인 또는 확대를 위한 사용자 명령은 제 2 디스플레이부(터치스크린)(251)의 상기 모니터 창(400)의 제 2 스크린 영상(500) 상의 두 위치에서 터치가 동시에 행해진 후 상기 터치가 서로 멀어지는 방향으로 드래그됨으로써 입력될 수 있다. 그 외에도 상기 디스플레이 장치(200)의 제 2 사용자 입력부(230)의 사용자 조작을 통해서도 상기 줌인 또는 확대를 위한 사용자 명령이 입력될 수 있음은 물론이다.
상기 사용자 명령이 제 2 스크린 영상의 줌인 명령인지 또는 확대 명령인지에 따라서 제 1 스크린 영상이 더욱 다르게 변할 수 있다. 이하 좀더 자세히 살펴본다.
상기 사용자 명령이 줌인 명령인 것으로 가정한다. 그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 스크린 영상(500)의 줌인 명령이 입력되었음을 알리는 제어 신호를 상기 이동단말기(100)로 전송할 수 있다. 그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 제어 신호에 해당하는 영상 신호를 상기 디스플레이 장치(200)로 전송할 수 있다.
그러면, 도 16의 (16-2)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 영상 신호를 이용하여 제 2 스크린 영상(500)이 줌인되도록 제어할 수 있다[S152]. 그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)의 크기를 그대로 유지하도록 제어할 수 있다[S153].
그리고, 도 16의 (16-2)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 제어 신호에 상관없이 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)의 줌레벨이 변하지 않도록 제어할 수 있다[S154].
또다시, 상기 사용자 명령이 줌인 명령인 것으로 가정한다. 그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 스크린 영상(500)의 줌인 명령이 입력되었음을 알리는 제어 신호를 상기 이동단말기(100)로 전송할 수 있다. 그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 제어 신호에 해당하는 영상 신호를 상기 디스플레이 장치(200)로 전송할 수 있다.
그러면, 도 16의 (16-3)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 영상 신호를 이용하여 제 2 스크린 영상(500)이 줌인되도록 제어할 수 있다[S152]. 그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)의 크기를 그대로 유지하도록 제어할 수 있다[S153].
그리고, 도 16의 (16-3)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 제어 신호에 반응하여 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)이 줌인되도록 제어할 수 있다[S155].
한편, 상기 사용자 명령이 확대 명령인 것으로 가정한다. 그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 스크린 영상(500)의 확대 명령이 입력되었음을 알리는 제어 신호를 상기 이동단말기(100)로 전송할 필요가 없을 수 있다.
대신에, 도 16의 (16-4)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 스크린 영상(500)이 줌레벨의 변동 없이 확대되도록 제어할 수 있다[S152]. 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 스크린 영상(500)이 확대됨에 따라 상기 모니터 창(400)의 크기도 확대되도록 제어할 수 있다[S156].
그리고, 도 16의 (16-4)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 디스플레이 장치(200)로부터 어떤 제어 신호를 받지 않으므로 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)을 그대로 유지할 수 있다. 즉, 제 1 스크린 영상(300)의 줌레벨이 변하지 않는다[S157].
도 16의 (16-4)의 제 2 스크린 영상(500) 내에서 점선으로 표시된 사각형 부분(510)이 도 16의 (16-3)의 제 2 스크린 영상(500) 전체에 대응될 수 있다. 상기 점선으로 표시된 사각형 부분이 도 16의 (16-4)에서 반드시 디스플레이되어야 하는 것은 아니다.
먼저, 도 17 및 도 18에 대해 설명한다.
도 17은 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다. 도 18은 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 18의 (18-1)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)이 디스플레이되고, 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)에 상기 모니터 창(400)이 디스플레이되고, 상기 모니터 창(400)에 제 2 스크린 영상(500)이 디스플레이되고 있다.
이 때, 상기 디스플레이 장치(200)에서 제 2 스크린 영상(500)을 줌아웃하거나 축소하기 위한 사용자 명령이 입력될 수 있다[S171]. 예를 들어, 상기 줌아웃 또는 축소를 위한 사용자 명령은 제 2 디스플레이부(터치스크린)(251)의 상기 모니터 창(400)의 제 2 스크린 영상(500) 상의 두 위치에서 터치가 동시에 행해진 후 상기 터치가 서로 가까워지는 방향으로 드래그됨으로써 입력될 수 있다. 그 외에도 상기 디스플레이 장치(200)의 제 2 사용자 입력부(230)의 사용자 조작을 통해서도 상기 줌아웃 또는 축소를 위한 사용자 명령이 입력될 수 있음은 물론이다.
상기 사용자 명령이 제 2 스크린 영상의 줌아웃 명령인지 또는 축소 명령인지에 따라서 제 1 스크린 영상이 더욱 다르게 변할 수 있다. 이하 좀더 자세히 살펴본다.
상기 사용자 명령이 줌아웃 명령인 것으로 가정한다. 그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 스크린 영상(500)의 줌아웃 명령이 입력되었음을 알리는 제어 신호를 상기 이동단말기(100)로 전송할 수 있다. 그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 제어 신호에 해당하는 영상 신호를 상기 디스플레이 장치(200)로 전송할 수 있다.
그러면, 도 18의 (18-2)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 영상 신호를 이용하여 제 2 스크린 영상(500)이 줌아웃되도록 제어할 수 있다[S172]. 그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)의 크기를 그대로 유지하도록 제어할 수 있다[S173].
그리고, 도 18의 (18-2)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 제어 신호에 상관없이 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)의 줌레벨이 변하지 않도록 제어할 수 있다[S174].
또다시, 상기 사용자 명령이 줌아웃 명령인 것으로 가정한다. 그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 스크린 영상(500)의 줌아웃 명령이 입력되었음을 알리는 제어 신호를 상기 이동단말기(100)로 전송할 수 있다. 그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 제어 신호에 해당하는 영상 신호를 상기 디스플레이 장치(200)로 전송할 수 있다.
그러면, 도 18의 (18-3)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 영상 신호를 이용하여 제 2 스크린 영상(500)이 줌아웃되도록 제어할 수 있다[S172]. 그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)의 크기를 그대로 유지하도록 제어할 수 있다[S173].
그리고, 도 18의 (18-3)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 제어 신호에 반응하여 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)이 줌아웃되도록 제어할 수 있다[S175].
한편, 상기 사용자 명령이 축소 명령인 것으로 가정한다. 그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 스크린 영상(500)의 축소 명령이 입력되었음을 알리는 제어 신호를 상기 이동단말기(100)로 전송할 필요가 없을 수 있다.
대신에, 도 18의 (18-4)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 스크린 영상(500)이 축소되도록 제어할 수 있다[S172]. 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 스크린 영상(500)이 축소됨에 따라 상기 모니터 창(400)의 크기도 축소되도록 제어할 수 있다[S176].
그리고, 도 18의 (18-4)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 디스플레이 장치(200)로부터 어떤 제어 신호를 받지 않으므로 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)을 그대로 유지할 수 있다. 즉, 제 1 스크린 영상(300)의 줌레벨이 변하지 않는다[S177].
도 18의 (18-3)의 제 2 스크린 영상(500) 내에서 점선으로 표시된 사각형 부분(510)이 도 18의 (18-4)의 제 2 스크린 영상(500) 전체에 대응될 수 있다. 상기 점선으로 표시된 사각형 부분이 도 18의 (18-3)에서 반드시 디스플레이되어야 하는 것은 아니다.
이상에서는 상기 디스플레이 장치(200)에서 제 2 스크린 영상(500)을 줌인(또는 확대)하거나, 줌아웃(또는 축소)하는 것에 설명하였다. 이하에서는 상기 디스플레이 장치(200)에서 상기 모니터 창(400)이 확대되거나 축소하는 것에 설명하였다.
먼저, 도 19 및 도 20에 대해 설명한다.
도 19은 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다. 도 20은 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 20의 (20-1)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)이 디스플레이되고, 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)에 상기 모니터 창(400)이 디스플레이되고, 상기 모니터 창(400)에 제 2 스크린 영상(500)이 디스플레이되고 있다.
이 때, 상기 디스플레이 장치(200)에서 상기 모니터 창(400)을 확대하기 위한 사용자 명령이 입력될 수 있다[S191]. 예를 들어, 상기 확대를 위한 사용자 명령은 제 2 디스플레이부(터치스크린)(251)의 상기 모니터 창(400)의 모서리 부분이 터치되어 상기 터치가 상기 모니터 창의 중심에서 멀어지는 방사 방향으로 드래그됨으로써 입력될 수 있다. 그 외에도 상기 디스플레이 장치(200)의 제 2 사용자 입력부(230)의 사용자 조작을 통해서도 상기 확대를 위한 사용자 명령이 입력될 수 있음은 물론이다. 상기 모니터 창(400)이 제 2 스크린 영상(500)에서 전체 화면이 되도록 확대될 수도 있다.
그러면, 도 20의 (20-2)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)이 확대되도록 제어할 수 있다[S192].
그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 확대된 모니터 창(400)에서 제 2 스크린 영상(500)이 확대되도록 제어할 수 있다[S193]. 그러나, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 스크린 영상(500)의 줌레벨이 변하지 않도록 제어할 수 있다[S194].
그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)의 확대를 위한 사용자 명령이 입력되었음을 알리는 제어 신호를 상기 이동단말기(100)로 전송할 필요가 없을 수 있다.
따라서, 도 20의 (20-2)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 디스플레이 장치(200)로부터 어떤 제어 신호를 받지 않으므로 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)을 그대로 유지할 수 있다. 즉, 제 1 스크린 영상(300)의 줌레벨이 변하지 않는다[S195].
도 20의 (20-2)에 대한 설명은 전술한 도 16의 (16-4)에 대한 설명과 같은 원리일 수 있다.
또는, 상기 확대된 모니터 창(200)에서 제 2 스크린 영상(200)이 확대되었을 때, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)의 확대를 위한 사용자 명령이 입력되었음을 알리는 제어 신호를 상기 이동단말기(100)로 전송할 수 있다. 그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 제어 신호에 해당하는 영상 신호를 상기 디스플레이 장치(200)로 전송할 수 있다.
그러면, 도 20의 (20-3)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 영상 신호를 이용하여 제 2 스크린 영상(500)이 줌아웃되도록 제어할 수 있다[S196].
그리고, 도 20의 (20-3)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 제어 신호에 상관없이 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)의 줌레벨이 변하지 않도록 제어할 수 있다[S197].
또는, 도 20의 (20-4)에 도시된 바와 같이, 제 2 스크린 영상(500)이 줌아웃되었을 때, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 제어 신호에 반응하여 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)이 줌아웃되도록 제어할 수 있다[S198].
도 20의 (20-4)의 제 2 스크린 영상(500) 내에서 점선으로 표시된 사각형 부분(510)이 도 20의 (20-1)의 제 2 스크린 영상(500) 전체에 대응될 수 있다. 상기 점선으로 표시된 사각형 부분이 도 20의 (20-4)에서 반드시 디스플레이되어야 하는 것은 아니다.
먼저, 도 21 및 도 22에 대해 설명한다.
도 21은 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다. 도 22는 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 22의 (22-1)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)이 디스플레이되고, 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)에 상기 모니터 창(400)이 디스플레이되고, 상기 모니터 창(400)에 제 2 스크린 영상(500)이 디스플레이되고 있다.
이 때, 상기 디스플레이 장치(200)에서 상기 모니터 창(400)을 축소하기 위한 사용자 명령이 입력될 수 있다[S211]. 예를 들어, 상기 축소를 위한 사용자 명령은 제 2 디스플레이부(터치스크린)(251)의 상기 모니터 창(400)의 모서리 부분이 터치되어 상기 터치가 상기 모니터 창의 중심으로 가까워지는 방사 방향으로 드래그됨으로써 입력될 수 있다. 그 외에도 상기 디스플레이 장치(200)의 제 2 사용자 입력부(230)의 사용자 조작을 통해서도 상기 축소를 위한 사용자 명령이 입력될 수 있음은 물론이다.
그러면, 도 22의 (22-2)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)이 축소되도록 제어할 수 있다[S212].
그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 확대된 모니터 창(400)에서 제 2 스크린 영상(500)이 축소되도록 제어할 수 있다[S213]. 그러나, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 스크린 영상(500)의 줌레벨이 변하지 않도록 제어할 수 있다[S214].
그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)의 축소를 위한 사용자 명령이 입력되었음을 알리는 제어 신호를 상기 이동단말기(100)로 전송할 필요가 없을 수 있다.
따라서, 도 22의 (22-2)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 디스플레이 장치(200)로부터 어떤 제어 신호를 받지 않으므로 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)을 그대로 유지할 수 있다. 즉, 제 1 스크린 영상(300)의 줌레벨이 변하지 않는다[S215].
도 22의 (22-2)에 대한 설명은 전술한 도 18의 (18-4)에 대한 설명과 같은 원리일 수 있다.
또는, 상기 축소된 모니터 창(200)에서 제 2 스크린 영상(200)이 축소되었을 때, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)의 축소를 위한 사용자 명령이 입력되었음을 알리는 제어 신호를 상기 이동단말기(100)로 전송할 수 있다. 그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 제어 신호에 해당하는 영상 신호를 상기 디스플레이 장치(200)로 전송할 수 있다.
그러면, 도 22의 (22-3)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 영상 신호를 이용하여 제 2 스크린 영상(500)이 줌인되도록 제어할 수 있다[S216].
그리고, 도 22의 (22-3)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 제어 신호에 상관없이 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)의 줌레벨이 변하지 않도록 제어할 수 있다[S217].
또는, 도 22의 (22-4)에 도시된 바와 같이, 제 2 스크린 영상(500)이 줌인되었을 때, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 제어 신호에 반응하여 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)이 줌인되도록 제어할 수 있다[S218].
도 22의 (22-1)의 제 2 스크린 영상(500) 내에서 점선으로 표시된 사각형 부분(510)이 도 22의 (20-4)의 제 2 스크린 영상(500) 전체에 대응될 수 있다. 상기 점선으로 표시된 사각형 부분이 도 22의 (22-1)에서 반드시 디스플레이되어야 하는 것은 아니다.
이하, 도 23 및 도 24를 더욱 참조하여 설명한다.
도 23은 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다. 도 24는 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
도 24의 (24-1)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 디스플레이부(151)에서 제 1 스크린 영상(300)이 디스플레이되고, 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)에 상기 모니터 창(400)이 디스플레이되고, 상기 모니터 창(400)에 제 2 스크린 영상(500)이 디스플레이되고 있다.
상기 이동단말기에서 제 1 스크린 영상(300)에 디스플레이되고 있는 제 1 객체들 중에서 한 특정 객체("C" 객체)가 터치되어 선택될 수 있다[S231].
그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 제 1 디스플레이부(151)에서 제 1 스크린 영상으로서 상기 특정 객체에 해당하는 이미지가 특정 줌레벨로 줌인되어 디스플레이되도록 제어할 수 있다[S232].
그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 제 1 스크린 영상에 관한 정보로서 상기 이미지의 영상을 상기 디스플레이 장치(200)로 제공할 수 있다.
그러면, 도 24의 (24-2)에 도시된 바와 같이, 상기 디스플레이 장치(200)의 제 2 제어부(180)는 제 2 디스플레이부(251)에서 제 2 스크린 영상으로서 상기 이미지의 영상이 상기 특정 줌레벨 보다 줌아웃되어 디스플레이되도록 제어할 수 있다[S233]. 상기 이미지의 영상은 완전히 줌아웃되어 디스플레이될 수 있다. 그리고, 상기 이미지의 영상은 제 2 디스플레이부에서 전체 화면으로 디스플레이될 수 있다.
그리고, 상기 디스플레이 장치(200)의 제 2 제어부(180)는 제 1 스크린 영상(300)에 해당하는 영역(510)이 제 2 디스플레이부(251)에서 시각적으로 구분되어 디스플레이되도록 제어할 수 있다.
상기 이동단말기(100)의 제 1 디스플레이부(151)에서 터치되어 일 방향으로 드래그될 수 있다.
그러면, 도 24의 (24-3)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 제어부(180)는 제 1 스크린 영상(300)이 상기 일 방향을 따라 스크롤되도록 제어할 수 있다. 그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 스크롤된 제 1 스크롤 영상(300)에 해당하는 영역(510)이 제 2 디스플레이부(251)에서 시각적으로 구분되어 디스플레이되도록 제어할 수 있다.
이하, 도 25 및 도 26을 더욱 참조하여, 상기 이동단말기(100)와 상기 디스플레이 장치(200)가 서로 연결될 때 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)에 상기 모니터 창이 생성되는 것에 대해 좀더 설명하도록 하겠다.
도 25는 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다. 도 26은 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
전술한 바와 같이, 상기 이동단말기(100)와 상기 디스플레이 장치(200)가 서로 연결될 수 있다[S251].
상기 이동단말기(100)의 제 1 제어부(180) 및 상기 디스플레이 장치(200)의 제 2 제어부(280) 중 적어도 하나는, 도 26의 (26-1)에 도시된 바와 같이, 상기 이동단말기(100)와 상기 디스플레이 장치(200)가 서로 연결되었다고 해서 제 2 디스플레이부(251)에 상기 모니터 창이 바로 생기지는 않도록 제어할 수 있다.
예를 들면, 도 26의 (26-1)에서, 상기 이동단말기(100)의 제 1 제어부(180)는 제 1 스크린 영상에 관한 정보를 제공하지 않도록 제어할 수 있다. 또는, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 이동단말기(100)로부터 제 1 스크린 영상에 관한 정보를 수신하는지 여부에 상관없이 상기 모니터창이 제 2 디스플레이부(251)에 생성되지 않도록 제어할 수 있다.
상기 이동단말기(100)에서 상기 모니터 창이 제 2 디스플레이부에서 생성되도록 하는 소정의 사용자 명령이 입력될 수 있다[S252]. 예를 들어, 상기 모니터 창의 생성을 위한 사용자 명령은 제 1 디스플레이부(터치스크린)(151) 상에서 일 방향의 직선 궤적을 따라 또는 특정 형태의 궤적을 따라 터치 드래그됨으로써 입력될 수 있다. 그 외에도 상기 이동단말기(100)의 제 1 사용자 입력부(130)의 사용자 조작을 통해서도 상기 모니터 창의 생성을 위한 사용자 명령이 입력될 수 있음은 물론이다.
상기 소정 사용자 명령이 입력될 때, 상기 이동단말기(100)의 제 1 제어부(180) 및 상기 디스플레이 장치(200)의 제 2 제어부(280) 중 적어도 하나는, 도 26의 (26-2)에 도시된 바와 같이, 제 2 디스플레이부(251)에 상기 모니터 창(400)이 생성되도록 제어할 수 있다[S253].
예를 들면, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 소정 사용자 명령이 입력되었음을 알리는 제어 신호를 상기 디스플레이 장치(200)로 제공할 수 있다. 그리고, 상기 이동단말기(100)의 제 1 제어부(180)는 제 1 스크린 영상에 관한 정보를 상기 디스플레이 장치(200)로 제공할 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(180)는, 도 26의 (26-2)에 도시된 바와 같이, 상기 제어 신호에 반응하여 제 2 디스플레이부(180)에 상기 모니터 창(400)이 생성되도록 제어할 수 있다. 그리고, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 이동단말기(100)가 제공하는 제 1 스크린 영상에 관한 정보를 이용하여 상기 모니터 창(400)에 제 2 스크린 영상(500)이 디스플레이되도록 제어할 수 있다.
한편, 도 26의 (26-3)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 디스플레이 장치(200)에 상기 모니터 창(400)이 생성될 때, 제 1 디스플레이부(151)가 자동으로 전원 오프(off)되어 제 1 스크린 영상이 디스플레이되지 않도록 함으로써 상기 이동단말기(100)의 전원소비를 절감하도록 제어할 수도 있다. 물론 비록 도시되지는 않았지만, 상기 이동단말기(100)와 상기 디스플레이 장치(200) 간의 연결이 해제될 때, 상기 이동단말기(100)의 제 1 제어부(180)는 제 1 디스플레이부(151)가 자동으로 전원 온(on)되어 제 1 스크린 영상이 다시 디스플레이되도록 제어할 수 있다.
이하, 도 27 및 도 28을 더욱 참조하여, 상기 이동단말기(100)와 상기 디스플레이 장치(200)가 서로 연결된 후 상기 이동단말기(100) 및 상기 디스플레이 장치(200) 간의 거리 또는 통신 신호 강도에 따라 제 2 디스플레이부(251)에 디스플레이된 상기 모니터 창의 변화에 대해 설명하도록 하겠다.
도 27은 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다. 도 28은 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
전술한 바와 같이, 상기 이동단말기(100)와 상기 디스플레이 장치(200)가 서로 연결될 수 있다[S271].
그러면, 전술한 바와 같이, 상기 디스플레이 장치(200)의 제 2 디스플레이부(251) 상에, 도 28의 (28-1)에 도시된 바와 같이, 상기 모니터 창(400)이 디스플레이될 수 있다[S272].
단말기 사용자는 상기 이동단말기(100) 및 상기 디스플레이 장치(200) 중 적어도 하나를 이동시킴으로써 이들 간의 이격 거리가 변하도록 할 수 있다. 상기 이동단말기(100)와 상기 디스플레이 장치(200)가 서로 무선으로 통신 연결된 경우, 이들 간의 상기 이격 간격의 변화는 이들 간의 통신 신호 강도의 변화를 가져올 수 있다.
그러면, 상기 이동단말기(100)의 제 1 제어부(180) 및 상기 디스플레이 장치(200)의 제 2 제어부(280) 중 적어도 하나는 상기 통신 신호 강도에 따라 상기 모니터 창(400)의 크기가 변하도록 제어할 수 있다[S273].
즉, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 통신 신호 강도에 따라 상기 모니터 창(400)의 크기가 변하도록 제어하고, 상기 모니터 창(400)에서 그 크기에 맞도록 제 2 스크린 영상을 확대 또는 축소하여 디스플레이하도록 제어할 수 있다.
또는, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 통신 신호 강도에 따라 상기 변하는 크기의 상기 모니터 창(400)에 해당하는 제 1 스크린 영상에 관한 정보를 상기 디스플레이 장치(200)로 제공할 수 있다.
도 28의 (28-2)에 도시된 바와 같이, 상기 이동단말기(100) 및 상기 디스플레이 장치(200)의 이격 간격이 가까워져서 상기 통신 신호 강도가 강해질 때, 상기 이동단말기(100)의 제 1 제어부(180) 및 상기 디스플레이 장치(200)의 제 2 제어부(280) 중 적어도 하나는 상기 강해진 통신 신호 강도에 따라 상기 모니터 창(400)의 크기가 커지도록 제어할 수 있다.
그리고, 도 28의 (28-3)에 도시된 바와 같이, 상기 이동단말기(100) 및 상기 디스플레이 장치(200)의 이격 간격이 멀어져서 상기 통신 신호 강도가 약해질 때, 상기 이동단말기(100)의 제 1 제어부(180) 및 상기 디스플레이 장치(200)의 제 2 제어부(280) 중 적어도 하나는 상기 약해진 통신 신호 강도에 따라 상기 모니터 창(400)의 크기가 작아지도록 제어할 수 있다.
비록 도시되지는 않았지만, 상기 이격 간격이 충분히 멀어져서 상기 이동단말기(100)와 상기 디스플레이 장치(200) 간의 통신 연결이 해제될 때, 상기 모니터 창(400)이 제 2 디스플레이부(251)에서 사라질 수 있음은 물론이다.
이하, 도 29 및 도 30을 더욱 참조하여, 상기 이동단말기(100)에서 소정 시간 이상 동안 사용자 입력이 없을 때 제 2 디스플레이부(251)에 디스플레이된 상기 모니터 창(400)의 변화에 대해 설명하도록 하겠다.
도 29는 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다. 도 30은 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
상기 이동단말기(100)와 상기 디스플레이 장치(200)가 서로 연결된 후에, 상기 이동단말기(100)에 소정 시간 이상 동안 사용자 입력이 없을 수 있다[S291]. 상기 이동단말기(100)에서 사용자 입력이 없다는 것은, 상기 이동단말기(100)의 터치스크린 및 상기 사용자 입력부(130)가 조작되지 않는다는 것을 의미할 수 있다.
그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 제 1 디스플레이부(151)가 자동으로 전원 오프되어 제 1 스크린 영상이 더이상 디스플레이되지 않도록 제어할 수 있다[S292]. 비록 도시되지는 않았지만, 상기 이동단말기(100)에서 다시 사용자 입력이 행해지면, 상기 디스플레이부(151)가 다시 자동으로 전원 온될 수 있다.
그리고, 상기 이동단말기(100)이 제 1 제어부(180)는 제 1 이동단말기(100)에서 소정 시간 이상 동안 사용자 입력이 없었음을 알리는 제어 신호를 필요에 따라 상기 디스플레이 장치(200)로 제공할 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는, 도 30의 (30-1)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 디스플레이부(151)가 전원 오프되었음에도 불구하고 이와는 상관없이 상기 모니터 창(400)를 제 2 디스플레이부(251)에서 여전히 디스플레이하고, 상기 모니터 창(400)에서 제 2 스크린 영상(500)이 계속 유지되도록 제어할 수 있다[S293].
또는, 상기 디스플레이 장치(200)의 제 2 제어부(280)는, 도 30의 (30-2)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 디스플레이부(151)가 전원 오프되었음을 알리는 상기 제어 신호에 반응하여, 상기 모니터 창(400)를 제 2 디스플레이부(251)에서 여전히 디스플레이하지만, 상기 모니터 창(400)에서 제 2 스크린 영상(500)이 디스플레이되지 않도록 제어할 수 있다[S294]. 즉 상기 모니터 창(400)에서 제 2 스크린 영상(400)이 블랭크(blank)될 수 있다.
비록 도시되지는 않았지만 상기 이동단말기(100)로부터 제 1 디스플레이부(151)가 다시 전원 온되었음을 알리는 제어 신호를 수신하면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400)에서 제 2 스크린 영상(500)이 다시 디스플레이되도록 제어할 수 있다.
또는, 상기 디스플레이 장치(200)의 제 2 제어부(280)는, 도 30의 (30-3)에 도시된 바와 같이, 상기 이동단말기(100)의 제 1 디스플레이부(151)가 전원 오프되었음음을 알리는 상기 제어 신호에 반응하여, 상기 모니터 창(400)이 제 2 디스플레이부(251)에서 디스플레이되지 않도록 제어할 수 있다. 상기 모니터 창(400)이 디스플레이되지 않으므로, 상기 모니터 창 내의 제 2 스크린 영상(500)이 디스플레이될 수 없음은 물론이다.
비록 도시되지는 않았지만 상기 이동단말기(100)로부터 제 1 디스플레이부(151)가 다시 전원 온되었음을 알리는 제어 신호를 수신하면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 상기 모니터 창(400) 다시 디스플레이되어, 상기 모니터 창(400) 내의 제 2 스크린 영상(500)이 다시 디스플레이되도록 제어할 수 있다.
이하, 도 31 및 도 32를 더욱 참조하여, 상기 이동단말기와 상기 디스플레이장치가 서로 연결된 후 상기 이동단말기에서 소정 이벤트가 발생될 때 상기 모니터 창의 변화에 대해 설명하도록 하겠다.
도 31은 본 발명과 관련된 실시예가 구현되기 위한 흐름도이다. 도 32는 본 발명과 관련된 실시예가 구현되는 상기 이동단말기의 전면과 상기 디스플레이 장치의 디스플레이부의 화면을 도시한다.
상기 "이벤트"라 함은 상기 이동단말기(100)에서 사용자 입력이 없이 특정 기능이 실행되는 것을 의미할 수 있다. 상기 이벤트의 예로는 전화 콜 수신, 메시지 수신 등이 있을 수 있다. 이하에서는 설명의 간편함을 위해 상기 이벤트가 전화 콜 수신인 것으로 가정하고 설명을 한다. 그러나, 본 실시예가 상기 전화 콜 수신에 한정되지 않음은 물론이다.
전술한 바와 같이, 상기 이동단말기(100)와 상기 디스플레이 장치(200)가 서로 연결될 수 있다[S311]. 그러면, 전술한 바와 같이, 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)에 상기 모니터 창(400)이 생성되고, 상기 모니터 창(400) 내에 제 2 스크린 영상(500)이 디스플레이될 수 있다.
이 때, 상기 이동단말기(100)에서 전화 콜 수신 이벤트가 발생될 수 있다. 그러면, 상기 이동단말기(100)의 제 1 디스플레이부(151)의 제 1 스크린 영상은 상기 전화 콜 수신 이벤트에 따른 영상으로 변할 수 있다. 이에, 상기 디스플레이 장치(200)의 제 2 디스플레이부(251)의 제 2 스크린 영상도 상기 전화 콜 수신 이벤트에 따른 영상으로 변할 수 있다. 제 2 디스플레이부(251)의 제 2 스크린 영상이 상기 전화 콜 수신 이벤트에 따른 영상으로 변하지 않더라도 무방하다.
그러면, 상기 이동단말기(100)의 제 1 제어부(180)는 상기 이동단말기가 현재 무음 모드인지 여부를 판단한다. 여기서 상기 "무음 모드"라 함은 상기 이동단말기에서 이벤트가 발생되었을 때 이를 알리는 알람 사운드가 무음이 되도록 설정된 모드를 의미할 수 있다. 상기 무음 모드는 상기 이동단말기에서 이벤트가 발생되었을 때 이를 알리기 위한 진동이 발생되는 진동 모드를 포함할 수 있다.
판단 결과, 상기 이동단말기(100)가 무음 모드이면, 상기 이동단말기(100)의 제 1 제어부(180)로 상기 이동단말기에서 상기 이벤트가 발생되었음과 상기 이동단말기가 무음 모드임을 알리는 제 1 제어 신호를 상기 디스플레이 장치로 제공할 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 1 제어 신호에 반응하여 제 2 디스플레이부(251)에서 상기 모니터 창(400)이 시각적으로 변하도록 제어할 수 있다. 도 32의 (32-2)에서는 제 1 제어 신호에 따라 제 2 디스플레이부(251)에서 상기 모니터 창(400)이 진동되는 것이 예시되어 있다. 그러나, 본 실시예는 이에 한정되지 않고 상기 모니터 창(400)의 색상, 형상, 및 크기 중 적어도 하나가 제 1 제어신호에 따라 변할 수도 있다.
하지만, 판단 결과, 상기 이동단말기(100)가 무음 모드가 아니면, 상기 이동단말기(100)의 제 1 제어부(180)로 상기 이동단말기에서 상기 이벤트가 발생되었음과 상기 이동단말기가 무음 모드가 아님을 제 2 제어 신호를 상기 디스플레이 장치로 제공할 수 있다.
그러면, 상기 디스플레이 장치(200)의 제 2 제어부(280)는 제 2 제어 신호에 반응하여 제 2 디스플레이부(251)에서 상기 모니터 창(400)이 시각적으로 변하지 않고 그대로 유지되도록 제어할 수 있다.
상기 이동단말기(100)가 무음 모드가 아닐 때 상기 이동단말기(100)의 제 1 제어부는 상기 디스플레이 장치(200)로 어떤 제어 신호도 보내지 않고, 따라서 상기 디스플레이 장치(200)의 제 2 제어부(280)가 상기 모니터 창(400)이 그대로 유지되도록 제어할 수도 있다.
본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말기의 제어부(180)를 포함할 수도 있다.
따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
본 발명은, 전술한 바와 같이, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등(이에 한정되지 않음)의 이동단말기와, 노트북 컴퓨터(laptop computer), 태블릿 컴퓨터, 데스크탑 컴퓨터, 및 텔레비젼(예를 들면, 디지털 TV 또는 스마트 TV) 등(이에 한정되지 않음)의 디스플레이 장치에 사용될 수 있다.

Claims (23)

  1. 하우징;
    상기 하우징의 배향 방향을 센싱하기 위한 센서부;
    상기 하우징의 일면에 배치되고, 제 1 스크린 영상을 디스플레이하는 제 1 디스플레이부;
    제 2 디스플레이부를 구비하는 외부 디스플레이 장치와 연결하기 위한 인터페이스부; 및
    제 1 스크린 영상의 정보가 상기 외부 디스플레이 장치에 제공되어, 제 1 스크린 영상에 상응하는 제 2 스크린 영상을 디스플레이하는 모니터 창이 제 2 디스플레이부에서 생성되도록 제어하고,
    상기 감지된 하우징의 배향 방향이 상기 외부 디스플레이 장치에 제공되어, 제 2 디스플레이부 내에서 상기 모니터 창이 상기 배향 방향에 따라 디스플레이되도록 제어하는 제어부;를 포함하는 이동단말기.
  2. 제 1 항에 있어서, 상기 제어부는,
    제 1 디스플레이부에서 제 1 스크린 영상이 랜드스케이프(landscape) 방향 및 포트레이트(portrait) 방향 중의 제 1 디스플레이 방향에 따라 디스플레이될 때, 제 2 스크린 영상이 제 2 디스플레이부에서 제 1 디스플레이 방향으로 디스플레이되도록 제어하는 것을 특징으로 하는 이동단말기.
  3. 제 2 항에 있어서, 상기 제어부는,
    상기 모니터 창의 배향 방향이 다른 배향 방향으로 변환될 때, 제 1 디스플레이부에서 제 1 스크린 영상이 상기 랜드스케이프(landscape) 방향 및 상기 포트레이트(portrait) 방향 중의 다른 제 2 디스플레이 방향으로 변경되어 디스플레이되도록 제어하는 것을 특징으로 하는 이동단말기.
  4. 제 3 항에 있어서, 상기 제어부는,
    제 1 스크린 영상이 제 2 디스플레이 방향으로 디스플레이될 때, 제 2 스크린 영상이 제 2 디스플레이부에서 제 2 디스플레이 방향으로 디스플레이되도록 제어하는 것을 특징으로 하는 이동단말기.
  5. 제 2 항에 있어서, 상기 제어부는,
    상기 하우징의 배향 방향이 변하지 않으나 제 2 디스플레이부에서 상기 모니터 창의 배향 방향이 다른 배향 방향으로 변경될 때, 제 1 디스플레이부에서 제 1 스크린 영상이 제 1 디스플레이 방향에서 제 2 디스플레이 방향으로 변경되어 디스플레이되도록 제어하는 것을 특징으로 하는 이동단말기.
  6. 제 2 항에 있어서, 상기 제어부는,
    제 1 디스플레이부에서 제 1 스크린 영상이 제 2 디스플레이 방향으로 디스플레이될 때, 제 2 디스플레이부에서 제 2 스크린 영상이 제 1 디스플레이 방향에서 제 2 디스플레이 방향으로 변경되어 디스플레이되도록 제어하는 것을 특징으로 하는 이동단말기.
  7. 제 2 항에 있어서, 상기 제어부는,
    상기 하우징의 배향 방향이 변하지 않으나 제 2 디스플레이부에서 상기 모니터 창의 배향 방향이 다른 배향 방향으로 변경될 때, 제 1 디스플레이부에서 제 1 스크린 영상이 제 1 디스플레이 방향을 유지하도록 제어하는 것을 특징으로 하는 이동단말기.
  8. 제 7 항에 있어서, 상기 제어부는,
    제 1 디스플레이부에서 제 1 스크린 영상이 제 1 디스플레이 방향으로 디스플레이될 때 제 2 디스플레이부에서 제 2 스크린 영상이 제 2 디스플레이 방향으로 디스플레이되도록 제어하는 것을 특징으로 하는 이동단말기.
  9. 제 1 항에 있어서,
    제 1 디스플레이부가 터치스크린이고, 상기 제어부는,
    상기 외부 디스플레이 장치와 연결된 후에 상기 터치스크린 상에서 소정 터치 제스처가 행해질 때 제 2 디스플레이부에서 상기 모니터 창이 생성되도록 제어하는 것을 특징으로 하는 이동단말기.
  10. 제 1 항에 있어서, 상기 제어부는,
    제 1 디스플레이부에서 제 1 스크린 영상이 줌인될 때, 제 2 디스플레이부에서 상기 모니터 창이 확대되면서 제 2 스크린 영상이 확대되도록 제어하는 것을 특징으로 하는 이동단말기.
  11. 제 1 항에 있어서, 상기 제어부는,
    제 1 디스플레이부에서 제 1 스크린 영상이 줌아웃될 때, 제 2 디스플레이부에서 상기 모니터 창이 확대되면서 제 2 스크린 영상이 줌아웃되도록 제어하는 것을 특징으로 하는 이동단말기.
  12. 제 1 항에 있어서, 상기 제어부는,
    제 2 디스플레이부에서 상기 모니터 창이 확대될 때 제 2 스크린 영상이 확대되면서 줌아웃될 수 있도록 제어하는 것을 특징으로 하는 이동단말기.
  13. 제 1 스크린 영상을 디스플레이하는 제 1 디스플레이부를 구비하는 외부 이동단말기와 연결하기 위한 인터페이스부;
    제 2 디스플레이부; 및
    제 1 스크린 영상의 정보를 상기 외부 이동단말기로부터 수신하여, 제 1 스크린 영상에 상응하는 제 2 스크린 영상을 디스플레이하는 모니터 창이 제 2 디스플레이부에서 생성되도록 제어하고,
    상기 이동단말기로부터 그 하우징의 배향 방향을 수신하여, 제 2 디스플레이부 내에서 상기 모니터 창이 상기 배향 방향에 따라 디스플레이되도록 제어하는 제어부;를 포함하는 디스플레이 장치.
  14. 제 13 항에 있어서, 상기 제어부는,
    제 1 디스플레이부에서 제 1 스크린 영상이 랜드스케이프(landscape) 방향 및 포트레이트(portrait) 방향 중의 제 1 디스플레이 방향에 따라 디스플레이될 때, 제 2 스크린 영상이 제 2 디스플레이부에서 제 1 디스플레이 방향으로 디스플레이되도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  15. 제 14 항에 있어서, 상기 제어부는,
    상기 모니터 창의 배향 방향이 다른 배향 방향으로 변환될 때, 제 1 디스플레이부에서 제 1 스크린 영상이 상기 랜드스케이프(landscape) 방향 및 상기 포트레이트(portrait) 방향 중의 다른 제 2 디스플레이 방향으로 변경되어 디스플레이되도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  16. 제 15 항에 있어서, 상기 제어부는,
    제 1 스크린 영상의 변경된 제 2 디스플레이 방향에 따라, 제 2 스크린 영상이 제 2 디스플레이부에서 제 2 디스플레이 방향으로 디스플레이되도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  17. 제 16 항에 있어서, 상기 제어부는,
    제 2 디스플레이부에 적어도 하나의 객체가 디스플레이되고, 상기 모니터 창이 제 2 디스플레이부에 생성될 때 상기 객체를 가리지 않도록 상기 모니터 창의 위치 및 크기 중 적어도 하나가 결정되도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  18. 제 16 항에 있어서, 상기 제어부는,
    제 2 디스플레이부에서 상기 모니터 창의 배향 방향이 변경될 때, 상기 객체의 배치에 따라서 상기 모니터 창의 크기가 변하도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  19. 제 13 항에 있어서, 상기 제어부는,
    제 1 디스플레이부에서 제 1 스크린 영상이 줌인될 때, 제 2 디스플레이부에서 상기 모니터 창이 확대되면서 제 2 스크린 영상이 확대되도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  20. 제 13 항에 있어서, 상기 제어부는,
    제 1 디스플레이부에서 제 1 스크린 영상이 줌아웃될 때, 제 2 디스플레이부에서 상기 모니터 창이 확대되면서 제 2 스크린 영상이 줌아웃되도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  21. 제 13 항에 있어서, 상기 제어부는,
    제 2 디스플레이부에서 상기 모니터 창이 확대될 때 제 2 스크린 영상이 확대되면서 줌아웃될 수 있도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  22. 이동단말기의 하우징의 일면에 배치되는 제 1 디스플레이부에서 제 1 스크린 영상이 디스플레이되는 단계;
    상기 이동단말기가 제 2 디스플레이부를 구비하는 외부 디스플레이 장치와 연결되는 단계;
    제 1 스크린 영상의 정보가 상기 외부 디스플레이 장치로 제공되는 단계;
    제 1 스크린 영상에 상응하는 제 2 스크린 영상을 디스플레이하는 모니터 창이 제 2 디스플레이부에서 생성되도록 제어하는 단계; 및
    상기 하우징의 배향 방향을 센싱하고 상기 감지된 하우징의 배향 방향을 상기 외부 디스플레이 장치에 제공함으로써, 제 2 디스플레이부 내에서 상기 모니터 창이 상기 배향 방향에 따라 디스플레이될 수 있도록 제어하는 단계;를 포함하는 이동단말기의 제어 방법.
  23. 제 1 스크린 영상을 디스플레이하는 제 1 디스플레이부를 구비하는 외부 이동단말기를, 제 2 디스플레이부를 구비하는 디스플레이 장치와 연결하는 단계;
    제 1 스크린 영상의 정보를 상기 외부 이동단말기로부터 수신하여, 제 1 스크린 영상에 상응하는 제 2 스크린 영상을 디스플레이하는 모니터 창이 제 2 디스플레이부에서 생성되도록 제어하는 단계; 및
    상기 외부 이동단말기로부터 그 하우징의 배향 방향을 수신하여, 제 2 디스플레이부 내에서 상기 모니터 창이 상기 배향 방향에 따라 디스플레이되도록 제어하는 단계;를 포함하는 디스플레이 장치의 제어 방법.
PCT/KR2010/005341 2010-08-13 2010-08-13 이동단말기, 디스플레이 장치 및 그 제어 방법 WO2012020866A1 (ko)

Priority Applications (8)

Application Number Priority Date Filing Date Title
KR1020137006349A KR101701859B1 (ko) 2010-08-13 2010-08-13 이동단말기, 디스플레이 장치 및 그 제어 방법
EP15193752.1A EP3021191B1 (en) 2010-08-13 2010-08-13 Mobile terminal, display device, and control method therefor
PCT/KR2010/005341 WO2012020866A1 (ko) 2010-08-13 2010-08-13 이동단말기, 디스플레이 장치 및 그 제어 방법
EP10855933.7A EP2605413B1 (en) 2010-08-13 2010-08-13 Mobile terminal, system comprising the mobile terminal and a display device, and control method therefor
CN201080069604.1A CN103155425B (zh) 2010-08-13 2010-08-13 移动终端、显示装置及其控制方法
US13/149,096 US9122392B2 (en) 2010-08-13 2011-05-31 Mobile terminal, display device and controlling method thereof
US14/802,774 US9542726B2 (en) 2010-08-13 2015-07-17 Mobile terminal, display device and controlling method thereof
US14/878,775 US9576339B2 (en) 2010-08-13 2015-10-08 Mobile terminal, display device and controlling method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2010/005341 WO2012020866A1 (ko) 2010-08-13 2010-08-13 이동단말기, 디스플레이 장치 및 그 제어 방법

Publications (1)

Publication Number Publication Date
WO2012020866A1 true WO2012020866A1 (ko) 2012-02-16

Family

ID=45565221

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2010/005341 WO2012020866A1 (ko) 2010-08-13 2010-08-13 이동단말기, 디스플레이 장치 및 그 제어 방법

Country Status (5)

Country Link
US (3) US9122392B2 (ko)
EP (2) EP2605413B1 (ko)
KR (1) KR101701859B1 (ko)
CN (1) CN103155425B (ko)
WO (1) WO2012020866A1 (ko)

Families Citing this family (108)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012044713A1 (en) 2010-10-01 2012-04-05 Imerj LLC Drag/flick gestures in user interface
KR101860022B1 (ko) 2011-09-21 2018-05-23 삼성전자 주식회사 사용자 단말에서 콜 수신자의 정보 제공 방법 및 장치
US20130080932A1 (en) 2011-09-27 2013-03-28 Sanjiv Sirpal Secondary single screen mode activation through user interface toggle
US8769624B2 (en) 2011-09-29 2014-07-01 Apple Inc. Access control utilizing indirect authentication
US9002322B2 (en) 2011-09-29 2015-04-07 Apple Inc. Authentication with secondary approver
CN103959763B (zh) * 2011-12-09 2017-06-09 惠普发展公司,有限责任合伙企业 用于基于定向来生成图像的装置和方法
KR20130119129A (ko) * 2012-04-23 2013-10-31 삼성전자주식회사 윈도우 크기를 조절하기 위한 방법 및 그 전자 장치
KR20130121524A (ko) * 2012-04-27 2013-11-06 삼성전자주식회사 통신 서비스 관리 시스템 및 이의 운용 방법
US9459781B2 (en) 2012-05-09 2016-10-04 Apple Inc. Context-specific user interfaces for displaying animated sequences
US9128562B2 (en) 2012-05-25 2015-09-08 Sony Corporation Terminal apparatus, display system, display method, and recording medium for switching between pointer mode and touch-panel mode based on handheld activation
US9760196B2 (en) * 2012-05-29 2017-09-12 Sony Corporation Terminal apparatus, display method and recording medium
KR102004985B1 (ko) * 2012-06-20 2019-10-01 삼성전자주식회사 클라우드 컴퓨팅 시스템에서 타임머신 기능을 제공하기 위한 장치 및 그 방법
US9047034B2 (en) * 2012-06-21 2015-06-02 Toshiba Tec Kabushiki Kaisha Mobile device control of multifunction peripheral output
KR101982151B1 (ko) * 2012-08-24 2019-05-24 삼성전자주식회사 근거리 무선 통신 모듈을 구비한 장치의 제어방법 및 그 장치
KR102009816B1 (ko) * 2012-08-28 2019-08-12 삼성전자주식회사 화면 디스플레이 방법 및 장치
US20140075377A1 (en) * 2012-09-10 2014-03-13 Samsung Electronics Co. Ltd. Method for connecting mobile terminal and external display and apparatus implementing the same
US9741150B2 (en) 2013-07-25 2017-08-22 Duelight Llc Systems and methods for displaying representative images
US20140240241A1 (en) * 2013-02-26 2014-08-28 Payam Moradian Monitor for Mobile Phone
WO2014143776A2 (en) 2013-03-15 2014-09-18 Bodhi Technology Ventures Llc Providing remote interactions with host device using a wireless device
KR20140136576A (ko) * 2013-05-20 2014-12-01 삼성전자주식회사 휴대 단말기에서 터치 입력 처리 방법 및 장치
US9955068B2 (en) * 2013-07-15 2018-04-24 Samsung Electronics Co., Ltd. Apparatus and method for operating a composition of a picture in a portable terminal
US20150058803A1 (en) * 2013-08-23 2015-02-26 Here Global B.V. Method and apparatus for facilitating control of a presentation
KR102144553B1 (ko) * 2013-08-30 2020-08-13 삼성전자주식회사 다중 디스플레이 방법, 저장 매체 및 전자 장치
US9710889B2 (en) * 2013-09-13 2017-07-18 Hewlett-Packard Development Company, L.P. Screen orientation
JP5802249B2 (ja) * 2013-09-30 2015-10-28 シャープ株式会社 表示装置、ソース機器、及び表示システム
KR102087987B1 (ko) * 2013-10-04 2020-03-11 삼성전자주식회사 마스터 기기, 클라이언트 기기, 및 그에 따른 화면 미러링 방법
JP2015076802A (ja) * 2013-10-10 2015-04-20 船井電機株式会社 表示装置
CN104571899B (zh) * 2013-10-24 2019-03-29 联想(北京)有限公司 一种信息交互方法及电子设备
CN103618956A (zh) * 2013-11-13 2014-03-05 深圳市同洲电子股份有限公司 一种获取视频关联信息的方法及移动终端
CN103699859B (zh) * 2013-12-03 2017-01-04 天地融科技股份有限公司 信息显示方法和装置
KR102122476B1 (ko) 2014-01-08 2020-06-12 삼성전자주식회사 화면의 회전을 컨트롤할 수 있는 전자 장치 및 방법
USD738908S1 (en) * 2014-01-09 2015-09-15 Microsoft Corporation Display screen with animated graphical user interface
US9753562B2 (en) * 2014-01-15 2017-09-05 Nokia Technologies Oy Dynamic threshold for local connectivity setup
US20150199165A1 (en) * 2014-01-16 2015-07-16 Nvidia Corporation Automatic proximity display switching for a miracast environment
CA156714S (en) * 2014-01-28 2019-08-02 Jvl Ventures Llc Handheld electronic device
KR102166781B1 (ko) * 2014-02-22 2020-10-16 삼성전자주식회사 요청 정보에 따른 장치 제어 방법 및 이를 지원하는 장치
JP2015176186A (ja) * 2014-03-13 2015-10-05 ソニー株式会社 情報処理装置、情報処理方法、及び情報処理システム
CN104932852A (zh) * 2014-03-20 2015-09-23 联发科技股份有限公司 资源自适应装置及其方法
US20150269127A1 (en) * 2014-03-20 2015-09-24 Mediatek Inc. Resource adaptive apparatus, method, and non-transitory computer readable storage medium thereof
US11343335B2 (en) 2014-05-29 2022-05-24 Apple Inc. Message processing by subscriber app prior to message forwarding
US20150350565A1 (en) * 2014-05-29 2015-12-03 Opentv, Inc. Techniques for magnifying a high resolution image
US9967401B2 (en) 2014-05-30 2018-05-08 Apple Inc. User interface for phone call routing among devices
KR101929372B1 (ko) * 2014-05-30 2018-12-17 애플 인크. 하나의 디바이스의 사용으로부터 다른 디바이스의 사용으로의 전환
USD759666S1 (en) 2014-06-23 2016-06-21 Google Inc. Display screen or portion thereof with an animated graphical user interface
CN116243841A (zh) 2014-06-27 2023-06-09 苹果公司 尺寸减小的用户界面
USD807898S1 (en) 2014-07-15 2018-01-16 Google Llc Display screen or portion thereof with an animated graphical user interface
EP3195098A2 (en) 2014-07-21 2017-07-26 Apple Inc. Remote user interface
CN105472100A (zh) * 2014-08-15 2016-04-06 中兴通讯股份有限公司 桌面共享的方法及终端
US10339293B2 (en) 2014-08-15 2019-07-02 Apple Inc. Authenticated device used to unlock another device
DE102014012185A1 (de) * 2014-08-20 2016-02-25 Sig Technology Ag Bedienterminal für Verarbeitungsanlagen
US9742977B2 (en) * 2014-09-02 2017-08-22 Apple Inc. Camera remote control
CN115623117A (zh) 2014-09-02 2023-01-17 苹果公司 电话用户界面
US10474409B2 (en) * 2014-09-19 2019-11-12 Lenovo (Beijing) Co., Ltd. Response control method and electronic device
KR20160061133A (ko) 2014-11-21 2016-05-31 삼성전자주식회사 이미지 표시 방법 및 그 전자 장치
CN105809010A (zh) * 2014-12-31 2016-07-27 北京握奇智能科技有限公司 一种音频USBKey及其使用方法
US9959024B2 (en) 2015-01-27 2018-05-01 I/O Interconnect, Ltd. Method for launching applications of handheld computer through personal computer
US9696825B2 (en) * 2015-01-27 2017-07-04 I/O Interconnect, Ltd. Method for making cursor control to handheld touchscreen computer by personal computer
US10055121B2 (en) 2015-03-07 2018-08-21 Apple Inc. Activity based thresholds and feedbacks
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
CN106201385B (zh) * 2015-05-04 2020-02-21 联想(北京)有限公司 控制方法、装置及电子设备
JP6560908B2 (ja) * 2015-06-01 2019-08-14 任天堂株式会社 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
CN106293567A (zh) * 2015-06-08 2017-01-04 联想(北京)有限公司 控制方法、控制装置及电子设备
JP6187546B2 (ja) * 2015-06-22 2017-08-30 コニカミノルタ株式会社 操作表示システム、操作表示装置および操作表示プログラム
US10592190B2 (en) * 2015-06-25 2020-03-17 Koninklijke Philips N.V. Method and apparatus for controlling the operation of an electronic device
CN105094328A (zh) * 2015-07-22 2015-11-25 北京京东方多媒体科技有限公司 移动设备、动作进行系统和方法
US10528315B2 (en) * 2015-09-25 2020-01-07 Intel Corporation Implementing wireless displays that handle rotation and/or portrait-first sinks
WO2017062289A1 (en) 2015-10-08 2017-04-13 Pcms Holdings, Inc. Methods and systems of automatic calibration for dynamic display configurations
CN105263046A (zh) * 2015-10-16 2016-01-20 苏州佳世达电通有限公司 影像画面调整方法
CN105739857A (zh) * 2016-01-25 2016-07-06 北京小米移动软件有限公司 控制移动终端的方法及装置
CN105760080A (zh) * 2016-02-16 2016-07-13 北京小米移动软件有限公司 显示方法、装置、控制设备及显示设备
US20170285813A1 (en) * 2016-03-29 2017-10-05 Microsoft Technology Licensing, Llc Touch-Input Support for an External Touch-Capable Display Device
CN107329927A (zh) * 2016-04-28 2017-11-07 富泰华工业(深圳)有限公司 一种数据共享系统及方法
EP3449338A4 (en) * 2016-04-29 2020-01-08 Hewlett-Packard Development Company, L.P. MOVING AN INTERACTIVE WINDOW USING A TABLET-TYPE COMPUTING DEVICE
DK179186B1 (en) 2016-05-19 2018-01-15 Apple Inc REMOTE AUTHORIZATION TO CONTINUE WITH AN ACTION
KR20170132404A (ko) * 2016-05-24 2017-12-04 삼성전자주식회사 화면 제어 방법 및 이를 지원하는 전자 장치
DK201770423A1 (en) 2016-06-11 2018-01-15 Apple Inc Activity and workout updates
DK201670622A1 (en) 2016-06-12 2018-02-12 Apple Inc User interfaces for transactions
WO2018010072A1 (zh) * 2016-07-11 2018-01-18 深圳前海达闼云端智能科技有限公司 终端设备的监控方法及装置
KR20180010688A (ko) * 2016-07-22 2018-01-31 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법
US20180046425A1 (en) * 2016-08-11 2018-02-15 International Business Machines Corporation Preserving an external display configuration
US10135964B2 (en) * 2016-08-22 2018-11-20 Adobe Systems Incorporated Touch and device orientation-based device pairing
CN109710202A (zh) * 2016-09-30 2019-05-03 中兴通讯股份有限公司 一种显示控制方法和移动终端
KR102623181B1 (ko) * 2016-10-05 2024-01-11 엘지전자 주식회사 무선 디바이스 및 무선 시스템
KR102597036B1 (ko) * 2016-10-11 2023-11-02 삼성전자주식회사 듀얼 디스플레이를 가지는 전자 장치 및 이의 운용 방법
WO2018113111A1 (zh) * 2016-12-19 2018-06-28 华为技术有限公司 终端控制方法以及终端
US10992795B2 (en) 2017-05-16 2021-04-27 Apple Inc. Methods and interfaces for home media control
US11431836B2 (en) 2017-05-02 2022-08-30 Apple Inc. Methods and interfaces for initiating media playback
CN111343060B (zh) 2017-05-16 2022-02-11 苹果公司 用于家庭媒体控制的方法和界面
US20220279063A1 (en) 2017-05-16 2022-09-01 Apple Inc. Methods and interfaces for home media control
KR102350933B1 (ko) * 2017-06-20 2022-01-12 엘지전자 주식회사 영상표시장치
CN108200287B (zh) * 2017-12-29 2020-10-30 浙江佩鼎大数据科技有限公司 一种信息处理方法、终端和计算机可读存储介质
US10346122B1 (en) * 2018-10-18 2019-07-09 Brent Foster Morgan Systems and methods for a supplemental display screen
CN113273184A (zh) * 2018-11-30 2021-08-17 Pcms控股公司 将3d对象镜像到光场显示器的方法
CN114895861A (zh) * 2018-12-29 2022-08-12 华为技术有限公司 一种消息处理的方法、相关装置及系统
CN110245246B (zh) * 2019-04-30 2021-11-16 维沃移动通信有限公司 一种图像显示方法及终端设备
KR20200136753A (ko) * 2019-05-28 2020-12-08 삼성전자주식회사 외부 전자 장치를 통해 화면 공유 서비스를 제공하기 위한 전자 장치, 방법, 및 컴퓨터 판독가능 매체
EP4134811A1 (en) 2019-05-31 2023-02-15 Apple Inc. User interfaces for audio media control
US11010121B2 (en) 2019-05-31 2021-05-18 Apple Inc. User interfaces for audio media control
US11477609B2 (en) 2019-06-01 2022-10-18 Apple Inc. User interfaces for location-related communications
US11481094B2 (en) 2019-06-01 2022-10-25 Apple Inc. User interfaces for location-related communications
JP2021033038A (ja) * 2019-08-23 2021-03-01 セイコーエプソン株式会社 端末装置の制御方法、および、端末装置の制御プログラム
CN112615960B (zh) * 2019-09-19 2022-04-12 华为技术有限公司 一种设备能力调度方法及电子设备
US11599322B1 (en) * 2019-09-26 2023-03-07 Apple Inc. Systems with overlapped displays
US11392291B2 (en) 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback
US11574380B2 (en) * 2020-10-13 2023-02-07 Qualcomm Incorporated Methods and apparatus for optimizing GPU kernel with SIMO approach for downscaling utilizing GPU cache
EP4191397A4 (en) * 2020-10-28 2023-12-13 Samsung Electronics Co., Ltd. ELECTRONIC DEVICE, DISPLAY DEVICE AND CONTROL METHOD THEREOF
US11847378B2 (en) 2021-06-06 2023-12-19 Apple Inc. User interfaces for audio routing
AU2022350066A1 (en) * 2021-09-27 2024-03-28 Osmosis Group Holdings Pty Ltd Display panel

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070015239A (ko) * 2007-01-13 2007-02-01 (주)아루온게임즈 휴대전화와 유저 게임공통단말기가 연동된 게임시스템 및그 방법
KR20100072102A (ko) * 2008-02-13 2010-06-29 가부시키가이샤 코나미 데지타루 엔타테인멘토 게임 시스템 및 게임 단말기

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5721849A (en) 1996-03-29 1998-02-24 International Business Machines Corporation Method, memory and apparatus for postponing transference of focus to a newly opened window
US20040021681A1 (en) 2002-07-30 2004-02-05 Liao Chin-Hua Arthur Dual-touch-screen mobile computer
JP2004178410A (ja) * 2002-11-28 2004-06-24 Toshiba Corp 情報処理装置および表示装置切り替え方法
US6956542B2 (en) * 2002-12-20 2005-10-18 Intel Corporation Method, apparatus and system for a secondary personal computer display
US7623892B2 (en) * 2003-04-02 2009-11-24 Palm, Inc. System and method for enabling a person to switch use of computing devices
US7373605B2 (en) * 2003-06-13 2008-05-13 Sap Aktiengesellschaft Presentation system for displaying data
US20050125570A1 (en) * 2003-10-23 2005-06-09 Robert Olodort Portable communication devices
US7085590B2 (en) * 2003-12-31 2006-08-01 Sony Ericsson Mobile Communications Ab Mobile terminal with ergonomic imaging functions
JP2005277452A (ja) * 2004-03-22 2005-10-06 Nec Corp 携帯型電子機器及びその表示切り替え方法
US20060248471A1 (en) * 2005-04-29 2006-11-02 Microsoft Corporation System and method for providing a window management mode
US7844301B2 (en) * 2005-10-14 2010-11-30 Lg Electronics Inc. Method for displaying multimedia contents and mobile communications terminal capable of implementing the same
KR100816286B1 (ko) * 2006-05-18 2008-03-24 삼성전자주식회사 휴대 단말기와 외부 장치를 이용한 디스플레이 장치 및방법
US7657227B2 (en) * 2006-08-03 2010-02-02 International Business Machines Corporation Method and system for dynamic display connectivity based on configuration information via RFID tag
KR100782081B1 (ko) * 2006-09-20 2007-12-04 삼성전자주식회사 휴대 단말기의 터치 스크린을 이용한 데이터 통신 방법
US20080248834A1 (en) * 2007-04-03 2008-10-09 Palm, Inc. System and methods for providing access to a desktop and applications of a mobile device
US8068121B2 (en) * 2007-06-29 2011-11-29 Microsoft Corporation Manipulation of graphical objects on a display or a proxy device
JP4361945B2 (ja) * 2007-07-24 2009-11-11 株式会社エヌ・ティ・ティ・ドコモ 情報処理装置およびプログラム
CA2621744C (en) * 2007-09-13 2016-10-04 Research In Motion Limited System and method for interfacing between a mobile device and a personal computer
CN100565659C (zh) * 2007-12-07 2009-12-02 方正国际软件(北京)有限公司 一种多显示器监控方法及装置
TW200926048A (en) * 2007-12-14 2009-06-16 Lead Data Inc Screen auxiliary system
US8634331B2 (en) 2008-01-25 2014-01-21 Bce Inc. Customer premises call handling
US20090195513A1 (en) * 2008-02-05 2009-08-06 Delphi Technologies, Inc. Interactive multimedia control module
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
KR101542380B1 (ko) * 2008-10-24 2015-08-07 엘지전자 주식회사 이동단말기 및 그 제어 방법
US20100115458A1 (en) * 2008-10-26 2010-05-06 Adam Marano Panning a native display on a mobile computing device to a window, interpreting a gesture-based instruction to scroll contents of the window, and wrapping text on the window
US8238979B2 (en) * 2009-04-14 2012-08-07 Qualcomm Incorporated System and method for mobile device display power savings
KR101602221B1 (ko) 2009-05-19 2016-03-10 엘지전자 주식회사 이동 단말 및 그 제어 방법
US20100321275A1 (en) * 2009-06-18 2010-12-23 Microsoft Corporation Multiple display computing device with position-based operating modes
US8817048B2 (en) * 2009-07-17 2014-08-26 Apple Inc. Selective rotation of a user interface
US20110112819A1 (en) * 2009-11-11 2011-05-12 Sony Corporation User interface systems and methods between a portable device and a computer
JP2011134278A (ja) * 2009-12-25 2011-07-07 Toshiba Corp 情報処理装置およびポインティング制御方法
US20110183654A1 (en) * 2010-01-25 2011-07-28 Brian Lanier Concurrent Use of Multiple User Interface Devices

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070015239A (ko) * 2007-01-13 2007-02-01 (주)아루온게임즈 휴대전화와 유저 게임공통단말기가 연동된 게임시스템 및그 방법
KR20100072102A (ko) * 2008-02-13 2010-06-29 가부시키가이샤 코나미 데지타루 엔타테인멘토 게임 시스템 및 게임 단말기

Also Published As

Publication number Publication date
EP3021191A1 (en) 2016-05-18
EP2605413B1 (en) 2018-10-10
US9122392B2 (en) 2015-09-01
US9542726B2 (en) 2017-01-10
US20120040719A1 (en) 2012-02-16
US9576339B2 (en) 2017-02-21
CN103155425A (zh) 2013-06-12
EP2605413A4 (en) 2016-05-18
EP2605413A1 (en) 2013-06-19
EP3021191B1 (en) 2018-06-06
KR20130115223A (ko) 2013-10-21
US20160027150A1 (en) 2016-01-28
US20150324109A1 (en) 2015-11-12
KR101701859B1 (ko) 2017-02-02
CN103155425B (zh) 2015-07-29

Similar Documents

Publication Publication Date Title
WO2012020866A1 (ko) 이동단말기, 디스플레이 장치 및 그 제어 방법
WO2012020868A1 (ko) 이동단말기, 디스플레이 장치 및 그 제어 방법
WO2012020865A1 (ko) 이동단말기, 디스플레이 장치 및 그 제어 방법
WO2018034402A1 (en) Mobile terminal and method for controlling the same
WO2012046890A1 (ko) 이동단말기, 디스플레이 장치 및 그 제어 방법
WO2016182132A1 (ko) 이동단말기 및 그 제어방법
WO2015030411A1 (en) Mobile terminal and method of controlling the same
WO2017082508A1 (ko) 와치형 단말기 및 그 제어방법
WO2015119484A1 (en) User terminal device and displaying method thereof
WO2015167165A1 (en) Method and electronic device for managing display objects
WO2015199453A1 (en) Foldable electronic apparatus and interfacing method thereof
WO2015170894A1 (en) Wearable device and controlling method thereof
WO2012020863A1 (ko) 이동단말기, 디스플레이 장치 및 그 제어 방법
WO2014142608A1 (en) Electronic device and operating method thereof
WO2017003055A1 (ko) 디스플레이 장치 및 제어 방법
WO2012020864A1 (ko) 이동단말기, 디스플레이 장치 및 그 제어 방법
WO2016010202A1 (en) Mobile terminal and control method for the mobile terminal
WO2016032045A1 (ko) 이동 단말기 및 이의 제어 방법
WO2020171288A1 (ko) 이동 단말기 및 이동 단말기를 구비한 전자장치
WO2016018062A1 (en) Method and device for providing content
WO2015199381A1 (en) Mobile terminal and method for controlling the same
WO2017039094A1 (en) Mobile terminal and method for controlling the same
WO2015093667A1 (ko) 전자기기 및 전자기기의 제어방법
WO2017051959A1 (ko) 단말 장치 및 단말 장치의 제어 방법
WO2017039051A1 (ko) 와치 타입 이동단말기 및 그 제어방법

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080069604.1

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10855933

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2010855933

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20137006349

Country of ref document: KR

Kind code of ref document: A