WO2010151053A2 - 케이스에 장착된 터치 센서를 이용한 이동 단말기 및 그 제어 방법 - Google Patents

케이스에 장착된 터치 센서를 이용한 이동 단말기 및 그 제어 방법 Download PDF

Info

Publication number
WO2010151053A2
WO2010151053A2 PCT/KR2010/004090 KR2010004090W WO2010151053A2 WO 2010151053 A2 WO2010151053 A2 WO 2010151053A2 KR 2010004090 W KR2010004090 W KR 2010004090W WO 2010151053 A2 WO2010151053 A2 WO 2010151053A2
Authority
WO
WIPO (PCT)
Prior art keywords
touch
mobile terminal
touch sensor
user
icon
Prior art date
Application number
PCT/KR2010/004090
Other languages
English (en)
French (fr)
Other versions
WO2010151053A3 (ko
Inventor
김영환
김현주
김현준
Original Assignee
엘지전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자주식회사 filed Critical 엘지전자주식회사
Publication of WO2010151053A2 publication Critical patent/WO2010151053A2/ko
Publication of WO2010151053A3 publication Critical patent/WO2010151053A3/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Definitions

  • the present invention relates to a mobile terminal such as a mobile phone and a control method thereof.
  • the present invention provides a mobile terminal equipped with a touch sensor capable of detecting touch and drag on a case portion of the mobile terminal, and detecting a user gesture by the touch sensor and controlling the mobile terminal based on the user gesture. It's about how you can do it.
  • a user interface suitable for a portable device is used, and a touch pad, a touch screen, a navigation pad, and the like are used.
  • various additional functions are added in addition to a call function.
  • an MP3 player, a camera function, and an internet connection function are added.
  • a user interface suitable for a portable device is used, and a touch pad, a touch screen, a navigation pad, etc. may be used.
  • An object of the present invention is to provide an improved method for controlling a mobile terminal.
  • an object of the present invention is to provide a method for detecting a user's gesture by mounting a touch sensor in the case portion of the mobile terminal.
  • an object of the present invention is to provide a mobile terminal and a control method thereof that can be implemented as a low-cost touch sensor.
  • a mobile terminal a display unit for outputting an image; At least two touch sensors disposed on the side surface and arranged to detect a touch or a movement of the input means and insulated from each other; And a controller for determining a touch or movement of the input means based on the touch or movement detected by the touch sensors and controlling an image output to the display unit according to the determination.
  • a method of controlling a mobile terminal including: detecting a touch of an input means for an icon on a touch screen on which an icon is displayed; Displaying additional information of the icon when a touch of an input means with respect to the icon is detected; Receiving an execution command from a user; And executing the touched icon.
  • a method of controlling a mobile terminal comprising: dividing an image to be displayed into a plurality of frames; Assigning each of the plurality of frames to a separate virtual screen; Displaying one of the virtual screens; And switching to and displaying another virtual screen according to a user input.
  • an improved method for controlling a mobile terminal can be provided.
  • a touch sensor may be mounted on a case part of a mobile terminal to detect a user's gesture and control the mobile terminal based on the gesture.
  • the user can control the mobile terminal in a simple and intuitive manner.
  • the mobile terminal according to the present invention can be implemented as a low-cost touch sensor.
  • FIG. 1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
  • FIG. 2 is a perspective view of a mobile terminal according to an embodiment of the present invention.
  • FIG 3 is an exploded view of a case of a mobile terminal according to an embodiment of the present invention.
  • FIGS. 4 and 5 illustrate a structure of a touch sensor that may be mounted on the side of the mobile terminal of FIGS. 2 and 3 according to one embodiment of the present invention.
  • 6 and 7 illustrate an arrangement structure of the touch sensor formed on the side of the mobile terminal according to an embodiment of the present invention.
  • FIG. 8 to 10 illustrate a structure of a capacitive touch sensor composed of a single layer according to an embodiment of the present invention.
  • FIG. 11 illustrates an arrangement of a rear touch sensor according to an embodiment of the present invention.
  • FIG. 12 and 13 illustrate an example in which a user grabs and uses a mobile terminal according to an embodiment of the present invention.
  • FIG. 14 and 15 illustrate a method of implementing a hovering function in a mobile terminal equipped with a touch screen according to an embodiment of the present invention.
  • FIG. 16 is a flowchart illustrating a method described with reference to FIGS. 14 and 15.
  • 17 to 20 illustrate a method of implementing an e-book function in a mobile terminal according to an embodiment of the present invention.
  • 21 to 23 illustrate a method of displaying a plurality of virtual screens including a plurality of menus in a mobile terminal according to an embodiment of the present invention.
  • FIG. 24 shows a screen when a route search is performed in a general PC or a notebook.
  • 25 to 28 illustrate a method of receiving a TV broadcast in a mobile terminal according to an embodiment of the present invention.
  • 29, 30, and 31 illustrate a gesture that may be applied when allocating a plurality of frames constituting one page to a plurality of virtual screens and switching between each screen, according to an embodiment of the present invention.
  • FIGS. 17 to 31 is a flowchart illustrating a method described with reference to FIGS. 17 to 31.
  • FIG. 1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
  • the mobile terminal can be implemented in various forms.
  • the mobile terminal described herein may be a mobile phone, a smart phone, a notebook computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), navigation, or the like.
  • PDA personal digital assistant
  • PMP portable multimedia player
  • the illustrated mobile terminal 100 includes a wireless communication unit 110, an A / V input unit 120, a user input unit 130, an output unit 150, a memory 160, an interface unit 170, The controller 180 and the power supply unit 190 may be included.
  • 1 illustrates a mobile terminal having various components. However, not all illustrated components are essential components. The mobile terminal may be implemented by more components than the illustrated components, or the mobile terminal may be implemented by fewer components.
  • the wireless communication unit 110 may include one or more components for wireless communication between the mobile terminal 100 and the wireless communication system or wireless communication between the mobile terminal 100 and a network in which the mobile terminal 100 is located.
  • the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless internet module 113, a short range communication module 114, a location information module 115, and the like. .
  • the broadcast receiving module 111 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel.
  • the broadcast channel may include a satellite channel and a terrestrial channel.
  • the broadcast management server may mean a server that generates and transmits a broadcast signal and / or broadcast related information or a server that receives a previously generated broadcast signal and / or broadcast related information and transmits the same to a terminal.
  • the broadcast related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider.
  • the broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal.
  • the broadcast related information may be provided through a mobile communication network, and in this case, may be received by the mobile communication module 112.
  • the broadcast related information may exist in various forms. For example, it may exist in the form of Electronic Program Guide (EPG) of Digital Multimedia Broadcasting (DMB) or Electronic Service Guide (ESG) of Digital Video Broadcast-Handheld (DVB-H).
  • EPG Electronic Program Guide
  • DMB Digital Multimedia Broadcasting
  • ESG Electronic Service Guide
  • DVB-H Digital Video Broadcast-Handheld
  • the broadcast receiving module 111 receives broadcast signals using various broadcasting systems, and in particular, digital multimedia broadcasting-terrestrial (DMB-T), digital multimedia broadcasting-satellite (DMB-S), and media forward link (MediaFLO). Digital broadcast signals can be received using digital broadcasting systems such as only), digital video broadcast-handheld (DVB-H), integrated services digital broadcast-terrestrial (ISDB-T), and the like. Of course, the broadcast receiving module 111 is configured to be suitable for all broadcast systems providing broadcast signals as well as the digital broadcast system described above.
  • DMB-T digital multimedia broadcasting-terrestrial
  • DMB-S digital multimedia broadcasting-satellite
  • MediaFLO media forward link
  • Digital broadcast signals can be received using digital broadcasting systems such as only), digital video broadcast-handheld (DVB-H), integrated services digital broadcast-terrestrial (ISDB-T), and the like.
  • the broadcast receiving module 111 is configured to be suitable for all broadcast systems providing broadcast signals as well as the digital broadcast system described above.
  • the broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory 160.
  • the mobile communication module 112 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network.
  • the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.
  • the wireless internet module 113 refers to a module for wireless internet access, and the wireless internet module 113 may be internal or external.
  • the short range communication module 114 refers to a module for short range communication.
  • Bluetooth Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like may be used.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee ZigBee
  • the location information module 115 is a module for checking or obtaining the location of the mobile terminal.
  • the GPS module receives location information from a plurality of satellites.
  • the location information may include coordinate information represented by latitude and longitude.
  • the GPS module can measure the exact time and distance from three or more satellites and accurately calculate the current position by triangulating three different distances. A method of obtaining distance and time information from three satellites and correcting the error with one satellite may be used.
  • the GPS module can obtain not only the location of latitude, longitude, and altitude but also accurate time together with three-dimensional speed information from the location information received from the satellite.
  • the A / V input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122.
  • the camera 121 processes image frames such as still images or moving images obtained by the image sensor in the video call mode or the photographing mode.
  • the processed image frame may be displayed on the display unit 151.
  • the image frame processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. Two or more cameras 121 may be provided according to the configuration aspect of the terminal.
  • the microphone 122 receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, etc., and processes the external sound signal into electrical voice data.
  • the processed voice data may be converted into a form transmittable to the mobile communication base station through the mobile communication module 112 and output in the call mode.
  • the microphone 122 may implement various noise removing algorithms for removing noise generated in the process of receiving an external sound signal.
  • the user input unit 130 generates input data for the user to control the operation of the terminal.
  • the user input unit 130 may include a key pad dome switch, a touch panel (constant voltage / capacitance), a jog wheel, a jog switch, and the like.
  • a touch screen when the transparent touch pad forms a mutual layer structure with the display unit 151 described later, this may be referred to as a touch screen.
  • the user input unit 130 of the mobile terminal 100 is exposed to the outside of the mobile terminal 100 and is mounted to a side for detecting a user's touch and drag gesture.
  • the touch sensor 132 may include a rear touch sensor 133 mounted on the rear surface.
  • the side touch sensor 132 and the rear touch sensor 133 may be implemented as an array of a plurality of electrically insulated capacitive sensors or electric resistance sensors, and are configured as a single unit to touch and drag. It may be a general touch screen or a touch sensor for a touch pad that can be detected.
  • the interface unit 170 serves as an interface with all external devices connected to the mobile terminal 100.
  • wired / wireless headset ports for example, wired / wireless headset ports, external charger ports, wired / wireless data ports, memory card ports, ports for connecting devices with identification modules, audio input / output (I / O) ports, Video I / O (Input / Output) port, earphone port, etc. may be included.
  • I / O audio input / output
  • Video I / O (Input / Output) port may be included.
  • the identification module is a chip that stores various types of information for authenticating the use authority of the mobile terminal 100, and includes a user identification module (UIM) and a subscriber identify module (SIM). ), A Universal Subscriber Identity Module (“USIM”), and the like.
  • the device equipped with the identification module hereinafter, 'identification device'
  • the interface unit 170 receives data from an external device or receives power and transmits the data to each component inside the mobile terminal 100 or transmits the data inside the mobile terminal 100 to an external device.
  • the output unit 150 is for outputting an audio signal, a video signal, or an alarm signal.
  • the output unit 150 may include a display unit 151, a sound output module 152, an alarm unit 153, and the like.
  • the display unit 151 displays and outputs information processed by the mobile terminal 100. For example, when the mobile terminal is in a call mode, a user interface (UI) or a graphic user interface (GUI) related to a call is displayed. When the mobile terminal 100 is in a video call mode or a photographing mode, the mobile terminal 100 displays a photographed and / or received image, a UI, or a GUI.
  • UI user interface
  • GUI graphic user interface
  • the display unit 151 may be used as an input device in addition to the output device.
  • the display unit 151 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, or a three-dimensional display. 3D display).
  • two or more display units 151 may exist according to the implementation form of the mobile terminal 100. For example, an external display unit (not shown) and an internal display unit (not shown) may be simultaneously provided in the mobile terminal 100.
  • the sound output module 152 outputs audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. In addition, the sound output module 152 outputs a sound signal related to a function (eg, a call signal reception sound, a message reception sound, etc.) performed in the mobile terminal 100.
  • the sound output module 152 may include a speaker, a buzzer, and the like.
  • the alarm unit 153 outputs a signal for notifying occurrence of an event of the mobile terminal 100.
  • Examples of events occurring in the mobile terminal include call signal reception, message reception, and key signal input.
  • the alarm unit 153 may output a signal for notifying occurrence of an event in a form other than an audio signal or a video signal.
  • the signal may be output in the form of vibration.
  • the alarm unit 153 may output a vibration to inform this.
  • the alarm unit 153 may output a vibration in response to the key signal input. Through the vibration output as described above, the user can recognize the occurrence of the event.
  • the signal for event occurrence notification may be output through the display unit 151 or the voice output module 152.
  • the memory 160 may store a program for processing and controlling the controller 180 and may provide a function for temporarily storing input / output data (for example, a phone book, a message, a still image, a video, etc.). It can also be done.
  • input / output data for example, a phone book, a message, a still image, a video, etc.
  • the memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), RAM Random Access Memory (RAM) Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM) magnetic memory, It may include at least one type of storage medium of the optical disk.
  • the mobile terminal 100 may operate a web storage that performs a storage function of the memory 150 on the Internet.
  • the controller 180 typically controls the overall operation of the mobile terminal. For example, perform related control and processing for voice calls, data communications, video calls, and the like.
  • the controller 180 may include a multimedia module 181 for playing multimedia.
  • the multimedia module 181 may be implemented in the controller 180 or may be implemented separately from the controller 180.
  • the power supply unit 190 receives an external power source and an internal power source under the control of the controller 180 to supply power for operation of each component.
  • FIG. 2 is a perspective view of a mobile terminal 100 according to an embodiment of the present invention.
  • the mobile terminal 100 shown in FIG. 2 is a so-called 'touch screen phone' and is a mobile phone occupying most of the front surface of the touch screen 110.
  • a touch screen 202 is disposed on the front surface of the mobile terminal 100, and at least two touch sensors 132 are formed on the side surface 204 to sense a touch and a movement of an input means such as a user's finger. It is.
  • FIG 3 illustrates an exploded view of a case of a mobile terminal 100 according to an embodiment of the present invention.
  • the front surface on which the touch screen is formed is not shown.
  • a plurality of touch sensors 132-1 and 132-2 may be formed on side surfaces 204 and 208 of the mobile terminal 100 according to an embodiment of the present invention.
  • the touch sensors 132-1 and 132-2 formed on the side surfaces 204 and 208 may be configured of an array of touch sensors insulated from each other. As shown in FIG. 3, it may be formed in an array of 2 ⁇ 3 pieces, or may be configured in an array of 2 ⁇ n pieces (n is an integer). Since each touch sensor is insulated from each other, each touch sensor may not be affected by the physical quantity detected by the adjacent touch sensor. Moreover, since it is insulated from each other, what is called a ghost phenomenon by multitouch can also be prevented.
  • the ghost phenomenon refers to an error phenomenon in which a middle point is recognized as a touch point instead of detecting both multi-touched positions when two or more touches are simultaneously touched by a single layer type touch sensor.
  • Each touch sensor may be configured to detect a touch and a movement (that is, a drag) of a user's finger or other input means (such as a stylus pen), or may be a touch sensor capable of detecting only a touch.
  • each touch sensor may be a capacitive or resistive touch sensor.
  • the touch sensor 133 may be disposed on the rear surface 210 of the mobile terminal 100. Similar to the side touch sensor 132, the touch sensor 133 disposed on the rear surface 210 may be configured of a plurality of insulated touch sensor arrays capable of detecting only a touch, or a single layer capable of detecting touch and movement. It may be composed of one touch sensor of a multi-layer structure.
  • the touch sensor may be formed on the upper surface 205 and the lower surface 206 of the mobile terminal 100 or any portion exposed to the outside of the mobile terminal 100.
  • 4 and 5 illustrate a structure of a touch sensor that may be mounted on side surfaces 204 and 208 or rear surface 210 or other portions of the mobile terminal 100 of FIGS. 2 and 3 according to an embodiment of the present invention. 4 and 5, only the detection electrodes 132a, 132b, and 132c of the electrodes constituting the touch sensor are shown, and the connection electrodes for transferring the capacitance or capacitance detected by the detection electrode to the controller or the processor are not shown. not.
  • each of the plurality of touch sensors formed on the side surfaces 204 and 208 of the mobile terminal 100 may be configured to detect the movement of the finger, that is, the drag, but may detect only the touch.
  • a touch sensor capable of detecting only a touch may be configured of a single detection electrode and a single connection electrode.
  • a touch sensor formed of a single layer or dual layer structure capable of detecting whether or not a touch is detected may also be used. According to the present invention, as a touch sensor mounted on a case of the mobile terminal 100, using a touch sensor composed of a single detection electrode and a single connection electrode, manufacturing cost can be reduced, and reaction speed can be increased. It can reduce the data processing load.
  • the touch sensors 132a and 132b formed of a single detection electrode and a single connection electrode capable of detecting only a touch are arranged side by side, the left and right movements of an input means such as a finger may be detected.
  • the touch sensors 132a and 132b are electrodes for detecting capacitance
  • the capacitance detected by the touch sensor 132a increases, The capacitance detected by the touch sensor 132b is increased.
  • the movement of the input means can be detected from the change in capacitance detected by the touch sensors 132a and 132b.
  • At least three single electrodes are required. For example, as shown in FIG. 5, when the three touch sensors 132a, 132b, and 132c are arranged, not only one-dimensional movement such as up, down, left, and right, but also movement of input means in any direction on two-dimensional such as diagonal direction can be detected.
  • FIG. 6 and 7 illustrate an arrangement structure of a touch sensor formed on the side surface 204 or 208 of the mobile terminal 100 according to an embodiment of the present invention.
  • Each of the touch sensors 132x and 132y may be a touch sensor composed of a single detection electrode and a single connection electrode.
  • the two touch sensors 132x in the x-axis direction detect the presence or absence of a touch and detect the movement, that is, the drag, of the input means in the x-axis direction.
  • the touch sensors 132y arranged in the y-axis direction detect the presence or absence of a touch and simultaneously detect the dragging of the input means in the y-axis direction.
  • the drag in the diagonal direction can also be detected.
  • Each of the touch sensors 132 may have a rectangular shape as illustrated in FIG. 6, or a right triangle having the touch sensors 132x in the x-axis direction facing each other as illustrated in FIG. 7. In addition to this, the touch sensor 132 may have any shape.
  • FIG. 8 to 10 illustrate a structure of a capacitive touch sensor composed of touch sensors capable of detecting only a touch according to an embodiment of the present invention.
  • connection electrode 213 and the detection electrode 211 are formed on the insulating substrate 214.
  • the detection electrode 211 detects a capacitance change generated by the touch of the input means.
  • the connection electrode 213 is electrically connected to the detection electrode 211, as shown in the plan view of FIG. 10, and transfers the capacitance change detected in the electrode pattern detected by the detection electrode 211 to the controller.
  • Each of the detection electrodes 211 may constitute the side touch sensor 132 according to the present invention.
  • insulating substrate 214 FR4 used as a substrate material of a printed circuit board may be used, or glass or film may be used.
  • electrode pattern 213 a conductive material such as Cu, Al, or ITO may be used, and as the insulating layer 212, prepreg or other insulating material may be used.
  • the connection electrode 213 may be formed by patterning a conductive material such as Cu, Al, or ITO on the insulating substrate 214.
  • glass or a film may be used as the insulating substrate 214 and the insulating layer 212, and a transparent electrode such as ITO may be used as the electrode pattern 213.
  • FIG. 9 is a cross-sectional view of a touch sensor capable of detecting only a touch according to another embodiment.
  • the detection electrode 211 and the connection electrode 213 are simultaneously patterned on the insulating substrate 214.
  • the same material as that of the detection electrode 211 and the connection electrode 213 can be used.
  • the detection electrode 211 and the connection electrode 213 are disposed on different layers to have a substantially dual layer, but the structure shown in FIG. 9 has the detection electrode 211 and the connection electrode. 213 is disposed on one layer to form a single layer, which is more advantageous for light and thin shortening.
  • FIG. 10 is a plan view of a touch sensor capable of detecting only a touch having a cross section of FIG. 8 or FIG. 9.
  • the plurality of detection electrodes 211 having a right triangle shape are disposed, and the connection electrode 213 measures the capacitance value from the detection electrodes 211 and transmits the capacitance value to the controller. As illustrated in FIG. 10, one connection electrode 213 may be drawn out for each detection electrode 211.
  • Each of the detection electrodes 211 may constitute the side touch sensor 132 according to the present invention.
  • one touch sensor capable of multi-touch recognition may be used. That is, a multi-touch used in a typical touch screen or touch panel and any one touch sensor capable of detecting its movement can be used.
  • the rear touch sensor 133 may be configured as a single touch sensor configured as a single layer or a dual layer capable of detecting the movement of the input means, and as illustrated in FIG. 6, the presence or absence of a touch may be detected. It may be composed of an array of a plurality of touch sensors 133a isolated from each other.
  • the rear touch sensor 133 may detect a user gesture such as a touch, a tapping, a drag, or the like that is performed at the rear of the mobile terminal 100.
  • FIG. 12 and 13 illustrate an example in which a user grabs and uses a mobile terminal 100 according to an embodiment of the present invention.
  • FIG. 12 is a state held by the left hand
  • FIG. 13 is a state held by the right hand.
  • 14 and 15 illustrate a method of implementing a hovering function in a mobile terminal 100 equipped with a touch screen according to an embodiment of the present invention. 14 and 15 illustrate a case of surfing the web using the mobile terminal 100.
  • description information about an icon 242 corresponding to a finger position may be displayed, for example, a tooltip or a screen tip.
  • Such an operation may be configured to operate in the same PC as when the user moves the cursor without a click, that is, when hovering.
  • Such an operation may be performed only when the user holds one of the specific buttons or the side sensor or the rear sensor A of the mobile terminal 100. That is, the user may set the specific button of the mobile terminal 100, the side sensor or the rear sensor as a button for activating the hovering mode, and may be configured to perform the above hovering operation only when the hovering mode is activated. In a state in which the hovering mode is not activated, the displayed image may be scrolled when the user drags the touch screen 202. According to an exemplary embodiment, the hovering mode may be normally activated and used as an input device for deactivating a specific button of the mobile terminal 100, or a side sensor or a rear sensor.
  • a corresponding additional explanation 236 is displayed.
  • Additional description 236 may be provided in the form of a hover box or a help balloon.
  • the execution command may be, for example, a gesture in which the user taps 235 one of the side touch sensors.
  • the gesture of tapping the side sensor A may be performed by a user holding the mobile terminal 100 as shown in FIG. 12 or FIG. 13.
  • the above operation may be performed by omitting displaying the additional description 236. That is, without displaying the additional explanation 236, when the user drags and touches the side sensor A on an icon, the icon may be executed.
  • an indicator that the icon 236 is executable may be displayed.
  • a corresponding additional description 236 is displayed.
  • Additional description 236 may be provided in the form of a hover box. In this state, the user may release the finger that is being touched, and if the user taps any portion 244 of the touch screen 202 within a predetermined time, the icon 242 may be executed.
  • the hovering operation is performed not only in the case of Internet web browsing, but also when an icon of a media file such as an image file, a video file, or a music file is displayed on the touch screen 202, or a main menu is displayed. It can be applied to any case where an icon is displayed at).
  • FIG. 16 is a flowchart illustrating a method described with reference to FIGS. 14 and 15.
  • step S201 a drag of a user is detected on the touch screen.
  • step S202 if the hovering mode is activated, the process proceeds to the next step. If the hovering mode is not activated, the screen is scrolled in the dragging direction in step S203.
  • step S204 an additional description of the icon that the user touches while dragging is displayed.
  • step S205 it is determined whether an execution command is input while the additional explanation is displayed.
  • the execution command may be a gesture of tapping the side touch sensor A, as shown in FIG. 14, or of releasing a touch and tapping any portion of the touch screen 202 as shown in FIG. 15.
  • step S206 an icon that the user was touching when the execution command is input is executed.
  • the step of displaying the additional description may be omitted, and instead of the additional description, an indicator that the icon being touched is executable may be displayed.
  • the mobile terminal such as a mobile phone has expanded its specifications and functions, it has been possible to implement e-books, Internet browsing, large-capacity games, and the like, which were conventionally operated only on a PC.
  • the screen is often divided into a frame displaying a main screen, a frame displaying a control menu, and a frame displaying additional information.
  • the PC can display several frames on one screen due to the wide screen, but mobile terminals such as mobile phones are often difficult to display on one screen because the screen is small.
  • a plurality of virtual screens may be displayed by allocating such frames to a plurality of virtual screens.
  • 17 to 20 illustrate a method of implementing an E-book function in a mobile terminal according to an embodiment of the present invention.
  • FIG. 17 illustrates a screen on which an e-book viewing function is executed by a display device having a relatively wide display such as a general PC or an e-book reader.
  • a second frame for displaying an additional function menu such as a main frame 301 for displaying e-book contents, a first sub-frame 302 for displaying a table of contents, a memo input, and the like
  • the sub frame 303 is displayed on one screen at the same time.
  • the main frame 301, the first subframe 302, and the second subframe 303 may be divided into a plurality of different virtual screens and displayed.
  • FIG. 18 illustrates a virtual screen including a main frame 301
  • FIG. 19 illustrates a virtual screen including a first subframe 302
  • FIG. 19 illustrates a handwritten memo input menu of additional functions of the second subframe 303. Display a virtual screen.
  • one of the frames of FIG. 18-d may be displayed.
  • a predetermined command may be input to switch to another virtual screen.
  • the gesture described with reference to FIG. 29, 30, or 31 may be used to switch to another virtual screen.
  • the user may read the book while viewing the main frame 301, and may view a table of contents or perform an additional function as necessary.
  • 21 to 23 illustrate a method of displaying a plurality of virtual screens including a plurality of menus in a mobile terminal according to an embodiment of the present invention.
  • a menu is divided into four levels A, B, C, and D, and a menu including a plurality of icons A1 to A9 is displayed for each level. do.
  • Icons corresponding to each level can be assigned to separate virtual screens, and can be switched and displayed according to user input.
  • FIG. 22 shows a menu corresponding to the A level
  • FIG. 23 shows a menu corresponding to the B level.
  • the menus corresponding to the C level and the D level can be displayed similarly.
  • the screens of FIGS. 22 and 23 may be switched and displayed.
  • the user's command may be switched to another virtual screen, for example, by the gesture described with reference to FIG. 29, 30, or 31.
  • the user can switch between a plurality of virtual screens and find and execute an icon required by the user.
  • a map graphic screen 311 is displayed as shown in FIG. 13, and a starting and destination input frame 132, a desired route selection frame 313, and a route description frame 314 are next to the map graphic screen 311. Additional frames, such as, are displayed. These frames can be assigned to a plurality of virtual screens, switched and displayed according to the user's input.
  • 25 to 28 illustrate a method of receiving a TV broadcast in a mobile terminal according to an embodiment of the present invention.
  • the 25 shows a state where the entire screen of the TV broadcast is displayed.
  • the entire screen includes a main frame 321 displaying a video signal and a sub frame 322 displaying channel information.
  • the sub-frame 322 of FIG. 27 may be switched to the screen on which the necessary operation may be performed.
  • a window corresponding to another function may be allocated to a virtual frame, and switching may be performed between work windows while performing multitasking. For example, by assigning a text message writing function or a phone number searching function to the virtual screen, the user can switch to a text message writing screen or a phone number searching screen as shown in FIG. 28 while watching TV.
  • the text message composition screen of FIG. 28 may include a text input panel 324 and an input window 323. This switching is feasible without terminating the TV function.
  • switching to another frame or work window can be implemented by the gesture shown in FIG. 29, 30 or 31.
  • 29, 30, and 31 illustrate a gesture that may be applied when allocating a plurality of frames constituting one page to a plurality of virtual screens and switching between each screen, according to an embodiment of the present invention.
  • the touch sensor 132 on the side is attached to the touch screen 202 as shown in FIG. 29. It can be configured to switch by dragging in the vertical direction with respect to. This method can be more intuitive because it can give the user the feeling of switching back and forth in a structure stacked with a plurality of sheets.
  • the plurality of frames 2312, 2313, and 238c may be switched by tapping or double tapping the side touch sensor A or C as illustrated in FIG. 31.
  • 32 is a flowchart illustrating a method of allocating a plurality of frames to a plurality of virtual screens and switching between each screen according to an embodiment of the present invention.
  • an image to be displayed on the display is divided into a plurality of frames.
  • the method of classifying a frame may vary according to a source type or a reception method of an image to be displayed.
  • a frame to be distinguished from a file received from a server can be identified.
  • the e-book may also identify frames to be distinguished from the e-book file source stored in the memory.
  • a frame to be distinguished can be identified from a stored file or a received broadcast signal.
  • step S302 a plurality of divided frames are allocated to separate virtual screens.
  • step S303 one of the virtual screens is displayed on the display.
  • step S304 when a command for switching the virtual screen is received, in step S305, the virtual screen including another frame is switched and displayed.
  • the above-described mobile terminal is not limited to the configuration and method of the above-described embodiments, but the embodiments may be configured by selectively combining all or some of the embodiments so that various modifications can be made. It may be.
  • embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and the like. It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing the functions. It may be implemented by the controller 180.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • embodiments such as procedures or functions may be implemented with separate software modules that allow at least one function or operation to be performed.
  • the software code may be implemented by a software application written in a suitable programming language.
  • the software code may be stored in the memory 160 and executed by the controller 180.
  • the methods according to the embodiment of the present invention can be embodied as computer readable codes on a medium in which a program is recorded.
  • the computer-readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like, which are also implemented in the form of carrier waves (eg, transmission over the Internet). It also includes.
  • the computer may include the controller 180 of the terminal.

Abstract

본 발명은 이동 단말기의 케이스 부분에 터치 및 드래그를 검출할 수 있는 터치 센서를 장착한 이동 단말기와, 상기 터치 센서에 의해 이동 단말기를 제어할 수 있는 방법에 관한 것이다.

Description

케이스에 장착된 터치 센서를 이용한 이동 단말기 및 그 제어 방법
본 발명은 휴대폰 등의 이동 단말기 및 그 제어 방법에 관한 것이다.
보다 구체적으로, 본 발명은 이동 단말기의 케이스 부분에 터치 및 드래그를 검출할 수 있는 터치 센서를 장착한 이동 단말기와, 상기 터치 센서에 의해 사용자의 제스쳐를 검출하고 사용자 제스쳐를 기반으로 이동 단말기를 제어할 수 있는 방법에 관한 것이다.
휴대폰, MP3 플레이어, PMP, 노트북, PDA 등 다양한 휴대용 이동 단말기들이 존재한다. 이들은 휴대성의 특징으로 인해, 입출력을 위한 사용자 인터페이스에 많은 제약이 가해진다. 어느 한 장소에서 고정적으로 사용하는 것이 아니라, 사용자가 이동하면서 사용하는 경우가 많고 휴대용이라는 특성상 기기의 부피가 매우 작기 때문에 일반 PC나 오디오, 대형 TV 등에 사용되는 입출력 방식인 쿼티 키보드, 리모컨 등의 입출력장치는 부적절한 경우가 많다.
때문에, 휴대용 기기에 적합한 사용자 인터페이스가 사용되고 있는데, 터치패드, 터치 스크린, 네비게이션 패드 등을 이용한다.
이러한 다양한 사용자 인터페이스에도 불구하고, 이동 단말기들의 입출력에는 많은 제한이 따르고, 사용자도 그만큼 불편을 느끼게 된다.
휴대폰의 경우를 예로 들면, 통화 기능 외에 다양한 부가 기능을 추가하는 추세인데, 예를 들면, MP3 플레이어, 카메라 기능, 인터넷 접속 기능 등이 추가되고 있다.
이들 많은 기능들은 사용자가 모두 제어할 수 있도록 구성되는 것은 당연하지만, 이동 단말기의 사용 상태에 따라 사용자가 적절하게 기능을 제어하기에는 불편이 따른다.
최근 휴대폰에 많은 부가 기능들이 추가되면서 휴대폰을 조작하기 위해 사용자에게 제공되는 사용자 인터페이스를 개선하기 위한 노력이 계속되고 있다.
휴대폰은 휴대성이라는 특징으로 인해, 입출력을 위한 사용자 인터페이스에 많은 제약이 따른다. 어느 한 장소에서 고정적으로 사용하는 것이 아니라, 사용자가 이동하면서 사용하는 경우가 많고 휴대용이라는 특성상 기기의 부피가 매우 작기 때문에 일반 PC나 오디오, 대형 TV등에 사용되는 입출력 방식인 쿼티 키보드, 리모컨 등의 입출력장치는 부적절한 경우가 많다.
때문에, 휴대용 기기에 적합한 사용자 인터페이스가 사용되고 있는데, 터치패드, 터치 스크린, 네비게이션 패드 등을 이용되기도 한다.
이러한 다양한 사용자 인터페이스에도 불구하고, 이동 단말기들의 입출력에는 많은 제한이 따르고, 사용자도 그만큼 불편을 느끼게 된다.
보다 개선된 이동 단말기용 사용자 인터페이스 제어 방법이 요구된다.
본 발명은 개선된 이동 단말기 제어 방법을 제공하는 것을 목적으로 한다.
또한, 본 발명은 이동 단말기의 케이스부에 터치 센서를 장착하여, 사용자의 제스쳐를 검출하는 방법을 제공하는 것을 목적으로 한다.
또한, 본 발명은 저비용의 터치 센서로 구현할 수 있는 이동 단말기 및 그 제어 방법을 제공하는 것을 목적으로 한다.
본 발명의 일 실시예에 따른 이동 단말기는, 이미지를 출력하는 디스플레이부; 측면에 배치되어 입력 수단의 터치 또는 움직임을 검출할 수 있도록 배열되며, 서로 절연된 적어도 2개의 터치 센서; 및 상기 터치 센서들이 검출한 터치 또는 움직임을 기반으로 상기 입력 수단의 터치 또는 움직임을 판단하고, 상기 판단에 따라 상기 디스플레이부로 출력되는 이미지를 제어하는 제어부를 포함한다.
본 발명의 일 실시예에 따른 이동 단말기 제어 방법은, 아이콘이 표시된 터치 스크린 상에서, 상기 아이콘에 대한 입력 수단의 터치를 검출하는 단계; 상기 아이콘에 대한 입력 수단의 터치가 검출되면, 상기 아이콘의 부가 정보를 표시하는 단계; 사용자로부터 실행 명령을 입력받는 단계; 및 상기 터치된 아이콘을 실행하는 단계를 포함한다.
본 발명의 일 실시예에 따른 이동 단말기 제어 방법은, 표시할 이미지를 복수의 프레임으로 구분하는 단계; 상기 복수의 프레임을 각각 별개의 가상 스크린에 할당하는 단계; 상기 가상 스크린 중 하나를 표시하는 단계; 및 사용자 입력에 따라, 다른 가상 스크린으로 스위칭하여 표시하는 단계를 포함한다.
본 발명에 따르면, 개선된 이동 단말기 제어 방법을 제공할 수 있다.
또한, 본 발명에 따르면, 이동 단말기의 케이스부에 터치 센서를 장착하여, 사용자의 제스쳐를 검출하고, 상기 제스쳐를 기반으로 이동 단말기를 제어할 수 있다. 따라서, 사용자는 단순하고 직관적인 방법으로 이동 단말기를 제어할 수 있다.
또한, 본 발명에 따른 이동 단말기는 저가의 터치 센서로 구현할 수 있다.
또한, 본 발명에 따르면, 디스플레이의 크기가 작은 이동 단말기에서도 전체 화면을 수개의 프레임으로 나누어 표시함으로써 디스플레이 크기의 제약을 극복할 수 있다.
도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도이다.
도 2는 본 발명의 일 실시예에 따른 이동 단말기의 사시도를 나타낸다.
도 3은 본 발명의 일 실시예에 따른 이동 단말기의 케이스의 전개도를 나타낸다.
도 4 및 도 5는 본 발명의 일 실시예에 따라, 도 2 및 3의 이동 단말기의 측면에 장착될 수 있는 터치 센서의 구조를 나타낸다.
도 6 및 도 7는 본 발명의 일 실시예에 따른 이동 단말기의 측면에 형성되는 터치 센서의 배열 구조를 나타낸다.
도 8 내지 도 10는 본 발명의 일 실시예에 따른 싱글 레이어로 구성된 정전용량 방식 터치 센서의 구조를 나타낸다.
도 11은 본 발명의 일 실시예에 따른 후면 터치 센서의 배열을 나타낸다.
도 12 및 도 13는 본 발명의 일 실시예에 따라, 사용자가 이동 단말기를 잡고 사용하는 예를 나타낸다.
도 14 및 도 15는 본 발명의 일 실시예에 따라, 터치 스크린이 장착된 이동 단말기에서 호버링 기능을 구현하는 방법을 나타낸다.
도 16은 도 14 및 도 15를 참조하여 설명한 방법을 나타내는 순서도이다.
도 17 내지 도 20는 본 발명의 일 실시예에 따라, 이동 단말기에서 전자책 기능을 구현하는 방법을 나타낸다.
도 21 내지 도 23는 본 발명의 일 실시예에 따라, 이동 단말기에서 복수의 메뉴들을 포함하는 다수의 가상 스크린을 표시하는 방법을 나타낸다.
도 24는 일반 PC 또는 노트북에서 경로 검색을 수행한 경우의 화면을 나타낸다.
도 25 내지 도 28는 본 발명의 일 실시예에 따라, 이동 단말기에서 TV 방송을 수신하는 방법을 나타낸다.
도 29, 30 및 도 31은 본 발명의 일 실시예에 따라, 하나의 페이지를 구성하는 복수의 프레임들을 복수의 가상 스크린에 할당하고, 각 스크린 간을 스위칭할 때 적용될 수 있는 제스쳐를 나타낸다.
도 32은 도 17 내지 도 31을 참조하여 설명한 방법을 나타내는 순서도이다.
이하, 본 발명과 관련된 이동 단말기에 대하여 도면을 참조하여 보다 상세하게 설명한다.
도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.
이동 단말기는 다양한 형태로 구현될 수 있다. 예를 들어, 본 명세서에서 기술되는 이동 단말기는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등일 수 있다.
도시된 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1은 다양한 구성요소를 가지고 있는 이동 단말기를 나타내고 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소 보다 많은 구성요소에 의해 이동 단말기가 구현될 수도 있고, 그 보다 적은 구성요소에 의해서도 이동 단말기가 구현될 수 있다.
이하 상기 구성요소들에 대해 차례로 살펴본다.
무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 간의 무선 통신 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트웍간의 무선 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.
방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.
한편, 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있으며, 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.
상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.
상기 방송 수신 모듈(111)은, 각종 방송 시스템을 이용하여 방송 신호를 수신하는데, 특히, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 모든 방송 시스템에 적합하도록 구성된다.
방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.
또한, 이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈(113)은 내장되거나 외장될 수 있다.
근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
또한, 위치정보 모듈(115)은 이동 단말기의 위치를 확인하거나 얻기 위한 모듈이다. 일례로 GPS(Global Position System) 모듈이 있다. GPS 모듈은 복수 개의 인공위성으로부터 위치 정보를 수신한다. 여기에서, 위치 정보는 위도 및 경도로 표시되는 좌표 정보를 포함할 수 있다. 예를 들어, GPS 모듈은, 3개 이상의 위성으로부터 정확한 시간과 거리를 측정하여 3개의 각각 다른 거리를 삼각 방법에 따라서 현 위치를 정확히 계산할 수 있다. 3개의 위성으로부터 거리와 시간 정보를 얻고 1개 위성으로 오차를 수정하는 방법이 사용될 수 있다. 특히, GPS 모듈은 위성으로부터 수신한 위치 정보로부터, 위도, 경도, 고도의 위치뿐만 아니라 3차원의 속도 정보와 함께 정확한 시간까지 얻을 수 있다.
한편, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)은 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 그리고, 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.
카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)은 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.
마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 그리고, 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)를 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패널(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. 특히, 투명한 터치 패드가 후술하는 디스플레이부(151)과 상호 레이어 구조를 이룰 경우, 이를 터치 스크린이라 부를 수 있다.
또한, 본 발명에 따른 이동 단말기(100)의 사용자 입력부(130)는 터치 패널 외에도 후술하는 바와 같이, 이동 단말기(100)의 외부에 노출되어 사용자의 터치 및 드래그 제스쳐를 검출하는 측면에 장착되는 측면 터치 센서(132), 후면에 장착되는 후면 터치 센서(133)를 포함할 수 있다.
측면 터치 센서(132) 및 후면 터치 센서(133)는 후술하는 바와 같이, 전기적으로 절연된 복수의 정전용량 센서 또는 전기저항 방식의 센서의 배열로 구현될 수도 있고, 단일체로 구성되어 터치 및 드래그를 검출할 수 있는 일반 터치 스크린 또는 터치 패드용 터치 센서일 수도 있다.
인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 인터페이스 역할을 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 포함될 수 있다.
여기에서, 식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module; 'UIM'), 가입자 인증 모듈(Subscriber Identify Module; 'SIM'), 범용 사용자 인증 모듈(Universal Subscriber Identity Module; 'USIM') 등을 포함할 수 있다. 또한, 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다. 이와 같은 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달하거나 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다.
출력부(150)는 오디오 신호 또는 비디오 신호 또는 알람(alarm) 신호의 출력을 위한 것으로, 이에는 디스플레이부(151)과 음향 출력 모듈(152), 알람부(153) 등이 포함될 수 있다.
디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시 출력한다. 예를 들어 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 그리고 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.
한편, 전술한 바와 같이, 디스플레이부(150)와 터치 패널이 상호 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(151)은 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부(151)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 그리고 이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수도 있다. 예를 들어, 이동 단말기(100)에 외부 디스플레이부(미도시)과 내부 디스플레이부(미도시)이 동시에 구비될 수 있다.
음향 출력 모듈(152)는 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력 모듈(152)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력 등이 있다. 알람부(153)은 오디오 신호나 비디오 신호 이외에 다른 형태로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 예를 들면, 진동 형태로 신호를 출력할 수 있다. 호 신호가 수신되거나 메시지가 수신된 경우, 이를 알리기 위해 알람부(153)은 진동을 출력할 수 있다. 또는, 키 신호가 입력된 경우, 키 신호 입력에 대한 피드백으로 알람부(153)은 진동을 출력할 수 있다. 상기와 같은 진동 출력을 통해 사용자는 이벤트 발생을 인지할 수 있다. 물론 이벤트 발생 알림을 위한 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있다.
메모리(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다.
메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 이동 단말기(100)는 인터넷(internet)상에서 메모리(150)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영할 수도 있다.
그리고 제어부(180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.
도 2는 본 발명의 일 실시예에 따른 이동 단말기(100)의 사시도를 나타낸다. 도 2에 도시된 이동 단말기(100)는 소위 '터치 스크린폰'이라 불리는 휴대폰으로서, 전면의 대부분을 터치 스크린(110)이 차지하는 휴대폰이다.
이동 단말기(100)의 전면에는 터치 스크린(202)이 배치되고, 그 측면(204)에는 사용자의 손가락 등의 입력 수단의 터치 및 움직임을 센싱할 수 있도록 적어도 2개의 터치 센서들(132)이 형성되어 있다.
도 3은 본 발명의 일 실시예에 따른 이동 단말기(100)의 케이스의 전개도를 나타낸다. 터치 스크린이 형성된 전면은 미도시되어 있다.
도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 이동 단말기(100)의 측면(204,208)에는 복수의 터치 센서들(132-1,132-2)이 형성될 수 있다.
측면(204,208)에 형성된 터치 센서(132-1,132-2)는 서로 절연된 복수의 터치 센서들의 어레이로 구성될 수 있다. 도 3과 같이, 2x3개의 배열로 형성될 수도 있고, 2 x n개(n은 정수)의 배열로 구성될 수 있다. 각 터치 센서는 서로 절연되어 있기 때문에, 각 터치 센서는 근접한 터치 센서가 검출하는 물리량에 의해 영향을 받지 않을 수 있다. 또한, 서로 절연되어 있기 때문에, 멀티 터치에 의한 소위 고스트 현상도 방지할 수 있다. 여기서 고스트 현상은 싱글 레이어 방식의 터치 센서에서 두군데 이상을 동시에 터치하는 경우 멀티 터치된 위치 모두를 검출하는 것이 아니라, 그 중간점을 터치 점으로 인식하는 오류 현상을 말한다.
각 터치 센서가 사용자 손가락 또는 다른 입력 수단(스타일러스 펜 등)의 터치 및 움직임(즉 드래그)을 검출할 수 있도록 구성하여도 되지만, 터치 여부만을 검출할 수 있는 터치 센서여도 된다. 또한, 각 터치 센서는 정전용량 방식 또는 전기저항막 방식의 터치 센서일 수 있다.
다시 도 3을 참조하면, 이동 단말기(100)의 후면(210)에도 터치 센서(133)가 배치될 수 있다. 후면(210)에 배치되는 터치 센서(133)는 측면 터치 센서(132)와 마찬가지로, 터치만을 검출할 수 있는 절연된 복수의 터치 센서 어레이로 구성될 수도 있고, 터치 및 움직임을 검출 가능한 싱글 레이어 또는 멀티 레이어 구조의 터치 센서 한 개로 구성될 수도 있다.
실시예에 따라서는, 이동 단말기(100)의 상면(205)과 하면(206) 또는 이동 단말기(100) 중 외부에 노출된 임의의 부분에 터치 센서를 형성할 수 있다.
도 4 및 도 5는 본 발명의 일 실시예에 따라, 도 2 및 3의 이동 단말기(100)의 측면(204,208) 또는 후면(210) 또는 기타 부분에 장착될 수 있는 터치 센서의 구조를 나타낸다. 도 4 및 도 5에는 터치 센서를 구성하는 전극 중 검출 전극(132a,132b,132c) 만 도시되어 있고, 검출 전극에서 검출된 정전 용량 또는 전기용량을 제어부 또는 프로세서로 전달하는 연결 전극은 도시되어 있지 않다.
전술한 바와 같이, 이동 단말기(100)의 측면(204,208)에 형성되는 복수의 터치 센서들 각각은 손가락의 움직임, 즉 드래그를 검출할 수 있도록 구성해도 되지만, 터치 여부만을 검출할 수 있어도 된다.
터치 여부만을 검출할 수 있는 터치 센서는 단일 검출 전극 및 단일 연결 전극으로 구성될 수 있다. 터치 여부 및 움직임까지 검출할 수 있는 싱글 레이어 또는 듀얼 레이어 구조로 형성된 터치 센서를 사용할 수도 있다. 본 발명에 따라, 이동 단말기(100)의 케이스에 장착되는 터치 센서로, 단일 검출 전극 및 단일 연결 전극으로 구성된 터치 센서를 사용하면, 제조 단가를 절감할 수 있고, 반응 속도를 증가시킬 수 있으며, 데이터 처리 로드를 줄일 수 있다.
도 4와 같이, 터치 여부만을 검출할 수 있는 단일 검출 전극 및 단일 연결 전극으로 형성된 터치 센서(132a,132b)를 나란히 배열하면, 손가락 등 입력 수단의 좌우 방향 이동을 검출할 수 있다. 터치 센서(132a,132b)가 정전용량을 검출하는 전극이라 가정하면, 손가락이 터치 센서(132a)에서 터치 센서(132b)으로 이동하면, 터치 센서(132a)에서 검출되는 정전용량이 증가했다가, 터치 센서(132b)에서 검출되는 정전용량이 증가하게 된다. 터치 센서(132a,132b)에서 검출되는 정전용량의 변화로부터 입력 수단의 이동을 검출할 수 있다.
터치 여부만을 검출할 수 있는 단일 검출 전극 및 단일 연결 전극으로 구성된 터치 센서를 사용할 경우, 1차원의 이동을 검출하려면, 도 4와 같이 나란히 배열된 검출 전극이 최소 2개 필요하다.
터치 여부만을 검출할 수 있는 전극을 사용하여 2차원 이동을 검출하려면, 최소 3개의 단일 전극이 필요하다. 예컨대, 도 5와 같이 3개의 터치 센서(132a,132b,132c)을 배열하면 상하 좌우 등 1차원 이동뿐 아니라, 대각선 방향 등 2차원 상에서 임의의 방향의 입력 수단의 이동을 검출해낼 수 있다.
도 6 및 도 7는 본 발명의 일 실시예에 따른 이동 단말기(100)의 측면(204 또는 208)에 형성되는 터치 센서의 배열 구조를 나타낸다.
도 6와 같이 이동 단말기의 측면(204 또는 208)의 x축 방향으로는 2개의 터치 센서(132x), y축 방향으로는 수개의 터치 센서(132y)(여기서는 3개)이 배열된 2 x n개(n은 1 이상의 정수)의 배열로 구성될 수 있다. 터치 센서(132x,132y)의 각각은 단일 검출 전극 및 단일 연결 전극으로 구성된 터치 센서일 수 있다.
이와 같이 배열된 전극 구조에서 x축 방향의 2개의 터치 센서(132x)는 터치 유무를 검출하는 동시에, x축 방향으로의 입력 수단의 이동 즉, 드래그를 검출할 수 있다. 마찬가지로, y축 방향으로 배열된 터치 센서들(132y)은 터치 유무를 검출하는 동시에, y축 방향으로의 입력 수단의 드래글 검출할 수 있다. 대각선 방향으로의 드래그도 검출할 수 있음은 물론이다.
터치 센서(132) 각각의 형태는 도 6와 같이 직사각형일 수도 있고, 도 7와 같이 x축 방향의 터치 센서(132x) 끼리 서로 마주보는 직각 삼각형일 수도 있다. 이 외에도, 터치 센서(132)는 임의의 형상을 가질 수 있다.
도 8 내지 도 10는 본 발명의 일 실시예에 따른 터치 여부만을 검출할 수 있는 터치 센서들로 구성된 정전용량 방식 터치 센서의 구조를 나타낸다.
도 8는 단일 검출 전극 및 단일 연결 전극으로 구성된 터치 센서의 단면도를 나타낸다. 절연 기판(214) 에 연결 전극(213)과 검출 전극(211)이 형성된다. 검출 전극(211)은 입력 수단의 터치에 의해 발생하는 정전용량 변화를 검출한다. 연결 전극(213)은 도 10의 평면도와 같이, 검출 전극(211)과 전기적으로 연결되어, 검출 전극(211)에서 검출한 전극 패턴에서 검출한 정전용량 변화를 제어부로 전달한다.
검출 전극(211) 각각은 전술한 본 발명에 따른 측면 터치 센서(132)를 구성할 수 있다.
절연 기판(214)으로는 인쇄회로기판의 기판 재료로 사용되는 FR4를 사용할 수도 있고, 유리나 필름을 사용할 수도 있다. 전극 패턴(213)은 Cu, Al, ITO 등의 도전성 재료를 사용할 수 있고, 절연층(212)으로는 프리프레그나 기타 절연재료를 사용할 수 있다. 연결 전극(213)으로는 Cu, Al, ITO 등의 도전성 재질을 절연 기판(214) 상에 패터닝하여 형성할 수 있다. 터치 센서를 투명하게 제조하고자 하는 경우에는 절연 기판(214) 및 절연층(212)으로 유리나 필름을 사용하고, 전극 패턴(213)으로 ITO 등의 투명 전극을 사용할 수 있다.
도 9는 다른 실시예에 따른, 터치 여부만을 검출할 수 있는 터치 센서의 단면도를 나타낸다. 절연 기판(214) 상에 검출 전극(211)과 연결 전극(213)이 동시에 패터닝된다. 검출 전극(211)과 연결 전극(213)의 재료로는 도 8에서와 동일한 것을 사용할 수 있다. 도 8에 도시된 구조는 검출 전극(211)과 연결 전극(213)이 서로 다른 층에 배치되어, 실질적으로 듀얼 레이어의 형태를 갖지만, 도 9에 도시된 구조는 검출 전극(211)과 연결 전극(213)이 한 층에 배치되어 싱글 레이어 형태가 되며, 경박 단소화에 더 유리하다.
도 10는 도 8 또는 도 9의 단면을 갖는 터치 여부만 검출 가능한 터치 센서의 평면도이다. 직각 삼각형 형상의 복수의 검출 전극(211)들이 배치되고, 연결 전극(213)이 검출 전극(211)들로부터 정전용량 값을 측정하여 제어부로 전달한다. 도 10에 도시된 바와 같이, 연결 전극(213)은 검출 전극(211) 마다 하나씩 인출될 수 있다.
검출 전극(211) 각각은 전술한 본 발명에 따른 측면 터치 센서(132)를 구성할 수 있다.
도 6 또는 도 7와 같은 터치 여부만 검출 가능한 터치 센서의 배열 대신, 멀티 터치 인식이 가능한 임의의 터치 센서 1개를 사용할 수도 있다. 즉, 통상적인 터치 스크린 또는 터치 패널에 사용되는 멀티 터치 및 그 움직임 검출이 가능한 임의의 터치 센서 1개를 사용할 수 있다.
도 11은 본 발명의 일 실시예에 따른 후면 터치 센서(133)의 배열을 나타낸다. 전술한 바와 같이, 후면 터치 센서(133)는 입력 수단의 이동을 검출할 수 있는 싱글 레이어 또는 듀얼 레이어로 구성된 터치 센서 하나로 구성될 수 있고, 도 6에 도시된 바와 같이, 터치 유무를 검출할 수 있는 서로 절연된 복수의 터치 센서(133a)의 어레이로 구성될 수도 있다. 후면 터치 센서(133)는 이동 단말기(100)의 후면에서 이루어지는 터치, 탭핑(tapping), 드래그 등의 사용자 제스쳐를 검출할 수 있다.
도 12 및 도 13는 본 발명의 일 실시예에 따라, 사용자가 이동 단말기(100)를 잡고 사용하는 예를 나타낸다. 도 12는 왼손으로 잡은 상태이고, 도 13는 오른손으로 잡은 상태이다.
도 3과 같이 이동 단말기(100)의 측면(132-1,132-2)에 터치 센서를 형성하면, 도 12에 도시된 바와 같이, 왼손으로 이동 단말기(100)를 잡는 경우, A,B,C,D,E,F에서 터치를 검출할 수 있게 된다. 오른손으로 잡은 경우에는 도 13와 같이, A,G,B,H,C,E에서 터치가 검출된다.
도 14 및 도 15는 본 발명의 일 실시예에 따라, 터치 스크린이 장착된 이동 단말기(100)에서 호버링(hovering) 기능을 구현하는 방법을 나타낸다. 도 14 및 도 15는 이동 단말기(100)를 이용하여 웹 서핑을 하는 경우를 나타낸다.
사용자가 터치 스크린(202) 위에서 손가락을 드래그하면, 손가락 위치에 해당하는 아이콘(242)에 대한 설명 정보, 예컨대, 툴팁(tooltip) 또는 스크린 팁(screen tip)을 표시할 수 있다. 이와 같은 동작은 일반 PC에서, 사용자가 클릭없이 마우스로 커서를 이동시킬 때, 즉 호버링 시와 동일하게 동작하도록 구성될 수 있다.
이와 같은 동작은 사용자가 이동 단말기(100)의 특정 버튼 중 하나 또는 측면 센서, 또는 후면 센서 중 하나(A)를 홀드하고 있는 상태에서만 수행되도록 할 수 있다. 즉, 사용자가 이동 단말기(100)의 특정 버튼, 또는 측면 센서 또는 후면 센서를 호버링 모드를 활성화시키는 버튼으로 설정하고, 호버링 모드가 활성화된 상태에서만 위와 같은 호버링 동작이 수행되도록 구성할 수 있다. 호버링 모드가 활성화되지 않은 상태에서는 사용자가 터치 스크린(202)을 드래그하면, 표시된 이미지가 스크롤되도록 구성할 수 있다. 실시예에 따라서는, 평상시에는 호버링 모드가 활성화되도록 하고, 이동 단말기(100)의 특정 버튼, 또는 측면 센서 또는 후면 센서를 비활성화하는 입력 장치로 사용할 수도 있다.
도 14에서, 사용자가 손가락으로 터치 스크린(202)을 드래그하다가, 손가락이 아이콘(242)에 있게 되면, 즉 아이콘(242)에 대한 터치가 검출되면, 그에 해당하는 부가 설명(236)을 표시할 수 있다. 부가 설명(236)은 호버 박스(hover box) 또는 도움말 풍선의 형태로 제공될 수 있다. 그리고 나서, 아이콘(242)을 터치한 상태에서, 사용자가 실행 명령을 입력하면, 아이콘(242)을 실행할 수 있다. 실행 명령은 예컨대, 사용자가 측면 터치 센서 중 하나(A)를 탭핑(tapping)(235)하는 제스쳐일 수 있다.
측면 센서(A)를 탭핑하는 제스쳐는 사용자가 도 12 또는 도 13와 같이 이동 단말기(100)를 잡고 있는 손으로 수행할 수 있다.
위와 같은 동작은, 부가 설명(236)을 표시하는 단계를 생략하고 수행될 수도 있다. 즉, 부가 설명(236) 표시 없이, 사용자가 드래그하다가 임의의 아이콘 위에서 측면 센서(A)를 탭핑하면 그 아이콘이 실행되도록 구성할 수 있다.
또한, 실시예에 따라서는, 부가 설명(236) 대신에, 아이콘(236)이 실행가능하다는 인디케이터를 표시할 수도 있다.
도 15에서, 사용자가 손가락으로 터치 스크린(202)을 드래그하다가, 손가락이 아이콘(242)에 있게 되면, 즉 아이콘(242)에 대한 터치가 검출되면, 그에 해당하는 부가 설명(236)을 표시할 수 있다. 부가 설명(236)은 호버 박스의 형태로 제공될 수 있다. 그 상태에서, 사용자가 터치하고 있던 손가락을 떼고, 소정 시간 내에 터치 스크린(202) 중 임의의 부분(244)을 탭핑하면 터치 하고 있던 아이콘(242)에 실행되도록 구성할 수 있다.
위 호버링 동작은 인터넷 웹 브라우징의 경우뿐 아니라, 터치 스크린(202)에 이미지 파일, 동영상 파일, 음악 파일 등의 미디어 파일의 아이콘이 표시되어 있는 경우, 메인 메뉴가 표시되어 경우 등, 터치 스크린(202)에 아이콘이 표시되는 임의의 경우에 적용될 수 있다.
도 16은 도 14 및 도 15를 참조하여 설명한 방법을 나타내는 순서도이다.
단계(S201)에서, 터치 스크린 상에서 사용자의 드래그를 검출한다. 단계(S202)에서, 호버링 모드가 활성화되어 있는 경우에는 다음 단계로 진행하고, 호버링 모드가 활성화되지 않은 경우에는, 단계(S203)에서 드래그 방향으로 화면을 스크롤한다.
단계(S204)에서, 사용자가 드래그하는 중에 터치하게 되는 아이콘에 대한 부가 설명을 표시한다. 단계(S205)에서, 부가 설명이 표시된 상태에서 실행 명령이 입력되는지를 판단한다. 실행 명령은 도 14와 같이, 측면 터치 센서(A)를 탭핑하는 제스쳐일 수도 있고, 도 15와 같이 터치를 해제하고, 터치 스크린(202)의 임의의 부분을 탭핑하는 것일 수도 있다.
실행 명령이 입력되었으면, 단계(S206)에서, 실행 명령 입력 시에 사용자가 터치하고 있던 아이콘을 실행한다. 전술한 바와 같이, 부가 설명을 표시하는 단계는 생략할 수도 있고, 부가 설명 대신에, 터치하고 있는 아이콘이 실행가능하다는 인디케이터를 표시할 수도 있다.
최근의 휴대폰 등의 이동 단말기는 그 사양 및 기능이 확장됨에 따라, 종래에 PC에서만 동작시킬 수 있었던 전자책, 인터넷 브라우징, 대용량 게임 등을 구현할 수 있게 되었다. 이들 기능을 구현할 시 화면은 메인 화면을 표시하는 프레임, 제어 메뉴를 표시하는 프레임, 부가 정보를 표시하는 프레임 들로 구분되는 경우가 많다. 이들 기능을 구현할 시에, PC의 경우에는 넓은 화면으로 인해 여러 프레임을 한 화면에 표시할 수 있지만, 휴대폰 등의 이동 단말기는 화면이 작기 때문에 이러한 프레임들을 한 화면에 표시하기 어려운 경우가 많다.
본 발명의 일 실시예에 따라, 복수 개의 가상 스크린을 이러한 프레임들을 여러 개의 가상 스크린에 할당하여 표시할 수 있다.
도 17 내지 도 20는 본 발명의 일 실시예에 따라, 이동 단말기에서 전자책(E-book) 기능을 구현하는 방법을 나타낸다.
도 17는 일반 PC 또는 전자책 리더 등 상대적으로 넓은 디스플레이를 갖는 디스플레이 장치로 전자책 보기 기능을 실행한 화면을 나타낸다.
전자책 기능 실행 중에는, 도 17에 도시된 바와 같이, 전자책 내용을 표시하는 메인 프레임(301), 목차를 표시하는 제1 서브 프레임(302), 메모 입력 등의 부가 기능 메뉴를 표시하는 제2 서브 프레임(303)이 한 화면에 동시에 표시되게 된다. 본 발명의 일 실시예에 따라, 이들 메인 프레임(301), 제1 서브 프레임(302) 및 제2 서브 프레임(303)을 서로 다른 복수 개의 가상 스크린으로 나누어 표시할 수 있다.
도 18는 메인 프레임(301)을 포함하는 가상 스크린, 도 19는 제1 서브 프레임(302)을 포함하는 가상 스크린, 도 19는 제2 서브 프레임(303)의 부가 기능 중 필기체 메모 입력 메뉴가 실행된 가상 스크린을 나타낸다.
실시예에 따라서는, 도 17의 전체 프레임을 이동 단말기(100)의 터치 스크린(202)에 표시한 뒤에, 사용자가 프레임 중 하나를 선택하면, 도 18-d 중 하나를 표시할 수 있다.
도 18,19 또는 20의 화면이 표시된 상태에서, 소정 명령을 입력하여 다른 가상 스크린으로 스위칭할 수 있다. 예를 들어, 도 29, 30 또는 도 31을 참조하여 설명하는 제스쳐에 의해 다른 가상 스크린으로 스위칭할 수 있다.
그에 따라, 사용자는 메인 프레임(301)을 보면서 책을 읽다가 필요에 따라, 목차를 보거나, 부가 기능을 실행할 수 있다.
도 21 내지 도 23는 본 발명의 일 실시예에 따라, 이동 단말기에서 복수의 메뉴들을 포함하는 다수의 가상 스크린을 표시하는 방법을 나타낸다.
최근의 휴대폰 등 이동 단말기는 실행 메뉴를 아이콘으로 표시하는 경우가 많으며, 기능이 늘어감에 따라 표시할 아이콘의 수도 늘어가고 있다. 이 경우, 이동 단말기의 좁은 화면으로는 많은 수의 아이콘을 표시할 수 없으므로, 복수의 가상 스크린을 형성하고, 아이콘들을 형성된 가상 스크린들에 나눠서 표시할 수 있다.
예를 들어, 도 21에 도시된 바와 같이, 메뉴가 4개의 레벨(A,B,C,D)로 나눠지고, 각 레벨 마다 복수개의 아이콘(A1-A9)이 포함된 메뉴가 표시되어 있다고 가정한다.
각 레벨에 해당하는 아이콘들을 별개의 가상 스크린에 할당하고, 사용자의 입력에 따라 스위칭하며 표시할 수 있다.
도 22는 A 레벨에 해당하는 메뉴를, 도 23는 B 레벨에 해당하는 메뉴를 표시하고 있다. C 레벨 및 D 레벨에 해당하는 메뉴도 마찬가지로 표시할 수 있다. 사용자의 명령에 따라, 도 22와 도 23의 화면을 스위칭하여 표시할 수 있다. 사용자의 명령은 예컨대, 도 29, 30 또는 도 31을 참조하여 설명하는 제스쳐에 의해 다른 가상 스크린으로 스위칭할 수 있다. 사용자는 복수의 가상 스크린 간을 스위칭하며 자신이 필요한 아이콘을 찾아 실행할 수 있다.
일반 PC에서 경로 검색을 수행하면, 도 13과 같이, 지도 그래픽 화면(311)이 표시되고, 그 옆에 출발지 및 목적지 입력 프레임(132), 원하는 루트 선택 프레임(313), 경로 설명 프레임(314) 등의 부가 프레임이 표시된다. 이들 프레임을 복수개의 가상 스크린에 할당하고, 사용자의 입력에 따라 스위칭하며 표시할 수 있다.
도 25 내지 도 28는 본 발명의 일 실시예에 따라, 이동 단말기에서 TV 방송을 수신하는 방법을 나타낸다.
도 25는 TV 방송의 전체 화면이 표시된 상태를 나타낸다. 전체 화면에는 비디오 신호가 표시되는 메인 프레임(321), 채널 정보를 표시하는 서브 프레임(322)이 포함된다.
도 26와 같이 비디오 신호를 표시하다가, 채널 정보를 보거나, 채널 변경 메뉴를 제어하고자 하는 경우에는 도 27의 서브 프레임(322)을 표시한 화면으로 스위칭하여 필요한 작업을 할 수 있다.
실시예에 따라서는, 가상 프레임에 다른 기능에 해당하는 창을 할당하고, 멀티 태스킹을 수행하는 중에 작업창 간을 스위칭하도록 구현할 수도 있다. 예컨대 가상 스크린에, 문자 메시지 작성 기능 또는 전화번호 검색 기능을 할당하여, TV 시청 중에 도 28와 같은 문자 메시지 작성 화면 또는 전화번호 검색 화면으로 스위칭할 수 있다. 도 28의 문자 메시지 작성 화면에는 텍스트 입력 패널(324)과 입력창(323)이 포함될 수 있다. 이러한 스위칭은 TV 기능을 종료하지 않고도 실행가능하다.
마찬가지로, 다른 프레임 또는 작업창으로의 스위칭은 도 29, 30 또는 도 31에 도시된 제스쳐에 의해 구현가능하다.
도 29, 30 및 도 31은 본 발명의 일 실시예에 따라, 하나의 페이지를 구성하는 복수의 프레임들을 복수의 가상 스크린에 할당하고, 각 스크린 간을 스위칭할 때 적용될 수 있는 제스쳐를 나타낸다.
도 30와 같이 전술한 복수의 가상 프레임들(2312,2313,238c)이 여러 장의 시트가 적층된 구조로 되어 있다고 가정하면, 도 29와 같이 측면의 터치 센서(132)를 터치 스크린(202)에 대해 수직 방향으로 드래그함으로써 스위칭하도록 구성할 수 있다. 이와 같은 방법은 사용자에게 여러 장의 시트로 적층된 구조에서 앞뒤로 스위칭하는 듯한 느낌을 줄 수 있으므로, 보다 직관적일 수 있다.
또한, 실시예에 따라서는, 도 31과 같이 측면 터치 센서(A 또는 C)를 탭핑 또는 더블탭핑 함으로써, 복수개의 프레임들(2312,2313,238c)이 스위칭되도록 구성할 수 있다.
도 32은 본 발명의 일 실시예에 따라, 복수의 프레임들을 복수의 가상 스크린에 할당하고, 각 스크린 간을 스위칭하는 방법을 나타내는 순서도이다.
단계(S301)에서, 디스플레이에 표시할 이미지를 복수의 프레임으로 구분한다. 표시할 이미지의 소스 타입 또는 수신 방법에 따라 프레임을 구분하는 방법은 달라질 수 있다. 인터넷 웹 페이지의 경우에는 서버로부터 수신한 파일로부터 구분할 프레임을 식별할 수 있다. 전자책의 경우도 메모리에 저장된 전자책 파일 소스로부터 구분될 프레임들을 식별할 수 있다. 기타, 동영상이나, TV의 경우에도 저장된 파일이나, 수신받은 방송 신호 등으로부터, 구분될 프레임을 식별할 수 있다.
단계(S302)에서, 구분된 복수의 프레임을 별개의 가상 스크린에 할당한다.
단계(S303)에서, 가상 스크린 중 하나를 디스플레이에 표시한다.
단계(S304)에서, 가상 스크린을 스위칭하는 명령이 수신되면, 단계(S305)에서, 다른 프레임이 포함된 가상 스크린으로 스위칭하여 표시한다.
상기와 같이 설명된 이동 단말기는 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
여기에 설명된 다양한 실시예들은 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터로 읽을 수 있는 기록매체 상에 구현될 수 있다.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어부(180)에 의해 구현될 수 있다.
소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.
또한, 본 발명의 실시예에 따른 방법들은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는, 단말기의 제어부(180)를 포함할 수도 있다.

Claims (18)

  1. 이미지를 출력하는 디스플레이부;
    측면에 배치되어 입력 수단의 터치 또는 움직임을 검출할 수 있도록 배열되며, 서로 절연된 적어도 2개의 터치 센서; 및
    상기 터치 센서들이 검출한 터치 또는 움직임을 기반으로 상기 입력 수단의 터치 또는 움직임을 판단하고, 상기 판단에 따라 상기 디스플레이부로 출력되는 이미지를 제어하는 제어부를 포함하는 이동 단말기.
  2. 제1항에 있어서,
    상기 터치 센서는 정전용량 방식 또는 전기저항 방식의 센서인 이동 단말기.
  3. 제1항에 있어서,
    상기 터치 센서 각각은 터치 여부를 검출할 수 있는 이동 단말기.
  4. 제1항에 있어서,
    상기 터치 센서들은 상기 이동 단말기의 측면에 2 X n개(n은 1 이상의 정수)의 2차원으로 배열된 이동 단말기.
  5. 제1항에 있어서,
    상기 터치 센서의 형상은 직각 삼각형이고, 2개씩 서로 마주보도록 배열된 이동 단말기.
  6. 제1항에 있어서,
    상기 터치 센서의 형상은 직사각형인 이동 단말기.
  7. 제1항에 있어서,
    상기 터치 센서들은 적어도 3개 이상이며, 상기 입력 수단의 2차원 움직임을 검출할 수 있도록 배열된 이동 단말기.
  8. 제1항에 있어서,
    상기 각 터치 센서는 상기 입력 수단의 근접을 검출할 수 있는 이동 단말기.
  9. 아이콘이 표시된 터치 스크린 상에서, 상기 아이콘에 대한 입력 수단의 터치를 검출하는 단계;
    상기 아이콘에 대한 입력 수단의 터치가 검출되면, 상기 아이콘의 부가 정보를 표시하는 단계;
    사용자로부터 실행 명령을 입력받는 단계; 및
    상기 터치된 아이콘을 실행하는 단계를 포함하는 이동 단말기 제어 방법.
  10. 제9항에 있어서,
    사용자로부터의 실행 명령은, 상기 터치 스크린 상의 측면에 배치된 터치 센서에 대한 또 다른 입력 수단의 움직임인 이동 단말기 제어 방법.
  11. 제9항에 있어서,
    상기 입력 수단이 이동하여 다른 아이콘에 대한 터치가 검출되면, 상기 다른 아이콘의 부가 정보를 표시하는 단계를 더 포함하는 이동 단말기 제어 방법.
  12. 제9항에 있어서,
    상기 사용자로부터의 실행 명령은, 상기 입력 수단의 터치를 해제하고, 소정 시간 내에 상기 터치 스크린 상의 임의의 위치를 탭핑하는 제스쳐인 이동 단말기 제어 방법.
  13. 표시할 이미지를 복수의 프레임으로 구분하는 단계;
    상기 복수의 프레임을 각각 별개의 가상 스크린에 할당하는 단계;
    상기 가상 스크린 중 하나를 표시하는 단계; 및
    사용자 입력에 따라, 다른 가상 스크린으로 스위칭하여 표시하는 단계를 포함하는 이동 단말기 제어 방법.
  14. 제13항에 있어서,
    상기 사용자 입력은 상기 이동 단말기의 측면에 배치된 터치 센서를 상기 이동 단말기의 전면에 수직한 방향으로 드래그하는 제스쳐인 이동 단말기 제어 방법.
  15. 제13항에 있어서,
    상기 사용자 입력은 상기 이동 단말기의 측면에 배치된 터치 센서를 적어도 한번 탭핑하는 제스쳐인 이동 단말기 제어 방법.
  16. 제13항에 있어서,
    상기 표시할 이미지는 인터넷 웹 페이지, 전자책, TV 방송 중 하나인 이동 단말기 제어 방법.
  17. 제13항에 있어서,
    상기 표시할 이미지는 서로 다른 아이콘들을 포함하는 복수의 메뉴들인 이동 단말기 제어 방법.
  18. 제13항에 있어서,
    상기 표시할 이미지는 멀티 태스킹에 의한 서로 다른 작업창인 이동 단말기 제어 방법.
PCT/KR2010/004090 2009-06-25 2010-06-23 케이스에 장착된 터치 센서를 이용한 이동 단말기 및 그 제어 방법 WO2010151053A2 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2009-0057171 2009-06-25
KR1020090057171A KR101611866B1 (ko) 2009-06-25 2009-06-25 케이스에 장착된 터치 센서를 이용한 이동 단말기 및 그 제어 방법

Publications (2)

Publication Number Publication Date
WO2010151053A2 true WO2010151053A2 (ko) 2010-12-29
WO2010151053A3 WO2010151053A3 (ko) 2011-03-31

Family

ID=43387050

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2010/004090 WO2010151053A2 (ko) 2009-06-25 2010-06-23 케이스에 장착된 터치 센서를 이용한 이동 단말기 및 그 제어 방법

Country Status (2)

Country Link
KR (1) KR101611866B1 (ko)
WO (1) WO2010151053A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2843522A4 (en) * 2012-04-27 2016-01-27 Sharp Kk PORTABLE INFORMATION TERMINAL

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011075276B4 (de) * 2011-05-04 2015-10-08 Ident Technology Ag Kapazitive Sensoreinrichtung sowie Verfahren zum Betrieb einer Eingabeeinrichtung
KR101424742B1 (ko) * 2012-12-06 2014-08-01 한국기술교육대학교 산학협력단 모바일 단말기의 터치 입력장치와 그 방법
KR102047921B1 (ko) * 2013-02-25 2019-11-25 삼성디스플레이 주식회사 휴대용 단말기
KR102189451B1 (ko) 2013-12-27 2020-12-14 삼성디스플레이 주식회사 전자 기기
JP6092157B2 (ja) * 2014-06-09 2017-03-08 富士フイルム株式会社 電子機器、電子機器の表示制御方法、及び電子機器の表示制御プログラム
JP6050282B2 (ja) * 2014-06-09 2016-12-21 富士フイルム株式会社 電子機器
KR102182165B1 (ko) * 2014-07-03 2020-11-24 엘지전자 주식회사 이동단말기 및 그 제어방법
KR102318556B1 (ko) * 2017-04-12 2021-10-29 현대자동차주식회사 입력장치 및 그 제어방법
KR101983504B1 (ko) 2018-08-29 2019-05-29 최태홍 시각장애인용 스마트폰 케이스 겸용 키보드
WO2020105767A1 (ko) * 2018-11-23 2020-05-28 엘지전자 주식회사 이동단말기
WO2023182777A1 (ko) * 2022-03-21 2023-09-28 삼성전자 주식회사 터치 센서를 포함하는 전자 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060197750A1 (en) * 2005-03-04 2006-09-07 Apple Computer, Inc. Hand held electronic device with multiple touch sensing devices
KR20070001440A (ko) * 2005-06-29 2007-01-04 삼성전자주식회사 사용자의 파지 형태를 이용한 휴대용 단말기의 기능 입력방법 및 장치.
US20070063976A1 (en) * 2003-07-28 2007-03-22 Toshiyuki Oga Mobile information terminal
US20090139778A1 (en) * 2007-11-30 2009-06-04 Microsoft Corporation User Input Using Proximity Sensing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070063976A1 (en) * 2003-07-28 2007-03-22 Toshiyuki Oga Mobile information terminal
US20060197750A1 (en) * 2005-03-04 2006-09-07 Apple Computer, Inc. Hand held electronic device with multiple touch sensing devices
KR20070001440A (ko) * 2005-06-29 2007-01-04 삼성전자주식회사 사용자의 파지 형태를 이용한 휴대용 단말기의 기능 입력방법 및 장치.
US20090139778A1 (en) * 2007-11-30 2009-06-04 Microsoft Corporation User Input Using Proximity Sensing

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2843522A4 (en) * 2012-04-27 2016-01-27 Sharp Kk PORTABLE INFORMATION TERMINAL

Also Published As

Publication number Publication date
KR101611866B1 (ko) 2016-04-26
WO2010151053A3 (ko) 2011-03-31
KR20100138579A (ko) 2010-12-31

Similar Documents

Publication Publication Date Title
WO2010151053A2 (ko) 케이스에 장착된 터치 센서를 이용한 이동 단말기 및 그 제어 방법
WO2018074877A1 (en) Electronic device and method for acquiring fingerprint information
WO2015088123A1 (en) Electronic device and method of controlling the same
WO2017065494A1 (en) Portable device and screen display method of portable device
WO2014193101A1 (en) Method and apparatus for controlling screen display using environmental information
WO2014017790A1 (en) Display device and control method thereof
WO2016195291A1 (en) User terminal apparatus and method of controlling the same
WO2016093506A1 (ko) 이동 단말기 및 그 제어 방법
WO2015023136A1 (ko) 전자장치에서 그립상태를 인지하기 위한 방법 및 장치
WO2014088350A1 (en) Display device and method of controlling the same
WO2013073908A1 (en) Apparatus with touch screen for preloading multiple applications and method of controlling the same
WO2014088310A1 (en) Display device and method of controlling the same
WO2015009103A1 (en) Method of providing message and user device supporting the same
WO2015199484A2 (en) Portable terminal and display method thereof
WO2014157897A1 (en) Method and device for switching tasks
WO2015016527A1 (en) Method and apparatus for controlling lock or unlock in
WO2015119378A1 (en) Apparatus and method of displaying windows
WO2015002380A1 (en) Electronic device and method for controlling multi-windows in the electronic device
WO2010044579A2 (en) A method for providing a user interface using three-dimensional gestures and an apparatus using the same
WO2009142383A1 (en) Electronic device with touch device and method of executing functions thereof
WO2014017722A1 (en) Display device for executing multiple applications and method for controlling the same
WO2014073825A1 (en) Portable device and control method thereof
WO2015030564A1 (en) Display apparatus, portable device and screen display methods thereof
WO2015005674A1 (en) Method for displaying and electronic device thereof
WO2017175942A1 (en) Mobile terminal and method for controlling the same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10792335

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10792335

Country of ref document: EP

Kind code of ref document: A2