WO2021100912A1 - Mobile terminal providing information related to user authentication, and method for controlling same - Google Patents

Mobile terminal providing information related to user authentication, and method for controlling same Download PDF

Info

Publication number
WO2021100912A1
WO2021100912A1 PCT/KR2019/016017 KR2019016017W WO2021100912A1 WO 2021100912 A1 WO2021100912 A1 WO 2021100912A1 KR 2019016017 W KR2019016017 W KR 2019016017W WO 2021100912 A1 WO2021100912 A1 WO 2021100912A1
Authority
WO
WIPO (PCT)
Prior art keywords
mobile terminal
location
information
identified
user authentication
Prior art date
Application number
PCT/KR2019/016017
Other languages
French (fr)
Korean (ko)
Inventor
황희연
윤성우
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2019/016017 priority Critical patent/WO2021100912A1/en
Publication of WO2021100912A1 publication Critical patent/WO2021100912A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones

Definitions

  • the present specification relates to a mobile terminal that provides information on a predetermined location in connection with user authentication, and a control method thereof.
  • Mobile terminals provide various user authentication services. For example, it provides a user authentication service by inputting a password, a predetermined pattern, or biometric information.
  • a sensor eg, a fingerprint recognition sensor
  • biometric information eg, fingerprint
  • a sensor for recognizing biometric information is inserted into a home button on the front of the mobile terminal, and a user authentication service is provided using information obtained through the sensor.
  • biometric information is recognized as biometric information (eg, a fingerprint) is input to a location on the display corresponding to the location of the sensor.
  • a sensor for recognizing biometric information e.g., a fingerprint sensor
  • a user with reduced vision for example, a visually impaired, recognizes the location of the sensor by tactile sense, and this User authentication was performed as a basis.
  • the senor when the sensor is disposed at the bottom of the display, it may be difficult to distinguish the sensor by tactile sensation because the location of the sensor is not classified in a physical form. Accordingly, a method for more easily guiding the position of the sensor is required.
  • the problem to be solved by this specification is to guide the input to be effectively applied to the location for user authentication, based on information on the location at which the input is obtained and the location (eg, the location of the sensor) specified in connection with user authentication. By providing information, user authentication can be performed more easily.
  • a mobile terminal includes a display and a processor, wherein the processor obtains an input related to user authentication through the display, confirms a location at which the input is obtained, and It checks whether a location corresponds to a predetermined location in connection with the user authentication, and provides information for guiding the predetermined location in relation to the confirmed location based on the confirmation as to whether or not it corresponds, and ,
  • the predetermined location may be determined based on a location of a sensor that obtains information for user authentication.
  • a method of controlling a mobile terminal including a display includes obtaining an input related to user authentication through the display, confirming a location to which the input is applied, and the identified location. Checking whether a corresponding to a predetermined location in connection with the user authentication, and providing information for guiding the predetermined location in relation to the identified location based on the confirmation of whether the corresponding or not. And the predetermined location may be determined based on a location of a sensor that obtains information for user authentication.
  • the input is applied to a location for user authentication.
  • a location eg, a location of a sensor
  • FIG. 1A is a block diagram illustrating a mobile terminal related to the present invention.
  • FIGS. 1B and 1C are conceptual diagrams of an example of a mobile terminal related to the present invention as viewed from different directions.
  • FIG. 2 is a conceptual diagram illustrating another example of a deformable mobile terminal according to the present invention.
  • FIG. 3 is a perspective view showing an example of a watch type mobile terminal related to another embodiment of the present invention.
  • FIG. 4 is a conceptual diagram illustrating a mobile terminal according to an embodiment of the present invention.
  • 5 and 6 are diagrams for explaining an alarm or vibration provided by a mobile terminal according to an embodiment of the present invention.
  • FIG. 7 is a block diagram of a mobile terminal according to an embodiment of the present invention.
  • FIG. 8 is a flowchart showing the flow of each step of a method for controlling a mobile terminal according to an embodiment of the present invention.
  • FIG. 9 is a diagram illustrating an example of a screen displayed on a mobile terminal according to an embodiment of the present invention.
  • FIG. 10 is a diagram illustrating another example of a screen displayed on a mobile terminal according to an embodiment of the present invention.
  • FIG. 11 is a diagram for describing a case in which a mobile terminal provides a directional haptic motion according to an embodiment of the present invention.
  • each block of the flowchart diagrams and combinations of the flowchart diagrams may be executed by computer program instructions. Since these computer program instructions can be mounted on the processor of a general purpose computer, special purpose computer or other programmable data processing equipment, the instructions executed by the processor of the computer or other programmable data processing equipment are described in the flowchart block(s). It creates a means to perform functions.
  • These computer program instructions can also be stored in computer-usable or computer-readable memory that can be directed to a computer or other programmable data processing equipment to implement a function in a particular way, so that the computer-usable or computer-readable memory It is also possible for the instructions stored in the flow chart to produce an article of manufacture containing instruction means for performing the functions described in the flowchart block(s). Since computer program instructions can also be mounted on a computer or other programmable data processing equipment, a series of operating steps are performed on a computer or other programmable data processing equipment to create a computer-executable process to create a computer or other programmable data processing equipment. It is also possible for instructions to perform processing equipment to provide steps for executing the functions described in the flowchart block(s).
  • each block may represent a module, segment, or part of code that contains one or more executable instructions for executing the specified logical function(s).
  • the functions mentioned in the blocks may occur out of order. For example, two blocks shown in succession may in fact be executed substantially simultaneously, or the blocks may sometimes be executed in the reverse order depending on the corresponding function.
  • the term' ⁇ unit' used in this embodiment refers to software or hardware components such as FPGA or ASIC, and' ⁇ unit' performs certain roles.
  • The' ⁇ unit' may be configured to be in an addressable storage medium, or may be configured to reproduce one or more processors.
  • ' ⁇ unit' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , Subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays, and variables.
  • components and functions provided in the' ⁇ units' may be combined into a smaller number of elements and' ⁇ units', or may be further separated into additional elements and' ⁇ units'.
  • components and' ⁇ units' may be implemented to play one or more CPUs in a device or a security multimedia card.
  • a control unit in an embodiment may include at least one processor as a component that performs an operation for controlling a corresponding device.
  • FIG. 1A is a block diagram illustrating a mobile terminal related to the present invention
  • FIGS. 1B and 1C are conceptual diagrams of an example of a mobile terminal related to the present invention viewed from different directions.
  • the mobile terminal 100 includes a wireless communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, an interface unit 160, a memory 170, a control unit 180, and a power supply unit 190. And the like.
  • the components shown in FIG. 1A are not essential for implementing the mobile terminal, and thus, the mobile terminal described in the present specification may have more or fewer components than those listed above.
  • the wireless communication unit 110 includes a wireless communication unit between the mobile terminal 100 and a wireless communication system, between the mobile terminal 100 and other mobile terminals, or between the mobile terminal 100 and an external server. It may include one or more modules that enable communication. In addition, the wireless communication unit 110 may include one or more modules that connect the mobile terminal 100 to one or more networks.
  • the wireless communication unit 110 may include at least one of a broadcast reception module 111, a mobile communication module 112, a wireless Internet module 113, a short-range communication module 114, and a location information module 115. .
  • the input unit 120 includes a camera 121 or an image input unit for inputting an image signal, a microphone 122 for inputting an audio signal, or an audio input unit, and a user input unit 123 for receiving information from a user, for example, , A touch key, a mechanical key, etc.).
  • the voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.
  • the sensing unit 140 may include one or more sensors for sensing at least one of information in the mobile terminal, information on surrounding environments surrounding the mobile terminal, and user information.
  • the sensing unit 140 includes a proximity sensor 141, an illumination sensor 142, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity.
  • G-sensor gyroscope sensor
  • motion sensor motion sensor
  • RGB sensor infrared sensor
  • IR sensor infrared sensor
  • fingerprint sensor fingerprint sensor
  • ultrasonic sensor ultrasonic sensor
  • Optical sensor for example, camera (see 121)), microphone (microphone, see 122), battery gauge, environmental sensor (for example, barometer, hygrometer, thermometer, radiation detection sensor, It may include at least one of a heat sensor, a gas sensor, etc.), and a chemical sensor (eg, an electronic nose, a healthcare sensor, a biometric sensor, etc.).
  • the mobile terminal disclosed in the present specification may combine and utilize information sensed by at least two or more of these sensors.
  • the output unit 150 is for generating an output related to visual, auditory or tactile sense, and includes at least one of a display unit 151, an audio output unit 152, a hap tip module 153, and a light output unit 154. can do.
  • the display unit 151 may implement a touch screen by forming a layer structure or integrally with the touch sensor. Such a touch screen may function as a user input unit 123 that provides an input interface between the mobile terminal 100 and a user, and may provide an output interface between the mobile terminal 100 and a user.
  • the interface unit 160 serves as a passage between various types of external devices connected to the mobile terminal 100.
  • the interface unit 160 connects a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, and a device equipped with an identification module. It may include at least one of a port, an audio input/output (I/O) port, an input/output (video I/O) port, and an earphone port.
  • the mobile terminal 100 may perform appropriate control related to the connected external device in response to the connection of the external device to the interface unit 160.
  • the memory 170 stores data supporting various functions of the mobile terminal 100.
  • the memory 170 may store a plurality of application programs (application programs or applications) driven by the mobile terminal 100, data for operation of the mobile terminal 100, and commands. At least some of these application programs may be downloaded from an external server through wireless communication. In addition, at least some of these application programs may exist on the mobile terminal 100 from the time of delivery for basic functions of the mobile terminal 100 (eg, incoming calls, outgoing functions, message reception, and outgoing functions). Meanwhile, the application program may be stored in the memory 170, installed on the mobile terminal 100, and driven by the controller 180 to perform an operation (or function) of the mobile terminal.
  • the controller 180 In addition to the operation related to the application program, the controller 180 generally controls the overall operation of the mobile terminal 100.
  • the controller 180 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in the memory 170.
  • the controller 180 may control at least some of the components discussed with reference to FIG. 1A. Further, in order to drive the application program, the controller 180 may operate by combining at least two or more of the components included in the mobile terminal 100 with each other.
  • the power supply unit 190 receives external power or internal power under the control of the controller 180 and supplies power to each of the components included in the mobile terminal 100.
  • the power supply unit 190 includes a battery, and the battery may be a built-in battery or a replaceable battery.
  • At least some of the components may operate in cooperation with each other to implement an operation, control, or control method of a mobile terminal according to various embodiments described below.
  • the operation, control, or control method of the mobile terminal may be implemented on the mobile terminal by driving at least one application program stored in the memory 170.
  • the user input unit 123 is for receiving information from a user, and when information is input through the user input unit 123, the controller 180 can control the operation of the mobile terminal 100 to correspond to the input information.
  • the user input unit 123 is a mechanical (mechanical) input means (or a mechanical key, for example, a button located on the front, rear or side of the mobile terminal 100, a dome switch (dome switch), a jog wheel, Jog switch, etc.) and a touch-type input means.
  • the touch input means is composed of a virtual key, a soft key, or a visual key displayed on a touch screen through software processing, or a portion other than the touch screen It may be made of a touch key (touch key) arranged in the.
  • the virtual key or the visual key can be displayed on the touch screen while having various forms, for example, graphic, text, icon, video, or these It can be made of a combination of.
  • the sensing unit 140 senses at least one of information in the mobile terminal, information on a surrounding environment surrounding the mobile terminal, and user information, and generates a sensing signal corresponding thereto.
  • the controller 180 may control the driving or operation of the mobile terminal 100 or perform data processing, functions, or operations related to an application program installed in the mobile terminal 100 based on such a sensing signal. Representative sensors among various sensors that may be included in the sensing unit 140 will be described in more detail.
  • the proximity sensor 141 refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object existing in the vicinity using the force of an electromagnetic field or infrared rays without mechanical contact.
  • the proximity sensor 141 may be disposed in an inner area of the mobile terminal surrounded by the touch screen described above or near the touch screen.
  • the proximity sensor 141 examples include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive type proximity sensor, a magnetic type proximity sensor, an infrared proximity sensor, and the like.
  • the proximity sensor 141 may be configured to detect the proximity of the object by a change in the electric field according to the proximity of the conductive object. In this case, the touch screen (or touch sensor) itself may be classified as a proximity sensor.
  • the action of allowing an object to be located on the touch screen without being in contact with the object to be recognized as being positioned on the touch screen is named "proximity touch", and the touch The act of actually touching an object on the screen is called "contact touch”.
  • a position at which an object is touched in proximity on the touch screen means a position at which the object is vertically corresponding to the touch screen when the object is touched in proximity.
  • the proximity sensor 141 may detect a proximity touch and a proximity touch pattern (eg, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, etc.). have.
  • the controller 180 processes data (or information) corresponding to the proximity touch operation and the proximity touch pattern sensed through the proximity sensor 141, and further, provides visual information corresponding to the processed data. It can be output on the touch screen. Furthermore, the controller 180 may control the mobile terminal 100 to process different operations or data (or information) according to whether a touch to the same point on the touch screen is a proximity touch or a touch touch. .
  • the touch sensor applies a touch (or touch input) to the touch screen (or display unit 151) using at least one of various touch methods such as a resistive film method, a capacitive method, an infrared method, an ultrasonic method, and a magnetic field method. To detect.
  • various touch methods such as a resistive film method, a capacitive method, an infrared method, an ultrasonic method, and a magnetic field method.
  • the touch sensor may be configured to convert a pressure applied to a specific portion of the touch screen or a change in capacitance generated at a specific portion into an electrical input signal.
  • the touch sensor may be configured to detect a location, an area, a pressure when a touch, a capacitance when a touch is touched, and the like at which a touch object applied to the touch screen is touched on the touch sensor.
  • the touch object is an object that applies a touch to the touch sensor, and may be, for example, a finger, a touch pen, a stylus pen, or a pointer.
  • the touch controller processes the signal(s) and then transmits the corresponding data to the controller 180. Accordingly, the controller 180 can know which area of the display unit 151 has been touched.
  • the touch controller may be a separate component from the controller 180 or may be the controller 180 itself.
  • the controller 180 may perform different controls or perform the same control according to the type of the touch object by touching the touch screen (or a touch key provided in addition to the touch screen). Whether to perform different controls or the same control according to the type of the touch object may be determined according to an operating state of the mobile terminal 100 or an application program being executed.
  • the touch sensor and the proximity sensor described above are independently or in combination, and a short (or tap) touch, a long touch, a multi touch, and a drag touch on the touch screen. ), flick touch, pinch-in touch, pinch-out touch, swipe touch, hovering touch, etc. You can sense the touch.
  • the ultrasonic sensor may recognize location information of a sensing target by using ultrasonic waves.
  • the controller 180 may calculate the location of the wave generator through information sensed from the optical sensor and the plurality of ultrasonic sensors.
  • the location of the wave generator may be calculated by using a property that the light is much faster than that of the ultrasonic wave, that is, the time that the light reaches the optical sensor is much faster than the time that the ultrasonic wave reaches the ultrasonic sensor. More specifically, the position of the wave generator may be calculated using a time difference between a time when the ultrasonic wave arrives using light as a reference signal.
  • the camera 121 as viewed as the configuration of the input unit 120, includes at least one of a camera sensor (eg, CCD, CMOS, etc.), a photo sensor (or image sensor), and a laser sensor.
  • a camera sensor eg, CCD, CMOS, etc.
  • a photo sensor or image sensor
  • a laser sensor e.g., a laser sensor
  • the camera 121 and the laser sensor are combined with each other to detect a touch of a sensing target for a 3D stereoscopic image.
  • the photosensor may be stacked on the display device, and the photosensor is configured to scan the motion of a sensing object close to the touch screen. More specifically, the photo sensor scans the contents placed on the photo sensor by mounting a photo diode and a transistor (TR) in a row/column and using an electrical signal that changes according to the amount of light applied to the photo diode. That is, the photosensor calculates the coordinates of the sensing object according to the amount of light change, and through this, position information of the sensing object may be obtained.
  • TR transistor
  • the display unit 151 displays (outputs) information processed by the mobile terminal 100.
  • the display unit 151 may display execution screen information of an application program driven in the mobile terminal 100, or UI (User Interface) and GUI (Graphic User Interface) information according to such execution screen information. .
  • the haptic module 153 generates various tactile effects that a user can feel.
  • a typical example of the tactile effect generated by the haptic module 153 may be vibration.
  • the intensity and pattern of the vibration generated by the haptic module 153 may be controlled by a user's selection or setting by a controller.
  • the haptic module 153 may synthesize and output different vibrations or sequentially output them.
  • the haptic module 153 is designed to respond to stimuli such as a pin arrangement that moves vertically with respect to the contact skin surface, a blowing force or suction force of air through a jet or inlet, grazing against the skin surface, contact of an electrode, and electrostatic force. It can generate various tactile effects, such as an effect by the effect and an effect by reproducing the feeling of cooling and warming using an endothermic or heat generating element.
  • stimuli such as a pin arrangement that moves vertically with respect to the contact skin surface, a blowing force or suction force of air through a jet or inlet, grazing against the skin surface, contact of an electrode, and electrostatic force. It can generate various tactile effects, such as an effect by the effect and an effect by reproducing the feeling of cooling and warming using an endothermic or heat generating element.
  • the haptic module 153 may not only deliver a tactile effect through direct contact, but may also be implemented so that a user can feel the tactile effect through muscle sensations such as a finger or an arm. Two or more haptic modules 153 may be provided depending on the configuration aspect of the mobile terminal 100.
  • the light output unit 154 outputs a signal for notifying the occurrence of an event using light from a light source of the mobile terminal 100.
  • Examples of events occurring in the mobile terminal 100 may include message reception, call signal reception, missed call, alarm, schedule notification, e-mail reception, and information reception through an application.
  • the signal output from the light output unit 154 is implemented as the mobile terminal emits a single color or a plurality of colors of light to the front or rear.
  • the signal output may be terminated when the mobile terminal detects the user's event confirmation.
  • the memory 170 may store a program for the operation of the controller 180 and may temporarily store input/output data (eg, a phone book, a message, a still image, a video, etc.).
  • the memory 170 may store data related to vibrations and sounds of various patterns output when a touch input on the touch screen is performed.
  • the memory 170 is a flash memory type, a hard disk type, a solid state disk type, an SDD type, a multimedia card micro type. ), card-type memory (e.g., SD or XD memory), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read (EEPROM) -only memory), programmable read-only memory (PROM), magnetic memory, magnetic disk, and optical disk.
  • card-type memory e.g., SD or XD memory
  • RAM random access memory
  • SRAM static random access memory
  • ROM read-only memory
  • EEPROM electrically erasable programmable read
  • PROM programmable read-only memory
  • magnetic memory magnetic disk, and optical disk.
  • the mobile terminal 100 may be operated in connection with a web storage that performs a storage function of the memory 170 over the Internet.
  • the controller 180 controls an operation related to an application program and, in general, an overall operation of the mobile terminal 100. For example, when the state of the mobile terminal satisfies a set condition, the controller 180 may execute or release a lock state limiting input of a user's control command to applications.
  • controller 180 performs control and processing related to voice calls, data communication, and video calls, or performs pattern recognition processing capable of recognizing handwriting input or drawing input performed on the touch screen as characters and images, respectively. I can. Furthermore, in order to implement various embodiments described below on the mobile terminal 100 according to the present invention, the controller 180 may control one or more of the above-described components in combination.
  • various embodiments may be implemented in a recording medium that can be read by a computer or a similar device using, for example, software, hardware, or a combination thereof.
  • FIG. 2 is a conceptual diagram illustrating another example of a deformable mobile terminal 200 according to the present invention.
  • the display unit 251 may be configured to be deformable by an external force.
  • the deformation may be at least one of bending, bending, folding, twisting, and curling of the display unit 251.
  • Such a deformable display unit 251 may be referred to as a'flexible display unit'.
  • the flexible display unit 251 may include all of a general flexible display, e-paper, and combinations thereof.
  • the mobile terminal 200 may include features of the mobile terminal 100 of FIGS. 1A to 1C or similar features.
  • a general flexible display refers to a light and sturdy display that is not easily broken because it is manufactured on a thin and flexible substrate that can be bent, bent, folded, twisted or rolled like paper while maintaining the characteristics of a conventional flat panel display.
  • electronic paper is a display technology to which characteristics of general inks are applied, and the point of using reflected light may be different from conventional flat panel displays.
  • Electronic paper can change information by using a twist ball or electrophoresis using a capsule.
  • the display area of the flexible display unit 251 becomes a flat surface.
  • the display area may be a curved surface.
  • the information displayed in the second state may be visual information output on a curved surface.
  • Such visual information is implemented by independently controlling light emission of sub-pixels arranged in a matrix form.
  • the unit pixel means a minimum unit for implementing one color.
  • the flexible display unit 251 may be placed in a curved state (eg, a vertically or horizontally curved state) rather than a flat state. In this case, when an external force is applied to the flexible display unit 251, the flexible display unit 251 may be deformed into a flat state (or a less curved state) or a more curved state.
  • a curved state eg, a vertically or horizontally curved state
  • the flexible display unit 251 may be deformed into a flat state (or a less curved state) or a more curved state.
  • the flexible display unit 251 may be combined with a touch sensor to implement a flexible touch screen.
  • the controller 180 (refer to FIG. 1A) may perform a control corresponding to such a touch input.
  • the flexible touch screen may be configured to sense a touch input not only in the first state but also in the second state.
  • the mobile terminal 200 may be provided with a deformation detecting means capable of detecting deformation of the flexible display unit 251.
  • a deformation detecting means capable of detecting deformation of the flexible display unit 251.
  • Such deformation detecting means may be included in the sensing unit 140 (see FIG. 1A).
  • the deformation detecting means is provided on the flexible display unit 251 or the case 201, and may detect information related to deformation of the flexible display unit 251.
  • the information related to the deformation may be a direction in which the flexible display unit 251 is deformed, a deformed degree, a deformed position, a deformed time, and an acceleration at which the deformed flexible display unit 251 is restored, and the like,
  • it may be various pieces of information that can be detected due to the bending of the flexible display unit 251.
  • the controller 180 may change information displayed on the flexible display unit 251 or change the information displayed on the flexible display unit 251 based on information related to the deformation of the flexible display unit 251 detected by the deformation detecting means. It is possible to generate a control signal to control the function of.
  • the mobile terminal 200 may include a case 201 accommodating the flexible display unit 251.
  • the case 201 may be configured to be deformable together with the flexible display unit 251 by an external force in consideration of the characteristics of the flexible display unit 251.
  • a battery (not shown) provided in the mobile terminal 200 may also be configured to be deformable together with the flexible display unit 251 by an external force in consideration of the characteristics of the flexible display unit 251.
  • a stack and folding method in which battery cells are stacked on top may be applied.
  • the state transformation of the flexible display unit 251 is not limited to being caused by an external force.
  • the flexible display unit 251 may be transformed into a second state by a command of a user or an application.
  • the mobile terminal can be extended to a wearable device that can be worn on the body beyond the dimension that the user mainly holds and uses in the hand.
  • wearable devices include smart watches, smart glasses, and head mounted displays (HMD).
  • HMD head mounted displays
  • the wearable device may be configured to exchange (or interlock) data with another mobile terminal 100.
  • the short-range communication module 114 may detect (or recognize) a wearable device capable of communicating around the mobile terminal 100. Furthermore, when the sensed wearable device is a device that is authenticated to communicate with the mobile terminal 100, the controller 180 transmits at least part of the data processed by the mobile terminal 100 to the wearable device through the short-range communication module 114. Can be transferred to. Accordingly, the user can use data processed by the mobile terminal 100 through the wearable device. For example, it is possible to perform a phone call through a wearable device when a call is received from the mobile terminal 100, or to check the received message through the wearable device when a message is received by the mobile terminal 100. .
  • FIG. 3 is a perspective view showing an example of a watch type mobile terminal 300 related to another embodiment of the present invention.
  • a watch-type mobile terminal 300 includes a main body 301 having a display unit 351 and a band 302 connected to the main body 301 and configured to be worn on a wrist.
  • the mobile terminal 300 may include features of the mobile terminal 100 of FIGS. 1A to 1C or similar features.
  • the main body 301 includes a case forming an external appearance.
  • the case may include a first case 301a and a second case 301b that provide an inner space for accommodating various electronic components.
  • the present invention is not limited thereto, and a single case may be configured to provide the inner space so that the unibody mobile terminal 300 may be implemented.
  • the watch-type mobile terminal 300 is configured to enable wireless communication, and an antenna for the wireless communication may be installed in the main body 301.
  • the antenna can extend its performance by using a case.
  • a case including a conductive material may be configured to be electrically connected to an antenna to expand a ground region or a radiation region.
  • a display unit 351 may be disposed on the front surface of the main body 301 to output information, and a touch sensor may be provided on the display unit 351 to be implemented as a touch screen. As illustrated, the window 351a of the display unit 351 may be mounted on the first case 301a to form the front surface of the terminal body together with the first case 301a.
  • the main body 301 may include an audio output unit 352, a camera 321, a microphone 322, a user input unit 323, and the like.
  • the display unit 351 When the display unit 351 is implemented as a touch screen, it may function as a user input unit 323, and accordingly, a separate key may not be provided on the main body 301.
  • the band 302 is worn on the wrist to surround the wrist, and may be formed of a flexible material to facilitate wearing.
  • the band 302 may be formed of leather, rubber, silicone, synthetic resin material, or the like.
  • the band 302 is configured to be detachable from the main body 301, and may be configured to be replaceable with various types of bands according to the user's taste.
  • the band 302 may be used to expand the performance of the antenna.
  • a ground extension unit (not shown) that is electrically connected to an antenna and expands a ground area may be incorporated in the band.
  • the band 302 may be provided with a fastener 302a.
  • the fastener 302a may be implemented by a buckle, a hook structure capable of snap-fit, or velcro (trade name), and may include an elastic section or material. .
  • velcro trademark
  • FIG. 4 is a conceptual diagram illustrating a mobile terminal according to an embodiment of the present invention. Specifically, FIG. 4 shows a conceptual diagram of a divided area for providing information for guiding to a location for user authentication in relation to the front display of the mobile terminal.
  • the display of the mobile terminal 400 may be divided into a plurality of areas. Specifically, based on the position of the display (hereinafter referred to as the reference position) 410 corresponding to the position of the sensor, a plurality of circles 420, 430, and 440 are arranged to have a specific interval 450, so that the area of the display is Can be distinguished.
  • the centers of the plurality of circles 420, 430, 440 may correspond to the reference position 410 (or the center of the reference position 410 ).
  • the specific interval 450 is a predetermined distance interval, and may be, for example, a distance interval corresponding to the width of a user's finger (eg, thumb), but is not limited thereto.
  • the mobile terminal 400 may provide information for guiding the reference position 410 based on the plurality of circles 420, 430, 440. Specifically, when the mobile terminal 400 obtains an input related to user authentication, the mobile terminal 400 checks the difference between the acquired input and the reference position 410 and provides information for guiding the reference position 410 based on the confirmed difference. I can.
  • the mobile terminal 400 may check the difference between the input acquired on the display and the reference position 410.
  • the mobile terminal 400 assumes a plurality of circles 420, 430, 440 centering on the reference position 410 and having a specific interval 450, and based on the number of circles between the reference position 410 and the input.
  • Information guiding the reference position 410 may be provided.
  • the mobile terminal 400 when the mobile terminal 400 obtains an input related to user authentication, the mobile terminal 400 checks the distance between the obtained input and the reference position 410, and assigns a weight based on the checked distance to determine the reference position 410 Guiding information can be provided.
  • the mobile terminal 400 may provide the first vibration or the first sound.
  • the mobile terminal 400 may provide a second vibration or a second sound.
  • the first vibration is assigned a first weight and the second vibration is assigned a second weight, and may be a vibration having a different intensity (or intensity) or a different vibration frequency.
  • the first sound is assigned a first weight and the second sound is assigned a second weight, and may be a sound having a different loudness or a different sound.
  • the first weight may be a value smaller than the second weight, but is not limited thereto.
  • the mobile terminal 400 may provide vibration or sound in proportion to a distance or distance range between the reference position 410 and the position at which the input is obtained as guide information.
  • the closer the input is to the reference position 410 the smaller the intensity of vibration or the smaller the sound may be provided as information.
  • FIG. 5 or FIG. 6 For a more detailed example of the intensity of vibration or sound proportional to the distance or distance range, reference may be made to FIG. 5 or FIG. 6.
  • FIGS. 5 and 6 are diagrams for explaining an alarm or vibration provided by a mobile terminal according to an embodiment of the present invention. Specifically, FIGS. 5 and 6 show the intensity (or intensity, loudness) of vibration or sound with respect to the input separation distance.
  • the input separation distance may include a separation distance between a reference position on the display corresponding to the position of the sensor and a position at which an input applied from the user is obtained. Vibration or sound may be provided by the mobile terminal.
  • the input separation distance and the intensity of vibration or sound may be proportional. Specifically, as the input separation distance increases, the intensity of vibration or sound may increase. In this case, as the position at which the input is acquired is closer to the reference position, the intensity of vibration or sound may decrease. Accordingly, the mobile terminal induces the user to move the input to the point where the intensity is reduced, so that the input is applied on the display corresponding to the position of the sensor.
  • the intensity of vibration or sound may be provided in a discrete form. Specifically, the intensity of vibration or sound increases as the range of the input separation distance increases from the reference position, but may be set to a value that is distinct (or discontinuous) from each other. In this case, the range of the input separation distance may be determined.
  • the range of the input separation distance may include a distance predetermined in relation to the finger width. For example, based on data that the average length of the thumb width of an adult is 1.2cm, the range of the input separation distance may correspond to 1.2cm. In this case, ⁇ in FIG. 6 may correspond to 1.2 cm.
  • vibration or sound of the first intensity when an input is applied to a portion corresponding to a radius of 1.2 cm from the reference position, vibration or sound of the first intensity may be provided.
  • vibration or sound of a second intensity when an input is applied to a portion corresponding to a radius of more than 1.2 cm and less than 2.4 cm from the reference position, vibration or sound of a second intensity may be provided.
  • the sound of the provided sound or the form of the spoken sound may be different according to the input separation distance range. For example, when an input is applied to a portion corresponding to a radius of 1.2 cm from the reference position, the mobile terminal may provide a sound “Please move down a word of your finger”. When an input is applied to a part that is more than 1.2cm and less than 2.4cm in radius from the reference position, it can provide a sound saying'Please move under two fingers'.
  • FIGS. 5 and 6 are only examples of the form of information provided, and the present specification is not limited thereto.
  • FIG. 7 is a block diagram of a mobile terminal according to an embodiment of the present invention.
  • An element of a mobile terminal which will be described later, refers to a unit that processes at least one function or operation, and may be implemented as hardware or software, or a combination of hardware and software.
  • the mobile terminal 700 may include a display 710, a processor 720, a speaker 730, and a motor 740.
  • the display 710 may be disposed in front of the mobile terminal 700.
  • the display 710 may be, for example, an element corresponding to the display 151 of FIG. 1.
  • a sensor for recognizing biometric information may be disposed under the display 710. That is, the display 710 may be disposed to overlap the sensor. In this case, the size of the display 710 may be larger than that of the sensor, and accordingly, the sensor may be covered by the display 710 so as not to be visible.
  • the sensor disposed under the display 710 may include, for example, a fingerprint recognition sensor that recognizes a user's fingerprint, but is not limited thereto.
  • information guiding the location of the sensor may be displayed on the display 710.
  • information guiding the location of the sensor is visual information, and may include an icon (or content) in the form of a fingerprint.
  • the information guiding the location of the sensor may be an arrow-shaped icon indicating a specific location (eg, a reference location) on the display corresponding to the location of the sensor.
  • the processor 720 may execute a user authentication function. For example, when an execution input of the user authentication application is received, the processor 720 may execute the user authentication application to execute the user authentication function.
  • the processor 720 may display content that induces the user to perform user authentication in response to the execution of the user authentication function. For example, when the user authentication function is executed, the processor 720 may display content “Please recognize your fingerprint” through the display 710. For another example, when the user authentication function is executed, the processor 720 may output a sound “Please recognize your fingerprint” through the display 710.
  • the processor 720 may obtain an input related to user authentication. Specifically, the processor 720 may obtain an input related to user authentication through the display 710.
  • the input related to user authentication may include a touch input in which a user's finger touches the display 710 for fingerprint recognition.
  • the processor 720 may obtain an input related to user authentication based on the application of the touch input.
  • the processor 720 may check the location where the input is obtained.
  • the processor 720 may determine a location on the display 710 at which the input is obtained (or applied) based on the input being applied.
  • the processor 720 may check whether the location at which the input related to user authentication is obtained corresponds to a predetermined position (eg, the reference position 410 of FIG. 4) related to user authentication. Based on this, the processor 720 may check whether an input related to user authentication is applied to a predetermined position on the display 710.
  • a predetermined position eg, the reference position 410 of FIG. 4
  • the predetermined position may include a specific position on the display corresponding to the position of a sensor for recognizing biometric information.
  • the predetermined position may include a specific position, but may include an area having a specific radius around the specific position.
  • the processor 720 may provide information for guiding a predetermined location in relation to the identified location based on confirmation as to whether the identified location corresponds to the predetermined location. For example, when the identified location is not included in the predetermined location, the processor 720 may provide information for guiding the user's input to be applied to the predetermined location.
  • the type of information provided may be predetermined, and may include, for example, at least some of vibration, sound, or content.
  • the processor 720 when the identified position is different from the predetermined position or the confirmed position is not included in the predetermined position, the processor 720 is based on a circle having a different diameter and is centered on the predetermined position. Among the areas, you can check the area including the identified location. The processor 720 may provide information for guiding the predetermined location in connection with the user authentication by setting based on the identified area.
  • the processor 720 may check an area to which the identified location belongs among the divided areas of the display 710. The processor 720 may provide information for guiding a predetermined location based on a setting corresponding to the identified area.
  • the guided information may include information on at least one of a direction and a distance for moving from a location where the input is confirmed to a predetermined location.
  • the guiding information may be provided, for example, using at least one of sound, text, icon, vibration, and haptic motion.
  • the setting corresponding to the identified area may include, for example, vibration of a specific intensity, sound of a specific loudness, or predetermined content.
  • Each of the specific strength and specific size may be determined based on, for example, a distance or range of distances between an identified location and a predetermined location.
  • the distance range may be divided into a plurality based on an interval of a preset range from a predetermined position. In this case, as the value of the distance range increases, the specific strength or the specific size may increase, but is not limited thereto, and may be, for example, decreased.
  • the setting corresponding to the identified region may include, for example, information on a weight designated for each region.
  • a first weight is assigned to provide first information
  • a second weight is assigned to provide second information. Accordingly, information based on the location where the input is confirmed may be provided.
  • the processor 720 may check information on at least one of a distance between the identified location and the predefined location, and a direction from the identified location toward the predefined location. Based on this, the processor 720 may provide information for guiding a predetermined location from the identified location.
  • the guided information may include information about a distance or information about a direction.
  • the information on the distance may include information in a form in which the intensity or intensity is different, and for example, may include vibration of a specific intensity or sound of a specific loudness.
  • the information on the direction is information having directionality, for example, vibration indicating the direction. It may include content indicating a direction (eg, an arrow), text or sound (eg,'Move to the right') including terms for the direction (eg, right, left, 6 o'clock).
  • the vibration indicating the direction may include vibration having a direction generated based on a plurality of haptic motions. Vibration having a direction is generated by adjusting a driving time or driving intensity of a plurality of motors included in the mobile terminal 700, and a specific embodiment may be referred to FIG. 11.
  • the processor 720 may check the type of user authentication.
  • the type of user authentication may include at least one of, for example, a type related to payment, a type related to unlocking the lock screen of the mobile terminal 400, and a type related to identity authentication for a specific website.
  • the processor 720 identifies an application that has been executed immediately before or an application that is executed in parallel, or identifies a signal that triggers user authentication, and the type of user authentication is settled. You can check whether it is a type related to or unlocking.
  • the processor 720 may determine that the type of user authentication is related to payment. For another example, when the user authentication function is executed based on an input being received while the home screen is locked, the processor 720 may determine that the type of user authentication is related to unlocking. For another example, when a user authentication function is executed based on a signal received from a payment server, the processor 720 may determine that the type of user authentication is related to payment. In this case, information on types of applications, inputs, or signals may be pre-designated.
  • the processor 720 may provide guiding information by reflecting the type of user authentication.
  • the processor 720 adds and provides first information indicating the first type to the guiding information, and in the case of the second type of user authentication, adds second information indicating the second type.
  • the first information and the second information may be predetermined, and may include, for example, sounds having different sounds, contents having different colors, or different texts. For a specific example, refer to FIG. 9.
  • the speaker 730 may be an element that outputs sound. For example, when guiding information is provided as sound, the speaker 730 may output sound.
  • the motor 740 may generate vibration. Specifically, the motor 740 may generate vibration of the mobile terminal 700 based on being driven with a specific period. The motor 740 may provide other types of vibration based on the adjustment of the driving pattern or driving intensity.
  • the motor 740 may include a haptic motor that provides haptics.
  • the haptic is a technology that makes a sense of touch, force, or motion feel, and a detailed description thereof will be omitted since it is easy for a person skilled in the art.
  • the motor 740 may include a plurality of motors.
  • the plurality of motors may be disposed at different positions of the mobile terminal 700, and by adjusting the driving time through this, the vibration may provide a feeling as if moving from the first position to the second position of the mobile terminal 700. have.
  • the arrangement of the motor and a specific example related thereto may be referred to FIG. 11.
  • FIG. 8 is a flowchart showing the flow of each step of a method for controlling a mobile terminal according to an embodiment of the present invention. It goes without saying that each step of the method illustrated in FIG. 8 may be performed in a different order as illustrated in the drawings depending on the case.
  • the mobile terminal may obtain an input related to user authentication (810). Specifically, the mobile terminal may obtain an input related to user authentication that is authorized from the user in response to the execution of the user authentication function.
  • the input related to user authentication may include, for example, a touch input touching a surface on which a fingerprint of a finger is located.
  • the mobile terminal may check the location where the input is obtained (820 ). For example, when a touch input is applied on the display, the mobile terminal can check the location where the touch input is applied.
  • the mobile terminal may check whether the identified location corresponds to a location determined in connection with user authentication (830 ). The mobile terminal may check whether the location at which the input is obtained is included in the location designated for user authentication.
  • the predetermined location may include a location on the display corresponding to a location in which a sensor for acquiring biometric information for user authentication is disposed. That is, the predetermined position may include a specific position on the display corresponding to the position of the sensor when the sensor is disposed at the bottom of the display.
  • the sensor may include, for example, a fingerprint recognition sensor, but is not limited thereto, and may include various sensors such as a vein recognition sensor.
  • the mobile terminal may check whether the identified location is within a specific distance range from the predetermined location.
  • the specific distance range may be a range in which user information can be obtained for user authentication.
  • the mobile terminal may determine an area to which the identified location belongs among the areas of a predetermined circle so as to have a specific distance interval from the predetermined location.
  • the mobile terminal may check the determined area to determine whether the identified location corresponds to a predetermined location in connection with user authentication. For example, the mobile terminal may determine that the identified location corresponds to a predetermined location in connection with user authentication when the identified location is included in an area within the first circle closest to the predetermined location. When the identified location is not included in the area within the first circle closest to the predetermined location, the mobile terminal may determine that the identified location does not correspond to the predetermined location in connection with user authentication.
  • the mobile terminal may provide information guiding to a predetermined location in connection with user authentication (840).
  • the mobile terminal may provide information for guiding a predetermined location in relation to the identified location. Specifically, if the location of the input checked through step 830 is not included in the predetermined location, the mobile terminal requests the input for user authentication again, but guides the predetermined location so that the input to be reapplied is applied to the predetermined location. You can provide the information you want.
  • the mobile terminal may provide guide information using at least one of sound, text, icon, vibration, and haptic motion.
  • the guide information is not limited thereto, and may be provided based on a combination of these or other types of information.
  • the mobile terminal may check the difference between the location of the identified input and the predetermined location.
  • the mobile terminal can provide predetermined information in response to the identified difference.
  • the predetermined information is the above-described guide information, and may include, for example, vibration of a specific intensity or sound of a specific loudness.
  • the specific strength or specific size may be designated based on a distance difference between the location of the identified input and the predetermined location.
  • a specific intensity or a specific size may be designated in proportion to the location of the identified input and the distance length of the predetermined location.
  • the mobile terminal checks the area to which the identified location belongs among the areas of the predetermined circle to have a specific distance interval from the predetermined location, and provides information to guide according to the predetermined setting corresponding to the identified area.
  • the mobile terminal may provide the first information when the identified location is included in an area between a first circle having a radius of 1.0 cm and a second circle having a radius of 2.0 cm around the predetermined location.
  • the mobile terminal may provide the second information when the identified location is included in an area between the second circle having a radius of 2.0 cm and the third circle having a radius of 3.0 cm around the predetermined location.
  • the first information and the second information may be predetermined information.
  • the first information may include a vibration of a first intensity
  • the second information may include a vibration of a second intensity
  • the first intensity may be less than the second intensity.
  • the mobile terminal may check the coordinates of the identified location and compare it with the coordinates of the predetermined location to determine a direction from the identified location to the known location.
  • the mobile terminal may provide information on a direction as guiding information.
  • the information on the direction is information having directionality, for example, vibration indicating the direction.
  • Content indicating a direction eg, an arrow
  • text or sound including a term for a direction eg,'Move to the right'
  • the information on the direction may be provided as guiding information in an independent form, but is not limited thereto, and may be provided as guiding information together with the information on the distance.
  • the information on the distance may include information that does not have directionality, and may include, for example, vibration of a specific intensity or sound of a specific loudness.
  • the mobile terminal may check a direction from the location of the identified input toward the predetermined location.
  • the mobile terminal can provide information on the identified direction.
  • the identified direction can be expressed in various ways (eg, 7 o'clock, right).
  • the information on the identified direction may be provided in various forms, for example, in the form of a sound or text saying'Move your finger to the 7 o'clock direction'.
  • the mobile terminal may identify a difference in distance between the location of the identified input and the predetermined location, and a direction from the location of the identified input toward the predetermined location, and provide guide information based thereon. For example, the mobile terminal may provide information to move in a specific direction by a specific distance.
  • the mobile terminal may provide information that guides a sound “Move two fingers in the direction of 7 o'clock”.
  • the mobile terminal may provide information that guides vibrations that have a specific intensity and move in a specific direction.
  • the mobile terminal may check the type of user authentication.
  • the type of user authentication may include, for example, at least one of a type related to payment, a type related to unlocking the lock screen of the mobile terminal, and a type related to identity authentication for a specific website.
  • the mobile terminal identifies an application that was executed immediately before or an application that is executed in parallel, or identifies a signal that triggers user authentication, so that the type of user authentication is related to payment. You can check whether it is a type or related to unlocking.
  • the mobile terminal may confirm that the type of user authentication is related to payment. For another example, when a user authentication function is executed based on an input being received while the home screen is locked, the mobile terminal may determine that the type of user authentication is related to unlocking. For another example, when a user authentication function is executed based on a signal being received from a payment server, the mobile terminal may confirm that the type of user authentication is related to payment. In this case, information on types of applications, inputs, or signals may be pre-designated.
  • the mobile terminal may provide guiding information by reflecting the type of user authentication.
  • the mobile terminal provides the guiding information by adding the first information indicating the first type, and in the case of the second type of user authentication, the second information indicating the second type is added and provided. can do.
  • the first information and the second information may be predetermined, and may include, for example, sounds having different sounds, contents having different colors, or different texts. For a specific example, refer to FIG. 9.
  • FIG. 9 is a diagram illustrating an example of a screen displayed on a mobile terminal according to an embodiment of the present invention. Specifically, FIG. 9 shows an example of a screen displayed on a mobile terminal when the type of user authentication is a type related to payment.
  • information 910 on a card to be paid may be displayed.
  • user authentication may be requested.
  • the user authentication may be authentication based on fingerprint recognition.
  • user authentication may be performed by touching the user's fingerprint to the fingerprint sensor.
  • the fingerprint sensor may be disposed at the bottom of the display corresponding to the predetermined position 920 in connection with user authentication, and in this case, the user's fingerprint needs to be touched at the predetermined position 920.
  • the mobile terminal may obtain an authorized user input in response to a user authentication request.
  • the user input may include a touch input.
  • the mobile terminal may check whether the location from which the user input is obtained corresponds to the predetermined location 920.
  • information for guiding the user input to be applied to the predetermined location 920 may be provided while requesting the user input again.
  • the information to be guided may be provided based on a difference between a location at which a user input is obtained and a predetermined location, and a detailed description thereof will be omitted as described above.
  • the guiding information may further provide information related to the type of user authentication.
  • the information related to the type of user authentication is information predetermined for each type of user authentication, and may further include, for example, content 930 having a specific color (eg, red) or a specific shape (eg, an arrow).
  • content 930 having a specific color (eg, red) or a specific shape (eg, an arrow).
  • the present invention is not limited thereto, and for example, a specific sound or specific text may be provided.
  • FIG. 10 is a diagram illustrating another example of a screen displayed on a mobile terminal according to an embodiment of the present invention. Specifically, FIG. 10 shows an example of a screen displayed on a mobile terminal when the type of user authentication is a type related to unlocking.
  • the mobile terminal may display information guiding to a predetermined position 1010 corresponding to a position of a sensor for user authentication.
  • Information provided when user authentication is a type related to unlocking may be at least partially different from information displayed when user authentication described in FIG. 9 is a type related to payment.
  • the mobile terminal displays a plurality of circles 1020, 1030, and 1040 on the display, thereby indicating that the user authentication is a type related to unlocking.
  • the present invention is not limited thereto, and of course, information guiding in the form of vibration or sound as illustrated in FIG. 10 may be provided.
  • FIG. 11 is a diagram for describing a case in which a mobile terminal provides a directional haptic motion according to an embodiment of the present invention.
  • a plurality of motors 1101, 1102, 1103, and 1104 described below may be included in the haptic module 153 described with reference to FIG. 1A.
  • the mobile terminal may include a plurality of motors 1101, 1102, 1103, and 1104 to provide directional haptic motion.
  • Each of the plurality of motors 1101, 1102, 1103, and 1104 may be disposed at different positions.
  • the first motor 1101 may be disposed at the upper left of the mobile terminal, and the second motor 1102 may be disposed at the upper right of the mobile terminal facing the first motor 1102.
  • the third motor 1103 may be disposed at the lower left of the mobile terminal, and the fourth motor 1104 may be disposed at the lower right of the mobile terminal facing the third motor 1103.
  • the vibration of the first magnitude is generated in the first motor 1101 and then the vibration of the second magnitude is generated in the fourth motor 1104, a haptic motion that feels as if moving in the right diagonal direction is generated.
  • the first size may be smaller than the second size, but is not limited thereto.
  • the vibration of the first magnitude is generated by the first motor 1101 and then the vibration of the second magnitude is generated by the third motor 1103, a haptic motion that feels as if moving downward may be generated.
  • the first size may be smaller than the second size, but is not limited thereto.
  • vibrations indicating various directions usable in the present embodiment may be provided to guide the reference position 1110 based on the adjustment of the vibration time or size of the motor.
  • the mobile terminal and its control method according to the exemplary embodiment of the present specification may provide information for guiding a specific position on a predetermined display corresponding to the position of the sensor, so that an input to the sensor may be more effectively applied.
  • the mobile terminal and its control method according to the embodiment of the present specification are guided by using tactile or audible information to guide a specific location on a predetermined display corresponding to the location of the sensor, so that the user in a situation where time is limited. User authentication can be performed more smoothly.
  • the present invention described above can be implemented as a computer-readable code on a medium on which a program is recorded.
  • the computer-readable medium includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAM, CD-ROMs, magnetic tapes, floppy disks, optical data storage devices, etc.
  • HDDs hard disk drives
  • SSDs solid state disks
  • SDDs silicon disk drives
  • ROMs read-only memory
  • RAM compact disc drives
  • CD-ROMs compact discs
  • magnetic tapes magnetic tapes
  • floppy disks optical data storage devices
  • optical data storage devices etc.
  • carrier wave for example, transmission over the Internet
  • the computer may include the control unit 180 of the terminal. Therefore, the detailed description above should not be construed as restrictive in all respects and should be considered as illustrative. The scope of the present invention should be determined by reasonable

Abstract

A mobile terminal according to one embodiment of the present invention comprises: a display; and a processor. The processor: obtains an input related to user authentication through the display; confirms the location where the input is obtained; determines whether the confirmed location corresponds to a predetermined location in relation to the user authentication; and provides information for guiding the predetermined location in relation to the confirmed location on the basis of the determination of the correspondence. The predetermined location may be determined on the basis of the location of a sensor for obtaining information for the user authentication.

Description

사용자 인증과 관련된 정보를 제공하는 이동 단말기 및 그 제어 방법 Mobile terminal providing information related to user authentication and method for controlling the same
본 명세서는 사용자 인증과 관련하여 기지정된 위치에 대한 정보를 제공하는 이동 단말기 및 그 제어 방법에 관한 것이다.The present specification relates to a mobile terminal that provides information on a predetermined location in connection with user authentication, and a control method thereof.
이동 단말기는 다양한 사용자 인증 서비스를 제공한다. 예를 들어 비밀번호, 기지정된 패턴 또는 생체 정보의 입력에 의한 사용자 인증 서비스를 제공한다. 이 때, 생체 정보를 이용한 사용자 인증의 경우에는 생체 정보(예: 지문)의 인식을 위한 센서(예: 지문 인식 센서)가 요구된다. Mobile terminals provide various user authentication services. For example, it provides a user authentication service by inputting a password, a predetermined pattern, or biometric information. In this case, in the case of user authentication using biometric information, a sensor (eg, a fingerprint recognition sensor) for recognizing biometric information (eg, fingerprint) is required.
기존의 이동 단말기는 이동 단말기 전면의 홈 버튼에 생체 정보의 인식을 위한 센서를 삽입하고, 센서를 통해 획득되는 정보를 이용하여 사용자 인증 서비스를 제공했다. In the conventional mobile terminal, a sensor for recognizing biometric information is inserted into a home button on the front of the mobile terminal, and a user authentication service is provided using information obtained through the sensor.
그러나 최근 전면이 모두 디스플레이로 이루어진 이동 단말기 모델의 보급이 증가하게 되면서, 생체 정보의 인식을 위한 센서의 배치가 중요한 화두로서 대두되었다. 그 결과 다양한 이동 단말기 모델에서 생체 정보의 인식을 위한 센서는 디스플레이의 하단에 삽입되는 방식이 채택되었다. 이러한 경우, 센서의 위치에 대응하는 디스플레이 상의 위치에 생체 정보(예: 지문)가 입력됨에 따라 생체 정보의 인식이 수행되고 있다. However, as the spread of mobile terminal models in which all front surfaces are made of displays has increased recently, the arrangement of sensors for recognizing biometric information has emerged as an important topic. As a result, in various mobile terminal models, a sensor for recognizing biometric information is inserted at the bottom of the display. In this case, biometric information is recognized as biometric information (eg, a fingerprint) is input to a location on the display corresponding to the location of the sensor.
기존에 홈버튼과 같이 물리적인 형태로 생체 정보의 인식을 위한 센서(예: 지문 인식 센서)가 구현되는 경우 시력이 저하된 사용자, 예를 들면 시각 장애인은 촉각으로 센서의 위치를 인지하고, 이를 기초로 사용자 인증을 수행하였다. When a sensor for recognizing biometric information (e.g., a fingerprint sensor) is implemented in a physical form like a home button, a user with reduced vision, for example, a visually impaired, recognizes the location of the sensor by tactile sense, and this User authentication was performed as a basis.
그러나, 디스플레이의 하단에 센서가 배치되는 경우에는 센서의 위치가 물리적인 형태로 구분되지 않기 때문에 촉각에 의한 센서 구분이 어려울 수 있다. 이에 따라, 보다 용이하게 센서의 위치를 가이드 하기 위한 방안이 요구된다. However, when the sensor is disposed at the bottom of the display, it may be difficult to distinguish the sensor by tactile sensation because the location of the sensor is not classified in a physical form. Accordingly, a method for more easily guiding the position of the sensor is required.
본 명세서가 해결하고자 하는 과제는, 입력이 획득되는 위치와 사용자 인증과 관련하여 기지정된 위치(예: 센서의 위치)에 대한 정보를 기초로, 입력이 사용자 인증을 위한 위치에 효과적으로 인가되도록 가이드하는 정보를 제공함으로써 보다 용이하게 사용자 인증이 수행되도록 하는 것이다. The problem to be solved by this specification is to guide the input to be effectively applied to the location for user authentication, based on information on the location at which the input is obtained and the location (eg, the location of the sensor) specified in connection with user authentication. By providing information, user authentication can be performed more easily.
다만, 본 명세서가 해결하고자 하는 과제는 이상에서 언급한 바로 제한되지 않으며, 언급되지는 않았으나 아래의 기재로부터 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있는 목적을 포함할 수 있다.However, the subject to be solved by the present specification is not limited immediately as mentioned above, and is not mentioned, but includes the purpose that can be clearly understood by those of ordinary skill in the art from the description below. can do.
본 발명의 일 실시예에 따른 이동 단말기는, 디스플레이와, 프로세서를 포함하고, 상기 프로세서는, 상기 디스플레이를 통해 사용자 인증과 관련된 입력을 획득하고, 상기 입력이 획득되는 위치를 확인하고, 상기 확인된 위치가 상기 사용자 인증과 관련하여 기지정된 위치에 대응하는지 여부를 확인하고, 상기 대응하는지 여부에 대한 확인을 기초로 상기 확인된 위치와 관련하여 상기 기지정된 위치를 가이드(guide)하는 정보를 제공하고, 상기 기지정된 위치는 상기 사용자 인증을 위한 정보를 획득하는 센서의 위치를 기초로 결정할 수 있다. A mobile terminal according to an embodiment of the present invention includes a display and a processor, wherein the processor obtains an input related to user authentication through the display, confirms a location at which the input is obtained, and It checks whether a location corresponds to a predetermined location in connection with the user authentication, and provides information for guiding the predetermined location in relation to the confirmed location based on the confirmation as to whether or not it corresponds, and , The predetermined location may be determined based on a location of a sensor that obtains information for user authentication.
본 발명의 일 실시예에 따른 디스플레이를 포함하는 이동 단말기의 제어 방법은, 상기 디스플레이를 통해 사용자 인증과 관련된 입력을 획득하는 단계와, 상기 입력이 인가되는 위치를 확인하는 단계와, 상기 확인된 위치가 상기 사용자 인증과 관련하여 기지정된 위치에 대응하는지 여부를 확인하는 단계와, 상기 대응하는지 여부에 대한 확인을 기초로 상기 확인된 위치와 관련하여 상기 기지정된 위치를 가이드하는 정보를 제공하는 단계를 포함하고, 상기 기지정된 위치는 상기 사용자 인증을 위한 정보를 획득하는 센서의 위치를 기초로 결정될 수 있다. A method of controlling a mobile terminal including a display according to an embodiment of the present invention includes obtaining an input related to user authentication through the display, confirming a location to which the input is applied, and the identified location. Checking whether a corresponding to a predetermined location in connection with the user authentication, and providing information for guiding the predetermined location in relation to the identified location based on the confirmation of whether the corresponding or not. And the predetermined location may be determined based on a location of a sensor that obtains information for user authentication.
본 명세서의 실시예에 따른 이동 단말기 및 그 제어 방법은, 입력이 획득되는 위치와 사용자 인증과 관련하여 기지정된 위치(예: 센서의 위치)에 대한 정보를 기초로 입력이 사용자 인증을 위한 위치에 인가되도록 가이드하는 정보를 제공함으로써 보다 용이하게 사용자 인증이 수행되도록 할 수 있다. In the mobile terminal and its control method according to the embodiment of the present specification, based on information on a location at which an input is obtained and a location (eg, a location of a sensor) specified in connection with user authentication, the input is applied to a location for user authentication. By providing information that guides authorization, user authentication can be performed more easily.
다만, 본 명세서에서 얻을 수 있는 효과 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. However, the effects obtainable in the present specification are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those of ordinary skill in the technical field to which the present disclosure belongs from the following description. There will be.
도 1a는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이다.1A is a block diagram illustrating a mobile terminal related to the present invention.
도 1b 및 1c는 본 발명과 관련된 이동 단말기의 일 예를 서로 다른 방향에서 바라본 개념도이다.1B and 1C are conceptual diagrams of an example of a mobile terminal related to the present invention as viewed from different directions.
도 2는 본 발명에 따른 변형 가능한 이동 단말기의 다른 예를 설명하기 위한 개념도이다. 2 is a conceptual diagram illustrating another example of a deformable mobile terminal according to the present invention.
도 3은 본 발명의 다른 일 실시 예와 관련된 와치 타입의 이동 단말기의 일 예를 보인 사시도이다. 3 is a perspective view showing an example of a watch type mobile terminal related to another embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 이동 단말기를 설명하기 위한 개념도이다. 4 is a conceptual diagram illustrating a mobile terminal according to an embodiment of the present invention.
도 5 및 도 6은 본 발명의 일 실시예에 따른 이동 단말기에서 제공하는 알람 또는 진동을 설명하기 위한 도면이다. 5 and 6 are diagrams for explaining an alarm or vibration provided by a mobile terminal according to an embodiment of the present invention.
도 7은 본 발명의 일 실시예에 따른 이동 단말기의 블록도이다. 7 is a block diagram of a mobile terminal according to an embodiment of the present invention.
도 8은 본 발명의 일 실시예에 따른 이동 단말기의 제어 방법의 각 단계의 흐름을 나타내는 흐름도이다. 8 is a flowchart showing the flow of each step of a method for controlling a mobile terminal according to an embodiment of the present invention.
도 9는 본 발명의 일 실시예에 따른 이동 단말기에 나타나는 화면의 예를 나타내는 도면이다. 9 is a diagram illustrating an example of a screen displayed on a mobile terminal according to an embodiment of the present invention.
도 10은 본 발명의 일 실시예에 따른 이동 단말기에 나타나는 화면의 다른 예를 나타내는 도면이다. 10 is a diagram illustrating another example of a screen displayed on a mobile terminal according to an embodiment of the present invention.
도 11은 본 발명의 일 실시예에 따른 이동 단말기가 방향성 햅틱 모션을 제공하는 경우를 설명하기 위한 도면이다.11 is a diagram for describing a case in which a mobile terminal provides a directional haptic motion according to an embodiment of the present invention.
이하, 본 명세서의 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments of the present specification will be described in detail with reference to the accompanying drawings.
실시 예를 설명함에 있어서 본 발명이 속하는 기술 분야에 익히 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.In describing the embodiments, descriptions of technical contents that are well known in the technical field to which the present invention pertains and are not directly related to the present invention will be omitted. This is to more clearly convey the gist of the present invention by omitting unnecessary description.
마찬가지 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 개략적으로 도시되었다. 또한, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 각 도면에서 동일한 또는 대응하는 구성요소에는 동일한 참조 번호를 부여하였다.For the same reason, some elements in the accompanying drawings are exaggerated, omitted, or schematically illustrated. In addition, the size of each component does not fully reflect the actual size. The same reference numerals are assigned to the same or corresponding components in each drawing.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments make the disclosure of the present invention complete, and the general knowledge in the technical field to which the present invention pertains. It is provided to completely inform the scope of the invention to the possessor, and the invention is only defined by the scope of the claims. The same reference numerals refer to the same elements throughout the specification.
이 때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.At this time, it will be appreciated that each block of the flowchart diagrams and combinations of the flowchart diagrams may be executed by computer program instructions. Since these computer program instructions can be mounted on the processor of a general purpose computer, special purpose computer or other programmable data processing equipment, the instructions executed by the processor of the computer or other programmable data processing equipment are described in the flowchart block(s). It creates a means to perform functions. These computer program instructions can also be stored in computer-usable or computer-readable memory that can be directed to a computer or other programmable data processing equipment to implement a function in a particular way, so that the computer-usable or computer-readable memory It is also possible for the instructions stored in the flow chart to produce an article of manufacture containing instruction means for performing the functions described in the flowchart block(s). Since computer program instructions can also be mounted on a computer or other programmable data processing equipment, a series of operating steps are performed on a computer or other programmable data processing equipment to create a computer-executable process to create a computer or other programmable data processing equipment. It is also possible for instructions to perform processing equipment to provide steps for executing the functions described in the flowchart block(s).
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each block may represent a module, segment, or part of code that contains one or more executable instructions for executing the specified logical function(s). In addition, it should be noted that in some alternative execution examples, the functions mentioned in the blocks may occur out of order. For example, two blocks shown in succession may in fact be executed substantially simultaneously, or the blocks may sometimes be executed in the reverse order depending on the corresponding function.
이 때, 본 실시 예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다. 또한 실시 예에서 제어부로 언급되는 것은 해당 장치를 제어하기 위한 동작을 하는 구성으로 적어도 하나의 프로세서를 포함할 수 있다.In this case, the term'~ unit' used in this embodiment refers to software or hardware components such as FPGA or ASIC, and'~ unit' performs certain roles. However,'~ part' is not limited to software or hardware. The'~ unit' may be configured to be in an addressable storage medium, or may be configured to reproduce one or more processors. Thus, as an example,'~ unit' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , Subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays, and variables. Components and functions provided in the'~ units' may be combined into a smaller number of elements and'~ units', or may be further separated into additional elements and'~ units'. In addition, components and'~ units' may be implemented to play one or more CPUs in a device or a security multimedia card. In addition, what is referred to as a control unit in an embodiment may include at least one processor as a component that performs an operation for controlling a corresponding device.
도 1a 내지 도 1c를 참조하면, 도 1a는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이고, 도 1b 및 1c는 본 발명과 관련된 이동 단말기의 일 예를 서로 다른 방향에서 바라본 개념도이다.1A to 1C, FIG. 1A is a block diagram illustrating a mobile terminal related to the present invention, and FIGS. 1B and 1C are conceptual diagrams of an example of a mobile terminal related to the present invention viewed from different directions.
이동 단말기(100)는 무선 통신부(110), 입력부(120), 센싱부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1a에 도시된 구성요소들은 이동 단말기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 이동 단말기는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.The mobile terminal 100 includes a wireless communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, an interface unit 160, a memory 170, a control unit 180, and a power supply unit 190. And the like. The components shown in FIG. 1A are not essential for implementing the mobile terminal, and thus, the mobile terminal described in the present specification may have more or fewer components than those listed above.
보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 이동 단말기(100)와 무선 통신 시스템 사이, 이동 단말기(100)와 다른 이동 단말기 사이, 또는 이동 단말기(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 이동 단말기(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.More specifically, among the components, the wireless communication unit 110 includes a wireless communication unit between the mobile terminal 100 and a wireless communication system, between the mobile terminal 100 and other mobile terminals, or between the mobile terminal 100 and an external server. It may include one or more modules that enable communication. In addition, the wireless communication unit 110 may include one or more modules that connect the mobile terminal 100 to one or more networks.
이러한 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.The wireless communication unit 110 may include at least one of a broadcast reception module 111, a mobile communication module 112, a wireless Internet module 113, a short-range communication module 114, and a location information module 115. .
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The input unit 120 includes a camera 121 or an image input unit for inputting an image signal, a microphone 122 for inputting an audio signal, or an audio input unit, and a user input unit 123 for receiving information from a user, for example, , A touch key, a mechanical key, etc.). The voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.
센싱부(140)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 이동 단말기는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.The sensing unit 140 may include one or more sensors for sensing at least one of information in the mobile terminal, information on surrounding environments surrounding the mobile terminal, and user information. For example, the sensing unit 140 includes a proximity sensor 141, an illumination sensor 142, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity. Sensor (G-sensor), gyroscope sensor (gyroscope sensor), motion sensor (motion sensor), RGB sensor, infrared sensor (IR sensor: infrared sensor), fingerprint sensor (finger scan sensor), ultrasonic sensor (ultrasonic sensor) , Optical sensor (for example, camera (see 121)), microphone (microphone, see 122), battery gauge, environmental sensor (for example, barometer, hygrometer, thermometer, radiation detection sensor, It may include at least one of a heat sensor, a gas sensor, etc.), and a chemical sensor (eg, an electronic nose, a healthcare sensor, a biometric sensor, etc.). Meanwhile, the mobile terminal disclosed in the present specification may combine and utilize information sensed by at least two or more of these sensors.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152), 햅팁 모듈(153), 광 출력부(154) 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 이동 단말기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 이동 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit 150 is for generating an output related to visual, auditory or tactile sense, and includes at least one of a display unit 151, an audio output unit 152, a hap tip module 153, and a light output unit 154. can do. The display unit 151 may implement a touch screen by forming a layer structure or integrally with the touch sensor. Such a touch screen may function as a user input unit 123 that provides an input interface between the mobile terminal 100 and a user, and may provide an output interface between the mobile terminal 100 and a user.
인터페이스부(160)는 이동 단말기(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 이동 단말기(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.The interface unit 160 serves as a passage between various types of external devices connected to the mobile terminal 100. The interface unit 160 connects a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, and a device equipped with an identification module. It may include at least one of a port, an audio input/output (I/O) port, an input/output (video I/O) port, and an earphone port. The mobile terminal 100 may perform appropriate control related to the connected external device in response to the connection of the external device to the interface unit 160.
또한, 메모리(170)는 이동 단말기(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 이동 단말기(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 이동 단말기(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 이동 단말기(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 이동 단말기(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 이동 단말기(100) 상에 설치되어, 제어부(180)에 의하여 상기 이동 단말기의 동작(또는 기능)을 수행하도록 구동될 수 있다.In addition, the memory 170 stores data supporting various functions of the mobile terminal 100. The memory 170 may store a plurality of application programs (application programs or applications) driven by the mobile terminal 100, data for operation of the mobile terminal 100, and commands. At least some of these application programs may be downloaded from an external server through wireless communication. In addition, at least some of these application programs may exist on the mobile terminal 100 from the time of delivery for basic functions of the mobile terminal 100 (eg, incoming calls, outgoing functions, message reception, and outgoing functions). Meanwhile, the application program may be stored in the memory 170, installed on the mobile terminal 100, and driven by the controller 180 to perform an operation (or function) of the mobile terminal.
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.In addition to the operation related to the application program, the controller 180 generally controls the overall operation of the mobile terminal 100. The controller 180 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in the memory 170.
또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1a와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 이동 단말기(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.Also, in order to drive an application program stored in the memory 170, the controller 180 may control at least some of the components discussed with reference to FIG. 1A. Further, in order to drive the application program, the controller 180 may operate by combining at least two or more of the components included in the mobile terminal 100 with each other.
전원 공급부(190)는 제어부(180)의 제어 하에서 외부의 전원 또는 내부의 전원을 인가 받아 이동 단말기(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원 공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.The power supply unit 190 receives external power or internal power under the control of the controller 180 and supplies power to each of the components included in the mobile terminal 100. The power supply unit 190 includes a battery, and the battery may be a built-in battery or a replaceable battery.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 이동 단말기의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 이동 단말기의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 이동 단말기 상에서 구현될 수 있다. At least some of the components may operate in cooperation with each other to implement an operation, control, or control method of a mobile terminal according to various embodiments described below. In addition, the operation, control, or control method of the mobile terminal may be implemented on the mobile terminal by driving at least one application program stored in the memory 170.
이하에서는, 위에서 살펴본 이동 단말기(100)를 통하여 구현되는 다양한 실시 예들을 살펴보기에 앞서, 위에서 열거된 구성요소들 중 적어도 일부에 대하여 도 1a를 참조하여 보다 구체적으로 살펴본다. Hereinafter, before looking at various embodiments implemented through the mobile terminal 100 described above, at least some of the components listed above will be described in more detail with reference to FIG. 1A.
사용자 입력부(123)는 사용자로부터 정보를 입력받기 위한 것으로서, 사용자 입력부(123)를 통해 정보가 입력되면, 제어부(180)는 입력된 정보에 대응되도록 이동 단말기(100)의 동작을 제어할 수 있다. 이러한, 사용자 입력부(123)는 기계식(mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 이동 단말기(100)의 전·후면 또는 측면에 위치하는 버튼, 돔 스위치(dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다. The user input unit 123 is for receiving information from a user, and when information is input through the user input unit 123, the controller 180 can control the operation of the mobile terminal 100 to correspond to the input information. . Such, the user input unit 123 is a mechanical (mechanical) input means (or a mechanical key, for example, a button located on the front, rear or side of the mobile terminal 100, a dome switch (dome switch), a jog wheel, Jog switch, etc.) and a touch-type input means. As an example, the touch input means is composed of a virtual key, a soft key, or a visual key displayed on a touch screen through software processing, or a portion other than the touch screen It may be made of a touch key (touch key) arranged in the. On the other hand, the virtual key or the visual key can be displayed on the touch screen while having various forms, for example, graphic, text, icon, video, or these It can be made of a combination of.
한편, 센싱부(140)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하고, 이에 대응하는 센싱 신호를 발생시킨다. 제어부(180)는 이러한 센싱 신호에 기초하여, 이동 단말기(100)의 구동 또는 동작을 제어하거나, 이동 단말기(100)에 설치된 응용 프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행할 수 있다. 센싱부(140)에 포함될 수 있는 다양한 센서 중 대표적인 센서들의 대하여, 보다 구체적으로 살펴본다.Meanwhile, the sensing unit 140 senses at least one of information in the mobile terminal, information on a surrounding environment surrounding the mobile terminal, and user information, and generates a sensing signal corresponding thereto. The controller 180 may control the driving or operation of the mobile terminal 100 or perform data processing, functions, or operations related to an application program installed in the mobile terminal 100 based on such a sensing signal. Representative sensors among various sensors that may be included in the sensing unit 140 will be described in more detail.
먼저, 근접 센서(141)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선 등을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 이러한 근접 센서(141)는 위에서 살펴본 터치 스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다. First, the proximity sensor 141 refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object existing in the vicinity using the force of an electromagnetic field or infrared rays without mechanical contact. In the proximity sensor 141, the proximity sensor 141 may be disposed in an inner area of the mobile terminal surrounded by the touch screen described above or near the touch screen.
근접 센서(141)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전 용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 터치 스크린이 정전식인 경우에, 근접 센서(141)는 전도성을 갖는 물체의 근접에 따른 전계의 변화로 상기 물체의 근접을 검출하도록 구성될 수 있다. 이 경우 터치 스크린(또는 터치 센서) 자체가 근접 센서로 분류될 수 있다. Examples of the proximity sensor 141 include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive type proximity sensor, a magnetic type proximity sensor, an infrared proximity sensor, and the like. When the touch screen is a capacitive type, the proximity sensor 141 may be configured to detect the proximity of the object by a change in the electric field according to the proximity of the conductive object. In this case, the touch screen (or touch sensor) itself may be classified as a proximity sensor.
한편, 설명의 편의를 위해, 터치 스크린 상에 물체가 접촉되지 않으면서 근접되어 상기 물체가 상기 터치 스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 명명하고, 상기 터치 스크린 상에 물체가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 명명한다. 상기 터치 스크린 상에서 물체가 근접 터치 되는 위치라 함은, 상기 물체가 근접 터치될 때 상기 물체가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다. 상기 근접 센서(141)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지할 수 있다. 한편, 제어부(180)는 위와 같이, 근접 센서(141)를 통해 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 데이터(또는 정보)를 처리하며, 나아가, 처리된 데이터에 대응하는 시각적인 정보를 터치 스크린상에 출력시킬 수 있다. 나아가, 제어부(180)는, 터치 스크린 상의 동일한 지점에 대한 터치가, 근접 터치인지 또는 접촉 터치인지에 따라, 서로 다른 동작 또는 데이터(또는 정보)가 처리되도록 이동 단말기(100)를 제어할 수 있다.On the other hand, for convenience of explanation, the action of allowing an object to be located on the touch screen without being in contact with the object to be recognized as being positioned on the touch screen is named "proximity touch", and the touch The act of actually touching an object on the screen is called "contact touch". A position at which an object is touched in proximity on the touch screen means a position at which the object is vertically corresponding to the touch screen when the object is touched in proximity. The proximity sensor 141 may detect a proximity touch and a proximity touch pattern (eg, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, etc.). have. Meanwhile, as above, the controller 180 processes data (or information) corresponding to the proximity touch operation and the proximity touch pattern sensed through the proximity sensor 141, and further, provides visual information corresponding to the processed data. It can be output on the touch screen. Furthermore, the controller 180 may control the mobile terminal 100 to process different operations or data (or information) according to whether a touch to the same point on the touch screen is a proximity touch or a touch touch. .
터치 센서는 저항막 방식, 정전용량 방식, 적외선 방식, 초음파 방식, 자기장 방식 등 여러 가지 터치방식 중 적어도 하나를 이용하여 터치 스크린(또는 디스플레이부(151))에 가해지는 터치(또는 터치입력)을 감지한다.The touch sensor applies a touch (or touch input) to the touch screen (or display unit 151) using at least one of various touch methods such as a resistive film method, a capacitive method, an infrared method, an ultrasonic method, and a magnetic field method. To detect.
일 예로서, 터치 센서는, 터치 스크린의 특정 부위에 가해진 압력 또는 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는, 터치 스크린 상에 터치를 가하는 터치 대상체가 터치 센서 상에 터치 되는 위치, 면적, 터치 시의 압력, 터치 시의 정전 용량 등을 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치 센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다. As an example, the touch sensor may be configured to convert a pressure applied to a specific portion of the touch screen or a change in capacitance generated at a specific portion into an electrical input signal. The touch sensor may be configured to detect a location, an area, a pressure when a touch, a capacitance when a touch is touched, and the like at which a touch object applied to the touch screen is touched on the touch sensor. Here, the touch object is an object that applies a touch to the touch sensor, and may be, for example, a finger, a touch pen, a stylus pen, or a pointer.
이와 같이, 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다. 여기에서, 터치 제어기는, 제어부(180)와 별도의 구성요소일 수 있고, 제어부(180) 자체일 수 있다. In this way, when there is a touch input to the touch sensor, the signal(s) corresponding thereto is transmitted to the touch controller. The touch controller processes the signal(s) and then transmits the corresponding data to the controller 180. Accordingly, the controller 180 can know which area of the display unit 151 has been touched. Here, the touch controller may be a separate component from the controller 180 or may be the controller 180 itself.
한편, 제어부(180)는, 터치 스크린(또는 터치 스크린 이외에 구비된 터치키)을 터치하는, 터치 대상체의 종류에 따라 서로 다른 제어를 수행하거나, 동일한 제어를 수행할 수 있다. 터치 대상체의 종류에 따라 서로 다른 제어를 수행할지 또는 동일한 제어를 수행할 지는, 현재 이동 단말기(100)의 동작상태 또는 실행 중인 응용 프로그램에 따라 결정될 수 있다. Meanwhile, the controller 180 may perform different controls or perform the same control according to the type of the touch object by touching the touch screen (or a touch key provided in addition to the touch screen). Whether to perform different controls or the same control according to the type of the touch object may be determined according to an operating state of the mobile terminal 100 or an application program being executed.
한편, 위에서 살펴본 터치 센서 및 근접 센서는 독립적으로 또는 조합되어, 터치 스크린에 대한 숏(또는 탭) 터치(short touch), 롱 터치(long touch), 멀티 터치(multi touch), 드래그 터치(drag touch), 플리크 터치(flick touch), 핀치-인 터치(pinch-in touch), 핀치-아웃 터치(pinch-out 터치), 스와이프(swype) 터치, 호버링(hovering) 터치 등과 같은, 다양한 방식의 터치를 센싱할 수 있다.Meanwhile, the touch sensor and the proximity sensor described above are independently or in combination, and a short (or tap) touch, a long touch, a multi touch, and a drag touch on the touch screen. ), flick touch, pinch-in touch, pinch-out touch, swipe touch, hovering touch, etc. You can sense the touch.
초음파 센서는 초음파를 이용하여, 감지대상의 위치정보를 인식할 수 있다. 한편 제어부(180)는 광 센서와 복수의 초음파 센서로부터 감지되는 정보를 통해, 파동 발생원의 위치를 산출하는 것이 가능하다. 파동 발생원의 위치는, 광이 초음파보다 매우 빠른 성질, 즉, 광이 광 센서에 도달하는 시간이 초음파가 초음파 센서에 도달하는 시간보다 매우 빠름을 이용하여, 산출될 수 있다. 보다 구체적으로 광을 기준 신호로 초음파가 도달하는 시간과의 시간차를 이용하여 파동 발생원의 위치가 산출될 수 있다.The ultrasonic sensor may recognize location information of a sensing target by using ultrasonic waves. Meanwhile, the controller 180 may calculate the location of the wave generator through information sensed from the optical sensor and the plurality of ultrasonic sensors. The location of the wave generator may be calculated by using a property that the light is much faster than that of the ultrasonic wave, that is, the time that the light reaches the optical sensor is much faster than the time that the ultrasonic wave reaches the ultrasonic sensor. More specifically, the position of the wave generator may be calculated using a time difference between a time when the ultrasonic wave arrives using light as a reference signal.
한편, 입력부(120)의 구성으로 살펴본, 카메라(121)는 카메라 센서(예를 들어, CCD, CMOS 등), 포토 센서(또는 이미지 센서) 및 레이저 센서 중 적어도 하나를 포함한다.On the other hand, the camera 121, as viewed as the configuration of the input unit 120, includes at least one of a camera sensor (eg, CCD, CMOS, etc.), a photo sensor (or image sensor), and a laser sensor.
카메라(121)와 레이저 센서는 서로 조합되어, 3차원 입체영상에 대한 감지대상의 터치를 감지할 수 있다. 포토 센서는 디스플레이 소자에 적층될 수 있는데, 이러한 포토 센서는 터치 스크린에 근접한 감지대상의 움직임을 스캐닝하도록 이루어진다. 보다 구체적으로, 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호를 이용하여 포토 센서 위에 올려지는 내용물을 스캔한다. 즉, 포토 센서는 빛의 변화량에 따른 감지대상의 좌표 계산을 수행하며, 이를 통하여 감지대상의 위치정보가 획득될 수 있다.The camera 121 and the laser sensor are combined with each other to detect a touch of a sensing target for a 3D stereoscopic image. The photosensor may be stacked on the display device, and the photosensor is configured to scan the motion of a sensing object close to the touch screen. More specifically, the photo sensor scans the contents placed on the photo sensor by mounting a photo diode and a transistor (TR) in a row/column and using an electrical signal that changes according to the amount of light applied to the photo diode. That is, the photosensor calculates the coordinates of the sensing object according to the amount of light change, and through this, position information of the sensing object may be obtained.
디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(151)는 이동 단말기(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다. The display unit 151 displays (outputs) information processed by the mobile terminal 100. For example, the display unit 151 may display execution screen information of an application program driven in the mobile terminal 100, or UI (User Interface) and GUI (Graphic User Interface) information according to such execution screen information. .
햅틱 모듈(haptic module)(153)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(153)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 햅틱 모듈(153)에서 발생하는 진동의 세기와 패턴 등은 사용자의 선택 또는 제어부의 설정에 의해 제어될 수 있다. 예를 들어, 상기 햅틱 모듈(153)은 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.The haptic module 153 generates various tactile effects that a user can feel. A typical example of the tactile effect generated by the haptic module 153 may be vibration. The intensity and pattern of the vibration generated by the haptic module 153 may be controlled by a user's selection or setting by a controller. For example, the haptic module 153 may synthesize and output different vibrations or sequentially output them.
햅틱 모듈(153)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(electrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.In addition to vibration, the haptic module 153 is designed to respond to stimuli such as a pin arrangement that moves vertically with respect to the contact skin surface, a blowing force or suction force of air through a jet or inlet, grazing against the skin surface, contact of an electrode, and electrostatic force. It can generate various tactile effects, such as an effect by the effect and an effect by reproducing the feeling of cooling and warming using an endothermic or heat generating element.
햅틱 모듈(153)은 직접적인 접촉을 통해 촉각 효과를 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(153)은 이동 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다. The haptic module 153 may not only deliver a tactile effect through direct contact, but may also be implemented so that a user can feel the tactile effect through muscle sensations such as a finger or an arm. Two or more haptic modules 153 may be provided depending on the configuration aspect of the mobile terminal 100.
광출력부(154)는 이동 단말기(100)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기(100)에서 발생 되는 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등이 될 수 있다.The light output unit 154 outputs a signal for notifying the occurrence of an event using light from a light source of the mobile terminal 100. Examples of events occurring in the mobile terminal 100 may include message reception, call signal reception, missed call, alarm, schedule notification, e-mail reception, and information reception through an application.
광출력부(154)가 출력하는 신호는 이동 단말기가 전면이나 후면으로 단색이나 복수색의 빛을 발광함에 따라 구현된다. 상기 신호 출력은 이동 단말기가 사용자의 이벤트 확인을 감지함에 의하여 종료될 수 있다.The signal output from the light output unit 154 is implemented as the mobile terminal emits a single color or a plurality of colors of light to the front or rear. The signal output may be terminated when the mobile terminal detects the user's event confirmation.
메모리(170)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(170)는 상기 터치 스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory 170 may store a program for the operation of the controller 180 and may temporarily store input/output data (eg, a phone book, a message, a still image, a video, etc.). The memory 170 may store data related to vibrations and sounds of various patterns output when a touch input on the touch screen is performed.
메모리(170)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리(170)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다.The memory 170 is a flash memory type, a hard disk type, a solid state disk type, an SDD type, a multimedia card micro type. ), card-type memory (e.g., SD or XD memory), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read (EEPROM) -only memory), programmable read-only memory (PROM), magnetic memory, magnetic disk, and optical disk. The mobile terminal 100 may be operated in connection with a web storage that performs a storage function of the memory 170 over the Internet.
한편, 앞서 살펴본 것과 같이, 제어부(180)는 응용 프로그램과 관련된 동작과, 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 예를 들어, 제어부(180)는 상기 이동 단말기의 상태가 설정된 조건을 만족하면, 애플리케이션들에 대한 사용자의 제어 명령의 입력을 제한하는 잠금 상태를 실행하거나, 해제할 수 있다.Meanwhile, as described above, the controller 180 controls an operation related to an application program and, in general, an overall operation of the mobile terminal 100. For example, when the state of the mobile terminal satisfies a set condition, the controller 180 may execute or release a lock state limiting input of a user's control command to applications.
또한, 제어부(180)는 음성 통화, 데이터 통신, 화상 통화 등과 관련된 제어 및 처리를 수행하거나, 터치 스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. 나아가 제어부(180)는 이하에서 설명되는 다양한 실시 예들을 본 발명에 따른 이동 단말기(100) 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다.In addition, the controller 180 performs control and processing related to voice calls, data communication, and video calls, or performs pattern recognition processing capable of recognizing handwriting input or drawing input performed on the touch screen as characters and images, respectively. I can. Furthermore, in order to implement various embodiments described below on the mobile terminal 100 according to the present invention, the controller 180 may control one or more of the above-described components in combination.
한편, 이하에서 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Meanwhile, hereinafter, various embodiments may be implemented in a recording medium that can be read by a computer or a similar device using, for example, software, hardware, or a combination thereof.
한편, 본 발명에서는 이동 단말기에서 처리되는 정보를 플렉서블 디스플레이(flexible display)를 이용하여 표시할 수 있다. 이하, 첨부된 도면을 바탕으로 이에 대하여 보다 구체적으로 살펴본다.Meanwhile, in the present invention, information processed by a mobile terminal can be displayed using a flexible display. Hereinafter, based on the accompanying drawings, this will be described in more detail.
도 2는 본 발명에 따른 변형 가능한 이동 단말기(200)의 다른 예를 설명하기 위한 개념도이다.2 is a conceptual diagram illustrating another example of a deformable mobile terminal 200 according to the present invention.
도시된 바와 같이, 디스플레이부(251)는 외력에 의하여 변형 가능하게 구성될 수 있다. 상기 변형은 디스플레이부(251)의 휘어짐, 구부러짐, 접힘, 비틀림, 말림 중 적어도 하나일 수 있다. 이러한 변형 가능한 디스플레이부(251)는 '플렉서블 디스플레이부'로 명명될 수 있다. 여기에서, 플렉서블 디스플레이부(251)는 일반적인 플렉서블 디스플레이와 전자 종이(e-paper) 및 그 조합을 모두 포함할 수 있다. 일반적으로 이동 단말기(200)는 도1a 내지 도 1c의 이동 단말기(100)의 특징 또는 그와 유사한 특징을 포함할 수 있다. As shown, the display unit 251 may be configured to be deformable by an external force. The deformation may be at least one of bending, bending, folding, twisting, and curling of the display unit 251. Such a deformable display unit 251 may be referred to as a'flexible display unit'. Here, the flexible display unit 251 may include all of a general flexible display, e-paper, and combinations thereof. In general, the mobile terminal 200 may include features of the mobile terminal 100 of FIGS. 1A to 1C or similar features.
일반적인 플렉서블 디스플레이는 기존의 평판 디스플레이의 특성을 유지하면서, 종이와 같이 휘어짐, 구부러짐, 접힘, 비틀림 또는 말림이 가능한 얇고 유연한 기판 위에 제작되어, 가볍고 쉽게 깨지지 않는 튼튼한 디스플레이를 말한다.A general flexible display refers to a light and sturdy display that is not easily broken because it is manufactured on a thin and flexible substrate that can be bent, bent, folded, twisted or rolled like paper while maintaining the characteristics of a conventional flat panel display.
또한, 전자 종이는 일반적인 잉크의 특징을 적용한 디스플레이 기술로서, 반사광을 사용하는 점이 기존의 평판 디스플레이와 다른 점일 수 있다. 전자 종이는 트위스트 볼을 이용하거나, 캡슐을 이용한 전기영동(電氣泳動, electrophoresis)을 이용하여, 정보를 변경할 수 있다.In addition, electronic paper is a display technology to which characteristics of general inks are applied, and the point of using reflected light may be different from conventional flat panel displays. Electronic paper can change information by using a twist ball or electrophoresis using a capsule.
플렉서블 디스플레이부(251)가 변형되지 않는 상태(예를 들어, 무한대의 곡률반경을 가지는 상태, 이하 제1 상태라 한다)에서, 플렉서블 디스플레이부(251)의 디스플레이 영역은 평면이 된다. 상기 제1 상태에서 외력에 의하여 변형된 상태(예를 들어, 유한의 곡률반경을 가지는 상태, 이하, 제2 상태라 한다)에서는 상기 디스플레이 영역이 곡면이 될 수 있다. 도시된 바와 같이, 상기 제2 상태에서 표시되는 정보는 곡면상에 출력되는 시각 정보가 될 수 있다. 이러한 시각 정보는 매트릭스 형태로 배치되는 단위 화소(sub-pixel)의 발광이 독자적으로 제어됨에 의하여 구현된다. 상기 단위 화소는 하나의 색을 구현하기 위한 최소 단위를 의미한다.In a state in which the flexible display unit 251 is not deformed (for example, a state having an infinite radius of curvature, hereinafter referred to as a first state), the display area of the flexible display unit 251 becomes a flat surface. In a state deformed by an external force in the first state (eg, a state having a finite radius of curvature, hereinafter referred to as a second state), the display area may be a curved surface. As shown, the information displayed in the second state may be visual information output on a curved surface. Such visual information is implemented by independently controlling light emission of sub-pixels arranged in a matrix form. The unit pixel means a minimum unit for implementing one color.
플렉서블 디스플레이부(251)는 상기 제1 상태에서 평평한 상태가 아닌, 휘어진 상태(예를 들어, 상하 또는 좌우로 휘어진 상태)에 놓일 수 있다. 이 경우, 플렉서블 디스플레이부(251)에 외력이 가해지면, 플렉서블 디스플레이부(251)는 평평한 상태(혹은 보다 덜 휘어진 상태) 또는 보다 많이 휘어진 상태로 변형될 수 있다.In the first state, the flexible display unit 251 may be placed in a curved state (eg, a vertically or horizontally curved state) rather than a flat state. In this case, when an external force is applied to the flexible display unit 251, the flexible display unit 251 may be deformed into a flat state (or a less curved state) or a more curved state.
한편, 플렉서블 디스플레이부(251)는 터치센서와 조합되어 플렉서블 터치 스크린을 구현할 수 있다. 플렉서블 터치 스크린에 대하여 터치가 이루어지면, 제어부(180, 도 1a 참조)는 이러한 터치입력에 상응하는 제어를 수행할 수 있다. 플렉서블 터치 스크린은 상기 제1 상태뿐만 아니라 상기 제2 상태에서도 터치입력을 감지하도록 이루어질 수 있다.Meanwhile, the flexible display unit 251 may be combined with a touch sensor to implement a flexible touch screen. When a touch is made to the flexible touch screen, the controller 180 (refer to FIG. 1A) may perform a control corresponding to such a touch input. The flexible touch screen may be configured to sense a touch input not only in the first state but also in the second state.
한편, 본 변형 예에 따른 이동 단말기(200)에는 플렉서블 디스플레이부(251)의 변형을 감지할 수 있는 변형감지수단이 구비될 수 있다. 이러한 변형감지수단은 센싱부(140, 도 1a 참조)에 포함될 수 있다.Meanwhile, the mobile terminal 200 according to the present modified example may be provided with a deformation detecting means capable of detecting deformation of the flexible display unit 251. Such deformation detecting means may be included in the sensing unit 140 (see FIG. 1A).
상기 변형감지수단은 플렉서블 디스플레이부(251) 또는 케이스(201)에 구비되어, 플렉서블 디스플레이부(251)의 변형과 관련된 정보를 감지할 수 있다. 여기에서, 변형과 관련된 정보는, 플렉서블 디스플레이부(251)가 변형된 방향, 변형된 정도, 변형된 위치, 변형된 시간 및 변형된 플렉서블 디스플레이부(251)가 복원되는 가속도 등이 될 수 있으며, 이 밖에도 플렉서블 디스플레이부(251)의 휘어짐으로 인하여 감지 가능한 다양한 정보일 수 있다.The deformation detecting means is provided on the flexible display unit 251 or the case 201, and may detect information related to deformation of the flexible display unit 251. Here, the information related to the deformation may be a direction in which the flexible display unit 251 is deformed, a deformed degree, a deformed position, a deformed time, and an acceleration at which the deformed flexible display unit 251 is restored, and the like, In addition, it may be various pieces of information that can be detected due to the bending of the flexible display unit 251.
또한, 제어부(180)는 상기 변형감지수단에 의하여 감지되는 플렉서블 디스플레이부(251)의 변형과 관련된 정보에 근거하여, 플렉서블 디스플레이부(251) 상에 표시되는 정보를 변경하거나, 이동 단말기(200)의 기능을 제어하기 위한 제어신호를 생성할 수 있다.In addition, the controller 180 may change information displayed on the flexible display unit 251 or change the information displayed on the flexible display unit 251 based on information related to the deformation of the flexible display unit 251 detected by the deformation detecting means. It is possible to generate a control signal to control the function of.
한편, 본 변형 예에 따른 이동 단말기(200)는 플렉서블 디스플레이부(251)를 수용하는 케이스(201)를 포함할 수 있다. 케이스(201)는 플렉서블 디스플레이부(251)의 특성을 고려하여, 외력에 의하여 플렉서블 디스플레이부(251)와 함께 변형 가능하도록 구성될 수 있다.Meanwhile, the mobile terminal 200 according to the present modified example may include a case 201 accommodating the flexible display unit 251. The case 201 may be configured to be deformable together with the flexible display unit 251 by an external force in consideration of the characteristics of the flexible display unit 251.
아울러, 이동 단말기(200)에 구비되는 배터리(미도시) 또한 플렉서블 디스플레이부(251)의 특성을 고려하여, 외력에 의하여 플렉서블 디스플레이부(251)와 함께 변형 가능하도록 구성될 수 있다. 상기 배터리를 구현하기 위하여, 배터리 셀을 위로 쌓은 스택앤폴딩(stack and folding) 방식이 적용될 수 있다.In addition, a battery (not shown) provided in the mobile terminal 200 may also be configured to be deformable together with the flexible display unit 251 by an external force in consideration of the characteristics of the flexible display unit 251. In order to implement the battery, a stack and folding method in which battery cells are stacked on top may be applied.
플렉서블 디스플레이부(251)의 상태 변형은 외력에 의한 것으로만 국한되지는 않는다. 예를 들어, 플렉서블 디스플레이부(251)가 제 1 상태를 가지고 있을 때, 사용자 혹은 애플리케이션의 명령에 의해서, 제 2 상태로 변형될 수도 있다.The state transformation of the flexible display unit 251 is not limited to being caused by an external force. For example, when the flexible display unit 251 has a first state, it may be transformed into a second state by a command of a user or an application.
한편, 이동 단말기는 사용자가 주로 손에 쥐고 사용하는 차원을 넘어서, 신체에 착용할 수 있는 웨어러블 디바이스(wearable device)로 확장될 수 있다. 이러한 웨어러블 디바이스에는 스마트 워치(smart watch), 스마트 글래스(smart glass), HMD(head mounted display) 등이 있다. 이하, 웨어러블 디바이스로 확장된 이동 단말기의 예들에 대하여 설명하기로 한다.On the other hand, the mobile terminal can be extended to a wearable device that can be worn on the body beyond the dimension that the user mainly holds and uses in the hand. Such wearable devices include smart watches, smart glasses, and head mounted displays (HMD). Hereinafter, examples of mobile terminals extended to wearable devices will be described.
웨어러블 디바이스는 다른 이동 단말기(100)와 데이터를 상호 교환(또는 연동) 가능하게 이루어질 수 있다. 근거리 통신 모듈(114)은, 이동 단말기(100) 주변에 통신 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다. 나아가, 제어부(180)는 감지된 웨어러블 디바이스가 이동 단말기(100)와 통신하도록 인증된 디바이스인 경우, 이동 단말기(100)에서 처리되는 데이터의 적어도 일부를, 근거리 통신 모듈(114)을 통하여 웨어러블 디바이스로 전송할 수 있다. 따라서, 사용자는 이동 단말기(100)에서 처리되는 데이터를 웨어러블 디바이스를 통하여 이용할 수 있다. 예를 들어, 이동 단말기(100)에 전화가 수신된 경우 웨어러블 디바이스를 통해 전화 통화를 수행하거나, 이동 단말기(100)에 메시지가 수신된 경우 웨어러블 디바이스를 통해 상기 수신된 메시지를 확인하는 것이 가능하다.The wearable device may be configured to exchange (or interlock) data with another mobile terminal 100. The short-range communication module 114 may detect (or recognize) a wearable device capable of communicating around the mobile terminal 100. Furthermore, when the sensed wearable device is a device that is authenticated to communicate with the mobile terminal 100, the controller 180 transmits at least part of the data processed by the mobile terminal 100 to the wearable device through the short-range communication module 114. Can be transferred to. Accordingly, the user can use data processed by the mobile terminal 100 through the wearable device. For example, it is possible to perform a phone call through a wearable device when a call is received from the mobile terminal 100, or to check the received message through the wearable device when a message is received by the mobile terminal 100. .
도 3은 본 발명의 다른 일 실시 예와 관련된 와치 타입의 이동 단말기(300)의 일 예를 보인 사시도이다.3 is a perspective view showing an example of a watch type mobile terminal 300 related to another embodiment of the present invention.
도 3을 참조하면, 와치 타입의 이동 단말기(300)는 디스플레이부(351)를 구비하는 본체(301) 및 본체(301)에 연결되어 손목에 착용 가능하도록 구성되는 밴드(302)를 포함한다. 일반적으로 이동 단말기(300)는 도1a 내지 도 1c의 이동 단말기(100)의 특징 또는 그와 유사한 특징을 포함할 수 있다.Referring to FIG. 3, a watch-type mobile terminal 300 includes a main body 301 having a display unit 351 and a band 302 connected to the main body 301 and configured to be worn on a wrist. In general, the mobile terminal 300 may include features of the mobile terminal 100 of FIGS. 1A to 1C or similar features.
본체(301)는 외관을 형성하는 케이스를 포함한다. 도시된 바와 같이, 케이스는 각종 전자부품들을 수용하는 내부 공간을 마련하는 제1케이스(301a) 및 제2케이스(301b)를 포함할 수 있다. 다만, 본 발명은 이에 한정되는 것은 아니고, 하나의 케이스가 상기 내부 공간을 마련하도록 구성되어 유니 바디의 이동 단말기(300)가 구현될 수도 있다.The main body 301 includes a case forming an external appearance. As illustrated, the case may include a first case 301a and a second case 301b that provide an inner space for accommodating various electronic components. However, the present invention is not limited thereto, and a single case may be configured to provide the inner space so that the unibody mobile terminal 300 may be implemented.
와치 타입의 이동 단말기(300)는 무선 통신이 가능하도록 구성되며, 본체(301)에는 상기 무선 통신을 위한 안테나가 설치될 수 있다. 한편, 안테나는 케이스를 이용하여 그 성능을 확장시킬 수 있다. 예를 들어, 도전성 재질을 포함하는 케이스가 안테나와 전기적으로 연결되어 그라운드 영역 또는 방사 영역을 확장시키도록 구성될 수 있다.The watch-type mobile terminal 300 is configured to enable wireless communication, and an antenna for the wireless communication may be installed in the main body 301. On the other hand, the antenna can extend its performance by using a case. For example, a case including a conductive material may be configured to be electrically connected to an antenna to expand a ground region or a radiation region.
본체(301)의 전면에는 디스플레이부(351)가 배치되어 정보를 출력할 수 있으며, 디스플레이부(351)에는 터치센서가 구비되어 터치 스크린으로 구현될 수 있다. 도시된 바와 같이, 디스플레이부(351)의 윈도우(351a)는 제1 케이스(301a)에 장착되어 제1 케이스(301a)와 함께 단말기 바디의 전면을 형성할 수 있다.A display unit 351 may be disposed on the front surface of the main body 301 to output information, and a touch sensor may be provided on the display unit 351 to be implemented as a touch screen. As illustrated, the window 351a of the display unit 351 may be mounted on the first case 301a to form the front surface of the terminal body together with the first case 301a.
본체(301)에는 음향 출력부(352), 카메라(321), 마이크로폰(322), 사용자 입력부(323) 등이 구비될 수 있다. 디스플레이부(351)가 터치 스크린으로 구현되는 경우, 사용자 입력부(323)로 기능할 수 있으며, 이에 따라 본체(301)에 별도의 키가 구비되지 않을 수 있다.The main body 301 may include an audio output unit 352, a camera 321, a microphone 322, a user input unit 323, and the like. When the display unit 351 is implemented as a touch screen, it may function as a user input unit 323, and accordingly, a separate key may not be provided on the main body 301.
밴드(302)는 손목에 착용되어 손목을 감싸도록 이루어지며, 착용이 용이하도록 플렉서블 재질로 형성될 수 있다. 그러한 예로서, 밴드(302)는 가죽, 고무, 실리콘, 합성수지 재질 등으로 형성될 수 있다. 또한, 밴드(302)는 본체(301)에 착탈 가능하게 구성되어, 사용자가 취향에 따라 다양한 형태의 밴드로 교체 가능하게 구성될 수 있다.The band 302 is worn on the wrist to surround the wrist, and may be formed of a flexible material to facilitate wearing. As such an example, the band 302 may be formed of leather, rubber, silicone, synthetic resin material, or the like. In addition, the band 302 is configured to be detachable from the main body 301, and may be configured to be replaceable with various types of bands according to the user's taste.
한편, 밴드(302)는 안테나의 성능을 확장시키는 데에 이용될 수 있다. 예를 들어, 밴드에는 안테나와 전기적으로 연결되어 그라운드 영역을 확장시키는 그라운드 확장부(미도시)가 내장될 수 있다.Meanwhile, the band 302 may be used to expand the performance of the antenna. For example, a ground extension unit (not shown) that is electrically connected to an antenna and expands a ground area may be incorporated in the band.
밴드(302)에는 파스너(fastener; 302a)가 구비될 수 있다. 파스너(302a)는 버클(buckle), 스냅핏(snap-fit)이 가능한 후크(hook) 구조, 또는 벨크로(velcro; 상표명) 등에 의하여 구현될 수 있으며, 신축성이 있는 구간 또는 재질을 포함할 수 있다. 본 도면에서는, 파스너(302a)가 버클 형태로 구현된 예를 제시하고 있다. The band 302 may be provided with a fastener 302a. The fastener 302a may be implemented by a buckle, a hook structure capable of snap-fit, or velcro (trade name), and may include an elastic section or material. . In this drawing, an example in which the fastener 302a is implemented in the form of a buckle is shown.
도 4는 본 발명의 일 실시예에 따른 이동 단말기를 설명하기 위한 개념도이다. 구체적으로, 도 4는 이동 단말기의 전면 디스플레이와 관련하여 사용자 인증을 위한 위치로 가이드하기 위한 정보 제공을 위해 구분되는 영역에 대한 개념도를 나타낸다. 4 is a conceptual diagram illustrating a mobile terminal according to an embodiment of the present invention. Specifically, FIG. 4 shows a conceptual diagram of a divided area for providing information for guiding to a location for user authentication in relation to the front display of the mobile terminal.
도 4를 참조하면, 이동 단말기(400)의 디스플레이는 복수의 영역으로 구분될 수 있다. 구체적으로 센서의 위치에 대응하는 디스플레이의 위치(이하, 기준 위치)(410)를 기준으로 복수의 원(420, 430, 440)이 특정 간격(450)을 가지도록 배치됨에 기초하여 디스플레이의 영역이 구분될 수 있다. Referring to FIG. 4, the display of the mobile terminal 400 may be divided into a plurality of areas. Specifically, based on the position of the display (hereinafter referred to as the reference position) 410 corresponding to the position of the sensor, a plurality of circles 420, 430, and 440 are arranged to have a specific interval 450, so that the area of the display is Can be distinguished.
복수의 원(420, 430, 440)의 중심은 기준 위치(410)(또는 기준 위치(410)의 중심)에 대응할 수 있다. 특정 간격(450)는 미리 정해진 거리 간격으로서, 예를 들면 사용자의 손가락(예: 엄지 손가락)의 폭에 대응하는 거리 간격일 수 있으나 이에 제한되는 것은 아니다. The centers of the plurality of circles 420, 430, 440 may correspond to the reference position 410 (or the center of the reference position 410 ). The specific interval 450 is a predetermined distance interval, and may be, for example, a distance interval corresponding to the width of a user's finger (eg, thumb), but is not limited thereto.
이동 단말기(400)는 복수의 원(420, 430, 440)을 기초로 기준 위치(410)를 가이드하는 정보를 제공할 수 있다. 구체적으로, 이동 단말기(400)는 사용자 인증과 관련된 입력을 획득하면, 획득된 입력과 기준 위치(410)의 차이를 확인하고 확인된 차이를 기초로 기준 위치(410)를 가이드하는 정보를 제공할 수 있다.The mobile terminal 400 may provide information for guiding the reference position 410 based on the plurality of circles 420, 430, 440. Specifically, when the mobile terminal 400 obtains an input related to user authentication, the mobile terminal 400 checks the difference between the acquired input and the reference position 410 and provides information for guiding the reference position 410 based on the confirmed difference. I can.
실시예에서, 이동 단말기(400)는 사용자 인증과 관련된 입력을 획득하면, 디스플레이 상에서 획득된 입력과 기준 위치(410)의 차이를 확인할 수 있다. 이동 단말기(400)는 기준 위치(410)를 중심으로 하며 특정 간격(450)을 가지는 복수의 원(420, 430, 440)을 가정하고, 기준 위치(410)와 입력 사이의 원의 개수를 기초로 기준 위치(410)를 가이드하는 정보를 제공할 수 있다.In an embodiment, when the mobile terminal 400 acquires an input related to user authentication, the mobile terminal 400 may check the difference between the input acquired on the display and the reference position 410. The mobile terminal 400 assumes a plurality of circles 420, 430, 440 centering on the reference position 410 and having a specific interval 450, and based on the number of circles between the reference position 410 and the input. Information guiding the reference position 410 may be provided.
실시예에서, 이동 단말기(400)는 사용자 인증과 관련된 입력을 획득하면, 획득된 입력과 기준 위치(410)의 거리를 확인하고, 확인된 거리를 기초로 가중치를 부여하여 기준 위치(410)를 가이드하는 정보를 제공할 수 있다. In an embodiment, when the mobile terminal 400 obtains an input related to user authentication, the mobile terminal 400 checks the distance between the obtained input and the reference position 410, and assigns a weight based on the checked distance to determine the reference position 410 Guiding information can be provided.
예를 들어, 입력이 제1 원(420)과 제2 원(430) 사이의 영역에서 획득되는 경우, 이동 단말기(400)는 제1 진동 또는 제1 소리를 제공할 수 있다. 입력이 제2 원(430)과 제3 원(440) 사이의 영역에서 획득되는 경우, 이동 단말기(400)는 제2 진동 또는 제2 소리을 제공할 수 있다. For example, when an input is acquired in a region between the first circle 420 and the second circle 430, the mobile terminal 400 may provide the first vibration or the first sound. When the input is acquired in the region between the second circle 430 and the third circle 440, the mobile terminal 400 may provide a second vibration or a second sound.
이 때, 제1 진동은 제1 가중치가 부여되고 제2 진동은 제2 가중치가 부여된 것으로 진동의 강도(또는 세기)가 다른 진동이거나 진동빈도가 다른 진동일 수 있다. 제1 소리는 제1 가중치가 부여되고 제2 소리는 제2 가중치가 부여된 것으로 소리의 크기가 다른 소리이거나 다른 음을 가지는 소리일 수 있다. 제1 가중치는 제2 가중치보다 작은 값일 수 있으나 이에 제한되지 않는다. In this case, the first vibration is assigned a first weight and the second vibration is assigned a second weight, and may be a vibration having a different intensity (or intensity) or a different vibration frequency. The first sound is assigned a first weight and the second sound is assigned a second weight, and may be a sound having a different loudness or a different sound. The first weight may be a value smaller than the second weight, but is not limited thereto.
실시예에 따라 이동 단말기(400)는 가이드하는 정보로서 기준 위치(410)와 입력이 획득된 위치까지의 거리 또는 거리 범위에 비례하여 진동 또는 소리를 제공할 수 있다. 이러한 경우, 입력이 기준 위치(410)에 가까울 수록 보다 작은 세기의 진동 또는 보다 작은 크기의 소리가 정보로서 제공될 수 있다. 거리 또는 거리 범위에 비례한 진동 또는 소리의 세기에 대한 보다 구체적인 예시는 이하 도 5 또는 도 6을 참조할 수 있다. According to an embodiment, the mobile terminal 400 may provide vibration or sound in proportion to a distance or distance range between the reference position 410 and the position at which the input is obtained as guide information. In this case, the closer the input is to the reference position 410, the smaller the intensity of vibration or the smaller the sound may be provided as information. For a more detailed example of the intensity of vibration or sound proportional to the distance or distance range, reference may be made to FIG. 5 or FIG. 6.
도 5 및 도 6은 본 발명의 일 실시예에 따른 이동 단말기에서 제공하는 알람 또는 진동을 설명하기 위한 도면이다. 구체적으로, 도 5 및 도 6은 입력 이격 거리에 대한 진동 또는 소리의 강도(또는 세기, 크기)를 나타낸다. 5 and 6 are diagrams for explaining an alarm or vibration provided by a mobile terminal according to an embodiment of the present invention. Specifically, FIGS. 5 and 6 show the intensity (or intensity, loudness) of vibration or sound with respect to the input separation distance.
이 때, 입력 이격 거리는 센서의 위치에 대응하는 디스플레이 상의 기준 위치와 사용자로부터 인가되는 입력이 획득되는 위치 사이의 이격 거리를 포함할 수 있다. 진동 또는 소리는 이동 단말기에 의해 제공되는 것일 수 있다. In this case, the input separation distance may include a separation distance between a reference position on the display corresponding to the position of the sensor and a position at which an input applied from the user is obtained. Vibration or sound may be provided by the mobile terminal.
도 5를 참조하면, 입력 이격 거리와 진동 또는 소리의 강도는 비례할 수 있다. 구체적으로, 입력 이격 거리가 증가할수록 진동 또는 소리의 강도가 증가할 수 있다. 이러한 경우 입력이 획득되는 위치가 기준 위치로부터 가까울수록 진동 또는 소리의 강도가 감소할 수 있다. 이에 따라, 이동 단말기는 강도가 감소되는 지점까지 사용자로 하여금 입력을 이동시키도록 유도함으로써 센서의 위치에 대응하는 디스플레이 상에 입력이 인가되도록 할 수 있다. Referring to FIG. 5, the input separation distance and the intensity of vibration or sound may be proportional. Specifically, as the input separation distance increases, the intensity of vibration or sound may increase. In this case, as the position at which the input is acquired is closer to the reference position, the intensity of vibration or sound may decrease. Accordingly, the mobile terminal induces the user to move the input to the point where the intensity is reduced, so that the input is applied on the display corresponding to the position of the sensor.
도 6을 참조하면, 진동 또는 소리의 강도는 이산적인 형태로 제공될 수 있다. 구체적으로, 진동 또는 소리의 강도는 입력 이격 거리의 범위가 기준 위치로부터 멀수록 증가하되 서로 구분되는(또는 불연속적인) 값으로 설정될 수 있다. 이 때, 입력 이격 거리의 범위는 기지정될 수 있다. Referring to FIG. 6, the intensity of vibration or sound may be provided in a discrete form. Specifically, the intensity of vibration or sound increases as the range of the input separation distance increases from the reference position, but may be set to a value that is distinct (or discontinuous) from each other. In this case, the range of the input separation distance may be determined.
실시예에서, 입력 이격 거리의 범위는 손가락 폭과 관련하여 기지정된 거리를 포함할 수 있다. 예를 들어, 성인의 엄지손가락 폭의 길이가 평균적으로 1.2cm라는 데이터에 기초하여, 입력 이격 거리의 범위는 1.2cm에 해당할 수 있다. 이러한 경우, 도 6의 σ는 1.2cm에 해당할 수 있다. In an embodiment, the range of the input separation distance may include a distance predetermined in relation to the finger width. For example, based on data that the average length of the thumb width of an adult is 1.2cm, the range of the input separation distance may correspond to 1.2cm. In this case, σ in FIG. 6 may correspond to 1.2 cm.
이러한 경우, 예를 들면, 기준 위치로부터 반경 1.2cm에 해당하는 부분에 입력이 인가되는 경우에는 제1 강도의 진동 또는 소리가 제공될 수 있다. 기준 위치로부터 반경 1.2cm 초과 2.4cm 이하에 해당하는 부분에 입력이 인가되는 경우에는 제2 강도의 진동 또는 소리가 제공될 수 있다. In this case, for example, when an input is applied to a portion corresponding to a radius of 1.2 cm from the reference position, vibration or sound of the first intensity may be provided. When an input is applied to a portion corresponding to a radius of more than 1.2 cm and less than 2.4 cm from the reference position, vibration or sound of a second intensity may be provided.
다른 예를 들면, 입력 이격 거리 범위에 따라 제공되는 소리의 음 또는 발화되는 음성의 형태가 상이할 수도 있다. 예를 들어, 기준 위치로부터 반경 1.2cm에 해당하는 부분에 입력이 인가되는 경우 이동 단말기는 '손가락 한마디 아래로 이동해주세요'라는 소리를 제공할 수 있다. 기준 위치로부터 반경 1.2cm 초과 2.4cm 이하에 해당하는 부분에 입력이 인가되는 경우에는 '손가락 두마디 아래로 이동해주세요'라는 소리를 제공할 수 있다. For another example, the sound of the provided sound or the form of the spoken sound may be different according to the input separation distance range. For example, when an input is applied to a portion corresponding to a radius of 1.2 cm from the reference position, the mobile terminal may provide a sound “Please move down a word of your finger”. When an input is applied to a part that is more than 1.2cm and less than 2.4cm in radius from the reference position, it can provide a sound saying'Please move under two fingers'.
한편, 도 5 및 도 6은 제공되는 정보의 형태의 일 예시일 뿐 이에 본 명세서가 제한되는 것은 아니다. Meanwhile, FIGS. 5 and 6 are only examples of the form of information provided, and the present specification is not limited thereto.
도 7은 본 발명의 일 실시예에 따른 이동 단말기의 블록도이다. 이하 후술되는 이동 단말기의 요소(element)는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 하드웨어나 소프트웨어, 또는, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 7 is a block diagram of a mobile terminal according to an embodiment of the present invention. An element of a mobile terminal, which will be described later, refers to a unit that processes at least one function or operation, and may be implemented as hardware or software, or a combination of hardware and software.
도 7를 참조하면, 이동 단말기(700)는 디스플레이(710), 프로세서(720), 스피커(730) 및 모터(740)를 포함할 수 있다. Referring to FIG. 7, the mobile terminal 700 may include a display 710, a processor 720, a speaker 730, and a motor 740.
디스플레이(710)는 이동 단말기(700)의 전면에 배치될 수 있다. 디스플레이(710)는 예를 들면 도 1의 디스플레이(151)에 대응하는 요소일 수 있다. 디스플레이(710)의 하단에는 생체 정보를 인식하는 센서가 배치될 수 있다. 즉, 센서에 중첩하여 디스플레이(710)가 배치될 수 있다. 이 때, 센서 보다 디스플레이(710)의 크기가 클 수 있으며 이에 따라 센서는 디스플레이(710)에 의해 가려져 보이지 않게 될 수 있다. The display 710 may be disposed in front of the mobile terminal 700. The display 710 may be, for example, an element corresponding to the display 151 of FIG. 1. A sensor for recognizing biometric information may be disposed under the display 710. That is, the display 710 may be disposed to overlap the sensor. In this case, the size of the display 710 may be larger than that of the sensor, and accordingly, the sensor may be covered by the display 710 so as not to be visible.
디스플레이(710) 하단에 배치되는 센서는 예를 들면 사용자의 지문을 인식하는 지문 인식 센서를 포함할 수 있으나, 이에 제한되는 것은 아니다. The sensor disposed under the display 710 may include, for example, a fingerprint recognition sensor that recognizes a user's fingerprint, but is not limited thereto.
실시예에서, 디스플레이(710)에는 센서의 위치를 가이드하는 정보가 표시될 수 있다. 예를 들어, 센서의 위치를 가이드하는 정보는 시각적인 정보로서, 지문의 형태를 가지는 아이콘(icon)(또는 컨텐츠)을 포함할 수 있다. 다른 예를 들면 센서의 위치를 가이드하는 정보는 센서의 위치에 대응하는 디스플레이 상의 특정 위치(예: 기준 위치)를 가리키는 화살표 모양의 아이콘일 수 있다. In an embodiment, information guiding the location of the sensor may be displayed on the display 710. For example, information guiding the location of the sensor is visual information, and may include an icon (or content) in the form of a fingerprint. For another example, the information guiding the location of the sensor may be an arrow-shaped icon indicating a specific location (eg, a reference location) on the display corresponding to the location of the sensor.
프로세서(720)는 사용자 인증 기능을 실행할 수 있다. 예를 들어, 프로세서(720)는 사용자 인증 어플리케이션의 실행 입력이 수신되면 사용자 인증 어플리케이션을 실행시킴으로서 사용자 인증 기능이 실행되도록 할 수 있다. The processor 720 may execute a user authentication function. For example, when an execution input of the user authentication application is received, the processor 720 may execute the user authentication application to execute the user authentication function.
프로세서(720)는 사용자 인증 기능의 실행에 대응하여 사용자로 하여금 사용자 인증을 수행하도록 유도하는 컨텐츠를 표시할 수 있다. 예를 들어, 프로세서(720)는 사용자 인증 기능이 실행되면 '지문을 인식해 주세요'라는 컨텐츠를 디스플레이(710)를 통해 표시할 수 있다. 다른 예를 들면, 프로세서(720)는 사용자 인증 기능이 실행되면 '지문을 인식해 주세요'라는 소리를 디스플레이(710)를 통해 출력할 수 있다.The processor 720 may display content that induces the user to perform user authentication in response to the execution of the user authentication function. For example, when the user authentication function is executed, the processor 720 may display content “Please recognize your fingerprint” through the display 710. For another example, when the user authentication function is executed, the processor 720 may output a sound “Please recognize your fingerprint” through the display 710.
프로세서(720)는 사용자 인증과 관련된 입력을 획득할 수 있다. 구체적으로, 프로세서(720)는 디스플레이(710)를 통해 사용자 인증과 관련된 입력을 획득할 수 있다. 여기서, 사용자 인증과 관련된 입력은 지문 인식을 위해 사용자의 손가락이 디스플레이(710)에 터치되는 터치 입력을 포함할 수 있다. 프로세서(720)는 터치 입력이 인가됨에 기초하여 사용자 인증과 관련된 입력을 획득할 수 있다. The processor 720 may obtain an input related to user authentication. Specifically, the processor 720 may obtain an input related to user authentication through the display 710. Here, the input related to user authentication may include a touch input in which a user's finger touches the display 710 for fingerprint recognition. The processor 720 may obtain an input related to user authentication based on the application of the touch input.
프로세서(720)는 입력이 획득되는 위치를 확인할 수 있다. 프로세서(720)는 입력이 인가됨에 기초하여 디스플레이(710) 상의 입력이 획득되는(또는 인가되는) 위치를 확인할 수 있다. The processor 720 may check the location where the input is obtained. The processor 720 may determine a location on the display 710 at which the input is obtained (or applied) based on the input being applied.
프로세서(720)는 사용자 인증과 관련된 입력이 획득된 위치가 사용자 인증과 관련하여 기지정된 위치(예: 도 4의 기준 위치(410))에 대응하는지 여부를 확인할 수 있다. 이를 기초로 프로세서(720)는 사용자 인증과 관련된 입력이 디스플레이(710) 상의 기지정된 위치에 인가된 것 인지를 확인할 수 있다. The processor 720 may check whether the location at which the input related to user authentication is obtained corresponds to a predetermined position (eg, the reference position 410 of FIG. 4) related to user authentication. Based on this, the processor 720 may check whether an input related to user authentication is applied to a predetermined position on the display 710.
이 때, 기지정된 위치는 생체 정보의 인식을 위한 센서의 위치에 대응하는 디스플레이 상의 특정 위치를 포함할 수 있다. 예를 들어, 기지정된 위치는 특정 위치를 포함하되 특정 위치를 중심으로 특정 반경을 가지는 영역을 포함할 수 있다. In this case, the predetermined position may include a specific position on the display corresponding to the position of a sensor for recognizing biometric information. For example, the predetermined position may include a specific position, but may include an area having a specific radius around the specific position.
프로세서(720)는 확인된 위치가 기지정된 위치에 대응하는지 여부에 대한 확인을 기초로 확인된 위치와 관련하여 기지정된 위치를 가이드(guide)하는 정보를 제공할 수 있다. 예를 들어, 프로세서(720)는 확인된 위치가 기지정된 위치에 포함되지 않는 경우, 기지정된 위치로 사용자의 입력이 인가되도록 가이드하는 정보를 제공할 수 있다. 이 때, 제공되는 정보의 형태는 미리 지정되어 있을 수 있으며, 예를 들어 진동, 소리 또는 컨텐츠 중 적어도 일부를 포함할 수 있다.The processor 720 may provide information for guiding a predetermined location in relation to the identified location based on confirmation as to whether the identified location corresponds to the predetermined location. For example, when the identified location is not included in the predetermined location, the processor 720 may provide information for guiding the user's input to be applied to the predetermined location. In this case, the type of information provided may be predetermined, and may include, for example, at least some of vibration, sound, or content.
실시예에서, 프로세서(720)는 확인된 위치가 기지정된 위치와 상이하거나 확인된 위치가 기지정된 위치에 포함되지 않는 경우, 기지정된 위치를 중심으로 하며 서로 다른 지름을 가지는 원을 기준으로 구분되는 영역 중 확인된 위치가 포함되는 영역을 확인할 수 있다. 프로세서(720)는 확인된 영역에 기초한 설정으로 상기 사용자 인증과 관련하여 상기 기지정된 위치를 가이드하는 정보를 제공할 수 있다. In an embodiment, when the identified position is different from the predetermined position or the confirmed position is not included in the predetermined position, the processor 720 is based on a circle having a different diameter and is centered on the predetermined position. Among the areas, you can check the area including the identified location. The processor 720 may provide information for guiding the predetermined location in connection with the user authentication by setting based on the identified area.
예를 들어, 프로세서(720)는 확인된 위치가 기지정된 위치와 상이한 경우, 디스플레이(710)의 구분된 영역 중 확인된 위치가 속하는 영역을 확인할 수 있다. 프로세서(720)는 확인된 영역에 대응하는 설정에 기초하여 기지정된 위치를 가이드하는 정보를 제공할 수 있다. For example, when the identified location is different from the predetermined location, the processor 720 may check an area to which the identified location belongs among the divided areas of the display 710. The processor 720 may provide information for guiding a predetermined location based on a setting corresponding to the identified area.
가이드하는 정보는 입력이 확인된 위치로부터 기지정된 위치까지 이동하기 위한 방향 및 거리 중 적어도 하나에 대한 정보를 포함할 수 있다. 가이드하는 정보는 예를 들면 소리, 텍스트, 아이콘, 진동 및 햅틱 모션 중 적어도 하나를 이용하여 제공될 수 있다. The guided information may include information on at least one of a direction and a distance for moving from a location where the input is confirmed to a predetermined location. The guiding information may be provided, for example, using at least one of sound, text, icon, vibration, and haptic motion.
확인된 영역에 대응하는 설정은 예를 들면 특정 강도의 진동, 특정 크기의 소리 또는 기지정된 컨텐츠를 포함할 수 있다. 특정 강도 및 특정 크기 각각은, 예를 들면 확인된 위치와 기지정된 위치 사이의 거리 또는 거리 범위를 기초로 결정될 수 있다. 거리 범위는 기지정된 위치로부터 기설정된 범위의 간격을 기초로 복수로 구획되는 것일 수 있다. 이러한 경우 거리 범위의 값이 증가할수록 특정 강도 또는 특정 크기도 증가할 수 있으나 이에 제한되지 않으며, 예를 들어 감소하는 형태로 나타날 수도 있다.The setting corresponding to the identified area may include, for example, vibration of a specific intensity, sound of a specific loudness, or predetermined content. Each of the specific strength and specific size may be determined based on, for example, a distance or range of distances between an identified location and a predetermined location. The distance range may be divided into a plurality based on an interval of a preset range from a predetermined position. In this case, as the value of the distance range increases, the specific strength or the specific size may increase, but is not limited thereto, and may be, for example, decreased.
확인된 영역에 대응하는 설정은 다른 예를 들면 영역 별 지정된 가중치에 대한 정보를 포함할 수 있다. 이러한 경우, 제1 영역 내에서 입력이 확인된 경우 제1 가중치를 부여하여 제1 정보를 제공하고, 제2 영역 내에서 입력이 확인된 경우 제2 가중치를 부여하여 제2 정보를 제공할 수 있다. 이에 따라 입력이 확인된 위치 기반의 정보가 제공될 수 있다. The setting corresponding to the identified region may include, for example, information on a weight designated for each region. In this case, when an input is confirmed within the first area, a first weight is assigned to provide first information, and when an input is confirmed within the second area, a second weight is assigned to provide second information. . Accordingly, information based on the location where the input is confirmed may be provided.
실시예에서, 프로세서(720)는 확인된 위치가 기지정된 위치와 상이한 경우 확인된 위치와 기지정된 위치의 거리 및 확인된 위치로부터 기지정된 위치를 향하는 방향 중 적어도 하나에 대한 정보를 확인할 수 있다. 이를 기초로 프로세서(720)는 확인된 위치로부터 기지정된 위치를 가이드하는 정보를 제공할 수 있다. In an embodiment, when the identified location is different from the predetermined location, the processor 720 may check information on at least one of a distance between the identified location and the predefined location, and a direction from the identified location toward the predefined location. Based on this, the processor 720 may provide information for guiding a predetermined location from the identified location.
가이드하는 정보는 거리에 대한 정보 또는 방향에 대한 정보를 포함할 수 있다. 거리에 대한 정보는 강도 또는 세기가 다르게 나타나는 형태의 정보를 포함할 수 있으며, 예를 들어 특정 강도의 진동 또는 특정 크기의 소리를 포함할 수 있다. The guided information may include information about a distance or information about a direction. The information on the distance may include information in a form in which the intensity or intensity is different, and for example, may include vibration of a specific intensity or sound of a specific loudness.
방향에 대한 정보는 방향성을 가지는 정보로서 예를 들면 방향을 나타내는 진동. 방향을 나타내는 컨텐츠(예: 화살표), 방향에 대한 용어(예: 오른쪽, 왼쪽, 6시 방향)가 포함된 텍스트나 소리(예: '오른쪽으로 이동하세요')를 포함할 수 있다. 여기서, 방향을 나타내는 진동은 복수의 햅틱 모션에 기초하여 생성되는 방향을 가지는 진동을 포함할 수 있다. 방향을 가지는 진동은 이동 단말기(700)에 포함되는 복수의 모터의 구동 시간 또는 구동 세기를 조절함으로써 생성되는 것으로 구체적인 실시예는 도 11을 참조할 수 있다. The information on the direction is information having directionality, for example, vibration indicating the direction. It may include content indicating a direction (eg, an arrow), text or sound (eg,'Move to the right') including terms for the direction (eg, right, left, 6 o'clock). Here, the vibration indicating the direction may include vibration having a direction generated based on a plurality of haptic motions. Vibration having a direction is generated by adjusting a driving time or driving intensity of a plurality of motors included in the mobile terminal 700, and a specific embodiment may be referred to FIG. 11.
프로세서(720)는 사용자 인증과 관련된 기능이 실행되면, 사용자 인증의 유형을 확인할 수 있다. 사용자 인증의 유형은 예를 들면 결제와 관련된 유형, 이동 단말기(400)의 잠금 화면의 해제와 관련된 유형 및 특정 웹사이트에 대한 본인 인증과 관련된 유형 중 적어도 하나를 포함할 수 있다. When a function related to user authentication is executed, the processor 720 may check the type of user authentication. The type of user authentication may include at least one of, for example, a type related to payment, a type related to unlocking the lock screen of the mobile terminal 400, and a type related to identity authentication for a specific website.
실시예에서, 프로세서(720)는 사용자 인증 기능을 제공하는 어플리케이션이 실행되면 직전에 실행된 어플리케이션 또는 병렬적으로 실행되는 어플리케이션을 식별하거나 사용자 인증을 트리거하는 신호를 식별하여, 사용자 인증의 유형이 결제와 관련된 유형인지 또는 잠금 해제와 관련된 유형인지를 확인할 수 있다. In an embodiment, when an application providing a user authentication function is executed, the processor 720 identifies an application that has been executed immediately before or an application that is executed in parallel, or identifies a signal that triggers user authentication, and the type of user authentication is settled. You can check whether it is a type related to or unlocking.
예를 들어, 프로세서(720)는 쇼핑 어플리케이션이 실행 중인 상태에서 사용자 인증 기능이 실행되면 사용자 인증의 유형은 결제와 관련된 것으로 확인할 수 있다. 다른 예를 들면, 프로세서(720)는 홈 화면의 잠금 상태에서 입력이 수신됨에 기초하여 사용자 인증 기능이 실행되면 사용자 인증의 유형은 잠금 해제와 관련된 것으로 확인할 수 있다. 또 다른 예를 들면, 프로세서(720)는 결제 서버로부터 신호가 수신됨에 기초하여 사용자 인증 기능이 실행되면 사용자 인증의 유형은 결제와 관련된 것으로 확인할 수 있다. 이 때, 어플리케이션, 입력 또는 신호 별 유형에 대한 정보는 미리 지정될 수 있다. For example, when the user authentication function is executed while the shopping application is running, the processor 720 may determine that the type of user authentication is related to payment. For another example, when the user authentication function is executed based on an input being received while the home screen is locked, the processor 720 may determine that the type of user authentication is related to unlocking. For another example, when a user authentication function is executed based on a signal received from a payment server, the processor 720 may determine that the type of user authentication is related to payment. In this case, information on types of applications, inputs, or signals may be pre-designated.
실시예에서, 프로세서(720)는 사용자 인증의 유형을 반영하여 가이드하는 정보를 제공할 수 있다. 프로세서(720)는 제1 유형의 사용자 인증인 경우에는 가이드하는 정보에 제1 유형임을 나타내는 제1 정보를 추가하여 제공하고 제2 유형의 사용자 인증인 경우에는 제2 유형임을 나타내는 제2 정보를 추가하여 제공할 수 있다. 제1 정보 및 제2 정보는 기지정된 것일 수 있으며, 예를 들어 서로 다른 음을 가지는 소리, 서로 다른 색을 가지는 컨텐츠 또는 서로 다른 텍스트를 포함할 수 있다. 구체적인 예는 도 9를 참조할 수 있다.In an embodiment, the processor 720 may provide guiding information by reflecting the type of user authentication. In the case of the first type of user authentication, the processor 720 adds and provides first information indicating the first type to the guiding information, and in the case of the second type of user authentication, adds second information indicating the second type. Can be provided. The first information and the second information may be predetermined, and may include, for example, sounds having different sounds, contents having different colors, or different texts. For a specific example, refer to FIG. 9.
스피커(730)는 소리를 출력하는 요소일 수 있다. 예를 들어 가이드하는 정보가 소리로 제공되는 경우, 스피커(730)는 소리를 출력할 수 있다. The speaker 730 may be an element that outputs sound. For example, when guiding information is provided as sound, the speaker 730 may output sound.
모터(740)는 진동을 생성할 수 있다. 구체적으로, 모터(740)는 특정 주기를 가지고 구동됨에 기초하여 이동 단말기(700)의 진동을 생성할 수 있다. 모터(740)는 구동 패턴 또는 구동 세기가 조정됨에 기초하여 다른 유형의 진동을 제공할 수 있다. The motor 740 may generate vibration. Specifically, the motor 740 may generate vibration of the mobile terminal 700 based on being driven with a specific period. The motor 740 may provide other types of vibration based on the adjustment of the driving pattern or driving intensity.
경우에 따라, 모터(740)는 햅틱을 제공하는 햅틱 모터를 포함할 수 있다. 여기서, 햅틱은 촉각, 힘 또는 운동감을 느끼게 하는 기술로서 이에 대해서는 통상의 기술자에게 용이한바 구체적인 설명은 생략하겠다. In some cases, the motor 740 may include a haptic motor that provides haptics. Here, the haptic is a technology that makes a sense of touch, force, or motion feel, and a detailed description thereof will be omitted since it is easy for a person skilled in the art.
실시예에서, 모터(740)는 복수의 모터를 포함할 수 있다. 복수의 모터는 이동 단말기(700)의 서로 다른 위치에 배치될 수 있고, 이를 통해 구동 시점을 조절함으로써 진동이 이동 단말기(700)의 제1 위치에서 제2 위치로 이동하는 듯한 느낌을 제공할 수 있다. 모터의 배치 및 이와 관련된 구체적인 예는 도 11을 참조할 수 있다. In an embodiment, the motor 740 may include a plurality of motors. The plurality of motors may be disposed at different positions of the mobile terminal 700, and by adjusting the driving time through this, the vibration may provide a feeling as if moving from the first position to the second position of the mobile terminal 700. have. The arrangement of the motor and a specific example related thereto may be referred to FIG. 11.
도 8은 본 발명의 일 실시예에 따른 이동 단말기의 제어 방법의 각 단계의 흐름을 나타내는 흐름도이다. 도 8에 도시된 방법의 각 단계는 경우에 따라 도면에 도시된 바와 그 순서를 달리하여 수행될 수 있음은 물론이다. 8 is a flowchart showing the flow of each step of a method for controlling a mobile terminal according to an embodiment of the present invention. It goes without saying that each step of the method illustrated in FIG. 8 may be performed in a different order as illustrated in the drawings depending on the case.
도 8을 참조하면, 이동 단말기는 사용자 인증과 관련된 입력을 획득할 수 있다(810). 구체적으로, 이동 단말기는 사용자 인증 기능의 실행에 대응하여 사용자로부터 인가되는 사용자 인증과 관련된 입력을 획득할 수 있다. 사용자 인증과 관련된 입력은, 예를 들면 손가락의 지문이 위치하는 면이 닿는 터치 입력을 포함할 수 있다. Referring to FIG. 8, the mobile terminal may obtain an input related to user authentication (810). Specifically, the mobile terminal may obtain an input related to user authentication that is authorized from the user in response to the execution of the user authentication function. The input related to user authentication may include, for example, a touch input touching a surface on which a fingerprint of a finger is located.
이동 단말기는 입력이 획득되는 위치를 확인할 수 있다(820). 예를 들어, 이동 단말기는 디스플레이 상에 터치 입력이 인가되면, 터치 입력이 인가된 위치를 확인할 수 있다. The mobile terminal may check the location where the input is obtained (820 ). For example, when a touch input is applied on the display, the mobile terminal can check the location where the touch input is applied.
이동 단말기는 확인된 위치가 사용자 인증과 관련하여 기지정된 위치에 대응하는지 여부를 확인할 수 있다(830). 이동 단말기는 입력이 획득되는 위치가 사용자 인증을 위해 기지정된 위치에 포함되는지 여부를 확인할 수 있다. The mobile terminal may check whether the identified location corresponds to a location determined in connection with user authentication (830 ). The mobile terminal may check whether the location at which the input is obtained is included in the location designated for user authentication.
기지정된 위치는 사용자 인증을 위한 생체 정보를 획득하는 센서가 배치된 위치에 대응하는 디스플레이 상의 위치를 포함할 수 있다. 즉, 기지정된 위치는 디스플레이의 하단에 센서가 배치되는 경우 센서의 위치에 해당하는 디스플레이 상의 특정 위치를 포함할 수 있다. The predetermined location may include a location on the display corresponding to a location in which a sensor for acquiring biometric information for user authentication is disposed. That is, the predetermined position may include a specific position on the display corresponding to the position of the sensor when the sensor is disposed at the bottom of the display.
센서는 예를 들면 지문 인식 센서를 포함할 수 있으나 이에 제한되는 것은 아니고, 정맥 인식 센서 등과 같은 다양한 센서를 포함할 수도 있다. The sensor may include, for example, a fingerprint recognition sensor, but is not limited thereto, and may include various sensors such as a vein recognition sensor.
실시예에서, 이동 단말기는 확인된 위치가 기지정된 위치로부터 특정 거리 범위 내에 포함되는지 여부를 확인할 수 있다. 이 때, 특정 거리 범위는 사용자 인증을 위해 사용자 정보의 획득이 가능한 범위로 기지정된 것일 수 있다. In an embodiment, the mobile terminal may check whether the identified location is within a specific distance range from the predetermined location. In this case, the specific distance range may be a range in which user information can be obtained for user authentication.
실시예에서, 이동 단말기는 위치가 확인되면 기지정된 위치로부터 특정 거리 간격을 가지도록 기지정된 원의 영역 중 확인된 위치가 속하는 영역을 결정할 수 있다. 이동 단말기는 결정된 영역을 확인하여 확인된 위치가 사용자 인증과 관련하여 기지정된 위치에 대응하는지 여부를 확인할 수 있다. 예를 들어, 이동 단말기는 기지정된 위치로부터 가장 가까운 제1 원 내의 영역에 확인된 위치가 포함되는 경우 확인된 위치가 사용자 인증과 관련하여 기지정된 위치에 대응하는 것으로 결정할 수 있다. 이동 단말기는 기지정된 위치로부터 가장 가까운 제1 원 내의 영역에 확인된 위치가 포함되지 않는 경우 확인된 위치가 사용자 인증과 관련하여 기지정된 위치에 대응하지 않는 것으로 결정할 수 있다. In an embodiment, when the location is confirmed, the mobile terminal may determine an area to which the identified location belongs among the areas of a predetermined circle so as to have a specific distance interval from the predetermined location. The mobile terminal may check the determined area to determine whether the identified location corresponds to a predetermined location in connection with user authentication. For example, the mobile terminal may determine that the identified location corresponds to a predetermined location in connection with user authentication when the identified location is included in an area within the first circle closest to the predetermined location. When the identified location is not included in the area within the first circle closest to the predetermined location, the mobile terminal may determine that the identified location does not correspond to the predetermined location in connection with user authentication.
이동 단말기는 사용자 인증과 관련하여 기지정된 위치로 가이드하는 정보를 제공할 수 있다(840). 이동 단말기는 확인된 위치와 관련하여 기지정된 위치를 가이드하는 정보를 제공할 수 있다. 구체적으로, 이동 단말기는 단계 830을 통해 확인된 입력의 위치가 기지정된 위치에 포함되지 않는 경우, 사용자 인증을 위한 입력을 다시 요청하되 다시 인가될 입력이 기지정된 위치에 인가되도록 기지정된 위치를 가이드하는 정보를 제공할 수 있다. The mobile terminal may provide information guiding to a predetermined location in connection with user authentication (840). The mobile terminal may provide information for guiding a predetermined location in relation to the identified location. Specifically, if the location of the input checked through step 830 is not included in the predetermined location, the mobile terminal requests the input for user authentication again, but guides the predetermined location so that the input to be reapplied is applied to the predetermined location. You can provide the information you want.
이동 단말기는 소리, 텍스트, 아이콘, 진동 및 햅틱 모션 중 적어도 하나를 이용하여 가이드하는 정보를 제공할 수 있다. 다만 가이드하는 정보는 이에 제한되는 것은 아니며 이들의 조합 또는 다른 유형의 정보를 기초로 제공될 수도 있음은 물론이다. The mobile terminal may provide guide information using at least one of sound, text, icon, vibration, and haptic motion. However, the guide information is not limited thereto, and may be provided based on a combination of these or other types of information.
실시예에서, 이동 단말기는 확인된 입력의 위치가 기지정된 위치에 대응하지 않는 경우, 확인된 입력의 위치와 기지정된 위치의 차이를 확인할 수 있다. 이동 단말기는 확인된 차이에 대응하여 기지정된 정보를 제공할 수 있다. 기지정된 정보는 상술한 가이드하는 정보로서, 예를 들면 특정 강도의 진동 또는 특정 크기의 소리를 포함할 수 있다. In an embodiment, when the location of the identified input does not correspond to the predetermined location, the mobile terminal may check the difference between the location of the identified input and the predetermined location. The mobile terminal can provide predetermined information in response to the identified difference. The predetermined information is the above-described guide information, and may include, for example, vibration of a specific intensity or sound of a specific loudness.
이 때, 특정 강도 또는 특정 크기는 확인된 입력의 위치와 기지정된 위치의 거리 차이에 기초하여 지정된 것일 수 있다. 예를 들어, 특정 강도 또는 특정 크기는 확인된 입력의 위치와 기지정된 위치의 거리 길이에 비례하여 지정된 것일 수 있다. In this case, the specific strength or specific size may be designated based on a distance difference between the location of the identified input and the predetermined location. For example, a specific intensity or a specific size may be designated in proportion to the location of the identified input and the distance length of the predetermined location.
실시예에서, 이동 단말기는 기지정된 위치로부터 특정 거리 간격을 가지도록 기지정된 원의 영역 중 확인된 위치가 속하는 영역을 확인하고, 확인된 영역에 대응하여 기지정된 설정에 따라 가이드하는 정보를 제공할 수 있다. 예를 들어, 이동 단말기는 기지정된 위치를 중심으로 1.0cm 반경을 가지는 제1 원과 2.0cm의 반경을 가지는 제2 원 사이의 영역에 확인된 위치가 포함되는 경우 제1 정보를 제공할 수 있다. 이동 단말기는 기지정된 위치를 중심으로 2.0cm 반경을 가지는 제2 원과 3.0cm의 반경을 가지는 제3 원 사이의 영역에 확인된 위치가 포함되는 경우 제2 정보를 제공할 수 있다. In an embodiment, the mobile terminal checks the area to which the identified location belongs among the areas of the predetermined circle to have a specific distance interval from the predetermined location, and provides information to guide according to the predetermined setting corresponding to the identified area. I can. For example, the mobile terminal may provide the first information when the identified location is included in an area between a first circle having a radius of 1.0 cm and a second circle having a radius of 2.0 cm around the predetermined location. . The mobile terminal may provide the second information when the identified location is included in an area between the second circle having a radius of 2.0 cm and the third circle having a radius of 3.0 cm around the predetermined location.
여기서, 제1 정보와 제2 정보는 미리 지정된 정보일 수 있다. 예를 들어 제1 정보는 제1 강도의 진동을 포함하고, 제2 정보는 제2 강도의 진동을 포함할 수 있고, 제1 강도는 제2 강도 미만일 수 있다. Here, the first information and the second information may be predetermined information. For example, the first information may include a vibration of a first intensity, the second information may include a vibration of a second intensity, and the first intensity may be less than the second intensity.
경우에 따라, 이동 단말기는 확인된 위치의 좌표를 확인하고 기지정된 위치의 좌표와 비교하여 확인된 위치로부터 기지정된 위치를 향하는 방향을 결정할 수 있다. 이러한 경우, 이동 단말기는 가이드하는 정보로서 방향에 대한 정보를 제공할 수 있다. 방향에 대한 정보는 방향성을 가지는 정보로서 예를 들면 방향을 나타내는 진동. 방향을 나타내는 컨텐츠(예: 화살표), 방향에 대한 용어가 포함된 텍스트나 소리(예: '오른쪽으로 이동하세요')를 포함할 수 있다. In some cases, the mobile terminal may check the coordinates of the identified location and compare it with the coordinates of the predetermined location to determine a direction from the identified location to the known location. In this case, the mobile terminal may provide information on a direction as guiding information. The information on the direction is information having directionality, for example, vibration indicating the direction. Content indicating a direction (eg, an arrow), text or sound including a term for a direction (eg,'Move to the right') may be included.
한편, 방향에 대한 정보는 독립적인 형태의 가이드하는 정보로서 제공될 수 있으나, 이에 제한되는 것은 아니고 거리에 대한 정보와 함께 가이드하는 정보로서 제공될 수 있다. 여기서, 거리에 대한 정보는 방향성을 가지지 않는 정보를 포함할 수 있으며, 예를 들어 특정 강도의 진동 또는 특정 크기의 소리를 포함할 수 있다. Meanwhile, the information on the direction may be provided as guiding information in an independent form, but is not limited thereto, and may be provided as guiding information together with the information on the distance. Here, the information on the distance may include information that does not have directionality, and may include, for example, vibration of a specific intensity or sound of a specific loudness.
실시예에서, 이동 단말기는 확인된 입력의 위치가 기지정된 위치에 대응하지 않는 경우, 확인된 입력의 위치로부터 기지정된 위치를 향하는 방향을 확인할 수 있다. 이동 단말기는 확인된 방향에 대한 정보를 제공할 수 있다. 확인된 방향은 다양한 방식(예: 7시 방향, 오른쪽)으로 표현될 수 있다. 또한 확인된 방향에 대한 정보는 다양한 형태 예를 들어, 이동 단말기는 '7시 방향으로 손가락을 이동하세요'라는 소리 또는 텍스트의 형태로 제공될 수 있다. In an embodiment, when the location of the identified input does not correspond to the predetermined location, the mobile terminal may check a direction from the location of the identified input toward the predetermined location. The mobile terminal can provide information on the identified direction. The identified direction can be expressed in various ways (eg, 7 o'clock, right). In addition, the information on the identified direction may be provided in various forms, for example, in the form of a sound or text saying'Move your finger to the 7 o'clock direction'.
실시예에 따라, 이동 단말기는 확인된 입력의 위치와 기지정된 위치의 거리 차이 및 확인된 입력의 위치로부터 기지정된 위치를 향하는 방향을 확인하고, 이를 기초로 가이드하는 정보를 제공할 수 있다. 일 예로, 이동 단말기는 특정 방향으로 특정 거리만큼 이동하도록 하는 정보를 제공할 수 있다. According to an embodiment, the mobile terminal may identify a difference in distance between the location of the identified input and the predetermined location, and a direction from the location of the identified input toward the predetermined location, and provide guide information based thereon. For example, the mobile terminal may provide information to move in a specific direction by a specific distance.
구체적으로 예를 들면, 이동 단말기는 '7시 방향으로 손가락 2마디만큼 이동하세요'라는 소리를 가이드하는 정보로서 제공할 수 있다. 다른 예를 들면, 이동 단말기는 특정 세기를 가지며 특정 방향으로 이동하도록 하는 진동을 가이드하는 정보로서 제공할 수 있다. Specifically, for example, the mobile terminal may provide information that guides a sound “Move two fingers in the direction of 7 o'clock”. For another example, the mobile terminal may provide information that guides vibrations that have a specific intensity and move in a specific direction.
실시예에서, 이동 단말기는 사용자 인증과 관련된 기능이 실행되면, 사용자 인증의 유형을 확인할 수 있다. 사용자 인증의 유형은 예를 들면 결제와 관련된 유형, 이동 단말기의 잠금 화면의 해제와 관련된 유형 및 특정 웹사이트에 대한 본인 인증과 관련된 유형 중 적어도 하나를 포함할 수 있다. In an embodiment, when a function related to user authentication is executed, the mobile terminal may check the type of user authentication. The type of user authentication may include, for example, at least one of a type related to payment, a type related to unlocking the lock screen of the mobile terminal, and a type related to identity authentication for a specific website.
예를 들면, 이동 단말기는 사용자 인증 기능을 제공하는 어플리케이션이 실행되면 직전에 실행된 어플리케이션 또는 병렬적으로 실행되는 어플리케이션을 식별하거나 사용자 인증을 트리거하는 신호를 식별하여, 사용자 인증의 유형이 결제와 관련된 유형인지 또는 잠금 해제와 관련된 유형인지를 확인할 수 있다. For example, when an application that provides a user authentication function is executed, the mobile terminal identifies an application that was executed immediately before or an application that is executed in parallel, or identifies a signal that triggers user authentication, so that the type of user authentication is related to payment. You can check whether it is a type or related to unlocking.
보다 구체적으로 예를 들면, 이동 단말기는 쇼핑 어플리케이션이 실행 중인 상태에서 사용자 인증 기능이 실행되면 사용자 인증의 유형은 결제와 관련된 것으로 확인할 수 있다. 다른 예를 들면, 이동 단말기는 홈 화면의 잠금 상태에서 입력이 수신됨에 기초하여 사용자 인증 기능이 실행되면 사용자 인증의 유형은 잠금 해제와 관련된 것으로 확인할 수 있다. 또 다른 예를 들면, 이동 단말기는 결제 서버로부터 신호가 수신됨에 기초하여 사용자 인증 기능이 실행되면 사용자 인증의 유형은 결제와 관련된 것으로 확인할 수 있다. 이 때, 어플리케이션, 입력 또는 신호 별 유형에 대한 정보는 미리 지정될 수 있다. More specifically, for example, when the user authentication function is executed while the shopping application is running, the mobile terminal may confirm that the type of user authentication is related to payment. For another example, when a user authentication function is executed based on an input being received while the home screen is locked, the mobile terminal may determine that the type of user authentication is related to unlocking. For another example, when a user authentication function is executed based on a signal being received from a payment server, the mobile terminal may confirm that the type of user authentication is related to payment. In this case, information on types of applications, inputs, or signals may be pre-designated.
실시예에서, 이동 단말기는 사용자 인증의 유형을 반영하여 가이드하는 정보를 제공할 수 있다. 이동 단말기는 제1 유형의 사용자 인증인 경우에는 가이드하는 정보에 제1 유형임을 나타내는 제1 정보를 추가하여 제공하고 제2 유형의 사용자 인증인 경우에는 제2 유형임을 나타내는 제2 정보를 추가하여 제공할 수 있다. 제1 정보 및 제2 정보는 기지정된 것일 수 있으며, 예를 들어 서로 다른 음을 가지는 소리, 서로 다른 색을 가지는 컨텐츠 또는 서로 다른 텍스트를 포함할 수 있다. 구체적인 예는 도 9를 참조할 수 있다. In an embodiment, the mobile terminal may provide guiding information by reflecting the type of user authentication. In the case of the first type of user authentication, the mobile terminal provides the guiding information by adding the first information indicating the first type, and in the case of the second type of user authentication, the second information indicating the second type is added and provided. can do. The first information and the second information may be predetermined, and may include, for example, sounds having different sounds, contents having different colors, or different texts. For a specific example, refer to FIG. 9.
도 9는 본 발명의 일 실시예에 따른 이동 단말기에 나타나는 화면의 예를 나타내는 도면이다. 구체적으로, 도 9는 사용자 인증의 유형이 결제와 관련된 유형인 경우에 이동 단말기에 나타나는 화면의 예를 나타낸다. 9 is a diagram illustrating an example of a screen displayed on a mobile terminal according to an embodiment of the present invention. Specifically, FIG. 9 shows an example of a screen displayed on a mobile terminal when the type of user authentication is a type related to payment.
도 9를 참조하면, 사용자 인증은 결제와 관련된 유형임에 기초하여 결제 대상인 카드에 대한 정보(910)가 표시될 수 있다. 카드에 대한 정보(910)에 기초하여 결제를 수행할 카드가 선택되면 사용자 인증이 요청될 수 있다. Referring to FIG. 9, based on the user authentication being a payment-related type, information 910 on a card to be paid may be displayed. When a card to perform payment is selected based on the information 910 on the card, user authentication may be requested.
이 때, 사용자 인증은 지문 인식에 기반한 인증일 수 있다. 이러한 경우, 사용자의 지문이 지문 센서에 터치됨에 의해 사용자 인증이 수행될 수 있다. 지문 센서는 사용자 인증과 관련하여 기지정된 위치(920)에 대응하여 디스플레이 하단에 배치될 수 있으며, 이러한 경우 사용자의 지문은 기지정된 위치(920)에 터치될 필요가 있다. In this case, the user authentication may be authentication based on fingerprint recognition. In this case, user authentication may be performed by touching the user's fingerprint to the fingerprint sensor. The fingerprint sensor may be disposed at the bottom of the display corresponding to the predetermined position 920 in connection with user authentication, and in this case, the user's fingerprint needs to be touched at the predetermined position 920.
이동 단말기는 사용자 인증이 요청됨에 대응하여 인가되는 사용자 입력을 획득할 수 있다. 이 때, 사용자 입력은 터치 입력을 포함할 수 있다. 이동 단말기는 사용자 입력이 획득된 위치가 기지정된 위치(920)에 대응하는지 여부를 확인할 수 있다. The mobile terminal may obtain an authorized user input in response to a user authentication request. In this case, the user input may include a touch input. The mobile terminal may check whether the location from which the user input is obtained corresponds to the predetermined location 920.
사용자 입력이 획득된 위치가 기지정된 위치(920)에 대응하지 않는 경우, 사용자 입력을 재요청하면서 이에 대응하여 인가되는 사용자 입력이 기지정된 위치(920)에 인가되도록 가이드하는 정보가 제공될 수 있다. When the location from which the user input is obtained does not correspond to the predetermined location 920, information for guiding the user input to be applied to the predetermined location 920 may be provided while requesting the user input again. .
가이드하는 정보는 사용자 입력이 획득된 위치와 기지정된 위치와의 차이를 기초로 제공될 수 있으며, 이에 대해서는 앞서 상술한바 구체적인 설명은 생략하겠다. 이에 더하여, 가이드하는 정보는 사용자 인증의 유형과 관련한 정보를 더 제공할 수 있다. The information to be guided may be provided based on a difference between a location at which a user input is obtained and a predetermined location, and a detailed description thereof will be omitted as described above. In addition, the guiding information may further provide information related to the type of user authentication.
사용자 인증의 유형과 관련한 정보는 사용자 인증의 유형 별로 기지정된 정보로서, 예를 들면 특정 색(예: 빨간색) 또는 특정 모양(예: 화살표)을 가지는 컨텐츠(930)를 더 포함할 수 있다. 다만, 이에 제한되는 것은 아니며 예를 들어 특정 소리 또는 특정 텍스트가 제공될 수도 있다. The information related to the type of user authentication is information predetermined for each type of user authentication, and may further include, for example, content 930 having a specific color (eg, red) or a specific shape (eg, an arrow). However, the present invention is not limited thereto, and for example, a specific sound or specific text may be provided.
도 10은 본 발명의 일 실시예에 따른 이동 단말기에 나타나는 화면의 다른 예를 나타내는 도면이다. 구체적으로, 도 10은 사용자 인증의 유형이 잠금 해제와 관련된 유형인 경우에 이동 단말기에 나타나는 화면의 예를 나타낸다. 10 is a diagram illustrating another example of a screen displayed on a mobile terminal according to an embodiment of the present invention. Specifically, FIG. 10 shows an example of a screen displayed on a mobile terminal when the type of user authentication is a type related to unlocking.
도 10을 참조하면, 사용자 인증이 잠금 해제와 관련된 유형인 경우, 이동 단말기는 사용자 인증을 위한 센서의 위치에 대응하는 기지정된 위치(1010)로 가이드하는 정보를 표시할 수 있다. Referring to FIG. 10, when user authentication is a type related to unlocking, the mobile terminal may display information guiding to a predetermined position 1010 corresponding to a position of a sensor for user authentication.
사용자 인증이 잠금 해제와 관련된 유형인 경우에 제공되는 정보는, 도 9에서 설명한 사용자 인증이 결제와 관련된 유형인 경우에 표시되는 정보와 적어도 일부가 상이할 수 있다. Information provided when user authentication is a type related to unlocking may be at least partially different from information displayed when user authentication described in FIG. 9 is a type related to payment.
예를 들어, 사용자 인증이 잠금 해제와 관련된 유형인 경우 이동 단말기는 복수의 원(1020, 1030, 1040)이 디스플레이 상에 표시되도록 함으로써, 사용자 인증은 잠금 해제와 관련된 유형임을 나타낼 수 있다. For example, when user authentication is a type related to unlocking, the mobile terminal displays a plurality of circles 1020, 1030, and 1040 on the display, thereby indicating that the user authentication is a type related to unlocking.
다만, 이에 제한되는 것은 아니고, 도 10에 도시된 것과 같은 진동 또는 소리의 형태로 가이드하는 정보가 제공될 수도 있음은 물론이다. However, the present invention is not limited thereto, and of course, information guiding in the form of vibration or sound as illustrated in FIG. 10 may be provided.
도 11은 본 발명의 일 실시예에 따른 이동 단말기가 방향성 햅틱 모션을 제공하는 경우를 설명하기 위한 도면이다. 이하 후술하는 복수의 모터(1101, 1102, 1103, 1104)는 도 1a에서 설명한 햅틱 모듈(153)에 포함될 수 있다. 11 is a diagram for describing a case in which a mobile terminal provides a directional haptic motion according to an embodiment of the present invention. A plurality of motors 1101, 1102, 1103, and 1104 described below may be included in the haptic module 153 described with reference to FIG. 1A.
도 11을 참조하면, 이동 단말기는 방향성 햅틱 모션을 제공하기 위해 복수의 모터(1101, 1102, 1103, 1104)를 포함할 수 있다. 복수의 모터(1101, 1102, 1103, 1104) 각각은 서로 다른 위치에 배치될 수 있다. Referring to FIG. 11, the mobile terminal may include a plurality of motors 1101, 1102, 1103, and 1104 to provide directional haptic motion. Each of the plurality of motors 1101, 1102, 1103, and 1104 may be disposed at different positions.
예를 들어, 제1 모터(1101)는 이동 단말기의 왼쪽 상단에 배치될 수 있고, 제2 모터(1102)는 제1 모터(1102)와 마주보는 이동 단말기의 오른쪽 상단에 배치될 수 있다. 제3 모터(1103)는 이동 단말기의 왼쪽 하단에 배치될 수 있고, 제4 모터(1104)는 제3 모터(1103)와 마주보는 이동 단말기의 오른쪽 하단에 배치될 수 있다.For example, the first motor 1101 may be disposed at the upper left of the mobile terminal, and the second motor 1102 may be disposed at the upper right of the mobile terminal facing the first motor 1102. The third motor 1103 may be disposed at the lower left of the mobile terminal, and the fourth motor 1104 may be disposed at the lower right of the mobile terminal facing the third motor 1103.
이러한 경우, 제1 모터(1101)에서 제1 크기의 진동이 생성된 후 제4 모터(1104)에서 제2 크기의 진동이 생성되면, 오른쪽 대각선 방향으로 이동하는 듯한 느낌을 주는 햅틱 모션이 생성될 수 있다. 이 때, 제1 크기는 제2 크기 보다 작을 수 있으나, 이에 제한되는 것은 아니다. In this case, if the vibration of the first magnitude is generated in the first motor 1101 and then the vibration of the second magnitude is generated in the fourth motor 1104, a haptic motion that feels as if moving in the right diagonal direction is generated. I can. In this case, the first size may be smaller than the second size, but is not limited thereto.
만약, 제1 모터(1101)에서 제1 크기의 진동이 생성된 후 제3 모터(1103)에서 제2 크기의 진동이 생성되면, 아래 방향으로 이동하는 듯한 느낌을 주는 햅틱 모션이 생성될 수 있다. 이 때, 제1 크기는 제2 크기 보다 작을 수 있으나, 이에 제한되는 것은 아니다. If the vibration of the first magnitude is generated by the first motor 1101 and then the vibration of the second magnitude is generated by the third motor 1103, a haptic motion that feels as if moving downward may be generated. . In this case, the first size may be smaller than the second size, but is not limited thereto.
이 밖에도 모터의 진동 시간 또는 크기가 조정됨에 기초하여 기준 위치(1110)를 가이드하기 위해 본 실시예에서 이용가능한 다양한 방향을 나타내는 진동이 제공될 수 있음은 물론이다. In addition, vibrations indicating various directions usable in the present embodiment may be provided to guide the reference position 1110 based on the adjustment of the vibration time or size of the motor.
본 명세서의 실시예에 따른 이동 단말기 및 그 제어 방법은, 센서의 위치에 대응하여 기지정된 디스플레이 상의 특정 위치를 가이드하는 정보를 제공함으로써, 센서에 대한 입력이 보다 효과적으로 인가되도록 할 수 있다. The mobile terminal and its control method according to the exemplary embodiment of the present specification may provide information for guiding a specific position on a predetermined display corresponding to the position of the sensor, so that an input to the sensor may be more effectively applied.
본 명세서의 실시예에 따른 이동 단말기 및 그 제어 방법은, 센서의 위치에 대응하여 기지정된 디스플레이 상의 특정 위치를 촉각적 또는 청각적인 형태의 정보를 이용하여 가이드함으로써, 시각이 제한되는 상황의 사용자에 의한 사용자 인증이 보다 원활하게 수행될 수 있다. The mobile terminal and its control method according to the embodiment of the present specification are guided by using tactile or audible information to guide a specific location on a predetermined display corresponding to the location of the sensor, so that the user in a situation where time is limited. User authentication can be performed more smoothly.
이하에서는 이와 같이 구성된 이동 단말기에서 구현될 수 있는 제어 방법과 관련된 실시 예들에 대해 첨부된 도면을 참조하여 살펴보겠다. 본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 해당 기술 분야의 통상의 기술자에게 자명하다. Hereinafter, embodiments related to a control method that can be implemented in a mobile terminal configured as described above will be described with reference to the accompanying drawings. It is apparent to those skilled in the art that the present invention can be embodied in other specific forms without departing from the spirit and essential features of the present invention.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말기의 제어부(180)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. The present invention described above can be implemented as a computer-readable code on a medium on which a program is recorded. The computer-readable medium includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAM, CD-ROMs, magnetic tapes, floppy disks, optical data storage devices, etc. There is also a carrier wave (for example, transmission over the Internet) also includes the implementation of the form. In addition, the computer may include the control unit 180 of the terminal. Therefore, the detailed description above should not be construed as restrictive in all respects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (20)

  1. 이동 단말기에 있어서, In the mobile terminal,
    디스플레이와, Display,
    프로세서를 포함하고, Including a processor,
    상기 프로세서는, The processor,
    상기 디스플레이를 통해 사용자 인증과 관련된 입력을 획득하고, Obtaining an input related to user authentication through the display,
    상기 입력이 획득되는 위치를 확인하고, Check the location where the input is obtained,
    상기 확인된 위치가 상기 사용자 인증과 관련하여 기지정된 위치에 대응하는지 여부를 확인하고, Check whether the confirmed location corresponds to a location determined in connection with the user authentication,
    상기 대응하는지 여부에 대한 확인을 기초로 상기 확인된 위치와 관련하여 상기 기지정된 위치를 가이드(guide)하는 정보를 제공하고, Providing information for guiding the predetermined position in relation to the confirmed position based on the confirmation of whether or not the correspondence corresponds,
    상기 기지정된 위치는 상기 사용자 인증을 위한 정보를 획득하는 센서의 위치를 기초로 결정되는 The predetermined location is determined based on a location of a sensor that obtains information for user authentication.
    이동 단말기. Mobile terminal.
  2. 제1항에 있어서, The method of claim 1,
    상기 프로세서는, The processor,
    상기 확인된 위치가 상기 기지정된 위치와 상이한 경우, 상기 기지정된 위치를 중심으로 하며 서로 다른 지름을 가지는 원을 기준으로 구분되는 영역 중 상기 확인된 위치가 포함되는 영역을 확인하고, If the identified position is different from the predetermined position, confirming an area including the identified position among the regions centered on the predetermined position and divided based on a circle having a different diameter,
    상기 확인된 영역에 기초한 설정으로 상기 확인된 위치와 관련하여 상기 기지정된 위치를 가이드하는 정보를 제공하는 Providing information for guiding the predetermined location in relation to the identified location by setting based on the identified area
    이동 단말기. Mobile terminal.
  3. 제1항에 있어서, The method of claim 1,
    상기 프로세서는, The processor,
    상기 확인된 위치가 상기 기지정된 위치와 상이한 경우 상기 확인된 위치와 상기 기지정된 위치의 거리 및 상기 확인된 위치로부터 상기 기지정된 위치를 향하는 방향 중 적어도 하나에 대한 정보를 확인하고, If the identified location is different from the known location, check information on at least one of the identified location and the distance between the known location and the direction from the identified location toward the known location,
    상기 확인된 정보를 기초로 상기 확인된 위치와 관련하여 상기 기지정된 위치를 가이드하는 정보를 제공하는 Providing information for guiding the predetermined location in relation to the identified location based on the identified information
    이동 단말기. Mobile terminal.
  4. 제3항에 있어서, The method of claim 3,
    상기 가이드하는 정보는 상기 확인된 위치로부터 상기 기지정된 위치까지 이동하기 위한 방향 및 상기 거리 중 적어도 하나에 대한 정보를 포함하는 The guiding information includes information on at least one of a direction and the distance for moving from the identified position to the predetermined position.
    이동 단말기. Mobile terminal.
  5. 제1항에 있어서, The method of claim 1,
    상기 가이드하는 정보는 특정 강도의 진동, 특정 크기의 소리 또는 기지정된 컨텐츠를 이용하여 제공되고, The guiding information is provided using vibration of a specific intensity, sound of a specific loudness, or predetermined content,
    상기 특정 강도 및 상기 특정 크기 각각은, 상기 확인된 위치와 상기 기지정된 위치 사이의 거리를 기초로 결정되는 Each of the specific strength and the specific size is determined based on a distance between the identified position and the predetermined position.
    이동 단말기. Mobile terminal.
  6. 제5항에 있어서, The method of claim 5,
    상기 특정 강도 및 상기 특정 크기 각각은, Each of the specific strength and the specific size,
    상기 확인된 위치와 상기 기지정된 위치 사이의 거리가 속하는 거리 범위를 기초로 결정되며, It is determined based on a distance range to which the distance between the identified location and the predetermined location belongs,
    상기 거리 범위는, 상기 기지정된 위치로부터 기설정된 범위의 간격을 기초로 복수로 구획되는 The distance range is divided into a plurality based on an interval of a preset range from the predetermined position.
    이동 단말기. Mobile terminal.
  7. 제5항에 있어서, The method of claim 5,
    상기 특정 강도 및 상기 특정 크기 각각은, Each of the specific strength and the specific size,
    상기 확인된 위치와 상기 기지정된 위치 사이의 거리에 비례하여 결정되는 Determined in proportion to the distance between the identified location and the predetermined location
    이동 단말기. Mobile terminal.
  8. 제1항에 있어서, The method of claim 1,
    상기 프로세서는, The processor,
    상기 사용자 인증의 유형을 확인하고, Check the type of user authentication above,
    상기 확인된 유형 및 상기 확인된 정보를 기반으로 상기 사용자 인증과 관련된 정보를 제공하고, Providing information related to the user authentication based on the identified type and the identified information,
    상기 사용자 인증의 유형은, 결제와 관련된 유형, 상기 이동 단말기의 잠금 화면의 해제와 관련된 유형 및 특정 웹사이트에 대한 본인 인증과 관련된 유형 중 적어도 하나를 포함하는The type of user authentication includes at least one of a type related to payment, a type related to unlocking the lock screen of the mobile terminal, and a type related to identity authentication for a specific website.
    이동 단말기. Mobile terminal.
  9. 제1항에 있어서, The method of claim 1,
    상기 가이드하는 정보는, 소리, 텍스트, 아이콘, 진동 및 햅틱 모션 중 적어도 하나를 이용하여 제공되는The guiding information is provided using at least one of sound, text, icon, vibration, and haptic motion.
    이동 단말기. Mobile terminal.
  10. 제1항에 있어서, The method of claim 1,
    상기 센서는 상기 디스플레이 하단에 배치되며, The sensor is disposed under the display,
    상기 기지정된 위치는 상기 센서가 배치된 상기 디스플레이의 위치에 대응하는 The predetermined position corresponds to the position of the display on which the sensor is disposed.
    이동 단말기. Mobile terminal.
  11. 디스플레이를 포함하는 이동 단말기의 제어 방법에 있어서, In the control method of a mobile terminal including a display,
    상기 디스플레이를 통해 사용자 인증과 관련된 입력을 획득하는 단계와, Obtaining an input related to user authentication through the display,
    상기 입력이 인가되는 위치를 확인하는 단계와, Checking a location to which the input is applied, and
    상기 확인된 위치가 상기 사용자 인증과 관련하여 기지정된 위치에 대응하는지 여부를 확인하는 단계와, Checking whether the confirmed location corresponds to a location determined in connection with the user authentication;
    상기 대응하는지 여부에 대한 확인을 기초로 상기 확인된 위치와 관련하여 상기 기지정된 위치를 가이드하는 정보를 제공하는 단계를 포함하고, Providing information for guiding the predetermined location in relation to the identified location based on the confirmation as to whether or not it corresponds,
    상기 기지정된 위치는 상기 사용자 인증을 위한 정보를 획득하는 센서의 위치를 기초로 결정되는The predetermined location is determined based on a location of a sensor that obtains information for user authentication.
    이동 단말기의 제어 방법. Control method of mobile terminal.
  12. 제11항에 있어서, The method of claim 11,
    상기 사용자 인증과 관련된 정보를 제공하는 단계는, Providing the information related to the user authentication,
    상기 확인된 위치가 상기 기지정된 위치와 상이한 경우, 상기 기지정된 위치를 중심으로 하며 서로 다른 지름을 가지는 원을 기준으로 구분되는 영역 중 상기 확인된 위치가 포함되는 영역을 확인하는 단계와, When the identified position is different from the predetermined position, checking an area including the identified position among the areas centered on the predetermined position and divided based on a circle having a different diameter; and
    상기 확인된 영역에 기초한 설정으로 상기 확인된 위치와 관련하여 상기 기지정된 위치를 가이드하는 정보를 제공하는 단계를 포함하는 Providing information for guiding the predetermined location in relation to the identified location by setting based on the identified area
    이동 단말기의 제어 방법. Control method of mobile terminal.
  13. 제11항에 있어서, The method of claim 11,
    상기 사용자 인증과 관련된 정보를 제공하는 단계는, Providing the information related to the user authentication,
    상기 확인된 위치가 상기 기지정된 위치와 상이한 경우 상기 확인된 위치와 상기 기지정된 위치의 거리 및 상기 확인된 위치로부터 상기 기지정된 위치를 향하는 방향 중 적어도 하나에 대한 정보를 확인하는 단계와, If the identified location is different from the known location, checking information on at least one of the identified location and the distance between the known location and the direction from the identified location toward the known location; and
    상기 확인된 정보를 기초로 상기 확인된 위치와 관련하여 상기 기지정된 위치를 가이드하는 정보를 제공하는 단계를 포함하는 Providing information for guiding the predetermined location in relation to the identified location based on the identified information
    이동 단말기의 제어 방법. Control method of mobile terminal.
  14. 제13항에 있어서,The method of claim 13,
    상기 가이드하는 정보는 상기 확인된 위치로부터 상기 기지정된 위치까지 이동하기 위한 방향 및 상기 거리 중 적어도 하나에 대한 정보를 포함하는The guiding information includes information on at least one of a direction and the distance for moving from the identified position to the predetermined position.
    이동 단말기의 제어 방법. Control method of mobile terminal.
  15. 제11항에 있어서,The method of claim 11,
    상기 가이드하는 정보는 특정 강도의 진동, 특정 크기의 소리, 또는 기지정된 컨텐츠를 이용하여 제공되고, The guiding information is provided using vibration of a specific intensity, sound of a specific loudness, or predetermined content,
    상기 특정 강도 및 상기 특정 크기 각각은, 상기 확인된 위치와 상기 기지정된 위치 사이의 거리를 기초로 결정되는 Each of the specific strength and the specific size is determined based on a distance between the identified position and the predetermined position.
    이동 단말기의 제어 방법. Control method of mobile terminal.
  16. 제15항에 있어서,The method of claim 15,
    상기 특정 강도 및 상기 특정 크기 각각은, Each of the specific strength and the specific size,
    상기 확인된 위치와 상기 기지정된 위치 사이의 거리가 속하는 거리 범위를 기초로 결정되며, It is determined based on a distance range to which the distance between the identified location and the predetermined location belongs,
    상기 거리 범위는, 상기 기지정된 위치로부터 기설정된 범위의 간격을 기초로 복수로 구획되는 The distance range is divided into a plurality based on an interval of a preset range from the predetermined position.
    이동 단말기의 제어 방법. Control method of mobile terminal.
  17. 제15항에 있어서, The method of claim 15,
    상기 특정 강도 및 상기 특정 크기 각각은, Each of the specific strength and the specific size,
    상기 확인된 위치와 상기 기지정된 위치 사이의 거리에 비례하여 결정되는 Determined in proportion to the distance between the identified location and the predetermined location
    이동 단말기의 제어 방법. Control method of mobile terminal.
  18. 제11항에 있어서, The method of claim 11,
    상기 사용자 인증의 유형을 확인하는 단계를 더 포함하고, Further comprising the step of confirming the type of user authentication,
    상기 사용자 인증과 관련된 정보를 제공하는 단계는, Providing the information related to the user authentication,
    상기 확인된 유형 및 상기 확인된 정보를 기반으로 상기 사용자 인증과 관련된 정보를 제공하는 단계를 포함하며, Providing information related to the user authentication based on the identified type and the identified information,
    상기 사용자 인증의 유형은, 결제와 관련된 유형, 상기 이동 단말기의 잠금 화면의 해제와 관련된 유형 및 특정 웹사이트에 대한 본인 인증과 관련된 유형 중 적어도 하나를 포함하는 The type of user authentication includes at least one of a type related to payment, a type related to unlocking the lock screen of the mobile terminal, and a type related to identity authentication for a specific website.
    이동 단말기의 제어 방법. Control method of mobile terminal.
  19. 제11항에 있어서, The method of claim 11,
    상기 가이드하는 정보는, 소리, 텍스트, 아이콘, 진동 및 햅틱 모션 중 적어도 하나를 이용하여 제공되는 The guiding information is provided using at least one of sound, text, icon, vibration, and haptic motion.
    이동 단말기의 제어 방법.Control method of mobile terminal.
  20. 제11항에 있어서, The method of claim 11,
    상기 센서는 상기 디스플레이 하단에 배치되며, The sensor is disposed under the display,
    상기 기지정된 위치는 상기 센서가 배치된 상기 디스플레이의 위치에 대응하는 The predetermined position corresponds to the position of the display on which the sensor is disposed.
    이동 단말기의 제어 방법. Control method of mobile terminal.
PCT/KR2019/016017 2019-11-21 2019-11-21 Mobile terminal providing information related to user authentication, and method for controlling same WO2021100912A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/016017 WO2021100912A1 (en) 2019-11-21 2019-11-21 Mobile terminal providing information related to user authentication, and method for controlling same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/016017 WO2021100912A1 (en) 2019-11-21 2019-11-21 Mobile terminal providing information related to user authentication, and method for controlling same

Publications (1)

Publication Number Publication Date
WO2021100912A1 true WO2021100912A1 (en) 2021-05-27

Family

ID=75980149

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/016017 WO2021100912A1 (en) 2019-11-21 2019-11-21 Mobile terminal providing information related to user authentication, and method for controlling same

Country Status (1)

Country Link
WO (1) WO2021100912A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100127432A (en) * 2009-05-26 2010-12-06 주식회사 유니온커뮤니티 Fingerprint recognition apparatus and fingerprint data acquiring method
KR20130060875A (en) * 2011-11-30 2013-06-10 삼성전기주식회사 Sensor and method for detecting fingerprint
US9613245B1 (en) * 2015-10-22 2017-04-04 Motorola Mobility Llc Device and method for authentication by a biometric sensor
KR20170125778A (en) * 2016-04-19 2017-11-15 삼성전자주식회사 Electronic device for supporting the fingerprint verification and operating method thereof
KR20180031511A (en) * 2016-09-20 2018-03-28 삼성전자주식회사 Apparatus and Method for Receiving Fingerprint Information through Guide

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100127432A (en) * 2009-05-26 2010-12-06 주식회사 유니온커뮤니티 Fingerprint recognition apparatus and fingerprint data acquiring method
KR20130060875A (en) * 2011-11-30 2013-06-10 삼성전기주식회사 Sensor and method for detecting fingerprint
US9613245B1 (en) * 2015-10-22 2017-04-04 Motorola Mobility Llc Device and method for authentication by a biometric sensor
KR20170125778A (en) * 2016-04-19 2017-11-15 삼성전자주식회사 Electronic device for supporting the fingerprint verification and operating method thereof
KR20180031511A (en) * 2016-09-20 2018-03-28 삼성전자주식회사 Apparatus and Method for Receiving Fingerprint Information through Guide

Similar Documents

Publication Publication Date Title
WO2016208835A1 (en) Smart watch and method for controlling same
WO2019168318A1 (en) Electronic device and fingerprint authentication interface method thereof
WO2020013528A1 (en) Flexible display and electronic device comprising same
WO2020017706A1 (en) Electronic device and method for controlling the same
WO2018009029A1 (en) Electronic device and operating method thereof
WO2018056473A1 (en) Head-mounted display device
WO2016195193A1 (en) Mobile terminal and control method thereof
WO2020059920A1 (en) Mobile terminal
WO2018101508A1 (en) Mobile terminal
WO2018143509A1 (en) Moving robot and control method therefor
WO2018093005A1 (en) Mobile terminal and method for controlling the same
WO2018135675A1 (en) Electronic device
WO2016035955A1 (en) Mobile terminal and control method therefor
WO2019151642A1 (en) Apparatus and method for displaying guide information for changing fingerprint state
WO2019142958A1 (en) Electronic device and control method therefor
WO2022131549A1 (en) Electronic device and operation method of electronic device
WO2022019636A1 (en) Method for performing virtual user interaction, and device therefor
WO2020189827A1 (en) Electronic device and control method thereof
WO2020130199A1 (en) Mobile terminal
WO2021137321A1 (en) Electronic device for displaying content and control method therefor
WO2021132743A1 (en) Electronic device for displaying application-related content, and method for controlling same
WO2015194705A1 (en) Mobile terminal and method for controlling the same
WO2022203330A1 (en) Electronic device and fingerprint recognition method of same
WO2022085940A1 (en) Method and apparatus for controlling display of plurality of objects on wearable display device
WO2021100912A1 (en) Mobile terminal providing information related to user authentication, and method for controlling same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19953374

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19953374

Country of ref document: EP

Kind code of ref document: A1