WO2020166740A1 - Mobile terminal - Google Patents

Mobile terminal Download PDF

Info

Publication number
WO2020166740A1
WO2020166740A1 PCT/KR2019/001775 KR2019001775W WO2020166740A1 WO 2020166740 A1 WO2020166740 A1 WO 2020166740A1 KR 2019001775 W KR2019001775 W KR 2019001775W WO 2020166740 A1 WO2020166740 A1 WO 2020166740A1
Authority
WO
WIPO (PCT)
Prior art keywords
mobile terminal
controller
user
index finger
shape
Prior art date
Application number
PCT/KR2019/001775
Other languages
French (fr)
Korean (ko)
Inventor
송민우
김민호
김호영
안예한
전상국
진동철
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2019/001775 priority Critical patent/WO2020166740A1/en
Priority to KR1020190092155A priority patent/KR20200045947A/en
Priority to KR1020190092154A priority patent/KR102218919B1/en
Priority to US16/661,215 priority patent/US11500103B2/en
Priority to US16/661,199 priority patent/US11620044B2/en
Publication of WO2020166740A1 publication Critical patent/WO2020166740A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Definitions

  • the present invention relates to a mobile terminal. More specifically, it can be applied to a technical field that drives a 3D depth camera provided in a mobile terminal with low power and provides a convenient UI to a user by driving a device without a user's direct touch.
  • Terminals can be divided into mobile/portable terminals and stationary terminals depending on whether they can be moved. Again, mobile terminals can be divided into handheld terminals and vehicle mounted terminals depending on whether the user can directly carry them.
  • the functions of mobile terminals are diversifying. For example, there are functions of data and voice communication, taking pictures and videos through a camera, recording voice, playing music files through a speaker system, and outputting images or videos to the display. Some terminals add an electronic game play function or perform a multimedia player function. In particular, recent mobile terminals can receive multicast signals providing visual content such as broadcasting and video or television programs.
  • UI user interface
  • AR augmented reality
  • Gesture recognition technology based on 3D vision is implemented based on a camera that can recognize 3D coordinates.
  • the depth camera has a difference in recognizing the distance between the camera and the object compared to the existing 2D camera, and for this, a calculation process for converting the measured raw image into a depth image is added.
  • the processing load of this calculation process is large, so that high processing power is used, and accordingly, power consumption according to the operation of the depth camera and the processor that processes the 3D image occurs. If this operation is always performed in a battery-operated device at such a high level, the operating time of the device is significantly reduced. Therefore, activating the depth camera only when necessary is an important factor in power consumption and processor stabilization.
  • the depth camera is activated only when the user's hand is close to the device, so that power is consumed more than necessary, and the load for calculation is prevented, and a user-friendly UI is provided by operating the device without a user's direct touch. It aims to provide.
  • a mobile terminal comprising: a depth camera for obtaining a depth image, a display unit for outputting a visual image, and a memory for storing at least one command; And a controller connected to the depth camera, the display unit, and the memory, wherein the controller controls the depth camera to acquire the depth image when the object is close to the mobile terminal, and through the acquired depth image It provides a mobile terminal, characterized in that the state of the mobile terminal is changed by discriminating the shape and motion of the object.
  • the mobile terminal when the mobile terminal is in a sleep state, the shape of the adjacent object corresponds to the user's hand, and the object is air-knocked in a spaced state, the mobile terminal wakes up. It provides a mobile terminal characterized in that the up.
  • the air knock provides a mobile terminal characterized in that the user repeatedly pushes the index finger toward the mobile terminal twice.
  • the controller discriminates the index finger from the object, compares the time interval between push operations of the index finger with a preset period interval, and sets the time interval between the push operations.
  • a mobile terminal characterized in that it is determined that the movement of the object corresponds to the air knock when it is less than the time interval.
  • the controller distinguishes the index finger from the object, compares the distance between points directed by the index finger to a preset distance, and compares the distance between points directed by the index finger.
  • a mobile terminal characterized in that it is determined that the movement of the object corresponds to the air note when the interval is less than a preset distance.
  • the display unit when the mobile terminal is in a sleep state, the shape of the adjacent object corresponds to the palm, and the object hovers within a preset distance range, the display unit It provides a mobile terminal characterized in that to wake up.
  • the mobile terminal when the mobile terminal is in a locked state, the shape of the adjacent disparity object corresponds to the user's hand, and when the object is spaced apart, the preset code is input. It provides a mobile terminal, characterized in that the lock mode is released.
  • the controller provides a mobile terminal, characterized in that the index finger of the user is identified from the object, and the input code is identified through a relative position of an area pushed by the index finger. .
  • the shape of the adjacent object corresponds to the user's hand, and the object moves in a preset pattern when the object is separated It provides a mobile terminal characterized in that the mode is released.
  • the controller distinguishes the index finger of the user from the object and compares the sweeping pattern of the index finger with a preset pattern to release the locking mode. It provides a mobile terminal characterized by.
  • the lock mode when the mobile terminal is in a locked state, the shape of the object corresponds to the palm, and the object hovers at a preset distance interval, the lock mode through biometric information It provides a mobile terminal characterized in that the release of.
  • the biometric information includes at least one of a palm pattern, a vein pattern, and a fingerprint pattern of the palm.
  • the controller provides a mobile terminal, characterized in that when releasing the locking mode in a sleep state, the controller wakes up the mobile terminal while releasing the locking mode.
  • the controller provides a mobile terminal, characterized in that controlling the mobile terminal to execute a specific application corresponding to the shape and motion of the classified object.
  • the controller executes the specific application and wakes up the display unit at the same time. to provide.
  • the depth camera detects the intensity of light reflected in the first mode to discriminate whether the object is close, and detects a parallax of the light reflected in the second mode to obtain the depth image. It provides a mobile terminal, characterized in that acquiring.
  • the mobile terminal provides a mobile terminal further comprising a proximity sensor for discriminating whether the object is in proximity.
  • the user can execute the 3D vision board UI without directly touching the device.
  • the user may wake up the device without directly touching the device.
  • the user can unlock the device without directly touching the device.
  • a user may execute or control a specific application without directly touching the device.
  • FIG. 1A is a block diagram illustrating a mobile terminal related to the present invention.
  • FIGS. 1B and 1C are conceptual diagrams of an example of a mobile terminal according to the present invention viewed from different directions.
  • FIGS. 2 and 3 are configuration diagrams of the present invention for performing a 3D vision-based UI according to an embodiment of the present invention.
  • FIG. 4 is a flowchart illustrating a processor that wakes up without directly touching a device through a depth image of an adjacent object, according to an embodiment of the present invention.
  • 5 and 6 are flowcharts illustrating in detail the wakeup algorithm of FIG. 4 according to an embodiment of the present invention.
  • FIG. 7 is a diagram for explaining a condition for satisfying air knock according to an embodiment of the present invention.
  • FIG. 8 is a flowchart illustrating a processor for releasing a lock mode without directly touching a device through a depth image of an adjacent object, according to an embodiment of the present invention.
  • FIG. 9 and 10 are flowcharts and diagrams for specifically explaining the unlock algorithm of FIG. 8 according to an embodiment of the present invention.
  • 11 to 13 are flowcharts and diagrams for specifically explaining the unlock algorithm of FIG. 8 according to another embodiment of the present invention.
  • FIG. 14 is a flowchart illustrating a processor that executes or controls a specific application without directly touching a device through a depth image of an adjacent object, according to an embodiment of the present invention.
  • FIG. 15 is a diagram for specifically explaining execution or control of a specific application of FIG. 14 according to an embodiment of the present invention.
  • Mobile terminals described in this specification include mobile phones, smart phones, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), navigation systems, and slate PCs.
  • Tablet PC tablet PC
  • ultrabook ultrabook
  • wearable device wearable device, for example, smartwatch, glass-type terminal (smart glass), HMD (head mounted display)), etc. may be included. have.
  • the configuration according to the embodiment described in the present specification may also be applied to a fixed terminal such as a digital TV, a desktop computer, and a digital signage, except for a case applicable only to a mobile terminal. If you are a technician, you can easily find out.
  • FIG. 1A is a block diagram illustrating a mobile terminal related to the present invention
  • FIGS. 1B and 1C are conceptual diagrams of an example of a mobile terminal related to the present invention viewed from different directions.
  • the mobile terminal 100 includes a wireless communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, an interface unit 160, a memory 170, a control unit 180, and a power supply unit 190. ), etc.
  • the components shown in FIG. 1A are not essential for implementing the mobile terminal, and thus, the mobile terminal described in the present specification may have more or fewer components than those listed above.
  • the wireless communication unit 110 may be configured between the mobile terminal 100 and the wireless communication system, between the mobile terminal 100 and another mobile terminal 100, or between the mobile terminal 100 and an external server. It may include one or more modules that enable wireless communication between. In addition, the wireless communication unit 110 may include one or more modules for connecting the mobile terminal 100 to one or more networks.
  • the wireless communication unit 110 may include at least one of a broadcast reception module 111, a mobile communication module 112, a wireless Internet module 113, a short-range communication module 114, and a location information module 115. .
  • the input unit 120 includes a camera 121 or an image input unit for inputting an image signal, a microphone 122 for inputting an audio signal, or an audio input unit, and a user input unit 123 for receiving information from a user, for example, , A touch key, a mechanical key, etc.).
  • the voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.
  • the sensing unit 140 may include one or more sensors for sensing at least one of information in the mobile terminal, information on surrounding environments surrounding the mobile terminal, and user information.
  • the sensing unit 140 includes a proximity sensor 141, an illumination sensor 142, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity.
  • G-sensor for example, camera (see 121)), microphone (microphone, see 122), battery gauge, environmental sensor (for example, barometer, hygrometer, thermometer, radiation detection sensor, It may include at least one of a heat sensor, a gas sensor, etc.), and a chemical sensor (eg, an electronic nose, a healthcare sensor, a biometric sensor, etc.).
  • the mobile terminal disclosed in the present specification may combine and utilize information sensed by at least two or more of these sensors.
  • the output unit 150 is for generating an output related to visual, auditory, or tactile sense, and may include at least one of a display 151, an audio output unit 152, a hap tip module 153, and a light output unit.
  • the display 151 may form a layer structure with the touch sensor or be integrally formed, thereby implementing a touch screen.
  • Such a touch screen can function as a user input unit 123 that provides an input interface between the mobile terminal 100 and a user, and can provide an output interface between the mobile terminal 100 and a user.
  • the interface unit 160 serves as a passage between various types of external devices connected to the mobile terminal 100.
  • the interface unit 160 connects a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, and a device equipped with an identification module. It may include at least one of a port, an audio input/output (I/O) port, an input/output (video I/O) port, and an earphone port.
  • the mobile terminal 100 may perform appropriate control related to the connected external device in response to the connection of the external device to the interface unit 160.
  • the memory 170 stores data supporting various functions of the mobile terminal 100.
  • the memory 170 may store a plurality of application programs or applications driven by the mobile terminal 100, data for operation of the mobile terminal 100, and commands. At least some of these application programs may be downloaded from an external server through wireless communication. In addition, at least some of these application programs may exist on the mobile terminal 100 from the time of delivery for basic functions of the mobile terminal 100 (eg, incoming calls, outgoing functions, message reception, and outgoing functions). Meanwhile, the application program may be stored in the memory 170, installed on the mobile terminal 100, and driven by the controller 180 to perform an operation (or function) of the mobile terminal.
  • the controller 180 In addition to the operation related to the application program, the controller 180 generally controls the overall operation of the mobile terminal 100.
  • the controller 180 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in the memory 170.
  • the controller 180 may control at least some of the components examined together with FIG. 1A. Furthermore, in order to drive the application program, the controller 180 may operate by combining at least two or more of the components included in the mobile terminal 100 with each other.
  • the power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power to each of the components included in the mobile terminal 100.
  • the power supply unit 190 includes a battery, and the battery may be a built-in battery or a replaceable battery.
  • At least some of the components may operate in cooperation with each other to implement an operation, control, or control method of a mobile terminal according to various embodiments described below.
  • the operation, control, or control method of the mobile terminal may be implemented on the mobile terminal by driving at least one application program stored in the memory 170.
  • 1B and 1C describe basic features of a foldable mobile terminal in an unfolded state.
  • the mobile terminal 100 includes a display 151, first and second sound output units 152a and 152b, proximity sensor 141, illuminance sensor 142, light output unit 154, and first and second cameras. (121a, 121b), first and second operation units (123a, 123b), a microphone 122, an interface unit 160, and the like may be provided.
  • the camera 121a and the first operation unit 123a are disposed, the second operation unit 123b, the microphone 122 and the interface unit 160 are disposed on the side of the terminal body, and 2
  • a mobile terminal 100 in which the sound output unit 152b and the second camera 121b are disposed will be described as an example.
  • first operation unit 123a may not be provided on the front surface of the terminal body, and the second sound output unit 152b may be provided on the side of the terminal body rather than on the rear surface of the terminal body.
  • the display 151 displays (outputs) information processed by the mobile terminal 100.
  • the display 151 may display execution screen information of an application program driven in the mobile terminal 100, or UI (User Interface) and GUI (Graphic User Interface) information according to such execution screen information.
  • UI User Interface
  • GUI Graphic User Interface
  • the display 151 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. ), a 3D display, and an e-ink display.
  • LCD liquid crystal display
  • TFT LCD thin film transistor-liquid crystal display
  • OLED organic light-emitting diode
  • two or more displays 151 may exist depending on the implementation type of the mobile terminal 100.
  • a plurality of displays may be spaced apart or integrally disposed on one surface, or may be disposed on different surfaces, respectively.
  • the display 151 may include a touch sensor that senses a touch on the display 151 so as to receive a control command by a touch method. Using this, when a touch is made to the display 151, the touch sensor may sense the touch, and the controller 180 may generate a control command corresponding to the touch based on this.
  • Content input by the touch method may be letters or numbers, or menu items that can be indicated or designated in various modes.
  • the touch sensor is configured in the form of a film having a touch pattern and is disposed between the window 151a covering the display 151 and a plurality of layers constituting the display 151, or directly on the rear surface of the window 151a. It can also be a metal wire to be patterned. Alternatively, the touch sensor may be integrally formed with the display. For example, the touch sensor may be disposed on a substrate of the display or may be provided inside the display.
  • the display 151 may form a touch screen together with a touch sensor, and in this case, the touch screen may function as a user input unit 123 (see FIG. 1A). In some cases, the touch screen may replace at least some functions of the first manipulation unit 123a.
  • the first sound output unit 152a may be implemented as a receiver that transmits a call sound to the user's ear, and the second sound output unit 152b is a loud speaker that outputs various alarm sounds or multimedia playback sounds. ) Can be implemented.
  • a sound hole for emitting sound generated from the first sound output unit 152a may be formed in the window 151a of the display 151.
  • the present invention is not limited thereto, and the sound may be configured to be emitted along an assembly gap between structures (eg, a gap between the window 151a and the front case 101).
  • the externally formed hole for sound output is not visible or hidden, so that the appearance of the mobile terminal 100 may be more simple.
  • the light output unit is configured to output light to notify when an event occurs. Examples of the event include message reception, call signal reception, missed call, alarm, schedule notification, e-mail reception, and information reception through an application.
  • the controller 180 may control the light output unit so that light output is terminated.
  • the first camera 121a processes an image frame of a still image or moving image obtained by an image sensor in a photographing mode or a video call mode.
  • the processed image frame may be displayed on the display 151 and may be stored in the memory 170.
  • the first and second manipulation units 123a and 123b are an example of a user input unit 123 that is manipulated to receive a command for controlling the operation of the mobile terminal 100, and may also be collectively referred to as a manipulating portion. have.
  • the first and second operation units 123a and 123b may be employed in any manner as long as the user operates while receiving a tactile feeling such as touch, push, and scroll.
  • the first and second manipulation units 123a and 123b may also be employed in a manner in which the first and second manipulation units 123a and 123b are operated without a user's tactile feeling through proximity touch, hovering touch, or the like.
  • the first manipulation unit 123a is illustrated as being a touch key, but the present invention is not limited thereto.
  • the first operation unit 123a may be a push key (mechanical key) or may be configured as a combination of a touch key and a push key.
  • Contents input by the first and second manipulation units 123a and 123b may be variously set.
  • the first operation unit 123a receives commands such as menu, home key, cancel, search, etc.
  • the second operation unit 123b is output from the first or second sound output units 152a, 152b.
  • Commands such as adjusting the volume of sound and switching to the touch recognition mode of the display 151 may be input.
  • a rear input unit (not shown) may be provided on the rear surface of the terminal body.
  • This rear input unit is manipulated to receive a command for controlling the operation of the mobile terminal 100, and input contents may be variously set. For example, commands such as power on/off, start, end, scrolling, etc., adjusting the volume of sound output from the first and second sound output units 152a and 152b, and entering the touch recognition mode of the display 151 Commands such as conversion can be input.
  • the rear input unit may be implemented in a form capable of inputting by a touch input, a push input, or a combination thereof.
  • the rear input unit may be disposed to overlap the front display 151 in the thickness direction of the terminal body.
  • the rear input unit may be disposed on the rear upper end of the terminal body so that the user can easily manipulate it using the index finger.
  • the present invention is not necessarily limited thereto, and the position of the rear input unit may be changed.
  • the display 151 may be configured with a larger screen.
  • the mobile terminal 100 may be provided with a fingerprint recognition sensor 143 for recognizing a user's fingerprint, and the controller 180 may use fingerprint information detected through the fingerprint recognition sensor 143 as an authentication means.
  • the fingerprint recognition sensor may be embedded in the display 151 or the user input unit 123, or may be provided in a separate location.
  • the microphone 122 is configured to receive a user's voice and other sounds.
  • the microphone 122 may be provided in a plurality of locations and configured to receive stereo sound.
  • the interface unit 160 becomes a passage through which the mobile terminal 100 can be connected to an external device.
  • the interface unit 160 is a connection terminal for connection with other devices (eg, earphones, external speakers), a port for short-range communication (eg, an infrared port (IrDA Port), a Bluetooth port (Bluetooth Port), a wireless LAN port, etc.], or at least one of a power supply terminal for supplying power to the mobile terminal 100.
  • the interface unit 160 may be implemented in the form of a socket for accommodating an external card such as a subscriber identification module (SIM) or a user identity module (UIM), or a memory card for storing information.
  • SIM subscriber identification module
  • UIM user identity module
  • a second camera 121b may be disposed on the rear surface of the terminal body.
  • the second camera 121b has a photographing direction substantially opposite to that of the first camera 121a.
  • the second camera 121b may include a plurality of lenses arranged along at least one line.
  • the plurality of lenses may be arranged in a matrix format.
  • Such a camera may be referred to as an'array camera'.
  • an image may be photographed in various ways using a plurality of lenses, and an image of better quality may be obtained.
  • the flash 124 may be disposed adjacent to the second camera 121b.
  • the flash 124 illuminates light toward the subject when photographing the subject with the second camera 121b.
  • a second sound output unit 152b may be additionally disposed on the terminal body.
  • the second sound output unit 152b may implement a stereo function together with the first sound output unit 152a, and may be used to implement a speakerphone mode during a call.
  • At least one antenna for wireless communication may be provided in the terminal body.
  • the antenna may be embedded in the terminal body or may be formed in a case.
  • an antenna forming a part of the broadcast receiving module 111 (refer to FIG. 1A) may be configured to be retractable from the terminal body.
  • the antenna may be formed in a film type and attached to the inner surface of the rear cover 103, or a case including a conductive material may be configured to function as an antenna.
  • the terminal body is provided with a power supply unit 190 (refer to FIG. 1A) for supplying power to the mobile terminal 100.
  • the power supply unit 190 may include a battery 191 built in the terminal body or configured to be detachable from the outside of the terminal body.
  • the battery 191 may be configured to receive power through a power cable connected to the interface unit 160.
  • the battery 191 may be configured to enable wireless charging through a wireless charger.
  • the wireless charging may be implemented by a magnetic induction method or a resonance method (magnetic resonance method).
  • the rear cover 103 is coupled to the rear case 102 so as to cover the battery 191 to limit the separation of the battery 191, and to protect the battery 191 from external shock and foreign substances. It is illustrated.
  • the rear cover 103 may be detachably coupled to the rear case 102.
  • FIGS. 2 and 3 are configuration diagrams of the present invention for performing a 3D vision-based UI according to an embodiment of the present invention.
  • the present invention relates to a system for activating a depth camera 200 when an object is close to a device and performing a 3D vision-based UI using a depth image acquired from the depth camera 200.
  • the device of the present invention may include a mobile terminal, but is not necessarily limited thereto, and may include a television, an artificial intelligence device, a tablet, etc. that can utilize a 3D vision-based UI.
  • the depth camera 200 of the present invention may be a TOF (Time-of-Flight) type camera, but is not necessarily limited to this type of camera.
  • TOF Time-of-Flight
  • whether an object is close to the device may be detected through the proximity sensor 300 or the depth camera 200.
  • FIG. 2 shows a system for detecting whether an object is close through the proximity sensor 300
  • FIG. 3 shows a system for detecting whether an object is close through the depth camera 200.
  • a separate proximity sensor 300 may be provided to determine whether or not the proximity sensor is close through the intensity of reflected light.
  • a method for the proximity sensor 300 to detect whether an object is in proximity may be a method other than a method using the intensity of light.
  • the proximity sensor 300 detects that an object is close, a depth image is obtained through the depth camera 200, and it is possible to discriminate whether the object corresponds to the user's hand from the acquired depth image.
  • the present invention may additionally include a motion sensor 400 capable of detecting the state of the device.
  • the motion sensor 400 may detect whether the device exists in a state suitable for the device to perform a 3D based UI.
  • the motion sensor 400 may detect whether the device is in a stable state suitable for performing a 3D-based UI with the device, such as when the device is on a table or is fixed toward the user.
  • the motion sensor 400 may include an acceleration sensor, a gyro sensor, or the like.
  • the motion sensor 400 may serve as a trigger for activating the proximity sensor 300. That is, only when the device is stable through the motion sensor 400, data for determining whether an object is in proximity may be obtained through the proximity sensor 300.
  • the motion sensor 400 may not be required. In this case, the motion sensor 400 may always be driven in an active state.
  • the motion sensor 400 and the near point sensor 300 may be controlled through a low power processor 500 that operates with low power.
  • the low power processor 500 may include a device state checker 510 connected to the motion sensor 400 to detect a motion state of a device through data acquired from the motion sensor 400.
  • the device state detection unit 510 When the device state detection unit 510 detects that the motion of the device is in a stable state for performing a 3D vision-based UI with the user, it activates the proximity sensor 300 through a proximity sensor trigger 520 and whether the object is in proximity. It is possible to obtain data for determining the.
  • the depth carrera 300 When detecting that the object is in proximity through the proximity sensor trigger 520, the depth carrera 300 may be activated.
  • the depth camera 300 is connected to a high performance processor 600, and the high performance processor 600 controls the depth camera 300 to obtain a depth image and indexes a user to perform a 3D vision-based UI.
  • a function of tracking a finger may be provided.
  • the high specification processor 600 may include an object classifying unit 610 that controls the depth camera 300 to acquire a depth image, and discriminates whether an object corresponds to a user's hand with the acquired depth image. have.
  • the depth camera 300 may acquire a depth image in a ready mode and discriminate the shape of the depth image through the object classifier 610.
  • the ready mode may be activated when an object approaches through the proximity sensor 300.
  • the object classification unit 610 may classify an object and update an initial value of the proximity sensor 300 according to the classification result.
  • the high-end processor 600 may detect a gesture of the user's hand or activate a tracking unit 620 that tracks an index finger of the user's hand.
  • a separate proximity sensor 300 may not be provided, and the proximity of an object may be discriminated through the depth camera 200, but in this case, power consumption may be excessive, and a load for continuous calculation may be excessive.
  • the system may be operated by classifying data acquired through the depth camera 200.
  • the depth camera 200 may be controlled to detect the intensity of light to determine whether an object is close, and to detect a parallax of reflected light to obtain a depth image.
  • a mode for discriminating whether an object is close by detecting the intensity of light reflected by the depth camera 200 may be controlled through the object detection unit 630 included in the low power processor 600.
  • the object detector 630 may detect the intensity of light reflected from the depth camera 200 to obtain a 2D image, and detect the presence or absence of an adjacent object using a difference between the 2D images between frames.
  • the depth camera 200 may be controlled to acquire a depth image by detecting a parallax of reflected light.
  • the present invention may include a motion sensor 300 that triggers the object detection unit 630. Specifically, when the mobile terminal is in a stable state through the motion sensor 300, the object detection unit 630 may be activated to discriminate whether an object is in proximity through the depth camera 200.
  • the depth camera 200 is controlled to acquire a depth image as described in FIG. 2, and it is checked through the object classification unit 610 whether the object included in the acquired depth image corresponds to the hand. I can.
  • the tracking unit 620 may be activated to track the index finger in the acquired depth image.
  • the depth image is obtained through the depth camera 200 to identify the shape and motion of the object, and the state of the mobile terminal corresponds to the shape and motion of the object. Can be changed. That is, the present invention can change the state of the mobile terminal without physical touch.
  • the mobile terminal changes from a sleep state to a wake-up state, from a locked state to an unlock state, or to a state in which a specific application is executed without a user's direct touch will be described in detail.
  • the present invention is not limited to a mobile terminal and will be broadly referred to as a device hereinafter.
  • FIG. 4 is a flowchart illustrating a processor that wakes up without directly touching a device through a depth image of an adjacent object, according to an embodiment of the present invention. The flowchart of FIG. 4 will be described with reference to FIG. 2 or 3.
  • the device determines whether the object is close through the motion sensor 300 of FIG. 2 or the depth camera 200 of FIG. 3 (S210), and when the object is close, obtains a depth image through the depth camera 200. have. (S220)
  • the wakeup algorithm is an algorithm that compares the movement of a user's hand in correspondence with a preset shape and motion, and may wake up a device or maintain a sleep state according to a comparison result.
  • the wakeup algorithm will be described in detail in FIGS. 5 and 6.
  • the sleep state is maintained and the proximity of the object is determined. You can move to the stage.
  • the acquisition of the depth image is stopped, It may move to the step of determining whether the object is in proximity.
  • 5 and 6 are flowcharts illustrating in detail the wakeup algorithm of FIG. 4 according to an embodiment of the present invention.
  • the wake-up algorithm may vary depending on the shape and motion of the user's hand.
  • the present invention may include an embodiment in which a user hovers over a device with a palm open and an embodiment in which an index finger is used to air knock.
  • FIGS. 5 and 6 are flowcharts illustrating an embodiment of air knocking using an index finger.
  • the depth camera 200 detects that the user has the palm open state through the acquired depth image, and continuously When the depth change is within a preset range through the acquired depth image, the device may wake up by detecting that the user is hovering over the device with the palm open.
  • the device may wake up the device by detecting a movement of the user approaching the device with the palm open.
  • the device may wake up the device by detecting a movement of the user moving in the horizontal direction above the device with the palm open.
  • the present invention is intended to describe an embodiment of waking up a device through air knock.
  • Air knock may be a motion corresponding to a movement in which a user repeatedly pushes an index finger toward the device twice.
  • the method to wake up the device through air knock is as follows.
  • the present invention may execute an algorithm for extracting an index finger by analyzing the acquired depth image. .(S241)
  • An algorithm for extracting an index finger may be an algorithm for extracting an index finger from a depth image by comparing it with database data.
  • the index finger may be extracted by extracting the cross section of the user's hand according to the distance from the device from the acquired depth image.
  • the meaning of extracting the index finger may correspond to extracting a tipping point of the index finger. That is, it may mean extracting the 3D coordinates indicated by the index finger.
  • the movement of the index finger may be analyzed (S242), and it may be determined whether the movement of the index finger corresponds to the air knock. (S243)
  • the device wakes up (S250), and when the movement of the index finger does not correspond to the air knock, the index finger is restarted (S243, No).
  • the step of extracting can be performed.
  • the air knock is a movement in which the user repeatedly pushes the index finger toward the device twice, and it is possible to discriminate whether it corresponds to the air knock through a time interval and a distance interval between each push movement.
  • the z-axis push operation refers to an operation in which the user's index finger moves in a direction close to the device.
  • only the time interval between z-axis push operations or only the distance interval between z-axis push operations may be analyzed to determine whether or not the air knock corresponds.
  • the time interval between z-axis push operations is less than or equal to a preset time interval, it may be determined that it corresponds to the air note.
  • the second z-axis push operation is not recognized as two z-axis push operations and the first z-axis push operation. It can be recognized as a one-time z-push motion independent of the motion.
  • the time interval between z-axis push operations may be an interval between points when the second push operation starts from the time when the first push operation ends. That is, when the user performs the first push operation with the index finger and then performs the second push operation after moving away from the device, it may be a time required for the operation moving away from the device.
  • the time interval between the z-axis push operations may be an interval between the time when the first push operation ends and the second push operation ends.
  • a distance interval between z-axis push operations is less than or equal to a preset distance interval, it may be determined that it corresponds to an air note. In this regard, it will be described in detail with reference to FIG. 7.
  • FIG. 7 is a diagram for explaining a condition for satisfying air knock according to an embodiment of the present invention. Specifically, a method of determining whether a distance interval between z-axis push operations falls within a preset interval is illustrated.
  • a point 601 that the index finger first points to may be recognized through a z-axis push operation of the index pinker once.
  • the first point 601 that the index finger points to may be a point on the display 151 of the device 100.
  • a point 602 to which the index finger is directed second is included within a preset distance interval 6011 based on the point 601 to which the index finger is first directed, it is determined as a movement corresponding to air knock. can do.
  • the index finger when the index finger virtually pushes the same point twice within the error distance range, it is considered to correspond to the air note, and if it is out of the error distance range, the second push may be re-recognized as a single push.
  • FIG. 8 is a flowchart illustrating a processor for releasing a lock mode without directly touching a device through a depth image of an adjacent object, according to an embodiment of the present invention. The flowchart of FIG. 8 will be described with reference to FIG. 2 or 3.
  • the device determines whether the object is close through the motion sensor 300 of FIG. 2 or the depth camera 200 of FIG. 3 (S310), and when the object is close, the depth image may be obtained through the depth camera 200. have. (S320)
  • the unlock algorithm is an algorithm that compares the movement of a user's hand in correspondence with a preset shape and motion, and may unlock a device or maintain a lock mode according to a comparison result.
  • the unlock algorithm will be described in detail in FIGS. 9 and 10 or 11 to 13.
  • the acquisition of the depth image is stopped, It may move to the step of determining whether the object is in proximity.
  • the unlock algorithm may vary depending on the shape and motion of the user's hand.
  • the present invention may include an embodiment in which a user hovers over a device with a palm open and an embodiment in which a preset code or a preset pattern is input using an index finger.
  • FIGS. 9 and 10 are flow charts for explaining an embodiment of inputting a preset code using an index finger
  • FIGS. 11 to 13 illustrate an embodiment of inputting a preset pattern using an index finger This is a flow chart for
  • the depth camera 200 detects that the user's palm is open through the acquired depth image, and continuously acquires it. When the depth change is within a preset range through one depth image, it is sensed that the user is hovering over the device with the palm open, and the lock mode of the device can be released through the biometric information included in the palm.
  • the biometric information may include at least one of a palm print pattern, a vein pattern, and a fingerprint pattern of the palm.
  • the method of releasing the Janggeum mode using biometric information is a known technique, and the technique is omitted in this regard.
  • FIG. 9 and 10 are flowcharts and diagrams for specifically explaining the unlock algorithm of FIG. 8 according to an embodiment of the present invention. Specifically, it is a flowchart and diagram illustrating an embodiment of releasing a device's lock-in mode through code input using an index finger.
  • an input code may be identified through a relative position of a region corresponding to a z-axis push operation of an index finger and compared with a preset code to cancel the lock mode.
  • the present invention analyzes the time condition between z-axis push operations of the index finger (S3411), analyzes the distance interval between z-axis push operations (S3412), and analyzes the pattern of the region corresponding to the z-axis push operation. You can cancel the lock mode. (S3413)
  • the N-th push operation and the N+1-th push operation when the N-th push operation and the N+1-th push operation are within a preset time interval, it can be recognized as a continuous push operation. Whether the N-th push operation and the N+1-th push operation are within a preset time interval may be the same as a method of determining a time condition in the air knock operation.
  • the N-th push motion and the N+1-th push motion are not recognized as a continuous push motion
  • the N+1 th push motion is recognized again as the first push motion, or a notification message to re-enter the user is delivered.
  • the push operation may be recognized as the first push operation.
  • the input code can be identified by using the relative position of the area virtually pushed by the index finger, and when the input code corresponds to a preset code, the lock-in mode can be canceled.
  • FIG. 10 shows an embodiment of discriminating an input code by using a relative position of an area virtually pushed by the index finger 700.
  • the divided area 1512 is set corresponding to the first push point, and the input code can be identified by assigning a code to the divided area.
  • FIG. 10 shows that the area to which 1 is assigned is virtually pushed, and the areas corresponding to 3, 2, 4, 3 and 2 are sequentially pushed, and 1->3->2->4->3 An embodiment in which a code corresponding to is input is shown.
  • the present invention may cancel the Janggeum mode by comparing the input pattern of the divided region 1512 with a preset pattern.
  • 11 to 13 are flowcharts and diagrams for specifically explaining the unlock algorithm of FIG. 8 according to another embodiment of the present invention.
  • the locking mode when a device is in a locked state, a shape of an adjacent object corresponds to a user's hand, and the object moves in a preset pattern in a spaced state, the locking mode may be canceled.
  • the index finger may be identified from a depth image, and a pattern that the index finger sweeps based on a starting point may be analyzed with a preset pattern to release the Janggeum mode.
  • the present invention sets a starting point (S3421), analyzes the relative movement of the index finger based on the set starting point (S3422), and when the relative movement of the index finger corresponds to a preset pattern, You can cancel the mode.
  • the preset pattern may be a user-specific pattern such as a sign, and may be a region and an order in which a point directed by the index finger passes in the divided region.
  • the Janggeum mode may be released.
  • the present invention sets a divided area 1511 based on a start point as shown in FIG. 12, assigns a number to the divided area, and sequentially receives the number of areas sweeping by the index finger 700. It can be compared with a preset number pattern.
  • the divided area 1511 is set based on the start point as shown in FIG. 13, and the passing area and order among the divided areas of the index ping value 700 correspond to the preset pattern. If so, you can cancel the device's lockdown mode.
  • the embodiment of releasing the holding mode and the embodiment of waking up the device have been described separately. However, in some cases, when the condition of releasing the holding mode from the sleep state and the locked state is satisfied, the device's holding mode is set. You can wake up the device while releasing it.
  • FIG. 14 is a flowchart illustrating a processor that executes or controls a specific application without directly touching a device through a depth image of an adjacent object, according to an embodiment of the present invention. The flowchart of FIG. 14 will be described with reference to FIG. 2 or 3.
  • the device determines whether the object is close through the motion sensor 300 of FIG. 2 or the depth camera 200 of FIG. 3 (S410), and when the object is close, obtains a depth image through the depth camera 200. have. (S420)
  • the quick action mode is a mode in which a specific application executed in response to the shape and movement of the user's hand is provided with a function of the executed specific application in response to at least one of the shape or movement of the user's hand.
  • the acquisition of the depth image is stopped, It may move to the step of determining whether the object is in proximity.
  • the current state of the device may be maintained.
  • FIG. 15 is a diagram for specifically explaining execution or control of a specific application of FIG. 14 according to an embodiment of the present invention.
  • a specific application corresponding to the identified hand shape may be executed through a database storing the shape of the hand corresponding to a specific application.
  • a specific application may be executed when a preset motion condition is satisfied.
  • a specific application may be executed.
  • a specific application executed through the 3D vision-based UI may be executed in a quick execution mode.
  • a specific function of the specific application may be provided in response to at least one of a hand shape and a movement.
  • a function to move to the previous or next song is provided through left and right sweep as shown in Fig. 14(a), or a section corresponding to the sweeping direction Points can provide functions.
  • a function of stopping or playing a song through a z-axis push operation may be provided.
  • a function of adjusting the volume through vertical sweeping may be provided.
  • a user may store a specific application and a hand shape and movement correspondingly, and the device may execute a specific application corresponding to the hand shape and movement based on a database stored by the user.
  • the user when executing a specific application in the quick execution mode, the user can set a specific function in response to at least one of the shape and movement of the hand, and the device can quickly execute in response to at least one of the shape and movement of the hand based on the setting.
  • a specific function of a specific application executed in a mode can be provided.
  • the specific application when a condition in which the specific application is executed in the quick execution mode is satisfied while the device is in the sleep state, the specific application may be executed in the quick execution mode and the device may wake up at the same time.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

Provided is a mobile terminal comprising: a depth camera for executing a three-dimensional vision-based UI with low power without a direct touch, and acquiring a depth image to change a state of a mobile terminal in response to execution of the UI; a display unit for outputting a visual image; a memory for storing at least one command; and a controller connected to the depth camera, the display unit, and the memory, wherein, when an object is close to the mobile terminal, the controller controls the depth camera to acquire the depth image, discriminates a shape and motion of the object via the acquired depth image, and changes a state of the mobile terminal.

Description

이동 단말기Mobile terminal
본 발명은 이동 단말기에 관한 것이다. 보다 상세하게는, 이동 단말기에 구비된 삼차원 깊이 카메라를 저전력으로 구동하며, 사용자의 직접 터치 없이 디바이스를 구동하여 사용자에게 편리한 UI를 제공하는 기술 분야에 적용이 가능하다.The present invention relates to a mobile terminal. More specifically, it can be applied to a technical field that drives a 3D depth camera provided in a mobile terminal with low power and provides a convenient UI to a user by driving a device without a user's direct touch.
단말기는 이동 가능여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)으로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mounted terminal)로 나뉠 수 있다. Terminals can be divided into mobile/portable terminals and stationary terminals depending on whether they can be moved. Again, mobile terminals can be divided into handheld terminals and vehicle mounted terminals depending on whether the user can directly carry them.
이동 단말기의 기능은 다양화 되고 있다. 예를 들면, 데이터와 음성통신, 카메라를 통한 사진촬영 및 비디오 촬영, 음성녹음, 스피커 시스템을 통한 음악파일 재생 그리고 디스플레이에 이미지나 비디오를 출력하는 기능이 있다. 일부 단말기는 전자게임 플레이 기능이 추가되거나, 멀티미디어 플레이어 기능을 수행한다. 특히 최근의 이동 단말기는 방송과 비디오나 텔레비전 프로그램과 같은 시각적 컨텐츠를 제공하는 멀티캐스트 신호를 수신할 수 있다. The functions of mobile terminals are diversifying. For example, there are functions of data and voice communication, taking pictures and videos through a camera, recording voice, playing music files through a speaker system, and outputting images or videos to the display. Some terminals add an electronic game play function or perform a multimedia player function. In particular, recent mobile terminals can receive multicast signals providing visual content such as broadcasting and video or television programs.
이동 단말기는 삼차원 깊이 카메라 기술의 발전과 함께 삼차원 비전(Vision) 기술 기반으로 사용자의 모션(motion)이나 제스처(gesture)를 감지하여 디바이스를 제어하는 사용자 인터페이스(User Interface, UI)도 발전하고 있다. 삼차원 비전(Vision) 기반 UI는 기존 이차원 터치 기반 UI를 보완하여 다양한 어플리케이션에 적용이 가능하다. 예를 들면, 증강현실(Augmented reality, AR) 어플리케이션에서 오브젝트를 삼차원으로 제어할 수 있고, 사용자가 터치할 수 없는 위치에 디바이스가 있는 경우에도 제어할 수 있으며, 사용자의 손이 오염되거나 장갑을 끼고 있을 경우 등 터치가 어려운 경우에도 디바이스를 제어할 수 있게 해준다. 이에, 삼차원 비전(Vision) 기반 제스처 인식 기술이 각광 받고 있다.Along with the development of 3D depth camera technology, mobile terminals are also developing a user interface (UI) that controls a device by detecting a user's motion or gesture based on a 3D vision technology. The three-dimensional vision-based UI can be applied to various applications by supplementing the existing two-dimensional touch-based UI. For example, in an augmented reality (AR) application, an object can be controlled in three dimensions, even when a device is located in a position that the user cannot touch, and the user's hand is contaminated or wearing gloves. It allows you to control the device even when it is difficult to touch, such as when there is one. Accordingly, 3D vision-based gesture recognition technology is in the spotlight.
삼차원 비전(Vision) 기반 제스처 인식 기술은 삼차원 좌표를 인지할 수 있는 카메라를 기반으로 구현된다. 깊이 카메라는 기존 이차원 카메라 대비 카메라와 오브젝트간 거리를 인식할 수 있는 차이점이 있으며, 이를 위해 측정된 로우(raw) 이미지를 깊이 이미지로 변환하기 위한 계산 과정이 추가된다. 이 계산 과정의 프로세싱 로드(processing load)가 커서 높은 프로세싱 파워(processing power)를 사용하게 되고, 그에 따라 깊이 카메라와 삼차원 이미지를 처리하는 프로세서의 동작에 따른 파워 소모가 발생하게 되는데, 일반적으로 이 수준이 높아 베터리로 동작하는 디바이스에서 항상 이 동작을 수행하게 되면 디바이스의 동작 시간이 현저히 떨어지게 된다. 이에, 깊이 카메라를 필요한 때에만 활성화시키는 것이 전력 소모 및 프로세서 안정화에 중요한 요인이다. Gesture recognition technology based on 3D vision is implemented based on a camera that can recognize 3D coordinates. The depth camera has a difference in recognizing the distance between the camera and the object compared to the existing 2D camera, and for this, a calculation process for converting the measured raw image into a depth image is added. The processing load of this calculation process is large, so that high processing power is used, and accordingly, power consumption according to the operation of the depth camera and the processor that processes the 3D image occurs. If this operation is always performed in a battery-operated device at such a high level, the operating time of the device is significantly reduced. Therefore, activating the depth camera only when necessary is an important factor in power consumption and processor stabilization.
깊이 카메라를 필요한 때에만 활성화시키기 위해 터치를 통한 인터렉션을 고려할 수 있지만, 사용자가 손이 오염되어 있는 경우 손을 씻어야 하고, 장갑을 끼고 있는 경우 벗어야 하는 사용자 불편을 야기한다. 또한, 디바이스가 고정되지 않고 스탠드 상태인 경우 물리적인 터치는 디바이스의 위치를 가변하게 되는 단점이 있다. In order to activate the depth camera only when necessary, interaction through touch can be considered, but it causes inconvenience to the user, who has to wash their hands if they are contaminated and take them off if they are wearing gloves. In addition, when the device is not fixed and is in a stand state, physical touch has a disadvantage in that the position of the device is changed.
본 발명은 디바이스에 사용자의 손이 근접한 경우에만 깊이 카메라가 활성화되어 필요이상으로 전력이 소모되고, 연산을 위한 부하가 발생하는 것을 방지하고, 사용자의 직접 터치 없이 디바이스를 구동하여 사용자에게 편리한 UI를 제공하는 것을 목적으로 한다.In the present invention, the depth camera is activated only when the user's hand is close to the device, so that power is consumed more than necessary, and the load for calculation is prevented, and a user-friendly UI is provided by operating the device without a user's direct touch. It aims to provide.
상기 또는 다른 목적을 달성하기 위해, 본 발명 일 측면에 따라, 이동 단말기에 있어서, 깊이 이미지를 획득하는 깊이 카메라, 비주얼 이미지를 출력하는 디스플레이 유닛, 적어도 하나의 커맨드를 저장하는 메모리; 및 상기 깊이 카메라, 상기 디스플레이 유닛 및 상기 메모리에 연결된 컨트롤러를 포함하고, 상기 컨트롤러는 오브젝트가 상기 이동 단말기에 근접한 경우, 상기 깊이 이미지를 획득하도록 상기 깊이 카메라를 제어하고, 상기 획득된 깊이 이미지를 통해 상기 오브젝트의 형상 및 모션을 분별하여 상기 이동 단말기의 상태를 변경하는 것을 특징으로 하는 이동 단말기를 제공한다.In order to achieve the above or other objects, according to an aspect of the present invention, there is provided a mobile terminal, comprising: a depth camera for obtaining a depth image, a display unit for outputting a visual image, and a memory for storing at least one command; And a controller connected to the depth camera, the display unit, and the memory, wherein the controller controls the depth camera to acquire the depth image when the object is close to the mobile terminal, and through the acquired depth image It provides a mobile terminal, characterized in that the state of the mobile terminal is changed by discriminating the shape and motion of the object.
또한, 본 발명의 일 측면에 따라, 상기 컨트롤러는 상기 이동 단말기가 슬립 상태에서, 근접한 상기 오브젝트의 형상이 사용자의 손에 대응되고, 상기 오브젝트가 이격된 상태에서 에어 노크하는 경우 상기 이동 단말기를 웨이크업하는 것을 특징으로 하는 이동 단말기를 제공한다.Further, according to an aspect of the present invention, when the mobile terminal is in a sleep state, the shape of the adjacent object corresponds to the user's hand, and the object is air-knocked in a spaced state, the mobile terminal wakes up. It provides a mobile terminal characterized in that the up.
또한, 본 발명의 일 측면에 따라, 상기 에어 노크는 사용자가 인덱스 핑거를 상기 이동 단말기를 향해 반복적으로 2회 푸쉬(Push)하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, the air knock provides a mobile terminal characterized in that the user repeatedly pushes the index finger toward the mobile terminal twice.
또한, 본 발명의 일 측면에 따라, 상기 컨트롤러는 상기 오브젝트에서 상기 인덱스 핑거를 분별하고, 상기 인덱스 핑거의 푸시 동작간 시간 간격을 기 설정 기간 간격과 비교하여, 상기 푸시 동작간 시간 간격이 기 설정 시간 간격 이하인 경우, 상기 오브젝트의 움직임이 상기 에어 노크에 대응되는 것으로 판단하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, the controller discriminates the index finger from the object, compares the time interval between push operations of the index finger with a preset period interval, and sets the time interval between the push operations. Provided is a mobile terminal, characterized in that it is determined that the movement of the object corresponds to the air knock when it is less than the time interval.
또한, 본 발명의 일 측면에 따라, 상기 컨트롤러는 상기 오브젝트에서 상기 인덱스 핑거를 분별하고, 상기 인덱스 핑거가 지향하는 지점 간 거리 간격을 기 설정 거리와 비교하여, 상기 인덱스 핑거가 지향하는 지점 간 거리 간격이 기 설정 거리 이하인 경우 상기 오브젝트의 움직임이 상기 에어 노트에 대응되는 것으로 판단하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, the controller distinguishes the index finger from the object, compares the distance between points directed by the index finger to a preset distance, and compares the distance between points directed by the index finger. Provided is a mobile terminal, characterized in that it is determined that the movement of the object corresponds to the air note when the interval is less than a preset distance.
또한, 본 발명의 일 측면에 따라, 상기 컨트롤러는 상기 이동 단말기가 슬림(sleep) 상태에서, 근접한 상기 오브젝트의 형상이 손바닥에 대응되고, 상기 오브젝트가 기 설정 거리 범위 내에서 호버링하는 경우 상기 디스플레이 유닛을 웨이크업하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, when the mobile terminal is in a sleep state, the shape of the adjacent object corresponds to the palm, and the object hovers within a preset distance range, the display unit It provides a mobile terminal characterized in that to wake up.
또한, 본 발명의 일 측면에 따라, 상기 컨트롤러는 상기 이동 단말기가 장금 상태에서, 상기 근접한 상이 오브젝트의 형상이 사용자의 손에 대응되고, 상기 오브젝트가 이격된 상태에서 기 설정 코드를 입력하는 경우 상기 장금 모드를 해제하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, when the mobile terminal is in a locked state, the shape of the adjacent disparity object corresponds to the user's hand, and when the object is spaced apart, the preset code is input. It provides a mobile terminal, characterized in that the lock mode is released.
또한, 본 발명의 일 측면에 따라, 상기 컨트롤러는 상기 오브젝트에서 사용자의 인덱스 핑거를 분별하고, 상기 인덱스 핑거가 푸쉬하는 영역의 상대 위치를 통해 입력 코드를 분별하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, the controller provides a mobile terminal, characterized in that the index finger of the user is identified from the object, and the input code is identified through a relative position of an area pushed by the index finger. .
또한, 본 발명의 일 측면에 따라, 상기 컨트롤러는 상기 이동 단말기가 장금상태에서, 근접한 상기 오브젝트의 형상이 사용자의 손에 대응되고, 상기 오브젝트가 이격된 상태에서 기 설정 패턴으로 움직이는 경우, 상기 장금 모드를 해제하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, when the mobile terminal is in the locked state, the shape of the adjacent object corresponds to the user's hand, and the object moves in a preset pattern when the object is separated It provides a mobile terminal characterized in that the mode is released.
또한, 본 발명의 일 측면에 따라, 상기 컨트롤러는 상기 오브젝트에서 사용자의 인덱스 핑거를 분별하고, 상기 인덱스 핑거가 시작 지점을 기준으로 스위핑하는 패턴을 기 설정 패턴과 비교하여 상기 장금 모드를 해제하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, the controller distinguishes the index finger of the user from the object and compares the sweeping pattern of the index finger with a preset pattern to release the locking mode. It provides a mobile terminal characterized by.
또한, 본 발명의 일 측면에 따라, 상기 컨트롤러는 상기 이동 단말기가 잠금 상태에서, 상기 오브젝트의 형상이 손바닥에 대응되고, 상기 오브젝트가 기 설정 거리 간격에서 호버링하는 경우, 생체 정보를 통해 상기 장금 모드를 해제하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, when the mobile terminal is in a locked state, the shape of the object corresponds to the palm, and the object hovers at a preset distance interval, the lock mode through biometric information It provides a mobile terminal characterized in that the release of.
또한, 본 발명의 일 측면에 따라, 상기 생체 정보는 상기 손바닥의 손금 패턴, 정맥 패턴 및 지문 패턴 중 적어도 하나를 포함하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, there is provided a mobile terminal, wherein the biometric information includes at least one of a palm pattern, a vein pattern, and a fingerprint pattern of the palm.
또한, 본 발명의 일 측면에 따라, 상기 컨트롤러는 슬립 상태에서 상기 장금 모드를 해제하는 경우, 상기 장금 모드를 해제함과 동시에 상기 이동 단말기를 웨이크업하는 것을 특징으로 하는 이동 단말기를 제공한다.Further, according to an aspect of the present invention, the controller provides a mobile terminal, characterized in that when releasing the locking mode in a sleep state, the controller wakes up the mobile terminal while releasing the locking mode.
또한, 본 발명의 일 측면에 따라, 상기 컨트롤러는 상기 분별된 오브젝트의 형상 및 모션에 대응되는 특정 어플리케이션을 실행하도록 상기 이동 단말기를 제어하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, the controller provides a mobile terminal, characterized in that controlling the mobile terminal to execute a specific application corresponding to the shape and motion of the classified object.
또한, 본 발명의 일 측면에 따라, 상기 컨트롤러는 슬립상태에서 상기 특정 어플리케이션을 실행하는 조건이 만족하는 경우, 상기 특정 어플리케이션을 실행함과 동시에 상기 디스플레이 유닛을 웨이크업하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, when the condition of executing the specific application in the sleep state is satisfied, the controller executes the specific application and wakes up the display unit at the same time. to provide.
또한, 본 발명의 일 측면에 따라, 상기 깊이 카메라는 제1 모드에서 반사되는 빛의 세기를 감지하여 상기 오브젝트의 근접 여부를 분별하고, 제2 모드에서 반사되는 빛의 시차를 감지하여 상기 깊이 이미지를 획득하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, the depth camera detects the intensity of light reflected in the first mode to discriminate whether the object is close, and detects a parallax of the light reflected in the second mode to obtain the depth image. It provides a mobile terminal, characterized in that acquiring.
또한, 본 발명의 일 측면에 따라, 상기 이동 단말기는 상기 오브젝트의 근접 여부를 분별하는 근접 센서를 더 포함하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, the mobile terminal provides a mobile terminal further comprising a proximity sensor for discriminating whether the object is in proximity.
본 발명에 따른 이동 단말기의 효과에 대해 설명하면 다음과 같다.The effect of the mobile terminal according to the present invention will be described as follows.
본 발명의 실시 예들 중 적어도 하나에 의하면, 삼차원 비전 기반 UI 실행에서 소요되는 전력 소모를 줄일 수 있다.According to at least one of the embodiments of the present invention, it is possible to reduce power consumption in executing a 3D vision-based UI.
본 발명의 실시 예들 중 적어도 하나에 의하면, 사용자가 디바이스를 직접 터치하지 않고도 삼차원 비전 기판 UI를 실행할 수 있다.According to at least one of the embodiments of the present invention, the user can execute the 3D vision board UI without directly touching the device.
본 발명의 실시 예들 중 적어도 하나에 의하면, 사용자가 디바이스를 직접 터치하지 않고 디바이스를 웨이크업 할 수 있다.According to at least one of the embodiments of the present invention, the user may wake up the device without directly touching the device.
본 발명의 실시 예들 중 적어도 하나에 의하면, 사용자가 디바이스를 직접 터치하지 않고 디바이스의 장금을 해제할 수 있다.According to at least one of the embodiments of the present invention, the user can unlock the device without directly touching the device.
본 발명의 실시 예들 중 적어도 하나에 의하면, 사용자가 디바이스를 직접 터치하지 않고 특정 어플리케이션을 실행 또는 제어할 수 있다.According to at least one of the embodiments of the present invention, a user may execute or control a specific application without directly touching the device.
본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 해당 기술 분야의 통상의 기술자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시 예와 같은 특정 실시 예는 단지 예시로 주어진 것으로 이해되어야 한다.Further scope of applicability of the present invention will become apparent from the detailed description below. However, since various changes and modifications within the spirit and scope of the present invention can be clearly understood by those skilled in the art, detailed description and specific embodiments such as preferred embodiments of the present invention are understood to be given by way of example only. Should be.
도 1a는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이다.1A is a block diagram illustrating a mobile terminal related to the present invention.
도 1b 및 1c는 본 발명과 관련된 이동 단말기의 일 예를 서로 다른 방향에서 바라본 개념도이다.1B and 1C are conceptual diagrams of an example of a mobile terminal according to the present invention viewed from different directions.
도 2및 3은 본 발명의 일 실시예에 따라, 삼차원 비전 기반 UI를 수행하기 위한 본 발명의 구성도이다.2 and 3 are configuration diagrams of the present invention for performing a 3D vision-based UI according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따라, 근접한 오브젝트의 깊이 이미지를 통해 디바이스를 직접 터치하지 않고 웨이크업 하는 프로세서를 설명하기 위한 흐름도이다.4 is a flowchart illustrating a processor that wakes up without directly touching a device through a depth image of an adjacent object, according to an embodiment of the present invention.
도 5 및 6는 본 발명의 일 실시예에 따라, 도 4의 웨이크업 알고리즘을 구체적으로 설명하기 위한 흐름도이다.5 and 6 are flowcharts illustrating in detail the wakeup algorithm of FIG. 4 according to an embodiment of the present invention.
도 7은 본 발명의 일 실시예에 따라, 에어 노크을 만족하기 위한 일 조건을 설명하기 위한 도면이다.7 is a diagram for explaining a condition for satisfying air knock according to an embodiment of the present invention.
도 8은 본 발명의 일 실시예에 따라, 근접한 오브젝트의 깊이 이미지를 통해 디바이스를 직접 터치하지 않고 잠금 모드를 해제하는 프로세서를 설명하기 위한 흐름도이다.8 is a flowchart illustrating a processor for releasing a lock mode without directly touching a device through a depth image of an adjacent object, according to an embodiment of the present invention.
도 9 및 10은 본 발명의 일 실시예에 따라, 도 8의 언락(Unlock) 알고리즘을 구체적으로 설명하기 위한 흐름도 및 도면이다.9 and 10 are flowcharts and diagrams for specifically explaining the unlock algorithm of FIG. 8 according to an embodiment of the present invention.
도 11 내지 13은 본 발명의 다른 실시예에 따라, 도 8의 언락(Unlock) 알고리즘을 구체적으로 설명하기 위한 흐름도 및 도면이다.11 to 13 are flowcharts and diagrams for specifically explaining the unlock algorithm of FIG. 8 according to another embodiment of the present invention.
도 14는 본 발명의 일 실시예에 따라, 근접한 오브젝트의 깊이 이미지를 통해 디바이스를 직접 터치하지 않고 특정 어플리케이션을 실행 또는 제어하는 프로세서를 설명하기 위한 흐름도이다.14 is a flowchart illustrating a processor that executes or controls a specific application without directly touching a device through a depth image of an adjacent object, according to an embodiment of the present invention.
도 15는 본 발명의 일 실시예에 따라, 도 14의 특정 어플리케이션 실행 또는 제어를 구체적으로 설명하기 위한 도면이다.FIG. 15 is a diagram for specifically explaining execution or control of a specific application of FIG. 14 according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, exemplary embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but identical or similar elements are denoted by the same reference numerals regardless of reference numerals, and redundant descriptions thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or used interchangeably in consideration of only the ease of preparation of the specification, and do not have meanings or roles that are distinguished from each other by themselves. In addition, in describing the embodiments disclosed in the present specification, when it is determined that a detailed description of related known technologies may obscure the subject matter of the embodiments disclosed in the present specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are for easy understanding of the embodiments disclosed in the present specification, and the technical idea disclosed in the present specification is not limited by the accompanying drawings, and all modifications included in the spirit and scope of the present invention It should be understood to include equivalents or substitutes.
본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다.Mobile terminals described in this specification include mobile phones, smart phones, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), navigation systems, and slate PCs. , Tablet PC (tablet PC), ultrabook (ultrabook), wearable device (wearable device, for example, smartwatch, glass-type terminal (smart glass), HMD (head mounted display)), etc. may be included. have.
그러나, 본 명세서에 기재된 실시 예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 해당 기술 분야의 통상의 기술자라면 쉽게 알 수 있을 것이다.However, it is understood that the configuration according to the embodiment described in the present specification may also be applied to a fixed terminal such as a digital TV, a desktop computer, and a digital signage, except for a case applicable only to a mobile terminal. If you are a technician, you can easily find out.
도 1a 내지 도 1c를 참조하면, 도 1a는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이고, 도 1b 및 1c는 본 발명과 관련된 이동 단말기의 일 예를 서로 다른 방향에서 바라본 개념도이다.1A to 1C, FIG. 1A is a block diagram illustrating a mobile terminal related to the present invention, and FIGS. 1B and 1C are conceptual diagrams of an example of a mobile terminal related to the present invention viewed from different directions.
상기 이동 단말기(100)는 무선 통신부(110), 입력부(120), 센싱부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1a에 도시된 구성요소들은 이동 단말기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 이동 단말기는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. The mobile terminal 100 includes a wireless communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, an interface unit 160, a memory 170, a control unit 180, and a power supply unit 190. ), etc. The components shown in FIG. 1A are not essential for implementing the mobile terminal, and thus, the mobile terminal described in the present specification may have more or fewer components than those listed above.
보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 이동 단말기(100)와 무선 통신 시스템 사이, 이동 단말기(100)와 다른 이동 단말기(100) 사이, 또는 이동 단말기(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 이동 단말기(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.More specifically, among the components, the wireless communication unit 110 may be configured between the mobile terminal 100 and the wireless communication system, between the mobile terminal 100 and another mobile terminal 100, or between the mobile terminal 100 and an external server. It may include one or more modules that enable wireless communication between. In addition, the wireless communication unit 110 may include one or more modules for connecting the mobile terminal 100 to one or more networks.
이러한 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.The wireless communication unit 110 may include at least one of a broadcast reception module 111, a mobile communication module 112, a wireless Internet module 113, a short-range communication module 114, and a location information module 115. .
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The input unit 120 includes a camera 121 or an image input unit for inputting an image signal, a microphone 122 for inputting an audio signal, or an audio input unit, and a user input unit 123 for receiving information from a user, for example, , A touch key, a mechanical key, etc.). The voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.
센싱부(140)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 이동 단말기는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.The sensing unit 140 may include one or more sensors for sensing at least one of information in the mobile terminal, information on surrounding environments surrounding the mobile terminal, and user information. For example, the sensing unit 140 includes a proximity sensor 141, an illumination sensor 142, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity. G-sensor, gyroscope sensor, motion sensor, RGB sensor, infrared sensor (IR sensor), fingerprint sensor (finger scan sensor), ultrasonic sensor (ultrasonic sensor) , Optical sensor (for example, camera (see 121)), microphone (microphone, see 122), battery gauge, environmental sensor (for example, barometer, hygrometer, thermometer, radiation detection sensor, It may include at least one of a heat sensor, a gas sensor, etc.), and a chemical sensor (eg, an electronic nose, a healthcare sensor, a biometric sensor, etc.). Meanwhile, the mobile terminal disclosed in the present specification may combine and utilize information sensed by at least two or more of these sensors.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이(151), 음향 출력부(152), 햅팁 모듈(153), 광 출력부 중 적어도 하나를 포함할 수 있다. 디스플레이(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 이동 단말기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 이동 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit 150 is for generating an output related to visual, auditory, or tactile sense, and may include at least one of a display 151, an audio output unit 152, a hap tip module 153, and a light output unit. The display 151 may form a layer structure with the touch sensor or be integrally formed, thereby implementing a touch screen. Such a touch screen can function as a user input unit 123 that provides an input interface between the mobile terminal 100 and a user, and can provide an output interface between the mobile terminal 100 and a user.
인터페이스부(160)는 이동 단말기(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 이동 단말기(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.The interface unit 160 serves as a passage between various types of external devices connected to the mobile terminal 100. The interface unit 160 connects a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, and a device equipped with an identification module. It may include at least one of a port, an audio input/output (I/O) port, an input/output (video I/O) port, and an earphone port. The mobile terminal 100 may perform appropriate control related to the connected external device in response to the connection of the external device to the interface unit 160.
또한, 메모리(170)는 이동 단말기(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 이동 단말기(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 이동 단말기(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 이동 단말기(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 이동 단말기(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 이동 단말기(100) 상에 설치되어, 제어부(180)에 의하여 상기 이동 단말기의 동작(또는 기능)을 수행하도록 구동될 수 있다.In addition, the memory 170 stores data supporting various functions of the mobile terminal 100. The memory 170 may store a plurality of application programs or applications driven by the mobile terminal 100, data for operation of the mobile terminal 100, and commands. At least some of these application programs may be downloaded from an external server through wireless communication. In addition, at least some of these application programs may exist on the mobile terminal 100 from the time of delivery for basic functions of the mobile terminal 100 (eg, incoming calls, outgoing functions, message reception, and outgoing functions). Meanwhile, the application program may be stored in the memory 170, installed on the mobile terminal 100, and driven by the controller 180 to perform an operation (or function) of the mobile terminal.
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.In addition to the operation related to the application program, the controller 180 generally controls the overall operation of the mobile terminal 100. The controller 180 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in the memory 170.
또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1a와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 이동 단말기(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.Also, in order to drive an application program stored in the memory 170, the controller 180 may control at least some of the components examined together with FIG. 1A. Furthermore, in order to drive the application program, the controller 180 may operate by combining at least two or more of the components included in the mobile terminal 100 with each other.
전원공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 이동 단말기(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체 가능한 형태의 배터리가 될 수 있다.The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power to each of the components included in the mobile terminal 100. The power supply unit 190 includes a battery, and the battery may be a built-in battery or a replaceable battery.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 이동 단말기의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 이동 단말기의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 이동 단말기 상에서 구현될 수 있다.At least some of the components may operate in cooperation with each other to implement an operation, control, or control method of a mobile terminal according to various embodiments described below. In addition, the operation, control, or control method of the mobile terminal may be implemented on the mobile terminal by driving at least one application program stored in the memory 170.
도 1 b 및 1c는 펼쳐진 상태의 폴더블 방식의 이동 단말기에서의 기본적인 특징에 대해 설명한다.1B and 1C describe basic features of a foldable mobile terminal in an unfolded state.
이동 단말기(100)에는 디스플레이(151), 제1 및 제2 음향 출력부(152a, 152b), 근접 센서(141), 조도 센서(142), 광 출력부(154), 제1 및 제2 카메라(121a, 121b), 제1 및 제2 조작유닛(123a, 123b), 마이크로폰(122), 인터페이스부(160) 등이 구비될 수 있다.The mobile terminal 100 includes a display 151, first and second sound output units 152a and 152b, proximity sensor 141, illuminance sensor 142, light output unit 154, and first and second cameras. (121a, 121b), first and second operation units (123a, 123b), a microphone 122, an interface unit 160, and the like may be provided.
이하에서는, 도 1b 및 도 1c에 도시된 바와 같이, 단말기 바디의 전면에 디스플레이(151), 제1 음향 출력부(152a), 근접 센서(141), 조도 센서(142), 광 출력부, 제1 카메라(121a) 및 제1 조작유닛(123a)이 배치되고, 단말기 바디의 측면에 제2 조작유닛(123b), 마이크로폰(122) 및 인터페이스부(160)이 배치되며, 단말기 바디의 후면에 제2 음향 출력부(152b) 및 제2 카메라(121b)가 배치된 이동 단말기(100)를 일 예로 들어 설명한다.In the following, as shown in FIGS. 1B and 1C, the display 151, the first sound output unit 152a, the proximity sensor 141, the illuminance sensor 142, the light output unit, and 1 The camera 121a and the first operation unit 123a are disposed, the second operation unit 123b, the microphone 122 and the interface unit 160 are disposed on the side of the terminal body, and 2 A mobile terminal 100 in which the sound output unit 152b and the second camera 121b are disposed will be described as an example.
다만, 이들 구성은 이러한 배치에 한정되는 것은 아니다. 이들 구성은 필요에 따라 제외 또는 대체되거나, 다른 면에 배치될 수 있다. 예를 들어, 단말기 바디의 전면에는 제1 조작유닛(123a)이 구비되지 않을 수 있으며, 제2 음향 출력부(152b)는 단말기 바디의 후면이 아닌 단말기 바디의 측면에 구비될 수 있다.However, these configurations are not limited to this arrangement. These configurations may be excluded or replaced as necessary, or may be disposed on different sides. For example, the first operation unit 123a may not be provided on the front surface of the terminal body, and the second sound output unit 152b may be provided on the side of the terminal body rather than on the rear surface of the terminal body.
디스플레이(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이(151)는 이동 단말기(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.The display 151 displays (outputs) information processed by the mobile terminal 100. For example, the display 151 may display execution screen information of an application program driven in the mobile terminal 100, or UI (User Interface) and GUI (Graphic User Interface) information according to such execution screen information.
디스플레이(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display 151 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. ), a 3D display, and an e-ink display.
또한, 디스플레이(151)는 이동 단말기(100)의 구현 형태에 따라 2개 이상 존재할 수 있다. 이 경우, 이동 단말기(100)에는 복수의 디스플레이들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.In addition, two or more displays 151 may exist depending on the implementation type of the mobile terminal 100. In this case, in the mobile terminal 100, a plurality of displays may be spaced apart or integrally disposed on one surface, or may be disposed on different surfaces, respectively.
디스플레이(151)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있도록, 디스플레이(151)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. 이를 이용하여, 디스플레이(151)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, 제어부(180)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 이루어질 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.The display 151 may include a touch sensor that senses a touch on the display 151 so as to receive a control command by a touch method. Using this, when a touch is made to the display 151, the touch sensor may sense the touch, and the controller 180 may generate a control command corresponding to the touch based on this. Content input by the touch method may be letters or numbers, or menu items that can be indicated or designated in various modes.
한편, 터치센서는, 터치패턴을 구비하는 필름 형태로 구성되어 디스플레이(151)를 덮는 윈도우(151a)와 디스플레이(151)를 구성하는 복수의 레이어 사이에 배치되거나, 윈도우(151a)의 배면에 직접 패터닝되는 메탈 와이어가 될 수도 있다. 또는, 터치센서는 디스플레이와 일체로 형성될 수 있다. 예를 들어, 터치센서는, 디스플레이의 기판 상에 배치되거나, 디스플레이의 내부에 구비될 수 있다.Meanwhile, the touch sensor is configured in the form of a film having a touch pattern and is disposed between the window 151a covering the display 151 and a plurality of layers constituting the display 151, or directly on the rear surface of the window 151a. It can also be a metal wire to be patterned. Alternatively, the touch sensor may be integrally formed with the display. For example, the touch sensor may be disposed on a substrate of the display or may be provided inside the display.
이처럼, 디스플레이(151)는 터치센서와 함께 터치 스크린을 형성할 수 있으며, 이 경우에 터치 스크린은 사용자 입력부(123, 도 1a 참조)로 기능할 수 있다. 경우에 따라, 터치 스크린은 제1조작유닛(123a)의 적어도 일부 기능을 대체할 수 있다.As such, the display 151 may form a touch screen together with a touch sensor, and in this case, the touch screen may function as a user input unit 123 (see FIG. 1A). In some cases, the touch screen may replace at least some functions of the first manipulation unit 123a.
제1 음향 출력부(152a)는 통화음을 사용자의 귀에 전달시키는 리시버(receiver)로 구현될 수 있으며, 제2 음향 출력부(152b)는 각종 알람음이나 멀티미디어의 재생음을 출력하는 라우드 스피커(loud speaker)의 형태로 구현될 수 있다.The first sound output unit 152a may be implemented as a receiver that transmits a call sound to the user's ear, and the second sound output unit 152b is a loud speaker that outputs various alarm sounds or multimedia playback sounds. ) Can be implemented.
디스플레이(151)의 윈도우(151a)에는 제1 음향 출력부(152a)로부터 발생되는 사운드의 방출을 위한 음향홀이 형성될 수 있다. 다만, 본 발명은 이에 한정되는 것은 아니고, 상기 사운드는 구조물 간의 조립틈(예를 들어, 윈도우(151a)와 프론트 케이스(101) 간의 틈)을 따라 방출되도록 구성될 수 있다. 이 경우, 외관상 음향 출력을 위하여 독립적으로 형성되는 홀이 보이지 않거나 숨겨져 이동 단말기(100)의 외관이 보다 심플해질 수 있다.A sound hole for emitting sound generated from the first sound output unit 152a may be formed in the window 151a of the display 151. However, the present invention is not limited thereto, and the sound may be configured to be emitted along an assembly gap between structures (eg, a gap between the window 151a and the front case 101). In this case, the externally formed hole for sound output is not visible or hidden, so that the appearance of the mobile terminal 100 may be more simple.
광 출력부는 이벤트의 발생시 이를 알리기 위한 빛을 출력하도록 이루어진다. 상기 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등을 들 수 있다. 제어부(180)는 사용자의 이벤트 확인이 감지되면, 빛의 출력이 종료되도록 광 출력부를 제어할 수 있다.The light output unit is configured to output light to notify when an event occurs. Examples of the event include message reception, call signal reception, missed call, alarm, schedule notification, e-mail reception, and information reception through an application. When the user's event confirmation is detected, the controller 180 may control the light output unit so that light output is terminated.
제1 카메라(121a)는 촬영 모드 또는 화상통화 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이(151)에 표시될 수 있으며, 메모리(170)에 저장될 수 있다.The first camera 121a processes an image frame of a still image or moving image obtained by an image sensor in a photographing mode or a video call mode. The processed image frame may be displayed on the display 151 and may be stored in the memory 170.
제1 및 제2 조작유닛(123a, 123b)은 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력 받기 위해 조작되는 사용자 입력부(123)의 일 예로서, 조작부(manipulating portion)로도 통칭될 수 있다. 제1 및 제2 조작유닛(123a, 123b)은 터치, 푸시, 스크롤 등 사용자가 촉각적인 느낌을 받으면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. 또한, 제1 및 제2 조작유닛(123a, 123b)은 근접 터치(proximity touch), 호버링(hovering) 터치 등을 통해서 사용자의 촉각적인 느낌이 없이 조작하게 되는 방식으로도 채용될 수 있다.The first and second manipulation units 123a and 123b are an example of a user input unit 123 that is manipulated to receive a command for controlling the operation of the mobile terminal 100, and may also be collectively referred to as a manipulating portion. have. The first and second operation units 123a and 123b may be employed in any manner as long as the user operates while receiving a tactile feeling such as touch, push, and scroll. In addition, the first and second manipulation units 123a and 123b may also be employed in a manner in which the first and second manipulation units 123a and 123b are operated without a user's tactile feeling through proximity touch, hovering touch, or the like.
본 도면에서는 제1 조작유닛(123a)이 터치키(touch key)인 것으로 예시하나, 본 발명이 이에 한정되는 것은 아니다. 예를 들어, 제1 조작유닛(123a)은 푸시키(mechanical key)가 되거나, 터치키와 푸시키의 조합으로 구성될 수 있다.In this drawing, the first manipulation unit 123a is illustrated as being a touch key, but the present invention is not limited thereto. For example, the first operation unit 123a may be a push key (mechanical key) or may be configured as a combination of a touch key and a push key.
제1 및 제2 조작유닛(123a, 123b)에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 제1 조작유닛(123a)은 메뉴, 홈키, 취소, 검색 등의 명령을 입력 받고, 제2 조작유닛(123b)은 제1 또는 제2 음향 출력부(152a, 152b)에서 출력되는 음향의 크기 조절, 디스플레이(151)의 터치 인식 모드로의 전환 등의 명령을 입력 받을 수 있다.Contents input by the first and second manipulation units 123a and 123b may be variously set. For example, the first operation unit 123a receives commands such as menu, home key, cancel, search, etc., and the second operation unit 123b is output from the first or second sound output units 152a, 152b. Commands such as adjusting the volume of sound and switching to the touch recognition mode of the display 151 may be input.
한편, 단말기 바디의 후면에는 사용자 입력부(123)의 다른 일 예로서, 후면 입력부(미도시)가 구비될 수 있다. 이러한 후면 입력부는 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력 받기 위해 조작되는 것으로서, 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 전원의 온/오프, 시작, 종료, 스크롤 등과 같은 명령, 제1 및 제2 음향 출력부(152a, 152b)에서 출력되는 음향의 크기 조절, 디스플레이(151)의 터치 인식 모드로의 전환 등과 같은 명령을 입력 받을 수 있다. 후면 입력부는 터치입력, 푸시입력 또는 이들의 조합에 의한 입력이 가능한 형태로 구현될 수 있다.Meanwhile, as another example of the user input unit 123, a rear input unit (not shown) may be provided on the rear surface of the terminal body. This rear input unit is manipulated to receive a command for controlling the operation of the mobile terminal 100, and input contents may be variously set. For example, commands such as power on/off, start, end, scrolling, etc., adjusting the volume of sound output from the first and second sound output units 152a and 152b, and entering the touch recognition mode of the display 151 Commands such as conversion can be input. The rear input unit may be implemented in a form capable of inputting by a touch input, a push input, or a combination thereof.
후면 입력부는 단말기 바디의 두께방향으로 전면의 디스플레이(151)와 중첩되게 배치될 수 있다. 일 예로, 사용자가 단말기 바디를 한 손으로 쥐었을 때 검지를 이용하여 용이하게 조작 가능하도록, 후면 입력부는 단말기 바디의 후면 상단부에 배치될 수 있다. 다만, 본 발명은 반드시 이에 한정되는 것은 아니며, 후면 입력부의 위치는 변경될 수 있다.The rear input unit may be disposed to overlap the front display 151 in the thickness direction of the terminal body. For example, when the user holds the terminal body with one hand, the rear input unit may be disposed on the rear upper end of the terminal body so that the user can easily manipulate it using the index finger. However, the present invention is not necessarily limited thereto, and the position of the rear input unit may be changed.
이처럼 단말기 바디의 후면에 후면 입력부가 구비되는 경우, 이를 이용한 새로운 형태의 유저 인터페이스가 구현될 수 있다. 또한, 앞서 설명한 터치 스크린 또는 후면 입력부가 단말기 바디의 전면에 구비되는 제1 조작유닛(123a)의 적어도 일부 기능을 대체하여, 단말기 바디의 전면에 제1 조작유닛(123a)이 미배치되는 경우, 디스플레이(151)가 보다 대화면으로 구성될 수 있다.When the rear input unit is provided on the rear surface of the terminal body, a new type of user interface can be implemented using the rear input unit. In addition, when the touch screen or the rear input unit described above replaces at least some functions of the first operation unit 123a provided on the front of the terminal body, and the first operation unit 123a is not disposed on the front of the terminal body, The display 151 may be configured with a larger screen.
한편, 이동 단말기(100)에는 사용자의 지문을 인식하는 지문인식센서(143)가 구비될 수 있으며, 제어부(180)는 지문인식센서(143)를 통하여 감지되는 지문정보를 인증수단으로 이용할 수 있다. 상기 지문인식센서는 디스플레이(151) 또는 사용자 입력부(123)에 내장될 수도 있고, 별도의 위치에 구비될 수도 있다.Meanwhile, the mobile terminal 100 may be provided with a fingerprint recognition sensor 143 for recognizing a user's fingerprint, and the controller 180 may use fingerprint information detected through the fingerprint recognition sensor 143 as an authentication means. . The fingerprint recognition sensor may be embedded in the display 151 or the user input unit 123, or may be provided in a separate location.
마이크로폰(122)은 사용자의 음성, 기타 소리 등을 입력 받도록 이루어진다. 마이크로폰(122)은 복수의 개소에 구비되어 스테레오 음향을 입력 받도록 구성될 수 있다.The microphone 122 is configured to receive a user's voice and other sounds. The microphone 122 may be provided in a plurality of locations and configured to receive stereo sound.
인터페이스부(160)는 이동 단말기(100)를 외부기기와 연결시킬 수 있는 통로가 된다. 예를 들어, 인터페이스부(160)는 다른 장치(예를 들어, 이어폰, 외장 스피커)와의 연결을 위한 접속단자, 근거리 통신을 위한 포트[예를 들어, 적외선 포트(IrDA Port), 블루투스 포트(Bluetooth Port), 무선 랜 포트(Wireless LAN Port) 등], 또는 이동 단말기(100)에 전원을 공급하기 위한 전원공급단자 중 적어도 하나일 수 있다. 이러한 인터페이스부(160)는 SIM(Subscriber Identification Module) 또는 UIM(User Identity Module), 정보 저장을 위한 메모리 카드 등의 외장형 카드를 수용하는 소켓의 형태로 구현될 수도 있다.The interface unit 160 becomes a passage through which the mobile terminal 100 can be connected to an external device. For example, the interface unit 160 is a connection terminal for connection with other devices (eg, earphones, external speakers), a port for short-range communication (eg, an infrared port (IrDA Port), a Bluetooth port (Bluetooth Port), a wireless LAN port, etc.], or at least one of a power supply terminal for supplying power to the mobile terminal 100. The interface unit 160 may be implemented in the form of a socket for accommodating an external card such as a subscriber identification module (SIM) or a user identity module (UIM), or a memory card for storing information.
단말기 바디의 후면에는 제2카메라(121b)가 배치될 수 있다. 이 경우, 제2카메라(121b)는 제1카메라(121a)와 실질적으로 반대되는 촬영 방향을 가지게 된다.A second camera 121b may be disposed on the rear surface of the terminal body. In this case, the second camera 121b has a photographing direction substantially opposite to that of the first camera 121a.
제2카메라(121b)는 적어도 하나의 라인을 따라 배열되는 복수의 렌즈를 포함할 수 있다. 복수의 렌즈는 행렬(matrix) 형식으로 배열될 수도 있다. 이러한 카메라는, '어레이(array) 카메라'로 명명될 수 있다. 제2카메라(121b)가 어레이 카메라로 구성되는 경우, 복수의 렌즈를 이용하여 다양한 방식으로 영상을 촬영할 수 있으며, 보다 나은 품질의 영상을 획득할 수 있다.The second camera 121b may include a plurality of lenses arranged along at least one line. The plurality of lenses may be arranged in a matrix format. Such a camera may be referred to as an'array camera'. When the second camera 121b is configured as an array camera, an image may be photographed in various ways using a plurality of lenses, and an image of better quality may be obtained.
플래시(124)는 제2카메라(121b)에 인접하게 배치될 수 있다. 플래시(124)는 제2카메라(121b)로 피사체를 촬영하는 경우에 피사체를 향하여 빛을 비추게 된다.The flash 124 may be disposed adjacent to the second camera 121b. The flash 124 illuminates light toward the subject when photographing the subject with the second camera 121b.
단말기 바디에는 제2 음향 출력부(152b)가 추가로 배치될 수 있다. 제2 음향 출력부(152b)는 제1 음향 출력부(152a)와 함께 스테레오 기능을 구현할 수 있으며, 통화시 스피커폰 모드의 구현을 위하여 사용될 수도 있다.A second sound output unit 152b may be additionally disposed on the terminal body. The second sound output unit 152b may implement a stereo function together with the first sound output unit 152a, and may be used to implement a speakerphone mode during a call.
단말기 바디에는 무선 통신을 위한 적어도 하나의 안테나가 구비될 수 있다. 안테나는 단말기 바디에 내장되거나, 케이스에 형성될 수 있다. 예를 들어, 방송 수신 모듈(111, 도 1a 참조)의 일부를 이루는 안테나는 단말기 바디에서 인출 가능하게 구성될 수 있다. 또는, 안테나는 필름 타입으로 형성되어 후면 커버(103)의 내측면에 부착될 수도 있고, 도전성 재질을 포함하는 케이스가 안테나로서 기능하도록 구성될 수도 있다.At least one antenna for wireless communication may be provided in the terminal body. The antenna may be embedded in the terminal body or may be formed in a case. For example, an antenna forming a part of the broadcast receiving module 111 (refer to FIG. 1A) may be configured to be retractable from the terminal body. Alternatively, the antenna may be formed in a film type and attached to the inner surface of the rear cover 103, or a case including a conductive material may be configured to function as an antenna.
단말기 바디에는 이동 단말기(100)에 전원을 공급하기 위한 전원 공급부(190, 도 1a 참조)가 구비된다. 전원 공급부(190)는 단말기 바디에 내장되거나, 단말기 바디의 외부에서 착탈 가능하게 구성되는 배터리(191)를 포함할 수 있다.The terminal body is provided with a power supply unit 190 (refer to FIG. 1A) for supplying power to the mobile terminal 100. The power supply unit 190 may include a battery 191 built in the terminal body or configured to be detachable from the outside of the terminal body.
배터리(191)는 인터페이스부(160)에 연결되는 전원 케이블을 통하여 전원을 공급받도록 구성될 수 있다. 또한, 배터리(191)는 무선충전기기를 통하여 무선충전 가능하도록 구성될 수도 있다. 상기 무선충전은 자기유도방식 또는 공진방식(자기공명방식)에 의하여 구현될 수 있다.The battery 191 may be configured to receive power through a power cable connected to the interface unit 160. In addition, the battery 191 may be configured to enable wireless charging through a wireless charger. The wireless charging may be implemented by a magnetic induction method or a resonance method (magnetic resonance method).
한편, 본 도면에서는 후면 커버(103)가 배터리(191)를 덮도록 리어 케이스(102)에 결합되어 배터리(191)의 이탈을 제한하고, 배터리(191)를 외부 충격과 이물질로부터 보호하도록 구성된 것을 예시하고 있다. 배터리(191)가 단말기 바디에 착탈 가능하게 구성되는 경우, 후면 커버(103)는 리어 케이스(102)에 착탈 가능하게 결합될 수 있다.On the other hand, in this drawing, the rear cover 103 is coupled to the rear case 102 so as to cover the battery 191 to limit the separation of the battery 191, and to protect the battery 191 from external shock and foreign substances. It is illustrated. When the battery 191 is configured to be detachably attached to the terminal body, the rear cover 103 may be detachably coupled to the rear case 102.
도 2및 3은 본 발명의 일 실시예에 따라, 삼차원 비전 기반 UI를 수행하기 위한 본 발명의 구성도이다.2 and 3 are configuration diagrams of the present invention for performing a 3D vision-based UI according to an embodiment of the present invention.
본 발명은 디바이스에 오브젝트가 근접한 경우 깊이 카메라(200)를 활성화하고, 깊이 카메라(200)에서 획득한 깊이 이미지를 이용하여 삼차원 비전 기반 UI를 수행하는 시스템에 관한 발명이다.The present invention relates to a system for activating a depth camera 200 when an object is close to a device and performing a 3D vision-based UI using a depth image acquired from the depth camera 200.
본 발명의 디바이스는 이동 단말기를 포함할 수 있으나 반드시 이에 한정되지 않고, 삼차원 비전 기반 UI를 활용할 수 있는 텔레비전, 인공지능 기기, 테블릿 등을 포함할 수 있다.The device of the present invention may include a mobile terminal, but is not necessarily limited thereto, and may include a television, an artificial intelligence device, a tablet, etc. that can utilize a 3D vision-based UI.
본 발명의 깊이 카메라(200)는 TOF(Time-of-Flight) 방식의 카메라가 사용될 수 있으나, 반드시 이러한 방식의 카메라에 한정되지 않는다.The depth camera 200 of the present invention may be a TOF (Time-of-Flight) type camera, but is not necessarily limited to this type of camera.
본 발명은 디바이스에 오브젝트가 근접하는지 여부를 근접 센서(300) 또는 깊이 카메라(200)를 통해 감지할 수 있다. In the present invention, whether an object is close to the device may be detected through the proximity sensor 300 or the depth camera 200.
구체적으로, 도 2는 근접 센서(300)를 통해 오브젝트가 근접하는지 여부를 감지하는 시스템을 도시하고 있으며, 도 3은 깊이 카메라(200)를 통해 오브젝트가 근접하는지 여부를 감지하는 시스템을 도시하고 있다.Specifically, FIG. 2 shows a system for detecting whether an object is close through the proximity sensor 300, and FIG. 3 shows a system for detecting whether an object is close through the depth camera 200. .
먼저, 도 2를 살펴보면, 본 발명은 별도의 근접 센서(300)를 구비하여 반사되는 빛의 세기를 통해 근접 여부를 판단할 수 있다. 다만, 근접 센서(300)가 오브젝트의 근접 여부를 감지하는 방식은 빛의 세기를 이용하는 방식 외 다른 방식이 이용될 수 있다.First, referring to FIG. 2, according to the present invention, a separate proximity sensor 300 may be provided to determine whether or not the proximity sensor is close through the intensity of reflected light. However, a method for the proximity sensor 300 to detect whether an object is in proximity may be a method other than a method using the intensity of light.
본 발명은 근접 센서(300)를 통해 오브젝트가 근접한 것으로 감지한 경우, 깊이 카메라(200)를 통해 깊이 이미지를 획득하고, 획득한 깊이 이미지에서 오브젝트가 사용자의 손에 대응되는지 여부를 분별할 수 있다.In the present invention, when the proximity sensor 300 detects that an object is close, a depth image is obtained through the depth camera 200, and it is possible to discriminate whether the object corresponds to the user's hand from the acquired depth image.
본 발명은 추가적으로 디바이스의 상태를 감지할 수 있는 모션 센서(400)를 구비할 수 있다. 모션 센서(400)는 디바이스가 삼차원 기반 UI를 수행하기 적합한 상태로 디바이스가 존재하는지 여부를 감지할 수 있다. The present invention may additionally include a motion sensor 400 capable of detecting the state of the device. The motion sensor 400 may detect whether the device exists in a state suitable for the device to perform a 3D based UI.
예를 들어, 모션 센서(400)는 디바이스가 테이블 위에 있거나, 사용자를 향해 고정되어 있는 경우 등 사용자가 디바이스와 삼차원 기반 UI를 수행하기 적합한 안정된 상태인지 여부를 감지할 수 있다.For example, the motion sensor 400 may detect whether the device is in a stable state suitable for performing a 3D-based UI with the device, such as when the device is on a table or is fixed toward the user.
이를 위해, 모션 센서(400)는 가속도 센서, 자이로 센서등을 포함할 수 있다. To this end, the motion sensor 400 may include an acceleration sensor, a gyro sensor, or the like.
모션 센서(400)는 근접 센서(300)를 활성화시키는 트리거 역할을 수행할 수 있다. 즉, 모션 센서(400)를 통해 디바이스가 안정된 상태에서만 근접 센서(300)를 통해 오브젝트의 근접 여부를 판단하는 데이터를 획득할 수 있다.The motion sensor 400 may serve as a trigger for activating the proximity sensor 300. That is, only when the device is stable through the motion sensor 400, data for determining whether an object is in proximity may be obtained through the proximity sensor 300.
다만, 디바이스가 텔레비전과 같이 고정되어 있는 경우에는 모션 센서(400)가 필요 없을 수 있다. 이 경우, 모션 센서(400)는 항상 활성 상태로 구동하고 있을 수 있다.However, when the device is fixed such as a television, the motion sensor 400 may not be required. In this case, the motion sensor 400 may always be driven in an active state.
구체적으로, 모션 센서(400)와 근점 센서(300)는 저전력으로 구동하는 저전력 프로세서(low power processor, 500)를 통해 제어될 수 있다.Specifically, the motion sensor 400 and the near point sensor 300 may be controlled through a low power processor 500 that operates with low power.
저전력 프로세서(500)는 모션 센서(400)와 연결되어 모션 센서(400)에서 획득한 데이터를 통해 디바이스의 모션 상태를 감지하는 디바이스 상태 감지부(Device state checker, 510)를 포함할 수 있다.The low power processor 500 may include a device state checker 510 connected to the motion sensor 400 to detect a motion state of a device through data acquired from the motion sensor 400.
디바이스 상태 감지부(510)는 디바이스의 모션이 사용자와 삼차원 비전 기반 UI를 수행하기 안정된 상태임을 감지한 경우, 근접 센서 트리거(Proximity tigger, 520)를 통해 근접 센서(300)를 활성화 시키고 오브젝트 근접 여부를 판단하기 위한 데이터를 획득할 수 있다.When the device state detection unit 510 detects that the motion of the device is in a stable state for performing a 3D vision-based UI with the user, it activates the proximity sensor 300 through a proximity sensor trigger 520 and whether the object is in proximity. It is possible to obtain data for determining the.
근접 센서 트리거(520)는 근접 센서(300)를 통해 획득한 데이터로 초기 값(=베이스 라인, baseline)을 설정하고, 설정된 초기 값을 통해 오브젝트의 근접여부를 판단할 수 있다.The proximity sensor trigger 520 may set an initial value (=baseline, baseline) with data acquired through the proximity sensor 300 and determine whether the object is in proximity through the set initial value.
근접 센서 트리거(520)를 통해 오브젝트가 근접한 상태임을 감지한 경우, 깊이 카레라(300)를 활성화 시킬 수 있다.When detecting that the object is in proximity through the proximity sensor trigger 520, the depth carrera 300 may be activated.
깊이 카메라(300)는 고사양 프로세서(high performance processor, 600)에 연결되며, 고사양 프로세서(600)는 깊이 카메라(300)를 제어하여 깊이 이미지를 획득하고, 삼차원 비전 기반 UI를 수행하기 위해 사용자의 인덱스 핑거를 트렉킹(tracking)하는 기능을 제공할 수 있다. The depth camera 300 is connected to a high performance processor 600, and the high performance processor 600 controls the depth camera 300 to obtain a depth image and indexes a user to perform a 3D vision-based UI. A function of tracking a finger may be provided.
구체적으로, 고사양 프로세서(600)는 깊이 카메라(300)에서 깊이 이미지를 획득하도록 제어하고, 획득한 깊이 이미지로 오브젝트가 사용자의 손에 대응되는 여부를 분별하는 오브젝트 분별부(610)를 포함할 수 있다. Specifically, the high specification processor 600 may include an object classifying unit 610 that controls the depth camera 300 to acquire a depth image, and discriminates whether an object corresponds to a user's hand with the acquired depth image. have.
깊이 카메라(300)는 레디 모드(ready mode)에서 깊이 이미지를 획득하고 오브젝트 분별부(610)를 통해 깊이 이미지의 형상을 분별할 수 있다.The depth camera 300 may acquire a depth image in a ready mode and discriminate the shape of the depth image through the object classifier 610.
레디 모드(ready mode)는 근접 센서(300)를 통해 오브젝트가 근접한 경우 활성화 될 수 있다.The ready mode may be activated when an object approaches through the proximity sensor 300.
오브젝트 분별부(610)에서 오브젝트를 분별하고, 분별 결과에 따라 근접 센서(300)의 초기 값을 업데이트 할 수 있다. The object classification unit 610 may classify an object and update an initial value of the proximity sensor 300 according to the classification result.
이는 근접 센서(300)의 초기 값이 잘못 설정되거나, 근접 센서(300) 부근이 오염되어 깊이 카메라(300)가 불필요하게 사용자 손의 인덱스 핑거(index finger)를 트랙킹하는 엑티브 모드(active mode)로 작동하는 것을 방지하기 위함이다. This is an active mode in which the initial value of the proximity sensor 300 is incorrectly set or the vicinity of the proximity sensor 300 is contaminated and the depth camera 300 unnecessarily tracks the index finger of the user's hand. This is to prevent it from working.
고사양 프로세서(600)는 오브젝트 분별부(610)를 통해 사용자의 손을 인지한 경우, 사용자 손의 제스처를 감지하거나, 사용자 손의 인덱스 핑거를 트랙킹하는 트랙킹부(620)를 활성화할 수 있다. When the user's hand is recognized through the object classification unit 610, the high-end processor 600 may detect a gesture of the user's hand or activate a tracking unit 620 that tracks an index finger of the user's hand.
별도의 근접 센서(300)를 구비하지 않고, 깊이 카메라(200)를 통해 오브젝트의 근접 여부를 분별할 수 있지만, 이 경우 전력 소모가 과다하고, 지속적으로 연산에 소요되는 부하가 과다할 수 있다. A separate proximity sensor 300 may not be provided, and the proximity of an object may be discriminated through the depth camera 200, but in this case, power consumption may be excessive, and a load for continuous calculation may be excessive.
이를 해결하기 위해, 도 3과 같이, 깊이 카메라(200)를 통해 획득하는 데이터를 구분하여 시스템을 운용할 수 있다. To solve this problem, as shown in FIG. 3, the system may be operated by classifying data acquired through the depth camera 200.
본 발명은 일 실시예에 따라 빛의 세기를 감지하여 오브젝트의 근접 여부를 분별하고, 반사되는 빛의 시차를 감지하여 깊이 이미지를 획득하도록 깊이 카메라(200)를 제어할 수 있다.According to an embodiment of the present disclosure, the depth camera 200 may be controlled to detect the intensity of light to determine whether an object is close, and to detect a parallax of reflected light to obtain a depth image.
깊이 카메라(200)에서 반사되는 빛의 세기를 감지하여 오브젝트의 근접 여부를 분별하는 모드는 저전력 프로세서(600)에 포함된 오브젝트 감지부(630)을 통해 제어될 수 있다.A mode for discriminating whether an object is close by detecting the intensity of light reflected by the depth camera 200 may be controlled through the object detection unit 630 included in the low power processor 600.
오브젝트 감지부(630)는 깊이 카메라(200)에서 반사되는 빛의 세기를 감지하여 2차원 이미지를 획득하고 프레임간 2차원 이미지의 차이를 이용하여 근접하는 오브젝트의 유무를 감지할 수 있다.The object detector 630 may detect the intensity of light reflected from the depth camera 200 to obtain a 2D image, and detect the presence or absence of an adjacent object using a difference between the 2D images between frames.
본 발명은 오브젝트 감지부(630)에서 근접한 오브젝트를 감지한 경우, 반사되는 빛의 시차를 감지하여 깊이 이미지를 획득하도록 깊이 카메라(200)를 제어할 수 있다.In the present invention, when the object detection unit 630 detects an adjacent object, the depth camera 200 may be controlled to acquire a depth image by detecting a parallax of reflected light.
도 2에서 설명한 바와 같이, 본 발명은 오브젝트 감지부(630)를 트리거하는 모션 센서(300)를 포함할 수 있다. 구체적으로, 모션 센서(300)를 통해 이동 단말기가 안정 상태에 있는 경우, 깊이 카메라(200)를 통해 오브젝트의 근접 여부를 분별하도록 오브젝트 감지부(630)를 활성화 할 수 있다.As described with reference to FIG. 2, the present invention may include a motion sensor 300 that triggers the object detection unit 630. Specifically, when the mobile terminal is in a stable state through the motion sensor 300, the object detection unit 630 may be activated to discriminate whether an object is in proximity through the depth camera 200.
오브젝트가 근접한 것으로 감지된 경우, 도 2에서 설명한 바와 같이 깊이 이미지를 획득하도록 깊이 카메라(200)를 제어하고, 획득한 깊이 이미지에 포함된 오브젝트가 손에 대응되는지 오브젝트 분별부(610)를 통해 확인할 수 있다.When the object is detected to be close, the depth camera 200 is controlled to acquire a depth image as described in FIG. 2, and it is checked through the object classification unit 610 whether the object included in the acquired depth image corresponds to the hand. I can.
오브젝트 분별부(610)를 통해 근접한 오브젝트가 사용자의 손에 대응되는 경우, 획득한 깊이 이미지에서 인덱스 핑거를 트랙킹하도록 트랙킹 부(620)를 활성화할 수 있다.When an adjacent object corresponds to a user's hand through the object classification unit 610, the tracking unit 620 may be activated to track the index finger in the acquired depth image.
상기와 같은 시스템을 가지는 본 발명은 오브젝트가 근접한 것으로 판단한 경우, 오브젝트의 형상 및 모션을 분별하기 위해 깊이 카메라(200)를 통해 깊이 이미지를 획득하고, 오브젝트의 형상 및 모션에 대응하여 이동 단말기의 상태를 변경할 수 있다. 즉, 본 발명은 물리적인 터치 없이도 이동 단말기의 상태를 변경할 수 있다.In the present invention having the above-described system, when it is determined that the object is close, the depth image is obtained through the depth camera 200 to identify the shape and motion of the object, and the state of the mobile terminal corresponds to the shape and motion of the object. Can be changed. That is, the present invention can change the state of the mobile terminal without physical touch.
이하에서, 이동 단말기가 사용자의 직접 터치 없이도 슬립 상태에서 웨이크업 상태로 변화하거나, 잠금 상태에서 해제 상태로 변화하거나, 특정 어플리케이션을 실행하는 상태로 변화하는 실시예를 구체적으로 살펴본다. Hereinafter, an embodiment in which the mobile terminal changes from a sleep state to a wake-up state, from a locked state to an unlock state, or to a state in which a specific application is executed without a user's direct touch will be described in detail.
다만, 본 발명은 이동 단말기에 한정되지 않는 발명으로 이하에서는 디바이스로 광범위하게 지칭하도록 한다.However, the present invention is not limited to a mobile terminal and will be broadly referred to as a device hereinafter.
도 4는 본 발명의 일 실시예에 따라, 근접한 오브젝트의 깊이 이미지를 통해 디바이스를 직접 터치하지 않고 웨이크업 하는 프로세서를 설명하기 위한 흐름도이다. 도 2 또는 도 3을 참조하여 도 4의 흐름도를 설명한다.4 is a flowchart illustrating a processor that wakes up without directly touching a device through a depth image of an adjacent object, according to an embodiment of the present invention. The flowchart of FIG. 4 will be described with reference to FIG. 2 or 3.
디바이스는 도 2의 모션 센서(300) 또는 도 3의 깊이 카메라(200)를 통해 오브젝트의 근접 여부를 판단하고, (S210) 오브젝트가 근접한 경우, 깊이 카메라(200)를 통해 깊이 이미지를 획득할 수 있다. (S220)The device determines whether the object is close through the motion sensor 300 of FIG. 2 or the depth camera 200 of FIG. 3 (S210), and when the object is close, obtains a depth image through the depth camera 200. have. (S220)
깊이 카메라(200)를 통해 획득한 깊이 이미지에 손에 대응 되는 형상이 포함되는 경우, (S230, Yes) 웨이크업 알고리즘을 수행하고,(S240) 디바이스를 슬립(Sleep) 상태에서 웨이크업 상태로 전환할 수 있다.(S250)When a shape corresponding to a hand is included in the depth image acquired through the depth camera 200, (S230, Yes) a wakeup algorithm is performed (S240), and the device is switched from a sleep state to a wakeup state. Can do it (S250)
웨이크업 알고리즘은 사용자 손의 움직임을 기 설정 형상 및 모션에 대응하여 비교하는 알고리즘으로, 비교 결과에 따라 디바이스를 웨이크업 하거나, 슬립상태를 유지할 수 있다. 웨이크업 알고리즘은 도 5 및 6에서 구체적으로 살펴본다.The wakeup algorithm is an algorithm that compares the movement of a user's hand in correspondence with a preset shape and motion, and may wake up a device or maintain a sleep state according to a comparison result. The wakeup algorithm will be described in detail in FIGS. 5 and 6.
다만, 디바이스가 슬립(Sleep) 상태에서 깊이 카메라(200)를 통해 획득한 깊이 이미지에 손에 대응되는 형상이 포함되지 않는 경우, (S230, No) 슬립 상태를 유지하고, 오브젝트의 근접 여부를 판단하는 단계로 이동할 수 있다. However, if the shape corresponding to the hand is not included in the depth image acquired through the depth camera 200 while the device is in a sleep state (S230, No), the sleep state is maintained and the proximity of the object is determined. You can move to the stage.
구체적으로, 깊이 카메라(200)를 통해 기 설정 개수의 깊이 이미지를 획득하는 동안 또는 기 설정 시간 동안 획득한 깊이 이미지에 손에 대응되는 형상을 포함하지 않는 경우, 깊이 이미지를 획득하는 것을 중단하고, 오브젝트의 근접 여부를 판단하는 단계로 이동할 수 있다.Specifically, while acquiring a preset number of depth images through the depth camera 200 or when a shape corresponding to a hand is not included in the depth image acquired during a preset time, the acquisition of the depth image is stopped, It may move to the step of determining whether the object is in proximity.
도 5 및 6는 본 발명의 일 실시예에 따라, 도 4의 웨이크업 알고리즘을 구체적으로 설명하기 위한 흐름도이다.5 and 6 are flowcharts illustrating in detail the wakeup algorithm of FIG. 4 according to an embodiment of the present invention.
웨이크업 알고리즘은 사용자의 손 형상 및 모션에 따라 달라질 수 있다.The wake-up algorithm may vary depending on the shape and motion of the user's hand.
본 발명은 사용자가 손바닥을 펼친 상태로 디바이스 상공에 호버링하는 실시예 및 인덱스 핑거를 이용하여 에어 노크하는 실시예를 포함할 수 있다. 구체적으로, 도 5 및 도 6은 인덱스 핑거를 이용하여 에어 노크하는 실시예를 설명하기 위한 흐름도이다.The present invention may include an embodiment in which a user hovers over a device with a palm open and an embodiment in which an index finger is used to air knock. Specifically, FIGS. 5 and 6 are flowcharts illustrating an embodiment of air knocking using an index finger.
먼저, 사용자가 손바닥을 펼친 상태로 디바이스 상공에서 호버링하는 모션을 통해 디바이스를 웨이크업 하는 알고리즘을 살펴보면, 깊이 카메라(200)는 획득한 깊이 이미지를 통해 사용자가 손바닥을 펼친 상태임을 감지하고, 연속적으로 획득한 깊이 이미지를 통해 깊이 변화가 기 설정 범위 내인 경우 사용자가 손바닥을 펼친 상태로 디바이스 상공에서 호버링하는 것으로 감지하여 디바이스를 웨이크업 할 수 있다. First, looking at an algorithm that wakes up the device through a motion hovering over the device with the user's palm open, the depth camera 200 detects that the user has the palm open state through the acquired depth image, and continuously When the depth change is within a preset range through the acquired depth image, the device may wake up by detecting that the user is hovering over the device with the palm open.
경우에 따라서는, 디바이스는 사용자가 손바닥을 펼친 상태로 디바이스에 접근하는 움직임을 감지하여 디바이스를 웨이크업할 수 있다. 또는 디바이스는 사용자가 손바닥을 펼친 상태로 다바이스 상공에서 수평 방향으로 이동하는 움직임을 감지하여 디바이스를 웨이크업할 수 있다. In some cases, the device may wake up the device by detecting a movement of the user approaching the device with the palm open. Alternatively, the device may wake up the device by detecting a movement of the user moving in the horizontal direction above the device with the palm open.
다만, 상기와 같은 사용자의 움직임으로 디바이스를 웨이크업하는 경우 필요 이상으로 자주 디바이스가 웨이크업되는 단점이 있을 수 있다. 따라서, 본 발명은 에어 노크를 통해 디바이스를 웨이크업 하는 실시예를 설명하고자 한다.However, when the device wakes up by the user's movement as described above, there may be a disadvantage in that the device wakes up more frequently than necessary. Accordingly, the present invention is intended to describe an embodiment of waking up a device through air knock.
에어 노크는 사용자가 인덱스 핑거를 디바이스를 향해 반복적으로 2회 푸쉬(push)하는 움직임에 대응되는 모션일 수 있다.Air knock may be a motion corresponding to a movement in which a user repeatedly pushes an index finger toward the device twice.
에어 노크를 통해 디바이스를 웨이크업 하는 방법은 다음과 같다.The method to wake up the device through air knock is as follows.
오브젝트가 근접한 것으로 판단하여 깊이 카메라(200)를 통해 획득한 깊이 이미지에 사용자의 손에 대응되는 형상을 포함하는 경우, 본 발명은 획득한 깊이 이미지를 분석하여 인덱스 핑거를 추출하는 알고리즘을 실행할 수 있다.(S241)When it is determined that the object is close and includes a shape corresponding to the user's hand in the depth image acquired through the depth camera 200, the present invention may execute an algorithm for extracting an index finger by analyzing the acquired depth image. .(S241)
인덱스 핑거를 추출하는 알고리즘은 데이터 베이스화된 자료와 비교하여 깊이 이미지에서 인덱스 핑거를 추출하는 알고리즘일 수 있다. 또는, 획득한 깊이 이미지에서 디바이스로부터 이격 거리에 따라 사용자 손의 단면을 추출하여 인덱스 핑거를 추출할 수 있다.An algorithm for extracting an index finger may be an algorithm for extracting an index finger from a depth image by comparing it with database data. Alternatively, the index finger may be extracted by extracting the cross section of the user's hand according to the distance from the device from the acquired depth image.
여기서 인덱스 핑거를 추출하는 의미는 인덱스 핑거의 티핑 포인트(tipping point)를 추출하는 것에 대응될 수 있다. 즉, 인덱스 핑거가 가리키는 3차원 좌표를 추출하는 것을 의미할 수 있다.Here, the meaning of extracting the index finger may correspond to extracting a tipping point of the index finger. That is, it may mean extracting the 3D coordinates indicated by the index finger.
인덱스 핑거를 추출한 경우 인덱스 핑거의 움직임을 분석하고,(S242) 인덱스 핑거의 움직임이 에어 노크에 대응되는지 여부를 판단할 수 있다. (S243)When the index finger is extracted, the movement of the index finger may be analyzed (S242), and it may be determined whether the movement of the index finger corresponds to the air knock. (S243)
본 발명은 인덱스 핑거의 움직임이 에어노크에 대응되는 경우 (S243, Yes) 디바이스를 웨이크업 하고, (S250) 인덱스 핑거의 움직임이 에어 노크에 대응되지 않는 경우, (S243, No) 인덱스 핑거를 다시 추출하는 단계를 수행할 수 있다.In the present invention, when the movement of the index finger corresponds to the air knock (S243, Yes), the device wakes up (S250), and when the movement of the index finger does not correspond to the air knock, the index finger is restarted (S243, No). The step of extracting can be performed.
구체적으로 도 6을 통해, 인덱스 핑거의 움직임이 에어 노크에 대응되는지 판단하는 방법을 설명한다.Specifically, a method of determining whether the movement of the index finger corresponds to air knock will be described with reference to FIG. 6.
에어 노크는 사용자가 인덱스 핑거를 디바이스를 향해 반복적으로 2회 푸시하는 움직임으로 각 푸시하는 움직임간 시간 간격 및 거리 간격을 통해 에어 노크에 대응되는지 여부를 분별할 수 있다.The air knock is a movement in which the user repeatedly pushes the index finger toward the device twice, and it is possible to discriminate whether it corresponds to the air knock through a time interval and a distance interval between each push movement.
즉, 분석한 인덱스 핑거의 움직임에서 z축 푸쉬 동작간 시간 간격을 분석하고(S2431), z축 푸쉬 동작간 거리 간격을 분석한 후(S2432), 기 설정 시간 조건 및 기 설정 거리 조건을 통해 분석한 인덱스 핑거의 움직임이 에어 노크에 대응되는지 여부를 판단할 수 있다.(S2433)In other words, after analyzing the time interval between z-axis push motions in the motion of the analyzed index finger (S2431), after analyzing the distance interval between z-axis push motions (S2432), analysis through a preset time condition and a preset distance condition It may be determined whether the movement of one index finger corresponds to air knock (S2433).
여기서 z축 푸쉬 동작은 사용자의 인덱스 핑거가 디바이스에 근접한 방향으로 이동하는 동작을 말한다.Here, the z-axis push operation refers to an operation in which the user's index finger moves in a direction close to the device.
경우에 따라서는 z축 푸쉬 동작간 시간 간격만 분석하거나, z축 푸쉬 동작간 거리 간격만 분석하여 에어 노크에 대응되는지 여부를 판단할 수 있다.In some cases, only the time interval between z-axis push operations or only the distance interval between z-axis push operations may be analyzed to determine whether or not the air knock corresponds.
본 발명은 z 축 푸쉬 동작간 시간 간격이 기 설정 시간 간격 이하인 경우 에어 노트에 대응되는 것으로 판단할 수 있다. 즉, 사용자가 첫 번째 z축 푸쉬 동작 후 기 설정 시간 간격 이내에 두 번째 z축 푸쉬 동작을 수행하지 않는 경우, 두 번째 z축 푸쉬 동작을 2회 z축 푸쉬 동작으로 인지하지 않고 첫 번째 z 축 푸쉬 동작과 독립적인 1회 z 푸쉬 동작으로 인지할 수 있다.In the present invention, when the time interval between z-axis push operations is less than or equal to a preset time interval, it may be determined that it corresponds to the air note. In other words, if the user does not perform the second z-axis push operation within a preset time interval after the first z-axis push operation, the second z-axis push operation is not recognized as two z-axis push operations and the first z-axis push operation. It can be recognized as a one-time z-push motion independent of the motion.
z축 푸쉬 동작간 시간 간격은 첫번째 푸쉬 동작이 끝나는 시점에서 두 번째 푸쉬 동작이 시작하는 시점 간 간격일 수 있다. 즉, 사용자가 인덱스 핑거로 첫번째 푸쉬 동작을 수행하고 디바이스에서 멀어지고 나서 두번째 푸쉬 동작을 수행함에 있어, 디바이스에 멀어지는 동작에 소요되는 시간일 수 있다.The time interval between z-axis push operations may be an interval between points when the second push operation starts from the time when the first push operation ends. That is, when the user performs the first push operation with the index finger and then performs the second push operation after moving away from the device, it may be a time required for the operation moving away from the device.
또는, 경우에 따라서, z축 푸쉬 동작간 시간 간격은 첫번째 푸쉬 동작이 끝나는 시점에서 두번째 푸쉬 동작기 끝나는 시점간 간격일 수 있다.Alternatively, depending on the case, the time interval between the z-axis push operations may be an interval between the time when the first push operation ends and the second push operation ends.
본 발명은 z축 푸쉬 동작간 거리 간격이 기 설정 거리 간격 이하인 경우 에어 노트에 대응되는 것으로 판단할 수 있다. 이와 관련하여서는 도 7을 통해 구체적으로 살펴본다.In the present invention, when a distance interval between z-axis push operations is less than or equal to a preset distance interval, it may be determined that it corresponds to an air note. In this regard, it will be described in detail with reference to FIG. 7.
도 7은 본 발명의 일 실시예에 따라, 에어 노크을 만족하기 위한 일 조건을 설명하기 위한 도면이다. 구체적으로, z축 푸시 동작간 거리 간격이 기 설정 간격 이내에 해당하는 여부를 판단하는 방법을 도시하고 있다.7 is a diagram for explaining a condition for satisfying air knock according to an embodiment of the present invention. Specifically, a method of determining whether a distance interval between z-axis push operations falls within a preset interval is illustrated.
본 발명은 인덱스 핑커의 1회 z축 푸쉬 동작을 통해 인덱스 핑거가 첫 번째로 지향하는 지점(601)을 인지할 수 있다. According to the present invention, a point 601 that the index finger first points to may be recognized through a z-axis push operation of the index pinker once.
인덱스 핑거가 첫 번째로 지향하는 지점(601)은 디바이스(100)의 디스플레이(151)의 일 지점일 수 있다.The first point 601 that the index finger points to may be a point on the display 151 of the device 100.
본 발명은 인덱스 핑거가 첫 번째로 지향하는 지점(601)을 중심으로 기 설정 거리 간격(6011) 내에 인덱스 핑거가 두 번째로 지향하는 지점(602)이 포함되는 경우 에어 노크에 대응되는 움직임으로 판단할 수 있다.In the present invention, when a point 602 to which the index finger is directed second is included within a preset distance interval 6011 based on the point 601 to which the index finger is first directed, it is determined as a movement corresponding to air knock. can do.
즉, 본 발명은 오차 거리 범위 내에서 인덱스 핑거가 동일 지점을 가상으로 2회 푸쉬하는 경우에 에어 노트에 대응되는 것으로 보며 오차 거리 범위를 벗어나는 경우 두 번째 푸쉬를 1회 푸쉬로 재인식할 수 있다.That is, in the present invention, when the index finger virtually pushes the same point twice within the error distance range, it is considered to correspond to the air note, and if it is out of the error distance range, the second push may be re-recognized as a single push.
상기에서는 디바이스를 사용자가 터치하지 않고 슬립 상태에서 웨이크업 상태로 전환하는 실시예를 설명하였다. 이하에서는, 디바이스를 사용자작 터치하지 않고 잠금 모드를 해제하는 실시예를 살펴본다.In the above, an embodiment has been described in which a device is switched from a sleep state to a wake-up state without a user touching it. Hereinafter, an embodiment in which the lock mode is released without touching the device by a user will be described.
도 8은 본 발명의 일 실시예에 따라, 근접한 오브젝트의 깊이 이미지를 통해 디바이스를 직접 터치하지 않고 잠금 모드를 해제하는 프로세서를 설명하기 위한 흐름도이다. 도 2 또는 도 3을 참조하여 도 8의 흐름도를 설명한다.8 is a flowchart illustrating a processor for releasing a lock mode without directly touching a device through a depth image of an adjacent object, according to an embodiment of the present invention. The flowchart of FIG. 8 will be described with reference to FIG. 2 or 3.
디바이스는 도 2의 모션 센서(300) 또는 도 3의 깊이 카메라(200)를 통해 오브젝트의 근접 여부를 판단하고, (S310) 오브젝트가 근접한 경우, 깊이 카메라(200)를 통해 깊이 이미지를 획득할 수 있다. (S320)The device determines whether the object is close through the motion sensor 300 of FIG. 2 or the depth camera 200 of FIG. 3 (S310), and when the object is close, the depth image may be obtained through the depth camera 200. have. (S320)
깊이 카메라(200)를 통해 획득한 깊이 이미지에 손에 대응 되는 형상이 포함되는 경우, (S330, Yes) 잠금 모드를 해제하는 언락(unlock) 알고리즘을 수행하고,(S340) 디바이스를 잠금 상태에서 언락 상태로 전환할 수 있다.(S350)When the shape corresponding to the hand is included in the depth image acquired through the depth camera 200, (S330, Yes) performs an unlock algorithm for releasing the lock mode (S340), and unlocks the device in the locked state. The state can be switched (S350)
언락 알고리즘은 사용자 손의 움직임을 기 설정 형상 및 모션에 대응하여 비교하는 알고리즘으로, 비교 결과에 따라 디바이스를 언락 하거나, 잠금 모드를 유지할 수 있다. 언락 알고리즘은 도 9 및 도 10, 또는 도 11 내지 도 13에서 구체적으로 살펴본다.The unlock algorithm is an algorithm that compares the movement of a user's hand in correspondence with a preset shape and motion, and may unlock a device or maintain a lock mode according to a comparison result. The unlock algorithm will be described in detail in FIGS. 9 and 10 or 11 to 13.
다만, 디바이스가 잠금 상태에서 깊이 카메라(200)를 통해 획득한 깊이 이미지에 손에 대응되는 형상이 포함되지 않는 경우, (S330, No) 잠금 상태를 유지하고, 오브젝트의 근접 여부를 판단하는 단계로 이동할 수 있다. However, if the shape corresponding to the hand is not included in the depth image acquired through the depth camera 200 while the device is in the locked state, (S330, No) is maintained in the locked state and the step of determining whether the object is in proximity. You can move.
구체적으로, 깊이 카메라(200)를 통해 기 설정 개수의 깊이 이미지를 획득하는 동안 또는 기 설정 시간 동안 획득한 깊이 이미지에 손에 대응되는 형상을 포함하지 않는 경우, 깊이 이미지를 획득하는 것을 중단하고, 오브젝트의 근접 여부를 판단하는 단계로 이동할 수 있다.Specifically, while acquiring a preset number of depth images through the depth camera 200 or when a shape corresponding to a hand is not included in the depth image acquired during a preset time, the acquisition of the depth image is stopped, It may move to the step of determining whether the object is in proximity.
언락 알고리즘은 사용자의 손 형상 및 모션에 따라 달라질 수 있다.The unlock algorithm may vary depending on the shape and motion of the user's hand.
본 발명은 사용자가 손바닥을 펼친 상태로 디바이스 상공에 호버링하는 실시예 및 인덱스 핑거를 이용하여 기 설정 코드 또는 기 설정 패턴을 입력 하는 실시예를 포함할 수 있다. 구체적으로, 도 9 및 도 10은 인덱스 핑거를 이용하여 기 설정 코드를 입력하는 실시예를 설명하기 위한 흐름도이고, 도 11 내지 도 13은 인덱스 핑거를 이용하여 기 설정 패턴을 입력하는 실시예를 설명하기 위한 흐름도이다.The present invention may include an embodiment in which a user hovers over a device with a palm open and an embodiment in which a preset code or a preset pattern is input using an index finger. Specifically, FIGS. 9 and 10 are flow charts for explaining an embodiment of inputting a preset code using an index finger, and FIGS. 11 to 13 illustrate an embodiment of inputting a preset pattern using an index finger This is a flow chart for
먼저, 사용자가 손바닥을 펼친 상태로 디바이스 상공에서 호버링하는 모션을 통해 디바이스를 언락 하는 알고리즘을 살펴보면, 깊이 카메라(200)는 획득한 깊이 이미지를 통해 사용자가 손바닥을 펼친 상태임을 감지하고, 연속적으로 획득한 깊이 이미지를 통해 깊이 변화가 기 설정 범위 내인 경우 사용자가 손바닥을 펼친 상태로 디바이스 상공에서 호버링하는 것으로 감지하고, 상기 손바닥에 포함된 생체 정보를 통해 디바이스의 장금 모드를 해제할 수 있다.First, looking at the algorithm for unlocking the device through the motion of hovering over the device with the user's palm open, the depth camera 200 detects that the user's palm is open through the acquired depth image, and continuously acquires it. When the depth change is within a preset range through one depth image, it is sensed that the user is hovering over the device with the palm open, and the lock mode of the device can be released through the biometric information included in the palm.
상기 생체 정보는 상기 손바닥의 손금 패턴, 정맥 패턴 및 지문 패턴 중 적어도 하나를 포함할 수 있다. 생체 정보를 이용하여 장금 모드를 해제하는 방법은 공지의 기술로 이와 관련하여서는 기술을 생략한다.The biometric information may include at least one of a palm print pattern, a vein pattern, and a fingerprint pattern of the palm. The method of releasing the Janggeum mode using biometric information is a known technique, and the technique is omitted in this regard.
다만, 상기와 같은 생체 정보를 이용하여 장금 모드를 해제하는 것을 디바이스의 성능에 따라 장금 모드를 해제하는데 오래 걸릴 수 있으며, 생체 정보를 리딩하기 위한 추가적인 구성이 필요할 수 있다. 따라서, 이하에서 인덱스 핑거를 이용한 코드 입력 또는 패턴 입력을 통해 디바이스의 장금 모드를 해제하는 실시예를 설명하고자 한다.However, it may take a long time to release the bookkeeping mode using the biometric information as described above, depending on the capabilities of the device, and an additional configuration for reading the biometric information may be required. Accordingly, an embodiment of releasing the device's lock-in mode through code input or pattern input using an index finger will be described below.
도 9 및 도 10은 본 발명의 일 실시예에 따라, 도 8의 언락(Unlock) 알고리즘을 구체적으로 설명하기 위한 흐름도 및 도면이다. 구체적으로 인덱스 핑거를 이용한 코드 입력을 통해 디바이스의 장금 모드를 해제하는 실시예를 설명하는 흐름도 및 도면이다.9 and 10 are flowcharts and diagrams for specifically explaining the unlock algorithm of FIG. 8 according to an embodiment of the present invention. Specifically, it is a flowchart and diagram illustrating an embodiment of releasing a device's lock-in mode through code input using an index finger.
본 발명은 인덱스 핑거의 z축 푸쉬 동작에 대응되는 영역의 상대 위치를 통해 입력 코드를 분별하고 기 설정 코드와 비교하여 장금 모드를 해제할 수 있다.According to the present invention, an input code may be identified through a relative position of a region corresponding to a z-axis push operation of an index finger and compared with a preset code to cancel the lock mode.
이를 위해, 본 발명은 인덱스 핑거의 z축 푸쉬 동작간 시간 조건을 분석하고, (S3411) z축 푸쉬 동작간 거리 간격을 분석하고(S3412), z축 푸쉬 동작에 대응되는 영역의 패턴을 분석하여 장금 모드를 해제할 수 있다. (S3413)To this end, the present invention analyzes the time condition between z-axis push operations of the index finger (S3411), analyzes the distance interval between z-axis push operations (S3412), and analyzes the pattern of the region corresponding to the z-axis push operation. You can cancel the lock mode. (S3413)
본 발명은 N 번째 푸쉬 동작과 N+1 번째 푸쉬 동작이 기 설정 시간 간격 이내인 경우 연속된 푸쉬 동작으로 인지할 수 있다. N 번째 푸쉬 동작과 N+1 번째 푸쉬 동작이 기 설정 시간 간격 이내인지 여부는 에어 노크 동작에서 시간 조건을 판단하는 방법과 동일할 수 있다.In the present invention, when the N-th push operation and the N+1-th push operation are within a preset time interval, it can be recognized as a continuous push operation. Whether the N-th push operation and the N+1-th push operation are within a preset time interval may be the same as a method of determining a time condition in the air knock operation.
본 발명은 N 번째 푸쉬 동작과 N+1 번째 푸쉬 동작을 연속된 푸쉬 동작으로 인지하지 못하는 경우, N+1 번째 푸쉬 동작을 첫 번째 푸쉬 동작으로 다시 인식하거나, 사용자에게 다시 입력하라는 알림 메시지를 전달하고 이후 푸쉬 동작을 첫 번째 푸쉬 동작으로 인식할 수 있다.In the present invention, when the N-th push motion and the N+1-th push motion are not recognized as a continuous push motion, the N+1 th push motion is recognized again as the first push motion, or a notification message to re-enter the user is delivered. Then, the push operation may be recognized as the first push operation.
본 발명은 푸쉬 동작간 거리 간격이 기 설정 간격 이내인 경우 동일 영역을 가상으로 푸쉬하는 것으로 감지하고 기 설정 간격을 초과하는 경우 거리 간격 및 방향에 대응되는 상대 영역을 가상으로 푸쉬한 것으로 감지할 수 있다. 이를 통해 본 발명은 인덱스 핑거가 가상으로 푸쉬하는 영역의 상대 위치를 이용하여 입력 코드를 분별할 수 있으며, 입력 코드가 기 설정 코드에 대응되는 경우 장금 모드를 해제할 수 있다.In the present invention, when the distance interval between push actions is within a preset interval, the same area is detected as being pushed virtually, and when the distance interval between push actions is exceeded, the relative area corresponding to the distance interval and direction may be detected as being virtually pushed. have. Through this, in the present invention, the input code can be identified by using the relative position of the area virtually pushed by the index finger, and when the input code corresponds to a preset code, the lock-in mode can be canceled.
구체적으로 도 10은 인덱스 핑거(700)가 가상으로 푸쉬하는 영역의 상대 위치를 이용하여 입력 코드를 분별하는 하나의 실시예를 도시하고 있다.Specifically, FIG. 10 shows an embodiment of discriminating an input code by using a relative position of an area virtually pushed by the index finger 700.
본 발명은 첫 번째 푸쉬 지점에 대응하여 분할 영역(1512)을 설정하고, 분할 영역에 코드를 할당하여 입력 코드를 분별할 수 있다. According to the present invention, the divided area 1512 is set corresponding to the first push point, and the input code can be identified by assigning a code to the divided area.
예를 들어, 도 10은 1이 할당된 영역을 가상으로 푸쉬하고, 순차적으로 3, 2, 4, 3 및 2에 대응되는 영역을 푸쉬하여, 1->3->2->4->3에 대응되는 코드를 입력받는 실시예를 도시하고 있다.For example, FIG. 10 shows that the area to which 1 is assigned is virtually pushed, and the areas corresponding to 3, 2, 4, 3 and 2 are sequentially pushed, and 1->3->2->4->3 An embodiment in which a code corresponding to is input is shown.
다만 경우에 따라서는 본 발명은 분할된 영역(1512)의 입력 패턴을 기 설정 패턴과 비교하여 장금 모드를 해제할 수 있다.However, in some cases, the present invention may cancel the Janggeum mode by comparing the input pattern of the divided region 1512 with a preset pattern.
도 11 내지 13은 본 발명의 다른 실시예에 따라, 도 8의 언락(Unlock) 알고리즘을 구체적으로 설명하기 위한 흐름도 및 도면이다.11 to 13 are flowcharts and diagrams for specifically explaining the unlock algorithm of FIG. 8 according to another embodiment of the present invention.
본 발명은 디바이스가 장금 상태에서, 근접한 오브젝트의 형상이 사용자의 손에 대응되고, 오브젝트가 이격된 상태에서 기 설정 패턴으로 움직이는 경우 장금 모드를 해제할 수 있다.In the present invention, when a device is in a locked state, a shape of an adjacent object corresponds to a user's hand, and the object moves in a preset pattern in a spaced state, the locking mode may be canceled.
구체적으로 본 발명은, 깊이 이미지에서 인덱스 핑거를 분별하고, 시작점을 기준으로 인덱스 핑거가 스위핑하는 패턴을 기 설정 패턴과 분석하여 장금 모드를 해제할 수 있다.Specifically, in the present invention, the index finger may be identified from a depth image, and a pattern that the index finger sweeps based on a starting point may be analyzed with a preset pattern to release the Janggeum mode.
이를 위해, 본 발명은 시작 지점을 설정하고(S3421), 설정된 시작 시점을 기준으로 인덱스 핑거의 상대 움직임을 분석하여(S3422), 상기 인덱스 핑거의 상대 움직임이 기 설정 패턴에 대응되는 경우 디바이스의 장금 모드를 해제할 수 있다.To this end, the present invention sets a starting point (S3421), analyzes the relative movement of the index finger based on the set starting point (S3422), and when the relative movement of the index finger corresponds to a preset pattern, You can cancel the mode.
기 설정 패턴은 사인과 같은 사용자 고유 패턴일 수 있고, 분할된 영역에서 인덱스 핑거가 지향하는 지점이 지나는 영역 및 순서일 수 있다.The preset pattern may be a user-specific pattern such as a sign, and may be a region and an order in which a point directed by the index finger passes in the divided region.
기 설정 패턴을 사인과 비교하는 방법은 사인의 특이점, 획간 간격 및 각도, 곡률 중 적어도 하나를 이용하여 인덱스 핑거의 움직임이 오차 범위 내에 일치하는 경우 장금 모드를 해제할 수 있다.In a method of comparing a preset pattern with a sign, if the movement of the index finger coincides within an error range using at least one of a singular point of the sign, an interval between strokes, an angle, and a curvature, the Janggeum mode may be released.
다른 실시예로 본 발명은 도 12와 같이 시작 지점을 기준으로 분할된 영역 (1511)을 설정하고, 분할된 영역에 숫자를 할당하여 인덱스 핑거(700)가 스위핑하는 영역의 숫자를 순차적으로 입력받아 기 설정 숫자 패턴과 비교할 수 있다.In another embodiment, the present invention sets a divided area 1511 based on a start point as shown in FIG. 12, assigns a number to the divided area, and sequentially receives the number of areas sweeping by the index finger 700. It can be compared with a preset number pattern.
또한, 반드시 영역에 숫자를 할당할 필요는 없이 도 13과 같이 시작 지점을 기준으로 분할된 영역(1511)를 설정하고, 인덱스 핑가(700) 분할된 영역 중 지나는 영역 및 순서가 기 설정 패턴에 대응되는 경우 디바이스의 장금 모드를 해제할 수 있다.In addition, it is not necessary to allocate a number to the area, and the divided area 1511 is set based on the start point as shown in FIG. 13, and the passing area and order among the divided areas of the index ping value 700 correspond to the preset pattern. If so, you can cancel the device's lockdown mode.
상기에서는 장금 모드를 해제하는 실시예와 디바이스를 웨이크업 하는 실시예와 구분하여 설명하였으나, 경우에 따라서는 디바이스가 슬립상태 및 장금상태에서 장금 모드를 해제하는 조건이 만족되는 경우 디바이스의 장금 모드를 해제하는 동시에 디바이스를 웨이크업 할 수 있다.In the above, the embodiment of releasing the holding mode and the embodiment of waking up the device have been described separately. However, in some cases, when the condition of releasing the holding mode from the sleep state and the locked state is satisfied, the device's holding mode is set. You can wake up the device while releasing it.
이하에서는 사용자의 손 형상 및 모션에 대응하여 디바이스에서 특정 어플리케이션을 퀵 실행 모드로 실행하는 실시예를 살펴본다. Hereinafter, an embodiment in which a specific application is executed in a quick execution mode in a device in response to the shape and motion of a user's hand will be described.
도 14는 본 발명의 일 실시예에 따라, 근접한 오브젝트의 깊이 이미지를 통해 디바이스를 직접 터치하지 않고 특정 어플리케이션을 실행 또는 제어하는 프로세서를 설명하기 위한 흐름도이다. 도 2 또는 도 3을 참조하여 도 14의 흐름도를 설명한다.14 is a flowchart illustrating a processor that executes or controls a specific application without directly touching a device through a depth image of an adjacent object, according to an embodiment of the present invention. The flowchart of FIG. 14 will be described with reference to FIG. 2 or 3.
디바이스는 도 2의 모션 센서(300) 또는 도 3의 깊이 카메라(200)를 통해 오브젝트의 근접 여부를 판단하고, (S410) 오브젝트가 근접한 경우, 깊이 카메라(200)를 통해 깊이 이미지를 획득할 수 있다. (S420)The device determines whether the object is close through the motion sensor 300 of FIG. 2 or the depth camera 200 of FIG. 3 (S410), and when the object is close, obtains a depth image through the depth camera 200. have. (S420)
깊이 카메라(200)를 통해 획득한 깊이 이미지에 손에 대응 되는 형상이 포함되는 경우, (S430, Yes) 손 형상 및 움직임을 분석하고,(S440) 손 형상 및 움직임에 대응하여 특정 어플리케이션을 퀵 액션 모드로 실행할 수 있다.(S450)When a shape corresponding to the hand is included in the depth image acquired through the depth camera 200 (S430, Yes), the shape and movement of the hand are analyzed (S440), and a specific application is quick action in response to the shape and movement of the hand. Can run in mode (S450)
퀵 액션 모드는 사용자의 손 형상 및 움직임에 대응하여 실행된 특정 어플리케이션을 사용자의 손 형상 또는 움직임 중 적어도 하나에 대응하여 상기 실행된 특정 어플리케이션의 기능을 제공하는 모드이다.The quick action mode is a mode in which a specific application executed in response to the shape and movement of the user's hand is provided with a function of the executed specific application in response to at least one of the shape or movement of the user's hand.
다만, 깊이 카메라(200)를 통해 획득한 깊이 이미지에 손에 대응되는 형상이 포함되지 않는 경우, (S230, No) 손 형상 및 움직임을 분석할 필요 없이 오브젝트의 근접 여부를 판단하는 단계로 이동할 수 있다. However, if the shape corresponding to the hand is not included in the depth image acquired through the depth camera 200 (S230, No), it is possible to move to the step of determining the proximity of the object without having to analyze the shape and movement of the hand. have.
구체적으로, 깊이 카메라(200)를 통해 기 설정 개수의 깊이 이미지를 획득하는 동안 또는 기 설정 시간 동안 획득한 깊이 이미지에 손에 대응되는 형상을 포함하지 않는 경우, 깊이 이미지를 획득하는 것을 중단하고, 오브젝트의 근접 여부를 판단하는 단계로 이동할 수 있다.Specifically, while acquiring a preset number of depth images through the depth camera 200 or when a shape corresponding to a hand is not included in the depth image acquired during a preset time, the acquisition of the depth image is stopped, It may move to the step of determining whether the object is in proximity.
또한, 특정 어플리케이션에 대응되는 사용자의 손 형상 및 움직임이 감지되지 않는 경우 디바이스의 현재 상태를 유지할 수 있다.In addition, when the shape and movement of the user's hand corresponding to a specific application is not detected, the current state of the device may be maintained.
도 15는 본 발명의 일 실시예에 따라, 도 14의 특정 어플리케이션 실행 또는 제어를 구체적으로 설명하기 위한 도면이다.FIG. 15 is a diagram for specifically explaining execution or control of a specific application of FIG. 14 according to an embodiment of the present invention.
오브젝트가 근접하여 획득한 깊이 이미지에서 사용자의 손 형상을 포함하는 경우, 손 형상를 특정 어플리케이션에 대응하여 저장하는 데이터 베이스를 통해 분별된 손 형상에 대응되는 특정 어플리케이션을 실행할 수 있다.When an object includes a shape of a user's hand in a depth image acquired in proximity, a specific application corresponding to the identified hand shape may be executed through a database storing the shape of the hand corresponding to a specific application.
이 경우, 특정 어플리케이션이 무분별하게 실행되는 것을 방지하기 위해 기 설정 움직임 조건을 만족하는 경우 특정 어플리케이션을 실행할 수 있다.In this case, in order to prevent the specific application from being executed indiscriminately, a specific application may be executed when a preset motion condition is satisfied.
예를 들어, 특정 어플리케이션에 대응되는 손 형상이 기 설정 시간 이상 유지되거나, 일 방향으로 유지된 채로 움직이거나, 일 패턴으로 유지된 채 움직이는 경우 특정 어플리케이션을 실행할 수 있다.For example, when a hand shape corresponding to a specific application is maintained for longer than a preset time, or moves while being maintained in one direction, or while moving while being maintained in one pattern, a specific application may be executed.
또한, 삼차원 비전 기반 UI를 통해 실행된 특정 어플리케이션은 퀵 실행 모드로 실행될 수 있다.In addition, a specific application executed through the 3D vision-based UI may be executed in a quick execution mode.
퀵 실행 모드로 특정 어플리케이션이 실행된 경우, 손 형상 및 움직임 중 적어도 하나에 대응하여 특정 어플리케이션의 특정 기능을 제공할 수 있다.When a specific application is executed in the quick execution mode, a specific function of the specific application may be provided in response to at least one of a hand shape and a movement.
예를 들어, 사용자의 손 형상 및 움직임에 대응하여 음악 어플리케이션이 실행된 경우, 도 14(a)와 같이 좌우 스위핑을 통해 이전 곡 또는 다음 곡으로 넘어가는 기능을 제공하거나, 스위핑 방향에 대응하여 구간 점을 기능을 제공할 수 있다. 또한, 도 14(b)와 같이 z축 푸쉬 동작을 통해 곡을 중지 또는 재생하는 기능을 제공할 수 있다. 또한, 도 14(c)와 같이, 상하 스위핑을 통해 볼륨을 조절하는 기능을 제공할 수 있다.For example, when a music application is executed in response to the shape and movement of a user's hand, a function to move to the previous or next song is provided through left and right sweep as shown in Fig. 14(a), or a section corresponding to the sweeping direction Points can provide functions. In addition, as shown in FIG. 14(b), a function of stopping or playing a song through a z-axis push operation may be provided. In addition, as shown in FIG. 14(c), a function of adjusting the volume through vertical sweeping may be provided.
사용자는 특정 어플리케이션과 손 형상 및 움직임을 대응하여 저장할 수 있으며, 디바이스는 사용자가 저장한 데이터 베이스에 기초하여 손 형상 및 움직임에 대응되는 특정 어플리케이션을 실행할 수 있다.A user may store a specific application and a hand shape and movement correspondingly, and the device may execute a specific application corresponding to the hand shape and movement based on a database stored by the user.
또한, 사용자는 특정 어플리케이션을 퀵 실행 모드로 실행하는 경우, 손 형상 및 움직임 중 적어도 하나에 대응하여 특정 기능을 설정할 수 있고, 디바이스는 설정된 바에 기초하여 손 형상 및 움직임 중 적어도 하나에 대응하여 퀵 실행 모드로 실행된 특정 어플리케이션의 특정 기능을 제공할 수 있다.In addition, when executing a specific application in the quick execution mode, the user can set a specific function in response to at least one of the shape and movement of the hand, and the device can quickly execute in response to at least one of the shape and movement of the hand based on the setting. A specific function of a specific application executed in a mode can be provided.
또한, 경우에 따라서는 디바이스가 슬립 상태에서 상기 특정 어플리케이션이 퀵 실행 모드로 실행되는 조건이 만족된 경우, 상기 특정 어플리케이션을 퀵 실행 모드로 실행함과 동시에 디바이스를 웨이크업 할 수 있다. In addition, in some cases, when a condition in which the specific application is executed in the quick execution mode is satisfied while the device is in the sleep state, the specific application may be executed in the quick execution mode and the device may wake up at the same time.
상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above detailed description should not be construed as restrictive in all respects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (18)

  1. 이동 단말기에 있어서,In the mobile terminal,
    오브젝트를 캡쳐하여 깊이 이미지를 획득하는 깊이 카메라;A depth camera that captures an object to obtain a depth image;
    비주얼 이미지를 출력하는 디스플레이 유닛;A display unit outputting a visual image;
    적어도 하나의 커맨드를 저장하는 메모리; 및A memory for storing at least one command; And
    상기 깊이 카메라, 상기 디스플레이 유닛, 및 상기 메모리에 연결된 컨트롤러;를 포함하고,Includes; a controller connected to the depth camera, the display unit, and the memory,
    상기 컨트롤러는The controller is
    오브젝트가 상기 이동 단말기에 근접한 경우, 깊이 이미지를 획득하도록 상기 깊이 카메라를 제어하고,When the object is close to the mobile terminal, controlling the depth camera to obtain a depth image,
    상기 획득된 깊이 이미지를 통해 상기 오브젝트의 형상 및 모션을 분별하여 상기 이동 단말기의 상태를 변경하는 것을 특징으로 하는 이동 단말기.And changing the state of the mobile terminal by discriminating the shape and motion of the object through the acquired depth image.
  2. 제1항에 있어서,The method of claim 1,
    상기 컨트롤러는The controller is
    상기 이동 단말기가 슬립(sleep) 상태에서, 근접한 상기 오브젝트의 형상이 사용자의 손에 대응되고, 상기 오브젝트가 에어 노크하는 경우 상기 이동 단말기를 웨이크업(wake up)하는 것을 특징으로 하는 이동 단말기.And a shape of the adjacent object corresponds to a user's hand while the mobile terminal is in a sleep state, and wakes up the mobile terminal when the object air knocks.
  3. 제2항에 있어서,The method of claim 2,
    상기 에어 노크는The air knock is
    사용자가 인덱스 핑거를 상이 이동 단말기에 이격된 상태에서 상기 이동 단말기를 향해 반복적으로 2회 푸쉬(push)하는 움직임에 대응되는 것을 특징으로 하는 이동 단말기.A mobile terminal, characterized in that corresponding to a movement in which the user repeatedly pushes the index finger toward the mobile terminal twice while spaced apart from the different mobile terminal.
  4. 제3항에 있어서,The method of claim 3,
    상기 컨트롤러는The controller is
    상기 오브젝트에서 상기 인덱스 핑거를 분별하고, 상기 인덱스 핑거의 푸시 동작간 시간 간격이 기 설정 간격 이하인 경우, 상기 오브젝트의 움직임이 상기 에어 노크에 대응되는 것으로 판단하는 것을 특징으로 하는 이동 단말기.And when the index finger is distinguished from the object and the time interval between the pushing operations of the index finger is less than or equal to a preset interval, it is determined that the movement of the object corresponds to the air knock.
  5. 제3항에 있어서,The method of claim 3,
    상기 컨트롤러는The controller is
    상기 오브젝트에서 상기 인덱스 핑거를 분별하고, 상기 인덱스 핑거가 지향하는 지점간 거리 간격이 기 설정 거리 간격 이하인 경우, 상기 오브젝트의 움직임이 상기 에어 노크에 대응되는 것으로 판단하는 것을 특징으로 하는 이동 단말기.The mobile terminal, characterized in that, when the index finger is distinguished from the object, and the point-to-point distance distance directed by the index finger is less than or equal to a preset distance distance, it is determined that the movement of the object corresponds to the air knock.
  6. 제1항에 있어서,The method of claim 1,
    상기 컨트롤러는The controller is
    상기 이동 단말기가 슬립(sleep) 상태에서, 근접한 오브젝트의 형상이 손바닥에 대응되고, 상기 오브젝트가 기 설정 거리 범위 내에서 호버링하는 경우 상기 이동 단말기를 웨이크업(wake up)하는 것을 특징으로 하는 이동 단말기.A mobile terminal, characterized in that, when the mobile terminal is in a sleep state, a shape of an adjacent object corresponds to a palm, and the object is hovering within a preset distance range, the mobile terminal wakes up. .
  7. 제1항에 있어서,The method of claim 1,
    상기 컨트롤러는The controller is
    상기 이동 단말기가 잠금 상태에서, 근접한 상기 오브젝트의 형상이 사용자의 손에 대응되고, 상기 오브젝트가 이격된 상태에서 기 설정 코드를 입력하는 경우, 장금 모드를 해제하는 것을 특징으로 하는 이동 단말기.And when a shape of the adjacent object corresponds to a user's hand when the mobile terminal is locked and a preset code is input when the object is separated from each other, the lock mode is released.
  8. 제7항에 있어서,The method of claim 7,
    상기 컨트롤러는The controller is
    상기 오브젝트에서 사용자의 인덱스 핑거를 분별하고, 상기 인덱스 핑거가 푸쉬하는 영역의 상대 위치를 통해 입력 코드를 분별하는 것을 특징으로 하는 이동 단말기.And discriminating an index finger of a user from the object, and discriminating an input code based on a relative position of an area pushed by the index finger.
  9. 제1항에 있어서,The method of claim 1,
    상기 컨트롤러는The controller is
    상기 이동 단말기가 장금 상태에서, 근접한 상기 오브젝트의 형상이 사용자의 손에 대응되고, 상기 오브젝트가 이격된 상태에서 기 설정 패턴으로 스위핑하는 경우 장금 모드를 해제하는 것을 특징으로 하는 이동 단말기.And when the mobile terminal is in a locked state, the shape of the adjacent object corresponds to a user's hand, and the object is separated from each other and sweeps in a preset pattern, canceling the locking mode.
  10. 제9항에 있어서,The method of claim 9,
    상기 컨트롤러는The controller is
    상기 오브젝트에서 사용자의 인덱스 핑거를 분별하고, 상기 인덱스 핑거가 시작 지점을 기준으로 스위핑하는 패턴을 기 설정 패턴과 비교하여 상기 장금 모드를 해제하는 것을 특징으로 하는 이동 단말기.The mobile terminal according to claim 1, wherein the user's index finger is identified from the object, and a pattern by which the index finger sweeps based on a starting point is compared with a preset pattern to cancel the lock mode.
  11. 제1항에 있어서,The method of claim 1,
    상기 컨트롤러는The controller is
    상기 이동 단말기가 장금 상태에서, 상기 오브젝트의 형상이 손바닥에 대응되고, 상기 오브젝트가 기 설정 거리 간격에서 호버링하는 경우, 생체 정보를 통해 자금 모드를 해제하는 것을 특징으로 하는 이동 단말기.When the mobile terminal is in a locked state, the shape of the object corresponds to a palm and the object hovers at a preset distance, the fund mode is released through biometric information.
  12. 제11항에 있어서,The method of claim 11,
    상기 생체 정보는The biometric information is
    상기 손바닥의 손금 패턴, 정맥 패턴 및 지문 패턴 중 적어도 하나를 포함하는 것을 특징으로 하는 이동 단말기.A mobile terminal comprising at least one of a palm pattern, a vein pattern, and a fingerprint pattern of the palm.
  13. 제1항에 있어서,The method of claim 1,
    상기 컨트롤러는 The controller is
    상기 이동 단말기는The mobile terminal
    슬립 상태에서 장금 모드를 해제하는 경우, 상기 장금 모드를 해제함과 동시에 상기 이동 단말기를 웨이크업 하는 것을 특징으로 하는 이동 단말기.When releasing the locking mode in the sleep state, the mobile terminal wakes up at the same time as releasing the locking mode.
  14. 제1항에 있어서,The method of claim 1,
    상기 컨트롤러는The controller is
    상기 분별된 오브젝트의 형상 및 모션에 대응되는 특정 어플리케이션을 실행하도록 상기 이동 단말기를 제어하는 것을 특징으로 하는 이동 단말기.And controlling the mobile terminal to execute a specific application corresponding to the shape and motion of the classified object.
  15. 제14항에 있어서,The method of claim 14,
    상기 컨트롤러는The controller is
    상기 특정 어플리케이션이 실행된 경우, 상기 분별된 오브젝트의 형상 및 모션에 대응하여 상기 실행된 특정 어플리케이션의 기능을 제공하도록 상기 이동 단말기를 제어하는 것을 특징으로 하는 이동 단말기.And when the specific application is executed, controlling the mobile terminal to provide a function of the executed specific application in response to a shape and motion of the classified object.
  16. 제14항에 있어서,The method of claim 14,
    상기 컨트롤러는The controller is
    슬립 상태에서 상기 특정 어플리케이션을 실행하는 조건을 만족하는 경우, 상기 특정 어플리케이션을 실행함과 동시에 상기 디스플레이 유닛을 웨이크업하는 것을 특징으로 하는 이동 단말기. When a condition for executing the specific application is satisfied in a sleep state, the display unit wakes up while executing the specific application.
  17. 제1 항에 있어서,The method of claim 1,
    상기 깊이 카메라는The depth camera
    제1 모드에서 반사되는 빛의 세기를 감지하여 상기 오브젝트의 근접 여부를 분별하고, 제2 모드에서 반사되는 빛의 시차를 감지하여 상기 깊이 이미지를 획득하는 것을 특징으로 하는 이동 단말기.A mobile terminal, characterized in that for detecting the intensity of light reflected in the first mode to discriminate whether the object is close, and to acquire the depth image by detecting a parallax of light reflected in the second mode.
  18. 제1항에 있어서,The method of claim 1,
    상기 이동 단말기는The mobile terminal
    상기 오브젝트의 근점 여부를 분별하는 근접 센서를 더 포함하는 것을 특징으로 하는 이동 단말기.And a proximity sensor for discriminating whether the object is near or not.
PCT/KR2019/001775 2018-10-23 2019-02-13 Mobile terminal WO2020166740A1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
PCT/KR2019/001775 WO2020166740A1 (en) 2019-02-13 2019-02-13 Mobile terminal
KR1020190092155A KR20200045947A (en) 2018-10-23 2019-07-30 Mobile terminal
KR1020190092154A KR102218919B1 (en) 2018-10-23 2019-07-30 Mobile terminal
US16/661,215 US11500103B2 (en) 2018-10-23 2019-10-23 Mobile terminal
US16/661,199 US11620044B2 (en) 2018-10-23 2019-10-23 Mobile terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/001775 WO2020166740A1 (en) 2019-02-13 2019-02-13 Mobile terminal

Publications (1)

Publication Number Publication Date
WO2020166740A1 true WO2020166740A1 (en) 2020-08-20

Family

ID=72044384

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/001775 WO2020166740A1 (en) 2018-10-23 2019-02-13 Mobile terminal

Country Status (1)

Country Link
WO (1) WO2020166740A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022186811A1 (en) * 2021-03-01 2022-09-09 Hewlett-Packard Development Company, L.P. Transmit power controls

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150022673A (en) * 2013-08-23 2015-03-04 삼성전자주식회사 Method and apparatus for switching mode of terminal
KR20160034430A (en) * 2011-11-23 2016-03-29 인텔 코포레이션 Gesture input with multiple views, displays and physics
KR101660215B1 (en) * 2011-05-12 2016-09-26 애플 인크. Presence sensing
US20170090584A1 (en) * 2015-09-25 2017-03-30 Apple Inc. Multi Media Computing Or Entertainment System For Responding To User Presence And Activity
WO2018026142A1 (en) * 2016-08-01 2018-02-08 삼성전자 주식회사 Method for controlling operation of iris sensor and electronic device therefor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101660215B1 (en) * 2011-05-12 2016-09-26 애플 인크. Presence sensing
KR20160034430A (en) * 2011-11-23 2016-03-29 인텔 코포레이션 Gesture input with multiple views, displays and physics
KR20150022673A (en) * 2013-08-23 2015-03-04 삼성전자주식회사 Method and apparatus for switching mode of terminal
US20170090584A1 (en) * 2015-09-25 2017-03-30 Apple Inc. Multi Media Computing Or Entertainment System For Responding To User Presence And Activity
WO2018026142A1 (en) * 2016-08-01 2018-02-08 삼성전자 주식회사 Method for controlling operation of iris sensor and electronic device therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022186811A1 (en) * 2021-03-01 2022-09-09 Hewlett-Packard Development Company, L.P. Transmit power controls
TWI795955B (en) * 2021-03-01 2023-03-11 美商惠普發展公司有限責任合夥企業 Transmit power controls

Similar Documents

Publication Publication Date Title
WO2017090816A1 (en) Mobile terminal
WO2016010221A1 (en) Mobile terminal and control method therefor
WO2016076474A1 (en) Mobile terminal and method for controlling same
WO2016052874A1 (en) Method for providing remark information related to image, and terminal therefor
WO2017135522A1 (en) Mirror type display device and method for controlling same
WO2017094926A1 (en) Terminal device and control method
WO2017018603A1 (en) Mobile terminal and method of controlling same
WO2017026555A1 (en) Mobile terminal
WO2015126012A1 (en) Mobile terminal and method for controlling same
WO2016204338A1 (en) Electronic device
WO2018038288A1 (en) Mobile terminal
WO2019231042A1 (en) Biometric authentication device
WO2017052004A1 (en) Mobile terminal and control method therefor
WO2017030212A1 (en) Mobile terminal and method for controlling same
WO2016035955A1 (en) Mobile terminal and control method therefor
WO2016195197A1 (en) Pen terminal and method for controlling the same
WO2017126709A1 (en) Mobile terminal and control method therefor
WO2017030236A1 (en) Mobile terminal and control method therefor
WO2016111406A1 (en) Mobile terminal and method for controlling same
WO2015152443A1 (en) Stylus and mobile terminal having same
WO2017082448A1 (en) Device and method for operating same
WO2020166740A1 (en) Mobile terminal
WO2018131747A1 (en) Mobile terminal and control method thereof
WO2021066219A1 (en) Mobile terminal
WO2020013363A1 (en) Mobile terminal and control method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19915414

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19915414

Country of ref document: EP

Kind code of ref document: A1