WO2020166739A1 - Mobile terminal - Google Patents

Mobile terminal Download PDF

Info

Publication number
WO2020166739A1
WO2020166739A1 PCT/KR2019/001773 KR2019001773W WO2020166739A1 WO 2020166739 A1 WO2020166739 A1 WO 2020166739A1 KR 2019001773 W KR2019001773 W KR 2019001773W WO 2020166739 A1 WO2020166739 A1 WO 2020166739A1
Authority
WO
WIPO (PCT)
Prior art keywords
proximity sensor
mobile terminal
controller
sensor
data
Prior art date
Application number
PCT/KR2019/001773
Other languages
French (fr)
Korean (ko)
Inventor
진동철
안예한
윤동한
김현규
송민우
진소슬
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2019/001773 priority Critical patent/WO2020166739A1/en
Publication of WO2020166739A1 publication Critical patent/WO2020166739A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Definitions

  • the present invention relates to a mobile terminal.
  • it is applicable to the technical field of temporarily driving a 3D depth camera provided in a mobile terminal to prevent power consumption, and providing a user with a convenient UI by driving a depth camera without a user's direct touch.
  • Terminals can be divided into mobile/portable terminals and stationary terminals depending on whether they can be moved. Again, mobile terminals can be divided into handheld terminals and vehicle mounted terminals depending on whether the user can directly carry them.
  • the functions of mobile terminals are diversifying. For example, there are functions of data and voice communication, taking pictures and videos through a camera, recording voice, playing music files through a speaker system, and outputting images or videos to the display. Some terminals add an electronic game play function or perform a multimedia player function. In particular, recent mobile terminals can receive multicast signals providing visual content such as broadcasting and video or television programs.
  • UI user interface
  • AR augmented reality
  • a gesture recognition technology based on 3D vision is implemented based on a 3D depth camera that can recognize 3D coordinates.
  • the 3D depth camera has a difference in recognizing the distance between the camera and the object compared to the existing 2D camera, and for this, a calculation process for converting the measured raw image into a depth image is added.
  • the processing load of this calculation process is large, so high processing power is used, and accordingly, power consumption according to the operation of the 3D depth camera and the processor processing the 3D image occurs. If this operation is always performed in a battery-operated device with a high level, the operating time of the device is significantly reduced. Accordingly, a separate operation for activating the 3D camera is required, and this additional operation causes inconvenience to the user, thereby deteriorating the practical usability of the 3D vision-based UI.
  • An object of the present invention is to temporarily drive a 3D depth camera to prevent excessive power consumption, and to provide a user with a convenient UI by driving the depth camera without a user's direct touch.
  • a proximity sensor that senses whether an object is close, a depth camera that captures an object to obtain a depth image, and stores at least one command.
  • the proximity sensor sets the initial value based on the acquired data, and sets a threshold value by adding a preset value based on the set initial value.
  • a terminal Provide a terminal.
  • the proximity sensor determines that the object is separated, and the average value of the acquired data is greater than the threshold value. In the case of case, it is determined that the object is adjacent.
  • the controller when the controller detects the shape of the user's hand through the acquired depth image, it provides a mobile terminal, characterized in that maintaining the initial value of the proximity sensor.
  • the controller provides a mobile terminal characterized in that it wakes up when the mobile terminal is in a sleep state.
  • the controller extracts an index finger from the acquired depth image based on at least one command stored in the memory, and detects the movement of the index finger. It provides a mobile terminal.
  • the controller if it cannot detect the user's hand through the depth image continuously acquired for a preset time, it stops acquiring the depth image through the depth camera, and the It provides a mobile terminal, characterized in that acquiring data through a proximity sensor.
  • the controller when the controller stops acquiring the depth image through the depth camera, it provides a mobile terminal, characterized in that the mobile terminal is switched to a sleep mode. .
  • the controller when detecting an object other than the user's hand through the acquired depth image, the controller checks the depth of the other object, and the depth set distance of the other object In the above case, it provides a mobile terminal, characterized in that updating the initial value of the proximity sensor.
  • the controller acquires data through the proximity sensor, increases the initial value based on the acquired data, and increases the threshold value in response to the increased initial value.
  • a mobile terminal characterized in that.
  • the controller provides a mobile terminal, characterized in that it updates an initial value of the proximity sensor when an object is not detected within a preset distance through the acquired depth image.
  • the controller provides a mobile terminal, wherein the controller obtains data through the proximity sensor and updates the initial value when the acquired data is less than the threshold value.
  • the mobile terminal further includes a motion sensor to check the motion of the mobile terminal, and the controller detects that the mobile terminal is in a stable state through the motion sensor. It provides a mobile terminal, characterized in that acquiring data through.
  • the controller when the controller fails to sense an object that is close to the data acquired through the proximity sensor for more than a preset time, the controller stops acquiring data through the proximity sensor, and the motion sensor It provides a mobile terminal, characterized in that to check the motion of the mobile terminal through the.
  • the stable state is at least one of a state in which the position of the mobile terminal is fixed, a state in which the mobile terminal is moved below a preset speed, and a state in which the mobile terminal rotates below a preset angle.
  • the depth image may be acquired through the depth camera without the user directly touching the device.
  • the depth camera it is possible to prevent the depth camera from being driven due to an error by updating a reference value for determining whether an object is close by the proximity sensor.
  • the depth camera it is possible to prevent the depth camera from being unnecessarily driven by selectively and statically acquiring data through the proximity sensor according to the state of the mobile terminal.
  • FIG. 1A is a block diagram illustrating a mobile terminal related to the present invention.
  • FIGS. 1B and 1C are conceptual diagrams of an example of a mobile terminal according to the present invention viewed from different directions.
  • FIG. 2 is a block diagram of the present invention for performing a 3D vision-based UI based on a depth camera, a proximity sensor, and a proximity sensor according to an embodiment of the present invention.
  • FIG. 3 is a flowchart illustrating a processor for performing a 3D vision-based UI according to an embodiment of the present invention.
  • FIG. 4 is a flowchart illustrating a processor for selectively activating a proximity sensor through a motion sensor according to an embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating a processor for setting a threshold value of a proximity sensor and activating a depth camera based on the threshold value of the proximity sensor according to an embodiment of the present invention.
  • FIG. 6 is a flowchart illustrating a processor in which a mode for resetting an initial value of a proximity sensor is changed according to an object classified according to an embodiment of the present invention.
  • FIG. 7 is a diagram for explaining the necessity of resetting an initial value of a proximity sensor according to an embodiment of the present invention.
  • FIGS. 8 to 10 are flowcharts illustrating a processor for updating a threshold value of a proximity sensor according to the presence or absence of an object or the type of an object, according to an embodiment of the present invention.
  • 11 and 12 are diagrams for explaining an embodiment of executing a 3D vision-based UI through the present invention.
  • Mobile terminals described in this specification include mobile phones, smart phones, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), navigation systems, and slate PCs.
  • Tablet PC tablet PC
  • ultrabook ultrabook
  • wearable device wearable device, for example, smartwatch, glass-type terminal (smart glass), HMD (head mounted display)), etc. may be included. have.
  • the configuration according to the embodiment described in the present specification may also be applied to a fixed terminal such as a digital TV, a desktop computer, and a digital signage, except for a case applicable only to a mobile terminal. If you are a technician, you can easily find out.
  • FIG. 1A is a block diagram illustrating a mobile terminal related to the present invention
  • FIGS. 1B and 1C are conceptual diagrams of an example of a mobile terminal related to the present invention viewed from different directions.
  • the mobile terminal 100 includes a wireless communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, an interface unit 160, a memory 170, a control unit 180, and a power supply unit 190. ), etc.
  • the components shown in FIG. 1A are not essential for implementing the mobile terminal, and thus, the mobile terminal described in the present specification may have more or fewer components than those listed above.
  • the wireless communication unit 110 may be configured between the mobile terminal 100 and the wireless communication system, between the mobile terminal 100 and another mobile terminal 100, or between the mobile terminal 100 and an external server. It may include one or more modules that enable wireless communication between. In addition, the wireless communication unit 110 may include one or more modules for connecting the mobile terminal 100 to one or more networks.
  • the wireless communication unit 110 may include at least one of a broadcast reception module 111, a mobile communication module 112, a wireless Internet module 113, a short-range communication module 114, and a location information module 115. .
  • the input unit 120 includes a camera 121 or an image input unit for inputting an image signal, a microphone 122 for inputting an audio signal, or an audio input unit, and a user input unit 123 for receiving information from a user, for example, , A touch key, a mechanical key, etc.).
  • the voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.
  • the sensing unit 140 may include one or more sensors for sensing at least one of information in the mobile terminal, information on surrounding environments surrounding the mobile terminal, and user information.
  • the sensing unit 140 includes a proximity sensor 141, an illumination sensor 142, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity.
  • G-sensor for example, camera (see 121)), microphone (microphone, see 122), battery gauge, environmental sensor (for example, barometer, hygrometer, thermometer, radiation detection sensor, It may include at least one of a heat sensor, a gas sensor, etc.), and a chemical sensor (eg, an electronic nose, a healthcare sensor, a biometric sensor, etc.).
  • the mobile terminal disclosed in the present specification may combine and utilize information sensed by at least two or more of these sensors.
  • the output unit 150 is for generating an output related to visual, auditory, or tactile sense, and may include at least one of a display 151, an audio output unit 152, a hap tip module 153, and a light output unit.
  • the display 151 may form a layer structure with the touch sensor or be integrally formed, thereby implementing a touch screen.
  • Such a touch screen can function as a user input unit 123 that provides an input interface between the mobile terminal 100 and a user, and can provide an output interface between the mobile terminal 100 and a user.
  • the interface unit 160 serves as a passage between various types of external devices connected to the mobile terminal 100.
  • the interface unit 160 connects a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, and a device equipped with an identification module. It may include at least one of a port, an audio input/output (I/O) port, an input/output (video I/O) port, and an earphone port.
  • the mobile terminal 100 may perform appropriate control related to the connected external device in response to the connection of the external device to the interface unit 160.
  • the memory 170 stores data supporting various functions of the mobile terminal 100.
  • the memory 170 may store a plurality of application programs or applications driven by the mobile terminal 100, data for operation of the mobile terminal 100, and commands. At least some of these application programs may be downloaded from an external server through wireless communication. In addition, at least some of these application programs may exist on the mobile terminal 100 from the time of delivery for basic functions of the mobile terminal 100 (eg, incoming calls, outgoing functions, message reception, and outgoing functions). Meanwhile, the application program may be stored in the memory 170, installed on the mobile terminal 100, and driven by the controller 180 to perform an operation (or function) of the mobile terminal.
  • the controller 180 In addition to the operation related to the application program, the controller 180 generally controls the overall operation of the mobile terminal 100.
  • the controller 180 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in the memory 170.
  • the controller 180 may control at least some of the components examined together with FIG. 1A. Furthermore, in order to drive the application program, the controller 180 may operate by combining at least two or more of the components included in the mobile terminal 100 with each other.
  • the power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power to each of the components included in the mobile terminal 100.
  • the power supply unit 190 includes a battery, and the battery may be a built-in battery or a replaceable battery.
  • At least some of the components may operate in cooperation with each other to implement an operation, control, or control method of a mobile terminal according to various embodiments described below.
  • the operation, control, or control method of the mobile terminal may be implemented on the mobile terminal by driving at least one application program stored in the memory 170.
  • 1B and 1C describe basic features of a foldable mobile terminal in an unfolded state.
  • the mobile terminal 100 includes a display 151, first and second sound output units 152a and 152b, proximity sensor 141, illuminance sensor 142, light output unit 154, and first and second cameras. (121a, 121b), first and second operation units (123a, 123b), a microphone 122, an interface unit 160, and the like may be provided.
  • the camera 121a and the first operation unit 123a are disposed, the second operation unit 123b, the microphone 122 and the interface unit 160 are disposed on the side of the terminal body, and 2
  • a mobile terminal 100 in which the sound output unit 152b and the second camera 121b are disposed will be described as an example.
  • first operation unit 123a may not be provided on the front surface of the terminal body, and the second sound output unit 152b may be provided on the side of the terminal body rather than on the rear surface of the terminal body.
  • the display 151 displays (outputs) information processed by the mobile terminal 100.
  • the display 151 may display execution screen information of an application program driven in the mobile terminal 100, or UI (User Interface) and GUI (Graphic User Interface) information according to such execution screen information.
  • UI User Interface
  • GUI Graphic User Interface
  • the display 151 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. ), a 3D display, and an e-ink display.
  • LCD liquid crystal display
  • TFT LCD thin film transistor-liquid crystal display
  • OLED organic light-emitting diode
  • two or more displays 151 may exist depending on the implementation type of the mobile terminal 100.
  • a plurality of displays may be spaced apart or integrally disposed on one surface, or may be disposed on different surfaces, respectively.
  • the display 151 may include a touch sensor that senses a touch on the display 151 so as to receive a control command by a touch method. Using this, when a touch is made to the display 151, the touch sensor may sense the touch, and the controller 180 may generate a control command corresponding to the touch based on this.
  • Content input by the touch method may be letters or numbers, or menu items that can be indicated or designated in various modes.
  • the touch sensor is configured in the form of a film having a touch pattern and is disposed between the window 151a covering the display 151 and a plurality of layers constituting the display 151, or directly on the rear surface of the window 151a. It can also be a metal wire to be patterned. Alternatively, the touch sensor may be integrally formed with the display. For example, the touch sensor may be disposed on a substrate of the display or may be provided inside the display.
  • the display 151 may form a touch screen together with a touch sensor, and in this case, the touch screen may function as a user input unit 123 (see FIG. 1A). In some cases, the touch screen may replace at least some functions of the first manipulation unit 123a.
  • the first sound output unit 152a may be implemented as a receiver that transmits a call sound to the user's ear, and the second sound output unit 152b is a loud speaker that outputs various alarm sounds or multimedia playback sounds. ) Can be implemented.
  • a sound hole for emitting sound generated from the first sound output unit 152a may be formed in the window 151a of the display 151.
  • the present invention is not limited thereto, and the sound may be configured to be emitted along an assembly gap between structures (eg, a gap between the window 151a and the front case 101).
  • the externally formed hole for sound output is not visible or hidden, so that the appearance of the mobile terminal 100 may be more simple.
  • the light output unit is configured to output light to notify when an event occurs. Examples of the event include message reception, call signal reception, missed call, alarm, schedule notification, e-mail reception, and information reception through an application.
  • the controller 180 may control the light output unit so that light output is terminated.
  • the first camera 121a processes an image frame of a still image or moving image obtained by an image sensor in a photographing mode or a video call mode.
  • the processed image frame may be displayed on the display 151 and may be stored in the memory 170.
  • the first and second manipulation units 123a and 123b are an example of a user input unit 123 that is manipulated to receive a command for controlling the operation of the mobile terminal 100, and may also be collectively referred to as a manipulating portion. have.
  • the first and second operation units 123a and 123b may be employed in any manner as long as the user operates while receiving a tactile feeling such as touch, push, and scroll.
  • the first and second manipulation units 123a and 123b may also be employed in a manner in which the first and second manipulation units 123a and 123b are operated without a user's tactile feeling through proximity touch, hovering touch, or the like.
  • the first manipulation unit 123a is illustrated as being a touch key, but the present invention is not limited thereto.
  • the first operation unit 123a may be a push key (mechanical key) or may be configured as a combination of a touch key and a push key.
  • Contents input by the first and second manipulation units 123a and 123b may be variously set.
  • the first operation unit 123a receives commands such as menu, home key, cancel, search, etc.
  • the second operation unit 123b is output from the first or second sound output units 152a, 152b.
  • Commands such as adjusting the volume of sound and switching to the touch recognition mode of the display 151 may be input.
  • a rear input unit (not shown) may be provided on the rear surface of the terminal body.
  • This rear input unit is manipulated to receive a command for controlling the operation of the mobile terminal 100, and input contents may be variously set. For example, commands such as power on/off, start, end, scrolling, etc., adjusting the volume of sound output from the first and second sound output units 152a and 152b, and entering the touch recognition mode of the display 151 Commands such as conversion can be input.
  • the rear input unit may be implemented in a form capable of inputting by a touch input, a push input, or a combination thereof.
  • the rear input unit may be disposed to overlap the front display 151 in the thickness direction of the terminal body.
  • the rear input unit may be disposed on the rear upper end of the terminal body so that the user can easily manipulate it using the index finger.
  • the present invention is not necessarily limited thereto, and the position of the rear input unit may be changed.
  • the display 151 may be configured with a larger screen.
  • the mobile terminal 100 may be provided with a fingerprint recognition sensor 143 for recognizing a user's fingerprint, and the controller 180 may use fingerprint information detected through the fingerprint recognition sensor 143 as an authentication means.
  • the fingerprint recognition sensor may be embedded in the display 151 or the user input unit 123, or may be provided in a separate location.
  • the microphone 122 is configured to receive a user's voice and other sounds.
  • the microphone 122 may be provided in a plurality of locations and configured to receive stereo sound.
  • the interface unit 160 becomes a passage through which the mobile terminal 100 can be connected to an external device.
  • the interface unit 160 is a connection terminal for connection with other devices (eg, earphones, external speakers), a port for short-range communication (eg, an infrared port (IrDA Port), a Bluetooth port (Bluetooth Port), a wireless LAN port, etc.], or at least one of a power supply terminal for supplying power to the mobile terminal 100.
  • the interface unit 160 may be implemented in the form of a socket for accommodating an external card such as a subscriber identification module (SIM) or a user identity module (UIM), or a memory card for storing information.
  • SIM subscriber identification module
  • UIM user identity module
  • a second camera 121b may be disposed on the rear surface of the terminal body.
  • the second camera 121b has a photographing direction substantially opposite to that of the first camera 121a.
  • the second camera 121b may include a plurality of lenses arranged along at least one line.
  • the plurality of lenses may be arranged in a matrix format.
  • Such a camera may be referred to as an'array camera'.
  • an image may be photographed in various ways using a plurality of lenses, and an image of better quality may be obtained.
  • the flash 124 may be disposed adjacent to the second camera 121b.
  • the flash 124 illuminates light toward the subject when photographing the subject with the second camera 121b.
  • a second sound output unit 152b may be additionally disposed on the terminal body.
  • the second sound output unit 152b may implement a stereo function together with the first sound output unit 152a, and may be used to implement a speakerphone mode during a call.
  • At least one antenna for wireless communication may be provided in the terminal body.
  • the antenna may be embedded in the terminal body or may be formed in a case.
  • an antenna forming a part of the broadcast receiving module 111 (refer to FIG. 1A) may be configured to be retractable from the terminal body.
  • the antenna may be formed in a film type and attached to the inner surface of the rear cover 103, or a case including a conductive material may be configured to function as an antenna.
  • the terminal body is provided with a power supply unit 190 (refer to FIG. 1A) for supplying power to the mobile terminal 100.
  • the power supply unit 190 may include a battery 191 built in the terminal body or configured to be detachable from the outside of the terminal body.
  • the battery 191 may be configured to receive power through a power cable connected to the interface unit 160.
  • the battery 191 may be configured to enable wireless charging through a wireless charger.
  • the wireless charging may be implemented by a magnetic induction method or a resonance method (magnetic resonance method).
  • the rear cover 103 is coupled to the rear case 102 so as to cover the battery 191 to limit the separation of the battery 191, and to protect the battery 191 from external shock and foreign substances. It is illustrated.
  • the rear cover 103 may be detachably coupled to the rear case 102.
  • Cameras applied to the present invention are located around the touch screen of the mobile device. Accordingly, it is possible to detect depth information on an object (eg, a user's finger) within a certain distance from the touch screen of the mobile device.
  • a camera can be referred to as a depth camera.
  • the first method is a method using a multi-camera (or lens), which captures visible light by using two or more cameras, and generates a 3D image using depth information.
  • the second method is to mount a separate sensor for depth sensing in the camera module, and more specifically, SL (Structured Light) and ToF (Time of Flight) methods are applied.
  • a laser having a specific pattern such as a straight line or a grid pattern
  • the information in which the pattern is deformed according to the shape of the object surface is analyzed.
  • the 3D-based photographing result is derived by combining it with the photograph taken by the image sensor.
  • a laser infrared (IR) projector that transmits a specific pattern, an infrared depth sensor, an image sensor, and a 3D processor may be used.
  • depth information is calculated by measuring the time the laser travels to the object to be photographed and returns after being reflected, and then synthesizes it with a photograph taken by an image sensor to derive a 3D-based photographing result.
  • a laser infrared (IR) projector, a reception sensor, an image sensor, and a 3D processor may be used.
  • FIG. 2 is a block diagram of the present invention for performing a 3D vision-based UI based on a depth camera, a proximity sensor, and a proximity sensor according to an embodiment of the present invention.
  • the present invention relates to a system capable of detecting a user's hand through a 3D depth camera 200 and a proximity sensor 300 and activating or deactivating a device accordingly.
  • the device of the present invention may include a mobile terminal, but is not necessarily limited thereto, and may include a television, an artificial intelligence device, a tablet, etc. that can utilize a 3D vision-based UI.
  • the depth camera 200 of the present invention may be a TOF (Time-of-Flight) type camera, but is not necessarily limited to this type of camera.
  • TOF Time-of-Flight
  • a sensor of a method of irradiating light and determining whether or not proximity is determined through the intensity of reflected light may be used, but is not necessarily limited to this type of sensor.
  • a method in which the proximity sensor 300 determines whether an object is in proximity will be described in detail with reference to FIG. 7.
  • the proximity sensor 300 detects that an object is close, a depth image is obtained through the depth camera 200, and it is possible to discriminate whether the object corresponds to the user's hand from the acquired depth image.
  • the present invention may additionally include a motion sensor 400 capable of detecting the state of the device.
  • the motion sensor 400 may detect whether the device exists in a state suitable for the device to perform a 3D based UI.
  • the motion sensor 400 may detect whether the device is in a stable state suitable for performing a 3D-based UI with the device, such as when the device is on a table or is fixed toward the user.
  • the motion sensor 400 may include an acceleration sensor, a gyro sensor, or the like.
  • the motion sensor 400 may serve as a trigger for activating the proximity sensor 300. That is, only when the device is stable through the motion sensor 400, data for determining whether an object is in proximity may be obtained through the proximity sensor 300.
  • the motion sensor 400 may not be required. In this case, the motion sensor 400 may always be driven in an active state.
  • the motion sensor 400 and the proximity sensor 300 may be controlled through a low power processor 500 that operates with low power.
  • the low power processor 500 may include a device state checker 510 connected to the motion sensor 400 to detect a motion state of a device through data acquired from the motion sensor 400.
  • the device state detection unit 510 When the device state detection unit 510 detects that the motion of the device is in a stable state for performing a 3D vision-based UI with the user, it activates the proximity sensor 300 through a proximity sensor trigger 520 and whether the object is in proximity. It is possible to obtain data for determining the.
  • the initial value may be a value set under controlled experimental conditions.
  • the depth camera 300 When detecting that the object is in proximity through the proximity sensor trigger 520, the depth camera 300 may be activated.
  • the depth camera 300 is connected to a high performance processor 600, and the high performance processor 600 controls the depth camera 300 to obtain a depth image and indexes a user to perform a 3D vision-based UI.
  • a function of tracking a finger may be provided.
  • the high specification processor 600 may include an object classifying unit 610 that controls the depth camera 300 to acquire a depth image, and discriminates whether an object corresponds to a user's hand with the acquired depth image. have.
  • the depth camera 300 may acquire a depth image in a ready mode and discriminate the shape of the depth image through the object classifier 610.
  • the ready mode may be activated when an object is close through the proximity sensor 300.
  • the object classifier 610 may classify an object, and the initial value of the proximity sensor 300 may be updated using a depth image according to the classifying result.
  • the high-end processor 600 may detect a gesture of the user's hand or activate a tracking unit 620 that tracks an index finger of the user's hand.
  • the high-end processor 600 may further include an object detector 630 that acquires a two-dimensional image through the depth camera 200 and detects the presence or absence of an object.
  • the object detection unit 630 may be a component that replaces the role of the proximity sensor 300.
  • the depth camera 200 When the depth camera 200 acquires a two-dimensional image corresponding to the intensity data, the depth camera 200 may be operated in a low power mode through the object detector 630.
  • the object classifying unit 610 While operating the depth camera 200 in the low power mode, when detecting that an object exists, the object classifying unit 610 may be activated to switch to the ready mode.
  • the object detection unit 630 plays the same role as the proximity sensor 300, when the object detection unit 630 is included in the present invention, the proximity sensor 300 and the proximity sensor trigger 520 are omitted, and object detection The unit 630 may be configured to be activated by the device state detection unit 510.
  • the low-power processor 500 and the high-end processor 600 may not necessarily be divided into a configuration divided into calculation and processing capabilities, but may be included in one controller.
  • FIG. 3 is a flowchart illustrating a processor for performing a 3D vision-based UI according to an embodiment of the present invention.
  • FIG. 3 is a flowchart illustrating a processor for performing a 3D vision based UI based on the system of the present invention disclosed in FIG. 2.
  • the processor according to the present invention may check the motion of the device through the data acquired by the motion sensor 400 and activate the proximity sensor 300 when the device is in motion suitable for performing a 3D vision-based UI. (S210)
  • the step of checking the motion of the device through the motion sensor 400 may be omitted.
  • the proximity sensor 300 may always be in an activated state.
  • the object detection unit 630 may replace the proximity sensor 300.
  • activating the depth camera 300 means operating the depth camera in a ready mode.
  • the proximity sensor 300 may use various types of sensors, but it is typically possible to discriminate whether or not the object is in proximity by detecting the intensity of light reflected and returned from the object.
  • the proximity sensor 300 may detect light reflected from an object and return to it, set a base line through an average value, and set a threshold value by adding a preset value from the set base line. When a threshold value is set, the intensity of light detected thereafter can be compared with the threshold value to discriminate whether an object is close.
  • the object classifying unit 610 is activated when the depth camera 200 is operated in a ready mode, and may identify an object by acquiring a depth image from the depth camera 200. (S230)
  • the object can be identified through the shape of the depth image and a previously stored database.
  • the user's hand is tracked to perform a 3D vision-based UI, whether an object corresponds to a hand or an object other than a hand can be identified, and in some cases, it is possible to discriminate if there is no object.
  • the initial value of the proximity sensor 300 may be reset according to whether the object corresponds to a hand, whether it is an object other than a hand, or when there is no object. (S240) This is to correct an incorrectly set initial value of the proximity sensor 300, and to prevent an error in sensing due to contamination of adjacent portions.
  • the device when the device is in the sleep mode, it wakes up, tracks the index finger of the user's hand, and performs a 3D vision-based UI with the user.
  • 4 is a flowchart illustrating a processor for selectively activating a proximity sensor through a motion sensor according to an embodiment of the present invention.
  • 4 is a flowchart illustrating a processor for executing a 3D vision-based UI through the motion sensor 400 based on the system of the present invention disclosed in FIG. 2.
  • activating the proximity sensor 300 through the motion sensor 400 may be preferable in terms of power consumption prevention and processor stabilization.
  • the motion sensor 400 may include an acceleration sensor, a gyro sensor, a magnetic sensor, and the like, and through this, data for determining the motion of the device may be obtained. (S211)
  • 3-axis data may be used to determine device motion
  • 9 or more data may be used in some cases.
  • the motion state of the device may be determined through data acquired at preset time intervals through the motion sensor 400 (S212).
  • the proximity sensor 300 may be activated to obtain data for determining whether an object is in proximity.
  • acquiring data for detecting motion of the device may be temporarily stopped.
  • the proximity sensor 300 is in an inactive state and the device is stable. Until the state is reached, the operation of acquiring data through the motion sensor can be performed.
  • FIG. 5 is a flowchart illustrating a processor for setting a threshold value of a proximity sensor and activating a depth camera based on the threshold value of the proximity sensor according to an embodiment of the present invention.
  • FIG. 5 will be described based on the system of the present invention disclosed in FIG. 2.
  • the method for the proximity sensor 300 to determine whether the object is in proximity is not limited to detecting the reflected light.
  • a threshold value which is a reference value for discriminating whether an object is close or not, can be set.
  • the object When the data acquired by the proximity sensor 300 is greater than the threshold value, the object may be identified as a proximity state. Conversely, when the data acquired by the proximity sensor 300 is smaller than the threshold value, the object may be identified as being far away.
  • the object When the data acquired by the proximity sensor 300 exceeds the threshold value (S224, Yes), the object may be identified as being close and the depth camera 200 may be activated (in a ready mode). (S225)
  • the proximity sensor 300 when the data acquired by the proximity sensor 300 does not exceed the threshold value, data may be continuously acquired through the proximity sensor 300 without activating the depth camera 200. (S224, No) At this time, when the motion of the device is out of the stable state, the proximity sensor 300 may be deactivated and data acquisition may be stopped.
  • FIG. 6 is a flowchart illustrating a processor in which a mode for resetting an initial value of a proximity sensor is changed according to an object classified according to an embodiment of the present invention.
  • FIG. 6 will be described based on FIG. 2.
  • the depth carrera 200 When it is determined that the object is close through the proximity sensor 300, the depth carrera 200 is activated in the ready mode. In the ready mode, the depth camera 200 acquires a depth image. (S231)
  • the object classification unit 610 determines whether an object exists within a preset distance through the acquired depth image. (S232)
  • the initial value of the proximity sensor 200 may be reset in response to the absence of the object. (S234) If there is no object within the preset distance, the initial value of the proximity sensor 300 may be set too low, or a contaminant may be trapped near the proximity sensor 300
  • the object classifying unit 610 may discriminate whether the object is a hand or not through a previously stored database. (S233)
  • the initial value of the proximity sensor may be reset according to whether the object corresponds to a hand or an object other than a hand.
  • FIG. 7 is a diagram for explaining the necessity of resetting an initial value of a proximity sensor according to an embodiment of the present invention.
  • the threshold values 302 and 303 were set as absolute values as shown in FIG. 7(a), and the data 301 acquired through the proximity sensor 200 and the threshold values 302 and 302 were compared to the object. It was judged whether or not the proximity of
  • the threshold value is absolutely set as shown in FIG. 7(b)
  • data existing between the first threshold value 302 and the second threshold value 303 is also located near the proximity sensor 300. If contamination occurs and the overall data value increases, it may be incorrectly determined that the object is near.
  • the threshold value is relatively set above the set value, even if the data value increases as a whole due to contamination of the adjacent portion of the proximity sensor 300, whether or not the object is close can be identified without mistake.
  • the initial value of the proximity sensor 300 may be reset based on the depth image, which will be described below.
  • FIGS. 8 to 10 are flowcharts illustrating a processor for updating a threshold value of a proximity sensor according to the presence or absence of an object or the type of an object, according to an embodiment of the present invention.
  • FIGS. 8 to 10 will be described based on FIG. 2.
  • FIG. 8 is a flowchart of a case where a nearby object corresponds to a user's hand
  • FIG. 9 is a flowchart of a case where a nearby object corresponds to an object other than the user's hand
  • FIG. 10 is a case where there is no adjacent object. It is a flow chart.
  • the initial value of the proximity sensor 200 is not separately reset.
  • the object classifying unit 610 transmits it to the proximity sensor trigger 520, and the proximity sensor trigger 520 is a proximity sensor ( 300) to obtain data (S2412)
  • the data acquired through the proximity sensor 300 is compared with the previously set threshold (S2413), when it is small, the object is determined to be far away (S2414), and the motion is checked through the motion sensor 300 (S2145).
  • the existing flow can be maintained.
  • the depth camera 300 operates in an active mode and can track the index finger of the user's hand.
  • the depth camera 200 may not operate in an active mode and may reset an initial value of the proximity sensor 300 based on the acquired depth image.
  • the object classification unit 610 determines whether the object exists less than a preset distance (S2422). This is transmitted to the proximity sensor trigger 520.
  • the proximity sensor trigger 520 may maintain an existing flow without resetting the initial value of the proximity sensor when the object exists within a preset distance (S2422, Yes).
  • the proximity sensor trigger 520 may update the baseline and threshold values based on the data (S2424) acquired through the proximity sensor 300 after the object exists when the object exceeds a preset distance. have. (S2425)
  • the proximity sensor 300 incorrectly activates the depth camera, and thus the initial value of the proximity sensor 300 needs to be reset.
  • the object classification unit 610 transmits this to the proximity sensor trigger 520 and again through the proximity sensor 2431. Acquire the data. (S2432)
  • the existing threshold value is correct, but it is determined that the depth camera has been incorrectly active due to another factor, and the proximity of the object is redefined as far away (S2435). , You can proceed to the step of checking the motion through the motion sensor (S2436).
  • FIGS. 11 and 12 are diagrams for explaining an embodiment of executing a 3D vision-based UI through the present invention. Hereinafter, FIGS. 11 and 12 will be described based on FIG. 2.
  • the proximity sensor 300 detects the proximity of the user's hand 700 and activates the depth camera 300 (ready Mode).
  • the device may be switched from the sleep mode to the active mode.
  • the user can switch the device to the active state without touching it.
  • the proximity sensor 300 may detect whether an object is in proximity only in a stable state suitable for the device to execute a 3D vision-based UI using the motion sensor 400.
  • the device when the user's hand 700 approaches the device and then moves away from the device in the active mode, the device may be switched from the active mode to the sleep mode.
  • the depth camera 300 When the device is in an active mode, the depth camera 300 is not always in a ready mode or an active mode. That is, the proximity sensor 300 may detect the proximity of an object in the device active mode, and may switch the depth camera to the ready mode. After the user's hand is identified from the acquired depth image, and when it is sensed that the identified user's hand is moving away, the device may be switched from the active mode to the sleep mode.
  • the user can switch the device to the sleep mode without touching it.
  • the device 100 in a sleep state detects whether an object is in proximity through the proximity sensor 300, and when the object is close, the depth camera 200 is activated so that the object is
  • the device is switched to a mode that tracks the index finger of the user's hand and executes the 3D vision-based UI. It switches to sleep mode and stops acquiring depth images through the depth camera.
  • the user can be active without touching the device 100, and can selectively acquire a depth image through the depth camera and execute the 3D vision board UI at low power.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

Provided is a mobile terminal, according to the present invention, for performing a three-dimensional vision-based UI at low power without direct touching and clearly identifying a time point at which the three-dimensional vision-based UI is performed, the mobile terminal comprising: a proximity sensor for sensing whether an object approaches the mobile terminal; a depth camera for acquiring a depth image by capturing the object; a memory for storing at least one command; and a controller connected to the proximity sensor, the depth camera, and the memory, wherein, when the approach of the object is sensed on the basis of an initial value of the proximity sensor, the controller acquires a depth image through the depth camera according to the at least one command stored in the memory and updates the initial value of the proximity sensor on the basis of the acquired depth image.

Description

이동 단말기Mobile terminal
본 발명은 이동 단말기에 관한 것이다. 보다 상세하게는, 이동 단말기에 구비된 삼차원 깊이 카메라를 일시적으로 구동하여 전력 소모를 방지하고, 사용자의 직접 터치 없이 깊이 카메라를 구동하여 사용자에게 편리한 UI를 제공하는 기술 분야에 적용 가능하다.The present invention relates to a mobile terminal. In more detail, it is applicable to the technical field of temporarily driving a 3D depth camera provided in a mobile terminal to prevent power consumption, and providing a user with a convenient UI by driving a depth camera without a user's direct touch.
단말기는 이동 가능여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)으로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mounted terminal)로 나뉠 수 있다. Terminals can be divided into mobile/portable terminals and stationary terminals depending on whether they can be moved. Again, mobile terminals can be divided into handheld terminals and vehicle mounted terminals depending on whether the user can directly carry them.
이동 단말기의 기능은 다양화 되고 있다. 예를 들면, 데이터와 음성통신, 카메라를 통한 사진촬영 및 비디오 촬영, 음성녹음, 스피커 시스템을 통한 음악파일 재생 그리고 디스플레이에 이미지나 비디오를 출력하는 기능이 있다. 일부 단말기는 전자게임 플레이 기능이 추가되거나, 멀티미디어 플레이어 기능을 수행한다. 특히 최근의 이동 단말기는 방송과 비디오나 텔레비전 프로그램과 같은 시각적 컨텐츠를 제공하는 멀티캐스트 신호를 수신할 수 있다. The functions of mobile terminals are diversifying. For example, there are functions of data and voice communication, taking pictures and videos through a camera, recording voice, playing music files through a speaker system, and outputting images or videos to the display. Some terminals add an electronic game play function or perform a multimedia player function. In particular, recent mobile terminals can receive multicast signals providing visual content such as broadcasting and video or television programs.
이동 단말기는 삼차원 깊이 카메라 기술의 발전과 함께 삼차원 비전(Vision) 기술 기반으로 사용자의 모션(motion)이나 제스처(gesture)를 감지하여 디바이스를 제어하는 사용자 인터페이스(User Interface, UI)도 발전하고 있다. 삼차원 비전(Vision) 기반 UO는 기존 이차원 터치 기반 UI를 보완하여 다양한 어플리케이션에 적용이 가능하다. 예를 들면, 증강현실(Augmented reality, AR) 어플리케이션에서 오브젝트를 삼차원으로 제어할 수 있고, 사용자가 터치할 수 없는 위치에 디바이스가 있는 경우에도 제어할 수 있으며, 사용자의 손이 오염되거나 장갑을 끼고 있을 경우 등 터치가 어려운 경우에도 디바이스를 제어할 수 있게 해준다. 이에, 삼차원 비전(Vision) 기반 제스처 인식 기술이 각광 받고 있다.Along with the development of 3D depth camera technology, mobile terminals are also developing a user interface (UI) that controls a device by detecting a user's motion or gesture based on a 3D vision technology. UO based on 3D vision can be applied to various applications by supplementing the existing 2D touch based UI. For example, in an augmented reality (AR) application, an object can be controlled in three dimensions, even when a device is located in a position that the user cannot touch, and the user's hand is contaminated or wearing gloves. It allows you to control the device even when it is difficult to touch, such as when there is one. Accordingly, 3D vision-based gesture recognition technology is in the spotlight.
삼차원 비전(Vision) 기반 제스처 인식 기술은 삼차원 좌표를 인지할 수 있는 삼차원 깊이 카메라를 기반으로 구현된다. 삼차원 깊이 카메라는 기존 이차원 카메라 대비 카메라와 오브젝트간 거리를 인식할 수 있는 차이점이 있으며, 이를 위해 측정된 로우(raw) 이미지를 깊이 이미지로 변환하기 위한 계산 과정이 추가된다. 이 계산 과정의 프로세싱 로드(processing load)가 커서 높은 프로세싱 파워(processing power)를 사용하게 되고, 그에 따라 삼차원 깊이 카메라와 삼차원 이미지를 처리하는 프로세서의 동작에 따른 파워 소모가 발생하게 되는데, 일반적으로 이 수준이 높아 베터리로 동작하는 디바이스에서 항상 이 동작을 수행하게 되면 디바이스의 동작 시간이 현저히 떨어지게 된다. 이에, 삼차원 카메라를 활성화시키기 위한 별도의 조작이 필요하게 되며, 이런 추가적인 조작은 사용자에게 불편을 초래해 3차원 비전 기반 UI의 실질적인 사용성을 저하시키게 된다.A gesture recognition technology based on 3D vision is implemented based on a 3D depth camera that can recognize 3D coordinates. The 3D depth camera has a difference in recognizing the distance between the camera and the object compared to the existing 2D camera, and for this, a calculation process for converting the measured raw image into a depth image is added. The processing load of this calculation process is large, so high processing power is used, and accordingly, power consumption according to the operation of the 3D depth camera and the processor processing the 3D image occurs. If this operation is always performed in a battery-operated device with a high level, the operating time of the device is significantly reduced. Accordingly, a separate operation for activating the 3D camera is required, and this additional operation causes inconvenience to the user, thereby deteriorating the practical usability of the 3D vision-based UI.
본 발명은 삼차원 깊이 카메라를 일시적으로 구동하여 전력이 지나치게 소모되는 것을 방지하고, 사용자의 직접 터치 없이 깊이 카메라를 구동하여 사용자에게 편리한 UI를 제공하는 것을 목적으로 한다.An object of the present invention is to temporarily drive a 3D depth camera to prevent excessive power consumption, and to provide a user with a convenient UI by driving the depth camera without a user's direct touch.
상기 또는 다른 목적을 달성하기 위해, 본 발명 일 측면에 따라, 이동 단말기에 있어서, 오브젝트의 근접 여부를 센싱하는 근접 센서, 오브젝트를 캡쳐하여 깊이 이미지를 획득하는 깊이 카메라, 적어도 하나의 커맨드를 저장하는 메모리, 및 상기 근접 센서, 상기 깊이 카메라 및 상기 메모리에 연결된 컨트롤러를 포함하고, 상기 컨트롤러는 상기 근접센서의 초기 값에 기초하여 오브젝트가 근접을 센싱한 경우, 상기 메모리에 저장된 적어도 하나의 커맨드에 따라, 상기 깊이 카메라를 통해 깊이 이미지를 획득하고, 상기 획득된 깊이 미지를 기초로 상기 근접센서의 초기 값을 업데이트하는 것을 특징으로 하는 이동 단말기를 제공한다.In order to achieve the above or other objects, according to an aspect of the present invention, in a mobile terminal, in a mobile terminal, a proximity sensor that senses whether an object is close, a depth camera that captures an object to obtain a depth image, and stores at least one command. A memory, the proximity sensor, the depth camera, and a controller connected to the memory, wherein the controller detects proximity by an object based on an initial value of the proximity sensor, according to at least one command stored in the memory And obtaining a depth image through the depth camera, and updating an initial value of the proximity sensor based on the acquired depth unknown.
또한, 본 발명의 일 측면에 따라, 상기 근접센서는 획득한 데이터를 기초로 상기 초기 값을 설정하고, 상기 설정된 초기 값을 기준으로 기 설정 값을 더하여 트레숄드 값을 설정하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, the proximity sensor sets the initial value based on the acquired data, and sets a threshold value by adding a preset value based on the set initial value. Provide a terminal.
또한, 본 발명의 일 측면에 따라, 상기 근접센서는 획득한 데이터의 평균 값이 상기 트레숄드 값 보다 작은 경우 상기 오브젝트가 떨어져 있는 것으로 판단하고, 획득한 데이터의 평균 값이 상기 트레숄드 값 보다 큰 경우 상기 오브젝트가 근접한 것으로 판단하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, when the average value of the acquired data is smaller than the threshold value, the proximity sensor determines that the object is separated, and the average value of the acquired data is greater than the threshold value. In the case of case, it is determined that the object is adjacent.
또한, 본 발명의 일 측면에 따라, 상기 컨트롤러는 상기 획득한 깊이 이미지를 통해 사용자의 손의 형상을 감지한 경우, 상기 근접 센서의 초기 값을 유지하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, when the controller detects the shape of the user's hand through the acquired depth image, it provides a mobile terminal, characterized in that maintaining the initial value of the proximity sensor.
또한, 본 발명의 일 측면에 따라, 상기 컨트롤러는 상기 이동 단말기가 슬립(sleep) 상태인 경우 웨이크업(wake up)하는 것을 특징으로 하는 이동 단말기를 제공한다. In addition, according to an aspect of the present invention, the controller provides a mobile terminal characterized in that it wakes up when the mobile terminal is in a sleep state.
또한, 본 발명의 일 측면에 따라, 상기 컨트롤러는 상기 메모리에 저장된 적어도 하나의 커맨드에 기초하여, 상기 획득한 깊이 이미지를 통해 인덱스 핑거를 추출하고, 상기 인덱스 핑거의 움직임을 감지하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, the controller extracts an index finger from the acquired depth image based on at least one command stored in the memory, and detects the movement of the index finger. It provides a mobile terminal.
또한, 본 발명의 일 측면에 따라, 상기 컨트롤러는 기 설정 시간 동안 연속적으로 획득한 깊이 이미지를 통해 사용자의 손을 감지할 수 없는 경우, 상기 깊이 카메라를 통해 깊이 이미지를 획득하는 것을 중단하고, 상기 근접센서를 통해 데이터를 획득하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, if the controller cannot detect the user's hand through the depth image continuously acquired for a preset time, it stops acquiring the depth image through the depth camera, and the It provides a mobile terminal, characterized in that acquiring data through a proximity sensor.
또한, 본 발명의 일 측면에 따라, 상기 컨트롤러는 상기 깊이 카메라를 통해 상기 깊이 이미지를 획득하는 것을 중단한 경우, 상기 이동 단말기를 슬립(sleep) 모드로 전환하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, when the controller stops acquiring the depth image through the depth camera, it provides a mobile terminal, characterized in that the mobile terminal is switched to a sleep mode. .
또한, 본 발명의 일 측면에 따라, 상기 컨트롤러는 상기 획득한 깊이 이미지를 통해 사용자의 손이 아닌 다른 오브젝트를 감지한 경우, 상기 다른 오브젝트의 깊이를 확인하고, 상기 다른 오브젝트의 깊이기 기 설정 거리 이상인 경우 상기 근접 센서의 초기 값을 업데이트하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, when detecting an object other than the user's hand through the acquired depth image, the controller checks the depth of the other object, and the depth set distance of the other object In the above case, it provides a mobile terminal, characterized in that updating the initial value of the proximity sensor.
또한, 본 발명의 일 측면에 따라, 상기 컨트롤러는 상기 근접센서를 통해 데이터를 획득하고, 회득한 데이터에 기초하여 상기 초기 값을 증가하고, 상기 증가된 초기 값에 대응하여 상기 트레숄드 값을 증가하는 것을 특징으로 하는 이동 단말기.Further, according to an aspect of the present invention, the controller acquires data through the proximity sensor, increases the initial value based on the acquired data, and increases the threshold value in response to the increased initial value. A mobile terminal, characterized in that.
또한, 본 발명의 일 측면에 따라, 상기 컨트롤러는 상기 획득한 깊이 이미지를 통해 기 설정 거리 이내에 오브젝트를 감지하지 못한 경우, 상기 근접센서의 초기 값을 업데이트 하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, the controller provides a mobile terminal, characterized in that it updates an initial value of the proximity sensor when an object is not detected within a preset distance through the acquired depth image.
또한, 본 발명의 일 측면에 따라, 상기 컨트롤러는 상기 근접센서를 통해 데이터를 획득하고, 획득한 데이터가 상기 트레숄드 값 미만인 경우 상기 초기 값을 업데이트하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, the controller provides a mobile terminal, wherein the controller obtains data through the proximity sensor and updates the initial value when the acquired data is less than the threshold value.
또한, 본 발명의 일 측면에 따라, 상기 이동 단말기는 상기 이동 단말기의 모션을 확인하는 모션센서를 더 포함하고, 상기 컨트롤러는 상기 모션센서를 통해 상기 이동 단말기가 안정 상태임을 감지한 경우 상기 근접센서를 통해 데이터를 획득하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, the mobile terminal further includes a motion sensor to check the motion of the mobile terminal, and the controller detects that the mobile terminal is in a stable state through the motion sensor. It provides a mobile terminal, characterized in that acquiring data through.
또한, 본 발명의 일 측면에 따라, 상기 컨트롤러는 상기 근접센서를 통해 획득한 데이터에서 기 설정 시간 이상 근접한 오브젝트를 센싱하지 못한 경우, 상기 근접센서를 통해 데이터를 획득하는 것을 중단하고, 상기 모션센서를 통해 상기 이동 단말기의 모션을 확인하는 것을 특징으로 하는 이동 단말기를 제공한다.In addition, according to an aspect of the present invention, when the controller fails to sense an object that is close to the data acquired through the proximity sensor for more than a preset time, the controller stops acquiring data through the proximity sensor, and the motion sensor It provides a mobile terminal, characterized in that to check the motion of the mobile terminal through the.
또한, 본 발명의 일 측면에 따라, 상기 안정 상태는 상기 이동 단말기의 위치가 고정된 상태, 기 설정 속도 이하로 움직이는 상태 및 기 설정 각도 이하로 회전하는 상태 중 적어도 하나인 것을 특징으로 하는 이도 단말기를 제공한다.In addition, according to an aspect of the present invention, the stable state is at least one of a state in which the position of the mobile terminal is fixed, a state in which the mobile terminal is moved below a preset speed, and a state in which the mobile terminal rotates below a preset angle. Provides.
본 발명에 따른 이동 단말기의 효과에 대해 설명하면 다음과 같다.The effect of the mobile terminal according to the present invention will be described as follows.
본 발명의 실시 예들 중 적어도 하나에 의하면, 깊이 카메라를 통해 삼차원 비전 기반 UI 실행에 소요되는 전력 소모를 줄일 수 있다.According to at least one of the embodiments of the present invention, it is possible to reduce power consumption required to execute a 3D vision-based UI through a depth camera.
본 발명의 실시 예들 중 적어도 하나에 의하면, 사용자가 디바이스를 직접 터치하지 않고도 깊이 카메라를 통해 깊이 이미지를 획득할 수 있다.According to at least one of the embodiments of the present invention, the depth image may be acquired through the depth camera without the user directly touching the device.
본 발명의 실시 예들 중 적어도 하나에 의하면, 근접 센서가 오브젝트의 근접 여부를 판단하는 기준 값을 업데이트로 하여 착오로 깊이 카메라가 구동되는 것을 방지할 수 있다. According to at least one of the embodiments of the present invention, it is possible to prevent the depth camera from being driven due to an error by updating a reference value for determining whether an object is close by the proximity sensor.
본 발명의 실시 예들 중 적어도 하나에 의하면, 이동 단말기의 상태에 따라 선별정적으로 근접 센서를 통해 데이터를 획득하여 깊이 카메라가 불필요하게 구동되는 것을 방지할 수 있다.According to at least one of the embodiments of the present invention, it is possible to prevent the depth camera from being unnecessarily driven by selectively and statically acquiring data through the proximity sensor according to the state of the mobile terminal.
본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 해당 기술 분야의 통상의 기술자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시 예와 같은 특정 실시 예는 단지 예시로 주어진 것으로 이해되어야 한다.Further scope of applicability of the present invention will become apparent from the detailed description below. However, since various changes and modifications within the spirit and scope of the present invention can be clearly understood by those skilled in the art, detailed description and specific embodiments such as preferred embodiments of the present invention are understood to be given by way of example only. Should be.
도 1a는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이다.1A is a block diagram illustrating a mobile terminal related to the present invention.
도 1b 및 1c는 본 발명과 관련된 이동 단말기의 일 예를 서로 다른 방향에서 바라본 개념도이다.1B and 1C are conceptual diagrams of an example of a mobile terminal according to the present invention viewed from different directions.
도 2은 본 발명의 일 실시예에 따라, 깊이 카메라와 근접 센서와 근접센서를 기초로 삼차원 비전 기반 UI를 수행하기 위한 본 발명의 구성도이다.2 is a block diagram of the present invention for performing a 3D vision-based UI based on a depth camera, a proximity sensor, and a proximity sensor according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따라, 삼차원 비전 기반 UI를 수행하기 위한 프로세서를 설명하는 흐름도이다. 3 is a flowchart illustrating a processor for performing a 3D vision-based UI according to an embodiment of the present invention.
도 4 는 본 발명의 일 실시예에 따라, 모션 센서를 통해 선별적으로 근접 센서를 활성화하는 프로세서를 설명하는 흐름도이다.4 is a flowchart illustrating a processor for selectively activating a proximity sensor through a motion sensor according to an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따라, 근접센서의 트레숄드(threshold) 값을 설정하고, 이를 기초로 깊이 카메라를 활성화하는 프로세서를 설명하는 흐름도이다.5 is a flowchart illustrating a processor for setting a threshold value of a proximity sensor and activating a depth camera based on the threshold value of the proximity sensor according to an embodiment of the present invention.
도 6은 본 발명의 일 실시예에 따라, 분별된 오브젝트에 따라 근접 센서의 초기 값을 재설정하기 위한 모드를 달리하는 프로세서를 설명하는 흐름도이다.6 is a flowchart illustrating a processor in which a mode for resetting an initial value of a proximity sensor is changed according to an object classified according to an embodiment of the present invention.
도 7은 본 발명의 일 실시예에 따라, 근접 센서의 초기 값을 재설정할 필요성을 설명하기 위한 도면이다. 7 is a diagram for explaining the necessity of resetting an initial value of a proximity sensor according to an embodiment of the present invention.
도 8 내지 10은 본 발명의 일 실시예에 따라, 오브젝트의 유무 또는 오브젝트의 종류에 따라 근접 센서의 트레숄드(threshold) 값을 업데이트하는 프로세서를 설명하는 흐름도이다.8 to 10 are flowcharts illustrating a processor for updating a threshold value of a proximity sensor according to the presence or absence of an object or the type of an object, according to an embodiment of the present invention.
도 11 및 도 12은 본 발명을 통해 삼차원 비전 기반 UI 를 실행하는 실시예를 설명하기 위한 도면이다.11 and 12 are diagrams for explaining an embodiment of executing a 3D vision-based UI through the present invention.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, exemplary embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but identical or similar elements are denoted by the same reference numerals regardless of reference numerals, and redundant descriptions thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or used interchangeably in consideration of only the ease of preparation of the specification, and do not have meanings or roles that are distinguished from each other by themselves. In addition, in describing the embodiments disclosed in the present specification, when it is determined that a detailed description of related known technologies may obscure the subject matter of the embodiments disclosed in the present specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are for easy understanding of the embodiments disclosed in the present specification, and the technical idea disclosed in the present specification is not limited by the accompanying drawings, and all modifications included in the spirit and scope of the present invention It should be understood to include equivalents or substitutes.
본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다.Mobile terminals described in this specification include mobile phones, smart phones, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), navigation systems, and slate PCs. , Tablet PC (tablet PC), ultrabook (ultrabook), wearable device (wearable device, for example, smartwatch, glass-type terminal (smart glass), HMD (head mounted display)), etc. may be included. have.
그러나, 본 명세서에 기재된 실시 예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 해당 기술 분야의 통상의 기술자라면 쉽게 알 수 있을 것이다.However, it is understood that the configuration according to the embodiment described in the present specification may also be applied to a fixed terminal such as a digital TV, a desktop computer, and a digital signage, except for a case applicable only to a mobile terminal. If you are a technician, you can easily find out.
도 1a 내지 도 1c를 참조하면, 도 1a는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이고, 도 1b 및 1c는 본 발명과 관련된 이동 단말기의 일 예를 서로 다른 방향에서 바라본 개념도이다.1A to 1C, FIG. 1A is a block diagram illustrating a mobile terminal related to the present invention, and FIGS. 1B and 1C are conceptual diagrams of an example of a mobile terminal related to the present invention viewed from different directions.
상기 이동 단말기(100)는 무선 통신부(110), 입력부(120), 센싱부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1a에 도시된 구성요소들은 이동 단말기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 이동 단말기는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. The mobile terminal 100 includes a wireless communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, an interface unit 160, a memory 170, a control unit 180, and a power supply unit 190. ), etc. The components shown in FIG. 1A are not essential for implementing the mobile terminal, and thus, the mobile terminal described in the present specification may have more or fewer components than those listed above.
보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 이동 단말기(100)와 무선 통신 시스템 사이, 이동 단말기(100)와 다른 이동 단말기(100) 사이, 또는 이동 단말기(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 이동 단말기(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.More specifically, among the components, the wireless communication unit 110 may be configured between the mobile terminal 100 and the wireless communication system, between the mobile terminal 100 and another mobile terminal 100, or between the mobile terminal 100 and an external server. It may include one or more modules that enable wireless communication between. In addition, the wireless communication unit 110 may include one or more modules for connecting the mobile terminal 100 to one or more networks.
이러한 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.The wireless communication unit 110 may include at least one of a broadcast reception module 111, a mobile communication module 112, a wireless Internet module 113, a short-range communication module 114, and a location information module 115. .
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The input unit 120 includes a camera 121 or an image input unit for inputting an image signal, a microphone 122 for inputting an audio signal, or an audio input unit, and a user input unit 123 for receiving information from a user, for example, , A touch key, a mechanical key, etc.). The voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.
센싱부(140)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 이동 단말기는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.The sensing unit 140 may include one or more sensors for sensing at least one of information in the mobile terminal, information on surrounding environments surrounding the mobile terminal, and user information. For example, the sensing unit 140 includes a proximity sensor 141, an illumination sensor 142, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity. G-sensor, gyroscope sensor, motion sensor, RGB sensor, infrared sensor (IR sensor), fingerprint sensor (finger scan sensor), ultrasonic sensor (ultrasonic sensor) , Optical sensor (for example, camera (see 121)), microphone (microphone, see 122), battery gauge, environmental sensor (for example, barometer, hygrometer, thermometer, radiation detection sensor, It may include at least one of a heat sensor, a gas sensor, etc.), and a chemical sensor (eg, an electronic nose, a healthcare sensor, a biometric sensor, etc.). Meanwhile, the mobile terminal disclosed in the present specification may combine and utilize information sensed by at least two or more of these sensors.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이(151), 음향 출력부(152), 햅팁 모듈(153), 광 출력부 중 적어도 하나를 포함할 수 있다. 디스플레이(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 이동 단말기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 이동 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit 150 is for generating an output related to visual, auditory, or tactile sense, and may include at least one of a display 151, an audio output unit 152, a hap tip module 153, and a light output unit. The display 151 may form a layer structure with the touch sensor or be integrally formed, thereby implementing a touch screen. Such a touch screen can function as a user input unit 123 that provides an input interface between the mobile terminal 100 and a user, and can provide an output interface between the mobile terminal 100 and a user.
인터페이스부(160)는 이동 단말기(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 이동 단말기(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.The interface unit 160 serves as a passage between various types of external devices connected to the mobile terminal 100. The interface unit 160 connects a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, and a device equipped with an identification module. It may include at least one of a port, an audio input/output (I/O) port, an input/output (video I/O) port, and an earphone port. The mobile terminal 100 may perform appropriate control related to the connected external device in response to the connection of the external device to the interface unit 160.
또한, 메모리(170)는 이동 단말기(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 이동 단말기(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 이동 단말기(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 이동 단말기(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 이동 단말기(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 이동 단말기(100) 상에 설치되어, 제어부(180)에 의하여 상기 이동 단말기의 동작(또는 기능)을 수행하도록 구동될 수 있다.In addition, the memory 170 stores data supporting various functions of the mobile terminal 100. The memory 170 may store a plurality of application programs or applications driven by the mobile terminal 100, data for operation of the mobile terminal 100, and commands. At least some of these application programs may be downloaded from an external server through wireless communication. In addition, at least some of these application programs may exist on the mobile terminal 100 from the time of delivery for basic functions of the mobile terminal 100 (eg, incoming calls, outgoing functions, message reception, and outgoing functions). Meanwhile, the application program may be stored in the memory 170, installed on the mobile terminal 100, and driven by the controller 180 to perform an operation (or function) of the mobile terminal.
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.In addition to the operation related to the application program, the controller 180 generally controls the overall operation of the mobile terminal 100. The controller 180 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in the memory 170.
또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1a와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 이동 단말기(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.Also, in order to drive an application program stored in the memory 170, the controller 180 may control at least some of the components examined together with FIG. 1A. Furthermore, in order to drive the application program, the controller 180 may operate by combining at least two or more of the components included in the mobile terminal 100 with each other.
전원공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 이동 단말기(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체 가능한 형태의 배터리가 될 수 있다.The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power to each of the components included in the mobile terminal 100. The power supply unit 190 includes a battery, and the battery may be a built-in battery or a replaceable battery.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 이동 단말기의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 이동 단말기의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 이동 단말기 상에서 구현될 수 있다.At least some of the components may operate in cooperation with each other to implement an operation, control, or control method of a mobile terminal according to various embodiments described below. In addition, the operation, control, or control method of the mobile terminal may be implemented on the mobile terminal by driving at least one application program stored in the memory 170.
도 1 b 및 1c는 펼쳐진 상태의 폴더블 방식의 이동 단말기에서의 기본적인 특징에 대해 설명한다.1B and 1C describe basic features of a foldable mobile terminal in an unfolded state.
이동 단말기(100)에는 디스플레이(151), 제1 및 제2 음향 출력부(152a, 152b), 근접 센서(141), 조도 센서(142), 광 출력부(154), 제1 및 제2 카메라(121a, 121b), 제1 및 제2 조작유닛(123a, 123b), 마이크로폰(122), 인터페이스부(160) 등이 구비될 수 있다.The mobile terminal 100 includes a display 151, first and second sound output units 152a and 152b, proximity sensor 141, illuminance sensor 142, light output unit 154, and first and second cameras. (121a, 121b), first and second operation units (123a, 123b), a microphone 122, an interface unit 160, and the like may be provided.
이하에서는, 도 1b 및 도 1c에 도시된 바와 같이, 단말기 바디의 전면에 디스플레이(151), 제1 음향 출력부(152a), 근접 센서(141), 조도 센서(142), 광 출력부, 제1 카메라(121a) 및 제1 조작유닛(123a)이 배치되고, 단말기 바디의 측면에 제2 조작유닛(123b), 마이크로폰(122) 및 인터페이스부(160)이 배치되며, 단말기 바디의 후면에 제2 음향 출력부(152b) 및 제2 카메라(121b)가 배치된 이동 단말기(100)를 일 예로 들어 설명한다.In the following, as shown in FIGS. 1B and 1C, the display 151, the first sound output unit 152a, the proximity sensor 141, the illuminance sensor 142, the light output unit, and 1 The camera 121a and the first operation unit 123a are disposed, the second operation unit 123b, the microphone 122 and the interface unit 160 are disposed on the side of the terminal body, and 2 A mobile terminal 100 in which the sound output unit 152b and the second camera 121b are disposed will be described as an example.
다만, 이들 구성은 이러한 배치에 한정되는 것은 아니다. 이들 구성은 필요에 따라 제외 또는 대체되거나, 다른 면에 배치될 수 있다. 예를 들어, 단말기 바디의 전면에는 제1 조작유닛(123a)이 구비되지 않을 수 있으며, 제2 음향 출력부(152b)는 단말기 바디의 후면이 아닌 단말기 바디의 측면에 구비될 수 있다.However, these configurations are not limited to this arrangement. These configurations may be excluded or replaced as necessary, or may be disposed on different sides. For example, the first operation unit 123a may not be provided on the front surface of the terminal body, and the second sound output unit 152b may be provided on the side of the terminal body rather than on the rear surface of the terminal body.
디스플레이(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이(151)는 이동 단말기(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.The display 151 displays (outputs) information processed by the mobile terminal 100. For example, the display 151 may display execution screen information of an application program driven in the mobile terminal 100, or UI (User Interface) and GUI (Graphic User Interface) information according to such execution screen information.
디스플레이(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display 151 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. ), a 3D display, and an e-ink display.
또한, 디스플레이(151)는 이동 단말기(100)의 구현 형태에 따라 2개 이상 존재할 수 있다. 이 경우, 이동 단말기(100)에는 복수의 디스플레이들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.In addition, two or more displays 151 may exist depending on the implementation type of the mobile terminal 100. In this case, in the mobile terminal 100, a plurality of displays may be spaced apart or integrally disposed on one surface, or may be disposed on different surfaces, respectively.
디스플레이(151)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있도록, 디스플레이(151)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. 이를 이용하여, 디스플레이(151)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, 제어부(180)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 이루어질 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.The display 151 may include a touch sensor that senses a touch on the display 151 so as to receive a control command by a touch method. Using this, when a touch is made to the display 151, the touch sensor may sense the touch, and the controller 180 may generate a control command corresponding to the touch based on this. Content input by the touch method may be letters or numbers, or menu items that can be indicated or designated in various modes.
한편, 터치센서는, 터치패턴을 구비하는 필름 형태로 구성되어 디스플레이(151)를 덮는 윈도우(151a)와 디스플레이(151)를 구성하는 복수의 레이어 사이에 배치되거나, 윈도우(151a)의 배면에 직접 패터닝되는 메탈 와이어가 될 수도 있다. 또는, 터치센서는 디스플레이와 일체로 형성될 수 있다. 예를 들어, 터치센서는, 디스플레이의 기판 상에 배치되거나, 디스플레이의 내부에 구비될 수 있다.Meanwhile, the touch sensor is configured in the form of a film having a touch pattern and is disposed between the window 151a covering the display 151 and a plurality of layers constituting the display 151, or directly on the rear surface of the window 151a. It can also be a metal wire to be patterned. Alternatively, the touch sensor may be integrally formed with the display. For example, the touch sensor may be disposed on a substrate of the display or may be provided inside the display.
이처럼, 디스플레이(151)는 터치센서와 함께 터치 스크린을 형성할 수 있으며, 이 경우에 터치 스크린은 사용자 입력부(123, 도 1a 참조)로 기능할 수 있다. 경우에 따라, 터치 스크린은 제1조작유닛(123a)의 적어도 일부 기능을 대체할 수 있다.As such, the display 151 may form a touch screen together with a touch sensor, and in this case, the touch screen may function as a user input unit 123 (see FIG. 1A). In some cases, the touch screen may replace at least some functions of the first manipulation unit 123a.
제1 음향 출력부(152a)는 통화음을 사용자의 귀에 전달시키는 리시버(receiver)로 구현될 수 있으며, 제2 음향 출력부(152b)는 각종 알람음이나 멀티미디어의 재생음을 출력하는 라우드 스피커(loud speaker)의 형태로 구현될 수 있다.The first sound output unit 152a may be implemented as a receiver that transmits a call sound to the user's ear, and the second sound output unit 152b is a loud speaker that outputs various alarm sounds or multimedia playback sounds. ) Can be implemented.
디스플레이(151)의 윈도우(151a)에는 제1 음향 출력부(152a)로부터 발생되는 사운드의 방출을 위한 음향홀이 형성될 수 있다. 다만, 본 발명은 이에 한정되는 것은 아니고, 상기 사운드는 구조물 간의 조립틈(예를 들어, 윈도우(151a)와 프론트 케이스(101) 간의 틈)을 따라 방출되도록 구성될 수 있다. 이 경우, 외관상 음향 출력을 위하여 독립적으로 형성되는 홀이 보이지 않거나 숨겨져 이동 단말기(100)의 외관이 보다 심플해질 수 있다.A sound hole for emitting sound generated from the first sound output unit 152a may be formed in the window 151a of the display 151. However, the present invention is not limited thereto, and the sound may be configured to be emitted along an assembly gap between structures (eg, a gap between the window 151a and the front case 101). In this case, the externally formed hole for sound output is not visible or hidden, so that the appearance of the mobile terminal 100 may be more simple.
광 출력부는 이벤트의 발생시 이를 알리기 위한 빛을 출력하도록 이루어진다. 상기 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등을 들 수 있다. 제어부(180)는 사용자의 이벤트 확인이 감지되면, 빛의 출력이 종료되도록 광 출력부를 제어할 수 있다.The light output unit is configured to output light to notify when an event occurs. Examples of the event include message reception, call signal reception, missed call, alarm, schedule notification, e-mail reception, and information reception through an application. When the user's event confirmation is detected, the controller 180 may control the light output unit so that light output is terminated.
제1 카메라(121a)는 촬영 모드 또는 화상통화 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이(151)에 표시될 수 있으며, 메모리(170)에 저장될 수 있다.The first camera 121a processes an image frame of a still image or moving image obtained by an image sensor in a photographing mode or a video call mode. The processed image frame may be displayed on the display 151 and may be stored in the memory 170.
제1 및 제2 조작유닛(123a, 123b)은 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력 받기 위해 조작되는 사용자 입력부(123)의 일 예로서, 조작부(manipulating portion)로도 통칭될 수 있다. 제1 및 제2 조작유닛(123a, 123b)은 터치, 푸시, 스크롤 등 사용자가 촉각적인 느낌을 받으면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. 또한, 제1 및 제2 조작유닛(123a, 123b)은 근접 터치(proximity touch), 호버링(hovering) 터치 등을 통해서 사용자의 촉각적인 느낌이 없이 조작하게 되는 방식으로도 채용될 수 있다.The first and second manipulation units 123a and 123b are an example of a user input unit 123 that is manipulated to receive a command for controlling the operation of the mobile terminal 100, and may also be collectively referred to as a manipulating portion. have. The first and second operation units 123a and 123b may be employed in any manner as long as the user operates while receiving a tactile feeling such as touch, push, and scroll. In addition, the first and second manipulation units 123a and 123b may also be employed in a manner in which the first and second manipulation units 123a and 123b are operated without a user's tactile feeling through proximity touch, hovering touch, or the like.
본 도면에서는 제1 조작유닛(123a)이 터치키(touch key)인 것으로 예시하나, 본 발명이 이에 한정되는 것은 아니다. 예를 들어, 제1 조작유닛(123a)은 푸시키(mechanical key)가 되거나, 터치키와 푸시키의 조합으로 구성될 수 있다.In this drawing, the first manipulation unit 123a is illustrated as being a touch key, but the present invention is not limited thereto. For example, the first operation unit 123a may be a push key (mechanical key) or may be configured as a combination of a touch key and a push key.
제1 및 제2 조작유닛(123a, 123b)에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 제1 조작유닛(123a)은 메뉴, 홈키, 취소, 검색 등의 명령을 입력 받고, 제2 조작유닛(123b)은 제1 또는 제2 음향 출력부(152a, 152b)에서 출력되는 음향의 크기 조절, 디스플레이(151)의 터치 인식 모드로의 전환 등의 명령을 입력 받을 수 있다.Contents input by the first and second manipulation units 123a and 123b may be variously set. For example, the first operation unit 123a receives commands such as menu, home key, cancel, search, etc., and the second operation unit 123b is output from the first or second sound output units 152a, 152b. Commands such as adjusting the volume of sound and switching to the touch recognition mode of the display 151 may be input.
한편, 단말기 바디의 후면에는 사용자 입력부(123)의 다른 일 예로서, 후면 입력부(미도시)가 구비될 수 있다. 이러한 후면 입력부는 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력 받기 위해 조작되는 것으로서, 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 전원의 온/오프, 시작, 종료, 스크롤 등과 같은 명령, 제1 및 제2 음향 출력부(152a, 152b)에서 출력되는 음향의 크기 조절, 디스플레이(151)의 터치 인식 모드로의 전환 등과 같은 명령을 입력 받을 수 있다. 후면 입력부는 터치입력, 푸시입력 또는 이들의 조합에 의한 입력이 가능한 형태로 구현될 수 있다.Meanwhile, as another example of the user input unit 123, a rear input unit (not shown) may be provided on the rear surface of the terminal body. This rear input unit is manipulated to receive a command for controlling the operation of the mobile terminal 100, and input contents may be variously set. For example, commands such as power on/off, start, end, scrolling, etc., adjusting the volume of sound output from the first and second sound output units 152a and 152b, and entering the touch recognition mode of the display 151 Commands such as conversion can be input. The rear input unit may be implemented in a form capable of inputting by a touch input, a push input, or a combination thereof.
후면 입력부는 단말기 바디의 두께방향으로 전면의 디스플레이(151)와 중첩되게 배치될 수 있다. 일 예로, 사용자가 단말기 바디를 한 손으로 쥐었을 때 검지를 이용하여 용이하게 조작 가능하도록, 후면 입력부는 단말기 바디의 후면 상단부에 배치될 수 있다. 다만, 본 발명은 반드시 이에 한정되는 것은 아니며, 후면 입력부의 위치는 변경될 수 있다.The rear input unit may be disposed to overlap the front display 151 in the thickness direction of the terminal body. For example, when the user holds the terminal body with one hand, the rear input unit may be disposed on the rear upper end of the terminal body so that the user can easily manipulate it using the index finger. However, the present invention is not necessarily limited thereto, and the position of the rear input unit may be changed.
이처럼 단말기 바디의 후면에 후면 입력부가 구비되는 경우, 이를 이용한 새로운 형태의 유저 인터페이스가 구현될 수 있다. 또한, 앞서 설명한 터치 스크린 또는 후면 입력부가 단말기 바디의 전면에 구비되는 제1 조작유닛(123a)의 적어도 일부 기능을 대체하여, 단말기 바디의 전면에 제1 조작유닛(123a)이 미배치되는 경우, 디스플레이(151)가 보다 대화면으로 구성될 수 있다.When the rear input unit is provided on the rear surface of the terminal body, a new type of user interface can be implemented using the rear input unit. In addition, when the touch screen or the rear input unit described above replaces at least some functions of the first operation unit 123a provided on the front of the terminal body, and the first operation unit 123a is not disposed on the front of the terminal body, The display 151 may be configured with a larger screen.
한편, 이동 단말기(100)에는 사용자의 지문을 인식하는 지문인식센서(143)가 구비될 수 있으며, 제어부(180)는 지문인식센서(143)를 통하여 감지되는 지문정보를 인증수단으로 이용할 수 있다. 상기 지문인식센서는 디스플레이(151) 또는 사용자 입력부(123)에 내장될 수도 있고, 별도의 위치에 구비될 수도 있다.Meanwhile, the mobile terminal 100 may be provided with a fingerprint recognition sensor 143 for recognizing a user's fingerprint, and the controller 180 may use fingerprint information detected through the fingerprint recognition sensor 143 as an authentication means. . The fingerprint recognition sensor may be embedded in the display 151 or the user input unit 123, or may be provided in a separate location.
마이크로폰(122)은 사용자의 음성, 기타 소리 등을 입력 받도록 이루어진다. 마이크로폰(122)은 복수의 개소에 구비되어 스테레오 음향을 입력 받도록 구성될 수 있다.The microphone 122 is configured to receive a user's voice and other sounds. The microphone 122 may be provided in a plurality of locations and configured to receive stereo sound.
인터페이스부(160)는 이동 단말기(100)를 외부기기와 연결시킬 수 있는 통로가 된다. 예를 들어, 인터페이스부(160)는 다른 장치(예를 들어, 이어폰, 외장 스피커)와의 연결을 위한 접속단자, 근거리 통신을 위한 포트[예를 들어, 적외선 포트(IrDA Port), 블루투스 포트(Bluetooth Port), 무선 랜 포트(Wireless LAN Port) 등], 또는 이동 단말기(100)에 전원을 공급하기 위한 전원공급단자 중 적어도 하나일 수 있다. 이러한 인터페이스부(160)는 SIM(Subscriber Identification Module) 또는 UIM(User Identity Module), 정보 저장을 위한 메모리 카드 등의 외장형 카드를 수용하는 소켓의 형태로 구현될 수도 있다.The interface unit 160 becomes a passage through which the mobile terminal 100 can be connected to an external device. For example, the interface unit 160 is a connection terminal for connection with other devices (eg, earphones, external speakers), a port for short-range communication (eg, an infrared port (IrDA Port), a Bluetooth port (Bluetooth Port), a wireless LAN port, etc.], or at least one of a power supply terminal for supplying power to the mobile terminal 100. The interface unit 160 may be implemented in the form of a socket for accommodating an external card such as a subscriber identification module (SIM) or a user identity module (UIM), or a memory card for storing information.
단말기 바디의 후면에는 제2카메라(121b)가 배치될 수 있다. 이 경우, 제2카메라(121b)는 제1카메라(121a)와 실질적으로 반대되는 촬영 방향을 가지게 된다.A second camera 121b may be disposed on the rear surface of the terminal body. In this case, the second camera 121b has a photographing direction substantially opposite to that of the first camera 121a.
제2카메라(121b)는 적어도 하나의 라인을 따라 배열되는 복수의 렌즈를 포함할 수 있다. 복수의 렌즈는 행렬(matrix) 형식으로 배열될 수도 있다. 이러한 카메라는, '어레이(array) 카메라'로 명명될 수 있다. 제2카메라(121b)가 어레이 카메라로 구성되는 경우, 복수의 렌즈를 이용하여 다양한 방식으로 영상을 촬영할 수 있으며, 보다 나은 품질의 영상을 획득할 수 있다.The second camera 121b may include a plurality of lenses arranged along at least one line. The plurality of lenses may be arranged in a matrix format. Such a camera may be referred to as an'array camera'. When the second camera 121b is configured as an array camera, an image may be photographed in various ways using a plurality of lenses, and an image of better quality may be obtained.
플래시(124)는 제2카메라(121b)에 인접하게 배치될 수 있다. 플래시(124)는 제2카메라(121b)로 피사체를 촬영하는 경우에 피사체를 향하여 빛을 비추게 된다.The flash 124 may be disposed adjacent to the second camera 121b. The flash 124 illuminates light toward the subject when photographing the subject with the second camera 121b.
단말기 바디에는 제2 음향 출력부(152b)가 추가로 배치될 수 있다. 제2 음향 출력부(152b)는 제1 음향 출력부(152a)와 함께 스테레오 기능을 구현할 수 있으며, 통화시 스피커폰 모드의 구현을 위하여 사용될 수도 있다.A second sound output unit 152b may be additionally disposed on the terminal body. The second sound output unit 152b may implement a stereo function together with the first sound output unit 152a, and may be used to implement a speakerphone mode during a call.
단말기 바디에는 무선 통신을 위한 적어도 하나의 안테나가 구비될 수 있다. 안테나는 단말기 바디에 내장되거나, 케이스에 형성될 수 있다. 예를 들어, 방송 수신 모듈(111, 도 1a 참조)의 일부를 이루는 안테나는 단말기 바디에서 인출 가능하게 구성될 수 있다. 또는, 안테나는 필름 타입으로 형성되어 후면 커버(103)의 내측면에 부착될 수도 있고, 도전성 재질을 포함하는 케이스가 안테나로서 기능하도록 구성될 수도 있다.At least one antenna for wireless communication may be provided in the terminal body. The antenna may be embedded in the terminal body or may be formed in a case. For example, an antenna forming a part of the broadcast receiving module 111 (refer to FIG. 1A) may be configured to be retractable from the terminal body. Alternatively, the antenna may be formed in a film type and attached to the inner surface of the rear cover 103, or a case including a conductive material may be configured to function as an antenna.
단말기 바디에는 이동 단말기(100)에 전원을 공급하기 위한 전원 공급부(190, 도 1a 참조)가 구비된다. 전원 공급부(190)는 단말기 바디에 내장되거나, 단말기 바디의 외부에서 착탈 가능하게 구성되는 배터리(191)를 포함할 수 있다.The terminal body is provided with a power supply unit 190 (refer to FIG. 1A) for supplying power to the mobile terminal 100. The power supply unit 190 may include a battery 191 built in the terminal body or configured to be detachable from the outside of the terminal body.
배터리(191)는 인터페이스부(160)에 연결되는 전원 케이블을 통하여 전원을 공급받도록 구성될 수 있다. 또한, 배터리(191)는 무선충전기기를 통하여 무선충전 가능하도록 구성될 수도 있다. 상기 무선충전은 자기유도방식 또는 공진방식(자기공명방식)에 의하여 구현될 수 있다.The battery 191 may be configured to receive power through a power cable connected to the interface unit 160. In addition, the battery 191 may be configured to enable wireless charging through a wireless charger. The wireless charging may be implemented by a magnetic induction method or a resonance method (magnetic resonance method).
한편, 본 도면에서는 후면 커버(103)가 배터리(191)를 덮도록 리어 케이스(102)에 결합되어 배터리(191)의 이탈을 제한하고, 배터리(191)를 외부 충격과 이물질로부터 보호하도록 구성된 것을 예시하고 있다. 배터리(191)가 단말기 바디에 착탈 가능하게 구성되는 경우, 후면 커버(103)는 리어 케이스(102)에 착탈 가능하게 결합될 수 있다.On the other hand, in this drawing, the rear cover 103 is coupled to the rear case 102 so as to cover the battery 191 to limit the separation of the battery 191, and to protect the battery 191 from external shock and foreign substances. It is illustrated. When the battery 191 is configured to be detachably attached to the terminal body, the rear cover 103 may be detachably coupled to the rear case 102.
본 발명에 적용되는 카메라(도 1에 도시된 카메라(121) 및 도 2A에 도시된 카메라(121a))는 모바일 디바이스의 터치 스크린 주변에 위치하고 있다.  따라서, 상기 모바일 디바이스의 터치 스크린으로부터 일정 거리이내의 오브젝트(예를 들어, 사용자의 손가락)에 대한 깊이 정보(depth information)를 디텍트 하는 것이 가능하다.  이와 같은 카메라를 깊이 카메라로 명명할 수 있다.Cameras applied to the present invention (camera 121 shown in Fig. 1 and camera 121a shown in Fig. 2A) are located around the touch screen of the mobile device. Accordingly, it is possible to detect depth information on an object (eg, a user's finger) within a certain distance from the touch screen of the mobile device. Such a camera can be referred to as a depth camera.
상기 깊이 카메라를 구현하는 방법으로 2가지 방안을 제시한다.  첫번째 방안은, 멀티 카메라(또는 렌즈)를 사용하는 방법으로서 2개 이상의 카메라를 이용하여 가시광선을 포착하고, 깊이 정보(depth information)를 이용하여 3D 이미지를 생성한다.  두번째 방안은, 카메라 모듈에 심도 센싱(Depth sensing)을 위한 별도의 센서를 탑재하는 방식으로서, 보다 구체적으로는 SL(Structured Light) 및 ToF(Time of Flight) 방식이 적용된다.Two methods are proposed as a method of implementing the depth camera. The first method is a method using a multi-camera (or lens), which captures visible light by using two or more cameras, and generates a 3D image using depth information. The second method is to mount a separate sensor for depth sensing in the camera module, and more specifically, SL (Structured Light) and ToF (Time of Flight) methods are applied.
전술한 SL 방식은, 직선이나 격자 무늬 등 특정 패턴의 레이저를 촬영 대상에 방사한 후 대상 표면의 모양에 따라 패턴이 변형된 정보를 분석한다.  나아가, 깊이 정보를 계산한 후, 이미지 센서가 촬영한 사진과 합성하여 3D 기반의 촬영 결과를 도출한다.  이를 구현하기 위하여, 특정 패턴을 송출하는 레이저 적외선(IR) 프로젝터, 적외선 심도 센서, 이미지 센서 및 3D 프로세서 등이 사용될 수 있다.In the SL method described above, a laser having a specific pattern, such as a straight line or a grid pattern, is radiated onto an object to be photographed, and then the information in which the pattern is deformed according to the shape of the object surface is analyzed. Furthermore, after calculating the depth information, the 3D-based photographing result is derived by combining it with the photograph taken by the image sensor. To implement this, a laser infrared (IR) projector that transmits a specific pattern, an infrared depth sensor, an image sensor, and a 3D processor may be used.
전술한 ToF 방식은, 레이저가 촬영 대상에 갔다가 반사되어 돌아오는 시간을 측정하여 깊이 정보를 계산한 후, 이미지 센서가 촬영한 사진과 합성하여 3D 기반의 촬영 결과를 도출한다.  이를 구현하기 위하여, 레이저 적외선(IR) 프로젝터, 수신 센서, 이미지 센서 및 3D 프로세서 등이 사용될 수 있다.In the above-described ToF method, depth information is calculated by measuring the time the laser travels to the object to be photographed and returns after being reflected, and then synthesizes it with a photograph taken by an image sensor to derive a 3D-based photographing result. To implement this, a laser infrared (IR) projector, a reception sensor, an image sensor, and a 3D processor may be used.
도 2은 본 발명의 일 실시예에 따라, 깊이 카메라와 근접 센서와 근접센서를 기초로 삼차원 비전 기반 UI를 수행하기 위한 본 발명의 구성도이다.2 is a block diagram of the present invention for performing a 3D vision-based UI based on a depth camera, a proximity sensor, and a proximity sensor according to an embodiment of the present invention.
본 발명은 3차원 깊이 카메라(200)와 근접 센서(300)를 통해 사용자의 손을 감지하고 그에 따라 디바이스를 활성화 또는 비활성화할 수 있는 시스템에 관한 발명이다.The present invention relates to a system capable of detecting a user's hand through a 3D depth camera 200 and a proximity sensor 300 and activating or deactivating a device accordingly.
본 발명의 디바이스는 이동 단말기를 포함할 수 있으나 반드시 이에 한정되지 않고, 삼차원 비전 기반 UI를 활용할 수 있는 텔레비전, 인공지능 기기, 테블릿 등을 포함할 수 있다.The device of the present invention may include a mobile terminal, but is not necessarily limited thereto, and may include a television, an artificial intelligence device, a tablet, etc. that can utilize a 3D vision-based UI.
본 발명의 깊이 카메라(200)는 TOF(Time-of-Flight) 방식의 카메라가 사용될 수 있으나, 반드시 이러한 방식의 카메라에 한정되지 않는다.The depth camera 200 of the present invention may be a TOF (Time-of-Flight) type camera, but is not necessarily limited to this type of camera.
본 발명의 근접 센서(300)는 빛을 조사하고 반사되는 빛의 세기를 통해 근접 여부를 판단하는 방식의 센서가 사용될 수 있으나, 반드시 이러한 방식의 센서에 한정되지는 않는다. 근접센서(300) 가 오브젝트의 근접여부를 판단하는 방식과 관련하여서는 도 7에서 구체적으로 살펴본다.In the proximity sensor 300 of the present invention, a sensor of a method of irradiating light and determining whether or not proximity is determined through the intensity of reflected light may be used, but is not necessarily limited to this type of sensor. A method in which the proximity sensor 300 determines whether an object is in proximity will be described in detail with reference to FIG. 7.
본 발명은 근접 센서(300)를 통해 오브젝트가 근접한 것으로 감지한 경우, 깊이 카메라(200)를 통해 깊이 이미지를 획득하고, 획득한 깊이 이미지에서 오브젝트가 사용자의 손에 대응되는지 여부를 분별할 수 있다.In the present invention, when the proximity sensor 300 detects that an object is close, a depth image is obtained through the depth camera 200, and it is possible to discriminate whether the object corresponds to the user's hand from the acquired depth image.
본 발명은 추가적으로 디바이스의 상태를 감지할 수 있는 모션 센서(400)를 구비할 수 있다. 모션 센서(400)는 디바이스가 삼차원 기반 UI를 수행하기 적합한 상태로 디바이스가 존재하는지 여부를 감지할 수 있다. The present invention may additionally include a motion sensor 400 capable of detecting the state of the device. The motion sensor 400 may detect whether the device exists in a state suitable for the device to perform a 3D based UI.
예를 들어, 모션 센서(400)는 디바이스가 테이블 위에 있거나, 사용자를 향해 고정되어 있는 경우 등 사용자가 디바이스와 삼차원 기반 UI를 수행하기 적합한 안정된 상태인지 여부를 감지할 수 있다.For example, the motion sensor 400 may detect whether the device is in a stable state suitable for performing a 3D-based UI with the device, such as when the device is on a table or is fixed toward the user.
이를 위해, 모션 센서(400)는 가속도 센서, 자이로 센서 등을 포함할 수 있다. To this end, the motion sensor 400 may include an acceleration sensor, a gyro sensor, or the like.
모션 센서(400)는 근접 센서(300)를 활성화시키는 트리거 역할을 수행할 수 있다. 즉, 모션 센서(400)를 통해 디바이스가 안정된 상태에서만 근접 센서(300)를 통해 오브젝트의 근접 여부를 판단하는 데이터를 획득할 수 있다.The motion sensor 400 may serve as a trigger for activating the proximity sensor 300. That is, only when the device is stable through the motion sensor 400, data for determining whether an object is in proximity may be obtained through the proximity sensor 300.
다만, 디바이스가 텔레비전과 같이 고정되어 있는 경우에는 모션 센서(400)가 필요 없을 수 있다. 이 경우, 모션 센서(400)는 항상 활성 상태로 구동하고 있을 수 있다.However, when the device is fixed such as a television, the motion sensor 400 may not be required. In this case, the motion sensor 400 may always be driven in an active state.
구체적으로, 모션 센서(400)와 근접 센서(300)는 저전력으로 구동하는 저전력 프로세서(low power processor, 500)를 통해 제어될 수 있다.Specifically, the motion sensor 400 and the proximity sensor 300 may be controlled through a low power processor 500 that operates with low power.
저전력 프로세서(500)는 모션 센서(400)와 연결되어 모션 센서(400)에서 획득한 데이터를 통해 디바이스의 모션 상태를 감지하는 디바이스 상태 감지부(Device state checker, 510)를 포함할 수 있다.The low power processor 500 may include a device state checker 510 connected to the motion sensor 400 to detect a motion state of a device through data acquired from the motion sensor 400.
디바이스 상태 감지부(510)는 디바이스의 모션이 사용자와 삼차원 비전 기반 UI를 수행하기 안정된 상태임을 감지한 경우, 근접 센서 트리거(Proximity tigger, 520)를 통해 근접 센서(300)를 활성화 시키고 오브젝트 근접 여부를 판단하기 위한 데이터를 획득할 수 있다.When the device state detection unit 510 detects that the motion of the device is in a stable state for performing a 3D vision-based UI with the user, it activates the proximity sensor 300 through a proximity sensor trigger 520 and whether the object is in proximity. It is possible to obtain data for determining the.
근접 센서 트리거(520)는 근접 센서(300)를 통해 획득한 데이터로 초기 값(=베이스 라인, baseline)을 설정하고, 설정된 초기 값 기준으로 추가로 획득한 데이터를 통해 오브젝트의 근접 여부를 판단할 수 있다. 경우에 따라서 초기 값은 제어된 실험 조건하에서 설정된 값일 수 있다.The proximity sensor trigger 520 sets an initial value (=baseline, baseline) with data acquired through the proximity sensor 300, and determines whether an object is in proximity based on the set initial value. I can. In some cases, the initial value may be a value set under controlled experimental conditions.
근접 센서 트리거(520)를 통해 오브젝트가 근접한 상태임을 감지한 경우, 깊이 카메라(300)를 활성화 시킬 수 있다.When detecting that the object is in proximity through the proximity sensor trigger 520, the depth camera 300 may be activated.
깊이 카메라(300)는 고사양 프로세서(high performance processor, 600)에 연결되며, 고사양 프로세서(600)는 깊이 카메라(300)를 제어하여 깊이 이미지를 획득하고, 삼차원 비전 기반 UI를 수행하기 위해 사용자의 인덱스 핑거를 트랙킹(tracking)하는 기능을 제공할 수 있다.The depth camera 300 is connected to a high performance processor 600, and the high performance processor 600 controls the depth camera 300 to obtain a depth image and indexes a user to perform a 3D vision-based UI. A function of tracking a finger may be provided.
구체적으로, 고사양 프로세서(600)는 깊이 카메라(300)에서 깊이 이미지를 획득하도록 제어하고, 획득한 깊이 이미지로 오브젝트가 사용자의 손에 대응되는 여부를 분별하는 오브젝트 분별부(610)를 포함할 수 있다. Specifically, the high specification processor 600 may include an object classifying unit 610 that controls the depth camera 300 to acquire a depth image, and discriminates whether an object corresponds to a user's hand with the acquired depth image. have.
깊이 카메라(300)는 레디 모드(ready mode)에서 깊이 이미지를 획득하고 오브젝트 분별부(610)를 통해 깊이 이미지의 형상을 분별할 수 있다.The depth camera 300 may acquire a depth image in a ready mode and discriminate the shape of the depth image through the object classifier 610.
레디 모드(ready mode)는 근접 센서(300)를 통해 오브젝트가 근접한 경우 활성화될 수 있다.The ready mode may be activated when an object is close through the proximity sensor 300.
오브젝트 분별부(610)에서 오브젝트를 분별하고, 분별 결과에 따라 근접 센서(300)의 초기 값을 깊이 이미지를 이용하여 업데이트 할 수 있다. The object classifier 610 may classify an object, and the initial value of the proximity sensor 300 may be updated using a depth image according to the classifying result.
이는 근접 센서(300)의 초기 값이 잘못 설정되거나, 근접 센서(300) 부근이 오염되어 깊이 카메라(300)가 불필요하게 사용자 손의 인덱스 핑거(index finger)를 트랙킹하는 엑티브 모드(active mode)로 작동하는 것을 방지하기 위함이다. 이와 관련하여서는 도 7에서 구체적으로 살펴본다.This is an active mode in which the initial value of the proximity sensor 300 is incorrectly set or the vicinity of the proximity sensor 300 is contaminated and the depth camera 300 unnecessarily tracks the index finger of the user's hand. This is to prevent it from working. In this regard, it will be described in detail in FIG. 7.
고사양 프로세서(600)는 오브젝트 분별부(610)를 통해 사용자의 손을 인지한 경우, 사용자 손의 제스처를 감지하거나, 사용자 손의 인덱스 핑거를 트랙킹하는 트랙킹부(620)를 활성화할 수 있다. When the user's hand is recognized through the object classification unit 610, the high-end processor 600 may detect a gesture of the user's hand or activate a tracking unit 620 that tracks an index finger of the user's hand.
경우에 따라서, 고사양 프로세서(600)는 깊이 카메라(200)를 통해 이차원 이미지를 획득하고 오브젝트 유무를 감지하는 오브젝트 감지부(630)를 더 포함할 수 있다. 오브젝트 감지부(630)는 근접센서(300)의 역할을 대신하는 구성일 수 있다. In some cases, the high-end processor 600 may further include an object detector 630 that acquires a two-dimensional image through the depth camera 200 and detects the presence or absence of an object. The object detection unit 630 may be a component that replaces the role of the proximity sensor 300.
깊이 카메라(200)가 인텐서티(intensity) 데이터에 대응되는 이차원 이미지를 획득하는 경우, 깊이 카메라는(200)는 오브젝트 감지부(630)를 통해 저전력 모드로 운영될 수 있다.When the depth camera 200 acquires a two-dimensional image corresponding to the intensity data, the depth camera 200 may be operated in a low power mode through the object detector 630.
저전력 모드로 깊이 카메라(200)를 운영하는 도중, 오브젝트가 존재하는 것으로 감지한 경우, 오브젝트 분별부(610)를 활성화 하여 레디 모드로 전환될 수 있다. While operating the depth camera 200 in the low power mode, when detecting that an object exists, the object classifying unit 610 may be activated to switch to the ready mode.
오브젝트 감지부(630)는 근접 센서(300)와 같은 역할을 하기 때문에, 본 발명에서 오브젝트 감지부(630)가 포함되는 경우 근접 센서(300) 및 근접 센서 트리거(520)가 생략되고, 오브젝트 감지부(630)는 디바이스 상태 감지부(510)에 의해 활성 되도록 구성될 수 있다.Since the object detection unit 630 plays the same role as the proximity sensor 300, when the object detection unit 630 is included in the present invention, the proximity sensor 300 and the proximity sensor trigger 520 are omitted, and object detection The unit 630 may be configured to be activated by the device state detection unit 510.
또한, 저전력 프로세서(500) 및 고사양 프로세서(600)는 연산 및 처리능력으로 구분된 구성으로 반드시 분할되지 않고 하나의 컨트롤러에 포함되는 구성일 수 있다.In addition, the low-power processor 500 and the high-end processor 600 may not necessarily be divided into a configuration divided into calculation and processing capabilities, but may be included in one controller.
도 3은 본 발명의 일 실시예에 따라, 삼차원 비전 기반 UI를 수행하기 위한 프로세서를 설명하는 흐름도이다. 도 3은 도 2에 개시된 본 발명의 시스템을 기초로 삼차원 비전 기반 UI를 수행하기 위한 프로세서를 설명하는 흐름도이다.3 is a flowchart illustrating a processor for performing a 3D vision-based UI according to an embodiment of the present invention. FIG. 3 is a flowchart illustrating a processor for performing a 3D vision based UI based on the system of the present invention disclosed in FIG. 2.
본 발명에 따른 프로세서는 모션 센서(400)에서 획득한 데이터를 디바이스 통해 디바이스의 모션을 확인하고, 디바이스가 삼차원 비전 기반 UI를 수행하기 적합한 모션인 경우에 근접 센서(300)를 활성화 시킬 수 있다.(S210)The processor according to the present invention may check the motion of the device through the data acquired by the motion sensor 400 and activate the proximity sensor 300 when the device is in motion suitable for performing a 3D vision-based UI. (S210)
다만, 디바이스가 이동 단말기와 같이 휴대용이 아닌 거치형인 경우 모션 센서(400)를 통해 디바이스의 모션을 확인하는 단계는 생략될 수 있다. 이 경우, 근접 센서(300)는 항상 활성화된 상태일 수 있다.However, if the device is a stationary type other than a portable terminal, such as a mobile terminal, the step of checking the motion of the device through the motion sensor 400 may be omitted. In this case, the proximity sensor 300 may always be in an activated state.
또한, 본 발명에 따른 깊이 카메라(200)를 통해 2차원 이미지를 획득하고, 오브젝트의 존부를 감지할 수 있는 경우(=오브젝트 감지부(630)가 존재하는 경우), 오브젝트 감지부(630)가 근접 센서(300)를 대신할 수 있다. In addition, when a two-dimensional image is obtained through the depth camera 200 according to the present invention and the presence or absence of an object can be detected (= when the object detection unit 630 is present), the object detection unit 630 It may replace the proximity sensor 300.
다만, 이하에서는 근접 센서(300)를 통해 근접한 오브젝트의 유부를 분별하는 프로세서를 기초하여 본 발명을 설명한다.However, hereinafter, the present invention will be described on the basis of a processor for discriminating whether or not an object is adjacent through the proximity sensor 300.
근접 센서(300)가 활성화된 경우 데이터를 획득하여 오브젝트의 근접 여부를 확인하고 깊이 카메라(300)를 활성화 시킬 수 있다. (S220) 여기서 깊이 카메라(300)를 활성화 시키는 의미는 깊이 카메라를 레디 모드로 작동하는 것을 의미한다.When the proximity sensor 300 is activated, data is acquired to check whether an object is in proximity, and the depth camera 300 may be activated. (S220) Here, activating the depth camera 300 means operating the depth camera in a ready mode.
근접 센서(300)는 다양한 방식의 센서가 사용될 수 있으나, 대표적으로 오브젝트에 반사되어 되돌아 오는 빛의 세기를 감지하여 오브젝트의 근접 여부를 분별할 수 있다. The proximity sensor 300 may use various types of sensors, but it is typically possible to discriminate whether or not the object is in proximity by detecting the intensity of light reflected and returned from the object.
근접 센서(300)는 오브젝트에 반사되어 되돌아 오는 빛을 감지하여 평균값을 통해 베이스 라인(base line)을 설정하고, 설정된 베이스 라인에서 기설정 값을 더하여 트레숄드(threshold) 값을 설정할 수 있다. 트레숄드(threshold) 값이 설정되면 이후 감지된 빛의 세기를 트레숄드 값과 비교하여 오브젝트의 근접 여부를 분별할 수 있다.The proximity sensor 300 may detect light reflected from an object and return to it, set a base line through an average value, and set a threshold value by adding a preset value from the set base line. When a threshold value is set, the intensity of light detected thereafter can be compared with the threshold value to discriminate whether an object is close.
오브젝트 분별부(610)는 깊이 카메라(200)가 레디 모드로 운영되는 경우 활성화되고, 깊이 카메라(200)에서 깊이 이미지를 획득하여 오브젝트를 분별할 수 있다. (S230)The object classifying unit 610 is activated when the depth camera 200 is operated in a ready mode, and may identify an object by acquiring a depth image from the depth camera 200. (S230)
오브젝트는 깊이 이미지의 형상 및 기저장된 데이터 베이스를 통해 분별할 수 있다.The object can be identified through the shape of the depth image and a previously stored database.
본 발명은 사용자의 손을 트랙킹하여 삼차원 비전 기반 UI를 수행하는 것이기 때문에, 오브젝트가 손에 대응되는지, 손이 아닌 다른 오브젝트 인지를 분별하고, 경우에 따라서는 오브젝트가 없는 경우도 분별할 수 있다. In the present invention, since the user's hand is tracked to perform a 3D vision-based UI, whether an object corresponds to a hand or an object other than a hand can be identified, and in some cases, it is possible to discriminate if there is no object.
오브젝트가 손에 대응되는지, 손이 아닌 다른 오브젝트인지 또는 오브젝트가 없는 경우 각각에 대응하여 근접 센서(300)의 초기값을 재설정할 수 있다. (S240) 이는, 근접 센서(300)의 잘못 설정된 초기값을 정정하고, 인접 부위가 오염되어 센싱에 착오가 생기는 것을 방지하기 위함이다.The initial value of the proximity sensor 300 may be reset according to whether the object corresponds to a hand, whether it is an object other than a hand, or when there is no object. (S240) This is to correct an incorrectly set initial value of the proximity sensor 300, and to prevent an error in sensing due to contamination of adjacent portions.
근접 센서(300)의 초기값을 재설정하고, 재설정된 근접 센서(300)에 기초하여 활성화된 깊이 카메라(200)에서 오브젝트를 분별한 결과 사용자에 손에 대응되는 경우, 이에 대응하여 디바이스의 상태를 변경할 수 있다.(S250)When the initial value of the proximity sensor 300 is reset and the object is identified by the depth camera 200 activated based on the reset proximity sensor 300, when the object corresponds to the user's hand, the state of the device is determined accordingly. Can be changed (S250)
예를 들어, 디바이스가 슬립 모드인 경우, 웨이크업 하고, 사용자 손의 인덱스 핑거를 추적하며 사용자와 삼차원 비전 기반 UI를 수행할 수 있다. For example, when the device is in the sleep mode, it wakes up, tracks the index finger of the user's hand, and performs a 3D vision-based UI with the user.
도 4 는 본 발명의 일 실시예에 따라, 모션 센서를 통해 선별적으로 근접 센서를 활성화하는 프로세서를 설명하는 흐름도이다. 도 4는 도 2에 개시된 본 발명의 시스템을 기초로 모션 센서(400)를 통해 삼차원 비전 기반 UI를 실행하는 프로세서를 설명하기 위한 흐름도이다.4 is a flowchart illustrating a processor for selectively activating a proximity sensor through a motion sensor according to an embodiment of the present invention. 4 is a flowchart illustrating a processor for executing a 3D vision-based UI through the motion sensor 400 based on the system of the present invention disclosed in FIG. 2.
본 발명의 디바이스가 이동 단말기와 같이 휴대용인 경우 모션 센서(400)를 통해 근접 센서(300)를 활성화함이 전력 소모 방지 및 프로세서 안정화 측면에서 바람직할 수 있다.When the device of the present invention is portable such as a mobile terminal, activating the proximity sensor 300 through the motion sensor 400 may be preferable in terms of power consumption prevention and processor stabilization.
모션 센서(400)는 가속도 센서, 자이로 센서, 자기 센서 등을 포함할 수 있으며, 이를 통해 디바이스의 모션을 판단하기 위한 데이터를 획득할 수 있다. (S211)The motion sensor 400 may include an acceleration sensor, a gyro sensor, a magnetic sensor, and the like, and through this, data for determining the motion of the device may be obtained. (S211)
디바이스 모션을 판단하기 위해 3축 데이터가 사용될 수 있지만, 경우에 따라서는 9축 이상의 데이터가 사용될 수 있다.Although 3-axis data may be used to determine device motion, 9 or more data may be used in some cases.
모션 센서(400)를 통해 기설정된 시간 간격으로 획득한 데이터를 통해 디바이스의 움직임 상태를 판단할 수 있다.(S212)The motion state of the device may be determined through data acquired at preset time intervals through the motion sensor 400 (S212).
N 번째 프레임과 N-1번째 프레임 간 데이터 차이를 정해진 기준 값과 비교하여 디바이스의 움직임을 판단할 수 있으며, 축 이동을 통해 디바이스가 고정된 바닥에 올려져 있는지, 사용자를 바라보며 고정된 상태로 있는지 여부를 분별할 수 있다.It is possible to determine the movement of the device by comparing the data difference between the Nth frame and the N-1th frame with a predetermined reference value, and whether the device is placed on a fixed floor or in a fixed state while looking at the user through axis movement. Can discern whether or not.
디바이스가 사용자의 손을 트랙킹 하여 삼차원 비전 기반 UI를 수행하기 적합한 안정 상태에 있는 경우(S213, Yes), 근접 센서(300)를 활성화하여 오브젝트의 근접 여부를 판단하기 위한 데이터를 획득할 수 있다.When the device is in a stable state suitable for performing a 3D vision-based UI by tracking the user's hand (S213, Yes), the proximity sensor 300 may be activated to obtain data for determining whether an object is in proximity.
근접 센서(300)가 활성화된 경우, 디바이스의 모션을 감지하기 위한 데이터를 획득하는 것을 일시적으로 중단할 수 있다.When the proximity sensor 300 is activated, acquiring data for detecting motion of the device may be temporarily stopped.
반면, 디바이스가 사용자의 손을 트랙킹 하여 삼차원 비전 기반 UI를 수행하기 어려운 상태에 있는 경우(S213, No), 깊이 이미지를 획득할 필요가 없는 바 근접 센서(300)를 비활성 상태로 두고 디바이스가 안정 상태에 도달할 때까지 모션 센서를 통해 데이터를 획득하는 동작을 수행할 수 있다.On the other hand, when the device is in a state in which it is difficult to perform a 3D vision-based UI by tracking the user's hand (S213, No), it is not necessary to acquire a depth image, so the proximity sensor 300 is in an inactive state and the device is stable. Until the state is reached, the operation of acquiring data through the motion sensor can be performed.
도 5는 본 발명의 일 실시예에 따라, 근접센서의 트레숄드(threshold) 값을 설정하고, 이를 기초로 깊이 카메라를 활성화하는 프로세서를 설명하는 흐름도이다. 이하, 도 2에 개시된 본 발명의 시스템을 기초로 도 5를 설명한다. 5 is a flowchart illustrating a processor for setting a threshold value of a proximity sensor and activating a depth camera based on the threshold value of the proximity sensor according to an embodiment of the present invention. Hereinafter, FIG. 5 will be described based on the system of the present invention disclosed in FIG. 2.
근접 센서(300)는 활성화되면, 오브젝트의 근접 여부를 판단하기 위해 빛을 조사하고 반사되어 돌아오는 빛의 세기에 대응되는 데이터를 획득할 수 있다.(S221)When the proximity sensor 300 is activated, light may be irradiated to determine whether an object is in proximity, and data corresponding to the intensity of light reflected and returned may be obtained (S221).
다만, 근접 센서(300)가 오브젝트의 근접 여부를 판단하는 방법은 반사된 빛을 감지하는데 한정되지 않는다.However, the method for the proximity sensor 300 to determine whether the object is in proximity is not limited to detecting the reflected light.
근접 센서(300)는 활성화된 후 획득한 기 설정 개수의 프레임의 데이터를 평균하여 초기 값(=baseline)을 설정할 수 있다. (S222) 경우에 따라서는, 본 발명은 기 설정된 값을 초기 값으로 설정할 수 있다.The proximity sensor 300 may set an initial value (=baseline) by averaging data of a preset number of frames acquired after being activated. (S222) In some cases, the present invention may set a preset value as an initial value.
초기 값에 기 설정 값을 더하여 오브젝트의 근접 여부를 분별하는 기준 값인 트레숄드(threshold) 값을 설정할 수 있다. (S223) By adding a preset value to the initial value, a threshold value, which is a reference value for discriminating whether an object is close or not, can be set. (S223)
근접 센서(300)에서 획득한 데이터가 트레숄드 값 보다 큰 경우 오브젝트가 근접한 상태로 분별될 수 있다. 반대로, 근접 센서(300)에서 획득한 데이터가 트레숄드 값 보다 작은 경우 오브젝트가 멀리 떨어져 있는 상태로 분별될 수 있다.When the data acquired by the proximity sensor 300 is greater than the threshold value, the object may be identified as a proximity state. Conversely, when the data acquired by the proximity sensor 300 is smaller than the threshold value, the object may be identified as being far away.
근접 센서(300)에서 획득한 데이터가 트레숄드 값을 초과하는 경우(S224, Yes) 오브젝트가 근접한 것으로 분별하고 깊이 카메라(200)를 (레디 모드로) 활성화 할 수 있다. (S225)When the data acquired by the proximity sensor 300 exceeds the threshold value (S224, Yes), the object may be identified as being close and the depth camera 200 may be activated (in a ready mode). (S225)
반면, 근접 센서(300) 에서 획득한 데이터가 트레숄드 값을 초과하지 않는 경우, 깊이 카메라(200)를 활성화하지 않고 근접 센서(300)를 통해 데이터를 계속적으로 획득할 수 있다. (S224, No) 이때, 디바이스의 모션이 안정상태에서 벗어난 경우, 근접 센서(300)를 비활성화 하고 데이터 획득을 중단할 수 있다.On the other hand, when the data acquired by the proximity sensor 300 does not exceed the threshold value, data may be continuously acquired through the proximity sensor 300 without activating the depth camera 200. (S224, No) At this time, when the motion of the device is out of the stable state, the proximity sensor 300 may be deactivated and data acquisition may be stopped.
도 6은 본 발명의 일 실시예에 따라, 분별된 오브젝트에 따라 근접 센서의 초기 값을 재설정하기 위한 모드를 달리하는 프로세서를 설명하는 흐름도이다. 이하에서 도 2를 기초로 도 6을 설명한다.6 is a flowchart illustrating a processor in which a mode for resetting an initial value of a proximity sensor is changed according to an object classified according to an embodiment of the present invention. Hereinafter, FIG. 6 will be described based on FIG. 2.
근접 센서(300)를 통해 오브젝트가 근접한 것으로 판별한 경우, 깊이 카레라(200)를 레디 모드로 활성화한다. 레디 모드에서 깊이 카메라(200)는 깊이 이미지를 획득한다. (S231)When it is determined that the object is close through the proximity sensor 300, the depth carrera 200 is activated in the ready mode. In the ready mode, the depth camera 200 acquires a depth image. (S231)
오브젝트 분별부(610)에서는 획득한 깊이 이미지를 통해 기 설정 거리 이내에 오브젝트가 존재하는 지 판별한다. (S232)The object classification unit 610 determines whether an object exists within a preset distance through the acquired depth image. (S232)
기 설정 거리 이내에 오브젝트가 없는 경우(S232, No), 오브젝트가 없는 경우에 대응하여 근접 센서(200)의 초기 값을 재설정할 수 있다. (S234) 기 설정 거리 이내에 오브젝트가 없는 것은 근접 센서(300)의 초기 값이 너무 낮게 설정된 경우 이거나, 근접 센서(300) 인근에 오염 물질이 끼인 상태일 수 있다When there is no object within a preset distance (S232, No), the initial value of the proximity sensor 200 may be reset in response to the absence of the object. (S234) If there is no object within the preset distance, the initial value of the proximity sensor 300 may be set too low, or a contaminant may be trapped near the proximity sensor 300
기 설정 거리 이내에 오브젝트가 있는 경우(S232, Yes), 오브젝트 분별부(610)는 기 저장된 데이터 베이스를 통해 오브젝트가 손인지 아닌지를 분별할 수 있다. (S233)When there is an object within a preset distance (S232, Yes), the object classifying unit 610 may discriminate whether the object is a hand or not through a previously stored database. (S233)
오브젝트가 손에 대응되는지 손이 아닌 다른 오브젝트인지에 대응하여 각각 근접 센서 초기 값 재설정할 수 있다. (S234)The initial value of the proximity sensor may be reset according to whether the object corresponds to a hand or an object other than a hand. (S234)
도 7은 본 발명의 일 실시예에 따라, 근접 센서의 초기 값을 재설정할 필요성을 설명하기 위한 도면이다. 7 is a diagram for explaining the necessity of resetting an initial value of a proximity sensor according to an embodiment of the present invention.
기존에는 도 7(a)과 같이 절대값으로 트레숄드 값(302, 303)을 설정하고, 근접 센서(200)를 통해 획득한 데이터(301)와 트레숄드 값(302, 302)를 비교하여 오브젝트의 근접 여부를 판단하였다.Previously, the threshold values 302 and 303 were set as absolute values as shown in FIG. 7(a), and the data 301 acquired through the proximity sensor 200 and the threshold values 302 and 302 were compared to the object. It was judged whether or not the proximity of
트레숄드 값은 하나로 설정할 수 있으나, 보다 분명하게 분별하기 위해서 두 개의 트레숄드 값을 설정할 수 있다. 즉, 데이터가 제1 트레숄드 값(302) 보다 높은 경우, 오브젝트가 근접(Near)한 것으로 판단하고, 데이터가 제2 트레숄드 값(303)보다 낮은 경우 오브젝트가 멀리 떨어져 있는 것으로 판단하였다.You can set one threshold value, but you can set two threshold values for more clarity. That is, when the data is higher than the first threshold value 302, it is determined that the object is near, and when the data is lower than the second threshold value 303, it is determined that the object is far away.
다만, 도 7(b)와 같이 트레숄드 값을 절대적으로 설정한 경우, 제1 트레숄드 값(302)와 제2 트레숄드 값(303) 사이에 존재하는 데이터도 근접 센서(300) 인접 부위에 오염이 발생하여 전체적인 데이터 값이 상승하면 오브젝트가 근접(Near)한 것으로 잘못 판단할 수 있다.However, when the threshold value is absolutely set as shown in FIG. 7(b), data existing between the first threshold value 302 and the second threshold value 303 is also located near the proximity sensor 300. If contamination occurs and the overall data value increases, it may be incorrectly determined that the object is near.
따라서, 이러한 오판을 방지하기 위해서, 도 7(c)와 같이 근접 센서(200)는 기 설정 프레임을 평균하여 초기 값(= base line, 304)을 설정하고, 초기 값(304)을 기초로 기 설정 값 이상으로 트레숄드 값을 상대적으로 설정하는 경우, 근접 센서(300)의 인접 부위 오염으로 데이터 값이 전체적으로 상승하더라도 오브젝트의 근접 여부를 착오 없이 분별할 수 있다.Therefore, in order to prevent such misjudgment, the proximity sensor 200 sets an initial value (= base line, 304) by averaging a preset frame as shown in FIG. 7(c), and based on the initial value 304 When the threshold value is relatively set above the set value, even if the data value increases as a whole due to contamination of the adjacent portion of the proximity sensor 300, whether or not the object is close can be identified without mistake.
다만, 이러한 근접 센서(300)의 초기 값은 깊이 이미지를 기초하여 재설정할 수 있는데 이하에서 살펴보도록 한다.However, the initial value of the proximity sensor 300 may be reset based on the depth image, which will be described below.
도 8 내지 10은 본 발명의 일 실시예에 따라, 오브젝트의 유무 또는 오브젝트의 종류에 따라 근접 센서의 트레숄드(threshold) 값을 업데이트하는 프로세서를 설명하는 흐름도이다. 이하에서 도 2를 기초로 도 8 내지 10을 설명한다.8 to 10 are flowcharts illustrating a processor for updating a threshold value of a proximity sensor according to the presence or absence of an object or the type of an object, according to an embodiment of the present invention. Hereinafter, FIGS. 8 to 10 will be described based on FIG. 2.
구체적으로, 도 8은 근접한 오브젝트가 사용자의 손에 대응되는 경우의 흐름도 이며, 도 9는 근접한 오브젝트가 사용자의 손이 아닌 다른 오브젝트에 대응되는 경우의 흐름도 이고, 도 10은 근접한 오브젝트가 없는 경우의 흐름도이다.Specifically, FIG. 8 is a flowchart of a case where a nearby object corresponds to a user's hand, FIG. 9 is a flowchart of a case where a nearby object corresponds to an object other than the user's hand, and FIG. 10 is a case where there is no adjacent object. It is a flow chart.
근접한 오브젝트가 사용자의 손으로 분별되면, 근접 센서(200)가 깊이 카메라(300)를 활성화 한 것이 적적한 것이었으므로 따로 근접 센서(200)의 초기 값을 재설정하지 않는다.When a nearby object is identified by the user's hand, since it was appropriate for the proximity sensor 200 to activate the depth camera 300, the initial value of the proximity sensor 200 is not separately reset.
구체적으로, 도 8을 살펴보면, 근접한 오브젝트가 사용자의 손으로 분별되면, (S2411), 오브젝트 분별부(610)은 이를 근접 센서 트리거(520)에 전달하고, 근접 센서 트리거(520)는 근접 센서(300)를 통해 데이터를 획득한다.(S2412)Specifically, referring to FIG. 8, when a nearby object is identified by a user's hand (S2411), the object classifying unit 610 transmits it to the proximity sensor trigger 520, and the proximity sensor trigger 520 is a proximity sensor ( 300) to obtain data (S2412)
근접 센서(300)를 통해 획득한 데이터는 기존에 설정된 트레숄드와 비교하여, (S2413) 작은 경우 오브젝트가 멀리 있는 것으로 판단하고(S2414), 모션 센서(300)를 통해 모션을 확인하는 (S2145) 기존의 흐름을 유지할 수 있다.The data acquired through the proximity sensor 300 is compared with the previously set threshold (S2413), when it is small, the object is determined to be far away (S2414), and the motion is checked through the motion sensor 300 (S2145). The existing flow can be maintained.
이때, 깊이 카메라(300)는 엑티브 모드로 작동하며 사용자 손의 인덱스 핑거를 트랙킹할 수 있다.In this case, the depth camera 300 operates in an active mode and can track the index finger of the user's hand.
다만, 근접한 오브젝트가 사용자의 손이 아닌 다른 오브젝트인 경우, 깊이 카메라(200)는 엑티브 모드로 작동하지 않고, 획득한 깊이 이미지를 기초로 근접 센서(300)의 초기 값을 재설할 수 있다.However, when the adjacent object is an object other than the user's hand, the depth camera 200 may not operate in an active mode and may reset an initial value of the proximity sensor 300 based on the acquired depth image.
구체적으로, 도 9를 살펴보면, 근접한 오브젝트가 사용자의 손이 아닌 다른 오브젝로 분별한 경우(S2421), 오브젝트 분별부(610)은 오브젝트가 기 설정 거리 이하에 존재하는지 여부를 판단(S2422)하고 이를 근접센서 트리거(520)에 전달한다.Specifically, referring to FIG. 9, when a nearby object is classified as an object other than a user's hand (S2421), the object classification unit 610 determines whether the object exists less than a preset distance (S2422). This is transmitted to the proximity sensor trigger 520.
근접 센서 트리거(520)는 오브젝트가 기설정 거리 이하에 존재하는 경우 (S2422, Yes) 근접 센서의 초기 값을 재설정 하지 않고, 기존의 흐름을 유지할 수 있다.The proximity sensor trigger 520 may maintain an existing flow without resetting the initial value of the proximity sensor when the object exists within a preset distance (S2422, Yes).
즉, 오브젝트가 근접 상태로 판단함을 유지하고(S2423), 이후 근접 센서를 통해 획득한 데이터를 통해(S2424), 기존의 트레숄드 값과 비교하여(S2425), 근접여부에 따라 데이터를 계속 획득하거나(S2424), 근접센서를 통해 데이터 획득하는 것을 중단(=근접 상태 정의(Far), S2426)하고 모션센서를 통해 모션을 확인(S2427)할 수 있다. That is, it maintains that the object is determined to be in proximity (S2423), and then, through data acquired through the proximity sensor (S2424), compares it with the existing threshold value (S2425), and continues to acquire data according to proximity. Or (S2424), it is possible to stop acquiring data through the proximity sensor (=proximity state definition (Far), S2426) and check the motion through the motion sensor (S2427).
다만, 근접 센서 트리거(520)는 오브젝트가 기설정 거리를 초과하여 오브젝트가 존재하는 경우, 이후 근접 센서(300)를 통해 획득한 데이터(S2424)를 기초로 베이스 라인 및 트레숄드 값을 업데이트 할 수 있다. (S2425)However, the proximity sensor trigger 520 may update the baseline and threshold values based on the data (S2424) acquired through the proximity sensor 300 after the object exists when the object exceeds a preset distance. have. (S2425)
즉, 업데이트 된 트레숄드 값에 의해 근접 상태가 재정의되므로(S2426), 근접 센서를 통해 데이터를 획득하는 것을 중단하고 모션센서를 통해 모션을 확인하는 단계로 넘어갈 수 있다. (S2427)That is, since the proximity state is redefined by the updated threshold value (S2426), acquiring data through the proximity sensor may be stopped, and motion may be confirmed through the motion sensor. (S2427)
근접한 오브젝트가 존재 하지 않는 경우, 근접센서(300)는 깊이 카메라를 잘못 활성화한 것이므로 근접 센서(300)의 초기 값을 재설정할 필요가 있다.If there is no nearby object, the proximity sensor 300 incorrectly activates the depth camera, and thus the initial value of the proximity sensor 300 needs to be reset.
구체적으로, 도 10를 살펴보면, 깊이 이미지를 통해 근접한 오브젝트가 없는 것으로 분별된 경우(S2431), 오브젝트 분별부(610)은 이를 근접센서 트리거(520)에 전달하고, 근접센서(2431)를 통해 다시 데이터를 획득한다. (S2432)Specifically, referring to FIG. 10, when it is determined that there is no object in proximity through the depth image (S2431), the object classification unit 610 transmits this to the proximity sensor trigger 520 and again through the proximity sensor 2431. Acquire the data. (S2432)
다시 획득한 데이터가 기존의 트레숄드 미만인 경우(S2433, Yes), 기존의 트레숄드 값은 올바른데 다른 요인으로 깊이 카메라가 잘못 엑티브 된 것으로 판단하고 오브젝트의 근접 여부를 멀리 있는 것으로 재정의하고(S2435), 모션센서를 통해 모션을 확인(S2436)하는 단계로 넘어갈 수 있다.If the re-acquired data is less than the existing threshold (S2433, Yes), the existing threshold value is correct, but it is determined that the depth camera has been incorrectly active due to another factor, and the proximity of the object is redefined as far away (S2435). , You can proceed to the step of checking the motion through the motion sensor (S2436).
다만, 다시 획득한 데이터가 기존의 트레숄드 이상인 경우(S2433, Yes), 이는 기존의 트레숄드 값이 올바르지 않는 것으로, 다시 획득한 데이터를 통해 베이스 라인 및 트레숄드 값을 재설정한다.(S2434)However, if the re-acquired data is greater than or equal to the existing threshold (S2433, Yes), this means that the existing threshold value is not correct, and the baseline and threshold values are reset through the re-acquired data (S2434).
업데이트 된 트레숄드 값에 의해 근접 상태가 재정의되므로(S2435), 근접 센서를 통해 데이터를 획득하는 것을 중단하고 모션센서를 통해 모션을 확인하는 단계로 넘어갈 수 있다. (S2436)Since the proximity state is redefined by the updated threshold value (S2435), it is possible to stop acquiring data through the proximity sensor and proceed to the step of checking the motion through the motion sensor. (S2436)
도 11 및 도 12은 본 발명을 통해 삼차원 비전 기반 UI 를 실행하는 실시예를 설명하기 위한 도면이다. 이하에서 도 2를 기초로 도 11 및 12를 설명한다.11 and 12 are diagrams for explaining an embodiment of executing a 3D vision-based UI through the present invention. Hereinafter, FIGS. 11 and 12 will be described based on FIG. 2.
도 11(a)와 같이 사용자의 손(700)이 디바이스(100)에 접근하는 경우, 근접 센서(300)는 사용자의 손(700)이 근접 함을 감지하고 깊이 카메라(300)를 활성화(레디 모드)할 수 있다. 레디 모드에서 획득한 깊이 이미지가 사용자의 손(700) 형상을 포함하고 있는 경우, 디바이스를 슬립 모드에서 엑티브 모드로 전환할 수 있다.11(a), when the user's hand 700 approaches the device 100, the proximity sensor 300 detects the proximity of the user's hand 700 and activates the depth camera 300 (ready Mode). When the depth image acquired in the ready mode includes the shape of the user's hand 700, the device may be switched from the sleep mode to the active mode.
즉, 디바이스가 슬립상태에서 사용자는 터치하지 않고, 디바이스를 엑티브 상태로 전환할 수 있다.That is, while the device is in the sleep state, the user can switch the device to the active state without touching it.
이때, 디바이스(100)가 휴대용인 경우 모션 센서(400)를 이용하여 디바이스가 삼차원 비전 기반 UI를 실행하기에 적합한 안정 상태에서만 근접 센서(300)를 통해 오브젝트의 근접 여부를 감지할 수 있다.In this case, when the device 100 is portable, the proximity sensor 300 may detect whether an object is in proximity only in a stable state suitable for the device to execute a 3D vision-based UI using the motion sensor 400.
도11(b)와 같이 디바이스가 엑티브 모드에서 사용자의 손(700)이 디바이스에 접근했다가 다시 멀어지는 경우 디바이스를 엑티브 모드에서 슬립 모드로 전환할 수 있다. As shown in FIG. 11(b), when the user's hand 700 approaches the device and then moves away from the device in the active mode, the device may be switched from the active mode to the sleep mode.
디바이스가 엑티브 모드라고 항상 깊이 카메라(300)가 레디 모드 또는 엑티브 모드인 것을 아니다. 즉, 디바이스가 엑티브 모드에서 근접센서(300)가 오브젝트의 근접을 감지하고, 깊이 카메라를 레디 모드로 전환할 수 있다. 이후 획득한 깊이 이미지에서 사용자의 손을 분별하고, 분별된 사용자의 손이 멀어지는 것을 감지한 경우, 디바이스를 엑티브 모드에서 슬립모드로 전환할 수 있다.When the device is in an active mode, the depth camera 300 is not always in a ready mode or an active mode. That is, the proximity sensor 300 may detect the proximity of an object in the device active mode, and may switch the depth camera to the ready mode. After the user's hand is identified from the acquired depth image, and when it is sensed that the identified user's hand is moving away, the device may be switched from the active mode to the sleep mode.
즉, 디바이스가 불필요하게 엑티브된 상태에서 사용자는 터치하지 않고 디바이스를 슬립모드로 전환할 수 있다.That is, while the device is unnecessarily active, the user can switch the device to the sleep mode without touching it.
일련의 과정을 한번에 살펴보면, 도 11과 같이, 슬립 상태의 디바이스(100)는 근접 센서(300)를 통해 오브젝트의 근접 여부를 감지하고, 오브젝트가 근접한 경우 깊이 카메라(200)를 활성화하여 오브젝트가 사용자의 손임을 분별하고, 근접한 오브젝트가 사용자의 손으로 분별된 경우, 사용자 손의 인덱스 핑거를 트랙킹하는 모드로 전환하여 삼차원 비전 기반 UI를 실행하고, 사용자의 손이 디바이스에서 멀어지는 것을 감지한 경우 디바이스를 슬립 모드로 전환하며, 깊이 카메라를 통해 깊이 이미지를 획득하는 것을 중단할 수 있다.Looking at a series of processes at once, as shown in FIG. 11, the device 100 in a sleep state detects whether an object is in proximity through the proximity sensor 300, and when the object is close, the depth camera 200 is activated so that the object is When the user's hand is identified and a nearby object is identified by the user's hand, the device is switched to a mode that tracks the index finger of the user's hand and executes the 3D vision-based UI. It switches to sleep mode and stops acquiring depth images through the depth camera.
즉, 사용자는 디바이스(100)를 터치하지 않고 엑티브할 수 있으며, 깊이 카메라를 통해 선택적으로 깊이 이미지를 획득하여 저전력으로 삼차원 비전 기판 UI를 실행할 수 있다. 또한, 근접 센서의 초기 값을 재설정하여 오브젝트의 근접 여부를 착오로 판단하는 것을 방지하여 불필요하게 깊이 카메라가 활성화 되는 것을 방지할 수 있다.That is, the user can be active without touching the device 100, and can selectively acquire a depth image through the depth camera and execute the 3D vision board UI at low power. In addition, it is possible to prevent the depth camera from being unnecessarily activated by resetting the initial value of the proximity sensor to prevent an error from determining whether an object is in proximity.
상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above detailed description should not be construed as restrictive in all respects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (15)

  1. 이동 단말기에 있어서,In the mobile terminal,
    오브젝트의 근접 여부를 센싱하는 근접 센서;A proximity sensor that senses whether an object is in proximity;
    오브젝트를 캡쳐하여 깊이 이미지를 획득하는 깊이 카메라;A depth camera that captures an object to obtain a depth image;
    적어도 하나의 커맨드를 저장하는 메모리; 및A memory for storing at least one command; And
    상기 근접 센서, 상기 깊이 카메라 및 상기 메모리에 연결된 컨트롤러;를 포함하고,Includes; a controller connected to the proximity sensor, the depth camera, and the memory,
    상기 컨트롤러는The controller is
    상기 근접센서의 초기 값에 기초하여 오브젝트의 근접을 센싱한 경우, 상기 메모리에 저장된 적어도 하나의 커맨드에 따라, 상기 깊이 카메라를 통해 깊이 이미지를 획득하고, 상기 획득된 깊이 이미지를 기초로 상기 근접센서의 초기 값을 업데이트 하는 것을 특징으로 하는 이동 단말기.When the proximity of the object is sensed based on the initial value of the proximity sensor, a depth image is obtained through the depth camera according to at least one command stored in the memory, and the proximity sensor is based on the acquired depth image. Mobile terminal, characterized in that to update the initial value of.
  2. 제1항에 있어서,The method of claim 1,
    상기 근접센서는The proximity sensor
    획득한 데이터를 기초로 상기 초기 값을 설정하고, 상기 설정된 초기 값을 기준으로 기 설정 값을 더하여 트레숄드 값을 설정하는 것을 특징으로 하는 이동 단말기.And setting the initial value based on the acquired data, and setting a threshold value by adding a preset value based on the set initial value.
  3. 제2항에 있어서,The method of claim 2,
    상기 근접센서는The proximity sensor
    획득한 데이터의 평균값이 상기 트레숄드 값 보다 작은 경우 상기 오브젝트가 떨어져 있는 것으로 판단하고, 회득한 데이터의 평균값이 상기 트레숄드 값 보다 큰 경우 상기 오브젝트가 근접한 것으로 판단하는 것을 특징으로 하는 이동 단말기.And if the average value of the acquired data is less than the threshold value, it is determined that the object is separated, and if the average value of the acquired data is greater than the threshold value, it is determined that the object is close.
  4. 제1항에 있어서,The method of claim 1,
    상기 컨트롤러는The controller is
    상기 획득한 깊이 이미지를 통해 사용자의 손의 형상을 감지한 경우, 상기 근접 센서의 초기 값을 유지하는 것을 특징으로 하는 이동 단말기.When detecting the shape of the user's hand through the acquired depth image, the mobile terminal, wherein the initial value of the proximity sensor is maintained.
  5. 제4항에 있어서,The method of claim 4,
    상기 컨트롤러는The controller is
    상기 이동 단말기가 슬립(sleep) 상태인 경우 웨이크 업(wake up)하는 것을 특징으로 하는 이동 단말기.A mobile terminal, characterized in that wake-up when the mobile terminal is in a sleep state.
  6. 제4항에 있어서,The method of claim 4,
    상기 컨트롤러는The controller is
    상기 메모리에 저장된 적어도 하나의 커맨드에 기초하여, 상기 획득한 깊이 이미지를 통해 인덱스 핑거를 추출하고, 상기 인덱스 핑거의 움직임을 감지하는 것을 특징으로 하는 이동 단말기.And extracting an index finger from the acquired depth image based on at least one command stored in the memory, and detecting a movement of the index finger.
  7. 제6항에 있어서,The method of claim 6,
    상기 컨트롤러는The controller is
    기 설정 시간 동안 연속적으로 획득한 깊이 이미지를 통해 사용자의 손을 감지할 수 없는 경우, 깊이 카메라를 통해 깊이 이미지를 획득하는 것을 중단하고, 상기 근접센서를 통해 데이터를 획득하는 것을 특징으로 하는 이동 단말기.A mobile terminal, characterized in that, when the user's hand cannot be detected through the depth image continuously acquired for a preset time, it stops acquiring the depth image through the depth camera and acquires data through the proximity sensor. .
  8. 제7항에 있어서,The method of claim 7,
    상기 컨트롤러는The controller is
    상기 깊이 카메라를 통해 상기 깊이 이미지를 획득하는 것을 중단한 경우, 상기 이동 단말기를 슬립(sleep) 모드로 전환하는 것을 특징으로 하는 이동 단말기.And when the acquisition of the depth image is stopped through the depth camera, the mobile terminal is switched to a sleep mode.
  9. 제1항에 있어서,The method of claim 1,
    상기 컨트롤러는The controller is
    상기 획득한 깊이 이미지를 통해 사용자의 손이 아닌 다른 오브젝트를 감지한 경우, 상기 다른 오브젝트의 깊이를 확인하고, When an object other than the user's hand is detected through the acquired depth image, the depth of the other object is checked,
    상기 다른 오브젝트의 깊이가 기 설정 거리 이상인 경우 상기 근접 센서의 초기 값을 업데이트하는 것을 특징으로 하는 이동 단말기.And updating the initial value of the proximity sensor when the depth of the other object is greater than or equal to a preset distance.
  10. 제8항에 있어서,The method of claim 8,
    상기 컨트롤러는The controller is
    상기 근접센서를 통해 데이터를 획득하고, 획득한 데이터에 기초하여 상기 초기 값을 증가하고, 상기 증가된 초기 값에 대응하여 상기 트레숄드 값을 증가하는 것을 특징으로 하는 이동 단말기.Obtaining data through the proximity sensor, increasing the initial value based on the obtained data, and increasing the threshold value in response to the increased initial value.
  11. 제1항에 있어서,The method of claim 1,
    상기 컨트롤러는The controller is
    상기 획득한 깊이 이미지를 통해 기 설정 거리 이내에 오브젝트를 감지하지 못한 경우, 상기 근접센서의 초기 값을 업데이트 하는 것을 특징으로 하는 이동 단말기.When the object is not detected within a preset distance through the acquired depth image, the mobile terminal, wherein the initial value of the proximity sensor is updated.
  12. 제11항에 있어서,The method of claim 11,
    상기 컨트롤러는The controller is
    상기 근접센서를 통해 데이터를 획득하고, 획득한 데이터가 상기 트레숄드 값 미만인 경우 상기 초기 값을 업데이트 하는 것을 특징으로 하는 이동 단말기.Acquiring data through the proximity sensor, and updating the initial value when the acquired data is less than the threshold value.
  13. 제1항에 있어서,The method of claim 1,
    상기 이동 단말기는The mobile terminal
    상기 이동 단말기의 모션을 확인하는 모션센서를 더 포함하고,Further comprising a motion sensor for checking the motion of the mobile terminal,
    상기 컨트롤러는The controller is
    상기 모션센서를 통해 상기 이동 단말기가 안정 상태임을 감지한 경우 상기 근접센서를 통해 데이터를 획득하는 것을 특징으로 하는 이동 단말기.And when the motion sensor detects that the mobile terminal is in a stable state, data is obtained through the proximity sensor.
  14. 제13항에 있어서,The method of claim 13,
    상기 컨트롤러는The controller is
    상기 근접센서를 통해 획득한 데이터에서 기 설정 시간 이상 근접한 오브젝트를 센싱하지 못한 경우, 상기 근접 센서를 통해 데이터를 획득하는 것을 중단하고, 상기 모션센서를 통해 상기 이동 단말기의 모션을 확인하는 것을 특징으로 하는 이동 단말기. When it is not possible to sense an object that is close to the data acquired through the proximity sensor for more than a preset time, the acquisition of data through the proximity sensor is stopped, and motion of the mobile terminal is checked through the motion sensor. Mobile terminal.
  15. 제13항에 있어서,The method of claim 13,
    상기 안정 상태는The stable state is
    상기 이동 단말기의 위치가 고정된 상태, 기 설정 속도 이하로 움직이는 상태, 및 기 설정 각도 이하로 회전하는 상태 중 적어도 하나인 것을 특징으로 하는 이동 단말기.A mobile terminal, characterized in that at least one of a fixed position of the mobile terminal, a state of moving below a preset speed, and a state of rotating below a preset angle.
PCT/KR2019/001773 2019-02-13 2019-02-13 Mobile terminal WO2020166739A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/001773 WO2020166739A1 (en) 2019-02-13 2019-02-13 Mobile terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/001773 WO2020166739A1 (en) 2019-02-13 2019-02-13 Mobile terminal

Publications (1)

Publication Number Publication Date
WO2020166739A1 true WO2020166739A1 (en) 2020-08-20

Family

ID=72045302

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/001773 WO2020166739A1 (en) 2019-02-13 2019-02-13 Mobile terminal

Country Status (1)

Country Link
WO (1) WO2020166739A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140038854A (en) * 2012-09-21 2014-03-31 삼성전자주식회사 Mobile device and method for user interface in mobile device
KR20160034430A (en) * 2011-11-23 2016-03-29 인텔 코포레이션 Gesture input with multiple views, displays and physics
KR101660215B1 (en) * 2011-05-12 2016-09-26 애플 인크. Presence sensing
US20170090584A1 (en) * 2015-09-25 2017-03-30 Apple Inc. Multi Media Computing Or Entertainment System For Responding To User Presence And Activity
WO2018026142A1 (en) * 2016-08-01 2018-02-08 삼성전자 주식회사 Method for controlling operation of iris sensor and electronic device therefor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101660215B1 (en) * 2011-05-12 2016-09-26 애플 인크. Presence sensing
KR20160034430A (en) * 2011-11-23 2016-03-29 인텔 코포레이션 Gesture input with multiple views, displays and physics
KR20140038854A (en) * 2012-09-21 2014-03-31 삼성전자주식회사 Mobile device and method for user interface in mobile device
US20170090584A1 (en) * 2015-09-25 2017-03-30 Apple Inc. Multi Media Computing Or Entertainment System For Responding To User Presence And Activity
WO2018026142A1 (en) * 2016-08-01 2018-02-08 삼성전자 주식회사 Method for controlling operation of iris sensor and electronic device therefor

Similar Documents

Publication Publication Date Title
WO2016010221A1 (en) Mobile terminal and control method therefor
WO2016003036A1 (en) Proximity illuminance sensor module and mobile terminal using same
WO2016167483A1 (en) Color sensor module and mobile terminal
WO2017135522A1 (en) Mirror type display device and method for controlling same
WO2020256463A1 (en) Electronic device including sub display and method of operating same
WO2016167437A1 (en) Mobile terminal
WO2017007101A1 (en) Smart device and method for controlling same
WO2020171563A1 (en) Electronic device and method for controlling operation of display in same
WO2018038288A1 (en) Mobile terminal
WO2019231042A1 (en) Biometric authentication device
WO2015190668A1 (en) Mobile terminal
WO2018101508A1 (en) Mobile terminal
WO2021080360A1 (en) Electronic device and method for controlling display operation thereof
WO2016035955A1 (en) Mobile terminal and control method therefor
WO2015108287A1 (en) Mobile terminal
WO2018135675A1 (en) Electronic device
WO2017030236A1 (en) Mobile terminal and control method therefor
WO2020171342A1 (en) Electronic device for providing visualized artificial intelligence service on basis of information about external object, and operating method for electronic device
WO2016195144A1 (en) Camera module and mobile terminal having same
WO2018131747A1 (en) Mobile terminal and control method thereof
WO2020166740A1 (en) Mobile terminal
WO2020013363A1 (en) Mobile terminal and control method thereof
WO2021107200A1 (en) Mobile terminal and mobile terminal control method
WO2019160173A1 (en) Mobile terminal and control method thereof
WO2020166739A1 (en) Mobile terminal

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19914815

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19914815

Country of ref document: EP

Kind code of ref document: A1