WO2020085525A1 - Mobile terminal and method for controlling same - Google Patents

Mobile terminal and method for controlling same Download PDF

Info

Publication number
WO2020085525A1
WO2020085525A1 PCT/KR2018/012562 KR2018012562W WO2020085525A1 WO 2020085525 A1 WO2020085525 A1 WO 2020085525A1 KR 2018012562 W KR2018012562 W KR 2018012562W WO 2020085525 A1 WO2020085525 A1 WO 2020085525A1
Authority
WO
WIPO (PCT)
Prior art keywords
mode
operation unit
light source
raw data
mobile terminal
Prior art date
Application number
PCT/KR2018/012562
Other languages
French (fr)
Korean (ko)
Inventor
송민우
안예한
진동철
김민호
전상국
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2018/012562 priority Critical patent/WO2020085525A1/en
Priority to KR1020190092155A priority patent/KR20200045947A/en
Priority to KR1020190092154A priority patent/KR102218919B1/en
Priority to US16/661,199 priority patent/US11620044B2/en
Priority to US16/661,215 priority patent/US11500103B2/en
Publication of WO2020085525A1 publication Critical patent/WO2020085525A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Definitions

  • the present invention relates to a control method for a mobile terminal. More specifically, it is applicable to the technical field of driving at least one camera (for example, a depth camera) included in the mobile terminal with low power.
  • at least one camera for example, a depth camera
  • Terminals can be divided into mobile terminals (mobile / portable terminals) and stationary terminals according to their mobility. Again, the mobile terminal may be divided into a handheld terminal and a vehicle mounted terminal according to whether the user can directly carry it.
  • the functions of mobile terminals are diversifying. For example, there are functions for data and voice communication, photo and video shooting through a camera, voice recording, music file playback through a speaker system, and image or video output on the display.
  • an electronic game play function is added or a multimedia player function is performed.
  • recent mobile terminals can receive multicast signals that provide visual content such as broadcast and video or television programs.
  • such a terminal is a multimedia player having multiple functions, such as taking a picture or a video, playing music or a video file, receiving a game, or broadcasting. Is being implemented.
  • the complex functions of the mobile terminal can be performed without the user directly touching the mobile terminal.
  • the user may interact without directly touching the mobile terminal through a voice or vision-based user interface provided in the mobile terminal.
  • the user interface based on the touch input cannot be interacted with when the user is away from the mobile terminal. Also, in the process of touch input, the position of the mobile terminal in the stand state may be changed or may be overturned. However, a voice or vision-based user interface may be advantageous over a touch input-based user interface in that a user can interact while away from the mobile terminal and does not apply any external force to the mobile terminal.
  • the voice-based user interface may be limited by space and time. For example, in a noisy space, it may be difficult for the mobile terminal to discern the user's voice. In addition, the user may be inconvenient to interact with the mobile terminal through a voice at the late night or with another person.
  • the vision-based user interface may provide convenience for the user to interact with the mobile terminal in the limited situation as described above. Accordingly, recently, a technology in which a mobile terminal interacts with a user through a vision-based user interface is actively being researched.
  • the mobile terminal can be equipped with a depth camera.
  • a depth camera In order to recognize the user's movement using the depth camera, there is a problem in that power consumption of the mobile terminal is unnecessary since the depth camera must always be kept in the ON state.
  • the present invention aims to solve the above-mentioned problems and other problems through the specification of the present invention.
  • the present invention intends to propose a solution in which a mobile terminal provides a user interface (UI) based on vision instead of touch input through a depth camera.
  • UI user interface
  • the present invention is to provide a solution to prevent excessive power consumption by varying the mode depending on the condition while the depth camera included in the mobile terminal is always ON.
  • the present invention is to provide a solution for determining the presence or absence of a user with low power and obtaining a depth image through a Time Of Flight (TOF) camera included in a mobile terminal.
  • TOF Time Of Flight
  • a TOF (Time Of Flight) camera operating in a first or second mode receives a light source irradiating a light source to an object, and receives light reflected from the object
  • An image sensor for obtaining raw data an operation unit for processing the raw data, and a controller connected to the light source, the image sensor, and the operation unit, wherein the controller is a light source of a specific signal in the first mode.
  • the light source is controlled to irradiate, and when the change of the raw data is sensed through the operation unit, the device is switched to the second mode, and the light source is controlled to vary the phase of the specific signal in the second mode. , Controlling the operation unit to generate depth data of the object through the raw data Is done.
  • the image sensor includes first and second photogates to which signals having different phases are applied and receive reflected light corresponding thereto
  • the controller controls the image sensor to acquire the raw data through the first photo gate in the first mode, and the image to acquire the raw data through the first and second photo gates in the second mode. It is characterized by controlling the sensor.
  • the operation unit is a sub-operation unit for determining the intensity change of the raw data obtained in the first mode, and the obtained in the second mode It characterized in that it comprises a main operation unit for generating the depth data through the intensity ratio of the raw data.
  • the controller when the controller detects an intensity change of the raw data in the sub-operation unit, it is characterized in that the main operation unit wakes up do.
  • the controller is characterized in that the specific signal is periodically varied to have a phase difference of 0 degrees, 90 degrees, 180 degrees and 270 degrees in the second mode Is done.
  • the controller is characterized in that when the depth data does not change over a preset time in the second mode, the first mode.
  • a mobile terminal for achieving the above object operates in a first or second mode, a light source for irradiating light, an image sensor for receiving reflected light, and obtaining raw data, and A TOF (Time Of Flight) camera including a calculation unit for generating depth data through the raw data, a memory storing a command corresponding to the depth data, a display providing graphic feedback in response to the command stored in the memory,
  • the controller includes a TOF camera, a memory, and a controller connected to the display. The controller controls the light source to irradiate a light source of a specific signal in the first mode, and the raw data is calculated by the operation unit.
  • the image sensor is applied with a signal having a different phase during a preset frame, and correspondingly, first and second photogates receiving the reflected light And in the first mode, the raw data is obtained through the first photo gate, and in the second mode, the raw data is obtained through the first and second photo gates.
  • the operation unit is a sub-operation unit for determining the intensity change of the raw data obtained in the first mode, the raw data obtained in the second mode It characterized in that it comprises a main operation unit for calculating the intensity ratio, and thereby generating the depth data.
  • the controller when the controller detects an intensity change of the raw data in the sub-operation unit, it is characterized in that the main operation unit wakes up do.
  • a method of controlling a mobile terminal including a time of flight (TOF) camera for achieving the above object, by operating the time of flight (TOF) camera in a first mode, moving Checking the existence of the object, and if the existence of the moving object in the first mode is confirmed, operating the TOF camera in a second mode to obtain depth data of the object, wherein the first mode includes The TOF camera irradiates a light source of a specific signal to an object, receives a light source reflected by the object, obtains raw data, detects a change in the raw data, determines the existence of the moving object, The second mode irradiates a light source by varying the phase of the specific signal in the TOF camera, and the light source reflected by the object Receiving data to obtain a row, and is characterized in that for obtaining the depth data of the objects through the raw data.
  • TOF time of flight
  • the first mode in the second mode It characterized in that it comprises a step of switching to.
  • a user may interact with a mobile terminal through a user's movement instead of a touch input.
  • the TOF camera included in the mobile terminal may be operated in different modes, and thus may consume excessive power.
  • the presence or absence of a user may be checked with low power through a TOF camera included in a mobile terminal, and a depth image may be acquired to prevent excessive power consumption.
  • FIG. 1A is a block diagram illustrating a mobile terminal related to the present invention.
  • FIGS. 1B and 1C are conceptual views of an example of a mobile terminal related to the present invention viewed from different directions.
  • 2 to 6 are views for explaining the driving method of the TOF camera.
  • FIG. 7 is a view for explaining the problem of the existing TOF camera 200 and the effect of the TOF camera according to an embodiment of the present invention which improves the problem.
  • FIG. 8 is a schematic view for explaining the configuration of a TOF camera according to an embodiment of the present invention.
  • FIG. 9 is a flowchart illustrating a control method for controlling a TOF camera according to an embodiment of the present invention.
  • FIG. 10 is a flowchart illustrating a method of determining the presence or absence of an object by comparing frames in FIG. 9.
  • FIG. 11 is a view for explaining FIG. 9.
  • FIG. 12 is a schematic diagram for explaining the configuration of a TOF camera according to another embodiment of the present invention.
  • FIG. 13 is a view for explaining a method and a problem of recognizing a user's finger through a depth image acquired by a conventional depth camera.
  • FIG. 14 is a diagram for schematically explaining a method in which a mobile terminal according to an embodiment of the present invention recognizes a point targeted by a user's hand through a depth camera.
  • FIG. 15 is a flow chart for explaining FIG. 14.
  • FIG. 16 is a view for explaining an interaction region in FIG. 15.
  • FIG. 17 is a diagram for describing a depth image acquired in the interaction area of FIG. 16.
  • FIG. 18 is a flowchart illustrating a method of implementing a segment tree corresponding to a user's hand in FIG. 15.
  • 19 to 22 are views for explaining FIG. 18.
  • FIG. 23 is a flowchart illustrating a method of determining an effective end through a segment tree in FIG. 15.
  • FIG. 24 is a view for explaining FIG. 23.
  • 25 is a flowchart illustrating a method of extracting a targeting point and depth corresponding to the effective end determined in FIG. 15.
  • 26 and 27 are views for explaining FIG. 25.
  • 28 to 30 are diagrams for explaining video feedback provided corresponding to the targeting point extracted through FIG. 15.
  • Mobile terminals described herein include mobile phones, smart phones, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), navigation, and slate PCs.
  • Tablet PC tablet PC
  • ultrabook ultrabook
  • wearable device wearable device, for example, a watch-type terminal (smartwatch), glass-type terminal (smart glass), HMD (head mounted display), etc. may be included have.
  • the configuration according to the embodiment described in the present specification may be applied to a fixed terminal such as a digital TV, a desktop computer, and a digital signage, except when applicable only to a mobile terminal. It is easy for a technician to know.
  • FIG. 1A is a block diagram illustrating a mobile terminal related to the present invention.
  • FIGS. 1B and 1C are conceptual views of an example of a mobile terminal related to the present invention viewed from different directions.
  • the mobile terminal 100 includes a wireless communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, an interface unit 160, a memory 170, a control unit 180, and a power supply unit 190 ) And the like.
  • the components shown in FIG. 1A are not essential for implementing the mobile terminal 100, so the mobile terminal 100 described herein may have more or fewer components than those listed above. have.
  • the wireless communication unit 110 among the components, between the mobile terminal 100 and the wireless communication system, between the mobile terminal 100 and another mobile terminal 100, or the mobile terminal 100 and an external server It may include one or more modules that enable wireless communication between. Also, the wireless communication unit 110 may include one or more modules connecting the mobile terminal 100 to one or more networks.
  • the wireless communication unit 110 may include at least one of a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short-range communication module 114, and a location information module 115. .
  • the input unit 120 may include a camera 121 for inputting a video signal or a video input unit, a microphone for inputting an audio signal (microphone 122), or an audio input unit, a user input unit 123 for receiving information from a user, for example , A touch key, a push key, and the like.
  • the voice data or image data collected by the input unit 120 may be analyzed and processed by a user's control command.
  • the sensing unit 140 may include one or more sensors for sensing at least one of information in the mobile terminal 100, surrounding environment information surrounding the mobile terminal 100, and user information.
  • the sensing unit 140 includes a proximity sensor 141, an illumination sensor 142, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity G-sensor, gyroscope sensor, motion sensor, RGB sensor, infrared sensor (IR sensor), fingerprint scan sensor, ultrasonic sensor , Optical sensor (e.g., camera (see 121)), microphone (refer to 122), battery gauge, environmental sensor (e.g.
  • the mobile terminal 100 disclosed in this specification may combine and use information sensed by at least two or more of these sensors.
  • the output unit 150 is for generating output related to vision, hearing, or tactile sense, and includes at least one of a display unit 151, an audio output unit 152, a haptic module 153, and an optical output unit 154 can do.
  • the display unit 151 may form a mutual layer structure with the touch sensor or may be integrally formed, thereby realizing a touch screen.
  • the touch screen may function as a user input unit 123 that provides an input interface between the mobile terminal 100 and the user, and at the same time, provide an output interface between the mobile terminal 100 and the user.
  • the interface unit 160 serves as a passage with various types of external devices connected to the mobile terminal 100.
  • the interface unit 160 connects a device equipped with a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, and an identification module. It may include at least one of a port, an audio input / output (I / O) port, a video input / output (I / O) port, and an earphone port.
  • I / O audio input / output
  • I / O video input / output
  • earphone port an earphone port
  • the memory 170 stores data supporting various functions of the mobile terminal 100.
  • the memory 170 may store a number of application programs (application programs) that are driven in the mobile terminal 100, data for operation of the mobile terminal 100, and instructions. At least some of these applications may be downloaded from external servers via wireless communication. In addition, at least some of these application programs may exist on the mobile terminal 100 from the time of shipment for basic functions of the mobile terminal 100 (for example, an incoming call, an outgoing function, a message reception, and an outgoing function). Meanwhile, the application program may be stored in the memory 170 and installed on the mobile terminal 100 to be driven by the controller 180 to perform an operation (or function) of the mobile terminal 100.
  • the controller 180 controls the overall operation of the mobile terminal 100 in addition to the operations related to the application program.
  • the controller 180 may provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in the memory 170.
  • controller 180 may control at least some of the components discussed with reference to FIG. 1A to drive an application program stored in the memory 170. Furthermore, the controller 180 may operate by combining at least two or more of the components included in the mobile terminal 100 for driving the application program.
  • the power supply unit 190 receives external power and internal power to supply power to each component included in the mobile terminal 100.
  • the power supply unit 190 includes a battery, and the battery may be a built-in battery or a replaceable battery.
  • At least some of the components may operate in cooperation with each other to implement an operation, control, or control method of the mobile terminal 100 according to various embodiments described below. Also, the operation, control, or control method of the mobile terminal 100 may be implemented on the mobile terminal 100 by driving at least one application program stored in the memory 170.
  • the input unit 120 is for input of image information (or signals), audio information (or signals), data, or information input from a user.
  • the mobile terminal 100 may include one or more A camera 121 may be provided.
  • the camera 121 may be part of the mobile terminal 100 of the present invention, or may be configured to include the mobile terminal 100. That is, the camera 121 and the mobile terminal 100 of the present invention may include at least some common features or configurations.
  • the camera 121 processes image frames such as still images or moving images obtained by an image sensor in a video call mode or a shooting mode.
  • the processed image frame may be displayed on the display unit 151 or stored in the memory 170.
  • the plurality of cameras 121 provided in the mobile terminal 100 may be arranged to form a matrix structure, and through the camera 121 forming the matrix structure, various angles or focuses may be applied to the mobile terminal 100.
  • a plurality of image information may be input.
  • the plurality of cameras 121 may be arranged in a stereo structure to acquire left and right images for realizing a stereoscopic image.
  • the sensing unit 140 senses at least one of information in the mobile terminal 100, surrounding environment information surrounding the mobile terminal 100, and user information, and generates a sensing signal corresponding thereto.
  • the controller 180 may control driving or operation of the mobile terminal 100 based on the sensing signal, or perform data processing, function, or operation related to an application program installed in the mobile terminal 100. Representative sensors among various sensors that may be included in the sensing unit 140 will be described in more detail.
  • the proximity sensor 141 refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object in the vicinity using mechanical force or infrared rays, etc., without mechanical contact.
  • the proximity sensor 141 may be provided with the proximity sensor 141 in the inner region of the mobile terminal 100 wrapped by the touch screen described above or in the vicinity of the touch screen.
  • the proximity sensor 141 examples include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive type proximity sensor, a magnetic type proximity sensor, and an infrared proximity sensor.
  • the proximity sensor 141 may be configured to detect the proximity of the object by a change in electric field according to the proximity of the conductive object. In this case, the touch screen (or touch sensor) itself may be classified as a proximity sensor.
  • the proximity sensor 141 may detect a proximity touch and a proximity touch pattern (eg, proximity touch distance, proximity touch direction, proximity touch speed, proximity touch time, proximity touch position, proximity touch movement state, etc.). have.
  • the controller 180 processes data (or information) corresponding to the proximity touch operation and the proximity touch pattern detected through the proximity sensor 141, and further, visual information corresponding to the processed data. It can be output on the touch screen. Furthermore, the controller 180 may control the mobile terminal 100 such that different operations or data (or information) are processed according to whether a touch on the same point on the touch screen is a proximity touch or a touch touch. .
  • the touch sensor uses a touch (or touch input) applied to the touch screen (or the display unit 151) using at least one of various touch methods such as a resistive film method, a capacitive method, an infrared method, an ultrasonic method, and a magnetic field method. Detect.
  • the touch sensor may be configured to convert a change in pressure applied to a specific part of the touch screen or capacitance generated in the specific part into an electrical input signal.
  • the touch sensor may be configured to detect a position, an area, a pressure when a touch is touched, a capacitance when a touch object is applied on the touch screen, and the like.
  • the touch object is an object that applies a touch to the touch sensor, and may be, for example, a finger, a touch pen or a stylus pen, a pointer, and the like.
  • the touch controller processes the signal (s) and then transmits corresponding data to the controller 180. Accordingly, the control unit 180 can know which area of the display unit 151 has been touched, and the like.
  • the touch controller may be a separate component from the controller 180, or may be the controller 180 itself.
  • the controller 180 may perform different controls or perform the same control according to the type of the touch object that touches the touch screen (or a touch key provided in addition to the touch screen). Whether to perform different control or the same control according to the type of the touch object, it may be determined according to an operating state of the current mobile terminal 100 or an application program being executed.
  • touch sensors and proximity sensors described above are independently or in combination, such as short (or tap) touch on the touch screen, long touch, multi touch, drag touch ), Flick touch, pinch-in touch, pinch-out touch, swipe touch, hovering touch, etc. You can sense the touch.
  • the ultrasonic sensor may recognize location information of a sensing target using ultrasonic waves.
  • the control unit 180 may calculate the position of the wave generating source through information sensed by the optical sensor and the plurality of ultrasonic sensors.
  • the position of the wave generator can be calculated by using a property in which light is much faster than ultrasound, that is, a time when light reaches the optical sensor is much faster than a time when the ultrasound reaches the ultrasonic sensor. More specifically, the position of the wave generating source may be calculated by using a time difference from the time at which ultrasonic waves reach the light as a reference signal.
  • the camera 121 includes at least one of a camera sensor (eg, CCD, CMOS, etc.), a photo sensor (or image sensor), and a laser sensor.
  • a camera sensor eg, CCD, CMOS, etc.
  • a photo sensor or image sensor
  • a laser sensor e.g., a laser sensor
  • the camera 121 and the laser sensor may be combined with each other to detect a touch of a sensing target for a 3D stereoscopic image.
  • the photo sensor may be stacked on the display element, which is configured to scan the movement of the sensing object close to the touch screen. More specifically, the photo sensor mounts photo diodes and TRs (transistors) in rows / columns to scan the contents loaded on the photo sensor using electrical signals that change according to the amount of light applied to the photo diode. That is, the photo sensor performs coordinate calculation of the sensing object according to the change amount of light, and through this, location information of the sensing object may be obtained.
  • the disclosed mobile terminal 100 has a bar-shaped terminal body.
  • the present invention is not limited to this, and may be applied to various structures such as a watch type, a clip type, a glass type, or a folder type, a flip type, a slide type, a swing type, a swivel type to which two or more bodies are movably coupled.
  • a watch type a clip type, a glass type, or a folder type
  • a flip type a slide type
  • a swing type a swivel type to which two or more bodies are movably coupled.
  • the terminal body may be understood as a concept of referring to the mobile terminal 100 as at least one aggregate.
  • the mobile terminal 100 includes a case (for example, a frame, a housing, a cover, etc.) forming an exterior. As illustrated, the mobile terminal 100 may include a front case 101 and a rear case 102. Various electronic components are disposed in the inner space formed by the combination of the front case 101 and the rear case 102. At least one middle case may be additionally disposed between the front case 101 and the rear case 102.
  • a case for example, a frame, a housing, a cover, etc.
  • the mobile terminal 100 may include a front case 101 and a rear case 102.
  • Various electronic components are disposed in the inner space formed by the combination of the front case 101 and the rear case 102.
  • At least one middle case may be additionally disposed between the front case 101 and the rear case 102.
  • the display unit 151 is disposed on the front of the terminal body to output information. As illustrated, the window 151a of the display unit 151 is mounted on the front case 101 to form the front surface of the terminal body together with the front case 101.
  • electronic components may also be mounted on the rear case 102.
  • Electronic components that can be mounted on the rear case 102 include a removable battery, an identification module, and a memory card.
  • the rear case 102 may be detachably coupled to the rear cover 103 for covering the mounted electronic components. Therefore, when the rear cover 103 is separated from the rear case 102, the electronic components mounted on the rear case 102 are exposed to the outside.
  • the rear cover 103 when the rear cover 103 is coupled to the rear case 102, a part of the side surface of the rear case 102 may be exposed. In some cases, the rear case 102 may be completely covered by the rear cover 103 when the coupling is performed. Meanwhile, an opening for exposing the camera 121b or the sound output unit 152b to the outside may be provided in the rear cover 103.
  • These cases (101, 102, 103) may be formed by injection of synthetic resin or may be formed of metal, for example, stainless steel (STS), aluminum (Al), titanium (Ti), or the like.
  • STS stainless steel
  • Al aluminum
  • Ti titanium
  • the mobile terminal 100 may be configured such that one case provides the inner space, unlike the above example in which a plurality of cases provide an inner space accommodating various electronic components.
  • the mobile terminal 100 of a unibody in which synthetic resin or metal extends from the side to the rear may be implemented.
  • the mobile terminal 100 may be provided with a waterproof portion (not shown) to prevent water from entering the terminal body.
  • the waterproof portion is provided between the window 151a and the front case 101, between the front case 101 and the rear case 102, or between the rear case 102 and the rear cover 103, the combination thereof It may include a waterproof member for sealing the interior space of the city.
  • the mobile terminal 100 includes a display unit 151, first and second sound output units 152a and 152b, a proximity sensor 141, an illuminance sensor 142, a light output unit 154, the first and second units Cameras 121a and 121b, first and second operation units 123a and 123b, a microphone 122, and an interface unit 160 may be provided.
  • the mobile terminal 100 in which the second sound output unit 152b and the second camera 121b are disposed on the rear surface of the mobile terminal 100 will be described as an example.
  • first operation unit 123a may not be provided on the front of the terminal body, and the second sound output unit 152b may be provided on the side of the terminal body rather than the rear of the terminal body.
  • the display unit 151 displays (outputs) information processed by the mobile terminal 100.
  • the display unit 151 may display execution screen information of an application program driven by the mobile terminal 100, or UI (User Interface) or GUI (Graphic User Interface) information according to the execution screen information. .
  • the display unit 151 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display (flexible). display), a three-dimensional display (3D display), and an electronic ink display (e-ink display).
  • LCD liquid crystal display
  • TFT LCD thin film transistor-liquid crystal display
  • OLED organic light-emitting diode
  • flexible display flexible display
  • display flexible display
  • display flexible display
  • display flexible display
  • display flexible display
  • display flexible display
  • display three-dimensional display
  • e-ink display an electronic ink display
  • two or more display units 151 may be present depending on the implementation form of the mobile terminal 100.
  • a plurality of display units may be spaced apart from one surface or integrally disposed in the mobile terminal 100, or may be respectively disposed on different surfaces.
  • the display unit 151 may include a touch sensor that senses a touch on the display unit 151 so that a control command can be input by a touch method. Using this, when a touch is made to the display unit 151, the touch sensor detects the touch, and the controller 180 can be configured to generate a control command corresponding to the touch based on the touch.
  • the content input by the touch method may be a letter or a number, or an instruction or designable menu item in various modes.
  • the touch sensor is composed of a film having a touch pattern, is disposed between the display (not shown) on the back surface of the window 151a and the window 151a, or a metal wire that is directly patterned on the back surface of the window 151a. It can be.
  • the touch sensor may be formed integrally with the display.
  • the touch sensor may be disposed on the substrate of the display, or may be provided inside the display.
  • the display unit 151 may form a touch screen together with a touch sensor, and in this case, the touch screen may function as a user input unit 123 (see FIG. 1A). In some cases, the touch screen may replace at least some functions of the first operation unit 123a.
  • the first sound output unit 152a may be implemented as a receiver that delivers a call sound to the user's ear, and the second sound output unit 152b is a loud speaker that outputs various alarm sounds or multimedia playback sounds. ).
  • An acoustic hole for emitting sound generated from the first sound output unit 152a may be formed in the window 151a of the display unit 151.
  • the present invention is not limited thereto, and the sound may be configured to be emitted along an assembly gap between structures (for example, a gap between the window 151a and the front case 101). In this case, the appearance of the mobile terminal 100 may be simpler because the holes formed independently for the sound output are not visible or hidden.
  • the light output unit 154 is configured to output light to notify when an event occurs. Examples of the event include message reception, call signal reception, missed calls, alarm, schedule notification, email reception, information reception through an application, and the like.
  • the control unit 180 may control the light output unit 154 to end the output of light when the user's event is detected.
  • the first camera 121a processes image frames of still images or moving pictures obtained by an image sensor in a shooting mode or a video call mode.
  • the processed image frame may be displayed on the display unit 151, and may be stored in the memory 170.
  • the first and second operation units 123a and 123b are examples of the user input unit 123 that is operated to receive a command for controlling the operation of the mobile terminal 100, and may also be collectively referred to as a manipulating portion. have.
  • the first and second operation units 123a and 123b may be adopted in any manner as long as the user operates the device while receiving a tactile feeling, such as touch, push, scroll.
  • the first and second manipulation units 123a and 123b may be employed in such a way that the user operates without a tactile feeling through a proximity touch, a hovering touch, or the like.
  • the first operation unit 123a is illustrated as a touch key, but the present invention is not limited thereto.
  • the first operation unit 123a may be a mechanical key or a combination of a touch key and a push key.
  • Contents input by the first and second operation units 123a and 123b may be variously set.
  • the first operation unit 123a receives commands such as a menu, home key, cancel, search, etc.
  • the second operation unit 123b is output from the first or second sound output units 152a, 152b. Commands such as adjusting the volume of the sound and switching to the touch recognition mode of the display unit 151 may be received.
  • a rear input unit (not shown) may be provided.
  • the rear input unit is operated to receive a command for controlling the operation of the mobile terminal 100, and the input content may be variously set. For example, commands such as power on / off, start, end, scroll, etc., control the volume of sound output from the first and second sound output units 152a, 152b, and touch recognition mode of the display unit 151. You can receive commands such as conversion of.
  • the rear input unit may be implemented in a form capable of input by touch input, push input, or a combination thereof.
  • the rear input unit may be disposed to overlap the front display unit 151 in the thickness direction of the terminal body.
  • the rear input unit may be arranged at the upper rear portion of the terminal body so that it can be easily operated using the index finger.
  • the present invention is not necessarily limited to this, and the position of the rear input unit may be changed.
  • the rear input unit When the rear input unit is provided on the rear of the terminal body, a new type of user interface using the rear input unit may be implemented.
  • the above-described touch screen or rear input unit replaces at least some functions of the first operation unit 123a provided on the front surface of the terminal body, when the first operation unit 123a is not disposed on the front surface of the terminal body,
  • the display unit 151 may be configured as a larger screen.
  • the mobile terminal 100 may be provided with a fingerprint recognition sensor for recognizing a user's fingerprint, and the controller 180 may use fingerprint information detected through the fingerprint recognition sensor as an authentication means.
  • the fingerprint recognition sensor may be embedded in the display unit 151 or the user input unit 123.
  • the microphone 122 is configured to receive a user's voice, other sounds, and the like.
  • the microphone 122 may be provided at a plurality of locations and configured to receive stereo sound.
  • the interface unit 160 is a passage through which the mobile terminal 100 can be connected to an external device.
  • the interface unit 160 is a connection terminal for connection with other devices (eg, earphones, external speakers), a port for short-range communication (eg, an infrared port (IrDA Port), a Bluetooth port (Bluetooth) Port, Wireless LAN Port, etc.], or at least one of a power supply terminal for supplying power to the mobile terminal 100.
  • the interface unit 160 may be implemented in the form of a socket that accommodates an external card such as a subscriber identification module (SIM) or a user identity module (UIM) or a memory card for storing information.
  • SIM subscriber identification module
  • UIM user identity module
  • a second camera 121b may be disposed on the rear side of the terminal body.
  • the second camera 121b has a shooting direction substantially opposite to the first camera 121a.
  • the second camera 121b may include a plurality of lenses arranged along at least one line.
  • the plurality of lenses may be arranged in a matrix format.
  • Such a camera may be referred to as an 'array camera'.
  • the second camera 121b is configured as an array camera, images may be captured in a variety of ways using a plurality of lenses, and better quality images may be obtained.
  • the flash 124 may be disposed adjacent to the second camera 121b. When the flash 124 photographs the subject with the second camera 121b, the light is directed toward the subject.
  • a second sound output unit 152b may be additionally disposed on the terminal body.
  • the second sound output unit 152b may implement a stereo function together with the first sound output unit 152a, or may be used to implement a speakerphone mode during a call.
  • the terminal body may be provided with at least one antenna for wireless communication.
  • the antenna may be built in the terminal body or may be formed in the case.
  • an antenna forming part of the broadcast receiving module 111 may be configured to be pulled out from the terminal body.
  • the antenna may be formed of a film type and attached to the inner surface of the rear cover 103, or a case including a conductive material may be configured to function as an antenna.
  • the terminal body is provided with a power supply unit 190 (see FIG. 1A) for supplying power to the mobile terminal 100.
  • the power supply unit 190 may include a battery 191 built in the terminal body or configured to be detachable from the outside of the terminal body.
  • the battery 191 may be configured to receive power through a power cable connected to the interface unit 160. Also, the battery 191 may be configured to be wirelessly charged through a wireless charger.
  • the wireless charging may be implemented by a magnetic induction method or a resonance method (magnetic resonance method).
  • the rear cover 103 is coupled to the rear case 102 so as to cover the battery 191 to limit the detachment of the battery 191, and is configured to protect the battery 191 from external impact and foreign matter.
  • the rear cover 103 may be detachably coupled to the rear case 102.
  • FIGS. 2 to 5 are views for explaining a driving method of the TOF camera 200.
  • FIG. 2 is a basic configuration diagram of the TOF camera 200
  • FIG. 3 is a diagram specifically showing the image sensor 220 in the TOF camera 200
  • 4 and 5 are diagrams illustrating a method of acquiring depth data by receiving light from the image sensor 220
  • FIG. 6 is a light source 210 for removing ambient light and offset.
  • the present invention relates to a mobile terminal that provides a vision-based user interface using a depth camera.
  • Depth cameras can be classified into three types according to a method of extracting a depth value.
  • the first is a method of obtaining the distance of each pixel (Pixel) through the time that the light irradiated by the depth camera is reflected on the object and returned by the Time Of Flight (TOF) method related to the present invention.
  • the second is a stereo method in which a depth camera obtains the distance of each pixel using binocular parallax.
  • the structured pattern method is a method in which the depth camera irradiates patterned light to an object and obtains the distance of each pixel through the degree of distortion of the pattern.
  • the TOF camera 200 may include a light source 210 that irradiates light toward the object 400 and an image sensor 220 that receives light reflected by the object 400. have.
  • the TOF camera 200 may include a main processor 230a internally or externally to calculate the depth of the object 400 using raw data obtained through the image sensor 220.
  • the light source 210 may irradiate the modularized light 211 through a timing generator (not shown).
  • the light source 210 may irradiate a light source of a specific signal through a timing generator, and in some cases, periodically change the phase of a specific signal and irradiate the light source.
  • the image sensor 220 may include at least one cell 221 having two photogates 221a and 221b.
  • the two photo gates 221a and 221b may respectively receive the light 212 reflected by the object to obtain raw data corresponding thereto.
  • the method in which the image sensor 220 acquires raw data of the light 212 received through the two photo gates 221a and 221b is as follows.
  • the photo gates 221a and 221b initialize the voltage of the cell by applying the reset signal Rst (step 1), and apply the modulation signals DMIX0 and DMIX1 signals to accumulate the received light ( , ) (Step 2), and apply the address decode signal (Address Decode) to , ) Reading the charged amount of charge (step 3).
  • the modulation signal DMIX0 applied to the first photogate 221a may have a phase opposite to the modulation signal DMIX1 applied to the second photogate 221b, and the modulation applied to the first photogate 211a
  • One of the signal DMIX0 and the modulation signal DMIX1 applied to the second photo gate 221b may have the same phase as the light 211 emitted from the light source 210.
  • Figure 4 (a) is a light 211 irradiated from the light source 210 4 (b) is reflected by the object 400 and light 212 received from the image sensor 220 and irradiated from the light source 210 with light 211 As much as it has a phase difference.
  • 4 (c) and 4 (b) show the modulation signal DMIX0 applied to the first photo gate 221a and the modulation signal DMIX1 applied to the second photo gate 221b.
  • the modulation signal DMIX1 applied to the second photo gate 221b has the same phase as the light 211 emitted from the light source 210 and the modulation signal DMIX0 applied to the first photo gate 221a. And may have an opposite phase.
  • the light 212 received from the image sensor 220 is the light irradiated from the light source 210. Since it has a phase difference as much as, the capacitor of the first photo gate 221a through the modulation signals DMIX0, DMIX1 ( ), The amount of charge removed from Node-A (Node-A) and the capacitor of the second photo gate 221b ( ), The amount of charge removed from Node-B is as shown in FIGS. 4 (c) and 4 (b).
  • the image sensor 220 is a capacitor of the first photogate 221a and the second photogate 221b ( , ),
  • FIG. 5 (b) shows a case where light 211 (optical) irradiated from the light source 210 and light 212 (electrical) reflected by the object 400 have a phase difference of 90 degrees.
  • the capacitor ( ) The amount of charge charged and the capacitor ( ) May have the same amount of charge.
  • FIG. 5 (c) shows a case where light 211 (optical) irradiated from the light source 210 and light 212 (electrical) reflected by the object 400 have a phase difference of 180 degrees.
  • the capacitor ( ) Can be charged.
  • the light source 210 irradiates a light source of a specific signal
  • the image sensor 220 receives light corresponding thereto.
  • the image sensor 220 may receive ambient light in addition to the light 212 emitted from the light source 210. Therefore, in order to eliminate errors caused by ambient light, the light source 210 may periodically change the phase of a specific signal to irradiate the light source.
  • FIG. 6 illustrates an embodiment in which a phase of a specific signal is periodically varied in the light source 210 to irradiate a light source to eliminate errors caused by ambient light.
  • FIG. 6 (a) shows a light source having a phase difference of 0 degrees, that is, a light source irradiated with a single preset pulse
  • FIG. 6 (b) shows a light source having a phase difference of 90 degrees from the light source of FIG. 6 (a).
  • 6 (c) shows a light source having a phase difference of 180 degrees from the light source of FIG. 6 (a)
  • FIG. 6 (d) shows a light source having a phase difference of 270 degrees from the light source of FIG. 6 (a).
  • FIG. 6 (e) shows light reflected by the object 400 and received by the image sensor 220.
  • the modulation signal DMIX1 applied to the second photo gate 221b may be synchronized with the signals of FIGS. 6 (a) to 6 (d), wherein FIG. 6 (e) is synchronized with the signal, respectively.
  • 221b) capacitor ( ) Shows charge amounts 213a to 213b.
  • the light source 210 periodically varies the phase of a specific signal, and the capacitor of the image sensor 220 ( , ), The error caused by ambient light can be corrected through the difference in the percentage charged.
  • FIG. 7 is a view for explaining the problem of the existing TOF camera 200 and the effect of the TOF camera according to an embodiment of the present invention which improves the problem.
  • FIG. 7 (a) shows a state in which the TOF camera 200 always maintains an ON state and acquires a depth image by irradiating light to the tracking area 300 even when the user 400 is not present.
  • the TOF camera 200 always maintains an ON state and acquires a depth image by irradiating light to the tracking area 300 even when the user 400 is not present.
  • power consumption of the mobile terminal is unnecessary.
  • obtaining a depth image is technically effective in preventing excessive power consumption only when the user 400 is present in the tracking area 300.
  • the TOF camera 200 and the mobile terminal including the same are driven with a low power and operate in a first mode to confirm the existence of the user 400, and the user 400 in the first mode When the existence is confirmed, it may operate in a second mode for acquiring a depth image. In this case, it is possible to prevent excessive power consumption even if the TOF camera 200 is always in an ON state.
  • FIG. 8 is a schematic diagram for explaining the configuration of the TOF camera 200 according to an embodiment of the present invention.
  • the TOF camera operates in a first or second mode, and receives light reflected from the illumination source 210 and the object 400 irradiating the light source to the object 400
  • the operation unit 230a switches to the second mode, controls the light source 210 to vary the phase of the specific signal in the second mode, and generates depth data of the object 400 through the raw data.
  • 230b) can be controlled.
  • each component module is illustrated separately, it is also within the scope of the present invention to design some modules by combining them.
  • the controller may include a timing generator that provides a pulse signal to the light source 210 and the image sensor 220, and in some cases, may be configured to include arithmetic units 230a and 230b. Also, the controller may have a configuration corresponding to the controller 180 shown in FIG. 1A.
  • the TOF camera 200 controls the light source 210 that irradiates a light source of a specific signal in a second mode in order to correct errors in ambient light or offset in the depth data, as described in FIG. 6.
  • the phase of a specific signal can be changed periodically.
  • the light source 400 is controlled to irradiate a light source of a specific signal without a phase change, and power consumed for the phase change can be reduced.
  • the image sensor 220 applies first and second photo gates 221a and 221b that receive signals having different phases during a predetermined frame and receive reflected light 212 correspondingly. It can contain.
  • the first and second photo gates 221a and 221b constitute one cell 221, and the image sensor 220 may include a plurality of cells 221.
  • the controller may control the image sensor 220 to acquire the raw data through the first photo gate 221a in the first mode. That is, the controller applies the modulation signal DMIX0 (refer to FIG. 4) only to the first photo gate 221a and does not apply the modulation signal DMIX1 to the second photo gate 221a.
  • the controller uses only one photo gate in the cell 211 including the first and second photo gates 221a and 221b in the first mode to drive both the first and second photo gates 221a and 221b. Power consumption can be reduced.
  • the mode for checking the existence of the moving object 400 does not need to calculate the depth data of the object 400.
  • capacitors of the first and second grape gates 221a and 221b ( , ) Is required.
  • Capacitor of one photogate refers to a change in the intensity of the reflected light, through which the existence of the moving object 400 can be confirmed. That is, in the first mode, power consumed to drive both the first and second photo gates 221a and 221b may be reduced by driving only one photo gate.
  • the TOF camera 200 of the present invention includes a sub-operation unit 230b for determining a change in intensity of raw data obtained by the operation units 230a and 230b through the first photo gate 221a and the first And a main operation unit 230a that generates (calculates) the depth data of the object through the intensity ratio through the raw data obtained from the second photo gates 221a and 221b, respectively.
  • the main operation unit 230a is the same as the main operation unit 230a included in the existing TOF camera 200 of FIG. 2 and may correspond to a Mobile Industry Processor Interface (MIPI).
  • MIPI Mobile Industry Processor Interface
  • the main operation unit 230a generates depth data through raw data acquired in the second mode.
  • the main operation unit 230a may have a lot of power consumption since the calculation process is complicated and processes a lot of data.
  • the sub-operation unit 230a is an operation unit that determines only the change in the intensity of raw data acquired through one photo gate, and may correspond to a Serial Peripheral Interface (SPI) with simple processing data and low power consumption.
  • SPI Serial Peripheral Interface
  • the TOF camera 200 consumes excessive power even if it is always in an ON state. Can be prevented.
  • the controller may wake up the main operation unit 230a. That is, when the main operation unit 230a maintains a state in which the power is not applied in the first mode and then switches to the second mode, power may be applied.
  • FIG. 9 is a flowchart illustrating a control method for controlling a TOF camera according to an embodiment of the present invention.
  • a method of controlling a TOF camera according to an embodiment of the present invention in a first mode and a second mode is as follows.
  • the TOF camera can irradiate a light source of a specific signal.
  • the specific signal may be a periodic single pulse signal.
  • the periodic single pulse light source may be a light source that maintains only the pulse corresponding to FIG. 6 (a) as a pulse that does not periodically change phase in order to correct errors due to ambient light and offset. .
  • the image sensor may acquire raw data by receiving light reflected by the object.
  • the raw data may include intensity data that can measure the intensity change.
  • the image sensor may include the first and second photogates 211a and 211b as described in FIG. 3, and in the first mode, intensity data may be acquired using only one photogate. have. That is, in the first mode, intensity data corresponding to the amount of charge charged in the capacitor of one photogate can be obtained.
  • the TOF camera may include a sub-operation unit 230b as described in FIG. 8, and may transmit the intensity data acquired in one photo gate to the sub-operation unit 230b.
  • the sub-operation unit 230b may determine whether a moving object exists by determining whether a difference between the N-1th intensity data and the N-th intensity data acquired at predetermined intervals is greater than or equal to the preset intensity.
  • the TOF camera according to the present invention is the first mode state when the difference between the N-1st intensity data and the N-th intensity data obtained at a preset period interval in the first mode is equal to or less than the preset intensity (S205, NO). Can keep.
  • the TOF camera changes the phase of a specific signal in the second mode and can irradiate a light source to the object.
  • a specific signal may be irradiated with light sources in phases of 0 degrees, 90 degrees, 180 degrees, and 270 degrees (4 phases).
  • the generating of depth data and providing a user UX / UI corresponding to the mobile terminal may be a step of providing graphic feedback through a display in response to the depth data.
  • the mobile terminal includes a memory that stores commands corresponding to the depth data, and the display can provide graphic feedback corresponding to the commands stored in the memory.
  • the TOF camera may be switched from the second mode to the first mode (S211).
  • switching from the second mode to the first mode may be possible when there is no change in depth data over a preset time. That is, the mode can be switched through whether the depth data acquired in the second mode is changed regardless of whether the UX / UI provided by the mobile terminal is terminated.
  • FIG. 10 is a flow chart for explaining a method of determining the presence or absence of an object by comparing frames in FIG. 9, and FIG. 11 is a view for explaining FIG. 9.
  • the method of determining the existence of the moving object in the first mode is as follows.
  • the raw data obtained through the first or second photo gate is intensity data, and may be measured at predetermined time intervals for each pixel 212a.
  • the sub-operation unit 230b determines whether the difference between the N-1th intensity data and the N-th intensity data acquired at predetermined intervals is greater than or equal to the preset intensity (determining the presence or absence of an object ( S205) may include the following steps.
  • the image sensor 220 may include cells 221 including the first photogate 211a and the second photogate 211b to form a plurality of rows and columns.
  • the plurality of cells 221 may correspond to the pixel 212a shown in FIG. 11, and the intensity data (the intensity data obtained from the first or second photo gate) obtained by each of the plurality of cells 221 may be pixels. It may correspond to the size of the value indicated in (212a).
  • the sub-operation unit 230b calculates the sum of the pixel values for each column / row, and (S301) calculates the difference between the N-1 frame and the N frames obtained at predetermined time intervals (S301).
  • 11 (a) shows an N-1 frame
  • 11 (b) shows an N frame
  • the step of calculating the difference between the N-1 frame and the N frames obtained at predetermined time intervals is based on the sum 212b of the pixel values included in each column as shown in FIGS. 11 (a) and (b). And calculating a difference between a sum 212b of pixel values included in each column of the -1 frame and the N frame.
  • the difference between the sum of the pixel values included in each column of the N-1 frame and the N frame 212b is 1 + 3 + 14 + 1 + 12, which is 30.
  • the step of calculating the difference between the N-1 frame and the N frames obtained at predetermined time intervals is based on the sum 212c of the pixel values included in each row as shown in FIGS. 11 (a) and (b). And calculating a difference between sums 212c of pixel values included in each row of the N-1 frame and the N frame.
  • the difference between the sum of the pixel values included in each row of the N-1 frame and the N frame 212c is 1 + 4 + 12 + 11, which is 28.
  • FIG. 12 is a schematic diagram for explaining the configuration of the TOF camera 200 according to another embodiment of the present invention.
  • the TOF camera 200 includes a separate photodiode 260 and receives the light source 212 irradiated and reflected by the light source 210 in the first mode through the separate photodiode 260 can do.
  • the main operation unit 230a can be wakeed up.
  • the TOF camera 200 illustrated in FIG. 12 separately includes a configuration for receiving light in the first mode, and a feature for receiving light in the second mode to the image sensor 220.
  • FIG. 13 is a view for explaining a method and a problem of recognizing a user's finger through a depth image acquired by a conventional depth camera.
  • an image of a portion corresponding to the user's hand 410 is quickly and accurately extracted from the entire depth image, and the finger 414 can be accurately and quickly tracked. It should be possible.
  • the method of tracking the shortest distance point through the depth camera has a problem that is not suitable for tracking a plurality of fingers 414.
  • FIG. 14 is a diagram for schematically illustrating a method in which a mobile terminal according to an embodiment of the present invention recognizes a point targeted by a user's hand 410 through a depth camera 200.
  • the mobile terminal In order to interact with the user, the mobile terminal needs to quickly and accurately track a finger targeted at the user's hand 410 and points 411a and 411b targeted by the finger. Further, even if the mobile terminal protrudes from the user's hand 410 toward the depth camera, it is necessary to exclude the targeting point 412 from tracking.
  • FIG. 14 (a) shows an embodiment in which the user's hand 410 is directed toward the depth camera 200
  • FIG. 14 (b) shows that the depth camera 200 in FIG. 14 (a) is the user's hand 410. Is captured, and is a segment 500 obtained corresponding to a distance h from the depth camera 200 in the depth image.
  • FIG. 14 (c) shows the segment tree 600 implemented through the inclusion relationship between the corresponding reference distance and the segment 500 of FIG. 14 (b).
  • the mobile terminal may extract targeting points 411a and 411b from the depth image of the user's hand 410 through the segment tree 600.
  • the segment tree 600 may include at least one node 630.
  • the at least one node 630 may be a specific segment including a plurality of segments corresponding to neighboring distances. That is, when the segment corresponding to the N + 1st reference distance (h_N + 1) includes a plurality of segments corresponding to the Nth reference distance (h_N), the segment corresponding to the N + 1st reference distance (h_N + 1)
  • the segment is a specific segment, and may correspond to the first node 630a in the segment tree 600.
  • the first effective end 610a is connected to the first node 630a and corresponds to the first point 411a targeted by the user's hand because the first node 630a and the distance ha1 are greater than a preset distance. You can.
  • the second effective end 610b is connected to the second node 630b, and the second node 630b and the second point each of which is targeted at the user's hand 410 with a distance ha2 greater than or equal to a preset distance ( 411b).
  • the end is classified as an invalid end 620, which is a point 412 that is not targeted at the user's hand 410 ).
  • the invalid end 620 is connected to the second node 630b, the second node 630b and the distance hb1 is less than a predetermined distance, a point 412 that is not targeted at the user's hand 410 Can correspond to
  • the present invention has the advantage of being able to track fingers with different node depths, such as the thumb, with targeting fingers, and to accurately track targeting points of multiple fingers.
  • FIG. 15 is a flow chart for explaining FIG. 14.
  • the mobile terminal acquires a depth image through a depth camera to track a user's finger. (S401)
  • the mobile terminal sets an interaction region and removes an image outside the interaction region from the depth image.
  • the interaction area may be set within a first preset distance from the mobile terminal, and will be described in detail with reference to FIG. 16 below.
  • the mobile terminal may extract the target distance of the object through a pixel having a distance value closest to the depth image.
  • the target distance may be a starting reference distance for acquiring a segment according to the distance from the mobile terminal in the depth image, and will be specifically described with reference to FIG. 17 below.
  • the depth camera may acquire a segment corresponding to the distance from the depth camera in the depth image, and implement a segment tree through the segmentation relationship.
  • the segment tree may be implemented through an inclusion relationship between segments obtained according to a distance from the mobile terminal, and will be described in detail with reference to FIGS. 18 to 22.
  • the mobile terminal determines the effective end through the distance from the node in the implemented segment tree.
  • the mobile terminal may identify a specific segment corresponding to the node in the segment tree, and determine an effective end through a segment located at a distance greater than or equal to a second preset distance from the distance at which the specific segment is obtained. In this regard, it will be described in detail with reference to FIGS. 23 and 24 below.
  • the mobile terminal may extract the location of at least one target point corresponding to the effective end, and provide video feedback through the display in response to the extracted location.
  • the method of extracting the location of the target point will be described with reference to FIGS. 26 and 27, and the method of providing video feedback through the display will be described in detail with reference to FIGS. 28 to 30.
  • the mobile terminal may store a memory storing at least one command, a depth camera capturing an object to obtain a depth image, and at least one command stored in the memory, A display for outputting video feedback corresponding to an object captured by the depth camera, and a controller connected to the memory, the depth camera, and the display, wherein the controller is configured according to at least one command stored in the memory.
  • the depth camera controls to track the object, and according to at least one command stored in the memory, the distance from the mobile terminal in the depth image To Acquiring at least one segment according to, and controlling the display to output at least one target point located above a second preset distance to the mobile terminal from a distance at which a specific segment is acquired according to at least one command stored in the memory It can be characterized by doing.
  • FIG. 16 is a diagram for explaining an interaction region in FIG. 15, and FIG. 17 is a diagram for describing a depth image obtained in the interaction region of FIG. 16.
  • the depth camera 200 may extract depth data for each pixel, and through this, it is possible to extract an object within a specific distance.
  • the interaction area 320 may be an area corresponding to a minimum recognition distance 310 and a first preset distance 330 that the depth camera 200 can recognize the object.
  • the mobile terminal can track only objects that have entered the interaction area 320. Since the user reaches out to the mobile terminal and interacts with the mobile terminal through hand movement, the object entering the interaction area 320 may be the user's hand, and the mobile terminal tracking the object that is likely to be the user's hand desirable.
  • the mobile terminal removes the pixel value of the remaining pixels except for the pixel having the pixel value corresponding to the interaction region 320 in the acquired depth image.
  • a pixel 321 having a value of 0 is a pixel having a pixel value that does not correspond to the interaction area 320, and corresponds to a pixel from which a pixel value is removed.
  • the pixel 322 having a pixel value may be a pixel having a pixel value corresponding to the interaction region 320. That is, the pixel 322 having a pixel value may be a pixel having a pixel value corresponding to the first reference distance 330 or less.
  • the mobile terminal is designed to start tracking when an object enters the interaction area 320. That is, when an object does not enter the interaction area 320 and all pixel values are removed as 0, the mobile terminal does not perform tracking described below, thereby increasing energy and data efficiency.
  • the mobile terminal determines the shortest distance from the acquired depth image.
  • the shortest distance may be a distance corresponding to a minimum pixel value excluding 0 in FIG. 17.
  • the determined shortest distance may be used to form a segment tree of the object by entering the object into the interaction area 320.
  • a method of forming a segment tree will be described.
  • FIG. 18 is a flowchart for describing a method of implementing a segment tree corresponding to a user's hand in FIG. 15, and FIGS. 19 to 22 are diagrams for describing FIG. 18.
  • the mobile terminal may implement a segment tree when starting tracking when an object enters the interaction area 620 of FIG. 16.
  • FIG. 21 is a diagram illustrating a process of dividing a segment.
  • FIG. 21 (b) shows segments segmented by grouping pixels having pixel values in the filtered image.
  • FIG. 22 is a diagram illustrating a method of implementing a segment tree through the segmented segment of FIG. 21 and determining a specific segment.
  • segment A has a corresponding reference distance longer than a corresponding reference distance
  • the occupied area includes segments B, C, and D as shown in the upper view of FIG. 22 (b).
  • the reference distances corresponding to segments B, C, and D are longer than the reference distances corresponding to segments E, F, and are included in the areas occupied by segments B and C, respectively, as shown in the lower diagram of FIG. 22 (b).
  • the upper and lower views of FIG. 22 (b) may be implemented as a segment tree as shown in FIG. 22 (c).
  • segments A, segments B, C, D, and segments E, F are located above, middle, and bottom through corresponding reference distances, and segment A indicates segments B, C, and D. Including, it can be connected to segments B, C, and D.
  • segments B and C include segments E and F, respectively, so that each can be interconnected.
  • the mobile terminal according to the present invention can reduce the reference distance from the depth image at a predetermined interval from the first preset distance to obtain a corresponding segment, and form a segment tree through the intersegment inclusion relationship.
  • FIG. 23 is a flowchart illustrating a method of determining an effective end through a segment tree in FIG. 15, and FIG. 24 is a diagram for describing FIG. 23.
  • the mobile terminal When the mobile terminal implements a segment tree through depth data, it determines the end of the segment tree. (S601)
  • the end may correspond to the target point of the present invention, in this regard will be described in detail with reference to Figures 24 and 25.
  • the mobile terminal extracts a segment corresponding to the reference distance, and if the extracted segment does not include another segment, it may determine that segment as the end of the segment tree.
  • the segment tree 600 is an example of the segment tree 600, and may be implemented as described through FIGS. 18 to 22.
  • the segment tree 600 according to an example included in FIG. 23 includes three ends 610b and 610a. , 620).
  • the length between each end and the node is extracted.
  • the length between each end and the node may be a difference between a reference distance corresponding to each end and a reference distance corresponding to the node.
  • the node may correspond to the characteristic segment of FIG. 22.
  • the segment tree 600 according to the example of FIG. 23 includes one node 630, and three ends 610a, 610b, and 620 are implemented by connecting the nodes 630.
  • the length between each end (610a, 610b, 620) and the node 630 is a reference distance (End b, End c) corresponding to each end (610a, 610b, 620) and a reference distance (End) corresponding to the node (630) It may be the difference of a).
  • the distance h4 between the first end 610a and the second end 610b and the node 630 is a reference distance End b and a node corresponding to the first end 610a and the second end 610b. It may be a difference of the reference distance End a corresponding to 630.
  • the distance h3 between the third end 620 and the node 630 is the difference between the reference distance End c corresponding to the third end 620 and the reference distance End a corresponding to the node 630.
  • the mobile terminal determines an effective end based on whether the length between each end and the node is greater than or equal to the second preset distance THRES (S603). That is, the mobile terminal sets a second preset value at a reference distance corresponding to the node. An end obtained at a reference distance spaced over a distance may be determined as an effective end.
  • the method of additionally checking whether the invalid end is through metadata may be determined through a size increase rate from the effective end to the node, and if the effective end suddenly increases from the node, it may be determined as the invalid end.
  • FIG. 25 is a flow chart for explaining a method of extracting a targeting point and depth corresponding to the effective end determined in FIG. 15, and FIGS. 26 and 27 are views for explaining FIG. 25.
  • the mobile terminal extracts the midpoint (x, y) of the segment corresponding to the effective end. (S701) The mobile terminal extracts the midpoint (x, y) of the segment through the position of the pixels constituting the segment corresponding to the effective end. can do.
  • the mobile terminal extracts the depth (Depth (z)) of the effective end. (S702), and ends the procedure (S703).
  • FIG. 26 is an example of the segment tree 600, and may be implemented as described through FIGS. 18 to 22. Segments E and G may be segments corresponding to effective ends.
  • FIG. 27 is a depth image obtained at a reference distance End e corresponding to segments E and F of FIG. 26 and includes segments E and F through filtering.
  • the mobile terminal may extract the midpoint (x, y) of the segment E through the position of the pixel group 610e constituting the segment E in the segment E corresponding to the effective end.
  • the mobile terminal may extract the depth h6 through the reference distance End e corresponding to segment E.
  • the depth difference h7 between the segment G and the segment may be extracted through the depth h5 extracted through the reference distance End g corresponding to the segment G.
  • the mobile terminal may acquire a targeting point by the user's hand through the midpoint (x, y) and depth (y) corresponding to the effective end, and provide video feedback to the display correspondingly.
  • the video feedback provided in response to the targeting point will be described below.
  • 28 to 30 are diagrams for explaining video feedback provided corresponding to the targeting point extracted through FIG. 15.
  • the video feedback may be video feedback indicating that a display area corresponding to the at least one target point is selected when at least one target point moves over a third preset distance toward the mobile terminal (or depth camera). .
  • the video feedback may be video feedback indicating that a display area corresponding to the at least one target point is selected when at least one target point moves within a fourth preset distance from the mobile terminal (or depth camera). have.
  • FIG. 28 (a) is a diagram illustrating an embodiment in which a mobile terminal acquires a targeting point through a segment tree corresponding to a user's hand 410 and displays the target point 720 on the display 700.
  • FIG. 28 (b) is a diagram illustrating an embodiment in which the degree to which the targeting point approaches the display is displayed through the graphic feedback 740 approaching the selection target 730.
  • 28 (c) is a diagram illustrating a graphic feedback 750 indicating that the selection target 730 is selected in FIG. 28 (b). That is, the user can know that the selection target is selected because the graphic feedback 750 matches the contour of the selection target 730.
  • the video feedback may be video feedback that enlarges or zooms in the content displayed on the display.
  • the video feedback may be video feedback that reduces or zooms out the size of content displayed on the display when the target points are plural and the plurality of target points are combined into one target point.
  • FIG. 29 (a) shows a user's hand 410 action that provides zoom-in or zoom-out video feedback, where two target points 720a, 720b are merged into one target point 721, or vice versa.
  • One target point value 721 illustrates an embodiment in which two target points 720a and 720b are divided.
  • FIG. 29 (a) shows a user's hand 410 action that provides zoom-in or zoom-out video feedback, wherein five target points 720a, 720b, 720c, 720d, and 720e are one target point 721 ), Or, conversely, one target point 721 shows an embodiment in which the target points are divided into five target points 720a, 720b, 720c, 720d, and 720e.
  • the video feedback may be video feedback that moves content displayed on a display or displays other content in response to a direction in which the at least one target point moves.
  • FIG. 30 illustrates an action of a user hand 410 corresponding to video feedback displaying other content, and an embodiment in which five target points 720a, 720b, 720c, 720d, and 720e move from side to side. have.
  • the video feedback may be video feedback that rotates content displayed on a display corresponding to the rotation direction of the at least two target points.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Telephone Function (AREA)

Abstract

The purpose of the present invention is to provide a time of flight (TOF) camera operating in a first or second mode to reduce power consumption. To this end, a time of flight (TOF) camera according to the present invention is characterized by comprising: a light source for emitting a light source onto an object; an image sensor for receiving light reflected from the object and obtaining intensity data; an operation unit for processing the intensity data; and a controller connected to the light source, the image sensor, and the operation unit, wherein the controller controls the light source to emit a light source of a periodic single pulse in the first mode, switches to the second mode when the operation unit detects a change in the intensity data, controls the light source to periodically vary the phase of the single pulse in the second mode, and controls the operation unit to generate depth data on the object through the intensity data.

Description

이동단말기 및 그 제어 방법Mobile terminal and control method thereof
본 발명은 이동단말기 그 제어 방법에 관한 것이다. 보다 상세하게는 이동단말기에 포함되는 적어도 하나의 카메라(예를 들어, 깊이 카메라(depth camera))를 저전력으로 구동하는 기술 분야에 적용 가능하다.The present invention relates to a control method for a mobile terminal. More specifically, it is applicable to the technical field of driving at least one camera (for example, a depth camera) included in the mobile terminal with low power.
단말기는 이동 가능여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)으로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mounted terminal)로 나뉠 수 있다. Terminals can be divided into mobile terminals (mobile / portable terminals) and stationary terminals according to their mobility. Again, the mobile terminal may be divided into a handheld terminal and a vehicle mounted terminal according to whether the user can directly carry it.
이동 단말기의 기능은 다양화 되고 있다. 예를 들면, 데이터와 음성통신, 카메라를 통한 사진촬영 및 비디오 촬영, 음성녹음, 스피커 시스템을 통한 음악파일 재생 그리고 디스플레이부에 이미지나 비디오를 출력하는 기능이 있다. 일부 단말기는 전자게임 플레이 기능이 추가되거나, 멀티미디어 플레이어 기능을 수행한다. 특히 최근의 이동 단말기는 방송과 비디오나 텔레비전 프로그램과 같은 시각적 컨텐츠를 제공하는 멀티캐스트 신호를 수신할 수 있다. The functions of mobile terminals are diversifying. For example, there are functions for data and voice communication, photo and video shooting through a camera, voice recording, music file playback through a speaker system, and image or video output on the display. In some terminals, an electronic game play function is added or a multimedia player function is performed. In particular, recent mobile terminals can receive multicast signals that provide visual content such as broadcast and video or television programs.
이와 같은 단말기(terminal)는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. As the function is diversified, such a terminal is a multimedia player having multiple functions, such as taking a picture or a video, playing music or a video file, receiving a game, or broadcasting. Is being implemented.
이동 단말기의 복합 적인 기능은 사용자가 직접적으로 이동단말기를 터치(Touch)하지 않고도 수행될 수 있다. 사용자는 이동 단말기에 구비된 보이스(Voice) 또는 비전(Vision) 기반의 사용자 인터페이스(User Interface)를 통해 이동 단말기를 직접 터치하지 않고 인터랙션 할 수 있다.The complex functions of the mobile terminal can be performed without the user directly touching the mobile terminal. The user may interact without directly touching the mobile terminal through a voice or vision-based user interface provided in the mobile terminal.
터치 입력 기반 사용자 인터페이스는 사용자가 이동 단말기와 떨어진 상태에서 인터랙션 할 수 없다. 또한, 터치 입력하는 과정에서 스탠드 상태의 이동 단말기의 위치를 변경하거나 넘어지게 할 수 있다. 다만, 보이스 또는 비전 기반의 사용자 인터페이스는 사용자가 이동 단말기와 떨어진 상태에서 인터랙션 할 수 있고, 이동 단말기에 어떠한 외력을 인가하지 않는 점에서 터치 입력 기반의 사용자 인터페이스 보다 유리할 수 있다.The user interface based on the touch input cannot be interacted with when the user is away from the mobile terminal. Also, in the process of touch input, the position of the mobile terminal in the stand state may be changed or may be overturned. However, a voice or vision-based user interface may be advantageous over a touch input-based user interface in that a user can interact while away from the mobile terminal and does not apply any external force to the mobile terminal.
보이스 기반의 사용자 인터페이스는 공간 및 시간에 따른 제약이 있을 수 있다. 예를 들어, 시끄러운 공간에서는 이동 단말기가 사용자의 보이스를 분별하기 어려울 수 있다. 또한, 사용자는 다른 사람과 같이 있거나, 밤 늦은 시간에 보이스를 통해 이동 단말기와 인터랙션하기 불편할 수 있다.The voice-based user interface may be limited by space and time. For example, in a noisy space, it may be difficult for the mobile terminal to discern the user's voice. In addition, the user may be inconvenient to interact with the mobile terminal through a voice at the late night or with another person.
따라서, 비전 기반의 사용자 인터페이스는 상기와 같은 제한된 상황에서 이동 단말기와 사용자가 인터랙션하는데 편리함을 제공할 수 있다. 이에, 최근에는 이동 단말기가 비전 기반의 사용자 인터페이스를 통해 사용자와 인터랙션하는 기술이 활발히 연구 중이다.Accordingly, the vision-based user interface may provide convenience for the user to interact with the mobile terminal in the limited situation as described above. Accordingly, recently, a technology in which a mobile terminal interacts with a user through a vision-based user interface is actively being researched.
비전 기반의 사용자 인터페이스로 이동 단말기는 깊이 카메라를 구비할 수 있다. 다만, 깊이 카메라를 이용하여 사용자의 움직임을 인지하기 위해서는 깊이 카메라가 항상 ON상태를 유지해야 하는 점에서 이동 단말기의 전력 소모가 불필요하게 발생하는 문제점이 있다. With a vision-based user interface, the mobile terminal can be equipped with a depth camera. However, in order to recognize the user's movement using the depth camera, there is a problem in that power consumption of the mobile terminal is unnecessary since the depth camera must always be kept in the ON state.
본 발명은 전술한 문제 및 기타 본 발명의 명세서를 통해 기타 문제들 역시 해결하는 것을 목적으로 한다.The present invention aims to solve the above-mentioned problems and other problems through the specification of the present invention.
본 발명은 이동 단말기가 깊이 카메라를 통해 터치 입력 대신 비전(Vison) 기반의 사용자 인터페이스(User Interface, UI)를 제공하는 솔루션을 제안하고자 한다.The present invention intends to propose a solution in which a mobile terminal provides a user interface (UI) based on vision instead of touch input through a depth camera.
본 발명은 이동 단말기에 포함된 깊이 카메라가 항상 ON 상태를 유지하면서도 조건에 따라 모드를 달리하여 전력이 과도하게 소모되는 것을 방지하는 솔루션을 제공하고자 한다.The present invention is to provide a solution to prevent excessive power consumption by varying the mode depending on the condition while the depth camera included in the mobile terminal is always ON.
본 발명은 이동 단말기에 포함된 TOF(Time Of Flight) 카메라를 통해 저전력으로 사용자의 유무를 판단하고, 깊이 이미지를 획득하는 솔루션을 제공하고자 한다.The present invention is to provide a solution for determining the presence or absence of a user with low power and obtaining a depth image through a Time Of Flight (TOF) camera included in a mobile terminal.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따라 제1 또는 제 2 모드로 작동하는 TOF(Time Of Flight) 카메라는, 광원을 오브젝트에 조사하는 라이트 소스, 상기 오브젝트에 반사된 광을 수신하여 로우 데이터(raw data)를 획득하는 이미지 센서, 상기 로우 데이터를 처리하는 연산부, 그리고 상기 라이트 소스, 상기 이미지 센서 및 상기 연산부와 연결된 컨트롤러를 포함하고, 상기 컨트롤러는 상기 제1 모드에서 특정 시그널의 광원을 조사하도록 상기 라이트 소스를 제어하고, 상기 연산부를 통해 상기 로우 데이터의 변화를 감지한 경우 상기 제2 모드로 전환하고, 상기 제2 모드에서 상기 특정 시그널의 위상을 가변토록 상기 라이트 소스를 제어하고, 상기 로우 데이터를 통해 상기 오브젝트의 깊이 데이터를 생성토록 상기 연산부를 제어하는 것을 특징으로 한다.To achieve the above object, according to an embodiment of the present invention, a TOF (Time Of Flight) camera operating in a first or second mode receives a light source irradiating a light source to an object, and receives light reflected from the object An image sensor for obtaining raw data, an operation unit for processing the raw data, and a controller connected to the light source, the image sensor, and the operation unit, wherein the controller is a light source of a specific signal in the first mode. The light source is controlled to irradiate, and when the change of the raw data is sensed through the operation unit, the device is switched to the second mode, and the light source is controlled to vary the phase of the specific signal in the second mode. , Controlling the operation unit to generate depth data of the object through the raw data Is done.
또한, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따르면, 상기 이미지 센서는 위상이 상이한 시그널이 인가되고, 이에 대응하여 반사된 광을 수신하는 제1 및 제2 포토 게이트를 포함하고, 상기 컨트롤러는 상기 제1 모드에서 상기 제1 포토 게이트를 통해 상기 로우 데이터를 획득하도록 상기 이미지 센서를 제어하고, 상기 제2 모드에서 상기 제1 및 제2 포토 게이트를 통해 상기 로우 데이터를 획득하도록 상기 이미지 센서를 제어하는 것을 특징으로 한다.In addition, according to an embodiment of the present invention for achieving the above object, the image sensor includes first and second photogates to which signals having different phases are applied and receive reflected light corresponding thereto, The controller controls the image sensor to acquire the raw data through the first photo gate in the first mode, and the image to acquire the raw data through the first and second photo gates in the second mode. It is characterized by controlling the sensor.
또한, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따르면, 상기 연산부는 상기 제1 모드에서 획득한 상기 로우 데이터의 인텐서티 변화를 판단하는 서브 연산부, 그리고, 상기 제2 모드에서 획득한 상기 로우 데이터의 인텐서티 비율을 통해 상기 깊이 데이터를 생성하는 메인 연산부를 포함하는 것을 특징으로 한다.In addition, according to an embodiment of the present invention for achieving the above object, the operation unit is a sub-operation unit for determining the intensity change of the raw data obtained in the first mode, and the obtained in the second mode It characterized in that it comprises a main operation unit for generating the depth data through the intensity ratio of the raw data.
또한, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따르면, 상기 컨트롤러는 상기 서브 연산부에서 상기 로우 데이터의 인텐서티 변화를 감지한 경우, 상기 메인 연산부를 웨이크업(wake up)하는 것을 특징으로 한다.In addition, according to an embodiment of the present invention for achieving the above object, when the controller detects an intensity change of the raw data in the sub-operation unit, it is characterized in that the main operation unit wakes up do.
또한, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따르면, 상기 컨트롤러는 상기 제2 모드에서 상기 특정 시그널이 주기적으로 0도, 90도, 180도 및 270도의 위상차를 가지도록 가변하는 것을 특징으로 한다.In addition, according to an embodiment of the present invention for achieving the above object, the controller is characterized in that the specific signal is periodically varied to have a phase difference of 0 degrees, 90 degrees, 180 degrees and 270 degrees in the second mode Is done.
또한, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따르면, 상기 컨트롤러는 상기 제2 모드에서 상기 깊이 데이터가 기 설정 시간 이상 변화하지 않는 경우, 상기 제1 모드로 전환하는 것을 특징으로 한다.In addition, according to an embodiment of the present invention for achieving the above object, the controller is characterized in that when the depth data does not change over a preset time in the second mode, the first mode.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 이동 단말기는, 제1 또는 제2 모드로 작동하며, 광을 조사하는 라이트 소스, 반사된 광을 수신하여 로우 데이터를 획득하는 이미지 센서, 및 상기 로우 데이터를 통해 깊이 데이터를 생성하는 연산부를 포함하는 TOF(Time Of Flight) 카메라, 상기 깊이 데이터에 대응되는 커맨드를 저장하는 메모리, 상기 메모리에 저장된 상기 커맨드에 대응하여 그래픽 피드백을 제공하는 디스플레이, 그리고, 상기 TOF 카메라, 상기 메모리, 및 상기 디스플레이에 연결된 컨트롤러를 포함하고, 상기 컨트롤러는 상기 제1 모드에서 특정 시그널의 광원을 조사토록 상기 라이트 소스를 제어하고, 상기 연산부에서 상기 로우 데이터(raw data)의 변화를 감지한 경우, 상기 제2 모드로 전환하고, 상기 제2 모드에서 상기 특정 시그널의 위상을 가변토록 상기 라이트 소스를 제어하고, 상기 로우 데이터를 통해 상기 깊이 데이터를 획득하도록 상기 TOF 카메라를 제어하고, 상기 제공된 그래픽 피드백이 종료된 경우, 상기 제2 모드에서 상기 제1 모드로 전환하는 것을 특징으로 한다.A mobile terminal according to an embodiment of the present invention for achieving the above object operates in a first or second mode, a light source for irradiating light, an image sensor for receiving reflected light, and obtaining raw data, and A TOF (Time Of Flight) camera including a calculation unit for generating depth data through the raw data, a memory storing a command corresponding to the depth data, a display providing graphic feedback in response to the command stored in the memory, The controller includes a TOF camera, a memory, and a controller connected to the display. The controller controls the light source to irradiate a light source of a specific signal in the first mode, and the raw data is calculated by the operation unit. ), If it detects a change, it switches to the second mode, and the specific signal in the second mode. Control the light source to change the phase of the, control the TOF camera to obtain the depth data through the raw data, and when the provided graphic feedback ends, switch from the second mode to the first mode It is characterized by.
또한, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따르면, 상기 이미지 센서는 기 설정 프레임 동안 위상이 상이한 시그널이 인가되고, 이에 대응하여 상기 반사된 광을 수신하는 제1 및 제2 포토 게이트를 포함하고, 상기 제 1 모드에서 상기 로우 데이터는 상기 제1 포토 게이트를 통해 획득되고, 상기 제2 모드에서 상기 로우 데이터는 상기 제1 및 제2 포토 게이트를 통해 획득되는 것을 특징으로 한다.In addition, according to an embodiment of the present invention for achieving the above object, the image sensor is applied with a signal having a different phase during a preset frame, and correspondingly, first and second photogates receiving the reflected light And in the first mode, the raw data is obtained through the first photo gate, and in the second mode, the raw data is obtained through the first and second photo gates.
또한, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따르면, 상기 연산부는 상기 제1 모드에서 획득한 로우 데이터의 인텐서티 변화를 판단하는 서브 연산부, 상기 제2 모드에서 획득한 상기 로우 데이터의 인텐서티 비율을 연산하고, 이를 통해 상기 깊이 데이터를 생성하는 메인 연산부를 포함하는 것을 특징으로 한다.In addition, according to an embodiment of the present invention for achieving the above object, the operation unit is a sub-operation unit for determining the intensity change of the raw data obtained in the first mode, the raw data obtained in the second mode It characterized in that it comprises a main operation unit for calculating the intensity ratio, and thereby generating the depth data.
또한, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따르면, 상기 컨트롤러는 상기 서브 연산부에서 상기 로우 데이터의 인텐서티 변화를 감지한 경우, 상기 메인 연산부를 웨이크업(wake up)하는 것을 특징으로 한다.In addition, according to an embodiment of the present invention for achieving the above object, when the controller detects an intensity change of the raw data in the sub-operation unit, it is characterized in that the main operation unit wakes up do.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따라 TOF(Time of Flight) 카메라를 포함하는 이동 단말기를 제어하는 방법에 있어서, 제1 모드로 상기 TOF(Time Of Flight) 카메라를 작동하여, 움직이는 오브젝트의 존재를 확인하는 단계, 상기 제1 모드에서 움직이는 오브젝트의 존재가 확인된 경우, 제2 모드로 상기 TOF 카메라를 작동하여 상기 오브젝트의 깊이 데이터를 획득하는 단계를 포함하고, 상기 제1 모드는 상기 TOF 카메라에서 특정 시그널의 광원을 오브젝트에 조사하고, 상기 오브젝트에 반사된 광원을 수신하여 로우 데이터(raw data)를 획득하고, 상기 로우 데이터의 변화를 감지하여 상기 움직이는 오브젝트의 존재를 판단하고, 상기 제2 모드는 상기 TOF 카메라에서 상기 특정 시그널의 위상을 가변하여 광원을 조사하고, 상기 오브젝트에 반사된 광원을 수신하여 로우 데이터를 획득하고, 상기 로우 데이터를 통해 상기 오브젝트의 깊이 데이터를 획득하는 것을 특징으로 한다.A method of controlling a mobile terminal including a time of flight (TOF) camera according to an embodiment of the present invention for achieving the above object, by operating the time of flight (TOF) camera in a first mode, moving Checking the existence of the object, and if the existence of the moving object in the first mode is confirmed, operating the TOF camera in a second mode to obtain depth data of the object, wherein the first mode includes The TOF camera irradiates a light source of a specific signal to an object, receives a light source reflected by the object, obtains raw data, detects a change in the raw data, determines the existence of the moving object, The second mode irradiates a light source by varying the phase of the specific signal in the TOF camera, and the light source reflected by the object Receiving data to obtain a row, and is characterized in that for obtaining the depth data of the objects through the raw data.
또한, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따르면, 상기 깊이 데이터에 대응하여 그래픽 피드백을 제공하는 단계, 그리고, 상기 제공된 그래픽 피드백이 종료된 경우, 상기 제2 모드에서 상기 제1모드로 전환하는 단계를 포함하는 것을 특징으로 한다.In addition, according to an embodiment of the present invention for achieving the above object, providing a graphic feedback corresponding to the depth data, and when the provided graphic feedback is terminated, the first mode in the second mode It characterized in that it comprises a step of switching to.
본 발명에 따른 이동 단말기 및 그 제어방법의 효과에 대해 설명하면 다음과 같다.The effects of the mobile terminal and its control method according to the present invention are as follows.
본 발명의 실시 예들 중 적어도 하나에 의하면, 사용자는 터치 입력 대신 사용자의 움직임을 통해 이동 단말기와 인터랙션할 수 있다.According to at least one of the embodiments of the present invention, a user may interact with a mobile terminal through a user's movement instead of a touch input.
본 발명의 실시 예들 중 적어도 하나에 의하면, 이동 단말기에 포함되는 TOF 카메라는 모드를 달리하여 전력이 과도하게 소모되는 것을 방직할 수 있다.According to at least one of the embodiments of the present invention, the TOF camera included in the mobile terminal may be operated in different modes, and thus may consume excessive power.
본 발명의 실시 예들 중 적어도 하나에 의하면, 이동 단말기에 포함되는 TOF 카메라를 통해 사용자의 유무를 저전력으로 확인하고, 깊이 이미지를 획득하여 전력이 과도하게 소모되는 것을 방지할 수 있다.According to at least one of the embodiments of the present invention, the presence or absence of a user may be checked with low power through a TOF camera included in a mobile terminal, and a depth image may be acquired to prevent excessive power consumption.
도 1a는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이다.1A is a block diagram illustrating a mobile terminal related to the present invention.
도 1b 및 1c는 본 발명과 관련된 이동 단말기의 일 예를 서로 다른 방향에서 바라본 개념도이다.1B and 1C are conceptual views of an example of a mobile terminal related to the present invention viewed from different directions.
도 2 내지 6는 TOF 카메라의 구동 방식을 설명하기 위한 도면이다.2 to 6 are views for explaining the driving method of the TOF camera.
도 7은 기존 TOF 카메라(200)의 문제점과 이를 개선한 본 발명의 일 실시예에 의한 TOF 카메라의 효과를 설명하기 위한 도면이다.7 is a view for explaining the problem of the existing TOF camera 200 and the effect of the TOF camera according to an embodiment of the present invention which improves the problem.
도 8은 본 발명의 일 실시예에 의한 TOF 카메라의 구성을 설명하기 위한 개략도 이다.8 is a schematic view for explaining the configuration of a TOF camera according to an embodiment of the present invention.
도 9은 본 발명의 일 실시예에 의한 TOF 카메라를 제어하는 제어방법을 설명한 플로우 차트이다.9 is a flowchart illustrating a control method for controlling a TOF camera according to an embodiment of the present invention.
도 10는 도 9에서 프레임을 비교하여 오브젝트의 유무를 판단하는 방법을 설명하기 위한 플로우 차트이다.FIG. 10 is a flowchart illustrating a method of determining the presence or absence of an object by comparing frames in FIG. 9.
도 11은 도 9를 설명하기 위한 도면이다.11 is a view for explaining FIG. 9.
도 12는 본 발명의 다른 실시예에 의한 TOF 카메라의 구성을 설명하기 위한 개략도 이다.12 is a schematic diagram for explaining the configuration of a TOF camera according to another embodiment of the present invention.
도 13는 기존의 깊이 카메라가 획득한 깊이 이미지를 통해 사용자의 손가락을 인지하는 방법 및 문제점을 설명하기 위한 도면이다.13 is a view for explaining a method and a problem of recognizing a user's finger through a depth image acquired by a conventional depth camera.
도 14은 본 발명의 일 실시예에 의한 이동 단말기가 깊이 카메라를 통해 사용자의 손이 타겟팅하는 지점을 인지하는 방법을 개략적으로 설명하기 위한 도면이다.14 is a diagram for schematically explaining a method in which a mobile terminal according to an embodiment of the present invention recognizes a point targeted by a user's hand through a depth camera.
도 15는 도 14을 설명하기 위한 플로우 차트이다.15 is a flow chart for explaining FIG. 14.
도 16는 도 15에서 인터랙션 영역(Interaction Region)을 설명하기 위한 도면이다.FIG. 16 is a view for explaining an interaction region in FIG. 15.
도 17은 도 16의 인터랙션 영역에서 획득된 깊이 이미지를 설명하기 위한 도면이다.17 is a diagram for describing a depth image acquired in the interaction area of FIG. 16.
도 18은 도 15에서 사용자의 손에 대응되는 세그먼트 트리(Segment Tree)를 구현하는 방법을 설명하기 위한 플로우 차트이다.18 is a flowchart illustrating a method of implementing a segment tree corresponding to a user's hand in FIG. 15.
도 19 내지 22은 도 18을 설명하기 위한 도면이다. 19 to 22 are views for explaining FIG. 18.
도 23는 도 15에서 세그먼트 트리를 통해 유효 단부를 결정하는 방법을 설명하기 위한 플로우 차트이다.23 is a flowchart illustrating a method of determining an effective end through a segment tree in FIG. 15.
도 24은 도 23를 설명하기 위한 도면이다.24 is a view for explaining FIG. 23.
도 25는 도 15에서 결정된 유효 단부에 대응되는 타켓팅 지점 및 깊이를 추출하는 방법을 설명하기 위한 플로우 차트이다.25 is a flowchart illustrating a method of extracting a targeting point and depth corresponding to the effective end determined in FIG. 15.
도 26 및 도 27은 도 25를 설명하기 위한 도면이다.26 and 27 are views for explaining FIG. 25.
도 28 내지 30는 도 15를 통해 추출된 타게팅 지점에 대응하여 제공되는 비디오 피드백을 설명하기 위한 도면이다.28 to 30 are diagrams for explaining video feedback provided corresponding to the targeting point extracted through FIG. 15.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, exemplary embodiments disclosed herein will be described in detail with reference to the accompanying drawings, but the same or similar elements are assigned the same reference numbers regardless of the reference numerals, and overlapping descriptions thereof will be omitted. The suffixes "modules" and "parts" for the components used in the following description are given or mixed only considering the ease of writing the specification, and do not have meanings or roles distinguished from each other in themselves. In addition, in describing the embodiments disclosed in the present specification, when it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed herein, detailed descriptions thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical spirit disclosed in the specification is not limited by the accompanying drawings, and all modifications included in the spirit and technical scope of the present invention , It should be understood to include equivalents or substitutes.
본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다.Mobile terminals described herein include mobile phones, smart phones, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), navigation, and slate PCs. , Tablet PC (tablet PC), ultrabook (ultrabook), wearable device (wearable device, for example, a watch-type terminal (smartwatch), glass-type terminal (smart glass), HMD (head mounted display), etc. may be included have.
그러나, 본 명세서에 기재된 실시 예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 해당 기술 분야의 통상의 기술자라면 쉽게 알 수 있을 것이다.However, the configuration according to the embodiment described in the present specification may be applied to a fixed terminal such as a digital TV, a desktop computer, and a digital signage, except when applicable only to a mobile terminal. It is easy for a technician to know.
도 1a 내지 도 1c를 참조하면, 도 1a는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이다.1A to 1C, FIG. 1A is a block diagram illustrating a mobile terminal related to the present invention.
도 1b 및 1c는 본 발명과 관련된 이동 단말기의 일 예를 서로 다른 방향에서 바라본 개념도이다.1B and 1C are conceptual views of an example of a mobile terminal related to the present invention viewed from different directions.
상기 이동 단말기(100)는 무선 통신부(110), 입력부(120), 센싱부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1a에 도시된 구성요소들은 이동 단말기(100)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 이동 단말기(100)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.The mobile terminal 100 includes a wireless communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, an interface unit 160, a memory 170, a control unit 180, and a power supply unit 190 ) And the like. The components shown in FIG. 1A are not essential for implementing the mobile terminal 100, so the mobile terminal 100 described herein may have more or fewer components than those listed above. have.
보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 이동 단말기(100)와 무선 통신 시스템 사이, 이동 단말기(100)와 다른 이동 단말기(100) 사이, 또는 이동 단말기(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 이동 단말기(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.More specifically, the wireless communication unit 110 among the components, between the mobile terminal 100 and the wireless communication system, between the mobile terminal 100 and another mobile terminal 100, or the mobile terminal 100 and an external server It may include one or more modules that enable wireless communication between. Also, the wireless communication unit 110 may include one or more modules connecting the mobile terminal 100 to one or more networks.
이러한 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치 정보 모듈(115) 중 적어도 하나를 포함할 수 있다.The wireless communication unit 110 may include at least one of a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short-range communication module 114, and a location information module 115. .
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The input unit 120 may include a camera 121 for inputting a video signal or a video input unit, a microphone for inputting an audio signal (microphone 122), or an audio input unit, a user input unit 123 for receiving information from a user, for example , A touch key, a push key, and the like. The voice data or image data collected by the input unit 120 may be analyzed and processed by a user's control command.
센싱부(140)는 이동 단말기(100) 내 정보, 이동 단말기(100)를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 이동 단말기(100)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.The sensing unit 140 may include one or more sensors for sensing at least one of information in the mobile terminal 100, surrounding environment information surrounding the mobile terminal 100, and user information. For example, the sensing unit 140 includes a proximity sensor 141, an illumination sensor 142, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity G-sensor, gyroscope sensor, motion sensor, RGB sensor, infrared sensor (IR sensor), fingerprint scan sensor, ultrasonic sensor , Optical sensor (e.g., camera (see 121)), microphone (refer to 122), battery gauge, environmental sensor (e.g. barometer, hygrometer, thermometer, radioactivity sensor, Thermal sensing sensor, gas sensing sensor, etc.), chemical sensors (eg, electronic nose, health care sensor, biometric sensor, etc.). Meanwhile, the mobile terminal 100 disclosed in this specification may combine and use information sensed by at least two or more of these sensors.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152), 햅틱 모듈(153), 광 출력부(154) 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 이동 단말기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 이동 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit 150 is for generating output related to vision, hearing, or tactile sense, and includes at least one of a display unit 151, an audio output unit 152, a haptic module 153, and an optical output unit 154 can do. The display unit 151 may form a mutual layer structure with the touch sensor or may be integrally formed, thereby realizing a touch screen. The touch screen may function as a user input unit 123 that provides an input interface between the mobile terminal 100 and the user, and at the same time, provide an output interface between the mobile terminal 100 and the user.
인터페이스부(160)는 이동 단말기(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 이동 단말기(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.The interface unit 160 serves as a passage with various types of external devices connected to the mobile terminal 100. The interface unit 160 connects a device equipped with a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, and an identification module. It may include at least one of a port, an audio input / output (I / O) port, a video input / output (I / O) port, and an earphone port. In the mobile terminal 100, in response to an external device being connected to the interface unit 160, appropriate control related to the connected external device may be performed.
또한, 메모리(170)는 이동 단말기(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 이동 단말기(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 이동 단말기(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 이동 단말기(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 이동 단말기(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 이동 단말기(100) 상에 설치되어, 제어부(180)에 의하여 상기 이동 단말기(100)의 동작(또는 기능)을 수행하도록 구동될 수 있다.Also, the memory 170 stores data supporting various functions of the mobile terminal 100. The memory 170 may store a number of application programs (application programs) that are driven in the mobile terminal 100, data for operation of the mobile terminal 100, and instructions. At least some of these applications may be downloaded from external servers via wireless communication. In addition, at least some of these application programs may exist on the mobile terminal 100 from the time of shipment for basic functions of the mobile terminal 100 (for example, an incoming call, an outgoing function, a message reception, and an outgoing function). Meanwhile, the application program may be stored in the memory 170 and installed on the mobile terminal 100 to be driven by the controller 180 to perform an operation (or function) of the mobile terminal 100.
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.The controller 180 controls the overall operation of the mobile terminal 100 in addition to the operations related to the application program. The controller 180 may provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in the memory 170.
또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1a와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 이동 단말기(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.In addition, the controller 180 may control at least some of the components discussed with reference to FIG. 1A to drive an application program stored in the memory 170. Furthermore, the controller 180 may operate by combining at least two or more of the components included in the mobile terminal 100 for driving the application program.
전원 공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 이동 단말기(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원 공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.Under the control of the controller 180, the power supply unit 190 receives external power and internal power to supply power to each component included in the mobile terminal 100. The power supply unit 190 includes a battery, and the battery may be a built-in battery or a replaceable battery.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 이동 단말기(100)의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 이동 단말기(100)의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 이동 단말기(100) 상에서 구현될 수 있다.At least some of the components may operate in cooperation with each other to implement an operation, control, or control method of the mobile terminal 100 according to various embodiments described below. Also, the operation, control, or control method of the mobile terminal 100 may be implemented on the mobile terminal 100 by driving at least one application program stored in the memory 170.
입력부(120)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 영상 정보의 입력을 위하여, 이동 단말기(100) 는 하나 또는 복수의 카메라(121)를 구비할 수 있다.The input unit 120 is for input of image information (or signals), audio information (or signals), data, or information input from a user. For input of image information, the mobile terminal 100 may include one or more A camera 121 may be provided.
카메라(121)는 본 발명의 이동 단말기(100)의 일부가 될 수도 있고, 또는 이동 단말기(100)를 포함하는 구성이 될 수 있다. 즉, 카메라(121) 및 본 발명의 이동 단말기(100)는 적어도 일부의 공통된 특징 또는 구성을 포함할 수 있다.The camera 121 may be part of the mobile terminal 100 of the present invention, or may be configured to include the mobile terminal 100. That is, the camera 121 and the mobile terminal 100 of the present invention may include at least some common features or configurations.
카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시되거나 메모리(170)에 저장될 수 있다. 한편, 이동 단말기(100)에 구비되는 복수의 카메라(121)는 매트릭스 구조를 이루도록 배치될 수 있으며, 이와 같이 매트릭스 구조를 이루는 카메라(121)를 통하여, 이동 단말기(100)에는 다양한 각도 또는 초점을 갖는 복수의 영상정보가 입력될 수 있다. 또한, 복수의 카메라(121)는 입체영상을 구현하기 위한 좌 영상 및 우 영상을 획득하도록, 스트레오 구조로 배치될 수 있다.The camera 121 processes image frames such as still images or moving images obtained by an image sensor in a video call mode or a shooting mode. The processed image frame may be displayed on the display unit 151 or stored in the memory 170. Meanwhile, the plurality of cameras 121 provided in the mobile terminal 100 may be arranged to form a matrix structure, and through the camera 121 forming the matrix structure, various angles or focuses may be applied to the mobile terminal 100. A plurality of image information may be input. In addition, the plurality of cameras 121 may be arranged in a stereo structure to acquire left and right images for realizing a stereoscopic image.
한편, 센싱부(140)는 이동 단말기(100) 내 정보, 이동 단말기(100)를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하고, 이에 대응하는 센싱 신호를 발생시킨다. 제어부(180)는 이러한 센싱 신호에 기초하여, 이동 단말기(100)의 구동 또는 동작을 제어하거나, 이동 단말기(100)에 설치된 응용 프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행 할 수 있다. 센싱부(140)에 포함될 수 있는 다양한 센서 중 대표적인 센서들의 대하여, 보다 구체적으로 살펴본다.Meanwhile, the sensing unit 140 senses at least one of information in the mobile terminal 100, surrounding environment information surrounding the mobile terminal 100, and user information, and generates a sensing signal corresponding thereto. The controller 180 may control driving or operation of the mobile terminal 100 based on the sensing signal, or perform data processing, function, or operation related to an application program installed in the mobile terminal 100. Representative sensors among various sensors that may be included in the sensing unit 140 will be described in more detail.
먼저, 근접 센서(141)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선 등을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 이러한 근접 센서(141)는 위에서 살펴본 터치 스크린에 의해 감싸지는 이동 단말기(100)의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다.First, the proximity sensor 141 refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object in the vicinity using mechanical force or infrared rays, etc., without mechanical contact. The proximity sensor 141 may be provided with the proximity sensor 141 in the inner region of the mobile terminal 100 wrapped by the touch screen described above or in the vicinity of the touch screen.
근접 센서(141)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전 용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 터치 스크린이 정전식인 경우에, 근접 센서(141)는 전도성을 갖는 물체의 근접에 따른 전계의 변화로 상기 물체의 근접을 검출하도록 구성될 수 있다. 이 경우 터치 스크린(또는 터치 센서) 자체가 근접 센서로 분류될 수 있다.Examples of the proximity sensor 141 include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive type proximity sensor, a magnetic type proximity sensor, and an infrared proximity sensor. When the touch screen is capacitive, the proximity sensor 141 may be configured to detect the proximity of the object by a change in electric field according to the proximity of the conductive object. In this case, the touch screen (or touch sensor) itself may be classified as a proximity sensor.
한편, 설명의 편의를 위해, 터치 스크린 상에 물체가 접촉되지 않으면서 근접되어 상기 물체가 상기 터치 스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 명명하고, 상기 터치 스크린 상에 물체가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 명명한다. 상기 터치 스크린 상에서 물체가 근접 터치 되는 위치라 함은, 상기 물체가 근접 터치될 때 상기 물체가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다. 상기 근접 센서(141)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지할 수 있다. 한편, 제어부(180)는 위와 같이, 근접 센서(141)를 통해 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 데이터(또는 정보)를 처리하며, 나아가, 처리된 데이터에 대응하는 시각적인 정보를 터치 스크린상에 출력시킬 수 있다. 나아가, 제어부(180)는, 터치 스크린 상의 동일한 지점에 대한 터치가, 근접 터치인지 또는 접촉 터치인지에 따라, 서로 다른 동작 또는 데이터(또는 정보)가 처리되도록 이동 단말기(100)를 제어할 수 있다.On the other hand, for convenience of description, the act of allowing an object to be recognized as being located on the touch screen without being touched on the touch screen is called a “proximity touch”, and the touch The act of actually contacting an object on the screen is called "contact touch". The location where an object is touched close on the touch screen means a location where the object is perpendicular to the touch screen when the object is touched close. The proximity sensor 141 may detect a proximity touch and a proximity touch pattern (eg, proximity touch distance, proximity touch direction, proximity touch speed, proximity touch time, proximity touch position, proximity touch movement state, etc.). have. Meanwhile, as described above, the controller 180 processes data (or information) corresponding to the proximity touch operation and the proximity touch pattern detected through the proximity sensor 141, and further, visual information corresponding to the processed data. It can be output on the touch screen. Furthermore, the controller 180 may control the mobile terminal 100 such that different operations or data (or information) are processed according to whether a touch on the same point on the touch screen is a proximity touch or a touch touch. .
터치 센서는 저항막 방식, 정전용량 방식, 적외선 방식, 초음파 방식, 자기장 방식 등 여러 가지 터치방식 중 적어도 하나를 이용하여 터치 스크린(또는 디스플레이부(151))에 가해지는 터치(또는 터치입력)을 감지한다.The touch sensor uses a touch (or touch input) applied to the touch screen (or the display unit 151) using at least one of various touch methods such as a resistive film method, a capacitive method, an infrared method, an ultrasonic method, and a magnetic field method. Detect.
일 예로서, 터치 센서는, 터치 스크린의 특정 부위에 가해진 압력 또는 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는, 터치 스크린 상에 터치를 가하는 터치 대상체가 터치 센서 상에 터치 되는 위치, 면적, 터치 시의 압력, 터치 시의 정전 용량 등을 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치 센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다. As an example, the touch sensor may be configured to convert a change in pressure applied to a specific part of the touch screen or capacitance generated in the specific part into an electrical input signal. The touch sensor may be configured to detect a position, an area, a pressure when a touch is touched, a capacitance when a touch object is applied on the touch screen, and the like. Here, the touch object is an object that applies a touch to the touch sensor, and may be, for example, a finger, a touch pen or a stylus pen, a pointer, and the like.
이와 같이, 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다. 여기에서, 터치 제어기는, 제어부(180)와 별도의 구성요소일 수 있고, 제어부(180) 자체일 수 있다. As such, when there is a touch input to the touch sensor, the signal (s) corresponding thereto is sent to the touch controller. The touch controller processes the signal (s) and then transmits corresponding data to the controller 180. Accordingly, the control unit 180 can know which area of the display unit 151 has been touched, and the like. Here, the touch controller may be a separate component from the controller 180, or may be the controller 180 itself.
한편, 제어부(180)는, 터치 스크린(또는 터치 스크린 이외에 구비된 터치키)을 터치하는, 터치 대상체의 종류에 따라 서로 다른 제어를 수행하거나, 동일한 제어를 수행할 수 있다. 터치 대상체의 종류에 따라 서로 다른 제어를 수행할지 또는 동일한 제어를 수행할 지는, 현재 이동 단말기(100)의 동작상태 또는 실행 중인 응용 프로그램에 따라 결정될 수 있다. Meanwhile, the controller 180 may perform different controls or perform the same control according to the type of the touch object that touches the touch screen (or a touch key provided in addition to the touch screen). Whether to perform different control or the same control according to the type of the touch object, it may be determined according to an operating state of the current mobile terminal 100 or an application program being executed.
한편, 위에서 살펴본 터치 센서 및 근접 센서는 독립적으로 또는 조합되어, 터치 스크린에 대한 숏(또는 탭) 터치(short touch), 롱 터치(long touch), 멀티 터치(multi touch), 드래그 터치(drag touch), 플리크 터치(flick touch), 핀치-인 터치(pinch-in touch), 핀치-아웃 터치(pinch-out 터치), 스와이프(swype) 터치, 호버링(hovering) 터치 등과 같은, 다양한 방식의 터치를 센싱할 수 있다.On the other hand, the touch sensors and proximity sensors described above are independently or in combination, such as short (or tap) touch on the touch screen, long touch, multi touch, drag touch ), Flick touch, pinch-in touch, pinch-out touch, swipe touch, hovering touch, etc. You can sense the touch.
초음파 센서는 초음파를 이용하여, 감지대상의 위치정보를 인식할 수 있다. 한편 제어부(180)는 광 센서와 복수의 초음파 센서로부터 감지되는 정보를 통해, 파동 발생원의 위치를 산출하는 것이 가능하다. 파동 발생원의 위치는, 광이 초음파보다 매우 빠른 성질, 즉, 광이 광 센서에 도달하는 시간이 초음파가 초음파 센서에 도달하는 시간보다 매우 빠름을 이용하여, 산출될 수 있다. 보다 구체적으로 광을 기준 신호로 초음파가 도달하는 시간과의 시간차를 이용하여 파동 발생원의 위치가 산출될 수 있다.The ultrasonic sensor may recognize location information of a sensing target using ultrasonic waves. Meanwhile, the control unit 180 may calculate the position of the wave generating source through information sensed by the optical sensor and the plurality of ultrasonic sensors. The position of the wave generator can be calculated by using a property in which light is much faster than ultrasound, that is, a time when light reaches the optical sensor is much faster than a time when the ultrasound reaches the ultrasonic sensor. More specifically, the position of the wave generating source may be calculated by using a time difference from the time at which ultrasonic waves reach the light as a reference signal.
한편, 입력부(120)의 구성으로 살펴본, 카메라(121)는 카메라 센서(예를 들어, CCD, CMOS 등), 포토 센서(또는 이미지 센서) 및 레이저 센서 중 적어도 하나를 포함한다.On the other hand, the camera 121, as seen with the configuration of the input unit 120, includes at least one of a camera sensor (eg, CCD, CMOS, etc.), a photo sensor (or image sensor), and a laser sensor.
카메라(121)와 레이저 센서는 서로 조합되어, 3차원 입체영상에 대한 감지대상의 터치를 감지할 수 있다. 포토 센서는 디스플레이 소자에 적층될 수 있는데, 이러한 포토 센서는 터치 스크린에 근접한 감지대상의 움직임을 스캐닝하도록 이루어진다. 보다 구체적으로, 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호를 이용하여 포토 센서 위에 올려지는 내용물을 스캔한다. 즉, 포토 센서는 빛의 변화량에 따른 감지대상의 좌표 계산을 수행하며, 이를 통하여 감지대상의 위치정보가 획득될 수 있다.The camera 121 and the laser sensor may be combined with each other to detect a touch of a sensing target for a 3D stereoscopic image. The photo sensor may be stacked on the display element, which is configured to scan the movement of the sensing object close to the touch screen. More specifically, the photo sensor mounts photo diodes and TRs (transistors) in rows / columns to scan the contents loaded on the photo sensor using electrical signals that change according to the amount of light applied to the photo diode. That is, the photo sensor performs coordinate calculation of the sensing object according to the change amount of light, and through this, location information of the sensing object may be obtained.
도 1 b 및 1c를 참조하면, 개시된 이동 단말기(100)는 바 형태의 단말기 바디를 구비하고 있다. 다만, 본 발명은 여기에 한정되지 않고 와치 타입, 클립 타입, 글래스 타입 또는 2 이상의 바디들이 상대 이동 가능하게 결합되는 폴더 타입, 플립 타입, 슬라이드 타입, 스윙 타입, 스위블 타입 등 다양한 구조에 적용될 수 있다. 광학 장치의 특정 유형에 관련될 것이나, 광학 장치의 특정유형에 관한 설명은 다른 타입의 광학 장치에 일반적으로 적용될 수 있다.1B and 1C, the disclosed mobile terminal 100 has a bar-shaped terminal body. However, the present invention is not limited to this, and may be applied to various structures such as a watch type, a clip type, a glass type, or a folder type, a flip type, a slide type, a swing type, a swivel type to which two or more bodies are movably coupled. . Although it will relate to a particular type of optical device, the description of the specific type of optical device can be applied to other types of optical devices in general.
여기에서, 단말기 바디는 이동 단말기(100)를 적어도 하나의 집합체로 보아 이를 지칭하는 개념으로 이해될 수 있다.Here, the terminal body may be understood as a concept of referring to the mobile terminal 100 as at least one aggregate.
이동 단말기(100)는 외관을 이루는 케이스(예를 들면, 프레임, 하우징, 커버 등)를 포함한다. 도시된 바와 같이, 이동 단말기(100)는 프론트 케이스(101)와 리어 케이스(102)를 포함할 수 있다. 프론트 케이스(101)와 리어 케이스(102)의 결합에 의해 형성되는 내부공간에는 각종 전자부품들이 배치된다. 프론트 케이스(101)와 리어 케이스(102) 사이에는 적어도 하나의 미들 케이스가 추가로 배치될 수 있다.The mobile terminal 100 includes a case (for example, a frame, a housing, a cover, etc.) forming an exterior. As illustrated, the mobile terminal 100 may include a front case 101 and a rear case 102. Various electronic components are disposed in the inner space formed by the combination of the front case 101 and the rear case 102. At least one middle case may be additionally disposed between the front case 101 and the rear case 102.
단말기 바디의 전면에는 디스플레이부(151)가 배치되어 정보를 출력할 수 있다. 도시된 바와 같이, 디스플레이부(151)의 윈도우(151a)는 프론트 케이스(101)에 장착되어 프론트 케이스(101)와 함께 단말기 바디의 전면을 형성할 수 있다.The display unit 151 is disposed on the front of the terminal body to output information. As illustrated, the window 151a of the display unit 151 is mounted on the front case 101 to form the front surface of the terminal body together with the front case 101.
경우에 따라서, 리어 케이스(102)에도 전자부품이 장착될 수 있다. 리어 케이스(102)에 장착 가능한 전자부품은 착탈 가능한 배터리, 식별 모듈, 메모리 카드 등이 있다. 이 경우, 리어 케이스(102)에는 장착된 전자부품을 덮기 위한 후면커버(103)가 착탈 가능하게 결합될 수 있다. 따라서, 후면 커버(103)가 리어 케이스(102)로부터 분리되면, 리어 케이스(102)에 장착된 전자부품은 외부로 노출된다.In some cases, electronic components may also be mounted on the rear case 102. Electronic components that can be mounted on the rear case 102 include a removable battery, an identification module, and a memory card. In this case, the rear case 102 may be detachably coupled to the rear cover 103 for covering the mounted electronic components. Therefore, when the rear cover 103 is separated from the rear case 102, the electronic components mounted on the rear case 102 are exposed to the outside.
도시된 바와 같이, 후면커버(103)가 리어 케이스(102)에 결합되면, 리어 케이스(102)의 측면 일부가 노출될 수 있다. 경우에 따라서, 상기 결합시 리어 케이스(102)는 후면커버(103)에 의해 완전히 가려질 수도 있다. 한편, 후면커버(103)에는 카메라(121b)나 음향 출력부(152b)를 외부로 노출시키기 위한 개구부가 구비될 수 있다.As shown, when the rear cover 103 is coupled to the rear case 102, a part of the side surface of the rear case 102 may be exposed. In some cases, the rear case 102 may be completely covered by the rear cover 103 when the coupling is performed. Meanwhile, an opening for exposing the camera 121b or the sound output unit 152b to the outside may be provided in the rear cover 103.
이러한 케이스들(101, 102, 103)은 합성수지를 사출하여 형성되거나 금속, 예를 들어 스테인레스 스틸(STS), 알루미늄(Al), 티타늄(Ti) 등으로 형성될 수도 있다.These cases (101, 102, 103) may be formed by injection of synthetic resin or may be formed of metal, for example, stainless steel (STS), aluminum (Al), titanium (Ti), or the like.
이동 단말기(100)는, 복수의 케이스가 각종 전자부품들을 수용하는 내부 공간을 마련하는 위의 예와 달리, 하나의 케이스가 상기 내부 공간을 마련하도록 구성될 수도 있다. 이 경우, 합성수지 또는 금속이 측면에서 후면으로 이어지는 유니 바디의 이동 단말기(100)가 구현될 수 있다.The mobile terminal 100 may be configured such that one case provides the inner space, unlike the above example in which a plurality of cases provide an inner space accommodating various electronic components. In this case, the mobile terminal 100 of a unibody in which synthetic resin or metal extends from the side to the rear may be implemented.
한편, 이동 단말기(100)는 단말기 바디 내부로 물이 스며들지 않도록 하는 방수부(미도시)를 구비할 수 있다. 예를 들어, 방수부는 윈도우(151a)와 프론트 케이스(101) 사이, 프론트 케이스(101)와 리어 케이스(102) 사이 또는 리어 케이스(102)와 후면 커버(103) 사이에 구비되어, 이들의 결합 시 내부 공간을 밀폐하는 방수부재를 포함할 수 있다.On the other hand, the mobile terminal 100 may be provided with a waterproof portion (not shown) to prevent water from entering the terminal body. For example, the waterproof portion is provided between the window 151a and the front case 101, between the front case 101 and the rear case 102, or between the rear case 102 and the rear cover 103, the combination thereof It may include a waterproof member for sealing the interior space of the city.
이동 단말기(100)에는 디스플레이부(151), 제1 및 제2 음향 출력부(152a, 152b), 근접 센서(141), 조도 센서(142), 광 출력부(154), 제1 및 제2 카메라(121a, 121b), 제1 및 제2 조작유닛(123a, 123b), 마이크로폰(122), 인터페이스부(160) 등이 구비될 수 있다.The mobile terminal 100 includes a display unit 151, first and second sound output units 152a and 152b, a proximity sensor 141, an illuminance sensor 142, a light output unit 154, the first and second units Cameras 121a and 121b, first and second operation units 123a and 123b, a microphone 122, and an interface unit 160 may be provided.
이하에서는, 도 1b 및 도 1c에 도시된 바와 같이, 단말기 바디의 전면에 디스플레이부(151), 제1 음향 출력부(152a), 근접 센서(141), 조도 센서(142), 광 출력부(154), 제1 카메라(121a) 및 제1 조작유닛(123a)이 배치되고, 단말기 바디의 측면에 제2 조작유닛(123b), 마이크로폰(122) 및 인터페이스부(160)이 배치되며, 단말기 바디의 후면에 제2 음향 출력부(152b) 및 제2 카메라(121b)가 배치된 이동 단말기(100)를 일 예로 들어 설명한다.Hereinafter, as illustrated in FIGS. 1B and 1C, a display unit 151, a first sound output unit 152a, a proximity sensor 141, an illuminance sensor 142, and an optical output unit on the front surface of the terminal body ( 154), the first camera (121a) and the first operation unit (123a) is disposed, the second operation unit (123b), the microphone 122 and the interface unit 160 is disposed on the side of the terminal body, the terminal body The mobile terminal 100 in which the second sound output unit 152b and the second camera 121b are disposed on the rear surface of the mobile terminal 100 will be described as an example.
다만, 이들 구성은 이러한 배치에 한정되는 것은 아니다. 이들 구성은 필요에 따라 제외 또는 대체되거나, 다른 면에 배치될 수 있다. 예를 들어, 단말기 바디의 전면에는 제1 조작유닛(123a)이 구비되지 않을 수 있으며, 제2 음향 출력부(152b)는 단말기 바디의 후면이 아닌 단말기 바디의 측면에 구비될 수 있다.However, these configurations are not limited to this arrangement. These configurations may be excluded or replaced as necessary, or may be disposed on different sides. For example, the first operation unit 123a may not be provided on the front of the terminal body, and the second sound output unit 152b may be provided on the side of the terminal body rather than the rear of the terminal body.
디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(151)는 이동 단말기(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.The display unit 151 displays (outputs) information processed by the mobile terminal 100. For example, the display unit 151 may display execution screen information of an application program driven by the mobile terminal 100, or UI (User Interface) or GUI (Graphic User Interface) information according to the execution screen information. .
디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display unit 151 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display (flexible). display), a three-dimensional display (3D display), and an electronic ink display (e-ink display).
또한, 디스플레이부(151)는 이동 단말기(100)의 구현 형태에 따라 2개 이상 존재할 수 있다. 이 경우, 이동 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.Also, two or more display units 151 may be present depending on the implementation form of the mobile terminal 100. In this case, a plurality of display units may be spaced apart from one surface or integrally disposed in the mobile terminal 100, or may be respectively disposed on different surfaces.
디스플레이부(151)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있도록, 디스플레이부(151)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. 이를 이용하여, 디스플레이부(151)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, 제어부(180)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 이루어질 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.The display unit 151 may include a touch sensor that senses a touch on the display unit 151 so that a control command can be input by a touch method. Using this, when a touch is made to the display unit 151, the touch sensor detects the touch, and the controller 180 can be configured to generate a control command corresponding to the touch based on the touch. The content input by the touch method may be a letter or a number, or an instruction or designable menu item in various modes.
한편, 터치센서는, 터치패턴을 구비하는 필름 형태로 구성되어 윈도우(151a)와 윈도우(151a)의 배면 상의 디스플레이(미도시) 사이에 배치되거나, 윈도우(151a)의 배면에 직접 패터닝되는 메탈 와이어가 될 수도 있다. 또는, 터치센서는 디스플레이와 일체로 형성될 수 있다. 예를 들어, 터치센서는, 디스플레이의 기판 상에 배치되거나, 디스플레이의 내부에 구비될 수 있다.On the other hand, the touch sensor is composed of a film having a touch pattern, is disposed between the display (not shown) on the back surface of the window 151a and the window 151a, or a metal wire that is directly patterned on the back surface of the window 151a. It can be. Alternatively, the touch sensor may be formed integrally with the display. For example, the touch sensor may be disposed on the substrate of the display, or may be provided inside the display.
이처럼, 디스플레이부(151)는 터치센서와 함께 터치 스크린을 형성할 수 있으며, 이 경우에 터치 스크린은 사용자 입력부(123, 도 1a 참조)로 기능할 수 있다. 경우에 따라, 터치 스크린은 제1조작유닛(123a)의 적어도 일부 기능을 대체할 수 있다.As such, the display unit 151 may form a touch screen together with a touch sensor, and in this case, the touch screen may function as a user input unit 123 (see FIG. 1A). In some cases, the touch screen may replace at least some functions of the first operation unit 123a.
제1 음향 출력부(152a)는 통화음을 사용자의 귀에 전달시키는 리시버(receiver)로 구현될 수 있으며, 제2 음향 출력부(152b)는 각종 알람음이나 멀티미디어의 재생음을 출력하는 라우드 스피커(loud speaker)의 형태로 구현될 수 있다.The first sound output unit 152a may be implemented as a receiver that delivers a call sound to the user's ear, and the second sound output unit 152b is a loud speaker that outputs various alarm sounds or multimedia playback sounds. ).
디스플레이부(151)의 윈도우(151a)에는 제1 음향 출력부(152a)로부터 발생되는 사운드의 방출을 위한 음향홀이 형성될 수 있다. 다만, 본 발명은 이에 한정되는 것은 아니고, 상기 사운드는 구조물 간의 조립틈(예를 들어, 윈도우(151a)와 프론트 케이스(101) 간의 틈)을 따라 방출되도록 구성될 수 있다. 이 경우, 외관상 음향 출력을 위하여 독립적으로 형성되는 홀이 보이지 않거나 숨겨져 이동 단말기(100)의 외관이 보다 심플해질 수 있다.An acoustic hole for emitting sound generated from the first sound output unit 152a may be formed in the window 151a of the display unit 151. However, the present invention is not limited thereto, and the sound may be configured to be emitted along an assembly gap between structures (for example, a gap between the window 151a and the front case 101). In this case, the appearance of the mobile terminal 100 may be simpler because the holes formed independently for the sound output are not visible or hidden.
광 출력부(154)는 이벤트의 발생시 이를 알리기 위한 빛을 출력하도록 이루어진다. 상기 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등을 들 수 있다. 제어부(180)는 사용자의 이벤트 확인이 감지되면, 빛의 출력이 종료되도록 광 출력부(154)를 제어할 수 있다.The light output unit 154 is configured to output light to notify when an event occurs. Examples of the event include message reception, call signal reception, missed calls, alarm, schedule notification, email reception, information reception through an application, and the like. The control unit 180 may control the light output unit 154 to end the output of light when the user's event is detected.
제1 카메라(121a)는 촬영 모드 또는 화상통화 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있으며, 메모리(170)에 저장될 수 있다.The first camera 121a processes image frames of still images or moving pictures obtained by an image sensor in a shooting mode or a video call mode. The processed image frame may be displayed on the display unit 151, and may be stored in the memory 170.
제1 및 제2 조작유닛(123a, 123b)은 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력 받기 위해 조작되는 사용자 입력부(123)의 일 예로서, 조작부(manipulating portion)로도 통칭될 수 있다. 제1 및 제2 조작유닛(123a, 123b)은 터치, 푸시, 스크롤 등 사용자가 촉각적인 느낌을 받으면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. 또한, 제1 및 제2 조작유닛(123a, 123b)은 근접 터치(proximity touch), 호버링(hovering) 터치 등을 통해서 사용자의 촉각적인 느낌이 없이 조작하게 되는 방식으로도 채용될 수 있다.The first and second operation units 123a and 123b are examples of the user input unit 123 that is operated to receive a command for controlling the operation of the mobile terminal 100, and may also be collectively referred to as a manipulating portion. have. The first and second operation units 123a and 123b may be adopted in any manner as long as the user operates the device while receiving a tactile feeling, such as touch, push, scroll. In addition, the first and second manipulation units 123a and 123b may be employed in such a way that the user operates without a tactile feeling through a proximity touch, a hovering touch, or the like.
본 도면에서는 제1 조작유닛(123a)이 터치키(touch key)인 것으로 예시하나, 본 발명이 이에 한정되는 것은 아니다. 예를 들어, 제1 조작유닛(123a)은 푸시키(mechanical key)가 되거나, 터치키와 푸시키의 조합으로 구성될 수 있다.In this figure, the first operation unit 123a is illustrated as a touch key, but the present invention is not limited thereto. For example, the first operation unit 123a may be a mechanical key or a combination of a touch key and a push key.
제1 및 제2 조작유닛(123a, 123b)에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 제1 조작유닛(123a)은 메뉴, 홈키, 취소, 검색 등의 명령을 입력 받고, 제2 조작유닛(123b)은 제1 또는 제2 음향 출력부(152a, 152b)에서 출력되는 음향의 크기 조절, 디스플레이부(151)의 터치 인식 모드로의 전환 등의 명령을 입력 받을 수 있다.Contents input by the first and second operation units 123a and 123b may be variously set. For example, the first operation unit 123a receives commands such as a menu, home key, cancel, search, etc., and the second operation unit 123b is output from the first or second sound output units 152a, 152b. Commands such as adjusting the volume of the sound and switching to the touch recognition mode of the display unit 151 may be received.
한편, 단말기 바디의 후면에는 사용자 입력부(123)의 다른 일 예로서, 후면 입력부(미도시)가 구비될 수 있다. 이러한 후면 입력부는 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력 받기 위해 조작되는 것으로서, 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 전원의 온/오프, 시작, 종료, 스크롤 등과 같은 명령, 제1 및 제2 음향 출력부(152a, 152b)에서 출력되는 음향의 크기 조절, 디스플레이부(151)의 터치 인식 모드로의 전환 등과 같은 명령을 입력 받을 수 있다. 후면 입력부는 터치입력, 푸시입력 또는 이들의 조합에 의한 입력이 가능한 형태로 구현될 수 있다.Meanwhile, as another example of the user input unit 123 on the rear surface of the terminal body, a rear input unit (not shown) may be provided. The rear input unit is operated to receive a command for controlling the operation of the mobile terminal 100, and the input content may be variously set. For example, commands such as power on / off, start, end, scroll, etc., control the volume of sound output from the first and second sound output units 152a, 152b, and touch recognition mode of the display unit 151. You can receive commands such as conversion of. The rear input unit may be implemented in a form capable of input by touch input, push input, or a combination thereof.
후면 입력부는 단말기 바디의 두께방향으로 전면의 디스플레이부(151)와 중첩되게 배치될 수 있다. 일 예로, 사용자가 단말기 바디를 한 손으로 쥐었을 때 검지를 이용하여 용이하게 조작 가능하도록, 후면 입력부는 단말기 바디의 후면 상단부에 배치될 수 있다. 다만, 본 발명은 반드시 이에 한정되는 것은 아니며, 후면 입력부의 위치는 변경될 수 있다.The rear input unit may be disposed to overlap the front display unit 151 in the thickness direction of the terminal body. For example, when the user holds the terminal body with one hand, the rear input unit may be arranged at the upper rear portion of the terminal body so that it can be easily operated using the index finger. However, the present invention is not necessarily limited to this, and the position of the rear input unit may be changed.
이처럼 단말기 바디의 후면에 후면 입력부가 구비되는 경우, 이를 이용한 새로운 형태의 유저 인터페이스가 구현될 수 있다. 또한, 앞서 설명한 터치 스크린 또는 후면 입력부가 단말기 바디의 전면에 구비되는 제1 조작유닛(123a)의 적어도 일부 기능을 대체하여, 단말기 바디의 전면에 제1 조작유닛(123a)이 미배치되는 경우, 디스플레이부(151)가 보다 대화면으로 구성될 수 있다.When the rear input unit is provided on the rear of the terminal body, a new type of user interface using the rear input unit may be implemented. In addition, when the above-described touch screen or rear input unit replaces at least some functions of the first operation unit 123a provided on the front surface of the terminal body, when the first operation unit 123a is not disposed on the front surface of the terminal body, The display unit 151 may be configured as a larger screen.
한편, 이동 단말기(100)에는 사용자의 지문을 인식하는 지문인식센서가 구비될 수 있으며, 제어부(180)는 지문인식센서를 통하여 감지되는 지문정보를 인증수단으로 이용할 수 있다. 상기 지문인식센서는 디스플레이부(151) 또는 사용자 입력부(123)에 내장될 수 있다.Meanwhile, the mobile terminal 100 may be provided with a fingerprint recognition sensor for recognizing a user's fingerprint, and the controller 180 may use fingerprint information detected through the fingerprint recognition sensor as an authentication means. The fingerprint recognition sensor may be embedded in the display unit 151 or the user input unit 123.
마이크로폰(122)은 사용자의 음성, 기타 소리 등을 입력 받도록 이루어진다. 마이크로폰(122)은 복수의 개소에 구비되어 스테레오 음향을 입력 받도록 구성될 수 있다.The microphone 122 is configured to receive a user's voice, other sounds, and the like. The microphone 122 may be provided at a plurality of locations and configured to receive stereo sound.
인터페이스부(160)는 이동 단말기(100)를 외부기기와 연결시킬 수 있는 통로가 된다. 예를 들어, 인터페이스부(160)는 다른 장치(예를 들어, 이어폰, 외장 스피커)와의 연결을 위한 접속단자, 근거리 통신을 위한 포트[예를 들어, 적외선 포트(IrDA Port), 블루투스 포트(Bluetooth Port), 무선 랜 포트(Wireless LAN Port) 등], 또는 이동 단말기(100)에 전원을 공급하기 위한 전원공급단자 중 적어도 하나일 수 있다. 이러한 인터페이스부(160)는 SIM(Subscriber Identification Module) 또는 UIM(User Identity Module), 정보 저장을 위한 메모리 카드 등의 외장형 카드를 수용하는 소켓의 형태로 구현될 수도 있다.The interface unit 160 is a passage through which the mobile terminal 100 can be connected to an external device. For example, the interface unit 160 is a connection terminal for connection with other devices (eg, earphones, external speakers), a port for short-range communication (eg, an infrared port (IrDA Port), a Bluetooth port (Bluetooth) Port, Wireless LAN Port, etc.], or at least one of a power supply terminal for supplying power to the mobile terminal 100. The interface unit 160 may be implemented in the form of a socket that accommodates an external card such as a subscriber identification module (SIM) or a user identity module (UIM) or a memory card for storing information.
단말기 바디의 후면에는 제2카메라(121b)가 배치될 수 있다. 이 경우, 제2카메라(121b)는 제1카메라(121a)와 실질적으로 반대되는 촬영 방향을 가지게 된다.A second camera 121b may be disposed on the rear side of the terminal body. In this case, the second camera 121b has a shooting direction substantially opposite to the first camera 121a.
제2카메라(121b)는 적어도 하나의 라인을 따라 배열되는 복수의 렌즈를 포함할 수 있다. 복수의 렌즈는 행렬(matrix) 형식으로 배열될 수도 있다. 이러한 카메라는, '어레이(array) 카메라'로 명명될 수 있다. 제2카메라(121b)가 어레이 카메라로 구성되는 경우, 복수의 렌즈를 이용하여 다양한 방식으로 영상을 촬영할 수 있으며, 보다 나은 품질의 영상을 획득할 수 있다.The second camera 121b may include a plurality of lenses arranged along at least one line. The plurality of lenses may be arranged in a matrix format. Such a camera may be referred to as an 'array camera'. When the second camera 121b is configured as an array camera, images may be captured in a variety of ways using a plurality of lenses, and better quality images may be obtained.
플래시(124)는 제2카메라(121b)에 인접하게 배치될 수 있다. 플래시(124)는 제2카메라(121b)로 피사체를 촬영하는 경우에 피사체를 향하여 빛을 비추게 된다.The flash 124 may be disposed adjacent to the second camera 121b. When the flash 124 photographs the subject with the second camera 121b, the light is directed toward the subject.
단말기 바디에는 제2 음향 출력부(152b)가 추가로 배치될 수 있다. 제2 음향 출력부(152b)는 제1 음향 출력부(152a)와 함께 스테레오 기능을 구현할 수 있으며, 통화시 스피커폰 모드의 구현을 위하여 사용될 수도 있다.A second sound output unit 152b may be additionally disposed on the terminal body. The second sound output unit 152b may implement a stereo function together with the first sound output unit 152a, or may be used to implement a speakerphone mode during a call.
단말기 바디에는 무선 통신을 위한 적어도 하나의 안테나가 구비될 수 있다. 안테나는 단말기 바디에 내장되거나, 케이스에 형성될 수 있다. 예를 들어, 방송 수신 모듈(111, 도 1a 참조)의 일부를 이루는 안테나는 단말기 바디에서 인출 가능하게 구성될 수 있다. 또는, 안테나는 필름 타입으로 형성되어 후면 커버(103)의 내측면에 부착될 수도 있고, 도전성 재질을 포함하는 케이스가 안테나로서 기능하도록 구성될 수도 있다.The terminal body may be provided with at least one antenna for wireless communication. The antenna may be built in the terminal body or may be formed in the case. For example, an antenna forming part of the broadcast receiving module 111 (see FIG. 1A) may be configured to be pulled out from the terminal body. Alternatively, the antenna may be formed of a film type and attached to the inner surface of the rear cover 103, or a case including a conductive material may be configured to function as an antenna.
단말기 바디에는 이동 단말기(100)에 전원을 공급하기 위한 전원 공급부(190, 도 1a 참조)가 구비된다. 전원 공급부(190)는 단말기 바디에 내장되거나, 단말기 바디의 외부에서 착탈 가능하게 구성되는 배터리(191)를 포함할 수 있다.The terminal body is provided with a power supply unit 190 (see FIG. 1A) for supplying power to the mobile terminal 100. The power supply unit 190 may include a battery 191 built in the terminal body or configured to be detachable from the outside of the terminal body.
배터리(191)는 인터페이스부(160)에 연결되는 전원 케이블을 통하여 전원을 공급받도록 구성될 수 있다. 또한, 배터리(191)는 무선충전기기를 통하여 무선충전 가능하도록 구성될 수도 있다. 상기 무선충전은 자기유도방식 또는 공진방식(자기공명방식)에 의하여 구현될 수 있다.The battery 191 may be configured to receive power through a power cable connected to the interface unit 160. Also, the battery 191 may be configured to be wirelessly charged through a wireless charger. The wireless charging may be implemented by a magnetic induction method or a resonance method (magnetic resonance method).
한편, 본 도면에서는 후면 커버(103)가 배터리(191)를 덮도록 리어 케이스(102)에 결합되어 배터리(191)의 이탈을 제한하고, 배터리(191)를 외부 충격과 이물질로부터 보호하도록 구성된 것을 예시하고 있다. 배터리(191)가 단말기 바디에 착탈 가능하게 구성되는 경우, 후면 커버(103)는 리어 케이스(102)에 착탈 가능하게 결합될 수 있다.Meanwhile, in this drawing, the rear cover 103 is coupled to the rear case 102 so as to cover the battery 191 to limit the detachment of the battery 191, and is configured to protect the battery 191 from external impact and foreign matter. For example. When the battery 191 is configured to be detachably attached to the terminal body, the rear cover 103 may be detachably coupled to the rear case 102.
도 2 내지 도 5는 TOF 카메라(200)의 구동 방식을 설명하기 위한 도면이다.2 to 5 are views for explaining a driving method of the TOF camera 200.
구체적으로, 도 2는 TOF 카메라(200)의 기본 구성도이고, 도 3은 TOF 카메라(200)에서 이미지 센서(220)를 구체적으로 도시한 도면이다. 또한, 도 4 및 도 5는 이미지 센서(220)에서 광을 수신하여 깊이 데이터를 획득하는 방법을 도시한 도면이고, 도 6는 주변광 및 오프셋(Off Set)을 제거하기 위해 라이트 소스(210)에서 4개의 페이즈(phase)로 모듈화된 광(211)을 조사하고 이를 통해 데이터를 획득하는 방법을 설명하기 위한 도면이다.Specifically, FIG. 2 is a basic configuration diagram of the TOF camera 200, and FIG. 3 is a diagram specifically showing the image sensor 220 in the TOF camera 200. 4 and 5 are diagrams illustrating a method of acquiring depth data by receiving light from the image sensor 220, and FIG. 6 is a light source 210 for removing ambient light and offset. A diagram for explaining a method of irradiating light 211 modularized in four phases and acquiring data therefrom.
본 발명은 깊이 카메라를 이용하여 비전(Vision) 기반의 사용자 인터페이스(User Interface)를 제공하는 이동 단말기에 관한 것이다.The present invention relates to a mobile terminal that provides a vision-based user interface using a depth camera.
깊이 카메라는 깊이 값을 추출하는 방법에 따라 세 가지로 분류될 수 있다. 첫째는 본 발명과 관련된 TOF(Time Of Flight) 방식으로 깊이 카메라가 조사한 빛이 물체에 반사되어 돌아오는 시간을 통해 각 픽셀(Pixel)의 거리를 구하는 방식이다. 둘째는, 스테레오(Stereo) 방식으로 깊이 카메라가 양안시차를 이용하여 각 픽셀의 거리를 구하는 방식이다. 셋째는, Structured Pattern 방식으로 깊이 카메라가 패턴화된 광을 물체에 조사하고 패턴의 왜곡 정도를 통하여 각 픽셀의 거리를 구하는 방식이다.Depth cameras can be classified into three types according to a method of extracting a depth value. The first is a method of obtaining the distance of each pixel (Pixel) through the time that the light irradiated by the depth camera is reflected on the object and returned by the Time Of Flight (TOF) method related to the present invention. The second is a stereo method in which a depth camera obtains the distance of each pixel using binocular parallax. Third, the structured pattern method is a method in which the depth camera irradiates patterned light to an object and obtains the distance of each pixel through the degree of distortion of the pattern.
본 발명은 설명의 편의를 위하여 이하에서, TOF 방식의 카메라와 관련하여 설명하지만, 반드시 이에 제한되는 것은 아니다.For convenience of explanation, the present invention will be described below in connection with a TOF camera, but is not limited thereto.
TOF 카메라(200)는 오브젝트(400)를 향해 광을 조사하는 라이트 소스(Illumination)(210) 및 오브젝트(400)에 반사된 광을 수신하는 이미지 센서(ToF Image sensor)(220)를 포함할 수 있다. 또한, TOF 카메라(200)는 내부 또는 외부에 메인 프로세서(230a)를 구비하여 이미지 센서(220)를 통해 획득한 로우(raw) 데이터로 오브젝트(400)의 깊이를 계산할 수 있다.The TOF camera 200 may include a light source 210 that irradiates light toward the object 400 and an image sensor 220 that receives light reflected by the object 400. have. In addition, the TOF camera 200 may include a main processor 230a internally or externally to calculate the depth of the object 400 using raw data obtained through the image sensor 220.
라이트 소스(210)는 타이밍 발생기(미도시)를 통해 모듈화된 광(211)을 조사할 수 있다. 라이트 소스(210)은 타이밍 발생기를 통해 특정 시그널의 광원을 조사할 수 있으며, 경우에 따라서 특정 시그널의 위상을 주기적으로 가변하며 광원을 조사할 수 있다. The light source 210 may irradiate the modularized light 211 through a timing generator (not shown). The light source 210 may irradiate a light source of a specific signal through a timing generator, and in some cases, periodically change the phase of a specific signal and irradiate the light source.
이미지 센서(220)는 두 개의 포토 게이트(221a, 221b)를 구비한 셀(221)을 적어도 하나 포함할 수 있다. 두 개의 포토 게이트(221a, 221b)는 각각 오브젝트에 반사된 광(212)을 수신하여 이에 대응되는 로우(raw) 데이터를 획득할 수 있다.The image sensor 220 may include at least one cell 221 having two photogates 221a and 221b. The two photo gates 221a and 221b may respectively receive the light 212 reflected by the object to obtain raw data corresponding thereto.
이미지 센서(220)가 두 개의 포토 게이트(221a, 221b)를 통해 수신한 광(212)의 로우 데이터를 획득하는 방법은 다음과 같다. 포토 게이트(221a, 221b)는 리셋 신호 (Rst)를 인가하여 셀의 전압을 초기화하고(① 단계), 모듈레이션 신호(DMIX0, DMIX1) 신호를 인가하여 수신된 광을 축전기(
Figure PCTKR2018012562-appb-I000001
,
Figure PCTKR2018012562-appb-I000002
)에 충전 하며(② 단계), 어드레스 디코드 신호(Address Decode)를 인가하여 축전기(
Figure PCTKR2018012562-appb-I000003
,
Figure PCTKR2018012562-appb-I000004
) 충전된 전하량을 판독하는 단계(③ 단계)를 포함 수 있다.
The method in which the image sensor 220 acquires raw data of the light 212 received through the two photo gates 221a and 221b is as follows. The photo gates 221a and 221b initialize the voltage of the cell by applying the reset signal Rst (step ①), and apply the modulation signals DMIX0 and DMIX1 signals to accumulate the received light (
Figure PCTKR2018012562-appb-I000001
,
Figure PCTKR2018012562-appb-I000002
) (Step ②), and apply the address decode signal (Address Decode) to
Figure PCTKR2018012562-appb-I000003
,
Figure PCTKR2018012562-appb-I000004
) Reading the charged amount of charge (step ③).
제1 포토 게이트(221a)에 인가되는 모듈레이션 신호(DMIX0)는 제2 포토 게이트(221b)에 인가되는 모듈레이션 신호(DMIX1)와 반대 위상을 가질 수 있으며, 제1 포토게이트(211a)에 인가되는 모듈레이션 신호(DMIX0)와 제2 포토 게이트(221b)에 인가되는 모듈레이션 신호(DMIX1) 중 하나는 라이트 소스(210)에서 조사되는 광(211)과 동일한 위상을 가질 수 있다.The modulation signal DMIX0 applied to the first photogate 221a may have a phase opposite to the modulation signal DMIX1 applied to the second photogate 221b, and the modulation applied to the first photogate 211a One of the signal DMIX0 and the modulation signal DMIX1 applied to the second photo gate 221b may have the same phase as the light 211 emitted from the light source 210.
도 4를 통해 구체적으로 살펴보면, 도 4(a)는 라이트 소스(210)에서 조사하는 광(211)으로
Figure PCTKR2018012562-appb-I000005
의 진폭을 가지며, 도 4(b)는 오브젝트(400)에 반사되어 이미지 센서(220)에서 수신하는 광(212)으로 라이트 소스(210)에서 조사하는 광(211)과
Figure PCTKR2018012562-appb-I000006
만큼 위상 차를 가진다. 도 4(c) 및 도 4(b)는 제1 포토 게이트(221a)에 인가되는 모듈레이션 신호(DMIX0) 및 제2 포토 게이트(221b)에 인가되는 모듈레이션 신호(DMIX1)를 나타낸다. 또한, 제2 포토 게이트(221b)에 인가되는 모듈레이션 신호(DMIX1)는 라이트 소스(210)에서 조사하는 광(211)과 동일한 위상을 가지며 제1 포토 게이트(221a)에 인가되는 모듈레이션 신호(DMIX0)와 반대 위상을 가질 수 있다.
Looking specifically through Figure 4, Figure 4 (a) is a light 211 irradiated from the light source 210
Figure PCTKR2018012562-appb-I000005
4 (b) is reflected by the object 400 and light 212 received from the image sensor 220 and irradiated from the light source 210 with light 211
Figure PCTKR2018012562-appb-I000006
As much as it has a phase difference. 4 (c) and 4 (b) show the modulation signal DMIX0 applied to the first photo gate 221a and the modulation signal DMIX1 applied to the second photo gate 221b. In addition, the modulation signal DMIX1 applied to the second photo gate 221b has the same phase as the light 211 emitted from the light source 210 and the modulation signal DMIX0 applied to the first photo gate 221a. And may have an opposite phase.
이미지 센서(220)에서 수광하는 광(212)은 라이트 소스(210)에서 조사하는 광과
Figure PCTKR2018012562-appb-I000007
만큼 위상차를 가지므로, 모듈레이션 신호(DMIX0, DMIX1)를 통해 제1 포토 게이트(221a)의 축전기(
Figure PCTKR2018012562-appb-I000008
)에서 노드-A(Node-A)로 제거되는 전하량(Charge removed from Node-A) 및 제2 포토 게이트(221b)의 축전기(
Figure PCTKR2018012562-appb-I000009
)에서 노드-B(Node-B)로 제거되는 전하량(Charge removed from Node-B)는 도 4(c) 및 도 4(b)와 같다.
The light 212 received from the image sensor 220 is the light irradiated from the light source 210.
Figure PCTKR2018012562-appb-I000007
Since it has a phase difference as much as, the capacitor of the first photo gate 221a through the modulation signals DMIX0, DMIX1 (
Figure PCTKR2018012562-appb-I000008
), The amount of charge removed from Node-A (Node-A) and the capacitor of the second photo gate 221b (
Figure PCTKR2018012562-appb-I000009
), The amount of charge removed from Node-B is as shown in FIGS. 4 (c) and 4 (b).
구체적으로, 도 5와 같이 이미지 센서(220)는 제1 포토 게이트(221a) 및 제2 포토 게이트(221b)의 축전기(
Figure PCTKR2018012562-appb-I000010
,
Figure PCTKR2018012562-appb-I000011
)에 충전된 비율을 통해 오브젝트(400)에 반사된 광(212)의 위상차 데이터(= 깊이 데이터)를 획득할 수 있다.
Specifically, as shown in FIG. 5, the image sensor 220 is a capacitor of the first photogate 221a and the second photogate 221b (
Figure PCTKR2018012562-appb-I000010
,
Figure PCTKR2018012562-appb-I000011
), The phase difference data (= depth data) of the light 212 reflected by the object 400 may be acquired.
도 5(a)는 라이트 소스(210)에서 조사되는 광(211, optical)과 오브젝트(400)에 반사된 광(212, electrical)의 위상차가 없는 것을 나타낸다. 라이트 소스(210)에서 조사되는 광(211, optical)과 오브젝트(400)에 반사된 광(212, electrical)의 위상차가 없는 경우, 한 주기 동안 축전기(
Figure PCTKR2018012562-appb-I000012
)에 전하가 모두 충전될 수 있다.
5 (a) shows that there is no phase difference between light 211 (optical) irradiated from the light source 210 and light 212 (electrical) reflected by the object 400. If there is no phase difference between light 211 (optical) irradiated from the light source 210 and light 212 (electrical) reflected by the object 400, the capacitor (
Figure PCTKR2018012562-appb-I000012
) Can be charged.
도 5(b)는 라이트 소스(210)에서 조사되는 광(211, optical)과 오브젝트(400)에 반사된 광(212, electrical)이 90도의 위상차를 가지는 경우를 나타낸다. 라이트 소스(210)에서 조사되는 광(211, optical)과 오브젝트(400)에 반사된 광(212, electrical)이 90도의 위상차를 가지는 경우, 한 주기 동안 축전기(
Figure PCTKR2018012562-appb-I000013
)에 충전된 전하량과 축전기(
Figure PCTKR2018012562-appb-I000014
)에 충전된 전하량이 같을 수 있다.
FIG. 5 (b) shows a case where light 211 (optical) irradiated from the light source 210 and light 212 (electrical) reflected by the object 400 have a phase difference of 90 degrees. When the light 211 (optical) irradiated from the light source 210 and light 212 (electrical) reflected from the object 400 have a phase difference of 90 degrees, the capacitor (
Figure PCTKR2018012562-appb-I000013
) The amount of charge charged and the capacitor (
Figure PCTKR2018012562-appb-I000014
) May have the same amount of charge.
도 5(c)는 라이트 소스(210)에서 조사되는 광(211, optical)과 오브젝트(400)에 반사된 광(212, electrical)이 180도의 위상차를 가지는 경우를 나타낸다. 라이트 소스(210)에서 조사되는 광(211, optical)과 오브젝트(400)에 반사된 광(212, electrical)이 180도의 위상차를 가지는 경우, 한 주기 동안 축전기(
Figure PCTKR2018012562-appb-I000015
)에 전하가 모두 충전될 수 있다.
FIG. 5 (c) shows a case where light 211 (optical) irradiated from the light source 210 and light 212 (electrical) reflected by the object 400 have a phase difference of 180 degrees. When the light 211 (optical) irradiated from the light source 210 and light 212 (electrical) reflected from the object 400 have a phase difference of 180 degrees, the capacitor (
Figure PCTKR2018012562-appb-I000015
) Can be charged.
도 4 및 도 5는 라이트 소스(210)에서 특정 시그널의 광원을 조사하고, 이에 대응하여 이미지 센서(220)가 수광하는 실시예를 나타내고 있다. 다만, 이미지 센서(220)는 라이트 소스(210)에서 조사하는 광(212) 외에도 주변광을 수광할 수 있다. 따라서 주변광에 의한 오류를 제거하기 위해, 라이트 소스(210)는 특정 시그널의 위상을 주기적으로 가변하여 광원을 조사할 수 있다.4 and 5 illustrate an embodiment in which the light source 210 irradiates a light source of a specific signal, and the image sensor 220 receives light corresponding thereto. However, the image sensor 220 may receive ambient light in addition to the light 212 emitted from the light source 210. Therefore, in order to eliminate errors caused by ambient light, the light source 210 may periodically change the phase of a specific signal to irradiate the light source.
도 6는 주변광에 의한 오류를 제거하기 위해 라이트 소스(210)에서 특정 시그널의 위상을 주기적으로 가변하며 광원을 조사하는 실시예를 나타내고 있다.6 illustrates an embodiment in which a phase of a specific signal is periodically varied in the light source 210 to irradiate a light source to eliminate errors caused by ambient light.
구체적으로, 도 6(a)는 0도의 위상차를 가지는 광원 즉 기설정된 단일 펄스로 조사되는 광원을 나타내며, 도6(b)는 도 6(a)의 광원과 90도의 위상차를 가지는 광원을 나타낸다. 또한, 도6(c)는 도 6(a)의 광원과 180도의 위상차를 가지는 광원을 나타내며, 도 6(d)는 도 6(a)의 광원과 270도의 위상차를 가지는 광원을 나타낸다.Specifically, FIG. 6 (a) shows a light source having a phase difference of 0 degrees, that is, a light source irradiated with a single preset pulse, and FIG. 6 (b) shows a light source having a phase difference of 90 degrees from the light source of FIG. 6 (a). 6 (c) shows a light source having a phase difference of 180 degrees from the light source of FIG. 6 (a), and FIG. 6 (d) shows a light source having a phase difference of 270 degrees from the light source of FIG. 6 (a).
도 6(e)는 오브젝트(400)에 반사되어 이미지 센서(220)에서 수신하는 광을 나타낸다. 제2 포토 게이트(221b)에 인가되는 모듈레이션 신호(DMIX1)는 도6(a) 내지 6(d)의 신호에 동기화 될 수 있는데, 도 6(e)는 각각 신호에 동기되어 제2 포토 게이트(221b)의 축전기(
Figure PCTKR2018012562-appb-I000016
)에 충전되는 전하량(213a 내지 213b)를 나타내고 있다.
6 (e) shows light reflected by the object 400 and received by the image sensor 220. The modulation signal DMIX1 applied to the second photo gate 221b may be synchronized with the signals of FIGS. 6 (a) to 6 (d), wherein FIG. 6 (e) is synchronized with the signal, respectively. 221b) capacitor (
Figure PCTKR2018012562-appb-I000016
) Shows charge amounts 213a to 213b.
즉, 라이트 소스(210)는 특정 시그널의 위상을 주기적으로 가변하고, 이미지 센서(220)의 축전기(
Figure PCTKR2018012562-appb-I000017
,
Figure PCTKR2018012562-appb-I000018
)에 충전되는 비율 차이를 통해 주변광에 의한 오류를 보정할 수 있다.
That is, the light source 210 periodically varies the phase of a specific signal, and the capacitor of the image sensor 220 (
Figure PCTKR2018012562-appb-I000017
,
Figure PCTKR2018012562-appb-I000018
), The error caused by ambient light can be corrected through the difference in the percentage charged.
상기에서는, TOF 카메라(200)의 구동 방식 및 TOF 카메라(200)가 위상차 데이터(=깊이 데이터)를 획득하는 방법을 설명하였다. 이하에서는 본 발명에 따라 개선된 사항을 설명한다.In the above, the driving method of the TOF camera 200 and the method in which the TOF camera 200 acquires phase difference data (= depth data) have been described. Hereinafter, an improvement according to the present invention will be described.
도 7은 기존 TOF 카메라(200)의 문제점과 이를 개선한 본 발명의 일 실시예에 의한 TOF 카메라의 효과를 설명하기 위한 도면이다.7 is a view for explaining the problem of the existing TOF camera 200 and the effect of the TOF camera according to an embodiment of the present invention which improves the problem.
이동 단말기는 TOF 카메라(200)를 통해 사용자와 인터랙션 하기 위해, TOF 카메라(200)를 항상 ON상태로 유지할 필요가 있다. 이는, 사용자가 이동단말기를 직접 터치하지 않고 일정 거리 떨어진 상태에서 이동 단말기와 언제든지 인터랙션할 수 있는 기능을 제공하기 위함이다.In order for the mobile terminal to interact with the user through the TOF camera 200, it is necessary to keep the TOF camera 200 always ON. This is to provide a function for a user to interact with a mobile terminal at any time without being directly touched by a mobile terminal at a certain distance.
구체적으로, 도 7(a)는 TOF 카메라(200)가 항상 ON 상태를 유지하며 사용자(400)가 없는 경우에도 트랙킹 영역(300)으로 광을 조사하여 깊이 이미지를 획득하는 상태를 나타낸다. 다만, 이러한 경우, 이동 단말기의 전력 소모가 불필요하게 발생하는 문제점이 있다.Specifically, FIG. 7 (a) shows a state in which the TOF camera 200 always maintains an ON state and acquires a depth image by irradiating light to the tracking area 300 even when the user 400 is not present. However, in this case, there is a problem in that power consumption of the mobile terminal is unnecessary.
따라서, 도 7(b)와 같이 트랙킹 영역(300)에 사용자(400)가 존재하는 경우에 한하여 깊이 이미지를 획득하는 것이 과다한 전력 소모를 방지할 수 있는 기술적 효과가 있다. Accordingly, as shown in FIG. 7 (b), obtaining a depth image is technically effective in preventing excessive power consumption only when the user 400 is present in the tracking area 300.
즉, 본 발명의 일실시예에 따른 TOF 카메라(200) 및 이를 포함하는 이동 단말기는 저전력으로 구동되며 사용자(400)의 존재를 확인하는 제1 모드로 작동하고, 제1 모드에서 사용자(400) 존재를 확인한 경우 깊이 이미지를 획득하는 제2 모드로 작동할 수 있다. 이 경우, TOF 카메라(200)가 항상 ON 상태를 유지하더라도 과도한 전력이 소모되는 것을 방지할 수 있다.That is, the TOF camera 200 and the mobile terminal including the same according to an embodiment of the present invention are driven with a low power and operate in a first mode to confirm the existence of the user 400, and the user 400 in the first mode When the existence is confirmed, it may operate in a second mode for acquiring a depth image. In this case, it is possible to prevent excessive power consumption even if the TOF camera 200 is always in an ON state.
도 8은 본 발명의 일 실시예에 의한 TOF 카메라(200)의 구성을 설명하기 위한 개략도 이다.8 is a schematic diagram for explaining the configuration of the TOF camera 200 according to an embodiment of the present invention.
본 발명의 일 실시예 의한 TOF카메라는, 제1 또는 제2 모드로 작동되며, 광원을 오브젝트(400)에 조사하는 라이트 소스(Illumination)(210), 오브젝트(400)에 반사된 광을 수신하여 로우 데이터(raw data)를 획득하는 이미지 센서(ToF Image sensor)(220), 상기 로우 데이터를 처리하는 연산부(230a, 230b) 그리고, 라이트 소스(210), 이미지 센서(220) 및 연산부(230a, 230b)와 연결된 컨트롤러(미도시)를 포함하고, 컨트롤러는 제1 모드에서 특정 시그널의 광원을 조사하도록 라이트 소스(210)를 제어하고, 연산부(230a, 230b)를 통해 상기 로우 데이터의 변화를 감지한 경우 제 2 모드로 전환하고, 제2 모드에서 상기 특정 시그널의 위상을 가변토록 상기 라이트 소스(210)를 제어하고, 상기 로우 데이터를 통해 오브젝트(400)의 깊이 데이터를 생성하도록 연산부(230a, 230b)를 제어할 수 있다. The TOF camera according to an embodiment of the present invention operates in a first or second mode, and receives light reflected from the illumination source 210 and the object 400 irradiating the light source to the object 400 An image sensor (ToF Image sensor) 220 for obtaining raw data, arithmetic units 230a and 230b for processing the raw data, and a light source 210, image sensor 220 and arithmetic unit 230a, 230b) and a controller (not shown) connected to the controller, the controller controls the light source 210 to irradiate a light source of a specific signal in the first mode, and detects changes in the raw data through the calculators 230a and 230b. In one case, the operation unit 230a switches to the second mode, controls the light source 210 to vary the phase of the specific signal in the second mode, and generates depth data of the object 400 through the raw data. 230b) can be controlled.
나아가, 도 8에서는 각 구성모듈을 분리하여 도시하였으나, 일부 모듈들을 결합하여 하나의 모듈로 설계하는 것도 본 발명의 권리범위에 속한다.Furthermore, in FIG. 8, although each component module is illustrated separately, it is also within the scope of the present invention to design some modules by combining them.
컨트롤러는 라이트 소스(210) 및 이미지 센서(220)에 펄스 신호를 제공하는 타이밍 발생기를 포함할 수 있으며, 경우에 따라서는 연산부(230a, 230b)를 포함하는 구성일 수 있다. 또한, 컨트롤러는 도 1a에 표시된 제어부(180)에 대응되는 구성일 수 있다.The controller may include a timing generator that provides a pulse signal to the light source 210 and the image sensor 220, and in some cases, may be configured to include arithmetic units 230a and 230b. Also, the controller may have a configuration corresponding to the controller 180 shown in FIG. 1A.
TOF 카메라(200)는 도 6에서 설명한 바와 같이, 깊이 데이터에서 주변광 또는 오프셋(Off Set)의 오류를 보정하기 위해, 제2 모드에서 특정 시그널의 광원을 조사하는 라이트 소스(210)를 제어하여 특정 시그널의 위상을 주기적으로 가변할 수 있다. 6, the TOF camera 200 controls the light source 210 that irradiates a light source of a specific signal in a second mode in order to correct errors in ambient light or offset in the depth data, as described in FIG. 6. The phase of a specific signal can be changed periodically.
다만, 제1 모드에서는 오브젝트(400)의 깊이 데이터를 획득하는 것이 아니라, 움직이는 오브젝트(400)의 존재를 확인하는 것으로 주변광 또는 오프셋(Off Set)의 오류를 보정할 필요가 없다. 따라서, 제1 모드에서 위상 변화 없이 특정 시그널의 광원을 조사하도록 라이트 소스(400)를 제어하고, 위상 변화를 위해 소모되는 전력을 감소할 수 있다.However, in the first mode, it is not necessary to correct the error of the ambient light or the offset (Off Set) by confirming the existence of the moving object 400, rather than acquiring the depth data of the object 400. Accordingly, in the first mode, the light source 400 is controlled to irradiate a light source of a specific signal without a phase change, and power consumed for the phase change can be reduced.
이미지 센서(220)는 도 3에서 설명된 바와 같이 기 설정 프레임 동안 위상이 상이한 시그널이 인가되고, 이에 대응하여 반사된 광(212)를 수신하는 제1 및 제2 포토 게이트(221a, 221b)을 포함할 수 있다. As illustrated in FIG. 3, the image sensor 220 applies first and second photo gates 221a and 221b that receive signals having different phases during a predetermined frame and receive reflected light 212 correspondingly. It can contain.
구체적으로, 제1 및 제2 포토 게이트(221a, 221b)는 하나의 셀(221)을 구성하며, 이미지 센서(220)는 복수의 셀(221)을 포함할 수 있다. Specifically, the first and second photo gates 221a and 221b constitute one cell 221, and the image sensor 220 may include a plurality of cells 221.
컨트롤러는 제1 모드에서 제1 포토 게이트(221a)를 통해 상기 로우 데이터를 획득하도록 이미지 센서(220)를 제어할 수 있다. 즉, 컨트롤러는 모듈레이션 신호(DMIX0, 도 4 참조)를 제1 포토 게이트(221a) 에만 인가하고 제2 포토 게이트(221a)에는 모듈레이션 신호(DMIX1)을 인가하지 않는다. 컨트롤러는 제1 모드에서 제1 및 제2 포토 게이트(221a, 221b)를 포함하는 셀(211)에서 하나의 포토 게이트만 사용하여 제1 및 제2 포토 게이트(221a, 221b) 모두를 구동하기 위해 소모되는 전력을 감소할 수 있다. The controller may control the image sensor 220 to acquire the raw data through the first photo gate 221a in the first mode. That is, the controller applies the modulation signal DMIX0 (refer to FIG. 4) only to the first photo gate 221a and does not apply the modulation signal DMIX1 to the second photo gate 221a. The controller uses only one photo gate in the cell 211 including the first and second photo gates 221a and 221b in the first mode to drive both the first and second photo gates 221a and 221b. Power consumption can be reduced.
구체적으로 살펴보면, 제1 모드에서는 움직이는 오브젝트(400)의 존재를 확인하는 모드로, 오브젝트(400)의 깊이 데이터를 산출할 필요가 없다. 깊이 데이터를 산출하기 위해서는, 제1 및 제2 포도 게이트(221a, 221b)의 축전기(
Figure PCTKR2018012562-appb-I000019
,
Figure PCTKR2018012562-appb-I000020
)에 충전되는 비율이 필요하다. 다만, 움직이는 오브젝트(400)의 존재를 확인하는 데에는 하나의 포토 게이트의 축전기(
Figure PCTKR2018012562-appb-I000021
or
Figure PCTKR2018012562-appb-I000022
)로 가능하다. 하나의 포토 게이트의 축전기(
Figure PCTKR2018012562-appb-I000023
or
Figure PCTKR2018012562-appb-I000024
)에 충전되는 전하량 변화는 반사된 광의 인텐서티 변화를 의미하며, 이를 통해 움직이는 오브젝트(400)의 존재를 확인할 수 있다. 즉, 제1 모드에서는 하나의 포토 게이트만을 구동하여 제 1 및 제2 포토 게이트(221a, 221b)를 모두 구동하기 위해 소모되는 전력을 감소할 수 있다.
Specifically, in the first mode, the mode for checking the existence of the moving object 400 does not need to calculate the depth data of the object 400. In order to calculate the depth data, capacitors of the first and second grape gates 221a and 221b (
Figure PCTKR2018012562-appb-I000019
,
Figure PCTKR2018012562-appb-I000020
) Is required. However, in order to confirm the existence of the moving object 400, a capacitor of one photo gate (
Figure PCTKR2018012562-appb-I000021
or
Figure PCTKR2018012562-appb-I000022
). Capacitor of one photogate (
Figure PCTKR2018012562-appb-I000023
or
Figure PCTKR2018012562-appb-I000024
Change in the amount of charge charged in) refers to a change in the intensity of the reflected light, through which the existence of the moving object 400 can be confirmed. That is, in the first mode, power consumed to drive both the first and second photo gates 221a and 221b may be reduced by driving only one photo gate.
또한, 본 발명의 TOF 카메라(200)는 연산부(230a, 230b)가 제1 포토 게이트(221a)를 통해 획득한 로우 데이터의 인텐서티(intensity) 변화를 판단하는 서브 연산부(230b) 그리고, 제1 및 제2 포토 게이트(221a, 221b)에서 각각 획득한 로우 데이터를 통해 인텐서티 비율을 통해 오브젝트의 깊이 데이터를 생성(계산)하는 메인 연산부(230a)로 구분될 수 있다.In addition, the TOF camera 200 of the present invention includes a sub-operation unit 230b for determining a change in intensity of raw data obtained by the operation units 230a and 230b through the first photo gate 221a and the first And a main operation unit 230a that generates (calculates) the depth data of the object through the intensity ratio through the raw data obtained from the second photo gates 221a and 221b, respectively.
메인 연산부(230a)는 도 2의 기존의 TOF 카메라(200)에 포함되는 메인 연산부(230a)와 동일한 것으로, MIPI(Mobile Industry Processor Interface)에 대응될 수 있다. 메인 연산부(230a)는 제2 모드에서 획득한 로우 데이터를 통해 깊이 데이터를 생성한다.The main operation unit 230a is the same as the main operation unit 230a included in the existing TOF camera 200 of FIG. 2 and may correspond to a Mobile Industry Processor Interface (MIPI). The main operation unit 230a generates depth data through raw data acquired in the second mode.
즉, 메인 연산부(230a)는 연산 과정이 복잡하고 많은 데이터를 처리하므로 전력소모가 많을 수 있다.That is, the main operation unit 230a may have a lot of power consumption since the calculation process is complicated and processes a lot of data.
다만, 서브 연산부(230a)는 하나의 포토 게이트를 통해 획득한 로우 데이터의 인텐서티 변화만을 판단하는 연산부로, 처리 데이터가 간단하고 전력소모가 적은 SPI(Serial Peripheral Interface)에 대응될 수 있다.However, the sub-operation unit 230a is an operation unit that determines only the change in the intensity of raw data acquired through one photo gate, and may correspond to a Serial Peripheral Interface (SPI) with simple processing data and low power consumption.
즉, 제1 모드에서는 전력 소모가 많은 메인 연산부(230a)를 사용하지 않고, 전력 소모가 작은 서브 연산부(230a)를 사용하여 TOF 카메라(200)가 항상 ON 상태를 유지하더라도 과다한 전력을 소모하는 것을 방지할 수 있다. That is, in the first mode, instead of using the main operation unit 230a having a high power consumption, using the sub operation unit 230a having a small power consumption, the TOF camera 200 consumes excessive power even if it is always in an ON state. Can be prevented.
컨트롤러는 서브 연산부(230b)에서 인텐서티 데이터의 변화를 감지한 경우, 메인 연산부(230a)를 웨이크업(wake up)할 수 있다. 즉, 메인 연산부(230a)에는 제1 모드에서 전원이 인가되지 않은 상태를 유지하다가 제2 모드로 전환된 경우 전원이 인가될 수 있다.When the controller detects a change in the intensity data in the sub-operation unit 230b, the controller may wake up the main operation unit 230a. That is, when the main operation unit 230a maintains a state in which the power is not applied in the first mode and then switches to the second mode, power may be applied.
도 9는 본 발명의 일 실시예에 의한 TOF 카메라를 제어하는 제어방법을 설명한 플로우 차트이다.9 is a flowchart illustrating a control method for controlling a TOF camera according to an embodiment of the present invention.
본 발명의 일 실시에에 의한 TOF 카메라를 제1 모드 및 제2 모드로 제어하는 방법을 설명하면 다음과 같다.A method of controlling a TOF camera according to an embodiment of the present invention in a first mode and a second mode is as follows.
TOF 카메라는 오브젝트 유무를 판단하는 제1 모드(= 저전력 Object Detection mode = MP(Main Processor) sleep mode = TOF Intensity mode)상태로 구동될 수 있다. (S201) The TOF camera may be driven in a first mode (= low power Object Detection mode = MP (Main Processor) sleep mode = TOF Intensity mode) to determine the presence or absence of an object. (S201)
제1 모드에서는 TOF 카메라가 특정 시그널의 광원을 조사할 수 있다. 특정 시그널은 주기적인 단일 펄스의 시그널일 수 있다. (S202) 주기적인 단일 펄스의 광원은 주변광 및 오프셋(Off Set)에 의한 오류를 보정하기 위해 주기적으로 위상을 가변하지 않는 펄스로 도 6(a)에 대응되는 펄스만을 유지하는 광원일 수 있다.In the first mode, the TOF camera can irradiate a light source of a specific signal. The specific signal may be a periodic single pulse signal. (S202) The periodic single pulse light source may be a light source that maintains only the pulse corresponding to FIG. 6 (a) as a pulse that does not periodically change phase in order to correct errors due to ambient light and offset. .
이미지 센서는 오브젝트에 반사된 광을 수신하여 로우 데이터를 획득할 수 있다. 로우 데이터는 인텐서티 변화를 측정할 수 있는 인텐서티 데이터(intensity data)를 포함할 수 있다. (S203) The image sensor may acquire raw data by receiving light reflected by the object. The raw data may include intensity data that can measure the intensity change. (S203)
여기서 이미지 센서는 도 3에서 설명한 바와 같이 제1 및 제2 포토 게이트(211a, 211b)를 포함할 수 있고, 제1 모드에서는 하나의 포토 게이트만을 이용하여 인텐선티 데이터(intensity data)를 획득할 수 있다. 즉, 제1 모드에서는 하나의 포토 게이트의 축전기에 충전된 전하량에 대응되는 인텐서티 데이터를 획득할 수 있다.Here, the image sensor may include the first and second photogates 211a and 211b as described in FIG. 3, and in the first mode, intensity data may be acquired using only one photogate. have. That is, in the first mode, intensity data corresponding to the amount of charge charged in the capacitor of one photogate can be obtained.
TOF 카메라는 도 8에서 설명한 바와 같이 서브 연산부(230b)를 포함할 수 있고, 하나의 포토 게이트에서 획득한 인텐서티 데이터를 서브 연산부(230b)로 전송할 수 있다. (S204)The TOF camera may include a sub-operation unit 230b as described in FIG. 8, and may transmit the intensity data acquired in one photo gate to the sub-operation unit 230b. (S204)
서브 연산부(230b)는 기 설정 기간 간격으로 획득한 N-1번째 인텐서티 데이터 및 N 번째 인텐서티 데이터의 차이가 기 설정 인텐서티 이상인지 판단하여 움직이는 오브젝트의 존재를 판단할 수 있다. (S205)The sub-operation unit 230b may determine whether a moving object exists by determining whether a difference between the N-1th intensity data and the N-th intensity data acquired at predetermined intervals is greater than or equal to the preset intensity. (S205)
본 발명에 따른 TOF 카메라는 제1 모드에서 기 설정 기간 간격으로 획득한 N-1번째 인텐서티 데이터 및 N 번째 인텐서티 데이터의 차이가 기 설정 인텐서티 이하인 경우(S205, NO), 제1 모드 상태를 유지할 수 있다. The TOF camera according to the present invention is the first mode state when the difference between the N-1st intensity data and the N-th intensity data obtained at a preset period interval in the first mode is equal to or less than the preset intensity (S205, NO). Can keep.
또한, 본 발명에 따른 TOF 카메라는 제1 모드에서 기 설정 기간 간격으로 획득한 N-1번째 인텐서티 데이터 및 N 번째 인텐서티 데이터의 차이가 기 설정 인텐서티 이상인 경우(S205, YES), 메인 연산부(230a)를 웨이크 업(wake up)하고 깊이 데이터를 획득하는 제2 모드(= TOF 3D depth mode)로 전환할 수 있다. (S206)In addition, the TOF camera according to the present invention, when the difference between the N-1st intensity data and the N-th intensity data acquired at a predetermined period interval in the first mode is greater than or equal to the preset intensity (S205, YES), the main operation unit Wake up (230a) and switch to a second mode (= TOF 3D depth mode) for acquiring depth data. (S206)
TOF 카메라는 제2 모드에서 특정 시그널의 위상을 가변하며 광원을 오브젝트에 조사할 수 있다. 구체적으로, 제2 모드에서 특정 시그널을 0도, 90도, 180도, 270도의 위상(4 phase)으로 광원을 조사할 수 있다. (S207)The TOF camera changes the phase of a specific signal in the second mode and can irradiate a light source to the object. Specifically, in the second mode, a specific signal may be irradiated with light sources in phases of 0 degrees, 90 degrees, 180 degrees, and 270 degrees (4 phases). (S207)
이미지 센서는 제2 모드에서 오브젝트에 반사된 광원을 수신하여 로우 데이터(= 4 phase raw data)를 획득할 수 있다. (S208) 제2 모드에서 획득한 로우 데이터는 3차원 깊이 데이터를 획득하는데 이용되는 데이터(=3D raw data)일 수 있다.In the second mode, the image sensor may receive a light source reflected by the object to obtain raw data (= 4 phase raw data). (S208) The raw data acquired in the second mode may be data (= 3D raw data) used to acquire 3D depth data.
제2 모드에서 수신한 로우 데이터(=3D raw data)는 메인 연산부(= MIPI inferface, 230a)로 전송될 수 있다. (S209)The raw data (= 3D raw data) received in the second mode may be transmitted to the main operation unit (= MIPI inferface, 230a). (S209)
메인 연산부는 이동 단말기의 AP(Appication Processr)에서 활용될 수 있도록, 로우 데이터를 통해 깊이 데이터(=Depth data)를 생성하고 이동 단말기는 깊이 데이터(=Depth data)에 대응되는 사용자 UX/UI를 제공할 수 있다.(S210) The main operation unit generates depth data (= Depth data) through raw data so that it can be utilized in an AP (Appication Processr) of the mobile terminal, and the mobile terminal provides a user UX / UI corresponding to the depth data (= Depth data). You can do it (S210)
깊이 데이터를 생성하고, 이동 단말기가 대응되는 사용자 UX/UI를 제공하는 단계(S210)는 깊이 데이터에 대응하여 디스플레이를 통해 그래픽 피드백을 제공하는 단계일 수 있다. 구체적으로, 이동 단말기가 깊이 데이터에 대응되는 커맨드를 저장하는 메모리를 포함하고, 디스플레이는 메모리에 저장된 커맨드에 대응되는 그래픽 피드백을 제공할 수 있다.The generating of depth data and providing a user UX / UI corresponding to the mobile terminal (S210) may be a step of providing graphic feedback through a display in response to the depth data. Specifically, the mobile terminal includes a memory that stores commands corresponding to the depth data, and the display can provide graphic feedback corresponding to the commands stored in the memory.
이동 단말기에서 제공되는 사용자 UX/UI가 종료된 경우, TOF 카메라는 제2 모드에서 제1 모드로 전환될 수 있다.(S211)When the user UX / UI provided by the mobile terminal is terminated, the TOF camera may be switched from the second mode to the first mode (S211).
다만, 제2 모드에서 제1 모드로 전환은 기 설정 시간 이상 깊이 데이터의 변화가 없는 경우 가능할 수 있다. 즉, 이동 단말기에서 제공하는 UX/UI의 종료 여부와 무관하게 제2 모드에서 획득한 깊이 데이터의 변화 여부를 통해 모드를 전환할 수 있다.However, switching from the second mode to the first mode may be possible when there is no change in depth data over a preset time. That is, the mode can be switched through whether the depth data acquired in the second mode is changed regardless of whether the UX / UI provided by the mobile terminal is terminated.
도 10는 도 9에서 프레임을 비교하여 오브젝트의 유무를 판단하는 방법을 설명하기 위한 플로우 차트이고, 도 11은 도 9를 설명하기 위한 도면이다.FIG. 10 is a flow chart for explaining a method of determining the presence or absence of an object by comparing frames in FIG. 9, and FIG. 11 is a view for explaining FIG. 9.
제1 모드에서 움직이는 오브젝트의 존재를 판단하는 방법은 다음과 같다. 제1 또는 제2 포토 게이트를 통해 획득한 로우 데이터는 인텐서티 데이터이며, 픽셀(212a)별로 기 설정 시간 간격으로 측정될 수 있다.The method of determining the existence of the moving object in the first mode is as follows. The raw data obtained through the first or second photo gate is intensity data, and may be measured at predetermined time intervals for each pixel 212a.
즉, 도 9에서 서브 연산부(230b)가 기 설정 기간 간격으로 획득한 N-1번째 인텐서티 데이터 및 N 번째 인텐서티 데이터의 차이가 기 설정 인텐서티 이상인지 판단하여 오브젝트의 유무를 판단하는 단계(S205)는 다음과 같은 단계를 포함할 수 있다.That is, in FIG. 9, the sub-operation unit 230b determines whether the difference between the N-1th intensity data and the N-th intensity data acquired at predetermined intervals is greater than or equal to the preset intensity (determining the presence or absence of an object ( S205) may include the following steps.
도 3을 참고하면 이미지 센서(220)는 제1 포토 게이트(211a) 및 제2 포토 게이트(211b)를 포함하는 셀(221)을 복수의 행과 열을 이루도록 구비할 수 있다.Referring to FIG. 3, the image sensor 220 may include cells 221 including the first photogate 211a and the second photogate 211b to form a plurality of rows and columns.
복수의 셀(221)은 도 11에 표시된 픽셀(212a)에 대응될 수 있고, 복수의 셀(221) 각각 획득한 인텐서티 데이터(제1 또는 제2 포토 게이트에서 획득한 인텐서티 데이터)는 픽셀(212a)에 표시된 값의 크기에 대응될 수 있다.The plurality of cells 221 may correspond to the pixel 212a shown in FIG. 11, and the intensity data (the intensity data obtained from the first or second photo gate) obtained by each of the plurality of cells 221 may be pixels. It may correspond to the size of the value indicated in (212a).
즉, 서브 연산부(230b)는 각 열/행 마다 픽셀 값의 합을 계산하고, (S301) 기 설정 시간 간격으로 획득된 N-1 프레임과 N 프레임의 차이를 계산한다.(S301)That is, the sub-operation unit 230b calculates the sum of the pixel values for each column / row, and (S301) calculates the difference between the N-1 frame and the N frames obtained at predetermined time intervals (S301).
도 11(a)는 N-1 프레임를 나타내며, 11(b)는 N 프레임을 나타낸다.11 (a) shows an N-1 frame, and 11 (b) shows an N frame.
여기서, 기 설정 시간 간격으로 획득된 N-1 프레임과 N 프레임의 차이를 계산하는 단계는 도 11(a) 및 (b)와 같이 각각의 열에 포함된 픽셀 값의 합(212b)에 기초하여 N-1 프레임과 N 프레임의 각 열에 포함된 픽셀 값의 합(212b)의 차이를 계산하는 단계를 포함할 수 있다. 도 11을 통해 살펴보면 N-1 프레임과 N 프레임의 각 열에 포함된 픽셀 값의 합(212b)의 차이는 1+3+14+1+12로 30 이다. Here, the step of calculating the difference between the N-1 frame and the N frames obtained at predetermined time intervals is based on the sum 212b of the pixel values included in each column as shown in FIGS. 11 (a) and (b). And calculating a difference between a sum 212b of pixel values included in each column of the -1 frame and the N frame. Referring to FIG. 11, the difference between the sum of the pixel values included in each column of the N-1 frame and the N frame 212b is 1 + 3 + 14 + 1 + 12, which is 30.
또한, 기 설정 시간 간격으로 획득된 N-1 프레임과 N 프레임의 차이를 계산하는 단계는 도 11(a) 및 (b)와 같이 각각의 행에 포함된 픽셀 값의 합(212c)에 기초하여 N-1 프레임과 N 프레임의 각 행에 포함된 픽셀 값의 합(212c)의 차이를 계산하는 단계를 포함할 수 있다. 도 11을 통해 살펴보면 N-1 프레임과 N 프레임의 각 행에 포함된 픽셀 값의 합(212c)의 차이는 1+4+12+11로 28 이다.In addition, the step of calculating the difference between the N-1 frame and the N frames obtained at predetermined time intervals is based on the sum 212c of the pixel values included in each row as shown in FIGS. 11 (a) and (b). And calculating a difference between sums 212c of pixel values included in each row of the N-1 frame and the N frame. Referring to FIG. 11, the difference between the sum of the pixel values included in each row of the N-1 frame and the N frame 212c is 1 + 4 + 12 + 11, which is 28.
서브 연산부(230b)는 N-1 프레임과 N 프레임의 각 열에 포함된 픽셀 값의 합(212b)과 N-1 프레임과 N 프레임의 각 행에 포함된 픽셀 값의 합(212c)을 합하여 N-1 프레임과 N 프레임 인텐서티 데이터 차이(=TOTAL_DIFF)를 계산한다.(S303)The sub-operation unit 230b adds the sum 212b of the pixel values included in each column of the N-1 frame and the N frame, and the sum 212c of the pixel values included in each row of the N-1 frame and the N frame. Calculate the difference between 1 frame and N frame intensity data (= TOTAL_DIFF). (S303)
N-1 프레임과 N 프레임 인텐서티 데이터 차이(=TOTAL_DIFF)가 기 설정 인텐서티(=THRES) 이하인 경우 제1 모드를 유지하고(S304, No), N-1 프레임과 N 프레임 인텐서티 데이터 차이(=TOTAL_DIFF)가 기 설정 인텐서티(=THRES) 이상인 경우(S304, Yes), 제2 모드로 전환 할 수 있다. 즉, 메인 연산부(230a)를 웨이크 업(wake up)할 수 있다. (S304)If the difference between the N-1 frame and the N frame intensity data (= TOTAL_DIFF) is equal to or less than the preset intensity (= THRES), the first mode is maintained (S304, No), and the N-1 frame and N frame intensity data difference ( = TOTAL_DIFF) is greater than or equal to the preset intensity (= THRES) (S304, Yes), it can be switched to the second mode. That is, it is possible to wake up the main operation unit 230a. (S304)
도 12는 본 발명의 다른 실시예에 의한 TOF 카메라(200)의 구성을 설명하기 위한 개략도 이다.12 is a schematic diagram for explaining the configuration of the TOF camera 200 according to another embodiment of the present invention.
이하에서는, 도 8에서 설명된 구성과 상이한 점을 중심으로 설명한다.Hereinafter, description will be made focusing on differences from the configuration described in FIG. 8.
TOF 카메라(200)는 별도의 포토 다이오드(260)를 포함하고, 제1 모드에서 라이트 소스(Illumination)(210)가 조사하여 반사되는 광원(212)을 상기 별도의 포토 다이오드(260)를 통해 수광할 수 있다. The TOF camera 200 includes a separate photodiode 260 and receives the light source 212 irradiated and reflected by the light source 210 in the first mode through the separate photodiode 260 can do.
제1 모드에서 포토 다이오드(260)를 통해 광을 수신하여 획득한 로우 데이터는 인텐서티 데이터(=Photo diode광량 data)에 대응되며, 인텐서티 데이터는 서브 연산부(230b)로 전송되어 변화 유무를 판단할 수 있다. In the first mode, the raw data obtained by receiving light through the photodiode 260 corresponds to the intensity data (= photo diode light amount data), and the intensity data is transmitted to the sub-operation unit 230b to determine whether there is a change. can do.
제1 모드에서 포토 다이오드(260)를 통해 수광한 인텐서티 데이터에 변화가 기 설정 차이 이상인 경우 움직이는 오브젝트가 존재하는 것으로 확인하고, 메인 연산부(230a)를 웨이크 업(wake up) 할 수 있다.In the first mode, if the change in the intensity data received through the photodiode 260 is greater than or equal to a preset difference, it is determined that a moving object exists, and the main operation unit 230a can be wakeed up.
즉, 도 12에 도시된 TOF 카메라(200)는 제1 모드에서 광을 수광하는 구성을 별도로 포함하고, 제2 모드에서 광을 이미지 센서(220)로 수광하는 특징을 포함하고 있다.That is, the TOF camera 200 illustrated in FIG. 12 separately includes a configuration for receiving light in the first mode, and a feature for receiving light in the second mode to the image sensor 220.
이상에서는 TOF 카메라(200)에서 소모되는 전력을 감지하는 본 발명의 특징을 살펴보았으며, 이하에서는 제2 모드에서 획득한 깊이 데이터를 통해 사용자의 손가락을 정확하고 빠르게 트랙킹하는 본 발명의 다른 특징을 설명하도록 하겠다.In the above, the features of the present invention for sensing the power consumed by the TOF camera 200 have been described, and the following is another characteristic of the present invention for accurately and quickly tracking a user's finger through depth data acquired in the second mode. Let me explain.
도 13는 기존의 깊이 카메라가 획득한 깊이 이미지를 통해 사용자의 손가락을 인지하는 방법 및 문제점을 설명하기 위한 도면이다.13 is a view for explaining a method and a problem of recognizing a user's finger through a depth image acquired by a conventional depth camera.
이동 단말기가 깊이 카메라를 통해 비전(vision) 기반의 인터페이스를 구현하기 위해서는 전체 깊이 이미지에서 사용자의 손(410)에 해당하는 부분의 이미지를 빠르고 정확하게 추출하며, 손가락 (414)을 정확하고 빠르게 트랙킹할 수 있어야 한다. In order to enable the mobile terminal to implement a vision-based interface through a depth camera, an image of a portion corresponding to the user's hand 410 is quickly and accurately extracted from the entire depth image, and the finger 414 can be accurately and quickly tracked. It should be possible.
현재까지 대부분의 핑거 트랙킹(Finger Tracking) 알고리즘은, 도 13(a)와 같이 손가락(414)의 포지션을 획득하기 위해 손(410)에 에지(edge)(413)를 이용하고 있다.To date, most finger tracking algorithms use an edge 413 on the hand 410 to obtain the position of the finger 414, as shown in FIG. 13 (a).
이 방법은 손(410)의 에지(edge)(413)를 보고 손가락(414)을 트랙킹하는 것이기 때문에, 획득된 손(410)의 형태가 반드시 손바닥이나 손등에서 바라본 형태여야 한다는 문제점이 있다. 이에 현재까지 손(410)의 제스쳐에 기반하여 UI/UX를 제공하는 제품들은 도 13(b)와 같이 항상 손바닥이나 손등이 보이는 위치에 카메라(200)를 설치하여 도 13(a)와 같은 손(410) 이미지를 획득한다.Since this method is to track the finger 414 by looking at the edge 413 of the hand 410, there is a problem that the shape of the obtained hand 410 must be a shape viewed from the palm or the hand. Thus, to date, products that provide UI / UX based on the gesture of the hand 410 always install the camera 200 in a position where the palm or hand is visible, as shown in FIG. 13 (b), and the hand as shown in FIG. 13 (a). (410) Acquire an image.
다만, 도 13(b)와 같이 손가락이 카메라를 향하여 손가락의 에지(edge)가 불분명한 상태에서는 손가락(414)를 트랙킹하기 어려울 수 있다. 또한, 깊이 카메라를 통해서 최단 거리 지점을 트랙킹 하는 방법은 복수의 손가락(414)를 트랙킹 하는데 적절하지 않은 문제점이 있다.However, it may be difficult to track the finger 414 in a state in which the edge of the finger is unclear toward the camera as shown in FIG. 13B. In addition, the method of tracking the shortest distance point through the depth camera has a problem that is not suitable for tracking a plurality of fingers 414.
따라서, 깊이 카메라를 이용하여 손가락(414)를 트랙킹하는 새로운 기술이 필요하다.Accordingly, there is a need for a new technique for tracking finger 414 using a depth camera.
이하에서는, 본 발명의 일실시예에 따른 이동 단말기가 깊이 카메라를 통해 손가락을 빠르고 정확하게 트래킹하는 알고리즘을 설명한다.Hereinafter, an algorithm for quickly and accurately tracking a finger through a depth camera by a mobile terminal according to an embodiment of the present invention will be described.
도 14은 본 발명의 일 실시예에 의한 이동 단말기가 깊이 카메라(200)를 통해 사용자의 손(410)이 타겟팅하는 지점을 인지하는 방법을 개략적으로 설명하기 위한 도면이다.14 is a diagram for schematically illustrating a method in which a mobile terminal according to an embodiment of the present invention recognizes a point targeted by a user's hand 410 through a depth camera 200.
이동 단말기는 사용자와 인터랙션 하기 위해 사용자의 손(410)에서 타겟팅 하는 손가락 및 해당 손가락이 타겟팅 하는 지점(411a, 411b)을 빠르고 정확하게 트랙킹 할 필요가 있다. 또한, 이동 단말기는 사용자의 손(410)에서 깊이 카메라를 향해 돌출되더라도 타겟팅 하지 않는 지점(412)은 트래킹에서 제외할 필요가 있다.In order to interact with the user, the mobile terminal needs to quickly and accurately track a finger targeted at the user's hand 410 and points 411a and 411b targeted by the finger. Further, even if the mobile terminal protrudes from the user's hand 410 toward the depth camera, it is necessary to exclude the targeting point 412 from tracking.
도 14(a)는 사용자의 손(410)이 깊이 카메라(200)를 향해 있는 실시예를 나타내며, 도 14(b)는 도 14(a)에서 깊이 카메라(200)가 사용자의 손(410)를 캡쳐하고, 깊이 이미지에서 깊이 카메라(200)와의 거리(h)에 대응하여 획득된 세그먼트(500)이다. 또한, 도 14(c)는 도 14(b)의 세그먼트(500)를 대응되는 기준거리와 세그먼트 간 포함관계를 통해 구현된 세그먼트 트리(600)를 나타낸다.14 (a) shows an embodiment in which the user's hand 410 is directed toward the depth camera 200, and FIG. 14 (b) shows that the depth camera 200 in FIG. 14 (a) is the user's hand 410. Is captured, and is a segment 500 obtained corresponding to a distance h from the depth camera 200 in the depth image. In addition, FIG. 14 (c) shows the segment tree 600 implemented through the inclusion relationship between the corresponding reference distance and the segment 500 of FIG. 14 (b).
이동 단말기는 사용자의 손(410)의 깊이 이미지에서 세그먼트 트리(600)를 통해 타겟팅 하는 지점(411a, 411b)를 추출할 수 있다. The mobile terminal may extract targeting points 411a and 411b from the depth image of the user's hand 410 through the segment tree 600.
도 14(c)의 세그먼트 트리(600)를 구체적으로 살펴보면, 세그먼트 트리(600)는 적어도 하나의 노드(630)를 포함할 수 있다. 적어도 하나의 노드(630)는 이웃 거리에 대응되는 복수의 세그먼트를 포함하는 특정 세그먼트 일 수 있다. 즉, N+1번째 기준거리(h_N+1)에 대응되는 세그먼트가 N번째 기준거리(h_N)에 대응되는 복수의 세그먼트를 포함하는 경우, N+1번째 기준거리(h_N+1)에 대응되는 세그먼트는 특정 세그먼트로, 세그먼트 트리(600)에서 제1 노드(630a)에 대응될 수 있다. Looking specifically at the segment tree 600 of FIG. 14C, the segment tree 600 may include at least one node 630. The at least one node 630 may be a specific segment including a plurality of segments corresponding to neighboring distances. That is, when the segment corresponding to the N + 1st reference distance (h_N + 1) includes a plurality of segments corresponding to the Nth reference distance (h_N), the segment corresponding to the N + 1st reference distance (h_N + 1) The segment is a specific segment, and may correspond to the first node 630a in the segment tree 600.
사용자의 손(410)에서 타겟팅 하는 지점(411a, 411b)은 세그먼트 트리(600)의 노드(= 특정 세그먼트, 630)에서 깊이 카메라(200)를 향해 기 설정 거리 이상 이격된 유효 단부(610a, 610b)에 대응될 수 있다. 구체적으로, 특정 세그먼트에 대응되는 기준거리에서 이동 단말기 또는 깊이 카메라(200)를 향해 기 설정 거리 이상 위치하는 세그먼트를 타겟팅 하는 지점(411a, 411b)에 대응시킬 수 있다.Points 411a, 411b targeted at the user's hand 410 are effective ends 610a, 610b spaced apart by a predetermined distance or more from the node (= specific segment, 630) of the segment tree 600 toward the depth camera 200. ). Specifically, it is possible to correspond to points 411a and 411b targeting a segment located at a predetermined distance or more toward a mobile terminal or a depth camera 200 at a reference distance corresponding to a specific segment.
제1 유효 단부(610a)는 제1 노드(630a)에 연결되고, 제1 노드(630a)와 거리(ha1)가 기 설정 거리 이상이므로 사용자의 손에서 타겟팅하는 제1 지점(411a)에 대응될 수 있다.The first effective end 610a is connected to the first node 630a and corresponds to the first point 411a targeted by the user's hand because the first node 630a and the distance ha1 are greater than a preset distance. You can.
제2 유효 단부(610b)는 제2 노드(630b)와 연결되고, 제2 노드(630b)와 거리(ha2)가 기 설정 거리 이상으로 각각이 사용자의 손(410)에서 타겟팅 하는 제2지점(411b)에 대응될 수 있다. The second effective end 610b is connected to the second node 630b, and the second node 630b and the second point each of which is targeted at the user's hand 410 with a distance ha2 greater than or equal to a preset distance ( 411b).
세그먼트 트리(600)에서 단부에 위치하더라도 노드(630)에서 이격된 거리가 기 설정 거리 미만인 경우 해당 단부를 무효 단부(620)로 분별하고, 이는 사용자의 손(410)에서 타겟팅 하지 않는 지점(412)에 대응될 수 있다. 구체적으로, 무효 단부(620)는 제2 노드(630b)와 연결되고, 제 2 노드(630b)와 거리(hb1)가 기 설정 거리 미만으로 사용자의 손(410)에서 타겟팅 하지 않는 지점(412)에 대응될 수 있다. Even if it is located at the end in the segment tree 600, if the distance from the node 630 is less than a preset distance, the end is classified as an invalid end 620, which is a point 412 that is not targeted at the user's hand 410 ). Specifically, the invalid end 620 is connected to the second node 630b, the second node 630b and the distance hb1 is less than a predetermined distance, a point 412 that is not targeted at the user's hand 410 Can correspond to
즉, 세그먼트 트리에서 단부가 유효 또는 무효인지 여부는 연결된 노드에서의 거리가 기 설정 거리 이상인지를 통해 분별될 수 있다. 따라서, 본 발명은 엄지와 같이 노드의 깊이가 다른 손가락도 타겟팅 손가락으로 트랙킹할 수 있으며, 복수의 손가락의 타겟팅 지점을 정확하게 트랙킹 할 수 있는 장점이 있다.That is, whether the end is valid or invalid in the segment tree can be discriminated through whether the distance from the connected node is greater than or equal to a preset distance. Therefore, the present invention has the advantage of being able to track fingers with different node depths, such as the thumb, with targeting fingers, and to accurately track targeting points of multiple fingers.
이하에서, 구체적으로 이동 단말기가 깊이 카메라(200)를 통해 사용자의 손가락을 트랙킹하는 방법을 살펴본다Hereinafter, a method of tracking a user's finger through the depth camera 200 in detail will be described in detail.
도 15는 도 14을 설명하기 위한 플로우 차트이다.15 is a flow chart for explaining FIG. 14.
이동 단말기는 사용자의 손가락을 트랙킹 하기 위해, 깊이 카메라를 통해 깊이 이미지(Depth image)를 획득한다. (S401) The mobile terminal acquires a depth image through a depth camera to track a user's finger. (S401)
이동 단말기는 깊이 이미지에서 사용자의 손을 분별하기 위해, 인터랙션 영역(Interaction Region)을 설정하고, 깊이 이미지에서 인터랙션 영역외의 이미지를 제거한다. (S402) 인터랙션 영역은 이동 단말기로부터 제1 기 설정 거리 이내로 설정할 수 있으며, 이와 관련하여 이하 도 16을 통해 구체적으로 살펴본다.In order to discriminate the user's hand from the depth image, the mobile terminal sets an interaction region and removes an image outside the interaction region from the depth image. (S402) The interaction area may be set within a first preset distance from the mobile terminal, and will be described in detail with reference to FIG. 16 below.
이동 단말기는 깊이 이미지에서 가장 가까운 거리 값을 가지는 픽셀을 통해 오브젝트의 타겟 거리(Target Distance)를 추출할 수 있다. (S403) 타겟 거리는 깊이 이미지에서 이동 단말기로부터의 거리에 따른 세그먼트를 획득하는 시작 기준 거리가 될 수 있으며, 이와 관련하여 이하 도 17을 통해 구체적으로 살펴본다.The mobile terminal may extract the target distance of the object through a pixel having a distance value closest to the depth image. (S403) The target distance may be a starting reference distance for acquiring a segment according to the distance from the mobile terminal in the depth image, and will be specifically described with reference to FIG. 17 below.
깊이 카메라는 깊이 이미지에서 깊이 카메라에서 거리에 대응하여 세그먼트를 획득하고, 세그먼트의 포함관계를 통해 세그먼트 트리(Segment Tree)를 구현할 수 있다. (S404) 세그먼트 트리는 이동 단말기로부터의 거리에 따라 획득된 세그먼트간 포함관계를 통해 구현할 수 있으며, 도 18 내지 도 22을 통해 구체적으로 살펴본다.The depth camera may acquire a segment corresponding to the distance from the depth camera in the depth image, and implement a segment tree through the segmentation relationship. (S404) The segment tree may be implemented through an inclusion relationship between segments obtained according to a distance from the mobile terminal, and will be described in detail with reference to FIGS. 18 to 22.
이동 단말기는 구현된 세그먼트 트리에서 노드에서의 거리를 통해 유효 단부를 결정한다. (S405) 이동 단말기는 세그먼트 트리에서 노드에 대응되는 특정 세그먼트를 분별하고, 특정 세그먼트가 획득된 거리에서 이동 단말기로 제2 기설정 거리 이상 위치한 세그먼트를 통해 유효 단부를 결정할 수 있다. 이와 관련하여 이하 도 23 및 24를 통해 구체적으로 살펴본다.The mobile terminal determines the effective end through the distance from the node in the implemented segment tree. (S405) The mobile terminal may identify a specific segment corresponding to the node in the segment tree, and determine an effective end through a segment located at a distance greater than or equal to a second preset distance from the distance at which the specific segment is obtained. In this regard, it will be described in detail with reference to FIGS. 23 and 24 below.
이동 단말기는 결정된 유효 단부에 대응되는 타겟팅 지점 및 깊이(=3D Finger Position)을 추출한다. (S406) 이동 단말기는 유효 단부에 대응되는 적어도 하나의 타겟 포인트의 위치를 추출하고, 추출된 위치에 대응하여 디스플레이를 통해 비디오 피드백을 제공할 수 있다. 이와 관련하여, 타겟 포인트의 위치를 추출하는 방법은 도 26 및 도 27를 통해 살펴보며, 디스플레이를 통해 비디오 피드백을 제공하는 방법은 도 28 내지 30을 통해 구체적으로 살펴본다.The mobile terminal extracts a targeting point and depth (= 3D Finger Position) corresponding to the determined effective end. (S406) The mobile terminal may extract the location of at least one target point corresponding to the effective end, and provide video feedback through the display in response to the extracted location. In this regard, the method of extracting the location of the target point will be described with reference to FIGS. 26 and 27, and the method of providing video feedback through the display will be described in detail with reference to FIGS. 28 to 30.
상기 방법을 통해 이동 단말기가 사용자의 손가락을 트랙킹 하기 위해, 이동 단말기는 적어도 하나의 커맨드를 저장하는 메모리, 오브젝트를 캡쳐하여 깊이 이미지를 획득하는 깊이 카메라, 상기 메모리에 저장된 적어도 하나의 커맨드에 따라, 상기 깊이 카메라에 의해 캡쳐된 오브젝트에 대응하는 비디오 피드백을 출력하는 디스플레이, 그리고, 상기 메모리, 상기 깊이 카메라, 및 상기 디스플레이에 연결된 컨트롤러를 포함하고, 상기 컨트롤러는 상기 메모리에 저장된 적어도 하나의 커맨드에 따라 상기 이동 단말기로부터 제1 기 설정 거리 이내의 상기 오브젝트에 반응하여, 상기 깊이 카메라가 상기 오브젝트를 트랙킹 하도록 제어하고, 상기 메모리에 저장된 적어도 하나의 커맨드에 따라, 상기 깊이 이미지에서 상기 이동 단말기로부터의 거리에 따른 적어도 하나의 세그먼트를 획득하고, 상기 메모리에 저장된 적어도 하나의 커맨드에 따라 특정 세그먼트가 획득된 거리에서 상기 이동 단말기로 제2 기 설정 거리 이상에 위치한 적어도 하나의 타겟 포인트를 출력하도록 상기 디스플레이를 제어하는 것을 특징으로 할 수 있다.In order for the mobile terminal to track a user's finger through the above method, the mobile terminal may store a memory storing at least one command, a depth camera capturing an object to obtain a depth image, and at least one command stored in the memory, A display for outputting video feedback corresponding to an object captured by the depth camera, and a controller connected to the memory, the depth camera, and the display, wherein the controller is configured according to at least one command stored in the memory. In response to the object within a first predetermined distance from the mobile terminal, the depth camera controls to track the object, and according to at least one command stored in the memory, the distance from the mobile terminal in the depth image To Acquiring at least one segment according to, and controlling the display to output at least one target point located above a second preset distance to the mobile terminal from a distance at which a specific segment is acquired according to at least one command stored in the memory It can be characterized by doing.
도 16는 도 15에서 인터랙션 영역(Interaction Region)을 설명하기 위한 도면이며, 도 17은 도 16의 인터랙션 영역에서 획득된 깊이 이미지를 설명하기 위한 도면이다.FIG. 16 is a diagram for explaining an interaction region in FIG. 15, and FIG. 17 is a diagram for describing a depth image obtained in the interaction region of FIG. 16.
깊이 카메라(200)는 각 픽셀별로 깊이 데이터를 추출할 수 있으며, 이를 통해 특정 거리 내에 있는 오브젝트를 추출하는 것이 가능하다.The depth camera 200 may extract depth data for each pixel, and through this, it is possible to extract an object within a specific distance.
본 발명에서 사용되는 인터랙션 영역(320)은 도 16과 같이 제 1 기설정 거리(= 최대 인지 거리 = Max distance, 330) 이내의 영역에 대응될 수 있다. 경우에 따라서는, 인터랙션 영역(320)은 깊이 카메라가(200)가 오브젝트를 인지할 수 있는 최소 인지거리(310) 이상 및 제1 기설정 거리(330) 이하에 대응되는 영역일 수 있다.The interaction area 320 used in the present invention may correspond to an area within a first preset distance (= maximum recognition distance = Max distance, 330) as shown in FIG. 16. In some cases, the interaction area 320 may be an area corresponding to a minimum recognition distance 310 and a first preset distance 330 that the depth camera 200 can recognize the object.
이동 단말기는 인터랙션 영역(320)에 들어온 오브젝트만을 트랙킹(tracking) 할 수 있다. 사용자는 이동 단말기를 향해 손을 뻗어 손의 움직임을 통해 이동 단말기와 인터랙션 하므로, 인터랙션 영역(320)에 들어온 오브젝트는 사용자의 손일 가능성이 있고, 이동 단말기는 사용자의 손일 가능성이 있는 오브젝트를 트랙킹하는 것이 바람직하다.The mobile terminal can track only objects that have entered the interaction area 320. Since the user reaches out to the mobile terminal and interacts with the mobile terminal through hand movement, the object entering the interaction area 320 may be the user's hand, and the mobile terminal tracking the object that is likely to be the user's hand desirable.
이동 단말기는 획득한 깊이 이미지에서 인터랙션 영역(320)에 대응되는 픽셀 값을 가지는 픽셀을 제외하고 나머지 픽셀은 픽셀 값을 제거한다.The mobile terminal removes the pixel value of the remaining pixels except for the pixel having the pixel value corresponding to the interaction region 320 in the acquired depth image.
도17에서 0의 값을 가지는 픽셀(321)은 인터랙션 영역(320)에 대응되지 않는 픽셀 값을 가지는 픽셀로 픽셀 값이 제거된 픽셀에 해당한다. 또한, 픽셀 값을 가지는 픽셀(322)은 인터랙션 영역(320)에 대응되는 픽셀 값을 가지는 픽셀일 수 있다. 즉, 픽셀 값을 가지는 픽셀(322)은 제1 기준 거리(330) 이하에 대응되는 픽셀 값을 가지는 픽셀 일 수 있다.In FIG. 17, a pixel 321 having a value of 0 is a pixel having a pixel value that does not correspond to the interaction area 320, and corresponds to a pixel from which a pixel value is removed. Also, the pixel 322 having a pixel value may be a pixel having a pixel value corresponding to the interaction region 320. That is, the pixel 322 having a pixel value may be a pixel having a pixel value corresponding to the first reference distance 330 or less.
이동 단말기는 인터랙션 영역(320)에 오브젝트가 들어온 경우 트랙킹을 시작하도록 설계된다. 즉, 인터랙션 영역(320)에 오브젝트가 들어오지 않아 픽셀 값이 모두 0으로 제거된 경우, 이동 단말기는 이하에서 설명하는 트랙킹을 수행하지 않아, 에너지 및 데이터 효율성을 높인다.The mobile terminal is designed to start tracking when an object enters the interaction area 320. That is, when an object does not enter the interaction area 320 and all pixel values are removed as 0, the mobile terminal does not perform tracking described below, thereby increasing energy and data efficiency.
이동 단말기는 인터랙션 영역(320)에 오브젝트가 들어온 경우, 획득한 깊이 이미지에서 최단 거리를 결정한다. 최단 거리는 도 17에서 0을 제외한 최소의 픽셀 값에 대응되는 거리 일 수 있다. 결정된 최단 거리는 인터랙션 영역(320)에 오브젝트가 들어와서 오브젝트의 세그먼트 트리를 형성하는데 이용될 수 있는데 이하에서 세그먼트 트리를 형성하는 방법을 설명한다.When an object enters the interaction area 320, the mobile terminal determines the shortest distance from the acquired depth image. The shortest distance may be a distance corresponding to a minimum pixel value excluding 0 in FIG. 17. The determined shortest distance may be used to form a segment tree of the object by entering the object into the interaction area 320. Hereinafter, a method of forming a segment tree will be described.
도 18은 도 15에서 사용자의 손에 대응되는 세그먼트 트리(Segment Tree)를 구현하는 방법을 설명하기 위한 플로우 차트이고, 도 19 내지 22은 도 18을 설명하기 위한 도면이다. FIG. 18 is a flowchart for describing a method of implementing a segment tree corresponding to a user's hand in FIG. 15, and FIGS. 19 to 22 are diagrams for describing FIG. 18.
이동 단말기는 도 16의 인터랙션 영역(620)에 오브젝트가 들어온 경우 트랙킹을 시작함에 있어 세그먼트 트리를 구현할 수 있다.The mobile terminal may implement a segment tree when starting tracking when an object enters the interaction area 620 of FIG. 16.
세그먼트 트리를 구현하기 위해, 이동 단말기는 세그먼트를 획득하기 위해 최단 거리(= START) 및 기준거리(=END)를 결정한다. (S501) To implement the segment tree, the mobile terminal determines the shortest distance (= START) and reference distance (= END) to obtain a segment. (S501)
최단 거리(= START)는 도 17에서 0을 제외한 가장 작은 픽셀 값(323)에 대응되는 거리 일 수 있다. 즉, 최단 거리(= START)는 도 19에서 설명한 바와 같이 오브젝트(또는, 사용자의 손(410))에서 깊이 카메라(200)와 가장 가까운 지점(411c)과 깊이 카메라(200)간 거리(h1)일 수 있다.The shortest distance (= START) may be a distance corresponding to the smallest pixel value 323 except 0 in FIG. 17. That is, the shortest distance (= START) is the distance h1 between the depth camera 200 and the point 411c closest to the depth camera 200 from the object (or the user's hand 410) as described in FIG. 19. Can be
기준 거리(=END)는 세그먼트를 획득하는 거리로, 세그먼트는 기준 거리(=END) 이하에 대응되는 픽셀 값을 가지는 픽셀 그룹일 수 있다. 이동 단말기는 최단 거리(= START) 초과 및 제1 기 설정 거리(330) 이하의 거리를 기준 거리(=END)를 결정할 수 있다. 도 19에서 설명한 바와 같이 기준 거리(=END)는 제1 기 설정 거리(h1)와 최단 거리(h1) 사이에 일정 거리 간격(Gap)을 가지고 순차적으로 결정될 수 있다. The reference distance (= END) is a distance for acquiring a segment, and the segment may be a group of pixels having a pixel value corresponding to a reference distance (= END) or less. The mobile terminal may determine a reference distance (= END) based on a distance exceeding the shortest distance (= START) and less than or equal to the first preset distance 330. As described in FIG. 19, the reference distance (= END) may be sequentially determined with a predetermined distance gap (Gap) between the first preset distance (h1) and the shortest distance (h1).
이동 단말기는 획득된 깊이 이미지에서 최단거리(= START) 이상 및 기준거리(=END) 이하의 픽셀 값을 가지는 픽셀만 필터링하고 나머지 픽셀 값은 제거한다. (S502) The mobile terminal filters only pixels having pixel values greater than or equal to the shortest distance (= START) and less than or equal to the reference distance (= END) from the acquired depth image, and removes the remaining pixel values. (S502)
도 20(a)는 깊이 이미지에 캡쳐되는 사용자의 손의 일 실시예 및 사용자의 손에 최단거리(= START) 및 제1 기준 거리(=END 1) 내지 제6 기준 거리(= END 6)를 표시한 도면이다.20 (a) shows an embodiment of a user's hand captured in a depth image and a shortest distance (= START) and a first reference distance (= END 1) to a sixth reference distance (= END 6) in the user's hand. It is a marked drawing.
또한, 도 20(b)는 제1 기준 거리(=END 1) 내지 제6 기준 거리(= END 6) 각각과 최단거리(=START) 사이의 픽셀 값을 가지는 픽셀만 필터링한 실시예를 표시한 도면이다. 기준 거리(END 1 to 6)가 깊이 카메라(또는, 최단 거리(=START))에 가까워 지는 경우, 필터링 되는 픽셀이 많아지게 되는 것을 확인 할 수 있다. In addition, FIG. 20 (b) shows an embodiment in which only pixels having pixel values between each of the first reference distance (= END 1) to the sixth reference distance (= END 6) and the shortest distance (= START) are filtered. It is a drawing. When the reference distance END 1 to 6 is close to the depth camera (or the shortest distance (= START)), it can be confirmed that the number of pixels to be filtered increases.
이동 단말기는 결정된 기준거리(=END) 및 최단 거리(=START) 에 대응하여 깊이 이미지를 필터링 한 후, 세그먼트를 분할(Segmentation)할 수 있다. (S503)The mobile terminal may filter the depth image according to the determined reference distance (= END) and the shortest distance (= START), and then segment the segment. (S503)
도 21은 세그먼트를 분할 하는 과정을 설명하는 도면이다. 도 21(a)는 도 20에서 최단 거리(=START)와 제1 기준 거리(=END1), 최단 거리(=START)와 제3 기준 거리(=END3) 및, 최단 거리(=START)와 제5 기준 거리(=END5)에 대응되어 각각 필터링된 깊이 이미지 이다. 도 21(b)는 필터링된 이미지에서 픽셀값을 가지나는 픽셀을 그룹핑하여 분할된 세그먼트를 나타낸다.21 is a diagram illustrating a process of dividing a segment. FIG. 21 (a) shows the shortest distance (= START) and the first reference distance (= END1), the shortest distance (= START) and the third reference distance (= END3), and the shortest distance (= START) and FIG. Each depth image is filtered according to 5 reference distances (= END5). FIG. 21 (b) shows segments segmented by grouping pixels having pixel values in the filtered image.
구체적으로, 최단 거리(=START)와 제1 기준 거리(=END1)에 대응되어 필터링된 깊이 이미지는 하나의 픽셀그룹으로 분할 될 수 있고, 하나의 픽셀 그룹은 세그먼트A에 대응될 수 있다. 또한, 최단 거리(=START)와 제3 기준 거리(=END3)에 대응되어 필터링된 깊이 이미지는 세 개의 픽셀그룹으로 분할될 수 있고, 세 개의 픽셀 그룹은 각각 세그먼트B, C, D에 대응될 수 있다. 또한, 최단 거리(=START)와 제5 기준 거리(=END5)에 대응되어 필터링된 깊이 이미지는 두 개의 픽셀 그룹으로 분할될 수 있고, 두 개의 픽셀 그룹은 세그먼트 E, F에 대응될 수 있다.Specifically, the depth image filtered according to the shortest distance (= START) and the first reference distance (= END1) may be divided into one pixel group, and one pixel group may correspond to segment A. Also, the depth image filtered according to the shortest distance (= START) and the third reference distance (= END3) may be divided into three pixel groups, and the three pixel groups may correspond to segments B, C, and D, respectively. You can. Also, the depth image filtered according to the shortest distance (= START) and the fifth reference distance (= END5) may be divided into two pixel groups, and the two pixel groups may correspond to segments E and F.
이동 단말기는 세그먼트를 분할(Segmentation)한 후, 특정 세그먼트(=Parent)를 결정한다. (S504)The mobile terminal determines a specific segment (= Parent) after segmenting. (S504)
도 22는 도 21의 분할된 세그먼트를 통해 세그먼트 트리를 구현하고, 특정 세그먼트를 결정하는 방법을 설명한 도면이다. 도 22(a)에서 세그먼트 A는 대응되는 기준거리가 세그먼트 B, C, D가 대응되는 기준거리보다 길고, 차지하는 영역이 세그먼트 B, C, D를 포함하여 도 22(b)의 상부 도면과 같이 비교될 수 있다. 도 22(a)에서 세그먼트 B, C, D에 대응되는 기준거리는 세그먼트 E, F가 대응되는 기준거리보다 길고, 각각 세그먼트 B, C가 차지하는 영역에 포함되어 도 22(b)의 하부 도면과 같이 비교될 수 있다. 또한, 도 22(b)의 상부 및 하부 도면은 도 22(c) 같이 세그먼트 트리로 구현될 수 있다.22 is a diagram illustrating a method of implementing a segment tree through the segmented segment of FIG. 21 and determining a specific segment. In FIG. 22 (a), segment A has a corresponding reference distance longer than a corresponding reference distance, and the occupied area includes segments B, C, and D as shown in the upper view of FIG. 22 (b). Can be compared. In FIG. 22 (a), the reference distances corresponding to segments B, C, and D are longer than the reference distances corresponding to segments E, F, and are included in the areas occupied by segments B and C, respectively, as shown in the lower diagram of FIG. 22 (b). Can be compared. In addition, the upper and lower views of FIG. 22 (b) may be implemented as a segment tree as shown in FIG. 22 (c).
도 22(c)를 구체적으로 살펴보면, 세그먼트 A, 세그먼트 B, C, D 및, 세그먼트 E, F는 대응되는 기준거리를 통해 상, 중, 하에 위치하며, 세그먼트 A는 세그먼트 B, C, D를 포함하여 세그먼트 B, C, D에 연결되어 표현될 수 있다. 또한, 세그먼트 B, C는 세그먼트 E, F를 각각 포함하여, 각각이 상호 연결될 수 있다.22 (c), segments A, segments B, C, D, and segments E, F are located above, middle, and bottom through corresponding reference distances, and segment A indicates segments B, C, and D. Including, it can be connected to segments B, C, and D. In addition, segments B and C include segments E and F, respectively, so that each can be interconnected.
즉, 본 발명에 따른 이동 단말기는 깊이 이미지에서 기준거리를 제1 기설정 거리에서 일정 간격으로 감소하여 대응되는 세그먼트를 획득하고, 세그먼트간 포함관계를 통해 세그먼트 트리를 형성할 수 있다.That is, the mobile terminal according to the present invention can reduce the reference distance from the depth image at a predetermined interval from the first preset distance to obtain a corresponding segment, and form a segment tree through the intersegment inclusion relationship.
특정 세그먼트(=parent)는 인접하는 기준 거리에 대응되는 복수의 세그먼트를 포함하는 세그먼트 일 수 있다. 즉, 도 22에서 세그먼트 A는 인접하는 기준 거리에 대응되는 복수의 세그먼트 B, C, D 를 포함하므로 본 발명의 특정 세그먼트(=parent)에 해당될 수 있다.The specific segment (= parent) may be a segment including a plurality of segments corresponding to adjacent reference distances. That is, in FIG. 22, segment A includes a plurality of segments B, C, and D corresponding to adjacent reference distances, and thus may correspond to a specific segment (= parent) of the present invention.
이동 단말기는 기준 거리(=END)를 도 19에서 설명된 바와 같이, 제1 기 설정 거리(h1)에서 일정 거리 간격(Gap)을 가지고 순차적으로 감소하며 대응되는 세그먼트를 획득하고, 특정 세그먼트를 결정한 후, 기준 거리(=END)가 최단 거리(=Start, h1)에 이하인 경우(S505, YES), 세그먼트 트리를 구현하는 것을 중단한다.(S506)The mobile terminal sequentially decreases the reference distance (= END) with a predetermined distance gap (Gap) at the first preset distance (h1) as described in FIG. 19 to obtain a corresponding segment, and determines a specific segment Then, when the reference distance (= END) is less than or equal to the shortest distance (= Start, h1) (S505, YES), the implementation of the segment tree is stopped (S506).
도 23는 도 15에서 세그먼트 트리를 통해 유효 단부를 결정하는 방법을 설명하기 위한 플로우 차트이고, 도 24은 도 23를 설명하기 위한 도면이다.23 is a flowchart illustrating a method of determining an effective end through a segment tree in FIG. 15, and FIG. 24 is a diagram for describing FIG. 23.
이동 단말기는 깊이 데이터를 통해 세그먼트 트리를 구현한 경우, 세그먼트 트리의 단부를 결정한다. (S601) 여기서, 단부는 본 발명의 타겟 포인트에 대응될 수 있는데, 이와 관련하여서는 도 24 및 도 25를 통해 구체적으로 설명한다.When the mobile terminal implements a segment tree through depth data, it determines the end of the segment tree. (S601) Here, the end may correspond to the target point of the present invention, in this regard will be described in detail with reference to Figures 24 and 25.
이동 단말기는 기준 거리에 대응하여 세그먼트를 추출하고, 추출된 세그먼트가 다른 세그먼트를 포함하지 않는 경우, 해당 세그먼트를 세그먼트 트리의 단부로 결정할 수 있다. The mobile terminal extracts a segment corresponding to the reference distance, and if the extracted segment does not include another segment, it may determine that segment as the end of the segment tree.
도 23는 세그먼트 트리(600)의 일 예로, 도 18 내지 도 22를 통해 설명된 바와 같이 구현될 수 있는데, 도 23에 포함된 일 예에 따른 세그먼트 트리(600)는 세 개의 단부(610b, 610a, 620)를 포함하고 있다. 23 is an example of the segment tree 600, and may be implemented as described through FIGS. 18 to 22. The segment tree 600 according to an example included in FIG. 23 includes three ends 610b and 610a. , 620).
이동 단말기는 단부를 결정한 경우, 각 단부와 노드간 길이(Length)를 추출한다.(S602) 각 단부와 노드간 길이는 각 단부에 대응되는 기준 거리와 노드에 대응되는 기준거리의 차이일 수 있다. 여기서, 노드는 도 22의 특성 세그먼트에 대응될 수 있다.When the mobile terminal determines the end, the length between each end and the node is extracted. (S602) The length between each end and the node may be a difference between a reference distance corresponding to each end and a reference distance corresponding to the node. . Here, the node may correspond to the characteristic segment of FIG. 22.
도 23의 일 예에 따른 세그먼트 트리(600)는 하나의 노드(630)를 포함하고, 세 개의 단부(610a, 610b, 620)가 노드(630)는 연결되어 구현되었다. The segment tree 600 according to the example of FIG. 23 includes one node 630, and three ends 610a, 610b, and 620 are implemented by connecting the nodes 630.
각 단부(610a, 610b, 620)와 노드(630)간 길이는 각 단부(610a, 610b, 620)에 대응되는 기준 거리(End b, End c)와 노드(630)에 대응되는 기준거리(End a)의 차이일 수 있다.The length between each end (610a, 610b, 620) and the node 630 is a reference distance (End b, End c) corresponding to each end (610a, 610b, 620) and a reference distance (End) corresponding to the node (630) It may be the difference of a).
따라서, 제1 단부(610a) 및 제2 단부(610b)와 노드(630)간 거리(h4)는 제1 단부(610a) 및 제2 단부(610b)에 대응되는 기준거리(End b)와 노드(630)에 대응되는 기준거리(End a)의 차일 수 있다.Accordingly, the distance h4 between the first end 610a and the second end 610b and the node 630 is a reference distance End b and a node corresponding to the first end 610a and the second end 610b. It may be a difference of the reference distance End a corresponding to 630.
또한, 제3 단부(620)와 노드(630)간 거리 (h3)는 제3 단부(620)에 대응되는 기준 거리(End c)와 노드(630)에 대응되는 기준 거리(End a)의 차 일 수 있다.In addition, the distance h3 between the third end 620 and the node 630 is the difference between the reference distance End c corresponding to the third end 620 and the reference distance End a corresponding to the node 630. Can be
이동 단말기는 각 단부와 노드간 길이(Length)가 제2 기설정 거리(THRES) 이상인지 여부로 유효 단부를 결정한다.(S603) 즉, 이동 단말기는 노드에 대응되는 기준거리에서 제2 기설정거리 이상 이격된 기준거리에서 획득한 단부를 유효 단부로 결정할 수 있다.The mobile terminal determines an effective end based on whether the length between each end and the node is greater than or equal to the second preset distance THRES (S603). That is, the mobile terminal sets a second preset value at a reference distance corresponding to the node. An end obtained at a reference distance spaced over a distance may be determined as an effective end.
도 23을 통해 살펴보면, 제1 단부(610a) 및 제2 단부(610b)와 노드(630)간 길이(h4)가 기2 기설정 거리 이상 조건을 만족하는 경우 유효 단부로 결정될 수 있다. 또한, 제3단부(620)와 노드(630)간 길이(h3)가 제2 기설정 거리 이상 조건을 만족하지 못하는 경우 무효 단부로 결정될 수 있다.Looking through FIG. 23, when the length h4 between the first end 610a and the second end 610b and the node 630 satisfies a condition greater than or equal to a second preset distance, it may be determined as an effective end. In addition, when the length h3 between the third end 620 and the node 630 does not satisfy the condition greater than or equal to the second preset distance, it may be determined as an invalid end.
다만, 유효 단부로 결정된 단부도, 메타데이터(Metadata)를 통해 무효 단부 여부를 추가로 확인한다. (S604)However, the end determined as an effective end is further checked whether the invalid end is through metadata. (S604)
메타데이터를 통해 무효 단부 여부를 추가로 확인하는 방법은, 유효 단부에서 노드까지 사이즈 증가율을 통해 확인하는 방법으로, 유효 단부가 노드에서부터 급작스럽게 증가하는 경우 무효 단부로 결정될 수 있다.The method of additionally checking whether the invalid end is through metadata may be determined through a size increase rate from the effective end to the node, and if the effective end suddenly increases from the node, it may be determined as the invalid end.
세그먼트 트리를 통해 유효 단부를 결정한 경우 알고리즘이 종료된다.(S605)If the effective end is determined through the segment tree, the algorithm ends (S605).
도 25는 도 15에서 결정된 유효 단부에 대응되는 타켓팅 지점 및 깊이를 추출하는 방법을 설명하기 위한 플로우 차트이고, 도 26 및 도 27은 도 25를 설명하기 위한 도면이다.25 is a flow chart for explaining a method of extracting a targeting point and depth corresponding to the effective end determined in FIG. 15, and FIGS. 26 and 27 are views for explaining FIG. 25.
이동 단말기는 유효 단부에 대응되는 세그먼트의 중점(x,y)을 추출한다.(S701) 이동 단말기는 유효 단부에 대응되는 세그먼트를 구성하는 픽셀의 위치를 통해 세그먼트의 중점(x,y)을 추출할 수 있다.The mobile terminal extracts the midpoint (x, y) of the segment corresponding to the effective end. (S701) The mobile terminal extracts the midpoint (x, y) of the segment through the position of the pixels constituting the segment corresponding to the effective end. can do.
이동 단말기는 유효 단부의 깊이(Depth(z))를 추출한다.(S702) 그리고, 절차를 종료한다(S703). The mobile terminal extracts the depth (Depth (z)) of the effective end. (S702), and ends the procedure (S703).
도 26은 세그먼트 트리(600)의 일 예로, 도 18 내지 도 22를 통해 설명된 바와 같이 구현될 수 있는데, 세그먼트 E, G가 유효 단부에 대응되는 세그먼트 일 수 있다. 도 27는 도26의 세그먼트 E, F에 대응되는 기준 거리(End e)에서 획득한 깊이 이미지로 필터링을 통해 세그먼트 E, F을 포함하고 있다.26 is an example of the segment tree 600, and may be implemented as described through FIGS. 18 to 22. Segments E and G may be segments corresponding to effective ends. FIG. 27 is a depth image obtained at a reference distance End e corresponding to segments E and F of FIG. 26 and includes segments E and F through filtering.
이동 단말기는 유효 단부에 해당하는 세그먼트 E는 깊이 이미지에서 세그먼트 E를 구성하는 픽셀 그룹(610e)의 위치를 통해 세그먼트 E의 중점(x,y)를 추출할 수 있다.The mobile terminal may extract the midpoint (x, y) of the segment E through the position of the pixel group 610e constituting the segment E in the segment E corresponding to the effective end.
또한, 이동단말기는 세그먼트 E에 대응되는 기준 거리(End e)를 통해 깊이(h6)를 추출할 수 있다. 이때, 세그먼트 G에 대응되는 기준 거리(End g)를 통해 추출된 깊이(h5)를 통해 세그먼트 G와 세그먼트 간 깊이차이(h7)를 추출할 수 있다.Further, the mobile terminal may extract the depth h6 through the reference distance End e corresponding to segment E. In this case, the depth difference h7 between the segment G and the segment may be extracted through the depth h5 extracted through the reference distance End g corresponding to the segment G.
이동 단말기는 유효 단부에 대응되는 중점(x,y) 및 깊이(y)를 통해 사용자의 손이 타겟팅 지점을 획득하고, 이에 대응하여 디스플레이에 비디오 피드백을 제공할 수 있다. 타겟팅 지점에 대응하여 제공되는 비디오 피드백은 이하에서 살펴본다.The mobile terminal may acquire a targeting point by the user's hand through the midpoint (x, y) and depth (y) corresponding to the effective end, and provide video feedback to the display correspondingly. The video feedback provided in response to the targeting point will be described below.
도 28 내지 30는 도 15를 통해 추출된 타게팅 지점에 대응하여 제공되는 비디오 피드백을 설명하기 위한 도면이다.28 to 30 are diagrams for explaining video feedback provided corresponding to the targeting point extracted through FIG. 15.
비디오 피드백은 적어도 하나의 타겟 포인트가 이동 단말기(또는, 깊이 카메라)를 향해 제3 기설정 거리 이상 이동하는 경우, 상기 적어도 하나의 타겟 포인트에 대응되는 디스플레이 영역이 선택되었음을 표시하는 비디오 피드백일 수 있다.The video feedback may be video feedback indicating that a display area corresponding to the at least one target point is selected when at least one target point moves over a third preset distance toward the mobile terminal (or depth camera). .
또한, 비디오 피드백은 적어도 하나의 타겟 포인트가 이동 단말기(또는, 깊이 카메라)로부터 제4 기설정 거리 이내로 이동 하는 경우, 상기 적어도 하나의 타겟 포인트에 대응되는 디스플레이 영역이 선택되었음을 표시하는 비디오 피드백일 수 있다.Further, the video feedback may be video feedback indicating that a display area corresponding to the at least one target point is selected when at least one target point moves within a fourth preset distance from the mobile terminal (or depth camera). have.
도 28(a)은 이동 단말기가 사용자의 손(410)에 대응되는 세그먼트 트리를 통해 타겟팅 지점을 획득하고 디스플레이(700)에 타겟 포인트(720)를 표시하는 실시예를 나타낸 도면이다.28 (a) is a diagram illustrating an embodiment in which a mobile terminal acquires a targeting point through a segment tree corresponding to a user's hand 410 and displays the target point 720 on the display 700.
도 28(b)는 타겟팅 지점이 디스플레이를 향해 접근하는 정도를 선택 대상(730)에 접근하는 그래픽 피드백(740)을 통해 나타내는 실시예를 나타낸 도면이다. FIG. 28 (b) is a diagram illustrating an embodiment in which the degree to which the targeting point approaches the display is displayed through the graphic feedback 740 approaching the selection target 730.
도 28(c)는 도28(b)에서 선택 대상(730)이 선택되었음을 나타내는 그래픽 피드백(750)를 도시한 도면이다. 즉, 그래픽 피드백(750)이 선택 대상(730)의 윤곽선에 일치됨으로 사용자는 선택 대상이 선택되었음을 알 수 있다.28 (c) is a diagram illustrating a graphic feedback 750 indicating that the selection target 730 is selected in FIG. 28 (b). That is, the user can know that the selection target is selected because the graphic feedback 750 matches the contour of the selection target 730.
또한, 비디오 피드백은 적어도 하나의 타겟 포인트가 복수의 타겟 포인트로 분할되는 경우, 상기 디스플레이에 표시되는 컨텐츠의 크기를 크게 하거나, 줌인(Zoom-In)하는 비디오 피드백일 수 있다.In addition, when the at least one target point is divided into a plurality of target points, the video feedback may be video feedback that enlarges or zooms in the content displayed on the display.
반대로, 비디오 피드백은 상기 타겟 포인트가 복수 개이고, 상기 복수 개의 타겟 포인트가 하나의 타겟 포인트로 합쳐지는 경우 상기 디스플레이에 표시되는 컨텐츠의 크기를 작게 하거나, 줌아웃(Zoom-Out)하는 비디오 피드백일 수 있다.Conversely, the video feedback may be video feedback that reduces or zooms out the size of content displayed on the display when the target points are plural and the plurality of target points are combined into one target point. .
도 29(a)는 줌인 또는 줌아웃 비디오 피드백을 제공하는 사용자의 손(410) 액션을 도시한 것으로, 두 개의 타겟 포인트(720a, 720b)가 하나의 하나의 타겟 포인트(721)로 합쳐지거나, 반대로 하나의 타겟 포인트가(721)는 두 개의 카겟 포인트(720a, 720b)로 분할되는 실시예를 도시하고 있다.FIG. 29 (a) shows a user's hand 410 action that provides zoom-in or zoom-out video feedback, where two target points 720a, 720b are merged into one target point 721, or vice versa. One target point value 721 illustrates an embodiment in which two target points 720a and 720b are divided.
도 29(a)는 줌인 또는 줌아웃 비디오 피드백을 제공하는 사용자의 손(410) 액션을 도시한 것으로, 다섯 개의 타겟 포인트(720a, 720b, 720c, 720d, 720e)가 하나의 하나의 타겟 포인트(721)로 합쳐지거나, 반대로 하나의 타겟 포인트가(721)는 다섯개의 타겟 포인트(720a, 720b, 720c, 720d, 720e)로 분할되는 실시예를 도시하고 있다.FIG. 29 (a) shows a user's hand 410 action that provides zoom-in or zoom-out video feedback, wherein five target points 720a, 720b, 720c, 720d, and 720e are one target point 721 ), Or, conversely, one target point 721 shows an embodiment in which the target points are divided into five target points 720a, 720b, 720c, 720d, and 720e.
또한, 비디오 피드백은 상기 적어도 하나의 타겟 포인트가 움직이는 방향에 대응하여 디스플레이에 표시되는 컨텐츠를 이동하거나, 다른 컨텐츠를 표시하는 비디오 피드백일 수 있다.Also, the video feedback may be video feedback that moves content displayed on a display or displays other content in response to a direction in which the at least one target point moves.
도 30은 다른 컨텐츠를 표시하는 비디오 피드백에 대응되는 사용자 손(410)의 액션을 도시한 것을, 다섯 개의 타겟 포인트(720a, 720b, 720c, 720d, 720e)가 좌우로 이동하는 실시예를 도시하고 있다.30 illustrates an action of a user hand 410 corresponding to video feedback displaying other content, and an embodiment in which five target points 720a, 720b, 720c, 720d, and 720e move from side to side. have.
또한 비디오 피드백은 상기 적어도 두 개의 타겟 포인트의 회전 방향에 대응하여 디스플레이에 표시되는 컨텐츠를 회전하는 비디오 피드백일 수 있다.In addition, the video feedback may be video feedback that rotates content displayed on a display corresponding to the rotation direction of the at least two target points.
상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above detailed description should not be construed as limiting in all respects, but should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (12)

  1. 제1 또는 제 2 모드로 작동하는 TOF(Time Of Flight) 카메라에 있어서,In a TOF (Time Of Flight) camera operating in the first or second mode,
    광원을 오브젝트에 조사하는 라이트 소스;A light source that irradiates an object with a light source;
    상기 오브젝트에 반사된 광을 수신하여 로우 데이터(raw data) 를 획득하는 이미지 센서;An image sensor that receives raw light reflected by the object and obtains raw data;
    상기 로우 데이터를 처리하는 연산부; 그리고, An operation unit that processes the raw data; And,
    상기 라이트 소스, 상기 이미지 센서 및 상기 연산부와 연결된 컨트롤러;를 포함하고, And a controller connected to the light source, the image sensor, and the calculation unit.
    상기 컨트롤러는 The controller
    상기 제1 모드에서 특정 시그널의 광원을 조사하도록 상기 라이트 소스를 제어하고, 상기 연산부를 통해 상기 로우 데이터의 변화를 감지한 경우 상기 제2 모드로 전환하고, In the first mode, the light source is controlled to irradiate a light source of a specific signal, and when a change in the raw data is detected through the operation unit, the light source is switched to the second mode,
    상기 제2 모드에서 상기 특정 시그널의 위상을 가변토록 상기 라이트 소스를 제어하고, 상기 로우 데이터를 통해 상기 오브젝트의 깊이 데이터를 생성토록 상기 연산부를 제어하는 것을 특징으로 하는 TOF(Time Of Flight) 카메라.A time of flight (TOF) camera, characterized in that in the second mode, the light source is controlled to vary the phase of the specific signal, and the operation unit is controlled to generate depth data of the object through the raw data.
  2. 제1항에 있어서,According to claim 1,
    상기 이미지 센서는 The image sensor
    기 설정 프레임 동안 위상이 상이한 시그널이 인가되고, 이에 대응하여 상기 반사된 광을 수신하는 제1 및 제2 포토 게이트을 포함하고, Signals having different phases are applied during a preset frame, and correspondingly include first and second photo gates that receive the reflected light,
    상기 컨트롤러는 The controller
    상기 제1 모드에서 상기 제1 포토 게이트를 통해 상기 로우 데이터를 획득하도록 상기 이미지 센서를 제어하고, In the first mode, the image sensor is controlled to acquire the raw data through the first photo gate,
    상기 제2 모드에서 상기 제1 및 제2 포토 게이트를 통해 상기 로우 데이터를 획득하도록 상기 이미지 센서를 제어하는 것을 특징으로 하는 TOF(Time Of Flight) 카메라.A time of flight (TOF) camera, characterized in that the image sensor is controlled to acquire the raw data through the first and second photo gates in the second mode.
  3. 제2항에 있어서,According to claim 2,
    상기 연산부는 The operation unit
    상기 제1 모드에서 획득한 상기 로우 데이터의 인텐서티 변화를 판단하는 서브 연산부; 그리고, A sub-operation unit to determine an intensity change of the raw data acquired in the first mode; And,
    상기 제2 모드에서 획득한 상기 로우 데이터의 인텐서티 비율을 통해 상기 깊이 데이터를 생성하는 메인 연산부;를 포함하는 것을 특징으로 하는 TOF(Time Of Flight) 카메라.And a main operation unit generating the depth data through the intensity ratio of the raw data acquired in the second mode.
  4. 제3항에 있어서,According to claim 3,
    상기 컨트롤러는 The controller
    상기 서브 연산부에서 상기 로우 데이터의 인텐서티 변화를 감지한 경우, 상기 메인 연산부를 웨이크업(wake up)하는 것을 특징으로 하는 TOF(Time Of Flight) 카메라.A time-of-flight (TOF) camera, characterized in that when the sub-operation unit senses the change in intensity of the raw data, the main operation unit wakes up.
  5. 제5항에 있어서,The method of claim 5,
    상기 컨트롤러는The controller
    상기 제2 모드에서 상기 깊이 데이터가 기 설정 시간 이상 변화하지 않는 경우, 상기 제1 모드로 전환하는 것을 특징으로 하는 TOF(Time Of Flight) 카메라.In the second mode, if the depth data does not change more than a preset time, the TOF (Time Of Flight) camera, characterized in that for switching to the first mode.
  6. 이동 단말기에 있어서, In the mobile terminal,
    제1 또는 제2 모드로 작동하며, 광을 조사하는 라이트 소스, 반사된 광을 수신하여 로우 데이터를 획득하는 이미지 센서, 및 상기 로우 데이터를 통해 깊이 데이터를 생성하는 연산부를 포함하는 TOF(Time Of Flight) 카메라;A TOF (time of operation) including a light source irradiating light, an image sensor receiving reflected light to obtain raw data, and an operation unit generating depth data through the raw data, operating in the first or second mode Flight) camera;
    상기 깊이 데이터에 대응되는 커맨드를 저장하는 메모리; A memory for storing a command corresponding to the depth data;
    상기 메모리에 저장된 상기 커맨드에 대응하여 그래픽 피드백을 제공하는 디스플레이; 그리고, A display providing graphic feedback in response to the command stored in the memory; And,
    상기 TOF 카메라, 상기 메모리, 및 상기 디스플레이에 연결된 컨트롤러;를 포함하고, And a controller connected to the TOF camera, the memory, and the display.
    상기 컨트롤러는 The controller
    상기 제1 모드에서 특정 시그널의 광원을 조사토록 상기 라이트 소스를 제어하고, 상기 연산부에서 상기 로우 데이터의 변화를 감지한 경우, 상기 제2 모드로 전환하고, In the first mode, the light source is controlled to irradiate a light source of a specific signal, and when the operation unit detects a change in the raw data, it switches to the second mode,
    상기 제2 모드에서 상기 특정 시그널의 위상을 가변토록 상기 라이트 소스를 제어하고, 상기 로우 데이터를 통해 상기 깊이 데이터를 생성토록 상기 연산부를 제어하고, In the second mode, the light source is controlled to vary the phase of the specific signal, and the operation unit is controlled to generate the depth data through the raw data,
    상기 제공된 그래픽 피드백이 종료된 경우, 상기 제2 모드에서 상기 제1 모드로 전환하는 것을 특징으로 하는 이동 단말기And when the provided graphic feedback ends, switching from the second mode to the first mode.
  7. 제7항에 있어서,The method of claim 7,
    상기 이미지 센서는 The image sensor
    기 설정 프레임 동안 위상이 상이한 시그널이 인가되고, 이에 대응하여 상기 반사된 광을 수신하는 제1 및 제2 포토 게이트를 포함하고, Signals having different phases are applied during a preset frame, and correspondingly include first and second photo gates that receive the reflected light,
    상기 제 1 모드에서 In the first mode
    상기 로우 데이터는 상기 제1 포토 게이트를 통해 획득되고, The raw data is acquired through the first photo gate,
    상기 제2 모드에서 In the second mode
    상기 로우 데이터는 상기 제1 및 제2 포토 게이트를 통해 획득되는 것을 특징으로 하는 이동 단말기.The raw data is obtained through the first and second photo gate mobile terminal.
  8. 제10항에 있어서,The method of claim 10,
    상기 연산부는 The operation unit
    상기 제1 모드에서 획득한 로우 데이터의 인텐서티 변화를 판단하는 서브 연산부; A sub-operation unit to determine an intensity change of the raw data acquired in the first mode;
    상기 제2 모드에서 획득한 상기 로우 데이터의 인텐서티 비율을 연산하고, 이를 통해 상기 깊이 데이터를 생성하는 메인 연산부;를 포함하는 것을 특징으로 하는 이동 단말기.And a main operation unit which calculates an intensity ratio of the raw data acquired in the second mode and generates the depth data through it.
  9. 제8항에 있어서,The method of claim 8,
    상기 연산부는 The operation unit
    상기 제1 모드에서 획득한 로우 데이터의 인텐서티 변화를 판단하는 서브 연산부; A sub-operation unit to determine an intensity change of the raw data acquired in the first mode;
    상기 제2 모드에서 획득한 상기 로우 데이터의 인텐서티 비율을 연산하고, 이를 통해 상기 깊이 데이터를 생성하는 메인 연산부;를 포함하는 것을 특징으로 하는 이동 단말기.And a main operation unit which calculates an intensity ratio of the raw data acquired in the second mode and generates the depth data through it.
  10. 제9항에 있어서,The method of claim 9,
    상기 컨트롤러는 The controller
    상기 서브 연산부에서 상기 로우 데이터의 인텐서티 변화를 감지한 경우, 상기 메인 연산부를 웨이크업(wake up)하는 것을 특징으로 하는 이동 단말기.When the sub-operation unit senses the change in the intensity of the raw data, the mobile terminal characterized in that the main operation unit wakes up (wake up).
  11. TOF(Time of Flight) 카메라를 포함하는 이동 단말기를 제어하는 방법에 있어서, In the method for controlling a mobile terminal including a TOF (Time of Flight) camera,
    제1 모드로 상기 TOF(Time Of Flight) 카메라를 작동하여, 움직이는 오브젝트의 존재를 확인하는 단계; Operating the Time Of Flight (TOF) camera in a first mode to confirm the existence of a moving object;
    상기 제1 모드에서 움직이는 오브젝트의 존재가 확인된 경우, 제2 모드로 상기 TOF(Time Of Flight) 카메라를 작동하여 상기 오브젝트의 깊이 데이터를 획득하는 단계;를 포함하고, Includes; when the existence of the moving object is confirmed in the first mode, operating the Time Of Flight (TOF) camera in the second mode to obtain depth data of the object;
    상기 제1 모드는 The first mode
    상기 TOF 카메라에서 특정 시그널의 광원을 오브젝트에 조사하고, 상기 오브젝트에 반사된 광원을 수신하여 로우 데이터(raw data)를 획득하고, 상기 로우 데이터의 변화를 감지하여 상기 움직이는 오브젝트의 존재 판단하고, The TOF camera irradiates a light source of a specific signal to an object, receives a light source reflected by the object, obtains raw data, detects a change in the raw data, determines the existence of the moving object,
    상기 제2 모드는 The second mode
    상기 TOF 카메라에서 상기 특정 시그널의 위상을 가변하여 광원을 조사하고, 상기 오브젝트에 반사된 광원을 수신하여 로우 데이터를 획득하고, 상기 로우 데이터를 통해 상기 오브젝트의 깊이 데이터를 획득하는 것을 특징으로 하는 이동 단말기 제어방법.The TOF camera shifts the phase of the specific signal to irradiate a light source, receives the light source reflected by the object, obtains raw data, and obtains depth data of the object through the raw data. Terminal control method.
  12. 제11항에 있어서,The method of claim 11,
    상기 깊이 데이터에 대응하여 그래픽 피드백을 제공하는 단계; 그리고,Providing graphic feedback in response to the depth data; And,
    상기 제공된 그래픽 피드백이 종료된 경우, 상기 제2 모드에서 상기 제1 모드로 전환하는 단계;를 더 포함하는 것을 특징으로 하는 이동 단말기 제어방법.And when the provided graphic feedback ends, switching from the second mode to the first mode.
PCT/KR2018/012562 2018-10-23 2018-10-23 Mobile terminal and method for controlling same WO2020085525A1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
PCT/KR2018/012562 WO2020085525A1 (en) 2018-10-23 2018-10-23 Mobile terminal and method for controlling same
KR1020190092155A KR20200045947A (en) 2018-10-23 2019-07-30 Mobile terminal
KR1020190092154A KR102218919B1 (en) 2018-10-23 2019-07-30 Mobile terminal
US16/661,199 US11620044B2 (en) 2018-10-23 2019-10-23 Mobile terminal
US16/661,215 US11500103B2 (en) 2018-10-23 2019-10-23 Mobile terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2018/012562 WO2020085525A1 (en) 2018-10-23 2018-10-23 Mobile terminal and method for controlling same

Publications (1)

Publication Number Publication Date
WO2020085525A1 true WO2020085525A1 (en) 2020-04-30

Family

ID=70331164

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/012562 WO2020085525A1 (en) 2018-10-23 2018-10-23 Mobile terminal and method for controlling same

Country Status (1)

Country Link
WO (1) WO2020085525A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11562582B2 (en) * 2018-12-03 2023-01-24 Ams International Ag Three dimensional imaging with intensity information

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130100524A (en) * 2012-03-02 2013-09-11 삼성전자주식회사 Method of operating a three-dimensional image sensor
KR20130138225A (en) * 2010-09-28 2013-12-18 마이크로소프트 코포레이션 Integrated low power depth camera and projection device
US20170244922A1 (en) * 2012-11-28 2017-08-24 Infineon Technologies Ag Charge conservation in pixels
US20170272651A1 (en) * 2016-03-16 2017-09-21 Analog Devices, Inc. Reducing power consumption for time-of-flight depth imaging
US20170324891A1 (en) * 2012-11-21 2017-11-09 Infineon Technologies Ag Dynamic conservation of imaging power

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130138225A (en) * 2010-09-28 2013-12-18 마이크로소프트 코포레이션 Integrated low power depth camera and projection device
KR20130100524A (en) * 2012-03-02 2013-09-11 삼성전자주식회사 Method of operating a three-dimensional image sensor
US20170324891A1 (en) * 2012-11-21 2017-11-09 Infineon Technologies Ag Dynamic conservation of imaging power
US20170244922A1 (en) * 2012-11-28 2017-08-24 Infineon Technologies Ag Charge conservation in pixels
US20170272651A1 (en) * 2016-03-16 2017-09-21 Analog Devices, Inc. Reducing power consumption for time-of-flight depth imaging

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11562582B2 (en) * 2018-12-03 2023-01-24 Ams International Ag Three dimensional imaging with intensity information

Similar Documents

Publication Publication Date Title
WO2016035921A1 (en) Mobile terminal and control method therefor
WO2018110749A1 (en) Mobile terminal
WO2017082508A1 (en) Watch-type terminal and method for controlling same
WO2017051975A1 (en) Mobile terminal and control method therefor
WO2016052814A1 (en) Mobile terminal and method of controlling the same
WO2016064096A2 (en) Mobile terminal and method for controlling the same
WO2015137580A1 (en) Mobile terminal
WO2012144667A1 (en) Method and electronic device for gesture recognition
WO2019168238A1 (en) Mobile terminal and control method therefor
WO2016167406A1 (en) Synchronization system comprising display device and wearable device, and controlling method
WO2015163544A1 (en) Mobile terminal
WO2018043844A1 (en) Mobile terminal
WO2016175424A1 (en) Mobile terminal and method for controlling same
WO2015194694A1 (en) Mobile terminal
WO2015126012A1 (en) Mobile terminal and method for controlling same
WO2019231042A1 (en) Biometric authentication device
WO2016013768A1 (en) Mobile terminal and control method therefor
WO2020105757A1 (en) Mobile terminal
WO2017159931A1 (en) Electronic device including touch panel and method of controlling the electronic device
WO2018038288A1 (en) Mobile terminal
WO2018052159A1 (en) Mobile terminal and control method therefor
WO2016195197A1 (en) Pen terminal and method for controlling the same
WO2016111406A1 (en) Mobile terminal and method for controlling same
WO2017155187A1 (en) Mobile terminal
WO2020059925A1 (en) Mobile terminal

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18938207

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18938207

Country of ref document: EP

Kind code of ref document: A1